Cómo el New York Times usa AR en el periodismo

Cómo el New York Times usa AR en el periodismo

[rank_math_breadcrumb]

El equipo de investigación y desarrollo del New York Times está explorando la narración inmersiva con estos cinco experimentos.

En 2018, el Times publicó historias en realidad aumentada para dispositivos móviles por primera vez: los lectores podían admirar el estilo de ropa único de David Bowie en sus propias cuatro paredes o revivir la misión Apolo 11 en una perspectiva en primera persona.

El mercado del hardware ciertamente se está desarrollando cada vez más hacia los auriculares que pueden manejar tanto la realidad virtual como alguna forma de realidad aumentada, como el Quest Pro. Esto da como resultado nuevas oportunidades para integrar la realidad mixta en la vida cotidiana y entenderla como una parte regular del periodismo.

El equipo de Investigación y Desarrollo de The New York Times ha estado involucrado con el «periodismo espacial» durante algún tiempo. ¿Cómo se puede escalar espacialmente una historia en 3D? ¿Puede una historia interactuar con los usuarios en tiempo real? ¿Qué medios necesitan los periodistas para acercar bien estas experiencias a los lectores?

The New York Times quiere utilizar dicha investigación para crear experiencias AR informativas. Con este fin, el equipo de I+D ya ha probado varios auriculares para determinar sus posibilidades en relación con el periodismo inmersivo, incluidos Quest 2, HoloLens 2, Magic Leap 2 y Nreal Light.

La Realidad Aumentada ayuda a explicar temas complejos

En el primer experimento, los lectores pueden ampliar y reducir el modelo 3D de una partícula de Covid-19 y dividirlo en secciones. Sostener una célula viral en la mano y poder escalarla mejora la comprensión de una partícula tan pequeña. Los cuadros de texto explican los detalles.

Partículas de covid-19 en una visualización AR del New York Times en espacio real, frente a un armario y la puerta de una habitación

Ser capaz de examinar objetos en 3D mejora la comprensión a través de la proximidad espacial y la interacción. | Imagen: New York Times, Tim Clark

El segundo experimento demuestra el proceso de una prueba PCR de Covid-19 en cinco pasos. Modelado en Blender y animado con Unity, un proceso tan complejo se convierte en un proceso vívido y tangible que es más fácil de entender. El modelo 3D se puede mover y escalar en cualquier lugar del espacio.

En el tercer experimento, un algoritmo evalúa la cantidad de personas en el campo de visión del usuario en tiempo real. En relación con este número, el campo de visión muestra cuántas enfermeras estarían disponibles para cubrir la escasez de trabajadores calificados durante los tiempos de Corona. La posición individual y el entorno directo de los lectores se integran así en la experiencia y se convierten en una experiencia interactiva, muy diferente a lo que sería el caso de un artículo periodístico.

Ondas de presión y distribución de partículas respiratorias en el espacio

El cuarto experimento demuestra las consecuencias de Erupción de Tonga en dos variantes: los usuarios cambian entre un mapa bidimensional y un globo terráqueo 3D y observan cómo la onda de presión atmosférica se propaga por los continentes como una onda roja. Aquí es donde la flexibilidad de los objetos AR demuestra ser una ventaja: la visualización se puede cambiar sin problemas entre un globo terráqueo o un mapa 2D.

Proyección AR de un globo terrestre con una onda sísmica del terremoto de Tonga, en espacio real frente a una estantería

El efecto de la erupción de Tonga en AR: la onda de presión atmosférica en la visualización muestra cuán masivo fue el evento. | Imagen: New York Times, Alexandre Devaux

El último experimento es un artículo interactivo sobre la distancia social. Los usuarios se colocan en el centro de un minimapa, junto con modelos 3D de personas a diferentes distancias de los usuarios para visualizar la distancia social.

Cuando los usuarios dicen «tos» (alemán: «Husten»), las partículas se representan como pequeños puntos que se dispersan físicamente correctamente en el aire. Los usuarios pueden moverse por la habitación para seguir la distribución de partículas en tiempo real y ver hasta dónde se propagan.

Oportunidad para el periodismo: comprender mejor las conexiones a través de AR

Las relaciones complejas no siempre son fáciles de explicar, especialmente no por escrito. Es por eso que los periodistas suelen confiar en videos explicativos, gráficos animados y medios similares. La Realidad Aumentada tiene el potencial de llevar estas conexiones al entorno de vida directo del usuario y hacerlas tangibles y, por lo tanto, más fáciles de transmitir a través de una interacción y una representación espacial inteligentes.

La representación de la distribución de partículas del aire que respiramos, por ejemplo, permite a los destinatarios tener una idea inmediata y espacial de lo que sucede cuando toses en espacios públicos sin seguir las normas de higiene.

Sin embargo, actualmente muchos editores de periódicos apenas o nada manejan las nuevas tecnologías. La transformación digital suele ser lenta y pocas oficinas editoriales grandes están experimentando con medios inmersivos o entendiendo el gran potencial. Solo el 46 por ciento de los editores encuestados en una encuesta actual afirman que «tecnologías innovadoras como big data, nube, Inteligencia artificial y Realidad Virtual” para usar o querer usar estratégicamente.


Publicado

en

por

Etiquetas: