22 minute read

Edge Computing

El Edge Computing es una tecnología emergente que se ha convertido en uno de los temas más importantes en la industria tecnológica en los últimos tiempos. Esta tecnología ha sido posible gracias a la convergencia de diferentes tecnologías como el Internet de las cosas (IoT), el 5G, la nube y el Big Data. Permite procesar datos cerca del lugar donde se generan, reduciendo así la latencia y mejorando la calidad de los servicios.

En las retransmisiones audiovisuales en directo es una de las aplicaciones más importantes de esta tecnología. En las retransmisiones de noticias en tiempo real, los medios de comunicación pueden procesar y transmitir la información de manera más rápida y eficiente a los espectadores. Además, en la transmisión de juegos en línea, el edge computing permite reducir la latencia y mejorar la calidad de la conexión, proporcionando una experiencia de juego más fluida y agradable.

También ofrece beneficios para los proveedores de contenido, ya que les permite personalizar la transmisión de acuerdo con las preferencias de los usuarios, brindar servicios adicionales a los espectadores y aumentar la seguridad de las transmisiones audiovisuales en directo.

La tecnología del edge computing se está convirtiendo en una herramienta esencial para la transmisión de eventos en vivo y en tiempo real. En este artículo, profundizaremos en los detalles del edge computing, su aplicación en las retransmisiones audiovisuales en directo y los beneficios que aporta a los espectadores y proveedores de servicios de retransmisión.

¿Qué es el edge computing?

El edge computing es una tecnología que permite procesar datos cerca del lugar donde se generan, reduciendo así la latencia y mejorando la calidad de los servicios. Esta tecnología ha sido posible gracias a la convergencia de diferentes tecnologías como el IoT, el 5G, la nube y el Big Data.

Se basa en la idea de llevar el procesamiento de datos a la periferia de la red, cerca del lugar donde se generan los datos. Esto permite reducir la latencia y mejorar la calidad de los servicios al procesar los datos en el mismo lugar donde se generan, en lugar de enviarlos a un centro de datos remoto para su procesamiento.

En la actualidad, el edge computing se utiliza en una amplia variedad de aplicaciones, como la Industria 4.0, la seguridad inteligente, el transporte inteligente y la salud digital, entre otros.

En las retransmisiones audiovisuales en directo, el edge computing se está utilizando para mejorar la calidad de la transmisión y reducir la latencia. Gracias a esta tecnología, es posible procesar datos cerca del usuario final, lo que reduce el tiempo que tarda la información en llegar a su destino. Esto es especialmente importante en eventos deportivos en vivo, donde la latencia es crítica. Los espectadores quieren ver la transmisión en tiempo real, sin retrasos. Con el edge computing, es posible reducir significativamente la latencia y mejorar la calidad de la transmisión.

Además de los beneficios para los espectadores, el edge computing también puede ser beneficioso para los proveedores de servicios de retransmisión. Al reducir la cantidad de datos que se transmiten a través de la red, es posible reducir los costos de transmisión. Esto puede llevar a una mayor eficiencia en la organización de eventos en vivo y en la transmisión de información. Además, también puede ser utilizado para el análisis de datos en tiempo real, lo que puede ayudar a los proveedores de servicios de retransmisión a mejorar la experiencia del usuario y a tomar decisiones más informadas.

Aplicación del edge computing en las retransmisiones audiovisuales en directo

Una de las aplicaciones más importantes del edge computing en las retransmisiones audiovisuales en directo es en transmisiones de noticias en tiempo real. En el mundo actual, la velocidad de la información es fundamental, especialmente en el ámbito de las noticias. Gracias a él, los medios de comunicación pueden procesar la información cerca del lugar de los acontecimientos y transmitirla de manera más rápida y eficiente a los espectadores. Esto permite a los usuarios estar informados de manera casi instantánea sobre lo que está sucediendo en cualquier lugar del mundo.

Además, también puede ser utilizado en la transmisión de contenido en vivo en redes sociales y plataformas de vídeo en línea. En estos casos, los usuarios esperan una transmisión en tiempo real con una calidad de imagen y sonido adecua- da. Al utilizar el edge computing, la calidad de la transmisión se puede mejorar y la latencia se puede reducir, lo que mejora significativamente la experiencia de los usuarios.

Otra aplicación importante del edge computing en las retransmisiones audiovisuales en directo es en la transmisión de juegos en línea. Los juegos en línea son una de las formas de entretenimiento más populares en todo el mundo y requieren una conexión a Internet rápida y estable para proporcionar una experiencia de juego adecuada. Al utilizar el edge computing, es posible reducir la latencia y mejorar la calidad de la conexión, lo que proporciona a los usuarios una experiencia de juego más fluida y agradable. Además, también puede mejorar la seguridad en línea en los juegos, ya que el procesamiento de datos se realiza en dispositivos cercanos al usuario final y no en un centro de datos remoto.

El edge computing también puede ayudar a las empresas de transmisión a cumplir con las normas de privacidad de datos. En muchos países, las empresas están obligadas a cum- plir con regulaciones estrictas para proteger la privacidad de los usuarios y garantizar que sus datos personales no sean comprometidos. Con el procesamiento de datos en el borde de la red, las empresas pueden asegurarse de que los datos personales se mantengan en el dispositivo del usuario y no se transmitan a través de la red.

Beneficios del edge computing en las retransmisiones audiovisuales en directo

Además de los beneficios mencionados, el edge computing también permite a los proveedores de contenido personalizar la transmisión de acuerdo con las preferencias de los usuarios. Con el procesamiento de datos en el borde de la red, es posible identificar patrones de visualización y preferencias de los usuarios en tiempo real. Por lo tanto, los proveedores de contenido pueden personalizar la transmisión de vídeo para adaptarse a las necesidades específicas de cada usuario, mejorando aún más la calidad de la experiencia del usuario.

Otro beneficio del edge computing en las retransmisiones audiovisuales en directo es la capacidad de brindar servicios adicionales a los espectadores. Por ejemplo, se pueden agregar servicios de transmisión de audio, datos y servicios de transmisión de realidad virtual y aumentada en vivo en los eventos. Esto aumenta la interacción de los espectadores y su inmersión en la experiencia, lo que mejora la calidad de la transmisión y la satisfacción del espectador.

Por último, el edge computing también puede aumentar la seguri- dad de las transmisiones audiovisuales en directo. La tecnología de procesamiento de datos en el borde de la red puede proteger contra ataques cibernéticos y mantener la privacidad de los datos personales de los usuarios. Al procesar la información cerca del lugar donde se genera, se reduce la cantidad de datos que se transmiten a través de la red y, por lo tanto, se reduce la posibilidad de que los datos sean interceptados o robados por piratas informáticos.

Ejemplos de uso del edge computing en las retransmisiones audiovisuales en directo

A continuación, vamos a ver algunos ejemplos de uso del edge computing en las retransmisiones audiovisuales en directo.

Un ejemplo muy interesante es el de los eventos deportivos en vivo. En este tipo de eventos, la latencia es un factor muy importante, ya que los espectadores quieren ver la acción en tiempo real. La utilización de la tecnología edge computing permite reducir la latencia de la transmisión, lo que mejora la calidad de la experiencia del usuario.

Otro ejemplo interesante es el de los conciertos en vivo. En este tipo de eventos, la calidad de la transmisión es muy importante para que los espectadores puedan disfrutar de la música. El uso de la tecnología edge computing permite mejorar la calidad de la transmisión, ya que la información se procesa cerca del lugar donde se genera.

Otro ejemplo de uso del edge computing en las retransmisiones audiovisuales en directo es el de las conferencias en línea. En este tipo de eventos, la latencia es un factor muy importante, ya que los espectadores quieren participar en tiempo real y hacer preguntas a los ponentes. La utilización de la tecnología edge computing permite reducir la latencia de la transmisión, lo que mejora la calidad de la experiencia del usuario.

El edge computing es una tecnología que está revolucionando el mundo de las retransmisiones audiovisuales en directo. Su aplicación en este campo permite reducir la latencia de la transmisión, mejorar la velocidad y la calidad de la transmisión, reducir costes y mejorar la experiencia del usuario. En eventos deportivos en vivo, conciertos en vivo y conferencias en línea, el uso de esta tecnología es clave para ofrecer una experiencia de alta calidad a los espectadores.

Desafíos del edge computing en las retransmisiones audiovisuales en directo

Aunque tiene muchos beneficios también presenta algunos desafíos. Uno de los principales desafíos es la complejidad de la tecnología. La implementación del edge computing requiere de una infraestructura tecnológica avanzada, que puede ser costosa y difícil de mantener. Además, se requiere personal altamente capacitado para implementar y administrar esta tecnología.

Otro desafío es la falta de estándares en la industria. Dado que el edge computing es una tecnología relativamente nueva, aún no se han establecido estándares claros para su implementación. Esto puede dificultar la interoperabilidad entre diferentes sistemas y limitar su adopción.

La seguridad también es un desafío importante. Dado que el procesamiento de datos se realiza en dispo- sitivos cercanos al usuario final, existe el riesgo de que los datos personales sean comprometidos. Es importante implementar medidas de seguridad sólidas para minimizar estos riesgos.

Además, la regulación también puede ser un desafío. A medida que la tecnología evoluciona y se implementa en una variedad de aplicaciones, es probable que surjan nuevas preocupaciones regulatorias en torno a la privacidad de los datos y la seguridad cibernética.

Conclusiones

En conclusión, el edge computing es una tecnología que está ganando mucho terreno en los últimos tiempos y que tiene un gran impacto en las retransmisiones audiovisuales en directo. Su aplicación en este campo permite reducir la latencia de la transmisión, mejorar la velocidad y la calidad de la transmisión, reducir costes y mejorar la experiencia del usuario. En eventos deportivos en vivo, conciertos en vivo y conferencias en línea, el uso de esta tecnología es clave para ofrecer una experiencia de alta calidad a los espectadores. Sin duda, el edge computing es una tecnología que seguirá evolucionando en el futuro y que será clave en el mundo de las retransmisiones en vivo.

En resumen, el edge computing es una tecnología que se está utilizando cada vez más en las retransmisiones audiovisuales en directo. Permite procesar datos cerca del usuario final, lo que reduce la latencia y mejora la calidad de la transmisión. Además, el edge computing también puede ser beneficioso para los proveedores de servicios de retransmisión, ya que reduce la cantidad de datos que se transmiten a través de la red y, por lo tanto, los costos de transmisión. También permite personalizar la transmisión de acuerdo con las preferencias de los usuarios y brindar servicios adicionales para aumentar la interacción de los espectadores y su inmersión en la experiencia. En conclusión, puede mejorar significativamente la calidad de las retransmisiones audiovisuales en directo y la satisfacción del espectador.

Hablar de producción virtual es hablar de UNREAL

Cómo la producción virtual transformará el broadcast

En España, y en el mundo, la producción virtual se encuentra en una fase de implantación. Estudios, integradores y broadcasters experimentan con soluciones desarrolladas sobre técnicas de pantalla verde, motores gráficos de videojuegos y pantallas LED de gran formato y poca distancia entre píxeles. En esta etapa primigenia que se caracteriza por soluciones caras y poco accesibles, surge un claro en el bosque. Y es que hablar de producción virtual, están empezando a ser hablar de Unreal. El motor gráfico propietario de Epic Games, originalmente proveniente del mundo de los videojuegos, ha llegado para revolucionar nuestra industria. Las grandes marcas del mercado broadcast; véase Vizrt, Aximmetry, Brainstorm, Zero Density, Pixotope…, se rinden a sus pies. Y los profesionales de nuestro país, también. ¿Qué recorrido tiene esta solución en el broadcast? ¿Cómo crecerán las técnicas de producción virtual?

¿Por qué consideráis que es tan importante la creación de contenidos multimedia con técnicas virtuales? Responden Rafael Alarcón y Asier Anitua.

Rafael Alarcón es coordinador de Diseño Broadcast en Movistar Plus. Es, asimismo, encargado de la creación y supervisión de los platós virtuales que crea la cadena. Actualmente, es uno de los pocos expertos en Unreal Engine para broadcast en nuestro país. Asier Anitua es gerente de Desarrollo de Negocio y gran conocedor de los mercados de producción virtual en España.

¿Sobre qué infraestructura técnica trabajáis en Movistar Plus?

Rafael: En Movistar Plus trabajamos con Vizrt, lo tenemos dentro del ecosistema gráfico, tanto para el desarrollo de sets virtuales como para toda la parte gráfica que requiere trabajar en tiempo real; como retransmisiones de deportes, programas, branding de emisión.

Actualmente, tenemos un plató virtual con tres cámaras, dos de ellas robotizadas con tracking mecánico Vinten, y la tercera es un brazo robótico con seis ejes que actúa como grúa. Además, tenemos otro estudio con decorado corpóreo que cuenta con una grúa telescópica robotizada y sensorizada con la tecnología de Mo-sys para hacer aparecer elementos de realidad aumentada.

¿Cómo están formados los equipos de diseño e implementación de infraestructura y contenidos de producción virtual?

Rafael: Hay un equipo de escenografía que se encarga del diseño de los decorados. Luego está mi equipo que se encarga de hacer la implementación en Vizrt Artist, en la versión 4, y se preparan las funcionalidades que tiene que llevar ese set virtual, pantallas, elementos de RA, controles de escenas; todo ello para que en el control lo puedan operar fácilmente desde Vizrt ARC. También se hacen los ajustes de postprocesado, ajuste de máscaras y profundidad de campo para que respondan sobre las cámaras robotizadas.

Una vez finalizado todos los ajustes es hora de explotar ese plató vir- tual que simplemente necesitan de cuatro operadores. Control de cámaras e iluminación, mezclador, técnico de sonido y operador de Vizrt Arc. A partir de ahí la imaginación a la hora de “jugar” con el set virtual es infinita.

Hoy en día, muchos fabricantes se están volcando en desarrollar soluciones de software de producción virtual. Cada una de estas soluciones tiene sus propias prestaciones y características. ¿Para qué proyectos es más adecuada cada una de estas soluciones?

Rafael: Esto es algo que llevo estudiando desde hace un tiempo. Todo software de producción virtual tiene el mismo fin: mostrar escenarios en tiempo real con la mejor calidad posible y que la integración entre el mundo real y virtual se acerque lo máximo posible a la percepción de algo real por parte del espectador.

Ahora se va dar un cambio muy grande en la producción virtual. Unreal está desarrollando una herramienta para motion graphics en tiempo real. Es conocido como Proyecto Avalanche y está llamado a ser un sustituto de After Effects.

Vivimos en la época de la inmediatez. Por ello, los tiempos de renderizado ya se han quedado obsoletos. La cadena norteamericana ESPN ya lo ha integrado en una producción, se lo ha prestado Epic Games, para transmitir la edición 2023 del Rose Parade. En esta emisión para la ABC, ESPN utilizó el Proyecto Avalanche para desarrollar una solución gráfica que abarcara toda la producción gráfica desde el diseño hasta la emisión final.

La clave ha sido, dada la capacidad de Unreal para crear gráficos de interfaz de videojuegos, —comúnmente denominada como HUD—, trasladar ese sistema, adaptado obviamente, a herramientas de producción virtual, motion graphics en cabeceras, cortinillas, rotulación, etc. Se conseguirá con esto capacidades de crear, desplegar y modificar gráficos en tiempo real, sin tiempos de renderizado, claro.

¿Cuál es el origen de la expansión de Unreal en el broadcast?

Rafael: La base de esta capacidad está en el funcionamiento de un videojuego. En este formato una vez que la información se ha cargado, ya está listo para funcionar en tiempo real.

Epic Games puso su motor gráfico, un sistema que había alcanzado altas cotas de fotorrealismo, al servicio de otras industrias. En ese momento empezó a haber interés por parte de broadcasters y empresas de postproducción.

Hoy se ha conseguido transportar el fotorrealismo de Unreal a esas herramientas broadcast, gracias también a que esos agentes de la industria han fomentado su crecimiento ayudando a Epic Games a desarrollarlo.

Respecto a la competencia que tiene Unreal, ¿por qué se ha llevado la palma si hay otros motores en el mercado?

Rafael: Para mí la razón de que haya conseguido ese espacio es la optimización que ofrece a la hora de crear entornos y diseños propios dentro del software. Además Unreal 5 ofrece dos características muy buenas. Lumen permite trabajar con iluminación dinámica que no necesita ser “cocinada”, es decir que no necesita tiempo de procesado. Luego está Nanite, que es la parte de modelado en la que tienes la capacidad de desplegar polígonos infinitos, hasta que colme la capacidad de procesamiento de la GPU, claro. Pero es que además, Unreal maneja todos esos polígonos de forma diferente. La clave es cómo los calcula y cómo los interpreta. Lo hace a través de píxeles y no como una geometría, por lo tanto solo calcula la parte que se ve. Hasta ahora en todas las tecnologías de tiempo real, si veías una silla, calculaba toda la silla, no solo lo que se ve en la pantalla. Unreal lo sigue haciendo, pero optimiza solo la parte que se ve.

Entonces, si pensamos en los entornos de producción broadcast, la clave que aporta Unreal es la capacidad de optimizar los flujos de trabajo y de ganar tiempo, ¿verdad?

Rafael: Sin duda. El tiempo es oro. Pero es que además Unreal te ofrece mucho en muy poco tiempo y la curva de aprendizaje inicial es muy poco pronunciada. Por supuesto, luego es necesario seguir trabajando para que el resultado quede mejor, es ahí donde se empina el proceso. Y, precisamente, es ahí donde flaquean muchos de los software con motor propio que hay en el mercado. Por lo tanto, te da las herramientas para llegar a ser más creativo, que al final es el objetivo de todos ellos; que realmente prime la imaginación más allá de las características de la infraestructura tecnológica.

Como ya indicabas, la mayoría de los sistemas gráficos propietarios están añadiendo capacidad de integración con Unreal, ¿es este el modo de adaptarse a la tendencia?

Rafael: Efectivamente. Pero es que tienen que reconocer el potencial que tiene Unreal. Realmente, es que no les queda otra.

Asier: Así es, pero es que hay otro factor que también está haciendo que todos los fabricantes se posicionen a favor de este motor gráfico: ya existe una enorme biblioteca de plantillas y assets disponible. De hecho, cada día es más grande por- que los desarrollos propios también se pueden integrar a ese compendio y, además, son monetizables. Digamos que por 20 dólares puedes disponer de un Fórmula 1, mientras que desarrollarlo de cero implicaría un coste humano de muchas horas. Imagina que soy un cliente que quiere desarrollar un virtual.

Como decíamos, todos los fabricantes tienen que subirse a este tren, pero por otro lado estos fabricantes te van a garantizar la integración en los entornos broadcast. Epic Games no se va a meter a integrar Unreal con determinadas tecnologías, son los tradicionales los que se van a encargar de ofrecerte la mejor herramienta para cada producción.

Desde el punto de vista de negocio, también abre mucho los campos de especialización. Por ejemplo, un artista de motores gráficos para broadcast solo va a estar especializado en esa área. Sin embargo, como especialistas de Unreal puede adaptarse fácilmente a otros mucho sectores. Desde arquitectos hasta diseñadores de videojuegos.

Ese es uno de los mayores desafíos actualmente, ¿existe ya oferta profesional de perfiles especializados en Unreal?

Rafael : Sigue costando mucho encontrar gente especializada en Unreal. La razón más obvia es que es una herramienta muy nueva y falta mucha formación especializada en broadcast. Las teles están empezando ahora a confiar en Unreal.

Asier: Pero la habrá. De hecho, las universidades ya están implemen- tando estas herramientas en sus programas de formación. TSA ha desarrollado el estudio de producción virtual de la Universidad Rey Juan Carlos en el campus de Vicálvaro. Incluso, estamos empujando en esta dirección en programas de formación corporate, como en el espacio de La Cabina de Telefónica con la solución de producción virtual Edison de Brainstorm. De este modo queremos generar cantera.

¿Qué casos prácticos de aplicación de Unreal se han dado hasta ahora en España?

Rafael: En La7 de Murcia trabajan con Pixotope y con Unreal por detrás. Ya tienen un par de programas que están desarrollando de este modo. Hasta que tuvieron el corpóreo en el informativo han estado con uno virtual.

En Telemadrid, en el programa “Disfruta Madrid” también están usando Unreal.

En la Televisión de Canarias en el programa de “Una hora menos” también trabajan con Pixotope sobre Unreal.

Hemos seguido vuestras últimas integraciones y nos aventuramos a asegurar que estáis apostando por el sistema de Aximmetry. ¿A qué se debe esta predilección?

Rafael: Realmente, por su accesibilidad. Hubo un momento en el que todos los demás sistemas estaban cerrados. Aximmetry abrió su sistema enseguida sin mayor coste que una marca de agua. Eso fue a finales de 2019.

A finales de 2019 yo quería probar herramientas para trabajar con Unreal. Pero lo cierto es que no había nada. Cuando, al tiempo, descubrí Aximmetry se me abrió un mundo. Tenía un playout para ver si funcionaban todas las cosas que hacía en Unreal sin necesidad de programarlas en el propio sistema, —que también se puede, pero ya te metes en un lío bastante más grande—. Esta era una forma más sencilla de hacerlo.

Por otro lado, está el precio. Aximmetry es el más barato de todos. Tiene una política de precios muy estable y accesible.

Respecto al soporte, lo vi también muy accesible. En mi caso te puedo contar que me comunicaba con ellos para intentar resolver dudas y en menos de 24 horas tenía una respuesta.

Asier: Son realmente accesibles. Tanto en los costes, como en el soporte. Y la calidad que te ofrece es la misma que los demás. La forma de diferenciarse del resto es ser más asequible. Están yendo hacia un modelo de negocio que da la oportunidad de probar sus soluciones a todo el mundo. Es un modelo de negocio a largo plazo que busca la fidelización.

No obstante, si nos acercamos a otras gamas, entramos en soluciones también altamente profesionales que ofrecen resultados garantizados, como podrían ser Brainstorm o Vizrt.

Rafael: Claro, cada una de estas aplicaciones está pensada para una cosa concreta. Si vas a trabajar en una televisión con un flujo de trabajo que involucre a mucha gente necesitas un hub en el que todo el mundo pueda funcionar sobre él sin dañar al de al lado. En soluciones como la Vizrt, este sistema está garantizado. Igual que también lo tiene Zero Density.

En Movistar Plus, por ejemplo, nos interesa Vizrt porque lo mantenemos como base para el día a día. Sobre esa capa de rutina de trabajo, también queremos crear una capa de innovación en Unreal. Si en el departamento gráfico somos 15 personas, yo no quiero que todos ellos aprendan Unreal, porque el coste de aprendizaje bastante grande. Sin embargo, que esas personas puedan seguir trabajando de la misma manera pero con un background de Unreal, resulta ser un modelo muy bueno. Es un sistema híbrido que están implementando en herramientas como Edison lo tiene también Vizrt. Pero luego muchas otras ya sea Zero Density, Aximmetry o Pixotope trabajan en nativo con Unreal. Es decir que si en una tele nueva en el que tienes un equipo de 15 grafistas integras la solución de Unreal, los 15 deberán aprender esa solución. Por ello acaba dependiendo de cuáles sean tus flujos de trabajo específicos.

¿Pantallas LED o Green Screen?

Rafael: Uno de los contras que yo veo a las pantallas XR, es que te contamina con iluminación a los sujetos filmados y eso está muy bien. Pero, a día de hoy, las pantallas siguen generando un efecto moaré que hay que solucionar con un desenfoque, técnica que en muchas ocasiones proporciona un resultado poco realista.

Asier: Eso se acabará solucionando porque es una cuestión de sincronización entre la captación de la imagen y el refresco de pantalla. Técnicamente tiene solución.

La gran diferencia entre la pantalla XR y las pantallas verdes es que el actor o el presentador se siente realmente integrado en la escena. Lo malo que tiene la pantalla verde es que tienes que mirar el retorno para ver dónde estás y qué estás haciendo.

Rafael: Otra de las cosas que no se pueden hacer en pantallas LED, y esta es realmente potente, es la cámara virtual. A no ser que sea por recorte directo. Están intentando introducir una tecnología propia de iPhone que sirve para hacer un recorte a través de las especificaciones de brillo o de contraste. A día de hoy las cámaras virtuales en green screen te hacen un recorte, meten un personaje y te permiten hacer un vuelo de la cámara. Ese mismo procedimiento no lo puedes hacer sobre una pantalla XR.

Asier: Claro, pero es que esto es a día de hoy. Esa necesidad de ahorrar computación cargando solo las partes del escenario virtual que van a salir en cámara es necesaria solo ahora. Sin embargo, cuando ese reto esté superado por las GPU de turno, ya no será necesario acotar tanto. Por ello, los movimientos de cámara serán más libres y no estarán constreñidos por espacios en blanco en las pantallas XR. Y por eso digo que las pantallas LED acabarán siendo la tecnología principal para la producción virtual del futuro. La mayoría de las televisiones tendrán su plató de pantalla LED con tecnología Unreal. Porque las pantallas serán cada día más baratas y los assets de Unreal también serán, poco a poco, más asequibles. Al contrario, crear un plató físico no tendrá sentido porque las materias primas serán progresivamente más caras.

Rafael: Con el tiempo también se acabarán eliminando los sistemas de tracking. Viz Arena se usó en LaLiga durante la pandemia. Se creó a todo el público virtual. Esta es una medida carísima, pero tecnológicamente se está tendiendo a eso. La cámara hace un paneo por todas partes y calcula dónde tiene que colocar al público sin necesidad de sistemas de referencia broadcast.

Asier: Así es. Pero es que hay algunas soluciones que ya lo han incorporado. Por ejemplo Edison de

Brainstorm. De hecho, con este programa puedes hacer la producción con un iPhone. Con este modelo de Smartphone, que ya tiene incorporada la sensorización con un sistema LiDAR (Light Detection and Ranging; detección y medición de la luz), te puedes mover por un entorno virtual como si fuera una steady cam por 1500 euros que vale ese teléfono. Es que todo va a cambiar con el tiempo a medida que la tecnología evolucione y se democratice.

Además de la democratización que has comentado, ¿hacia dónde evolucionará la tecnología de producción virtual?

Rafael : El mundo broadcast va encaminado a la producción virtual. Su futuro está en un alojamiento en el cloud y que todo se sirva como software as a service.

Asier: Desde Telefónica estamos trabajando ya en ofrecer diferentes hiperescalares de cloud que permitan trabajos con GPU. No estaba desarrollado este procesamiento y estos entornos de producción virtual siempre necesitarán mucho procesamiento GPU.

Además, la nube finalmente acabará siendo algo mucho más potente de lo que es hoy. En el laboratorio de pruebas de Telefónica tenemos un rig de cámaras 4K que están gra- bando 360 grados de todo lo que está en medio y entonces te hace un render en tiempo real de una persona. Aún no hemos metido estas capacidades en Unreal, pero ese será el siguiente paso. Con la automatización se podrán escanear actores en tiempo real y hacer un directo del actor en tiempo real en cualquier entorno de Unreal. Ese es el futuro que nos espera.

Rafael: Otro futuro de la producción virtual será el metaverso. En el 2017 The Future Group hizo un programa que se llamaba “Lost In Time”. La idea es que el espectador transcendiese su habitual papel y fuera participante de la historia. Fue un videojuego muy similar a lo que podría ser nuestra concepción de metaverso actualmente. Se tratará de llevar experiencias de realidad a las casas proporcionando, además, una interacción. Con esto puedes atraer a nuevos públicos al consumo de tu contenido.

¿Y realmente existe una demanda en el espectador de disfrutar de un contenido que ya es accesible y bueno en su consumo a través de tecnologías paralelas a la narrativa del contenido que estén viendo?

Asier: Piensa en hace 80 años que eras un asiduo radioyente y llegó la televisión. Es lo mismo, al final los creadores de contenido tienen la posibilidad de servírselo a sus dife- rentes públicos en diferentes formatos. Los que quieren oírlo, mediante radio o podcast; los que quieren verlo, mediante la tele o el cine; y los que quieren experimentarlo, deben acercarse al mundo de los videojuegos o al metaverso.

Rafael: Un gran ejemplo de esta necesidad de crear cercanía con el contenido es el éxito de Twitch. La gente está en esa plataforma porque el espectador interactúa con el presentador.

Asier: Claro, pero es que eso es la tele en la plataforma OTT. Es decir, es llevar los medios de emisión líneal, sumándole la interactividad presentador y espectador, pero dentro de una plataforma digital. Es que este es el único contexto en el que se puede llegar a hacer algo así, en la televisión tradicional es altamente complejo, técnicamente hablando.

Efectivamente hay un público que solo desea consumir un contenido de forma pasiva. Pero hay otro tipo de público, el que viene, que prefiere disfrutar otro tipo de contenido y que ya está acostumbrado a consumirlo.

¿Creéis que coexistirán siempre ambos públicos o se inclinará la balanza a favor de uno o de otro?

Asier: Igual que la radio no desapareció, la tele tampoco lo hará, pero tarta de los ingresos se hará mucho más pequeña y mucho más compartimentada.

Rafael: Efectivamente, pasó con la radio. Toda la publicidad estaba ahí y cuando llegó la televisión, poco a poco le fue robando los ingresos por publicidad.

Asier: Es que la historia se está repitiendo. El consumo de contenido, de media, por persona está en 6 horas diarias. De esas horas, al broadcast tradicional solo le corresponde una hora. Entonces la televisión tradicional, que es el que realmente tiene todo el potencial de explotar esas 6 horas, en muchos casos lo está perdiendo porque no está siendo capaz de innovar a la velocidad que está evolucionando todo. Por lo tanto, están perdiendo tarta. Para superar esto se tienen que enfocar en el contenido. Pero es que ya no vale hacer un contenido para 20 millones de personas. Vas a tener que hacer 300 contenidos para 100.000 personas. Hay tres opciones: o abaratas costes y democratizas todas las soluciones técnicas que hay detrás de esa sectorización de los contenidos; o produces muchísimo más a menor costo; o mueres.

Rafael: Y ahí es donde entra la producción virtual. La gente que hace decorados corpóreos tiene que preocuparse de manipularlo, de proporcionarle un mantenimiento, de renovarlo, puede entrañar riesgos laborales. En los entornos virtuales todo eso no existe.

Asier: Eso sí, debemos ser honestos. Lo cierto es que el corpóreo aún le gana en realismo a un decorado virtual. Pero llegaremos a un punto en el que ya no habrá tanta diferencia. En ese momento, diremos, ¿qué sentido tiene hacer un plató? Pongo unas pantallas XR y listo. Así acabarán siendo el 90% de los platós del mundo.

This article is from: