TM Broadcast España #163

Page 1

EDITORIAL

En este número encontrarás un análisis sobre los más inexplorados caminos por los que está transitando nuestra industria. Esas vías son tan recientes que, a medida que escribimos estas líneas, están siendo explorados por las empresas y corporaciones más innovadoras de nuestro sector.

La primera gran dirección en la que queremos enfocarnos es la vinculada a una de las corporaciones públicas de televisión con más audiencia y capacidad de nuestro país. En exclusiva en TM Broadcast, te ofrecemos la entrevista que hemos realizado a la nueva dirección técnica de la cadena, encarnada por Pedro Espina en sustitución de José Enrique Zamorano. En ella podrás encontrar los nuevos planes de desarrollo de la RTVA y el crecimiento tecnológico que tiene por delante el ente público andaluz.

Otro de los horizontes que está llamado a cambiar el presente tecnológico de nuestra industria es la producción virtual. De la mano de Asier Anitua, gerente de Desarrollo de Negocio de TSA, y Rafael Alarcón, coordinador de Diseño Broadcast en Movistar Plus y uno de los grandes gurús de la producción virtual en España, nos adentramos en las posibilidades que esta tecnología ofrecerá a la producción de contenidos multimedia en directo y en diferido a las industrias broadcast, cinematográfica y publicitaria.

Hablamos también con RTVE, para conocer otra de las innovaciones que cambiará el modo en el que trabajamos. Según Pere Vila, director de Estrategia Tecnológica e Innovación Digital de la corporación, esta tecnología es disruptiva porque no solo hará evolucionar el sector, sino que también modificará las estructuras laborales añadiendo eficacia y eficiencia a ciertos procesos que, al liberarse, proporcionarán un valor añadido inaudito a los contenidos y a los modos de producción.

Nos aproximamos también al edge computing, una promesa que llegará a nosotros cuando la transmisión de contenidos multimedia mediante redes móviles 5G se convierta en el estándar, nos permitirá reducir la latencia hasta mínimos inimaginables y aumentar con creces las prestaciones de la tecnología de producción y difusión de contenidos en remoto.

Y hablando de caminos inexplorados, no podíamos olvidar el metaverso. Carlos J. Ochoa Fernández, fundador de One Digital Consulting, realiza un profundo análisis sobre cómo las realidades inmersivas van a cambiar la forma en que se crea el contenido.

Completamos este interesante número con dos artículos más: entrevistamos a Antaviana para conocer más sobre cómo está evolucionando la postproducción, y hacemos un profundo repaso acerca de las opciones disponibles para almacenar toda nuestra media.

Editorial EDITORIAL TM Broadcast 3

EDITOR

Javier de Martín editor@daromediagroup.com

DIRECCIÓN DE CONTENIDOS

Mercedes González mercedes.gonzalez@tmbroadcast.es

DIRECCIÓN ADMINISTRACIÓN

Laura de Diego laura.dediego@daromediagroup.com

DIRECCIÓN COMERCIAL

Javier M. Gutiérrez jmg@tmbroadcast.es

PUBLICIDAD

Sergio Castaño sergio.castano@tmbroadcast.es

Patricia Pérez ppt@tmbroadcast.com

REDACCIÓN redaccion@tmbroadcast.es

MAQUETACIÓN

Sorex Media

COLABORADORES

Yeray Alfageme

Carlos Medina

Luis Pavía

Carlos Alberto Martín

Javier Guerra

Luis Sanz

Alfonso Redondo

José Luis Cordero

Carlos González

Fernando Suárez

SUSCRIPCIONES suscripciones@tmbroadcast.es

Imprime: IMEDISA ARTES GRÁFICAS S.L.

Dep. legal: M-11254-2008

ISSN: 1888-6965

Impreso en España en marzo de 2023

TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.

TM Broadcast es una publicación de Daró Media Group S.L.

Centro Empresarial Tartessos

Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid.

Tf: 91 640 46 43

6 The

14

Pedro Espina es el nuevo director Técnico de la Radio y Televisión de Andalucía (RTVA). Canal Sur, la cadena pública andaluza, ha emprendido una nueva etapa de transición hacia los ansiados ecosistemas digitales. El relevo generacional de la dirección técnica, es ejemplo de esta dirección que, ahora más que nunca, se encara hacia el futuro conectado del ente público.

20

Inteligencia Artificial en RTVE

RTVE, representada por Pere Vila, director de Estrategia Tecnológica e Innovación Digital, y Carmen Pérez Cernuda, subdirectora de Innovación y Estrategia Tecnológica de RTVE, y TM Broadcast os ofrecemos un estudio pormenorizado sobre el presente y el futuro de la inteligencia artificial aplicada a todos los procesos de producción asociados al broadcast.

4 SUMARIO SUMARIO
Actualidad
Viewfinder,
Yeray Alfageme
por
dirección técnica en RTVA
13 Nueva
Postproduction
Antaviana VFX &
30

36

Cómo la

52

Edge Computing

La tecnología del edge computing se está convirtiendo en una herramienta esencial para la transmisión de eventos en vivo y en tiempo real. En este artículo, profundizaremos en los detalles del edge computing, su aplicación en las retransmisiones audiovisuales en directo y los beneficios que aporta a los espectadores y proveedores de servicios de retransmisión.

Hablar de producción virtual es hablar de Unreal

El motor gráfico propietario de Epic Games, originalmente proveniente del mundo de los videojuegos, ha llegado para revolucionar nuestra industria. Las grandes marcas del mercado broadcast; véase Vizrt, Aximmetry, Brainstorm, Zero Density, Pixotope…, se rinden a sus pies. Y los profesionales de nuestro país, también. ¿Qué recorrido tiene esta solución en el broadcast? ¿Cómo crecerán las técnicas de producción virtual? ¿Por qué consideráis que es tan importante la creación de contenidos multimedia con técnicas virtuales? Responden Rafael Alarcón y Asier Anitua.

Tecnología Media Storage 60

SUMARIO TM Broadcast 5
idea del metaverso podría cambiar el contenido que creamos
46

El Instituto RTVE renueva sus estudios con equipos Sony

de gran luminosidad y alta resolución. El bloque de ajuste de iris y master black emplea un control de tipo joystick.

Y por último, el software HZCCSM10, también denominado como PC-MSU, posee las mismas características que su hermana gemela en versión hardware, es decir, la unidad de control maestro o MSU (Master Set Up). Es una herramienta preventiva de diagnóstico para un entorno multicámara que ofrece una interfaz muy intuitiva en la que el ingeniero de cámaras puede controlar todos los ajustes y monitorizar el estado de los elementos que componen las cadenas de cámara desde un mismo punto, así como transferir ficheros, almacenar dichos ajustes o generar informes.

Sony ha anunciado que han sido los responsables de renovar los estudios del Instituto RTVE con dos nuevos mezcladores de producción XVSG1, nueve unidades de la cámara de estudio HDC-3170 HD, paneles de control remoto RCP-3500 y el software PC-MSU.

El sistema XVS-G1 ha sido diseñado para satisfacer las necesidades de producción en directo, como programas de deportes, informativos, eventos y entretenimiento, pensada para estudios pequeños o medianos, así como para unidades móviles. Ofrece capacidades tanto en HD como en UHD. Su estructura híbrida combina una unidad de procesamiento central (CPU) con una unidad de procesamiento gráfico (GPU) con circuitos integrados programables (FPGA).

Las cámaras de estudio HDC-3170 HD ofrecen imágenes HD, así como versatilidad de la transmisión triaxial digital. Tienen sensor CMOS de 2/3 con tecnología de obturador global que elimina el «efecto de gelatina» y el ruido de banda, permitiendo imágenes impecables con bajo ruido y excelente sensibilidad.

Puede proporcionar señales 3G-SDI en distintos formatos de hasta 1080/50p, con posibilidad de 4K a través de las interfaces 12G-SDI y quad3G-SDI de la CCU. La HDC-3170 captura imágenes de alto rango dinámico para mejorar el flujo de trabajo “Live SR” de Sony para la producción simultánea en HDR y SDR.

Los paneles de control remoto RCP-3500 asociados a las cámaras incorporan una pantalla LCD táctil

«Hemos estado trabajando en estrecha colaboración con Televisión Española para la actualización de sus estudios del Instituto RTVE, ya que buscaban combinar flujos de trabajo eficientes con futuras tecnologías de producción y estamos encantados de que hayan elegido el XVS-G1 como mezclador principal. Los mezcladores de Sony tienen una larga historia y reputación por su fiabilidad y robustez. El XVS-G1 hereda ese legado con un formato más compacto y modular, e incorpora nuevas características preparadas para el futuro. Esperamos seguir colaborando estrechamente con el Instituto RTVE como socios tecnológicos acompañándoles en este proceso de cambio», comenta Héctor Sierra, Regional Sales Head South en Sony Media Solutions.

Actualidad 6 NOTICIAS TM Broadcast RTVE - SONY

RTVA participa en la presentación del Clúster Audiovisual de Andalucía

lo

de SGO en NAB Show 2023

SGO mostrará en NAB Show 2023 los últimos avances de su solución Mistika. En concreto, se han establecido flujos de trabajo dedicados a la producción virtual, la creación de contenidos inmersivos, la gestión optimizada de media y metadatos, así como para los workflows en los pulls de VFX.

“Estamos muy emocionados por estar de vuelta en el NAB, y aprovecharemos la oportunidad para conectar con nuestros clientes y partners en persona, y presentar sobre todo la tecnología innovadora”, dice Geoff Mills, Director General en SGO.

SGO exhibirá sus capacidades en el stand W1068. El visitante tendrá la oportunidad de explorar nuevas maneras de automatizar y optimizar las tareas de procesamiento de media y desbloquear flujos de trabajo de post-producción innovadores. “Hemos adoptado un enfoque ligeramente diferente este año en el NAB al ofrecer reuniones personales en lugar de presentaciones públicas en un ambiente relajado, permitiendo a los visitantes conectar con el equipo de expertos en Mistika”, comparte Geoff Mills.

La presentación del clúster audiovisual andaluz ha tenido lugar en Málaga, con el objetivo de impulsar a Andalucía en el audiovisual nacional. RTVA ha sido participe del evento.

El clúster se trata de una iniciativa impulsada a través de la colaboración público-privada, que pretende marcar la diferencia entre la industria audiovisual de Andalucía y de otras regiones de España y de Europa.

Los productores audiovisuales han definido a Andalucía como el mejor plató natural de Europa, por las horas de sol, por su geografía, por sus costas, por sus desiertos… El clúster audiovisual nace para que a este escenario se unan las mejores condiciones y la simplificación administrativa que faciliten rodar en Andalucía.

Juande Mellado, director general de RTVA ha conducido la presentación y ha comentado que «somos industria audiovisual y, por tanto, somos industria creativa, somos cre-

adores audiovisuales. Canal Sur es en primer lugar servicio público y cada euro que invierte revierte en un doble valor en la sociedad, primero en servicio público que llega a todo el mundo a través de CanalSur Más y después en la generación de riqueza y empleo entre los jóvenes. Canal Sur invierte 40 millones en producción de programas de televisión y 7 millones de euros los destina a participar en proyectos de la industria audiovisual».

«El clúster que ahora se presenta tiene mucho trabajo detrás, es una apuesta estratégica del sector impulsada por el gobierno andaluz con 15 asociaciones y empresas fundadoras. Ejemplo de colaboración público privada», ha continuado. Según el director de CSRTV, «tenemos talento, las mejores empresas y, sobre todo, tenemos esta tierra para hacer de este clúster una referencia para España y para la industria audiovisual del conjunto de Europa», ha añadido.

Actualidad NOTICIAS TM Broadcast SGO - RTVA 8
Flujos de trabajo para producción virtual y Mistika
11:
nuevo

Asociación entre Dalet y Fincons Group

Dalet ha anunciado su asociación comercial con Fincons Group con el objetivo de ofrecer a los clientes una propuesta de gestión de contenidos modernos y ampliables.

La alianza aprovecha la posición de Fincons en el mercado, su experiencia técnica en soluciones en la nube, amplia base de clientes en los mercados internacionales de medios de comunicación, así como las soluciones nativas en la nube de Dalet.

Fincons ofrecerá como parte de su cartera de soluciones las robustas soluciones nativas en la nube de Dalet y ofertas SaaS que incluyen la solución de logística de medios líder en el mercado Dalet Flex, y la solución de planificación, producción y distribución de noticias, Dalet Pyramid.

«La cartera industrial de Fincons combinada con su práctica de M&E nos permite ampliar nuestro alcance

y conectar con nuevas marcas. Su orientación de confianza y su experiencia tecnológica garantizarán el éxito en la transición de los clientes a la nube con Dalet. La asociación también nos permite ampliar nuestros servicios y soporte a nuestros clientes existentes a medida que crece nuestro negocio en la nube», ha comentado Ewan Johnston, director de Alianzas Estratégicas y Socios de Canal de Dalet.

Telson de Mediapro encargada de realizar la gestión de contenido en la plataforma del ICAA

La empresa de Grup Mediapro, Telson, ha sido elegida a través de concurso público en uno de los tres lotes que el Instituto de la Cinematografía y de las Artes Visuales (ICAA) licitó en septiembre y que corresponde a la gestión de contenidos de la plataforma digital.

El lote 2 se engloba dentro del servicio de “Creación, desarrollo, gestión de contenidos y servicios de marketing de la plataforma digital y de vídeo a demanda”, plataforma que tiene previsto lanzar el ICAA.

Telson se encarga, desde el 1 de febrero, de la gestión operacional de los contenidos de la plataforma, que incluye su edición, revisión, visualización, control de calidad, adecuación y validación para su explotación en la plataforma, así como el operativo general de seguimiento y mantenimiento técnico de la plataforma. Entre las tareas a llevar a cabo se encuentran: conformado de vídeo, control de calidad de los contenidos, gestión y enriquecimiento de metadata, copywriting de la plataforma y gestión de su impacto tanto en backend como en frontend.

El proyecto se encuentra financiado con fondos de los planes Next Generation: Plan de Recuperación, Transformación y Resiliencia (PRTR), dentro de la línea que está dedicada a la modernización, digitalización e internacionalización del sector audiovisual, y tiene como objetivo implementar una plataforma digital y de video a demanda de carácter público con acceso global para el almacenamiento, la catalogación, el visionado y la promoción nacional e internacional de los contenidos audiovisuales y cinematográficos españoles, y eventuales transmisiones en directo de eventos relacionados con la industria del cine y audiovisual.

Actualidad DALET - TELSON
NOTICIAS TM Broadcast 10

Hispasat lanza su nuevo servicio de vídeo Wave OTT Plus

Hispasat ha anunciado la presentación de Wave OTT Plus, su nuevo servicio de vídeo para América Latina.

El nuevo servicio se ha mostrado en Andina Link 2023, feria internacional de telecomunicaciones y tecnologías convergentes, que se está celebrando durante los días 8 y 9 de marzo en Cartagena de Indias, Colombia.

Combina la plataforma de distribución de vídeo Over The Top (OTT, por sus siglas en inglés) as a service de HISPASAT con contenidos linea-

les y de vídeo bajo demanda. De este modo, a la plataforma de distribución de vídeo OTT de marca blanca que Hispasat lanzó el pasado año se suma ahora una oferta de más de 50 canales lineales internacionales, series, películas y otros contenidos premium proporcionados por los principales programadores del mundo.

Los operadores de televisión de pago y los proveedores de servicios de Internet que quieran complementar su oferta actual o añadir un nuevo servicio a su cartera podrán ofrecer a sus clientes estos servicios

de streaming OTT mediante aplicaciones personalizadas con su propia marca y en diferentes dispositivos.

Wave OTT Plus, que forma parte del portfolio de servicios de Hispasat Wave Video, estará disponible inicialmente en Argentina, Bolivia, Chile, Colombia, Ecuador, Paraguay, Perú, Uruguay y Venezuela; y próximamente se ofrecerá también en Brasil. Además de la oferta de contenidos internacionales, incorporará los canales nacionales más importantes de cada país.

Actualidad HISPASAT

Cinfo pone en práctica la integración de una aplicación de IA en la nube con las APIs 5G de la red de Telefónica

Telefónica anunció en el pasado Mobile World Congress 2023 que ha validado la integración de las interfaces de programación de aplicaciones (API) de su red con AWS Wavelength Zone en Madrid. Esta validación se ha realizado a través de un proyecto real en el que se seleccionó la aplicación tiivii de cinfo para validar la integración.

En este proyecto, tiivii ha llevado a cabo sus producciones automáticas con la nube de Amazon Web Services (AWS) aprovechando una AWS Wavelength Zone en Madrid e integrada con las APIS de la red 5G de Telefónica, de forma que la inteligencia artificial de tiivii ha podido

demandar al 5G red, en tiempo de ejecución, calidad de servicio.

tiivii es la solución de producción en la nube que utiliza inteligencia artificial en tiempo real para controlar cámaras ubicadas en estadios deportivos, salas de conciertos o teatros. La inteligencia artificial de tiivii debe responder con la menor latencia posible a lo que sucede en el evento. Gracias a la integración con la red 5G, la latencia se ha reducido en 20 milisegundos y el jitter se ha reducido en un 90% en un escenario de red congestionada.

Con esta integración la inteligencia artificial que produce el evento

puede solicitar una determinada calidad de servicio a la red, aumentando así la calidad de la producción y el ecosistema -desarrollador, proveedor de tecnología en la nube y operador- puede obtener nuevos tipos de ingreso.

Finalmente, gracias a la iniciativa del Open Gateway de la GSMA, en la que están colaborando Telefónica y los principales operadores del mundo, se ha estandarizado la interfaz de acceso a la red, lo que facilita que cada vez más creadores de aplicaciones inteligentes como cinfo puedan obtener acceso a un mercado mucho más grande y crecer más rápido.

NOTICIAS 12 TM Broadcast Actualidad CINFO - TELEFÓNICA

El broadcast y el nuevo broadcast

En los últimos años, hemos sido testigos de un cambio significativo en la forma en la que consumimos contenido audiovisual. Las plataformas de streaming como YouTube o Twitch han ganado popularidad y han cambiado la forma en la que las personas interactúan con los medios de comunicación. Pero este cambio también ha afectado a la industria broadcast tradicional, la cual ha tenido que adaptarse a los nuevos tiempos para seguir siendo relevante. En este artículo, exploraremos cómo la convergencia de la industria broadcast tradicional y las plataformas de streaming ha cambiado el panorama del entretenimiento.

Antes de que las plataformas de streaming llegaran a dominar el mercado, la televisión era el medio de comunicación predominante. Las grandes redes de televisión y las estaciones de radio tenían el control del contenido y la distribución, y la mayoría de las personas consumían sus programas de televisión y música a través de estas plataformas. Sin embargo, con la llegada de YouTube y Twitch, todo esto ha cambiado.

En los últimos años, las plataformas de streaming han ganado popularidad gracias a la facilidad de uso y la accesibilidad. Cualquiera puede crear su propio canal de YouTube o transmitir en vivo en Twitch. Esto ha permitido a una gran cantidad de creadores de contenido independientes llegar a una audiencia más amplia sin necesidad de un gran presupuesto o una red de distribución establecida. Como resultado, hemos visto surgir una nueva generación de creadores de contenido que ha ganado una gran cantidad de seguidores y ha construido sus propias marcas.

Pero lo que es interesante es cómo la industria broadcast tradicional ha comenzado a adaptarse a esta nueva forma de consumo de medios. En lugar de competir con las plataformas de streaming, muchas empresas de medios han decidido unirse a ellas. Las grandes cadenas

de televisión y las estaciones de radio han comenzado a crear sus propios canales de YouTube y a transmitir en vivo en Twitch. De esta manera, pueden llegar a una audiencia más amplia y adaptarse a los nuevos hábitos de consumo de los espectadores.

Además, la convergencia de la industria broadcast tradicional y las plataformas de streaming también ha llevado a la creación de nuevos formatos de contenido. Los programas de televisión y los programas de radio ahora pueden tener sus propios canales de YouTube, donde los espectadores pueden ver segmentos de los programas y comentar en tiempo real. Los streamers de Twitch también pueden colaborar con las estaciones de radio y de televisión, creando contenido que atraiga a una audiencia más amplia.

En definitiva, la convergencia de la industria broadcast tradicional y las plataformas de streaming ha cambiado la forma en que consumimos contenido. Ya no estamos limitados a los canales de televisión y las estaciones de radio para acceder a nuestros programas favoritos. En su lugar, podemos encontrar todo tipo de contenido en línea, desde programas de televisión y películas hasta vídeos de YouTube y transmisiones en vivo en Twitch. Y aunque la industria broadcast tradicional puede haber sido lenta en adaptarse a estos cambios, ahora parece estar encontrando su lugar en este nuevo mundo de los medios de comunicación.

La convergencia de la industria broadcast tradicional y las plataformas de streaming ha creado un nuevo panorama del entretenimiento. Ahora, los espectadores tienen más opciones que nunca para consumir contenido y los creadores de contenido también tienen más formas de llegar hasta su público.

@yerayalfa

www.linkedin.com/yerayalfa

THE VIEWFINDER The Viewfinder TM Broadcast 13
Por Yeray Alfageme, Business Development Manager en Optiva Media an EPAM company

Nueva dirección Técnica en

RTVA

Pedro Espina en exclusiva para TM Broadcast

14 TELEVISIONES TM Broadcast RTVA

¿Quién es Pedro Espina y cuál es su experiencia y formación?

El nuevo Director Técnico de la Agencia Pública Empresarial de la Radio y Televisión de Andalucía (RTVA) es una persona honesta, audaz, proactiva, pragmática, cordial y responsable. Un funcionario del Cuerpo Superior Facultativo, opción Informática de la Junta de Andalucía, además de ser funcionario de otros dos cuerpos de dicha Administración con más de 22 años de experiencia en la misma.

Desde abril de 2006 ha ocupado puestos de responsabilidad en la Dirección General de Comunicación Social, habiendo ocupado el Sv. de Inspección, el Sv. de Radiodifusión y TV y la Coordinación general desde su creación en 2021. Conoce, por tanto, la normativa audiovisual y su aplicación, coordinó parte de la tramitación de la Ley

A continuación, les ofrecemos nuestra entrevista exclusiva a Pedro Espina, nuevo director Técnico de la Radio y Televisión de Andalucía (RTVA). Canal Sur, la cadena pública andaluza, ha emprendido una nueva etapa de transición hacia los ansiados ecosistemas digitales. El relevo generacional de la dirección técnica, es ejemplo de esta dirección que, ahora más que nunca, se encara hacia el futuro conectado del ente público. En esta entrevista cercana tendrán la oportunidad de conocer al nuevo director Técnico de la cadena andaluza de una forma muy personal y, además, entender cuáles son sus opiniones sobre su propio nombramiento, las expectativas que la televisión ha depositado en él y los retos que tiene Pedro Espina en su horizonte más cercano.

10/2018, de 9 de octubre, Audiovisual de Andalucía y sus modificaciones posteriores. Ha gestionado los últimos concursos públicos para el otorgamiento de licencias de TDT local en Andalucía y también ha supervisado parte de la implantación del nuevo Manual de Identidad Corporativa de la Junta de Andalucía.

En relación con su cualificación, finalizó la carrera de Ingeniería Informática en la Universidad de Sevilla en el año 1999, posteriormente obtuvo el Diploma de Estudios Avanzados del programa de doctorado de Tecnología e Ingeniería del Software, realizó un Máster en Seguridad Informática en la UOC y un Máster oficial en Protección de datos, transparencia y acceso a la Información en la U. San Pablo CEU.

Ha asistido a multitud de cursos sobre tecnologías y sobre gestión de personas, motivación, liderazgo, etc.

15 TM Broadcast RTVA TELEVISIONES

También ha impartido docencia en la U. Pablo de Olavide en los estudios de Grado en Ingeniería Informática.

¿Cuál es la composición del nuevo organigrama técnico?

El organigrama directivo de la Dirección Técnica se mantiene como estaba, con las áreas de Jefatura de Ingeniería, que sigue ocupando D. Rafael Muñoz y de Sistemas y Redes, que se ocupará próximamente por una ingeniera de telecomunicaciones con gran conocimiento de la RTVA.

Respecto a la estructura de estas áreas, actualmente responde al esquema que se muestra a continuación. No obstante, estamos trabajando en su revisión para ajustarla a las actuales necesidades organizativas,

proceso que nos llevará varios meses y que irá de la mano de la consultoría que está actualmente en ejecución.

¿En qué estado tecnológico se encuentra actualmente la corporación?

La RTVA se encuentra en un proceso de renovación tecnológica, que ha dado un salto adelante importante con la implantación del nuevo sistema de edición, producción y archivo digital de la mano de Telefónica y Datos Media. Además se está implantando un nuevo sistema de gestión de la continuidad de emisiones (playout) en la Televisión de Peeble Beach basado en la integración de dispositivos de canal integrado Dolphin con el control de automatización de Marina.

Comentas la renovación emprendida por Datos y TSA y el nuevo sistema de playout de Peeble. ¿No hay nada más que quieras destacar?

Esos son los dos principales proyectos que estamos tramitando este año, además del Sv de Telefónica y Datos Media y otros contratos de mantenimiento. Desde la Dirección Corporativa sí se va a acometer otro proyecto importante sobre gestión de derechos audiovisuales y planificación de recursos de producción, pero de ese proyecto no tengo demasiada información todavía.

Sobre tecnología, el Sv de Telefónica y Datos Media se basa en tecnología AVID (Media Central Cloud UX, iNews, X.News, Composer, Command, etc), virtualización con VMWare, sistema de ficheros Nexis y Base de datos Interplay, archivo de

16 RTVA TM Broadcast
TELEVISIONES

Tedial sobre Quantum, Stornext, Xcellis, Telestream Content Agent, análisis de imágenes de EtiqMedia, FileCatalyst Workflow, etc.

Sobre la renovación de la continuidad, se basa en dispositivos de canal integrado (Dolphin) con Marina y Miranda, integrando el almacenamiento compartido de Provys. También incluye almacenamiento en Quantum StorNext.

¿A qué objetivos alude el nombramiento de Pedro Espina como nuevo director Técnico de RTVA?

Bueno, esta pregunta debería responderla el Director General de la

RTVA, que es la persona que propone mi nombramiento. No obstante, creo que responde a la necesidad de mejorar el funcionamiento de la Dirección Técnica, aportar más liderazgo participativo y mayor cohesión con el equipo directivo de la RTVA.

¿Cuáles son los próximos planes de renovación para la cadena? ¿Qué direcciones tomará Pedro Espina?

Los planes de renovación, al involucrar inversiones importantes, deberán debatirse y aprobarse por el Comité de Dirección y el Comité de Transformación Digital, Innoación y Negocio de la RTVA. No obs-

tante, desde la Dirección Técnica se promoverá que se centren en la actualización y ampliación del core de la infraestructura que soporta la producción audiovisual de la Televisión, orientándola al uso de las nuevas tecnologías basadas en IP y la consolidación de la alta definición en todos los elementos de los procesos productivos.

En la parte de radio, nos gustaría explorar la posibilidad de iniciar emisiones digitales, ya sea en DAB o en DAB+, en el caso de que el Ministerio de Asuntos Económicos y Transformación Digital autorizara su uso, actualizando el Plan Técnico Nacional de la radiodifusión sonora

RTVA

digital terrestre que data del año 1999.

¿A qué retos se tendrá que exponer la nueva dirección técnica para conseguir estos objetivos?

El principal reto que he identificado en estas primeras semanas es el de la gestión del conocimiento. En la RTVA la edad media del personal es bastante elevada, lo que implica que las personas tienen mucha experiencia y gran conocimiento acumulado. No obstante, este conocimiento, en la mayoría de los casos, no ha sido gestionado adecuadamente, por lo que podría perderse, lo que tendría un impacto negativo importante. No es una situación exclusiva de la Dirección Técnica, pero desde ella pueden proponerse soluciones interesantes para toda la RTVA.

En el aspecto más tecnológico, la RTVA debe seguir avanzando en la renovación de los sistemas de producción audiovisual y la implantación de las nuevas tecnologías broadcasts basadas en IP. Además, deben incrementarse los recursos destinados a la digitalización del archivo audiovisual de la RTVA para garantizar su conservación y puesta en valor. Conviene recordar que el archivo audiovisual de la RTVA tiene consideración legal de patrimonio autonómico y que requiere una protección especial, conforme establece el art. 20.2 de la Ley 10/2018, de 9 de octubre, audiovisual de Andalucía.

Debe potenciarse la plataforma de contenidos accesibles vía App (OTT) CanalSurMas, dado que los hábitos de consumo marcan esa tendencia.

¿Cuál es la hoja de ruta al respecto de la digitalización? ¿Cuáles son los objetivos prácticos?

La hoja de ruta se está revisando actualmente. Como se ha comentado anteriormente, se están implantando proyectos importantes y se tiene previsto renovar las infraestructuras centrales de la producción audiovisual, además de estar preparando pruebas piloto de emisiones en DAB.

¿Y respecto a la transición IP del broadcast? ¿Cuáles son los objetivos prácticos?

Desde hace algún tiempo se vienen adquiriendo productos que soportan las nuevas tecnologías IP, la transición está en curso y se van a seguir adquiriendo equipos que nos permitan culminarla con éxito, al

TELEVISIONES 18 RTVA TM Broadcast

menos parcialmente como piloto sobre algunos procesos de producción audiovisual.

¿Desde qué perspectiva aborda ahora RTVA nuevas tecnologías y tendencias como la virtualización de los sistemas, la nube o los flujos de trabajo en remoto?

La RTVA está abierta siempre a la exploración de nuevas tecnologías. Tendencias como la virtualización de sistemas, utilizadas desde hace tiempo en el entorno más corporativo, deben empezar a extenderse al entorno de la producción audiovisual. La posibilidad de realizar producción remota es cada vez más

interesante y viable. Estas tecnologías inciden en los flujos de trabajo, facilitando el teletrabajo que es una forma de trabajo muy recomendable en muchas situaciones y que facilita la conciliación laboral de las personas que trabajan en la RTVA.

¿Cuáles son los plazos para estas renovaciones?

Los plazos no pueden ser cortos, son proyectos que se ejecutarán en los próximos años. Deben empezar a concretarse en el próximo ContratoPrograma que tiene que aprobarse a final de este año y cuya vigencia cubrirá los próximos 3 años.

METAVERSO
20 IA TM Broadcast RTVE

Inteligencia Artificial en RTVE

Herramientas que cambiarán el modo en el que trabajamos

RTVE, representada por Pere Vila, director de Estrategia Tecnológica e Innovación Digital, y Carmen Pérez Cernuda, subdirectora de Innovación y Estrategia Tecnológica de RTVE, y TM Broadcast os ofrecemos un estudio pormenorizado sobre el presente y el futuro de la inteligencia artificial aplicada a todos los procesos de producción asociados al broadcast. Todos los procesos tratados a continuación son los proyectos de innovación que la televisión pública española tiene sobre la mesa en la actualidad. El departamento de innovación de RTVE ha estado trabajando sobre tres aspectos empujados por la tecnología: la UHD, el 5G y la IA. Pere Vila argumentó que los dos primeros procesos tienen una característica evolutiva. Es decir, que con estas soluciones mejoran las calidades, mejoran las prestaciones, pero no cambia la manera de trabajar. No obstante, el campo de la inteligencia artificial es realmente rupturista. Es una tecnología que modifica cómo son los procesos, modifica la distribución de recursos, cambia los tiempos de ejecución de proyectos y va a permear en todas las capas de la organización.

A continuación, se ofrecen todas las líneas de acción en las que está trabajando RTVE al respecto de la integración de herramientas de inteligencia artificial en su estructura

21 TM Broadcast RTVE IA

Primer proceso. Archivo y fondos documentales.

Pere Vila: RTVE es una empresa que produce cada día centenares de horas. Una parte muy importante de estos contenidos van al archivo. Y claro, es un archivo que tiene millones de ítems. La única manera de que podamos localizar un contenido concreto es que esté perfectamente identificado. Cuando guardas un ítem en el archivo no solo almacenas un archivo, sino que también conservas todo un conjunto de información que permite lanzar tareas de búsqueda dentro del archivo. Lo interesante es metadatar estos assets.

¿Qué significa metadatar? Analizar el audio, pasar de audio a texto, analizar este texto para saber de qué se está hablando, identificar a las personas que están hablando, etc. Y un tanto similar en el vídeo.

RTVE empezó a trabajar en 2017 con una cátedra con la Universidad de Zaragoza. Aparte, hemos lanzado retos a la comunidad de investigadores en lengua española. Como resultado, preparamos un expediente hace ya casi un año y medio para empezar a metadatar de manera automática. Hoy ya está funcionando.

Carmen Pérez: Lo publicamos en abril de 2020. Empezamos el servicio en octubre. Primero estuvimos cuatro meses desarrollando la herramienta para que permitiera la edición del vídeo y valoración de los resultados por parte de nuestros documentalistas. En el proyecto, que

fue prorrogado por un año más desde octubre de 2022, se pretende metadatar 11.000 horas de audio, de las cuales hay un 20% en las que también se analiza el vídeo.

Nosotros enviamos un fichero en baja calidad a la empresa adjudicataria con los metadatos inicialmente asociados a ese fichero, que son muy pocos, básicamente el nombre de programa y la fecha en la que se hizo. Esto le permite al documentalista identificar el contenido. Ellos generan todo el metadatado, nos lo devuelven con ello incorporado y, finalmente, se incorpora a nuestro gestor documental.

Pere: Parece muy sencillo, pero hay multitud de contigencias técnicas, culturales, de aprendizaje, etc.,

que debemos tener en cuenta. Pero lo que es relevante aquí no es que hayamos introducido esta solución, sino la participación de los profesionales del archivo y la adecuación que hemos hecho de la infraestructura del archivo, de cerrada a abierta.

Otros aspectos en los que estamos considerando trabajar son, por ejemplo, la intención de mejorar la calidad de un contenido cuando lo sacas del archivo de manera automática. Esto se ha quedado en suspenso a la espera de obtener recursos para trabajar en ello.

Antes de continuar me gustaría recalcar que la introducción de cada herramienta nueva supone un esfuerzo por parte de la compañía

22 RTVE TM Broadcast
IA

en el sentido de que tiene que tener algún ingeniero que entienda el proceso que vamos a hacer. Hay que hacer todas las pruebas, adaptarlo. Por tanto, hay un proceso de varios meses en el que vas a corrigiendo errores y adaptaciones.

¿Cuál es la empresa que ha sido la adjudicataria?

Carmen: Hay un integrador, que es VSN. Por otro lado, aunque está contemplado en el proyecto que se pueda cambiar de empresa proveedora de los servicios de inteligencia artificial, hemos estado trabajando para audio desde el principio con Etiqmedia. Respecto al vídeo, trabajan con Azure, los servicios de nube de Microsoft. Ellos adaptan los resultados para nosotros y nos los devuelven adaptados a nuestras necesidades.

Pere: Al respecto de las soluciones específicas, esta cuestión tiene un transfondo cultural muy importante y es que no has de casarte absolutamente con nadie. Antes comprabas un hardware con un software asociado al que tenías que hacer sitio en el CPD y, a lo mejor, tardabas un año en introducirlo. Ahora no, cuando hacemos el concurso, adjudicamos el servicio, pero nos da lo mismo la herramienta en sí, ya que a los seis meses seguramente sea sustituida.

Carmen: Los que desarrollamos el expediente lo diseñamos teniendo en cuenta herramientas que proporcionasen control, accesibilidad y flexibilidad a los documentalistas. Al principio había mucha desconfianza y ahora prácticamente todo se ha automatizado.

¿Incluso el monitorado posterior?

Pere: Sí.

Carmen: la solución que introdujo VSN era una herramienta de edición que proporcionaba al documentalista la opción de revisar e, incluso, de corregir. La idea era que cuando se produjera una revisión de una parte pequeña de esos datos y se diera por validado un número determinado de ficheros, ya todos los demás automáticamente entrarían al archivo. Inicialmente, los documentalistas no se sentían cómodos con el proceso, pero a medida que se ha ido adquiriendo confianza, se han ido automatizando todos los procesos.

Trabajar con una empresa española, nos ha permitido comunicar nuestras necesidades y obtener la ventaja de modificar las soluciones. También constatamos en qué contenidos funcionaba mejor la solución de metadatado automático, porque no es lo mismo hacerlo para un informativo o un programa de entretenimiento.

¿Cuál es el siguiente paso? ¿Dónde está el reto ahora en la herramienta de metadatado?

Carmen : Que la tecnología no solamente identifique a una silla como una silla, sino que interprete que esa silla está en una oficina. Eso se puede obtener a través de un análisis más profundo del vídeo.

Pere : Es una herramienta que sigue evolucionando. Yo creo que dentro de cinco años habrá evolucionado de forma natural y permitirá hacer muchas más cosas de las que ahora hacemos.

IA TM Broadcast
23 RTVE

Segundo proceso. Subtitulado automático.

Pere: Quisimos subtitular los informativos territoriales que hace Televisión Española cada día. Se emiten cada jornada 17 informativos en televisión de ámbito territorial. que se emitían sin subtítulos.

Carmen: Todos son a la misma hora y uno en cada comunidad.

Pere: Efectivamente. Todos se emitían sin subtítulos.

El objetivo que planteamos en el expediente, no sé hasta qué punto lo conseguimos, era hacer capaz de diferenciar usos de habla regionales dentro de la pluralidad que hay en España. Es decir, adaptar la herramienta a las particularidades comunicativas de cada región.

Inicialmente lo lanzamos en español y observamos que los resultados eran muy buenos. De hecho, ya se han integrado en los recursos de producción. Los retardos que estamos manejando oscilan alrededor de los cuatro segundos. Se transcriben casi el 100% de las palabras. La tasa de acierto está en el 95%.

Hemos desarrollado dos pliegos en este caso. La empresa que proporcione el servicio en uno y otra empresa que emprenda la monitorización en otro.

Ahora continuamos trabajando para intentar mejorar el subtitulado bilingüe. Los informativos gallegos, por ejemplo, están a tramos en gallego y en español, y lo mismo

ocurre con otras lenguas. Estamos tramitando expedientes, pero la tasa de fallo todavía es alta como para darlo por bueno. Por ello lo continuamos monitorizando desde Innovación.

Carmen : Además de la buena interpretación del bilingüismo por parte de la herramienta, otra de los desafíos importantes es que la solución sea capaz de identificar correctamente el idioma que está analizando. Como decía Pere, el uso del idioma en los informativos territoriales es dinámico. Cada comunidad representa una casuística distinta. Además, los corpus de las distintas lenguas no están igualados en su profundidad, por lo tanto, no es siempre fácil entrenar a la herramienta.

¿Cómo prevéis que debe evolucionar y qué esfuerzo técnico se debe hacer para que crezcan las prestaciones de esta herramienta?

Carmen: Estamos en el límite de la tecnología. Pero creemos que irán apareciendo nuevas soluciones que sean capaces de reconocer idiomas de forma más eficaz.

Pere: Aparte, las Comunidades con lenguas propias también están haciendo esfuerzos para aumentar el corpus de material para entrenar las herramientas.

¿Con qué empresas estáis trabajando?

Carmen: En el subtitulado bilingüe trabajamos con el integrador Aicox y Etiqmedia se encarga de la creación de la herramienta. En la parte de español y catalán está desarrollando la solución la Universidad Carlos III. Ángel García Crespo es el responsable de este caso de uso con la Universidad.

Tercer proceso. Análisis de contenidos.

Pere: Este desarrollo ha sido abordado desde dos perspectivas. En la primera, desde RTVE, se nos pidió que comprobáramos cuántos minutos se dedicaban en la casa al tratamiento de contenido relacionado con los Objetivos de Desarrollo Sostenible. Lo que hicimos fue coger estos contenidos de texto generados con el subtitulado de piezas audiovisuales y empezar a crear una ontolo-

IA 24 RTVE TM Broadcast

gía y herramientas que fueran leyendo todos los archivos y extrayendo las temáticas tratadas relacionadas con cada uno de los ODS.

Este primer caso fue lanzado hace dos años. Hicimos una primera prueba que ganó otro departamento de la Universidad Carlos III. Hicimos pruebas sobre dos ODS y los resultados fueron muy buenos. La casa se animó y nos pidió que tratáramos este tema para todos los Objetivos. Sacamos un nuevo pliego que lo ganó Political Watch.

Carmen: Incorporamos dos ODS cada mes. El ratio de éxito del análisis está en un 90% de éxito.

Pere: Pero es que además sucede algo que es curioso. Porque hay algunos ODS de los que se habla relativamente poco, por lo tanto hay poco material para enseñar a la solución.

Carmen: Nosotros, para suplir esta carencia, desarrollamos un corpus

interno en el que se testea cada vez que se incorpora un ODS.

Nuestro propio entendimiento humano muchas veces no nos permite comprender exactamente de qué se está hablando, aún más cuando se trata de encuadrar una temática dentro de una categorización tan concreta. Es difícil ser objetivo muchas veces. ¿Cómo actúa la IA en esos casos?

Carmen : La interpretación que hace la herramienta queda en función de lo que nosotros le hayamos incorporado como ontología. Cada vez que aparece la palabra mujer en un texto no significa que haya una desigualdad de género detrás. Entonces la IA lo que hace es comprobar que se den una serie de reglas concretas entre las palabras. Pero claro, tenemos que tener en cuenta que si haces demasiado precisa esta regla, te vas a dejar fuera temáticas que sean importantes

para el conteo. Por ello tenemos que estar siempre controlando que los parámetros de interpretación de la herramienta sean lo equidistantes entre flexibilidad y solidez. Esta es una labor que compartimos con el departamento de Responsabilidad Social para elaborar un criterio común.

Y limitar el discurso periodístico para facilitar la labor a estas herramientas. ¿Se contempla?

Pere: Yo no entraría en este jardín.

Carmen: Bueno, es que nosotros no podemos hacer eso. Nos han dicho muchas veces, por ejemplo, con el tema del subtitulado, ¿por qué no retrasáis la emisión unos segundos? De esa manera el subtitulado ya no iría retrasado. Pero es que nosotros esas cosas no podemos hacerlas. Se trata de que la solución se adapte a lo que hay, no de que se adapte el contexto a la solución.

RTVE

Pere: El segundo proceso que nos propusieron fue la averiguación de cuántas horas de lenguaje de signos ofrecíamos en el canal 24 Horas. Sacamos un pliego y entrenamos una máquina que, a día de hoy, mira un frame cada cierto tiempo y comprueba si hay o no un signante. Cada mes te da un reporte del número de horas. Esta herramienta lleva implementada tres años y hoy la precisión está en un 95%, pero al principio no funcionaba tan bien.

Carmen: Yendo más allá, estamos empezando a desarrollar el servicio de algo parecido a lo de los ODS y el desarrollo de reportes en base al contenido, pero para radio.

Lo primero que hay que hacer es transcribir el audio y la interpretación que hace la IA está orientada a lo que necesiten los compañeros. La idea es dejar a la máquina cumplimentar formularios de reporte pertinentes. Por ejemplo, el tiempo de pantalla que se ha dedicado a cada partido político en tiempo de elecciones. Por supuesto, todo ello queremos que sea supervisado, no pretendemos que todo el proceso sea automatizado. Pero aun así, esta solución adelantará mucho sus tareas. Estamos analizando unas 140 horas a la semana entre Radio 1 y Radio 5. En ambos casos, se hace sobre la desconexión de informativos de Madrid.

Cuarto proceso. Redacción automática de noticias.

Pere: Se ha fomentado sobre contenidos que nosotros no podríamos

cubrir por la gran cantidad de textos que se podrían generar. Empezamos a hacer pruebas con equipos de fútbol de segunda regional ya que los partidos de fútbol ofrecen datos estructurados y porque no llegábamos a cubrir esta categoría. Fue un proyecto que nació con mala suerte porque llegó la pandemia y quedó paralizado.

No obstante, hemos avanzado con otro proyecto que mantiene caracte-

rísticas similares. Se trata de una prueba de concepto para redactar contenidos de manera automática la noche electoral en las próximas elecciones municipales. Solo se haría sobre los municipios de menos de 1000 habitantes. Una vez más, información a la que no llegamos a cubrir. Estamos hablando de crear la noticia de 4600 poblaciones en menos de un cuarto de hora. Nos hemos unido a la Universidad de Castilla-La Mancha. Sobre unas 700

IA 26 RTVE TM Broadcast

además tenemos imágenes. Se trata de crear un asset completo: fotografía de la población, un titular, una o dos entradillas, comparaciones, gráficos, un pactómetro, etc. Además, narración de audio de la crónica con voces masculinas y femeninas y música de fondo.

Llevamos trabajando en este proyecto casi un año y medio. Si todo va bien, lanzaremos los resultados de este proyecto en la noche del día de las elecciones de mayo de 2023 tratándolo como una prueba de concepto.

La empresa que ganó la parte tecnológica es Narrativa y trabajamos con la Universidad de Castilla-La

Mancha para los contenidos y, en el momento en el que se realizó esta entrevista, nos encontrábamos en proceso de adjudicación de las voces.

Otra cosa que tenemos que decir es que el tratamiento del lenguaje que estamos dando es el que debería dar una televisión pública. En comparación con el otro caso de uso, el de la redacción de textos sobre partidos de fútbol en el que lo que hicimos fue observar las redes sociales de los clubes, en el proyecto de las elecciones hemos seleccionado la horquilla de palabras que podemos usar para evitar pecar de tendenciosos.

Pere: La parte de redacción automática de noticias se puede hacer sobre contenidos que están estructurados. Por ejemplo en el caso de un partido de fútbol, el contenido se estructura con una serie de datos como la hora de inicio, hora de fin, los goles, etc.

Con esto en mente, quisimos hacerlo a la inversa. Para empezar establecimos un grafo de conocimiento sobre un contenido concreto;

RTVE IA TM Broadcast
Quinto proceso (en estudio). Redacción automática de noticias sobre datos no estructurados.
27

por ejemplo, huracanes. Es decir, fijar una estructura nosotros mismos al tema. Con información como el día, la hora, el lugar, la fuerza del viento, la asiduidad de tornados en esa localización, etc., puedes ser capaz de realizar automáticamente un texto informativo.

El proyecto, que está en fase de estudio, consistiría en que cada vez que se produce un tornado, se daría rienda suelta a un proceso en el que la solución de IA, con esta estructura

que hemos definido previamente, va a buscar la información para cumplimentar la estructura yendo a fuentes fidedignas. Una vez que la IA rellene los datos, seguiría confeccionando el texto y se complementaría con una imagen, una locución y una música.

Esta herramienta, eso sí, debería convertirse en una ayuda para el periodista. Será, por tanto, una herramienta de soporte al meteorólogo que le facilite el proceso de creación de una noticia y generar un contenido más depurado en menos tiempo.

Sexto proceso. Verificación de noticias.

Pere: En este proyecto hemos conseguido financiación del Ministerio de Ciencia e Innovación con fondos de Next Generation, está dentro IVERES. La idea es poner a disposición de profesionales de RTVE herramientas de verificación. La verificación es un conjunto de tareas diferentes que incluyen monitorear

IA 28 RTVE TM Broadcast

canales, identificar aspectos de viralización que pueden aparecer en diferentes redes sociales, herramientas que te permitan archivar de distintas maneras según qué cosas, etc.

El objetivo es hacer un estudio de los temas que pueden llegar a ser interesantes para el periodista extrayéndolos de las redes sociales y enviarle una alerta para que se entere de lo que está pasando. Por otro lado, la solución también tiene una herramienta de archivo para que

cuando algo le interesa al periodista, se lo pueda guardar y compartir con sus compañeros en el mismo momento. Finalmente, esta aplicación incorporaría herramientas a la solución que permitan verificar la autenticidad de las voces, de las personas o de los datos mostrados en la noticia.

Para lograrlo estamos trabajando con otro de los departamentos de la Universidad Carlos III de Madrid para observar redes sociales. También trabajamos con la Universidad Politécnica de Cataluña sobre una herramienta que han creado ellos para verificar la autenticidad de cualquier contenido visual de una manera rápida y sencilla. Igualmente trabajamos con la Universidad de Granada, con una empresa se llama Monoceros, ideando una solución para verificar, una vez más, la autenticidad del contenido.

Otros proyectos (en estudio)

Realización automática de vídeo

Pere: Queríamos probar un sistema el pasado noviembre, no lo pudimos hacer por un problema en el suministro, que desarrollase una realización automática de un acontecimiento deportivo. Desarrollamos esta prueba de concepto en el Campeonato Mundial de Taekwondo que se desarrolló en el Navarra Arena. Participaban Nasertic, la Universidad de Navarra, el propio Navarra Arena, profesionales vinculados a este deporte, una empresa vinculada a la Universidad

Politécnica de Cataluña que hacía la parte de repetición de jugadas de manera autónoma, Overon, del Grup Mediapro, que aportaba el sistema de realización y cámaras especiales; y una empresa de telecomunicaciones que ofrecía la conectividad 5G para hacerlo todo. La idea era simular un edge en el Navarra Arena. En un principio se iba a hacer, pero no se pudo completar el experimento. Lo retomaremos.

Herramientas de producción basadas en Chat GPT y Dall-e

Pere: Mientras tanto, hemos empezado a observar todas las capacidades que aporta el Chat GPT. También han aparecido una serie de software como el Dall-e y una serie de paquetes de software para manejar estas herramientas y hacer labiales.

Basándonos en estas prestaciones, hemos desarrollado un proyecto para Radio 3 por el que crearemos un avatar en formato audiovisual dedicado a sus redes sociales. No se pretende que el avatar sea humano, sino un personaje creado con su propia idiosincrasia y aspecto. Hemos definido ya al personaje y ahora estamos trabajando la voz. Además, la idea es que los guionistas trabajen con Chat GPT.

Como has visto, esto afecta a muchos procesos de la casa. Has de tenerlo en cuenta en procesos de guionización, tienes que considerarlo para la parte creativa, en el archivo, en producción. Por ello es una herramienta totalmente disruptiva que va a cambiar todas las formas de trabajar y de entender el trabajo.

RTVE IA TM Broadcast
29

Antaviana VFX & Postproduction Pasión por la postproducción

Llevan la postproducción en la sangre y, con la pasión y entrega que caracteriza este sector, Bernat Aragonés, Mireia Aragonés y Anna Aragonés decidieron crear Antaviana VFX & Postproduction.

Con más de 30 años de experiencia, han apostado por un modelo de servicio íntegro, realizando proyectos nacionales e internacionales y asumiendo cada reto con profesionalidad y entrega.

Hemos hablado con Bernat Aragonés, director de postproducción de Antaviana, montador y supervisor de VFX, para conocer el alma, presente y futuro de la compañía.

¿Cómo surge Antaviana VFX & Postproduction?

Somos un equipo que lleva muchos años trabajando juntos. De hecho, Antaviana es una empresa familiar que surgió de la mano de José María Aragonés y Rosa Fusté, nuestros padres. Ellos llevan una larga trayectoria en el sector. Empezaron con el fotoquímico y crearon varias de las empresas relevantes en el ecosistema de la postproducción en los años 90 y 2000, como fueron Filmtel y Apuntolapospo.

En 2015, junto a mis hermanas Mireia y Anna, tomamos la decisión de tener una independencia de la empresa en la que estábamos, que en aquel momento era Apuntolapospo. No nos sentíamos identificados con el modelo. De esta manera creamos Antaviana VFX & Postproduction. José María y Rosa han estado con nosotros desde entonces, pero somos la nueva generación los que estamos llevando el día a día y la iniciativa.

30 POSTPRODUCCIÓN TM Broadcast ANTAVIANA

Has comentado que no os sentíais identificados con el modelo de la anterior postproductora, ¿en qué se diferencia Antaviana?

Nosotros llevamos la postproducción audiovisual en la sangre, es lo que hemos conocido siempre. Hay diferentes maneras de abrazar los proyectos, estrategias, afinidades con otras empresas… al ser nosotros quienes decidimos es más fácil de llevar.

Una multinacional se rige por unos parámetros que persiguen unos resultados a corto plazo. Eso es algo totalmente entendible y necesario, pero nosotros creemos que hay algo más. Se trata del equipo, del trato, de la atención al detalle, de contar historias que nos muevan, de los lazos profesionales que te acompañan a

lo largo de toda tu carrera profesional. La perspectiva temporal es mucho más amplia. La postproducción, el audiovisual, el cine… requieren pasión, muchas horas y sacrificio. Entendemos que esto lo llevas a cabo cuando realmente eres dueño de tu destino y esto fue un poco lo que nos llevó a tener esta iniciativa.

¿Cómo ha evolucionado Antaviana desde 2015?

Creo que se ha consolidado. Se ha consolidado en el panorama de la postproducción en Cataluña y en España y también hemos realizado muchas producciones a nivel internacional. Hemos dado entrada a gente con perfiles más jóvenes, que aportan una visión distinta, experiencia internacional y un punto de vista de la tecnología muy actualiza-

do. Esto nos hace mejores, sin lugar a dudas.

¿En qué aspectos de la postproducción estáis especializados?

Hay empresas que se especializan en una parte muy específica de la cadena de postproducción. Nosotros, en cambio, concebimos la postproducción de una manera integral. Entendemos que creativamente es mucho más interesante crear un entorno en el que todos los departamentos se interrelacionen entre sí.

Puedes estar en montaje e ir a ver los efectos, hablar con la persona que está haciendo el diseño de sonido y tomarte un café con la persona que se encarga del color. Es un ecosistema mucho más divertido y creativamente se retroalimenta.

31 TM Broadcast ANTAVIANA POSTPRODUCCIÓN

Es un modelo muy exigente porque te obliga a estar al día de todo. Tienes que ser puntero en sonido, en montaje, en VFX, en color, en gestión de proyectos, en la creación de los deliveries… Tecnológica y metodológicamente es exigente, pero nos permite optimizar muchos procesos.

Obtienes un mejor resultado porque eliminas en procesos intermedios y puedes hacer más iteraciones. El hecho de que convivan profesionales muy potentes en cada una de las áreas es muy beneficioso finalmente para los proyectos.

Teniendo en cuenta que os basáis en todos los aspectos de la postproducción, ¿con qué tecnología trabajáis para llevarlos a cabo?

Hay muchas. Como digo, debemos estar al día de las innovaciones que se llevan a cabo y monitorizar las distintas iniciativas que hay en la industria, sobre todo a nivel de estandarización. Estamos presentes en las principales asociaciones de la industria y seguimos con atención la evolución de los estándares tecnológicos.

Por ejemplo, en corrección del color. Nosotros utilizamos y estamos muy contentos con el Mistika de SGO. SGO es una compañía española que no solo tiene un corrector de color que es puntero, sino que además posee unos módulos de composición, de conformación y de gestión de media que son muy eficientes.

Nosotros lo hemos integrado de tal manera que están en el corazón de nuestro pipeline. Es una arquitectura de trabajo que nos funciona muy bien. Además, con la ventaja de que la cercanía proporciona un trato muy personalizado. Cualquier duda que nos surge podemos consultarla y tener información de primera mano.

En este sentido habría que mencionar también a Trigital. Siempre nos ha dado confianza y las soluciones adecuadas para lo que necesitábamos. Es una relación que nos ha permitido crecer en función de las necesidades que tenemos.

32 ANTAVIANA TM Broadcast
POSTPRODUCCIÓN

¿En qué proyectos recientes habéis estado involucrados?

Este año 2022 ha sido realmente interesante.

Pasé el primer semestre del año viajando bastante a Chile por una película de Lone Scherfig. Lone es una directora danesa que ha realizado películas como “An Education” o “The kindness of strangers” y que, en su momento, fue una de las firmantes del Dogma 95. La película se titula “La contadora de películas”, está producida por Acontracorriente en coproducción hispano chilena y se basa en la novela homónima de

Hernán Rivera Letelier. Estuve en el rodaje supervisando los VFX ya que es una película histórica con muchos efectos digitales. Después hice el montaje de la película, una parte en Antaviana y otra en Nordisk Film, en Copenhague. Fue un proyecto muy interesante y tengo ganas de que se estrene.

También hemos realizado algunas series, por ejemplo, “Smiley”, considerada una de las 50 mejores series de Netflix. Fue muy interesante por la propia serie, pero también a nivel metodológico. Está íntegramente realizada en ACES y HDR, que es una arquitectura de color compleja de

gestionar. Ha sido una muy buena experiencia, pero era un reto técnico. Había muchos efectos, grafismos, pantallas partidas y relativamente poco tiempo para llevarlo a cabo. ACES es una arquitectura de trabajo que ya hace muchos años que utilizamos, pero no de una manera completa en una serie con un turnaround tan corto. Pero finalmente salió muy bien.

¿Cuáles han sido los mayores retos a los que os habéis enfrentado y qué os han aportado?

Los retos tecnológicos siempre son una oportunidad para aprender.

POSTPRODUCCIÓN TM Broadcast
33 ANTAVIANA

Hay tecnologías que acaban siendo un poco efímeras, pero el aprendizaje es lo que realmente te acompaña.

Para ejemplificarlo. En la primera década de los 2000 participé varias películas en formato IMAX e IMAX 3D en África. El rodaje 3D con soporte fotoquímico era complejo, pero cuando entre el 2009 y el 2014 hubo la eclosión del 3D estereoscópico, ya había hecho un aprendizaje e interiorizado unos conceptos que nos permitió aprovechar toda esa ola y realizar proyectos estereoscópicos por todo el mundo.

¿Todo eso dónde nos llevó? Porque el 3D murió… Pues tampoco es así del todo realmente. El 3D ha evolucionado a lo que es la realidad virtual.

En resumen, ese aprendizaje del 3D analógico nos llevó a poder aprovechar la ola del 3D digital estereoscópico y, a su vez, años más tarde a realizar proyectos de realidad virtual. Todo es conocimiento que vas acumulando.

La tecnología avanza a una velocidad enorme, ¿cuáles son esas tendencias tecnológicas que Antaviana ha identificado y por las que ha apostado?

La inteligencia artificial, sin duda. En VFX ya hace años que utilizamos machine learning, antes era algo ocasional y para fines muy específicos. Ahora, en cambio, su uso es cada vez más común, igual que los generadores de imagen basados en inteligencia artificial.

Luego hay otras herramientas de producción virtual que también son

interesantes. Los motores de videojuegos, por ejemplo, que son muy versátiles y ofrecen un fotorealismo cada día más cercano al de los motores de render tradicionales. Nosotros, sobre todo, los hemos implementado en previsualizaciones de escenas complejas, por ejemplo.

El HDR se ha convertido en un estándar de producción. ¿Cómo se ha adaptado Antaviana a las exigencias de estos nuevos formatos? ¿Qué herramientas usáis para proporcionar cortes que no sean HDR? ¿En qué tecnología os basáis para esta tarea?

El HDR ya forma parte de la postproducción desde hace años. De hecho, diseñamos Antaviana pensando en el ecosistema de la Ultra Alta Definición, que trabaja con una resolución, espacio de color y un rango dinámico superiores, de manera que la infraestructura de Antaviana a nivel de procesado, transmisión y almacenamiento, ya estaba dimensionada para trabajos de estas características.

¿De qué manera hacemos la adaptación de un rango dinámico al otro? Utilizamos Dolby Vision. La integridad del color es algo fundamental para nosotros, por esto optamos por las soluciones que nos ofrecen la mejor calidad en cuanto a monitorización, procesado y calibración. En este caso, además, se ha convertido de facto en un estándar en la industria debido a la precisión de sus algoritmos y su adaptación dinámica parametrizable como metadatos.

Las técnicas de producción remota, así como la postproducción, han cambiado el panorama de nuestra industria. Se convirtieron en algo habitual durante la pandemia de COVID-19. ¿Qué flujos de trabajo se modificaron entonces?

Curiosamente, recuerdo que tuvimos una reunión técnica en enero de 2020 para decidir a qué iniciativas les podríamos dar prioridad. Me acuerdo que decidimos apostar por el trabajo remoto e implementarlo en el departamento de VFX, ya que nos permitiría algunas ventajas a la hora de reclutar talento.

POSTPRODUCCIÓN 34 ANTAVIANA TM Broadcast

Fue premonitorio, ya que dos meses más tarde nos encerraron a todos en casa. Como ya habíamos diseñado el esquema de seguridad y realizado algunas pruebas, esta estructura de trabajo remoto fue relativamente fácil de implementar al resto de departamentos.

¿Se siguen manteniendo estos flujos de trabajo en la actualidad?

Sí, principalmente en lo que refiere a VFX.

En cuanto al resto de procesos, hemos hecho corrección de color remota, e incluso hicimos una producción en HDR remota. Esta fue una experiencia pionera muy interesante y de la que estamos muy contentos. Si se dieran de nuevo las circunstancias, lo repetiríamos sin ningún problema.

En edición también hacemos trabajos en remoto. De hecho, en 2021 monté una película italiana Mamma, cui comando io! cuyo director, Federico Moccia, aunque compartimos sesiones de montaje diarias, no se movió de Roma. No obstante, la dinámica de los proyectos hace que esto sea un hecho puntual y generalmente el montaje es todavía un trabajo presencial.

¿Qué capacidades aporta la introducción de la nube a vuestros flujos de trabajo? ¿Se considera una ventaja?

Depende. Creo que aún está a un precio demasiado alto para que se pueda democratizar su uso. Sin embargo, la adopción específica para algunos procesos en concreto sí que tiene ventajas.

La distribución de DCP a los cines, por ejemplo. En Antaviana tenemos la totalidad de las salas de exhibición de España conectadas mediante la tecnología de UniqueX. Semanalmente enviamos centenares de DCP -de distribuidoras Majors e Independientes- directamente a los servidores de los cines. La distribución electrónica de cine a través del cloud cambia las reglas del juego: se reducen tiempos, costes y es más sostenible.

¿Cuál crees que podría ser la próxima gran revolución tecnológica en la industria de la postproducción?

Últimamente ha habido revoluciones tecnológicas muy importantes, como la producción virtual que ya está aquí para quedarse. El cloud sin duda irá a más, desde luego.

No obstante, creo que la gran revolución es la de la inteligencia artificial. Ya estamos empezando a ver cómo una asistencia de la inteligencia artificial nos puede facilitar la toma de decisiones. En ese sentido, la inteligencia artificial aplicada a la corrección del color, al sonido, a la búsqueda o creación de imágenes para bocetos artísticos, a la optimización de procesos de render… por no hablar de cómo ya está afectando los trabajos de rotoscopia o de composición de VFX. Es decir, todos los campos de la actividad audiovisual poco a poco tendrán su módulo de inteligencia artificial que nos podrá facilitar o sugerir determinado tipo de tareas. No estoy hablando de una sustitución de las tareas humanas sino de una simbiosis. Es una fase larga e interesante. Yo creo que esta es la gran revolución.

¿Cuáles son los próximos pasos que dará Antaviana y en qué tecnología se basará para darlos?

Sin duda, monitorizar y experimentar la inteligencia artificial. Ya sea en el campo de los VFX, del sonido o del color. Eventualmente también en el montaje, pero sobre todo en esos tres primero.

Hay otro tema interesante que es el de la captura volumétrica combinada con machine learning. El paradigma de la captación de imágenes hace tiempo que se ha desplazado a su procesado. Este es uno de los temas en los que me gustaría profundizar y estoy seguro de que tendrá consecuencias importantes; igual que la evolución de las tecnologías de Light Field display, capaces de generar imágenes tridimensionales sin el uso de gafas.

La adopción de frame rates variables también me parece muy interesante. Creo que es una aportación estética y narrativa importante, y eso que soy un gran nostálgico del look fílmico…

De todas formas, debemos avanzar. A veces creo que hacemos como aquellos arquitectos que siglos después del renacimiento seguían con los frontones, las bóvedas y columnas de orden jónico y corintio. Seguimos aferrados a elementos como el grano, la poca profundidad de campo o el motion blur cuando podemos ser más valientes e innovar más allá de estos parámetros. Los artistas que pasaron a la historia fueron, de hecho, los que transgredieron.

POSTPRODUCCIÓN TM Broadcast 35
ANTAVIANA
36 TECNOLOGÍA TM Broadcast METAVERSO

Cómo la idea del metaverso podría cambiar el contenido que creamos

El metaverso, la panacea de lo que serán los mundos inmersivos, está aún por construir; es más, está aún por imaginar. Las posibilidades son infinitas. La promesa de interactuar con realidades que nunca viviremos ya sea porque han quedado atrás o porque están demasiado lejos en el futuro resulta apasionante para el consumidor de contenido. Imaginad disfrutar de eventos en vivo en mundos virtuales interactivos, competiciones deportivas más allá de la realidad que se puede sentir en un estadio o formaciones educativas que provén de las herramientas más inaccesibles y costosas -como una cámara broadcast profesional- con el menor de los costes asociados.

Esta es una entrevista con Carlos J. Ochoa Fernández, fundador de One Digital Consulting, en la que el lector podrá entender todo lo que podemos lograr si la industria tecnológica de las realidades inmersivas recorre el camino que queda por hacer.

37 TM Broadcast METAVERSO TECNOLOGÍA

¿Qué es el metaverso?

«¿Qué es el Metaverso? Si nadie me lo pregunta, lo sé. Pero si quisiera explicárselo a quien me lo pregunta, no sabría que decir». Como definir algo que no existe, cuando todo el mundo habla de ello, repitiendo el mismo mantra una y otra vez.

Quizás deberíamos dejarnos llevar a tiempos remotos, e intentar hacer una simetría entre filosofía y ciencia, y buscar en las profundidades de la relación espacio y tiempo, y ver hacia donde nos lleva.

En la filosofía platónica, el universo se entiende como una dualidad compuesta por el mundo sensible o material y el mundo inteligible o de las formas o ideas

Para Platón, las formas o ideas existen en un plano distinto (superior) al de la realidad material, y son inmutables, eternas e ideales. Por otro lado, el mundo sensible es el que percibimos a través de los sentidos y está sujeto a cambios y deterioro. Esto es, las formas o ideas son la verdadera realidad y son conocidas por el intelecto, mientras que el mundo sensible es una imitación imperfecta de las formas.

En resumen, para Platón el universo es una dualidad compuesta por el mundo sensible y el mundo inteligible, y la verdadera realidad es el mundo inteligible

Por otro lado, el metaverso se refiere a un mundo virtual, reconstrucción de un espacio tridimensional realizado por ordenador y por un ser humano, el cual se puede explo-

rar y experimentar a través de tecnologías como la realidad virtual, la realidad aumentada y la realidad mixta. El metaverso es una recreación humana, con todas sus limitaciones, además de las propias tecnológicas, y que permite a los usuarios interactuar con objetos, avatares y otras entidades digitales en un entorno virtual.

En resumen, el universo es un concepto que se refiere a todo lo que existe en sus distintos estados, mientras que el metaverso es una recreación humana, que permite la interacción con objetos y entidades virtuales en un entorno virtual, más allá del tiempo, la física y la imaginación.

Otro de los aspectos interesantes a considerar, y de un atractivo inmenso a la hora de buscar referencias entre universo y metaverso, es la relación espacio-tiempo. Algo que ha encadenado a la realidad del ser humano a lo largo de la historia, atrapándole en sus carencias y limitaciones físicas, mentales y emocionales. Sin embargo, la oportunidad del Metaverso, de teletransportarse a momentos pasados o futuros, fuera de las leyes de la física, es algo realmente apasionante, que traspasa las fronteras de la realidad, sin limitaciones de espacio, ni restricciones de tiempo.

En definitiva, podríamos simplificar la definición del Metaverso (sin pretensión alguna de ser un referente), como un término utilizado para describir un universo/s virtual/es, habitados por millones de personas (avatares) en un entorno inmersivo compartido. A menudo se representa como un espacio de realidad virtual,

en donde los usuarios pueden interactuar entre sí de distintas formas, con objetos digitales, etc.

En el metaverso, los usuarios pueden participar en distintos tipos de actividades y con distintos roles o perfiles. Juegos, comercio digital, espacios creativos, conciertos, simulaciones educativas, eventos virtuales, comunidades virtuales, son algunas de las más representativas. El concepto del metaverso se ha popularizado enormemente a través del cine y la literatura de ciencia ficción, pero también tiene su representación en el arte, la pintura, la música.

38 METAVERSO TM Broadcast
TECNOLOGÍA

Sin olvidar espacios más empresariales y avanzados, en los que grandes corporaciones están invirtiendo, como en la implementación de esta tecnología en escenarios híbridos, más integrados con el mundo real.

El “hype” del Metaverso está apostando por un futuro más orientado a experiencias inmersivas y experienciales. La convergencia de las tendencias digitales emergentes, como los avances de los mundos virtuales y los medios espaciales, la inteligencia artificial, la adopción de blockchain, la productividad remota en tiempo real, y la democratización

del comercio electrónico, ha llevado a la concepción del concepto “Metaverso mínimo viable”. Y aunque aún quedan muchas preguntas sin respuesta, hoy ya está claro que el potencial es enorme y fruto de ello, son las grandes inversiones que se están realizando en distintas compañías de sectores convergentes.

¿Cuál es el vínculo entre el metaverso y el broadcast (radiodifusión de contenidos multimedia)?

Cuando hablamos de broadcast, estamos hablando de formas de transmisión referidas a la distribución de audio, vídeo, gráficos u otros

tipos de contenido a una audiencia a través de distintos canales de medios, incluidos la televisión, la radio e Internet.

A lo largo de estos últimos años, la industria de la radiodifusión y los medios han experimentado una evolución significativa, fundamentalmente impulsada por los avances tecnológicos y los cambios en el comportamiento del consumidor. La digitalización y la transmisión en línea, el empleo de los móviles facilitando el acceso a los contenidos en cualquier momento y lugar; las redes sociales, compartiendo y distribu-

TECNOLOGÍA TM Broadcast
39 METAVERSO

yendo contenido; la creciente disponibilidad y análisis de datos, que está cambiando la forma en que se comercializan, producen y distribuyen los medios; el empleo de la inteligencia artificial, para automatizar tareas, mejorar la creación de contenido y mejorar la orientación de la audiencia; y la última gran megatendencia, que es la creación de contenido interactivo, permitiendo crear experiencias en medios interactivos, en plataformas inmersivas o metaversos.

Cuando hablamos de metaverso, por lo general nos referimos a un mundo virtual o un espacio colectivo generado por ordenador, en donde los usuarios pueden interactuar entre sí. Es un término que se utiliza para describir el concepto de un espacio virtual compartido, normalmente creado por la convergencia de una realidad física virtualmente mejorada y una realidad virtual físicamente persistente, incluida la suma total de todos los mundos vir-

tuales, la realidad aumentada e Internet.

Estos desarrollos continúan dando forma a la industria de la transmisión y los medios, y es probable que se produzca una mayor evolución en los próximos años y quizás sea la convergencia con el Metaverso, ese paso siguiente.

En cualquier caso, no podemos olvidar, que cada medio, requiere de un lenguaje especifico, que debe ser entendido, adecuado y transmitido por el medio a una audiencia. La transición a un nuevo medio o lenguaje, requiere de un proceso de comprensión, aprendizaje y aceptación, que debemos monitorizar con inteligencia.

¿Qué pasos deben dar las empresas de M&E y los servicios públicos de radiodifusión para adoptar esta nueva forma de consumir contenidos?

En la actualidad los hábitos de consumo de contenidos están evolucionando de forma muy rápida. Al igual que los gustos y tendencias en medios. Apareciendo nuevos lenguajes, que requieren de formas de expresión a veces muy sencillas, a veces muy complejas. Pero con un mensaje claro, directo y breve. Para adoptar la forma de consumo de contenidos en el “metaverso”, las empresas de medios y entretenimiento y los servicios públicos de radiodifusión deben seguir una serie de pasos que creemos importantes de resaltar:

•Investigación y análisis: Es necesario llevar a cabo un trabajo profundo de investigar y analizar la tecnología del “Metaverso” y el potencial impacto en su industria.

•Desarrollo de una estrategia clara y visionaria: Es fundamental desarrollar una estrategia clara para analizar cómo abordarán la apuesta por el “Metaverso” y cómo

TECNOLOGÍA 40 METAVERSO TM Broadcast

se integrará con sus canales y operaciones existentes.

•Adquisición de habilidades y recursos: Es necesario llevar a cabo un programa de análisis de gaps, para adquirir las habilidades y los recursos necesarios para crear y distribuir contenidos en el “Metaverso”.

•Creación de contenidos: Se debe desarrollar una estrategia de creación de contenidos y crear los mismos, de tal manera que sean adecuados para la experiencia en el “Metaverso” y que atraigan a los usuarios.

•Participación activa: Involucrarse en grupos y comunidades de expertos, participando activamente en la construcción y desarrollo del “Metaverso”, coordinando acciones con otros actores clave en la industria para la elaboración de normas y estándares.

•Creación de Comunidad: La creación de comunidad, buscando nexos de unión entre afines, a través de redes y actividades de dinamización proactiva, será uno de los factores claves del éxito del proyecto. Solo de esta manera sabremos acceder a los canales de los colectivos foco de nuestra acción.

•Monitoreo y adaptación: Es muy importante monitorear de cerca la evolución de la experiencia en el “Metaverso” y estar dispuestos a adaptarse a los cambios en la tecnología y la demanda de los usuarios.

Estos son solo algunos de los pasos más importantes que creemos deben darse para la adopción exitosa del “Metaverso”, si bien, estos deben adaptarse y enfocarse de una forma más personalizada a cada usuario y empresa.

¿Cuáles son los principales retos tecnológicos asociados al consumo de contenidos de entretenimiento en el metaverso a través de la tecnología XR?

A lo largo de estos últimos 20 años en el sector de las tecnologías inmersivas y la participación de un buen número de proyectos y desarrollo de experiencias, he podido contrastar de primera mano la evolución vertiginosa en los dispositivos y motores de desarrollo. Y qué duda cabe, que esto facilita enormemente el proceso de aceptación y adquisición en el usuario final. No obstante, el gran reto sigue siendo el “contenido” final. Un contenido complejo, interactivo, reutilizable, multiplata-

forma y multidispositivo, capaz de ser adaptado y actualizado rápidamente y que aporte valor añadido al usuario. Esto es, un beneficio tangible y real, más allá del efecto WOW.

En cualquier caso, si podemos realizar un breve resumen o apunte de los que pensamos como principales retos de futuro en el mundo del entretenimiento:

•Interacción humano-computadora: La creación de experiencias en el “Metaverso” que sean naturales y fáciles de usar para los usuarios es un desafío constante, y requiere una comprensión profunda de la interacción humano-computadora, de las tecnologías que se emplean y de la manera de interactuar con el medio.

•Escalabilidad y rendimiento: Una de las barreras actuales de los mundos virtuales son la escalabilidad y el rendimiento. Esto las convierte en el mayor número de los casos en inviables. Esta es una de las barreras más importantes a salvar, ya que deben ser capaces de manejar un gran número de usuarios simultáneos y asegurar un rendimiento fluido y sin interrupciones. Aquí cobra especial relevancia todo lo que tiene que ver con conectividad y accesibilidad.

•Seguridad y privacidad: Otro de los aspectos críticos a afrontar en el futuro inmediato, es todo lo que tiene que ver con garantizar la seguridad y privacidad de la identidad del usuario. El “Metaverso” debe garantizar al 100% la privacidad y seguridad de los datos de los

TECNOLOGÍA TM Broadcast 41
METAVERSO

usuarios, incluyendo la protección contra el hacking y la privacidad de la información personal en todos sus aspectos (físicos y virtuales).

•Contenido de alta calidad: La producción de contenido en el “Metaverso” requiere una gran cantidad de recursos y habilidades, y se deben desarrollar e integrar contenidos de diversas fuentes, formatos y con un común denominador “alta calidad” y autenticidad del mismo. Este es un aspecto clave, en donde la adaptación de estándares jugará un papel clave en el futuro. El entender el medio, el contenido y su difusión, son aspectos importantes a la hora de definir nuestro modelo de negocio. Así como el público objetivo y el dispositivo al que vamos a liberar este contenido.

•Integración de plataformas: Este aspecto, hoy por hoy es una utopía, pero está en el ADN de su definición. Y si creemos en el Metaverso como una evolución de Internet, cada mundo debe configurarse como un portal, desde el que se accede desde una plataforma común. El “Metaverso” debe ser compatible con una amplia gama de plataformas y dispositivos, lo que requiere un enfoque abierto y colaborativo de la tecnología.

Si un usuario ya consume contenidos cómodamente en dispositivos normales, ¿por qué querría acceder a mundos virtuales para consumirlos?

¿Cómo se accede ahora y cómo debería evolucionar la tecnología para ofrecer un acceso sencillo, accesible y cómodo a los usuarios?

Nuevos tiempos, nuevos medios, nuevos lenguajes de colaboración. Todos queremos crear nuestro contenido y publicarlo, queremos identidad, reputación, monetizar nuestro trabajo y socializar en redes en donde encontramos afinidad, complicidad y mercados y oportunidades. Lugares donde empatizar e interactuar son factores claves para buscar nuestra diferencia y valor.

Aquí es donde encontramos varias razones por las que un usuario puede querer acceder a mundos virtuales para consumir contenidos de entretenimiento de una forma distinta.

Los mundos virtuales nos ofrecen una oportunidad de sentir que estás allí, que perteneces, única. Crear espacios y experiencias inmersivas y enriquecedoras en distintos dispositivos, permitiendo a los usuarios interactuar con el contexto de una manera significativa y personal es una de las claves.

Así mismo, descubrimos nuevas formas de interactuar con el contenido de una manera novedosa y creativa, lo que puede aumentar su atractivo y sensación de diversión. Como si estuviéramos en el interior de un videojuego.

Uno de los aspectos diferenciales con otros medios, es la conectividad social que permite a los usuarios interactuar con otros, compartiendo experiencias en tornos atractivos e idílicos, generando empatía.

En cuanto a cómo se accede a los mundos virtuales y cómo debería evolucionar la tecnología en los pró-

ximos años, en la actualidad podemos acceder a través de distintos dispositivos de realidad virtual o aumentada más o menos complejos, como gafas VR o AR. No obstante, los distintos fabricantes y marcas del sector, están focalizados en el desarrollo de tecnologías más evolucionadas para hacer que el acceso sea más sencillo, accesible y cómodo para los usuarios. Esto podría incluir la mejora de la ergonomía de los dispositivos, la reducción de costes y la eliminación de obstáculos técnicos que dificultan el acceso. Además, la tecnología y las comunicaciones, deberán mejorar para garantizar una experiencia fluida y sin interrupciones, y ofrecer una conectividad más fácil y una integración completa con otras plataformas y dispositivos.

¿Qué aplicaciones prácticas podrá llegar a tener el metaverso en el consumo de contenido multimedia? ¿Cuáles son los límites existentes? ¿Qué innovación técnica y comercial se necesita para superarlos?

TECNOLOGÍA 42 METAVERSO TM Broadcast

El mundo multimedia es el campo por excelencia del “Metaverso”, y las oportunidades de crecimiento y desarrollo son casi infinitas. Un nuevo medio, abierto a la imaginación, la creatividad, la innovación, a descubrir nuevos formatos más inmersivos y experienciales, personalizados y que no son posibles de visualizar ni experimentar en ningún otro medio, serán la clave del futuro de estas plataformas. Experimentar tu experiencia, única e irrepetible, universos metafóricos y efímeros al alcance de tu mano y a la carta.

Uno de los aspectos que no podemos obviar, es que la población mundial esta envejeciendo rápidamente. Y este colectivo demanda contenidos y experiencias de alta calidad. Así mismo, este colectivo y otros, se ven impedidos de acceder a ciertas actividades en el mundo real por múltiples causas. Económicas, físicas, etc… Y la oportunidad de desarrollar experiencias prácticas y reales para este colectivo es una de las mayores a nivel global.

Algunos de los sectores en donde empiezan a desarrollarse grandes experiencias y proyectos son:

•Cine y entretenimiento en vivo: los usuarios pueden acceder a experiencias de cine y entretenimiento en vivo en mundos virtuales, permitiendo una experiencia más inmersiva y participativa.

•Juegos, deportes y salud y vida: los mundos virtuales ofrecen nuevas formas de jugar y ver deportes, realizar actividades físicas y mentales, permitiendo a los usuarios interactuar con el contenido de una manera más significativa y personal.

•Conferencias y eventos en línea: los mundos virtuales permiten la realización de conferencias y eventos en línea con una experiencia más inmersiva, interactiva y enriquecedora para los participantes.

Y un largo etc. aún por descubrir…

Sin embargo, existen actualmente algunos límites para el uso del metaverso en el consumo de contenido multimedia.

•Aún persisten algunas barreras técnicas, ya que la tecnología actual aún no es accesible para la mayoría de los usuarios, y la falta de conectividad, la necesidad de dispositivos especializados y la falta de experiencias fluidas pueden limitar o retrasar su adopción.

•Costes elevados: el equipo y los servicios necesarios para acceder los servicios y contenidos de un mundo virtual, pueden ser costo-

sos para una gran mayoría de potenciales usuarios, lo que limita su accesibilidad para la mayoría.

•La escasez de contenido de calidad y especializado limita su atractivo para muchos usuarios. Y la creación de este, en entornos inmersivos, es especialmente caro y complejo de desarrollar.

Por lo que, para superar estas barreras, es necesario una innovación tecnología y comercial, que arrastra a una fuerte inversión, muy importante. Si nos fijamos en los factores críticos, según un buen número de consultoras y avalado por nuestra propia experiencia de años de desarrollo, los aspectos críticos a mejorar serían:

•Accesibilidad y la ergonomía de los dispositivos: la evolución tecnológica debe permitir que el acceso y manejo de los dispositivos sea más sencillo, accesible y cómodo para los usuarios.

•Este aspecto requiere repensar el negocio. Si bien hoy en día una televisión de alta gama, o un smartphone tienen unos precios muy elevados para la mayoría de los usuarios, se deberían encontrar formas de reducir los costes asociados con el acceso al “Metaverso” para aumentar su accesibilidad. Y esto pasa por calidad de contenido y aportación de valor. Estas serán las claves de los winers del futuro.

•Desarrollo de contenido de calidad, con inversiones en el desarrollo de contenido de calidad en el metaverso para atraer y retener a

METAVERSO TECNOLOGÍA TM Broadcast
43

los usuarios. Estos deben ser experienciales, con nuevas narrativas, dejando libertad de movimiento al usuario, selección de escenas, sentir el mundo, vivirlo desde los cienco sentidos.

•Y finalmente, mejorar la experiencia de usuario. La tecnología deberá mejorar para garantizar una experiencia fluida y sin interrupciones para los usuarios, garantizando la conectividad de una manera ágil, y buscando la integración multidispositivo y multiplataforma. Y aunque estas experiencias no son idénticas, aumentar la percepción de inmersión adaptada a cada medio.

Aparte del consumo de contenido al uso, ¿cuáles serán las posibles aplicaciones prácticas en el futuro?

Si visualizáramos un reportaje de la BBC o NBC de hace 40 años, sobre el futuro de la Realidad Virtual, nos sorprendería ver que los mensajes fundamentales se repiten: “En el futuro, la Realidad Virtual nos permitirá… bla bla bla…”. Y si bien, los dispositivos, los motores de desarrollo, en definitiva, la tecnología, ha evolucionado en gran medida, las áreas teóricas de aplicación siguen siendo las mismas. ¿Entonces, qué es lo que ha fallado? La conexión real-virtual esta aún lejos de establecerse y ese es el aspecto mas critico de la aceptación de unas tecnologías que deben resolver problemas de la vida real de hoy y no soluciones vagas a problemas inexistente o ya resueltos por otros medios.

Esto quiere decir simplemente que debemos buscar como afrontar la solución de problemas reales de la

industria, la medicina, la educación, el ocio o el entretenimiento desde una perspectiva distinta, mejorada, mas satisfactoria y que nos aporte beneficios de un modo u otro, reales, bien como individuos o colectivo.

Si bien, las oportunidades teóricas son casi infinitas, el proceso de adaptación y transformación no es sencillo y requiere de una fase de adecuación importante y metodológicamente bien desarrollada de forma sostenible.

Entre las oportunidades más relevantes, cabría destacar las siguientes:

•Educación y formación: El “Metaverso” puede ser utilizado para crear experiencias educativas y de formación más inmersivas y efectivas. Desarrollo de proyec-

TECNOLOGÍA 44 METAVERSO TM Broadcast

tos colaborativos, participación en red, comunidades de expertos, desarrollo de comunidades y redes espaciales globales, etc.

•Comercio digital y nuevas oportunidades de negocios: Los mundos virtuales pueden ser utilizados para llevar a cabo reuniones de negocios, exhibiciones híbridas de productos y ventas de manera más eficiente y personalizada. Vivir o crear una experiencia personalizada inmersiva y única para un usuario puede ser costosa, pero mas costoso en conseguir y fidelizar a un cliente.

•Turismo y viajes: Los mundos virtuales pueden ser utilizados para crear experiencias de turismo virtual, permitiendo a los usuarios explorar lugares y culturas de todo

el mundo sin tener que salir de casa. Este aspecto es vital para colectivos de personas mayores, con imposibilidad física o material de viajar. O simplemente no están en disposición de recorrer el mundo en una semana y teletransportarse del polo norte a las Bahamas a golpe de clic.

•Entretenimiento y eventos sociales: El metaverso puede ser utilizado para crear experiencias sociales y de entretenimiento más enriquecedoras, como fiestas, conciertos y eventos deportivos. Este es un aspecto, en donde la creación de multiversos creativos abre innumerables ventanas de oportunidades de desarrollo. El espacio creativo es realmente espectacular y es un espacio aún por explorar.

•Salud y bienestar: El metaverso puede ser utilizado para diseñar y desarrollar programas de salud y bienestar más personalizados y efectivos enfocados a culturas y personas, permitiendo a los usuarios interactuar con profesionales de la salud en un entorno virtual. Sumergirse en un baño de calma en medio del océano sin peligro, es una experiencia imposible en el mundo real, y transgrede las leyes de la física.

Qué duda cabe, que todas estas potenciales áreas de aplicación, como ya se ha reiterado en varias ocasiones, dependerán de la evolución de la tecnología, incluyendo la mejora de la accesibilidad, la reducción de costes, la mejora de la experiencia de usuario y el desarrollo de contenido de calidad.

METAVERSO TECNOLOGÍA TM Broadcast
45

Edge Computing

El Edge Computing es una tecnología emergente que se ha convertido en uno de los temas más importantes en la industria tecnológica en los últimos tiempos. Esta tecnología ha sido posible gracias a la convergencia de diferentes tecnologías como el Internet de las cosas (IoT), el 5G, la nube y el Big Data. Permite procesar datos cerca del lugar donde se generan, reduciendo así la latencia y mejorando la calidad de los servicios.

En las retransmisiones audiovisuales en directo es una de las aplicaciones más importantes de esta tecnología. En las retransmisiones de noticias en tiempo real, los medios de comunicación pueden procesar y transmitir la información de manera más rápida y eficiente a los espectadores. Además, en la transmisión de juegos en línea, el edge computing permite reducir la latencia y mejorar la calidad de la conexión, proporcionando una experiencia de juego más fluida y agradable.

También ofrece beneficios para los proveedores de contenido, ya que les permite personalizar la transmisión de acuerdo con las preferencias de los usuarios, brindar servicios adicionales a los espectadores y aumentar la seguridad de las transmisiones audiovisuales en directo.

La tecnología del edge computing se está convirtiendo en una herramienta esencial para la transmisión de eventos en vivo y en tiempo real. En este artículo, profundizaremos en los detalles del edge computing, su aplicación en las retransmisiones audiovisuales en directo y los beneficios que aporta a los espectadores y proveedores de servicios de retransmisión.

46 TECNOLOGÍA TM Broadcast EDGE COMPUTING
Por Yeray Alfageme, Business Development Manager en Optiva Media an EPAM company
47 TM Broadcast EDGE COMPUTING TECNOLOGÍA

¿Qué es el edge computing?

El edge computing es una tecnología que permite procesar datos cerca del lugar donde se generan, reduciendo así la latencia y mejorando la calidad de los servicios. Esta tecnología ha sido posible gracias a la convergencia de diferentes tecnologías como el IoT, el 5G, la nube y el Big Data.

Se basa en la idea de llevar el procesamiento de datos a la periferia de la red, cerca del lugar donde se generan los datos. Esto permite reducir la latencia y mejorar la calidad de los servicios al procesar los datos en el mismo lugar donde se generan, en lugar de enviarlos a un centro de datos remoto para su procesamiento.

En la actualidad, el edge computing se utiliza en una amplia variedad de aplicaciones, como la Industria 4.0, la seguridad inteligente, el transporte inteligente y la salud digital, entre otros.

En las retransmisiones audiovisuales en directo, el edge computing se está utilizando para mejorar la calidad de la transmisión y reducir la latencia. Gracias a esta tecnología, es posible procesar datos cerca del usuario final, lo que reduce el tiempo que tarda la información en llegar a su destino. Esto es especialmente importante en eventos deportivos en vivo, donde la latencia es crítica. Los espectadores quieren ver la transmisión en tiempo real, sin retrasos. Con el edge computing, es posible reducir significativamente la latencia y mejorar la calidad de la transmisión.

Además de los beneficios para los espectadores, el edge computing también puede ser beneficioso para los proveedores de servicios de retransmisión. Al reducir la cantidad de datos que se transmiten a través de la red, es posible reducir los costos de transmisión. Esto puede llevar a una mayor eficiencia en la organización de eventos en vivo y en la transmisión de información. Además, también puede ser utilizado para el análisis de datos en tiempo real, lo

que puede ayudar a los proveedores de servicios de retransmisión a mejorar la experiencia del usuario y a tomar decisiones más informadas.

Aplicación del edge computing en las retransmisiones audiovisuales en directo

Una de las aplicaciones más importantes del edge computing en las retransmisiones audiovisuales en directo es en transmisiones de noticias en tiempo real. En el mundo actual, la velocidad de la información es fundamental, especialmente en el ámbito de las noticias. Gracias a él, los medios de comunicación pueden procesar la información cerca del lugar de los acontecimientos y transmitirla de manera más rápida y eficiente a los espectadores. Esto permite a los usuarios estar informados de manera casi instantánea sobre lo que está sucediendo en cualquier lugar del mundo.

Además, también puede ser utilizado en la transmisión de contenido en vivo en redes sociales y plataformas de vídeo en línea. En estos casos, los usuarios esperan una transmisión en tiempo real con una calidad de imagen y sonido adecua-

48 EDGE COMPUTING TM Broadcast
TECNOLOGÍA

da. Al utilizar el edge computing, la calidad de la transmisión se puede mejorar y la latencia se puede reducir, lo que mejora significativamente la experiencia de los usuarios.

Otra aplicación importante del edge computing en las retransmisiones audiovisuales en directo es en la transmisión de juegos en línea. Los juegos en línea son una de las formas de entretenimiento más populares en todo el mundo y requieren una conexión a Internet rápida y estable para proporcionar una experiencia de juego adecuada. Al utilizar el edge computing, es posible reducir la latencia y mejorar la calidad de la conexión, lo que proporciona a los usuarios una experiencia de juego más fluida y agradable. Además, también puede mejorar la seguridad en línea en los juegos, ya que el procesamiento de datos se realiza en dispositivos cercanos al usuario final y no en un centro de datos remoto.

El edge computing también puede ayudar a las empresas de transmisión a cumplir con las normas de privacidad de datos. En muchos países, las empresas están obligadas a cum-

plir con regulaciones estrictas para proteger la privacidad de los usuarios y garantizar que sus datos personales no sean comprometidos. Con el procesamiento de datos en el borde de la red, las empresas pueden asegurarse de que los datos personales se mantengan en el dispositivo del usuario y no se transmitan a través de la red.

Beneficios del edge computing en las retransmisiones audiovisuales en directo

Además de los beneficios mencionados, el edge computing también permite a los proveedores de contenido personalizar la transmisión de acuerdo con las preferencias de los usuarios. Con el procesamiento de datos en el borde de la red, es posible identificar patrones de visualización y preferencias de los usuarios

en tiempo real. Por lo tanto, los proveedores de contenido pueden personalizar la transmisión de vídeo para adaptarse a las necesidades específicas de cada usuario, mejorando aún más la calidad de la experiencia del usuario.

Otro beneficio del edge computing en las retransmisiones audiovisuales en directo es la capacidad de brindar servicios adicionales a los espectadores. Por ejemplo, se pueden agregar servicios de transmisión de audio, datos y servicios de transmisión de realidad virtual y aumentada en vivo en los eventos. Esto aumenta la interacción de los espectadores y su inmersión en la experiencia, lo que mejora la calidad de la transmisión y la satisfacción del espectador.

Por último, el edge computing también puede aumentar la seguri-

TECNOLOGÍA TM Broadcast
49 EDGE COMPUTING

dad de las transmisiones audiovisuales en directo. La tecnología de procesamiento de datos en el borde de la red puede proteger contra ataques cibernéticos y mantener la privacidad de los datos personales de los usuarios. Al procesar la información cerca del lugar donde se genera, se reduce la cantidad de datos que se transmiten a través de la red y, por lo tanto, se reduce la posibilidad de que los datos sean interceptados o robados por piratas informáticos.

Ejemplos de uso del edge computing en las retransmisiones audiovisuales en directo

A continuación, vamos a ver algunos ejemplos de uso del edge computing en las retransmisiones audiovisuales en directo.

Un ejemplo muy interesante es el de los eventos deportivos en vivo. En este tipo de eventos, la latencia es un factor muy importante, ya que los espectadores quieren ver la acción en tiempo real. La utilización de la tecnología edge computing permite reducir la latencia de la transmisión, lo que mejora la calidad de la experiencia del usuario.

Otro ejemplo interesante es el de los conciertos en vivo. En este tipo de eventos, la calidad de la transmisión es muy importante para que los espectadores puedan disfrutar de la música. El uso de la tecnología edge computing permite mejorar la calidad de la transmisión, ya que la información se procesa cerca del lugar donde se genera.

Otro ejemplo de uso del edge computing en las retransmisiones audiovisuales en directo es el de las conferencias en línea. En este tipo de eventos, la latencia es un factor muy importante, ya que los espectadores quieren participar en tiempo real y hacer preguntas a los ponentes. La utilización de la tecnología edge computing permite reducir la latencia de la transmisión, lo que mejora la calidad de la experiencia del usuario.

El edge computing es una tecnología que está revolucionando el mundo de las retransmisiones audiovisuales en directo. Su aplicación en este campo permite reducir la latencia de la transmisión, mejorar la velocidad y la calidad de la transmisión, reducir costes y mejorar la experiencia del usuario. En eventos

deportivos en vivo, conciertos en vivo y conferencias en línea, el uso de esta tecnología es clave para ofrecer una experiencia de alta calidad a los espectadores.

Desafíos del edge computing en las retransmisiones audiovisuales en directo

Aunque tiene muchos beneficios también presenta algunos desafíos. Uno de los principales desafíos es la complejidad de la tecnología. La implementación del edge computing requiere de una infraestructura

TECNOLOGÍA 50 EDGE COMPUTING TM Broadcast

tecnológica avanzada, que puede ser costosa y difícil de mantener. Además, se requiere personal altamente capacitado para implementar y administrar esta tecnología.

Otro desafío es la falta de estándares en la industria. Dado que el edge computing es una tecnología relativamente nueva, aún no se han establecido estándares claros para su implementación. Esto puede dificultar la interoperabilidad entre diferentes sistemas y limitar su adopción.

La seguridad también es un desafío importante. Dado que el procesamiento de datos se realiza en dispo-

sitivos cercanos al usuario final, existe el riesgo de que los datos personales sean comprometidos. Es importante implementar medidas de seguridad sólidas para minimizar estos riesgos.

Además, la regulación también puede ser un desafío. A medida que la tecnología evoluciona y se implementa en una variedad de aplicaciones, es probable que surjan nuevas preocupaciones regulatorias en torno a la privacidad de los datos y la seguridad cibernética.

Conclusiones

En conclusión, el edge computing es una tecnología que está ganando mucho terreno en los últimos tiempos y que tiene un gran impacto en las retransmisiones audiovisuales en directo. Su aplicación en este campo

permite reducir la latencia de la transmisión, mejorar la velocidad y la calidad de la transmisión, reducir costes y mejorar la experiencia del usuario. En eventos deportivos en vivo, conciertos en vivo y conferencias en línea, el uso de esta tecnología es clave para ofrecer una experiencia de alta calidad a los espectadores. Sin duda, el edge computing es una tecnología que seguirá evolucionando en el futuro y que será clave en el mundo de las retransmisiones en vivo.

En resumen, el edge computing es una tecnología que se está utilizando cada vez más en las retransmisiones audiovisuales en directo. Permite procesar datos cerca del usuario final, lo que reduce la latencia y mejora la calidad de la transmisión. Además, el edge computing también puede ser beneficioso para los proveedores de servicios de retransmisión, ya que reduce la cantidad de datos que se transmiten a través de la red y, por lo tanto, los costos de transmisión. También permite personalizar la transmisión de acuerdo con las preferencias de los usuarios y brindar servicios adicionales para aumentar la interacción de los espectadores y su inmersión en la experiencia. En conclusión, puede mejorar significativamente la calidad de las retransmisiones audiovisuales en directo y la satisfacción del espectador.

TECNOLOGÍA TM Broadcast 51
EDGE COMPUTING
52 TM Broadcast UNREAL PRODUCCIÓN VIRTUAL

Hablar de producción virtual es hablar de UNREAL

Cómo la producción virtual transformará el broadcast

En España, y en el mundo, la producción virtual se encuentra en una fase de implantación. Estudios, integradores y broadcasters experimentan con soluciones desarrolladas sobre técnicas de pantalla verde, motores gráficos de videojuegos y pantallas LED de gran formato y poca distancia entre píxeles. En esta etapa primigenia que se caracteriza por soluciones caras y poco accesibles, surge un claro en el bosque. Y es que hablar de producción virtual, están empezando a ser hablar de Unreal. El motor gráfico propietario de Epic Games, originalmente proveniente del mundo de los videojuegos, ha llegado para revolucionar nuestra industria. Las grandes marcas del mercado broadcast; véase Vizrt, Aximmetry, Brainstorm, Zero Density, Pixotope…, se rinden a sus pies. Y los profesionales de nuestro país, también. ¿Qué recorrido tiene esta solución en el broadcast? ¿Cómo crecerán las técnicas de producción virtual?

¿Por qué consideráis que es tan importante la creación de contenidos multimedia con técnicas virtuales? Responden Rafael Alarcón y Asier Anitua.

Rafael Alarcón es coordinador de Diseño Broadcast en Movistar Plus. Es, asimismo, encargado de la creación y supervisión de los platós virtuales que crea la cadena. Actualmente, es uno de los pocos expertos en Unreal Engine para broadcast en nuestro país. Asier Anitua es gerente de Desarrollo de Negocio y gran conocedor de los mercados de producción virtual en España.

53 TM Broadcast UNREAL PRODUCCIÓN VIRTUAL

¿Sobre qué infraestructura técnica trabajáis en Movistar Plus?

Rafael: En Movistar Plus trabajamos con Vizrt, lo tenemos dentro del ecosistema gráfico, tanto para el desarrollo de sets virtuales como para toda la parte gráfica que requiere trabajar en tiempo real; como retransmisiones de deportes, programas, branding de emisión.

Actualmente, tenemos un plató virtual con tres cámaras, dos de ellas robotizadas con tracking mecánico Vinten, y la tercera es un brazo robótico con seis ejes que actúa como grúa. Además, tenemos otro estudio con decorado corpóreo que cuenta con una grúa telescópica robotizada y sensorizada con la tecnología de Mo-sys para hacer aparecer elementos de realidad aumentada.

¿Cómo están formados los equipos de diseño e implementación de infraestructura y contenidos de producción virtual?

Rafael: Hay un equipo de escenografía que se encarga del diseño de los decorados. Luego está mi equipo que se encarga de hacer la implementación en Vizrt Artist, en la versión 4, y se preparan las funcionalidades que tiene que llevar ese set virtual, pantallas, elementos de RA, controles de escenas; todo ello para que en el control lo puedan operar fácilmente desde Vizrt ARC. También se hacen los ajustes de postprocesado, ajuste de máscaras y profundidad de campo para que respondan sobre las cámaras robotizadas.

Una vez finalizado todos los ajustes es hora de explotar ese plató vir-

tual que simplemente necesitan de cuatro operadores. Control de cámaras e iluminación, mezclador, técnico de sonido y operador de Vizrt Arc. A partir de ahí la imaginación a la hora de “jugar” con el set virtual es infinita.

Hoy en día, muchos fabricantes se están volcando en desarrollar soluciones de software de producción virtual. Cada una de estas soluciones tiene sus propias prestaciones y características. ¿Para qué proyectos es más adecuada cada una de estas soluciones?

Rafael: Esto es algo que llevo estudiando desde hace un tiempo. Todo software de producción virtual tiene el mismo fin: mostrar escenarios en tiempo real con la mejor calidad posible y que la integración entre el mundo real y virtual se acerque lo máximo posible a la percepción de algo real por parte del espectador.

Ahora se va dar un cambio muy grande en la producción virtual. Unreal está desarrollando una herramienta para motion graphics en tiempo real. Es conocido como Proyecto Avalanche y está llamado a ser un sustituto de After Effects.

Vivimos en la época de la inmediatez. Por ello, los tiempos de renderizado ya se han quedado obsoletos. La cadena norteamericana ESPN ya lo ha integrado en una producción, se lo ha prestado Epic Games, para transmitir la edición 2023 del Rose Parade. En esta emisión para la ABC, ESPN utilizó el Proyecto Avalanche para desarrollar una solución gráfica que abarcara toda la producción gráfica desde el diseño hasta la emisión final.

La clave ha sido, dada la capacidad de Unreal para crear gráficos de interfaz de videojuegos, —comúnmente denominada como HUD—, trasladar ese sistema, adaptado obviamente, a herramientas de producción virtual, motion graphics en cabeceras, cortinillas, rotulación, etc. Se conseguirá con esto capacidades de crear, desplegar y modificar gráficos en tiempo real, sin tiempos de renderizado, claro.

¿Cuál es el origen de la expansión de Unreal en el broadcast?

Rafael: La base de esta capacidad está en el funcionamiento de un videojuego. En este formato una vez que la información se ha cargado, ya

PRODUCCIÓN VIRTUAL 54 UNREAL TM Broadcast
Rafael Alarcón, coordinador de Diseño Broadcast en Movistar Plus Asier Anitua, gerente de Desarrollo de Negocio

está listo para funcionar en tiempo real.

Epic Games puso su motor gráfico, un sistema que había alcanzado altas cotas de fotorrealismo, al servicio de otras industrias. En ese momento empezó a haber interés por parte de broadcasters y empresas de postproducción.

Hoy se ha conseguido transportar el fotorrealismo de Unreal a esas herramientas broadcast, gracias también a que esos agentes de la industria han fomentado su crecimiento ayudando a Epic Games a desarrollarlo.

Respecto a la competencia que tiene Unreal, ¿por qué se ha llevado la palma si hay otros motores en el mercado?

Rafael: Para mí la razón de que haya conseguido ese espacio es la optimización que ofrece a la hora de crear entornos y diseños propios dentro del software. Además Unreal 5 ofrece dos características muy buenas. Lumen permite trabajar con iluminación dinámica que no necesita ser “cocinada”, es decir que no necesita tiempo de procesado. Luego está Nanite, que es la parte de modelado en la que tienes la capacidad de desplegar polígonos infinitos, hasta que colme la capacidad de procesamiento de la GPU, claro. Pero es que además, Unreal maneja todos esos polígonos de forma diferente. La clave es cómo los calcula y cómo los interpreta. Lo hace a través de píxeles y no como una geometría, por lo tanto solo calcula la parte que se ve. Hasta ahora en todas las tecnologías de tiempo real, si veías una

silla, calculaba toda la silla, no solo lo que se ve en la pantalla. Unreal lo sigue haciendo, pero optimiza solo la parte que se ve.

Entonces, si pensamos en los entornos de producción broadcast, la clave que aporta Unreal es la capacidad de optimizar los flujos de trabajo y de ganar tiempo, ¿verdad?

Rafael: Sin duda. El tiempo es oro. Pero es que además Unreal te ofrece mucho en muy poco tiempo y la curva de aprendizaje inicial es muy poco pronunciada. Por supuesto, luego es necesario seguir trabajando para que el resultado quede mejor, es ahí donde se empina el proceso. Y, precisamente, es ahí donde flaquean muchos de los software con motor propio que hay en el mercado. Por lo tanto, te da las herramientas para llegar a ser más creativo, que al final es el objetivo de todos ellos; que realmente prime la imaginación más allá de las características de la infraestructura tecnológica.

Como ya indicabas, la mayoría de los sistemas gráficos propietarios están añadiendo capacidad de integración con Unreal, ¿es este el modo de adaptarse a la tendencia?

Rafael: Efectivamente. Pero es que tienen que reconocer el potencial que tiene Unreal. Realmente, es que no les queda otra.

Asier: Así es, pero es que hay otro factor que también está haciendo que todos los fabricantes se posicionen a favor de este motor gráfico: ya existe una enorme biblioteca de plantillas y assets disponible. De hecho, cada día es más grande por-

que los desarrollos propios también se pueden integrar a ese compendio y, además, son monetizables. Digamos que por 20 dólares puedes disponer de un Fórmula 1, mientras que desarrollarlo de cero implicaría un coste humano de muchas horas. Imagina que soy un cliente que quiere desarrollar un virtual.

Como decíamos, todos los fabricantes tienen que subirse a este tren, pero por otro lado estos fabricantes te van a garantizar la integración en los entornos broadcast. Epic Games no se va a meter a integrar Unreal con determinadas tecnologías, son los tradicionales los que se van a encargar de ofrecerte la mejor herramienta para cada producción.

Desde el punto de vista de negocio, también abre mucho los campos de especialización. Por ejemplo, un artista de motores gráficos para broadcast solo va a estar especializado en esa área. Sin embargo, como especialistas de Unreal puede adaptarse fácilmente a otros mucho sectores. Desde arquitectos hasta diseñadores de videojuegos.

Ese es uno de los mayores desafíos actualmente, ¿existe ya oferta profesional de perfiles especializados en Unreal?

Rafael : Sigue costando mucho encontrar gente especializada en Unreal. La razón más obvia es que es una herramienta muy nueva y falta mucha formación especializada en broadcast. Las teles están empezando ahora a confiar en Unreal.

Asier: Pero la habrá. De hecho, las universidades ya están implemen-

UNREAL PRODUCCIÓN VIRTUAL TM Broadcast
55

tando estas herramientas en sus programas de formación. TSA ha desarrollado el estudio de producción virtual de la Universidad Rey Juan Carlos en el campus de Vicálvaro. Incluso, estamos empujando en esta dirección en programas de formación corporate, como en el espacio de La Cabina de Telefónica con la solución de producción virtual Edison de Brainstorm. De este modo queremos generar cantera.

¿Qué casos prácticos de aplicación de Unreal se han dado hasta ahora en España?

Rafael: En La7 de Murcia trabajan con Pixotope y con Unreal por detrás. Ya tienen un par de programas que están desarrollando de este modo. Hasta que tuvieron el corpóreo en el informativo han estado con uno virtual.

En Telemadrid, en el programa “Disfruta Madrid” también están usando Unreal.

En la Televisión de Canarias en el programa de “Una hora menos” también trabajan con Pixotope sobre Unreal.

Hemos seguido vuestras últimas integraciones y nos aventuramos a asegurar que estáis apostando por el sistema de Aximmetry. ¿A qué se debe esta predilección?

Rafael: Realmente, por su accesibilidad. Hubo un momento en el que todos los demás sistemas estaban cerrados. Aximmetry abrió su sistema enseguida sin mayor coste que una marca de agua. Eso fue a finales de 2019.

A finales de 2019 yo quería probar herramientas para trabajar con Unreal. Pero lo cierto es que no había nada. Cuando, al tiempo, descubrí Aximmetry se me abrió un mundo. Tenía un playout para ver si funcionaban todas las cosas que hacía en Unreal sin necesidad de programarlas en el propio sistema, —que también se puede, pero ya te metes en un lío bastante más grande—. Esta era una forma más sencilla de hacerlo.

Por otro lado, está el precio. Aximmetry es el más barato de todos. Tiene una política de precios muy estable y accesible.

Respecto al soporte, lo vi también muy accesible. En mi caso te puedo contar que me comunicaba con ellos para intentar resolver dudas y en menos de 24 horas tenía una respuesta.

Asier: Son realmente accesibles. Tanto en los costes, como en el soporte. Y la calidad que te ofrece es la misma que los demás. La forma de diferenciarse del resto es ser más asequible. Están yendo hacia un modelo de negocio que da la oportunidad de probar sus soluciones a todo el mundo. Es un modelo de negocio a largo plazo que busca la fidelización.

No obstante, si nos acercamos a otras gamas, entramos en soluciones también altamente profesionales que ofrecen resultados garantizados, como podrían ser Brainstorm o Vizrt.

Rafael: Claro, cada una de estas aplicaciones está pensada para una

cosa concreta. Si vas a trabajar en una televisión con un flujo de trabajo que involucre a mucha gente necesitas un hub en el que todo el mundo pueda funcionar sobre él sin dañar al de al lado. En soluciones como la Vizrt, este sistema está garantizado. Igual que también lo tiene Zero Density.

En Movistar Plus, por ejemplo, nos interesa Vizrt porque lo mantenemos como base para el día a día. Sobre esa capa de rutina de trabajo, también queremos crear una capa de innovación en Unreal. Si en el departamento gráfico somos 15 personas, yo no quiero que todos ellos aprendan Unreal, porque el coste de aprendizaje bastante grande. Sin embargo, que esas personas puedan seguir trabajando de la misma manera pero con un background de Unreal, resulta ser un modelo muy bueno. Es un sistema híbrido que están implementando en herramientas como Edison lo tiene también Vizrt. Pero luego muchas otras ya sea Zero Density, Aximmetry o Pixotope trabajan en nativo con Unreal. Es decir que si en una tele nueva en el que tienes un equipo de 15 grafistas integras la solución de Unreal, los 15 deberán aprender esa solución. Por ello acaba dependiendo de cuáles sean tus flujos de trabajo específicos.

¿Pantallas LED o Green Screen?

Rafael: Uno de los contras que yo veo a las pantallas XR, es que te contamina con iluminación a los sujetos filmados y eso está muy bien. Pero, a día de hoy, las pantallas siguen generando un efecto moaré que hay que solucionar con un desenfoque,

PRODUCCIÓN VIRTUAL 56 UNREAL TM Broadcast

técnica que en muchas ocasiones proporciona un resultado poco realista.

Asier: Eso se acabará solucionando porque es una cuestión de sincronización entre la captación de la imagen y el refresco de pantalla. Técnicamente tiene solución.

La gran diferencia entre la pantalla XR y las pantallas verdes es que el actor o el presentador se siente realmente integrado en la escena. Lo malo que tiene la pantalla verde es que tienes que mirar el retorno para ver dónde estás y qué estás haciendo.

Rafael: Otra de las cosas que no se pueden hacer en pantallas LED, y esta es realmente potente, es la cámara virtual. A no ser que sea por recorte directo. Están intentando introducir una tecnología propia de

iPhone que sirve para hacer un recorte a través de las especificaciones de brillo o de contraste. A día de hoy las cámaras virtuales en green screen te hacen un recorte, meten un personaje y te permiten hacer un vuelo de la cámara. Ese mismo procedimiento no lo puedes hacer sobre una pantalla XR.

Asier: Claro, pero es que esto es a día de hoy. Esa necesidad de ahorrar computación cargando solo las partes del escenario virtual que van a salir en cámara es necesaria solo ahora. Sin embargo, cuando ese reto esté superado por las GPU de turno, ya no será necesario acotar tanto. Por ello, los movimientos de cámara serán más libres y no estarán constreñidos por espacios en blanco en las pantallas XR. Y por eso digo que las pantallas LED acabarán siendo la tecnología principal para la producción virtual del futuro. La mayoría de

las televisiones tendrán su plató de pantalla LED con tecnología Unreal. Porque las pantallas serán cada día más baratas y los assets de Unreal también serán, poco a poco, más asequibles. Al contrario, crear un plató físico no tendrá sentido porque las materias primas serán progresivamente más caras.

Rafael: Con el tiempo también se acabarán eliminando los sistemas de tracking. Viz Arena se usó en LaLiga durante la pandemia. Se creó a todo el público virtual. Esta es una medida carísima, pero tecnológicamente se está tendiendo a eso. La cámara hace un paneo por todas partes y calcula dónde tiene que colocar al público sin necesidad de sistemas de referencia broadcast.

Asier: Así es. Pero es que hay algunas soluciones que ya lo han incorporado. Por ejemplo Edison de

UNREAL PRODUCCIÓN VIRTUAL TM Broadcast
57

Brainstorm. De hecho, con este programa puedes hacer la producción con un iPhone. Con este modelo de Smartphone, que ya tiene incorporada la sensorización con un sistema LiDAR (Light Detection and Ranging; detección y medición de la luz), te puedes mover por un entorno virtual como si fuera una steady cam por 1500 euros que vale ese teléfono. Es que todo va a cambiar con el tiempo a medida que la tecnología evolucione y se democratice.

Además de la democratización que has comentado, ¿hacia dónde evolucionará la tecnología de producción virtual?

Rafael : El mundo broadcast va encaminado a la producción virtual. Su futuro está en un alojamiento en el cloud y que todo se sirva como software as a service.

Asier: Desde Telefónica estamos trabajando ya en ofrecer diferentes hiperescalares de cloud que permitan trabajos con GPU. No estaba desarrollado este procesamiento y estos entornos de producción virtual siempre necesitarán mucho procesamiento GPU.

Además, la nube finalmente acabará siendo algo mucho más potente de lo que es hoy. En el laboratorio de pruebas de Telefónica tenemos un rig de cámaras 4K que están gra-

bando 360 grados de todo lo que está en medio y entonces te hace un render en tiempo real de una persona. Aún no hemos metido estas capacidades en Unreal, pero ese será el siguiente paso. Con la automatización se podrán escanear actores en tiempo real y hacer un directo del actor en tiempo real en cualquier entorno de Unreal. Ese es el futuro que nos espera.

Rafael: Otro futuro de la producción virtual será el metaverso. En el 2017 The Future Group hizo un programa que se llamaba “Lost In Time”. La idea es que el espectador transcendiese su habitual papel y fuera participante de la historia. Fue un videojuego muy similar a lo que

PRODUCCIÓN VIRTUAL 58 UNREAL TM Broadcast

podría ser nuestra concepción de metaverso actualmente. Se tratará de llevar experiencias de realidad a las casas proporcionando, además, una interacción. Con esto puedes atraer a nuevos públicos al consumo de tu contenido.

¿Y realmente existe una demanda en el espectador de disfrutar de un contenido que ya es accesible y bueno en su consumo a través de tecnologías paralelas a la narrativa del contenido que estén viendo?

Asier: Piensa en hace 80 años que eras un asiduo radioyente y llegó la televisión. Es lo mismo, al final los creadores de contenido tienen la posibilidad de servírselo a sus dife-

rentes públicos en diferentes formatos. Los que quieren oírlo, mediante radio o podcast; los que quieren verlo, mediante la tele o el cine; y los que quieren experimentarlo, deben acercarse al mundo de los videojuegos o al metaverso.

Rafael: Un gran ejemplo de esta necesidad de crear cercanía con el contenido es el éxito de Twitch. La gente está en esa plataforma porque el espectador interactúa con el presentador.

Asier: Claro, pero es que eso es la tele en la plataforma OTT. Es decir, es llevar los medios de emisión líneal, sumándole la interactividad presentador y espectador, pero dentro de una plataforma digital. Es que este es el único contexto en el que se puede llegar a hacer algo así, en la televisión tradicional es altamente complejo, técnicamente hablando.

Efectivamente hay un público que solo desea consumir un contenido de forma pasiva. Pero hay otro tipo de público, el que viene, que prefiere disfrutar otro tipo de contenido y que ya está acostumbrado a consumirlo.

¿Creéis que coexistirán siempre ambos públicos o se inclinará la balanza a favor de uno o de otro?

Asier: Igual que la radio no desapareció, la tele tampoco lo hará, pero tarta de los ingresos se hará mucho más pequeña y mucho más compartimentada.

Rafael: Efectivamente, pasó con la radio. Toda la publicidad estaba ahí y cuando llegó la televisión, poco a poco le fue robando los ingresos por publicidad.

Asier: Es que la historia se está repitiendo. El consumo de contenido, de media, por persona está en 6 horas diarias. De esas horas, al broadcast tradicional solo le corresponde una hora. Entonces la televisión tradicional, que es el que realmente tiene todo el potencial de explotar esas 6 horas, en muchos casos lo está perdiendo porque no está siendo capaz de innovar a la velocidad que está evolucionando todo. Por lo tanto, están perdiendo tarta. Para superar esto se tienen que enfocar en el contenido. Pero es que ya no vale hacer un contenido para 20 millones de personas. Vas a tener que hacer 300 contenidos para 100.000 personas. Hay tres opciones: o abaratas costes y democratizas todas las soluciones técnicas que hay detrás de esa sectorización de los contenidos; o produces muchísimo más a menor costo; o mueres.

Rafael: Y ahí es donde entra la producción virtual. La gente que hace decorados corpóreos tiene que preocuparse de manipularlo, de proporcionarle un mantenimiento, de renovarlo, puede entrañar riesgos laborales. En los entornos virtuales todo eso no existe.

Asier: Eso sí, debemos ser honestos. Lo cierto es que el corpóreo aún le gana en realismo a un decorado virtual. Pero llegaremos a un punto en el que ya no habrá tanta diferencia. En ese momento, diremos, ¿qué sentido tiene hacer un plató? Pongo unas pantallas XR y listo. Así acabarán siendo el 90% de los platós del mundo.

UNREAL PRODUCCIÓN VIRTUAL TM Broadcast 59

MEDIA STORAGE

Los constantes cambios en las posibilidades de creación de contenidos, así como las nuevas necesidades de medios para gestionarlos adecuadamente en las distintas fases del proceso de creación, son aspectos clave en nuestro entorno audiovisual.

Texto: Luis Pavía

Actualmente estamos acostumbrados a manejar prácticamente toda nuestra información en soportes digitales: desde una simple nota de texto o voz hasta los grandes volúmenes de información que requieren las imágenes de calidad, especialmente cuando se trata de contenidos audiovisuales.

Desde el punto de vista del usuario genérico es frecuente desconocer todo lo que hay detrás de esos almacenamientos. Pero desde un punto de vista profesional, forma parte de nuestra responsabilidad conocer lo mejor posible todo lo relacionado con nuestras herramientas para obtener, como siempre, lo mejor de ellas.

Cuando hablamos de “Media Storage”, que podríamos traducir como “almacenamiento de medios” o más concretamente en nuestro sector como “almacenamiento de contenidos audiovisuales”, pretendemos profundizar no en

marcas ni modelos, sino en las cualidades y características de dicho almacenamiento destacando las que resultan críticas en nuestro proceso de creación, desde la captura en cámara hasta la difusión y archivo a largo plazo.

Sin contar con cifras exactas, a principios de este siglo XXI ya se estimaba que en poco más de una década de fotografía digital se habían perdido más fotografías por fallos técnicos o humanos de cualquier tipo, que todas las que se habían creado durante más de un siglo desde la invención de la fotografía química. Esto es algo que a nosotros no nos puede suceder.

Pero no se trata simplemente de no perder información, se trata de poder registrarla y recuperarla de la forma más eficiente y fiable en todas y cada una de las distintas etapas y situaciones del proceso de creación. Así que vamos a hacer un repaso de cuáles son los aspectos más importan-

60
TM Broadcast MEDIA STORAGE TECNOLOGÍA
Porque hay algo más que discos y memorias para almacenar

tes en cada una de esas fases, esperando que nadie se sorprenda de las grandes diferencias que existen en las necesidades para manejar el mismo contenido a lo largo de sus distintas fases.

Empecemos determinando nuestro escenario con claridad estableciendo las grandes secciones, porque no debemos limitarnos exclusivamente a los soportes, sino que debemos considerar los: “qué”, “cuándo” y “dónde” de nuestros contenidos. De forma natural después surgirán los “depende”, “para qué”, etc., que nos llevarán a las decisiones correctas.

El “qué” es muy simple ¿qué vamos a guardar?: dado nuestro entorno de creación audiovisual vamos a centrarnos sólo en los aspectos relacionados con nuestros conte-

nidos AV, es decir: el fichero (o conjunto de ficheros coherentes) que guardan la imagen, el sonido y los metadatos asociados que nos permiten manejar correctamente nuestras grabaciones.

En relación al “cuándo” vamos a considerar cuatro grandes fases en el proceso de creación: el registro, mientras se graba; la manipulación, normalmente todos los procesos relacionados con la ingesta-edición-postproducción; la difusión, cuando se hace llegar a nuestros espectadores; y el archivo, cuando se deja guardado para usos posteriores. Porque cada una de ellas tiene muy distintas necesidades.

“Dónde” es precisamente el soporte que va a almacenar nuestros medios, que no siempre será físico.

61 TM Broadcast MEDIA STORAGE TECNOLOGÍA

“Depende” será casi siempre la respuesta correcta a todos los “para qué” que vayamos afrontando. Estos “para qué” serán los propósitos, los fines para los que se hace la grabación y/o archivo y/o emisión. Distintos “para qué” del mismo contenido determinarán muy distintas necesidades de almacenamiento.

Comenzaremos explicando las dos características fundamentales de los sistemas de almacenamiento, ya que serán las que más frecuentemente van a determinar el soporte idóneo en cada circunstancia.

La primera y más significativa es la capacidad, medida en términos de Giga- Tera- o Peta- bytes es la más fácil: es el tamaño del almacén y determina la cantidad de información que será posible guardar, siendo sus factores respectivos del orden de 109, 1012 y 1015. Importante recordar que si referenciamos un orden de 103 en términos informáticos (1 Kilo-byte) estamos hablando

realmente de 1.024 bits, 106 (1 Mega-byte) en los mismos términos = 10242 = 1.048.576 bits, y así sucesivamente.

La siguiente es la velocidad. Pero vayamos ahora despacio, porque hay más de una velocidad o tasa de trasferencia. Habitualmente se habla de cifras de velocidad del orden de MB/s. (Mega- es de orden 106) Además, debemos tener en cuenta que la velocidad de escritura suele ser inferior a la velocidad de lectura, que estas velocidades no son iguales para un pequeño bloque de datos que para un flujo continuo (precisamente esa es nuestra necesidad), que también se debe tener en cuenta la velocidad de acceso o tiempo que se tarda en encontrar el dato que se busca, y lo más delicado: asegurarnos si estamos manejando datos en MB/s (megabyte) ó Mb/s (megabit): ¡1 MB/s = 8 Mb/s!

En nuestro caso, la velocidad que realmente nos interesa siempre será

la velocidad sostenida, ya sea en lectura o escritura. Pero cuidado con no confundir bit rate (velocidad de transferencia) con frame rate (la frecuencia de cuadro o fps de nuestras grabaciones), aunque un mayor frame rate siempre requerirá mayores bit rate y espacios de almacenamiento.

Con todos estos preliminares, ya es posible comenzar a hacer nuestras cábalas.

La fase de captura parece relativamente sencilla, ya que el soporte interno siempre viene condicionado por la cámara. Si bien hoy en día hay una gran cantidad de cámaras que ya utilizan tarjetas de memoria de formatos estandarizados como las SD, las XQD o las nuevas CF extreme (tipos A y B), aun hay en servicio una buena cantidad de equipos que sólo admiten soportes propietarios como las P2 de Panasonic, las SxS de Sony e incluso discos ópticos. Sin olvidar que es frecuente utilizar grabadores

TECNOLOGÍA 62 MEDIA STORAGE TM Broadcast

externos como los de Atomos o Blackmagic entre otros.

La capacidad de almacenamiento necesaria vendrá dada en función de la resolución, tasa de cuadros y códec elegido, pero no necesitaremos calculadora: los fabricantes suelen ofrecer unas cifras bastante fiables de los distintos tiempos de registro posibles en cada combinación, así como la velocidad de escritura mínima necesaria para asegurar la correcta grabación. De hecho, es frecuente encontrar que las propias cámaras no permiten seleccionar formatos que la tarjeta interna no soporta.

Ahí es donde entran en juego los grabadores externos, que a su vez también utilizan tarjetas y/o discos que también deben cumplir los requisitos necesarios en capacidad y velocidad para nuestras necesidades de rodaje.

Pero mucha atención, porque bajo la misma forma física de la tarjeta, especialmente en soportes SD, es posible encontrar una variedad inmensa de velocidades, factor que suele ir directamente relacionado con la gran variedad de precios dentro de la misma capacidad. Las categorías C (clase) U (UHS) y V (vídeo) dan una idea de sus prestaciones.

Aunque hemos utilizado la palabra discos, en esta fase ya no se suelen utilizar discos duros mecánicos, sino que son de tipo SSD, discos duros de estado sólido. En realidad son grandes tarjetas de memoria que a todos los efectos se comportan como un disco duro, con las ventajas de ser mucho mas rápidas, no

contar con partes móviles y consumir mucha menos energía. Y que también existen con una muy variada gama de rangos de velocidad.

Es muy distinto el impacto de cada uno de los factores que inciden en el volumen de información generado, lo que coloquialmente se conoce como “el peso” (weight en inglés) del fichero: bastante proporcional y predecible si consideramos resolución (HD vs UHD), tasa de cuadros (24/25/29.97 vs 48/50/59.94) y espacio de color (4:2:0 vs 4:4:4). Pero abismales entre los muy diversos códecs (AVCHD vs H.265 vs RAW).

Permitid que nos acerquemos un poco a los extremos para ilustrar la amplitud de rangos que hoy se pueden estar manejando: desde unos 16 Gb por hora para un HD 4:2:0 en formatos de compresión medios aptos

para edición (tipo AVCHD), hasta mas de 18 Gb por minuto para un 4k RAW 4:4:4:4 (ARRI Alexa) con el máximo de información posible para los trabajos más delicados y exigentes

Y por si las posibilidades no fuesen suficientemente amplias, empezamos ya con los “depende”. Porque además del registro original, depende de la criticidad del trabajo necesitaremos una copia de seguridad lo antes posible, depende de la inmediatez ese contenido deberá estar disponible en otro lugar casi simultáneamente, y depende del tipo de proyecto habrá que plantear su tratamiento de muy distintas maneras.

Lo que nos lleva a la segunda fase, la que hemos llamado manipulación que engloba todo lo relacionado con la ingesta, edición, composición, eta-

MEDIA STORAGE TECNOLOGÍA TM Broadcast
63

lonaje, sonorización, masterizado, etc., donde las necesidades comienzan a multiplicarse y diversificarse.

Comenzamos por el extremo más sencillo en el que una misma persona rueda y edita, conectando el soporte original al ordenador. Con la prudencia necesaria para comenzar volcando el contenido a un primer soporte como el disco del ordenador, y hacer otra copia en disco externo o servicio cloud antes de empezar a editar. Porque ya sabemos lo que puede pasar con las prisas cuando editamos sobre el propio soporte original de la cámara o el grabador…

Además del ordenador en general, especialmente el disco debe cumplir los requisitos necesarios para que todo el material rodado fluya con la suavidad necesaria en su calidad original.

A medida que el proyecto crece, por volumen o complejidad, será necesario contar con un sistema de almacenamiento tipo NAS capaz de seguir cubriendo todas nuestras necesidades. Y éstas ya no serán sólo las de correr un contenido AV, sino que es posible que necesite mover varios flujos de distintos contenidos AV simultáneamente. De nuevo capacidad y velocidad del soporte serán los factores claves a tener en

cuenta, con distintos fabricantes ofreciendo distintas soluciones en cuanto a velocidad, rendimiento, escalabilidad, etc.

A medida que nuestro proyecto sigue creciendo o sofisticándose, el sistema de almacenamiento compartido deberá dimensionarse proporcionalmente para mantener la capacidad y velocidad suficiente para proporcionar prestaciones a un equipo creciente de personas que trabajan de forma simultánea en el mismo proyecto o en la misma organización, tanto ingestando nuevos contenidos como utilizando los ya existentes. En este punto ya hay que añadir el factor de concurrencia, es

TECNOLOGÍA 64 MEDIA STORAGE TM Broadcast

decir, cuántos accesos simultáneos necesitaremos soportar.

Independientemente del tamaño del equipo, en función de la criticidad de los materiales será recomendable que nuestro soporte compartido disponga de una configuración RAID que permita aumentar la capacidad, mejorar el tiempo de acceso, y sobre todo salvar y recuperar eventuales pérdidas de datos. Las distintas configuraciones posibles de sistemas RAID permiten estas distintas funcionalidades combinando diversas técnicas.

También hay que considerar en esta fase, aunque siempre “depende” del proyecto, que no todos los proce-

sos estarán unidos o serán secuenciales. Así, etapas como el etalonaje, la banda sonora o tantos otros, pueden tener sus propias necesidades de acceso al almacenamiento sobre los mismos materiales.

Habrá un punto de inflexión en el crecimiento, distinto para cada organización, en el que se haga mas interesante que el almacenamiento de los medios, o una parte de él, se encuentre en un servicio cloud. En este caso, la decisión no vendrá dada simplemente por cuestiones de capacidad o velocidad. Factores como la dispersión del equipo, la seguridad, la accesibilidad, la confidencialidad, y la rentabilidad entre otros, serán los auténticos determinantes de la decisión final.

En resumen, en esta fase de manipulación es donde normalmente encontraremos las mayores exigencias de requisitos de capacidad y velocidad simultáneamente, además en concurrencia de lectura/escritura para manejar adecuadamente nuestros contenidos AV.

Esta fase finaliza cuando ya hemos compuesto la pieza final, lo que casi siempre se convierte en un archivo único listo para ser disfrutado. Y esto nos lleva a nuestra tercera fase: la difusión.

Hoy hay que tener en cuenta las muy distintas posibilidades de difusión: desde la parrilla de difusión secuencial en los canales broadcast

MEDIA STORAGE TECNOLOGÍA TM Broadcast
65

tradicionales, hasta los contenidos bajo demanda. En cualquier caso, al llegar a esta fase el volumen de información a manejar se ha reducido considerablemente. Ya no tenemos decenas de materiales para componer, en los que necesitamos el máximo posible de calidad para manejarlos en las mejores condiciones.

Los códecs disponibles permiten manejar compresiones importantes sin pérdida de calidad, ya que el material no va a sufrir modificaciones posteriores, así que los ficheros tienen un peso mucho mas liviano y fácil de manejar. Aun así, se necesita un volumen de archivo suficiente como para albergar todos nuestros contenidos. Y con la velocidad de acceso adecuada para servirlos bajo demanda si ofrecemos ese servicio.

En este caso, hay que tener en cuenta que se nos puede requerir enviar el mismo fichero en distintos momentos a múltiples destinos, y hacerlo a través de redes sobre las que apenas tenemos control, por lo que será importante dimensionar el fichero para asegurar que su transmisión se realice de la forma más fluida posible.

En definitiva, en esta fase habrá que cuidar especialmente la capacidad de acceso y lectura, mientras que la capacidad sólo estará condicionada por la cantidad de contenidos disponibles en nuestro catálogo, o simplemente la parrilla a emitir si pensamos sólo en difusión lineal. Y poniendo un punto de sensatez, será una plataforma distinta a la usada en la fase de manipulación.

En este caso, hoy predominan los servicios cloud que en formato NAAS (network as a service: la red como servicio) cuentan con el dimensionamiento suficiente como para resultar la inversión mas rentable para una buena parte de difusores de contenido. Aunque no siempre será la rentabilidad el factor decisivo, y en otras circunstancias o para determinadas organizaciones, se preferirá la gestión interna de estos contenidos.

Llegando ya a la siguiente fase, el almacenamiento a largo plazo, las tornas de requisitos se invierten. Será la capacidad mas que la velocidad el factor decisivo, ya que ahora unos segundos para encontrar el contenido no serán críticos, pero sí disponer de espacio suficiente. Y se mantiene el criterio de una nueva plataforma independiente de las anteriores para este alojamiento. Haciendo una analogía, esta sería la biblioteca del sótano.

Aunque todo esto nos lleva a un nuevo “depende”. Porque ¿qué es lo que queremos almacenar en esta ocasión? ¿todos los brutos de rodaje con calidad máxima para poder reeditar en el futuro? ¿Sólo la pieza final? Aunque sólo sea la pieza final, sí debemos conservar nuestro master con la máxima calidad posible, y no sólo con la versión suficiente para difusión. Porque sabemos por experiencia que las capacidades de todos los sistemas aumentan de forma exponencial con el tiempo.

En conclusión: No existe una única solución que resuelva todas nuestras necesidades, siendo en cambio la “escalabilidad”, la “flexibilidad” y la “adaptabilidad” los conceptos más importantes a tener en cuenta a la hora de diseñar y gestionar nuestro sistema de almacenamiento. Volviendo al principio, “¿para qué?” puede resultar el factor clave a tener siempre presente en cada una de las etapas.

TECNOLOGÍA 66 MEDIA STORAGE TM Broadcast
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.