TM Broadcast España #162

Page 1

EDITORIAL

Televisión Española se encuentra inmersa en muchos procesos de renovación tecnológica. A lo largo de nuestras numerosas ediciones los hemos ido desgranando para vosotros. Hoy abordamos uno de los más interesantes.

El ente público se encuentra actualizando sus recursos de unidades móviles. Los efectivos se han quedado escuetos para las necesidades del broadcaster público. El objetivo, que se alcanzará a finales de 2023, es conseguir todas las capacidades que le harán estar preparado para el futuro.

Uno de los puntos más interesantes de este reportaje se basa en conocer todos los detalles de una de las unidades móviles más punteras de RTVE. Se trata de la unidad H1, la unidad móvil capacitada para la producción de contenido en UHD, HDR y preparada para el IP.

Además de este reportaje en exclusiva, TM Broadcast se ha centrado en dos de las tendencias más actuales de nuestra industria. Pero, como acostumbramos a hacer en nuestra revista, los hemos abordado desde la practicidad. Está muy bien que la industria teorice sobre las posibilidades que nos brindarán desarrollos como el metaverso y las realidades inmersivas o el 5G, pero queríamos conocer qué casos prácticos se desarrollan a día de hoy.

Respecto a las tecnologías inmersivas, el desarrollo aún es temprano pero ya existen casos prácticos, como el de la empresa Iralta VP y el personaje de Mapi, donde todas las herramientas de producción de contenidos

inmersivos se pusieron a disposición de un personaje virtual integrado en tiempo real en una emisión profesional.

El 5G es extremadamente prometedor para nuestra industria. Las posibilidades son apabullantes. No obstante, los desarrollos aún no han llegado a su cénit. Para conocer los últimos avances en esta tecnología, os ofrecemos la experiencia de David Gómez-Barquero, investigador de la Universitat Politècnica de Valéncia. Por otro lado, no podíamos dejar de observar el estado actual y la aplicación práctica. Para profundizar en este aspecto, hablamos con GES-IT, una de las empresas más especializadas en la transmisión por redes móviles.

Además, nos hemos acercado a la Universidad Rey Juan Carlos de Madrid para mostrar en primicia cómo han adaptado sus controles, platós y recursos broadcast a una industria que no para de crecer. De la mano de responsables de la propia universidad y de su integrador, Telefónica Servicios Audiovisuales, obtendrán los detalles de unos estudios profesionales centrados en la producción virtual a disposición de los estudiantes.

Y para finalizar, les ofrecemos también la experiencia de Alejandro Martínez, director de Fotografía mexicano que aportó su conocimiento al rodaje de “La casa del dragón”, y un artículo especializado sobre la implantación del protocolo SRT en el mundo y las acciones que promueve la SRT Alliance para seguir creciendo.

Editorial EDITORIAL TM Broadcast 3

EDITOR

Javier de Martín editor@daromediagroup.com

DIRECCIÓN DE CONTENIDOS

Mercedes González mercedes.gonzalez@tmbroadcast.es

DIRECCIÓN ADMINISTRACIÓN

Laura de Diego laura.dediego@daromediagroup.com

DIRECCIÓN COMERCIAL

Javier M. Gutiérrez jmg@tmbroadcast.es

PUBLICIDAD

Sergio Castaño sergio.castano@tmbroadcast.es

Susana Sampedro ssa@tmbroadcast.com

REDACCIÓN redaccion@tmbroadcast.es

MAQUETACIÓN

Sorex Media

COLABORADORES

Yeray Alfageme

Carlos Medina

Luis Pavía

Carlos Alberto Martín

Javier Guerra

Luis Sanz

Alfonso Redondo

José Luis Cordero

Carlos González

Fernando Suárez

SUSCRIPCIONES suscripciones@tmbroadcast.es

Imprime: V. A. Impresores S.A.

Dep. legal: M-11254-2008

ISSN: 1888-6965

Impreso en España en febrero de 2023

TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.

TM Broadcast es una publicación de Daró Media Group S.L. Centro Empresarial Tartessos

Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid.

Tf: 91 640 46 43

6

Actualidad

The Viewfinder, por Yeray Alfageme

14

13 Presente y futuro de las unidades móviles en RTVE RTVE se encuentra inmerso en un proyecto de renovación de sus unidades móviles. El proyecto, a cuatro años, tiene como fecha límite el final de 2023. El objetivo es proporcionar a RTVE de todos los recursos necesarios para abordar sus proyectos en el exterior. Hemos hablado con Francisco José Collado, subdirector de Ingeniería y Soporte de Estudios y Unidades Móviles de TVE, para conocer el estado actual de la renovación, los detalles de la infraestructura y las proyecciones que el ente público tiene sobre las tendencias que agitan nuestro mercado.

22

4 SUMARIO SUMARIO
5G y las tecnologías de broadcast
El uso del 5G en España, con GES-IT 28

34

Experiencias inmersivas con Iralta VP

Utopía Voyagers

Facultad de Producción Virtual La integración de TSA en la Universidad Rey Juan

Carlos

Telefónica Servicios Audiovisuales ha desarrollado la renovación de los estudios broadcast para estudiantes de la Universidad Rey Juan Carlos, una de las universidades públicas españolas más atentas a los desarrollos tecnológicos industriales asociados a las carreras de Comunicación. Tanto es así que, en sus dos campus —Vicálvaro y Fuenlabrada—, han decidido implementar infraestructuras que podríamos encontrar en cualquier broadcaster de prestigio nacional e internacional. Por supuesto, siempre adaptado al entorno educativo.

Entrevista con Alejandro Martínez

De familia cineasta y nacido en la Ciudad de México, Alejandro Martínez ha creado su propio camino como director de fotografía. Este reconocido director de fotografía nos cuenta sus impresiones sobre el oficio y cómo fue trabajar en la producción de “House of the Dragons”.

Protocolos SRT Alliance 62

SUMARIO TM Broadcast 5
54
48

SVOD Tracker analiza el posicionamiento de contenidos en España

A través de la herramienta SVOD Tracker se han anunciado los resultados de 2022 en cuanto al posicionamiento de contenidos en servicios bajo demanda de plataformas y operadores de streaming.

Lanzada en 2017, la herramienta ya ha recopilado más de 40 millones de registros de datos. Las empresas objeto de seguimiento son las que cuentan con mayor número de abonados según el EGM (Estudio General de Medios de España): los operadores españoles Movistar Plus+, Vodafone TV, Orange TV y Euskaltel, y los servicios OTT en España Netflix, Prime Video, HBO Max y Disney+.

Los contenidos de terceros dominan entre los operadores de telecomunicaciones en España, a excepción de Movistar Plus+, que dio el primer puesto a uno de sus programas originales, Martínez y

Hermanos. Además, la totalidad de los 25 títulos mejor posicionados en la plataforma están asociados a su marca (75% producciones propias y 25% adquisiciones).

Los 25 títulos mejor situados en Euskaltel son todos series de canales de terceros, mientras que en Orange TV casi todos son películas de Videoclub by Rakuten (pago por visión). Vodafone TV también cede sus primeros puestos a las suscripciones adicionales incluidas en su servicio y a contenidos de terceros.

En el caso de las plataformas de streaming en España, los títulos mejor posicionados son siempre de producción propia. El 100% de los 25 títulos más vistos en HBO Max y Disney+ son contenidos originales, mientras que Netflix y Prime Video incluyen contenidos que no han producido ellos mismos (en el caso de Netflix, series producidas por terce-

ros, y en Prime Video, contenidos de pago por visión o de suscripción adicional como Prime Video Channels).

«Los hábitos de visionado de los usuarios se guían por cómo las plataformas promocionan y posicionan sus contenidos», asegura Fernando Hernáiz, director de Investigación de AMC Networks International Southern Europe (AMCNISE).»Las opciones de visualización se hacen más complejas por el elevado número de carruseles en la página de inicio. Las plataformas deben seguir trabajando en el diseño de interfaces de usuario más sencillas para facilitar a los usuarios el acceso a todo tipo de contenidos y mitigar los efectos de la fatiga de decisión en los espectadores».

Actualidad 6 NOTICIAS TM Broadcast SVOD TRACKER

AEQ suministra

su intercom

Xpeak a Terrassa TV

AEQ ha anunciado que Terrasa TV ha confiado en sus sistemas para la coordinación de sus operaciones de televisión, radio y exteriores con el sistema de intercomunicación AEQ Xpeak.

Se trata de un sistema sin matriz, basado en tecnología de audio sobre IP, diseñado para producción de TV, y optimizado para producciones remotas.

Se ha instalado un terminal en formato rack Xpeak_R en el Control de Realización del estudio de Televisión y otro en el Control de Emisión de la Radio.

Por otra parte, se han instalado dos Beltpacks cableados Xpeak_BP para coordinar a los cámaras en el Plató de Televisión y dos beltpacks inalámbricos con tecnología WiFi Xplorer garantizan la comunicación de los productores que se mueven

por el plató y por todo el Centro de producción.

Para la coordinación exterior, un interfaz Xpeak_IF permite incorporar hasta 4 circuitos externos, analógicos, USB o Dante. Dos de estos circuitos se conectan a un híbrido telefónico TH02, que permite por telefonía convencional, acceder a los

microauriculares manos libres del personal de la unidad móvil o equipos de ENG.

El sistema puede crecer hasta 28 terminales y el proyecto ha sido coordinado por Nacho Olivella, responsable comercial de la compañía para Cataluña.

Ateme suministró sus soluciones a Movistar Plus+ para la Copa del Mundo 2022

Ateme ha anunciado que Movistar Plus+ ha utilizado sus soluciones de contribución para ofrecer contenidos Premium UHD/HDR y Dolby Atmos de la Copa del Mundo para su emisión en todo el país durante el torneo de la Copa del Mundo de 2022.

Este servicio ha sido impulsado por Telefónica Servicios Audiovisuales (TSA) que ha ayudado a Movistar Plus+ con el despliegue de esta solución técnica para la codificación y transporte de señales.

Se han utilizado los codificadores y decodificadores TITAN Edge de software completo de Ateme, con características de inmersión de audio.

«La Copa del Mundo es uno de los eventos en directo más importantes y emblemáticos, en el que el rendimiento, la calidad y la fiabilidad son fundamentales», comentó Manuela Martínez, directora de Ingeniería. «Estamos satisfechos con las soluciones de Ateme, que dieron soporte a las retransmisiones en directo más vistas del mundo y garantizaron a los consumidores la mejor experiencia de visionado».

Actualidad NOTICIAS TM Broadcast AEQ - ATEME 8

Asociación entre Kalicon Media y Toboggan para el desarrollo de proyectos audiovisuales

Kalicon Media y Toboggan han anunciado un acuerdo de colaboración estableciendo una relación de partnership para el desarrollo de proyectos audiovisuales.

La alianza entre las dos empresas establece una relación de prestación de servicios de producción y posproducción, comercialización para la captación de proyectos, ya sean propios o de terceros, así como gestión y captación de Inversores interesados en financiarlos.

Todo ello, dentro del territorio foral de Bizkaia. Posicionado desde el uno de enero de 2023, como un hub de producción local e internacional gracias a la nueva reforma fiscal para la inversión y apoyo a la industria audiovisual, impulsada por la Diputación y Hacienda del territorio.

Kalicon Media, es una productora fundada en abril de 2022 por profesionales del sector audiovisual con más de 22 años de experiencia en la creación, producción y gestión de

contenidos líderes de audiencia. Toboggan, es una compañía que se encarga de gestionar estudios de grabación, aportando los medios técnicos de producción y postproducción más avanzados para cubrir las necesidades de sus clientes tanto en ficción, cine y publicidad.

Ambas compañías comienzan así su colaboración para la generación de nuevos proyectos audiovisuales en Bizkaia y para dar soporte a la industria y a otras productoras interesadas en la gran oferta de servicios que ofrece esta alianza.

KALICON MEDIA - TOBOGGAN
Actualidad

La primera red móvil comercial 5G mmWave de mano de Telefónica, Ericsson y Qualcomm

Ericsson, Telefónica y Qualcomm han anunciado el lanzamiento de la primera red móvil comercial 5G milimétrica en España, que tendrá lugar en el MWC 2023 en Barcelona.

El despliegue de 5G mmWave cubrirá el Hall 3 del evento utilizando un amplio ancho de banda de espectro mmWave asegurado por Telefónica. Ericsson proporciona su radio mmWave AIR 5322 y el procesador RAN de alta capacidad 6651 para permitir la cobertura milimétrica de 5G. El equipo de red de acceso por radio está alimentado por el chipset Ericsson Silicon.

Qualcomm mostrará dispositivos 5G mmWave con tecnología Snapdragon, incluidos teléfonos inteligentes comerciales premium, PC, CPE y puntos de acceso, entre otros.

Con esta implementación de 5G mmWave, basado en su alta capacidad de red y el aumento de rendimiento, se busca la mejor experien-

cia de usuario de 5G para los visitantes del MWC, permitiendo una conectividad móvil ultrarrápida con latencias más bajas.

Gerardo Rovira, director de Radio Acceso Telefónica España, afirma: «Este primer despliegue comercial de servicios 5G mmWave que estamos lanzando junto con Ericsson y Qualcomm, junto con el espectro masivo que Telefónica ha obtenido en la última subasta, es el último hito en un serie de proyectos 5G a largo plazo que Telefónica ha venido desarrollando en colaboración con empresas e instituciones en los últimos 3 años, y demuestra en gran medida el compromiso que tiene Telefónica en el desarrollo y liderazgo de un ecosistema 5G fuerte que será un factor clave para brindar servicios atractivos tanto para el sector público como para el privado».

«Nuestra colaboración con Telefónica y Qualcomm para lograr este salto tecnológico 5G mmWave en España cambiará drásticamente

la experiencia de conectividad móvil para consumidores y empresas, haciéndola más rápida, más accesible y más confiable. La banda milimétrica abre un nuevo paradigma en el despliegue de la tecnología 5G, que brindará a los operadores una poderosa herramienta para complementar la estrategia de despliegue de red existente para aumentar el rendimiento y la capacidad con diferentes necesidades», ha añadido Somaya El-Marrakchi, directora de Redes de Ericsson Iberia.

Dino Flore, vicepresidente de tecnología de Qualcomm Europa, ha comentado: «Estamos orgullosos de continuar trabajando con socios de la industria como Telefónica y Ericsson para ampliar los límites de la conectividad y permitir experiencias de consumo sólidas. Poder mostrar el primer despliegue comercial de servicios comerciales 5G mmWave en el MWC 2023 Barcelona es un ejemplo de otro hito importante para 5G mmWave en Europa».

Actualidad TELEFÓNICA - ERICSSON - QUALCOMM
NOTICIAS TM Broadcast 10

Asociación entre LaLiga y Banijay para el lanzamiento de LaLiga Studios

LaLiga y Banijay Iberia se han asociado para lanzar una nueva compañía de producción, LaLiga Studios, con contenidos relacionados con el deporte.

LaLiga Studios, que aglutina la producción de contenidos audiovisuales de LaLiga, clubes, patrocinadores y broadcasters colaborará con plataformas y marcas a nivel internacional en el desarrollo, producción y distribución de contenidos de entretenimiento, documental, ficción y animación.

La nueva sociedad ha designado como Managing Director & EP a Chalo Bonifacino Cooke encargado de coordinar su crecimiento internacional, que se verá impulsado gracias a la presencia de ambas compañías en múltiples mercados. El acuerdo se hará efectivo en las próximas semanas.

«Tenemos un plan ambicioso para LaLiga Studios, queremos trabajar con las mejores marcas y para ello necesitamos contar con el mejor socio. Salir al mercado con el aval de la calidad y la experiencia de

Banijay Iberia es para nosotros el mejor de los comienzos», ha comentado Óscar Mayo, director general Corporativo de LaLiga.

«Estamos muy orgullosos de anunciar esta asociación con LaLiga, grandes generadores de narrativas alrededor del deporte y sus valores. Ponemos a su disposición nuestra experiencia en la producción y creación de contenido premium para que estas historias se cuenten, con los más altos estándares de calidad, y se conozcan en todo el mundo», ha apuntado Pilar Blasco, CEO de Banijay Iberia.

Actualidad LALIGA - BANIJAY

La película “Sin novedad en el frente” confía en los productos de Blackmagic

Blackmagic ha anunciado que la película “Sin novedad en el frente”, nominada a los Óscar en la categoría de mejor película internacional, y gran triunfadora de los premios BAFTA de este año, se etalonó y finalizó con DaVinci Resolve.

La primera adaptación al alemán de esta película fue producida por Amusement Park para Netflix. Su dirección de fotografía estuvo a cargo de James Friend, ASC, BSC, mientras que, Universal Production Partners (UPP) finalizó la posproducción con el apoyo del colorista principal Andrew Daniel, de Goldcrest Post.

UPP implementó una dinámica de trabajo basada en la gestión cromática de ACES, a fin de garantizar una transición fluida entre el conformado, el etalonaje y la finalización del material. A su vez, el procesamiento de las imágenes y la corrección cromática de los copiones en el set se

llevaron a cabo con DaVinci Resolve Studio.

El largometraje, basado en el libro homónimo de Erich Maria Remarque, de producción alemana y dirigida por Edward Berger, narra la vida del soldado alemán Paul Bäumer, quien, después de enlistarse en el Ejército alemán con sus amigos, se encuentra ante los riesgos de la guerra, los cuales destruyen sus esperanzas iniciales de convertirse en héroes.

Andrew Daniel diseñó una serie de tablas de conversión de transformación antes de comenzar con la fotografía principal para emplearlas durante el procesamiento de los copiones en el set. «Es un proyecto con cierto legado, tanto en términos literarios como cinematográficos», observó Daniel. «Como tal, nos gustó la idea de alejarnos de la estética familiar que comparten las producciones similares al aumentar la satu-

ración y el contraste. Además, aplicamos una granulosidad sutil en todas las imágenes».

«Cada película es un proceso de exploración», expresó James Friend. «Al inicio de la producción, no tengo muy claro cómo quiero que sea la apariencia de las imágenes. Cuando empiezan a llegar los copiones, de a poco voy implementando cambios que reflejan la integridad de la historia. Con “All Quiet on the Western Front”, quería lograr cierto naturalismo y una sensación de franqueza, fieles al entorno y el contexto histórico».

Asimismo, Daniel y Friend trabajaron con el supervisor de efectos visuales Frank Petzold durante el etalonaje. Con más de 460 tomas con efectos visuales, Petzold descubrió rápidamente que podía finalizar muchos de dichos efectos de último momento en DaVinci Resolve Studio.

NOTICIAS 12 TM Broadcast Actualidad BLACKMAGIC DESIGN

El big data no lo es todo

En la era digital en la que vivimos, el streaming se ha convertido en una parte integral de la vida cotidiana. Con la creciente popularidad de los servicios de streaming como Netflix, Amazon Prime y Disney+, los datos de analíticas de visionado se han convertido en una herramienta crucial para nuestra querida industria del broadcast.

Las analíticas de visionado permiten a las plataformas de streaming analizar el comportamiento del usuario mientras ve una película o un programa de televisión. Estos datos incluyen información como el tiempo que se pasa viendo un programa, el número de veces que se detiene o rebobina una escena y la frecuencia con la que se omite una introducción.

En la actualidad, las analíticas se utilizan ampliamente para determinar qué contenido se debe producir y qué programas se deben cancelar. Los datos obtenidos de estas analíticas pueden revelar qué programas son más populares y cuáles tienen una mayor tasa de abandono. También pueden ayudar a los productores a determinar qué géneros o tipos de programas son más populares en diferentes regiones del mundo.

Aunque algunos pueden argumentar que el uso de las analíticas es invasivo y puede ser utilizado para espiar a los espectadores, la verdad es que estos datos son recopilados de manera anónima y se utilizan para mejorar la experiencia de visualización. Los productores pueden utilizar los datos para ajustar la duración de los episodios y las temporadas, para eliminar los puntos de la trama que no funcionan y para ajustar la frecuencia con la que se presentan los anuncios.

Sin embargo, algunos críticos argumentan que el uso de estas analíticas puede tener un impacto negativo en la creatividad. Algunos pueden argumentar que el énfa-

sis en los datos de los espectadores puede limitar la creatividad y la originalidad de los programas. Por ejemplo, los productores pueden optar por producir programas que sean similares a los que ya han tenido éxito, en lugar de correr el riesgo de producir algo nuevo y emocionante.

A pesar de estas preocupaciones, creo que el uso de las analíticas de visionado en streaming es beneficioso para nuestra industria. Los datos de los espectadores pueden ayudar a los productores a tomar decisiones informadas sobre qué contenido producir y cómo presentarlo a los espectadores. También pueden ayudar a las plataformas a mejorar la experiencia de visualización del usuario al ajustar la calidad de transmisión y la frecuencia de los anuncios.

Además, creo que el uso de las analíticas no tiene por qué limitar la creatividad de la industria. En cambio, los productores pueden utilizar estos datos para informar y mejorar su proceso creativo. Por ejemplo, los datos pueden ayudar a los productores a identificar los puntos de la trama que no funcionan y a ajustarlos para crear una experiencia más satisfactoria para los espectadores.

En resumen, creo que el uso de las analíticas de visionado en streaming es una herramienta valiosa para este nuestro querido broadcast. Si se utiliza de manera ética y en combinación con otros factores, puede mejorar la calidad del contenido y la experiencia de visualización de nuestros espectadores. Si bien es importante tener en cuenta las preocupaciones sobre la privacidad y la creatividad, creo que los beneficios de las analíticas de visionado superan con creces los riesgos.

@yerayalfa www.linkedin.com/yerayalfa
THE VIEWFINDER The Viewfinder TM Broadcast 13
Por Yeray Alfageme, Business Development Manager en Optiva Media an EPAM company

Presente y futuro de las unidades móviles en RTVE

14 UNIDADES MÓVILES TM Broadcast RTVE

RTVE se encuentra inmerso en un proyecto de renovación de sus unidades móviles. El proyecto, a cuatro años, tiene como fecha límite el final de 2023. El objetivo es proporcionar a RTVE de todos los recursos necesarios para abordar sus proyectos en el exterior. Hemos hablado con Francisco José Collado, subdirector de Ingeniería y Soporte de Estudios y Unidades Móviles de TVE, para conocer el estado actual de la renovación, los detalles de la infraestructura y las proyecciones que el ente público tiene sobre las tendencias que agitan nuestro mercado.

“El futuro de las unidades móviles es convertirse en camiones de cámaras conectados en IP”. Con esta afirmación, Francisco José, alude a la influencia que soluciones tecnológicas como los servicios de software, la remotización, la nube, la virtualización de recursos de hardware o el IP tienen sobre los flujos de trabajo fuera de los centros de producción. En este reportaje encontrarán tanto los detalles de esta renovación como el modelo de unidad móvil que RTVE plantea para el futuro.

¿Cuáles son las unidades móviles con las que cuenta RTVE? ¿Cómo serán cuando acabe el plan de renovación?

RTVE está inmerso en un proyecto de renovación de sus unidades móviles desde hace unos cuatro años. Los recursos en los que el ente público está trabajando son diversos. La cantidad de formatos que esta televisión produce exigen distintos medios de producción. Para abarcar todos estos contenidos RTVE contaba con unidades móviles de tipo pequeño en SD, en proceso de desaparición, varias unidades Tipo PEL, que trabajan en HD y en SD, dos unidades tipo G que pueden trabajar en SD y en HD y albergar entre 8 y 10 cámaras, otras dos unidades tipo F que trabajan en HD y dan cobertura a producciones que necesitan entre 16 y 20 cámaras, una unidad de sonido y otra de gra-

bación. En su momento, estas capacidades no eran suficientes.

Por ello, se emprendió un proyecto de renovación sobre todos estos recursos. El objetivo para 2023 afecta a varios de ellos. Asimismo, el cuerpo de recursos broadcast para exterior del que dispondrá RTVE también será ampliado. En concreto, se han fabricado 4 unidades tipo PEL en HD, que se han repartido entre los distintos centros de producción (Canarias, Cataluña, Torrespaña y Prado del Rey), se ha creado una unidad móvil específica a la que se ha denominado Tipo B —que trabajará en Cataluña y se encontrará a medio camino entre la Tipo PEL y la Tipo G, por lo tanto podrá trabajar multicámara entre 6 y 8—; y finalmente, se desarrollará la nueva unidad 4K-UHD de la que todo el mundo está hablando. Esta nueva

herramienta se desarrollará sobre una de las unidades móviles Tipo F, ampliándose para poder trabajar con hasta 12 cámaras y hasta en UHD, pasándose a llamar Tipo H, cuando esté finalizada. Podrá trabajar tanto en HD y 3G como en 4K y 12G, además de HDR y SDR.

¿Por qué 12G?

En 4K se pueden dar dos tipos de instalaciones: 12 G, que es un único cable y la instalación es similar al HD; o bien, con cuatro componentes de 3 G para formar la señal 4K. Esta segunda opción se denomina habitualmente “quad” y normalmente conlleva que la instalación sea más complicada. Aparte, el punto que ha alcanzado la tecnología actualmente permite que se pueda trabajar en 12 G ya que la mayoría de los equipos están actualmente preparados.

15 TM Broadcast RTVE UNIDADES MÓVILES

UNIDADES MÓVILES

Por estas razones hemos desarrollado esta posibilidad, la tecnología lo permite y la instalación es más sencilla. Además, otra de las razones ha sido que nos permite trabajar en 4K de la misma manera que lo haríamos en HD. Es decir, con este sistema si trabajamos en HD y queremos hacer un programa en 4K, lo único que tenemos que hacer es cargar la configuración. Automáticamente, todas las conexiones físicas pasarán de trabajar en 3 G a hacerlo en 12 G.

¿Se envían las dos señales al tiempo y el operador elige?

El operador elige entre HD o 4K. O incluso, de forma simultánea en ambos formatos. No obstante, sí que es cierto que debemos integrar equipos que tengan varias salidas configurables de forma independiente, es decir, una en 3 G y otra en 12 G.

Sin embargo, su uso depende mucho de la producción. Lo más

lógico es que si trabajas en 4K-UHD y quieres un resultado en HD, al final de la cadena hagas una conversión hacia abajo. Por otro lado, existen determinados contenidos que te exigen trabajar en ambos formatos de forma simultánea. Por ejemplo en una realización diferenciada en UHD y en HD. En ese caso habría que considerar diferentes alternativas. Puede ser que sea necesario tener un segundo mezclador haciendo una parte diferenciada en HD, por lo

16 RTVE TM Broadcast

tanto deberías de configurar ciertas salidas del mezclador para HD únicamente. Otra opción sería que siempre se usara la salida en 4K para llevar esa señal a un mezclaefectos, por ejemplo, o a una salida auxiliar y sobre esa salida auxiliar que otro operador actuase por si hay algo diferenciado de la señal de 4K que tenga que lanzarse en el formato de HD. Hemos considerado todas estas opciones en la instalación. A lo mejor hay mayor cableado de lo que se requiere para una única producción, pero siempre se puede usar cuando sea necesario.

Por ponerlo en negro sobre blanco, ¿sobre qué tipo de proyectos crees que se podría usar esta unidad móvil?

Por ejemplo, si estás realizando un evento deportivo, entonces

estás produciendo en 4K y luego la emisión la haces en HD. No obstante puede que el 4K sí que lo estemos grabando, por ejemplo para archivo. También se puede hacer al contrario. Puedes estar haciendo toda la realización para HD, pero tienes algún tipo de realización diferenciada. Por ejemplo, para tener más recursos de grabación.

A lo mejor también para realizar contenidos específicos para entornos digitales, ¿verdad?

Sí es cierto. Esas realizaciones diferenciadas también tienen sentido en la web. Ahora, han sido los Goya. En ese caso se puede hacer una realización principal en 4K. En los momentos en los que entra publicidad en la emisión, en la plataforma se sigue emitiendo. En esos casos se puede hacer una realización alternativa en HD.

TM Broadcast
17

Yendo al apartado más técnico, ¿qué es necesario para que la realización simultánea se pueda realizar?

Principalmente, la capacidad se basa en los equipos. Necesitamos equipamiento que tenga bastantes salidas por cada equipo y que sean configurables. Esto es lo más importante. Porque nosotros tenemos una matriz general en la que conectaremos todas las señales. Entonces, si los equipos de origen y destino nos permiten que sus entradas y salidas

sean configurables obtenemos una gran flexibilidad porque dotamos a estas unidades móviles de un sistema de gestión broadcast. A ese controlador podemos configurarle diferentes parámetros con la capacidad de actuar sobre todos los equipos. Entonces podemos crear diferentes escenas y situaciones. La gran ventaja que tiene esto es que resulta transparente para el operador.

El trabajo en HDR y SDR simultáneo, ¿funciona de la misma manera?

Puede trabajar en HDR y SDR simultáneamente, pero es verdad que tenemos que centrar qué flujo de trabajo queremos introducir en esta unidad móvil. Porque según hemos observado, en producción hay diferentes formas de trabajar para estos formatos. Debemos cuidar que si haces un trabajo en HDR, también se vea bien en SDR. Ahora mismo, en el parque de televisiones españolas encuentras televisiones de los dos tipos, sobre todo SDR, por lo tanto debe quedar bien la imagen en ambos formatos.

UNIDADES MÓVILES 18 RTVE TM Broadcast

Lo cierto es que esto suele depender del fabricante de cámaras. Sony tiene una forma de trabajar, Ikegami tiene otra. En el segundo se puede ajustar al mismo tiempo el SDR y el HDR, pero claro, el broadcaster tiene un solo operador. Si se preocupa de ajustar para el HDR, no puede preocuparse en ajustar también el SDR. Digamos que eso debemos definirlo con el fabricante en la fase de implantación. El objetivo es que nos transmita su forma de entender este proceso y que nosotros veamos cuál es la mejor forma de proceder. Porque a lo mejor entendemos que lo lógico es que el control de imagen haga su ajuste y, al final de la cadena, sea el técnico de imagen el que haga sus ajustes para el SDR sobre la emisión.

Abundando en vuestro parque de recursos para broadcast en exteriores. ¿Quién ha hecho la integración de las unidades?

El diseño de ingeniería, la redacción de pliegos y lista de características necesarias se ha hecho desde el departamento de Ingeniería de la Televisión. A licitación se ha llevado el suministro de ese equipamiento y la integración. En el caso de las PEL y la unidad móvil B queríamos que el integrador se encargase de todo. Las unidades tipo PEL las desarrolló enteras Unitecnic.

¿Por qué se optó por hacerlo de este modo tan concreto?

Por facilitar la instalación de estas unidades y también por

homogeneizar. Son cuatro las que hicimos y debían de ser iguales ya que van a diferentes destinos. Solo lo asegurábamos si la instalación y el equipamiento era brindado por la misma empresa.

Punto por punto, ¿cuáles son los equipos que se han integrado en las unidades PEL?

Las cámaras son Grass Valley. El mezclador de vídeo es el modelo Kula de Grass Valley. La mesa de sonido es el modelo Brio de Calrec. La matriz y multipantallas es Mediornet de Riedel. El generador de sincronismos de Albalá. El equipamiento de distribución también fue de Albalá. Equipos de medida de Tektronics. Otras marcas que han salido ha sido AEQ o Leader.

Pero la unidad 4K, tanto el proyecto como la instalación, tiene unas características distintas. ¿Cómo ha sido este proyecto?

En la UHD es algo diferente. Para este caso concreto, por presupuestos y para buscar en el equipamiento nuclear la mayor calidad y opción óptima, hemos ido al modelo clásico. Hemos lanzado licitaciones por lotes. Por un lado ha ido la mesa de sonido, el sistema de matriz y multipantallas por otro, más adelante sacaremos también las cámaras y el mezclador. El resto del equipamiento lo vamos a aglutinar en un único lote y será el integrador quien se encargue del suministro de todo ese equi-

TM Broadcast
19

pamiento y de la instalación. Sí que es cierto que el integrador va a tener un papel muy importante.

Puede que este modelo sea más económico, pero, ¿no genera algún tipo de complejidad en la integración?

En teoría no. En el caso de las PEL, como eran cuatro, sí se podía haber creado algún tipo de dificultad en la integración a este respecto. Sin embargo, esta es una única unidad y el integrador se va a encargar de toda la instalación y de la puesta en marcha. De hecho, este sistema favorece también la concurrencia, es decir, que se puedan presentar más empresas.

¿Por qué no habéis optado por tecnología IP?

No hemos optado por tecnología IP porque el proyecto no estaba desarrollado de esa manera. Hemos optado por fundamentarnos en cableado clásico porque también queríamos dar un paso intermedio de desarrollo y no aventurarnos directamente al IP. Lo cierto es que el paso a 4K ha implicado también la llegada del HDR que también lo implementaremos en esta unidad móvil. Entonces, si a todo este cocktail de nueva información le añades el IP, iba a resultar mucho avance para una sola unidad móvil.

En esta unidad móvil, la matriz y el multipantallas es un sistema Mediornet de Riedel. Se implementó en las PEL. Se ha implementado también en las unidades móviles F. Hemos tenido en cuenta la continuidad de esta solución y hemos imple-

mentado una solución similar en la unidad H. Con ello, conseguimos conectar unidades móviles. Esta es otra de las razones por las que no hemos integrado soluciones IP.

RTVE ha apostado por ser continuista con sus unidades móviles. No obstante, el ente público ya ha emprendido varios proyectos IP. ¿No se ha tenido en cuenta esta renovación de unidades móviles para el futuro conectado de la televisión?

Con esto completamos el parque de unidades móviles que necesitábamos en Televisión Española. Ya veremos en un futuro si merece la pena conectarlas a IP. Tenemos los estudios de Sant Cugat en IP, que es lo que lo primero que hemos hecho. Próximamente, renovaremos un pequeño estudio de Torrespaña adaptándolo a IP. Más adelante emprenderemos la transición de las matrices de Torrespaña y de Prado del Rey a IP.

No obstante, sí que hemos tenido en cuenta la reciente evolución tec-

nológica en la renovación IP de las unidades móviles. Otro de los rasgos de la unidad H es que tiene la capacidad de que se pueda adaptar a IP fácilmente y con un coste razonable en un futuro. Una gran parte del equipamiento que tiene la unidad móvil es híbrido. El equipo de sonido, no tiene mucho misterio, porque la tecnología de la mesa puede ser IP nativa o no, pero la adaptación de los cofres de entrada y salida es sencilla. Es muy parecido con los equipos de vídeo, algunos ya están adaptados, para los otros simplemente sería sustituir la placa de SDI por la placa de fibra. Si deseáramos adaptar todo el equipo, estaríamos listos.

¿Una unidad móvil IP igual no es lo más deseable?

Estamos empezando a observar un cambio en las tornas. Más que una unidad IP completa, quizás llegue a ser más útil una unidad móvil más pequeña llena de cámaras conectadas a IP, como un camión de cámaras, que sean controladas remotamente desde los estudios.

UNIDADES MÓVILES
20 RTVE TM Broadcast

¿Qué futuro tiene la nube y la virtualización de los equipos? ¿Es un paso más?

Pues el futuro que promete es bueno. Observamos una tendencia por parte de algunas empresas de virtualizar su equipamiento, es decir, desplegarlo en la nube. Si en lugar de tener el hardware físico en un estudio, dispones de las prestaciones que te aporta sin la necesidad que esté anclado a un espacio físico, — las obtienen a partir de software—, puedes escalar tus proyectos en función de lo que necesites alquilando procesamiento en la nube.

La idea de la nube sería que con tus cámaras en un sitio determinado, llevas esas señales a la nube y en tu centro de producción, sea cual sea, cuentas con los remotos del mezclador, de la mesa, sonido, etc., es decir, de todo lo necesario para un estudio. Esas señales de las cámaras están en la nube y allí se mezclan y se hace todo el procesado para que luego tú obtengas la señal de programa. Eso otorga mucha flexibilidad, no necesitas hardware, no tienes que amortizarlo, son más bien servicios que adquieres cuando los necesitas.

Yo creo que todavía está muy poco desarrollado como para hacer producciones importantes, no sirve para producciones importantes, tampoco sirve para producciones continuas como un telediario, porque realmente no compensa el gasto. Pero si para un proyecto que quieres hacer una realización diferenciada para la página web. Con esta capacidad no consumes recursos propios de la unidad móvil que está haciendo la emisión, pero puedes obtener un resultado extra. Pongamos un ejemplo como el pasado Mundial. A lo mejor, puedes querer hacer resúmenes de los partidos rápidamente. Puedes hacer dos cosas. La primera es que puedes desplazar un equipo de grabación en disco duro. La segunda es que puedes grabar las señales en la nube, las mismas que obtienes de un host broadcaster, y mezclarlas allí en remoto desde cualquier lugar. Ese operador, según se está grabando el partido, va haciendo los resúmenes y los envía al terminar.

Es decir, de momento lo vemos útil para funcionalidades auxiliares. Habrá que ver que opciones brindará en el futuro cuando aumente la capacidad de computación.

Para los eventos que requieren una gran cantidad de cámaras, resultaría más rentable enviar cámaras y operadores que una unidad móvil completa. Podríamos controlar esas cámaras desde el Centro de Producción de Sant Cugat. Nos permitiría mover recursos más asequibles en un breve espacio de tiempo obteniendo la misma calidad en el contenido. Creemos que ese es el gran futuro del IP, donde de verdad podemos explotar sus capacidades.

¿Tiene Televisión Española algún proyecto de virtualización entre manos?

No, de momento no. Pero sí tenemos interés en probar y comprobar el estado actual de esa tecnología.

Aparte de finalizar estos proyectos, ¿cuáles son los siguientes pasos que vais a dar al respecto de las unidades móviles?

Con la finalización de la unidad móvil H, y la remodelación de las F, quizás nos quedaría renovar la parte de audio de la unidad móvil G, un proyecto que emprenderemos en breve. Con ello, ya dispondríamos del parque de unidades móviles necesarias para TVE y habrá concluido el proyecto de renovación de unidades móviles que nos planteamos ya hace cuatro años.

RTVE
UNIDADES MÓVILES TM Broadcast 21
22 5G TM Broadcast 5G Y LAS TECNOLOGÍAS DE BROADCAST

5G y las tecnologías de broadcast

Las tecnologías de radiodifusión parecen evolucionar a la misma velocidad que las tecnologías que nos rodean. En España todavía estamos utilizando la tecnología de Televisión Digital Terrestre (TDT) de primera generación DVB-T (Digital Video Broadcasting – Terrestrial), y tenemos pendiente la migración a la tecnología DVB-T2 ( Digital Video Broadcasting – Terrestrial 2nd Generation), que lleva más de 10 años en el mercado. El cambio a la tecnología DVB-T2 permitirá aumentar la eficiencia espectral de las redes de TDT en más de un 50%. Esto es, aumentar la capacidad de transmitir información en más de un 50%, lo cual se traducirá en aumento de la calidad de los contenidos transmitidos. Por ejemplo, más contenido en alta definición y ultra alta definición.

Desde la introducción de la TDT a finales del siglo pasado, hemos pasado por los estándares de telefonía móvil 2G (telefonía digital y mensajería de texto SMS), 3G (comienzos

del internet móvil y la llegada del primer iPhone), 4G (banda ancha móvil y popularización de las Apps y las redes sociales) y la llegada del 5G, la cual es mucho más que una nueva generación de comunicaciones móviles con velocidades de conexión más altas. La ambición del 5G es proporcionar conectividad inalámbrica en la transformación digital de muchos sectores industriales. El 5G también ofrece nuevas posibilidades para la industria broadcast.

Por un lado, la tecnología 5G puede facilitar la convergencia de las redes móviles, fijas y la TDT, pudiendo llegar a teléfonos inteligentes (smartphones) y tablets, lo cual no ha sido posible por ninguna tecnología de TDT. De hecho, el organismo internacional de estandarización europeo de televisión digital DVB (Digital Video Broadcasting) declaró que no habría nuevo estándar de TDT, y que un posible nuevo estándar de radiodifusión tendría que venir del foro de estandariza-

ción 3GPP, encargado de la estandarización de tecnologías móviles.

Por otro lado, el sector de producción audiovisual utiliza hoy en día diferentes tecnologías inalámbricas y, por tanto, será uno de los primeros en aprovechar las ventajas del 5G. Gracias a la compatibilidad inherente de 5G con el protocolo IP (Internet Protocol) y el uso de recursos de computación en la nube (en inglés, cloud computing), podría además actuar como un catalizador para mejorar los flujos de trabajo existentes o habilitar nuevos en varios escenarios.

El Instituto de Telecomunicaciones y Aplicaciones Multimedia (iTEAM) de la Universitat Politècnica de València (UPV) en España es uno de los centros de investigación de referencia en la aplicación de la tecnología 5G a tecnologías broadcast, tanto para la parte de distribución como para la parte de contribución (producción de contenidos). Desde el

23 TM Broadcast 5G Y LAS TECNOLOGÍAS DE BROADCAST 5G

grupo de comunicaciones móviles del iTEAM-UPV, hemos participado activamente en procesos de estandarización de tecnologías de radiodifusión, como DVB-T2 (y su perfil móvil T2-Lite), DVB-NGH ( Next Generation Handheld) y ATSC 3.0, así como en la optimización de las tecnologías de radiodifusión de telefonía móvil 3G (MBMS, Multimedia Braoadcast Multicast Service) y 4G (eMBMS, enhanced MBMS).

Gran parte del trabajo en 5G y televisión se ha realizado en proyectos de investigación del programa Horizonte 2020 de la Unión Europea de la asociación para la colaboración público-privada en 5G 5G-PPP (5G Infrastructure Public Private Partnership , www.5g-ppp.eu). En concreto, en los proyectos 5G-Xcast, 5G-TOURS, 5G-RECORDS y FUDGE5G, tres de los cuales han sido coordinados por el iTEAM-UPV (5G-Xcast, 5G-RECORDS y FUDGE-5G). A nivel

nacional, también cabe destacar el proyecto 5G Castilla La Mancha del plan nacional de pilotos 5G de Red.Es, así como la colaboración con Radiotelevisión Española (RTVE) en el marco del evento Global 5G 2019, en la que se realizó el primer directo para televisión utilizando exclusivamente tecnología 5G en España. Fue, además, la primera retransmisión en todo el mundo llevada a cabo con una red 5G nativa/pura (en inglés, Stand-Alone SA).

A continuación, paso a explicar brevemente las principales innovaciones de los dos principales proyectos: 5G-Xcast para radiodifusión de contenidos 5G y 5G-RECORDS para producción de contenidos 5G, así como resaltar los principales resultados del resto de proyectos.

5G-Xcast

El proyecto 5G-Xcast: Broadcast and Multicast Communication

Enablers for the Fifth-Generation of Wireless Systems (8 M€ de presupuesto, 18 socios de 10 países, periodo de ejecución junio 2017 a julio 2019, www.5g-xcast.eu) fue el primer proyecto de investigación internacional sobre 5G Broadcast, y se convirtió en el proyecto insignia sobre la radiodifusión de contenidos en 5G en todo el mundo. Desde el proyecto se participó activamente en la definición y análisis de la tecnología conocida popularmente como 5G Broadcast, y también en el diseño de una solución 5G nativa para broadcast.

La tecnología, conocida como 5G Broadcast, permite transmitir servicios broadcast a dispositivos 3GPP, y en algunos ámbitos se ha llegado a considerar como posible sustituto de la Televisión Digital Terrestre. Esta tecnología cumple con requisitos esenciales de la TDT, entre los que podemos destacar:

24 5G Y LAS TECNOLOGÍAS DE BROADCAST TM Broadcast
5G

•Modo de solo recepción (en inglés, Receive-OnlyMode), en el cual no es necesario tener una tarjeta SIM para recibir el servicio. Esto permite transmisiones abiertas (en inglés, Free-to-Air) como las utilizadas en la TDT tradicional.

•Modo de transmisión en el que todos los recursos radio (espectro) se dedican a la transmisión broadcast.

•Posibilidad de crear redes de frecuencia única (en inglés, Single Frequency Networks), en los que varios transmisores transmiten el mismo contenido en la misma frecuencia de manera sincronizada.

A pesar de que la tecnología se conoce como 5G Broadcast, está basada en la tecnología 4G de telefonía móvil denominada como LTE (Long Term Evolution). De hecho, el nombre técnico de la tecnología en inglés no es otro que LTE-based 5G Terrestrial Broadcast. El juego de marketing del 3GPP esconde que 5G Broadcast no dispone de los avances tecnológicos de la tecnología 5G (que explicaremos a continuación). El proyecto 5G-Xcast fue el primero en demostrar que la tecnología 5G Broadcast tendría una eficiencia espectral considerablemente menor que las tecnologías de TDT de segunda generación (como DVB-T2 y ATSC 3.0). Este trabajo* tuvo el reco-

nocimiento del premio al mejor artículo publicado en el año 2020 en la revista especializada IEEE Transactions on Broadcasting.

A pesar de sus limitaciones, la tecnología 5G Broadcast supone un hito en el mundo de la radiodifusión, al ser la primera tecnología broadcast 3GPP con un alto potencial de llegar a todos los smartphones y tablets. Aunque ya se han realizado numerosos pilotos en todo el mundo, todavía no hay ningún despliegue comercial de 5G Broadcast. Pero no debe olvidarse el hecho de que 5G Broadcast fue diseñada para un propósito diferente al de los estándares de TDT. Mientras que, por ejemplo, DVB-T2 está altamente optimizado para la distribución de servicios de televisión lineal para recepción fija en tejados, 5G Broadcast tiene la posibilidad de llegar a dispositivos 3GPP portátiles y móviles, y tiene una gran herencia de la tecnología 4G LTE. Además, 3GPP ha incluido recientemente en la Release-17 la posibilidad de utilizar 5G Broadcast en los anchos de banda utilizados tradicionalmente por la TDT (6, 7 y 8 MHz). Sin hacer pronósticos sobre lo que pueda pasar en la conferencia mundial de radiocomunicaciones (WRC) en cuanto al espectro actualmente dedicado para tecnologías de radiodifusión, seguro que la tecnología 5G Broadcast tendrá un papel importante en dicha conferencia.

5G Castilla-La Mancha

En el proyecto 5G Castilla La Mancha (presupuesto 1.2 M€, 6 empresas colaboradoras en el caso de uso de radiodifusión, duración julio 2020 a enero 2023, el iTEAM-

UPV ha desarrollado una solución 5G Broadcast utilizando una plataforma de radio definida por software de código abierto y procesadores de propósito general. En colaboración con Telecom CLM y el fabricante de equipos de broadcast BTESA, se ha realizado un piloto en una red con infraestructura de alta potencia en la ciudad de Toledo, con suficiente potencia de radiofrecuencia para cubrir toda la ciudad. Este, ha sido el primer piloto utilizando una plataforma SDR (Software Defined Radio) tanto para el transmisor como el receptor en una infraestructura como las utilizadas tradicionalmente para la difusión de TDT. Las soluciones SDR no solo permiten probar rápido nuevas funcionalidades de los estándares, sino que también permiten una mayor flexibilidad para actualizaciones mediante software y reducir costes. Los principales fabricantes de equipos de TDT ya tienen soluciones basadas en software. Este trabajo ha tenido mucha repercusión en la asociación industrial 5G-MAG ( 5G Media Action Group), donde se ha colaborado con otros socios en el desarrollo y validación de la plataforma SDR y se ha proporcionado una versión del código en abierto (opensource).

Por otro lado, el proyecto 5GXcast fue pionero en definir componentes punto a multipunto (multicast/broadcast) para las redes 5G nativas, basadas en las nuevas tecnologías NR (New Radio) y 5GC (5G Core), que proporcionan una mayor eficiencia y flexibilidad con respecto a LTE tanto a nivel radio como a nivel de arquitectura de sistema.

El proyecto 5G-Xcast propuso un cambio de paradigma en cuanto a

5G TM Broadcast
25 5G Y LAS TECNOLOGÍAS DE BROADCAST
* Manuel Fuentes, De Mi, Hongzhi Chen, Eduardo Garro, Jose Luis Carcel, David Vargas, Belkacem Mouhouche, and David Gomez Barquero, "Physical Layer Performance Evaluation of LTE-Advanced Pro Broadcast and ASTC 3.0 Systems", IEEE Transactions on Broadcasting, vol. 65, no. 3, pp. 477-488, 2020.

las transmisiones punto a multipunto en 4G LTE (recuerden que la tecnología 5G Broadcast está basada en LTE), donde las transmisiones punto a multipunto se concibieron inicialmente como un servicio complementario y con una configuración estática predefinida. La solución propuesta en 5G-Xcast integra las transmisiones punto a multipunto en la arquitectura general del sistema como una herramienta interna de la red para optimizar la transmisión cuando varios dispositivos consumen el mismo contenido en una misma celda. Esto permite un uso dinámico y flexible de las transmisiones punto a multipunto por parte de la red de manera transparente al usuario, con el fin de maximizar la eficiencia de los recursos de la red. Los componentes multicast/broadcast se diseñaron con la premisa de maximizar la compatibilidad y la interoperabilidad con las transmisiones punto a punto (unicast), para permitir la conmutación dinámica entre los diferentes modos de operación, así como su posible uso en paralelo. Este enfoque conduce a un diseño de servicio simplificado y unificado a través de las redes de acce-

so. Además, no solo permite el despliegue de redes 5G independientes para la distribución de servicios de radio y televisión, sino que también fomenta que todos los equipos de red y todos los dispositivos soporten las transmisiones punto a multipunto. El hecho de que 5G Broadcast requiera equipos específicos que soporten la tecnología a nivel de red y, principalmente, a nivel de terminales, es probablemente la principal barrera que ha frenado la inversión en la tecnología, y que nos pone en el problema del huevo o la gallina que tuvieron las primeras tecnologías de radiodifusión móvil (DVB-H, MediaFLO, etc.).

En 5G-Xcast se diseñaron componentes punto a multipunto para la interfaz radio, la red de acceso radio (Radio Access Network, RAN) y el núcleo de red (5GC). El trabajo del 5G-Xcast ha tenido una importante repercusión en el 3GPP en la tercera versión del estándar 5G (Release-17), donde se ha especificado 5G-MBS (Multicast Broadcast Services) con componentes multicast/broadcast para NR y 5GC. Sin embargo, no se están teniendo en cuenta requisitos

de los servicios de TDT. El problema es que las dos primeras versiones de 5G no soportan transmisiones punto a multipunto, y por tanto se perdió la oportunidad de incluir esta funcionalidad desde el inicio del estándar de forma que todos los dispositivos la soportaran. El soporte de la tecnología 5G-MBS será opcional, y está por ver el grado de implantación en los futuros dispositivos cuando llegue la Release-17 al mercado (actualmente están empezando a llegar dispositivos con la segunda versión del estándar 5G, Release-16).

5G-RECORDS

El proyecto 5G-RECORDS: 5G key technology enableRs for Emerging media COntent pRoDuction Services (presupuesto 7.5M€, 18 socios de 11 países, duración septiembre 2020 a octubre 2022, www.5g-records.eu) abordó el diseño, desarrollo, integración, validación y demostración de componentes 5G para la producción profesional de contenidos multimedia. El proyecto se estructuró alrededor de tres casos de uso reales de producción de contenidos: producción de audio en vivo, estudio inalámbrico con múltiples cámaras y producción de contenidos inmersi-

5G 26 5G Y LAS TECNOLOGÍAS DE BROADCAST TM Broadcast

vos, cada uno con una serie de tecnologías 5G habilitadoras y componentes multimedia innovadores.

Además, el proyecto se centró en el uso de redes 5G privadas, similares a una red WiFi pero con la diferencia de que no se comparte el espectro con ninguna otra red, lo que garantiza mayores prestaciones sin depender de la red pública de un operador de telecomunicaciones. Otra de las ventajas reside en la privacidad, ya que toda la información que circule por estas redes solo es accesible para sus propietarios. Estas redes 5G a la carta, o redes “súper WiFi” privadas con prestaciones revolucionarias para la industria tienen mucho sentido para entornos de producción profesional remota de contenidos con mayor fiabilidad, menor latencia y la posibilidad de sincronizar diferentes dispositivos. El proyecto desarrolló un sistema completo de producción multicámara 5G que fue utilizado en una retransmisión del arranque del Tour de Francia de 2022 en la ciudad Copenhague (Dinamarca), que fue un éxito total y tuvo una gran repercusión mediática.

El caso de uso de producción de contenidos inmersivos se centró en el uso de las bandas milimétricas de 5G (26 GHz), que posibilita anchos de banda de cientos de MHz y velocidades de Gigabits por segundo equiparables a la fibra óptica en sentido descendente o de descarga. En sentido ascendente, los terminales actuales tienen limitaciones para alcanzar esas velocidades. A pesar de estas limitaciones, el proyecto organizó un concierto en vivo que fue capturado con múltiples perspectivas y planos en los que el realizador podía mover el punto de vista de la imagen libremente. Y con un despliegue de edge computing para garantizar baja latencia, fue posible reproducir contenido tanto en vivo como en repeticiones.

Por último, el caso de uso de producción de audio se centró en las comunicaciones 5G de ultra baja latencia y alta fiabilidad (en inglés, Ultra Reliable Low-Latency Communicacions URLLC), ya que la producción profesional de audio en directo tiene unos requisitos muy exigentes en cuanto a tiempo de respuesta, disponibilidad, y sincroniza-

ción. Este caso de uso no llegó a demostrarse en un piloto, pero los avances que se hicieron en el testeo y validación de la tecnología URLLC de 5G han supuesto un gran avance del estado del arte, y han interesado a alguno principales fabricantes de chips 5G.

No me gustaría terminar este artículo sin mencionar la primera orquesta itinerante 5G que se realizó en el proyecto 5G-TOURS (www.5gtours.eu), liderada por la RAI y en colaboración con LiveU, que fusionó música y producción distribuida de contenidos con 5G en las calles de Turín en diciembre de 2020.

Con todos estos avances se puede afirmar que, a diferencia de la distribución de contenidos, donde todavía hay dudas razonables sobre el uso de 5G para servicios de radiodifusión … ¡y puede que sea necesario una futura nueva tecnología 6G Broadcast!, el 5G será ampliamente utilizado para producción de contenidos en un futuro no muy lejano.

5G Y LAS TECNOLOGÍAS DE BROADCAST 5G TM Broadcast
27

El uso del 5G en España La experiencia de GES-IT

David de No, director Comercial de GES-IT, ha compartido con TM Broadcast su experiencia en la transmisión de eventos deportivos sobre las redes 5G. Según nuestro entrevistado, aunque aún en una fase de despliegue, la tecnología de transmisión nos puede llegar a otorgar muchos beneficios industriales. De hecho, la unión de estas capacidades y la fusión con la virtualización llegará a marcar el futuro de esta industria. En esta entrevista comprenderán en qué punto se encuentra la tecnología y qué uso le está dando una de las principales compañías de servicios de producción de nuestro país.

¿Cuál es el estado actual de la transmisión 4G y 5G en España?

La pandemia ha traído un cambio de modelo. Han vuelto las producciones de eventos, pero se están realizando de forma distinta y acarrean diferentes perspectivas. Hoy día, ya son comunes las producciones en remoto, también las soluciones por software a través de plataformas de streaming.

Precisamente fue la pandemia la que nos proporcionó ese conocimiento. Esas herramientas, como decíamos, son prioritarias

ahora. De hecho, siempre lo digo, el mejor ejemplo de ello es que en los informativos de cualquier cadena introduce conexiones con plataformas de comunicación online de forma habitual.

En el mercado ya hay soluciones adaptadas a este nuevo mundo. Desde la perspectiva de GES-IT, en espacio tienen perfecta cabida nuestras soluciones. Contribuyen a la evolución de este modelo.

¿Cuáles son las experiencias de GES -IT en 5G?

28 5G TM Broadcast GES-IT

Las experiencias que tenemos sobre la transmisión en 5G vienen dadas por la experiencia previa que tenía la marca Mobile Viewpoint sobre las redes de Ericsson en Holanda, los trabajos que han realizado para la BBC en Inglaterra y las transmisiones que se hicieron en directo ya hace unos años en Corea sobre una red de 5G real.

En España nosotros hicimos el primer directo 5G para la TVGA (Televisión de Galicia) sobre la red de Telefónica. Se hizo en el Monte del Gozo para el programa “Telexornal” de mediodía. Fue un hito porque conseguimos transmitir una señal en directo para un programa informativo a través de la red de Telefónica. Por otro lado, realizamos el primer directo de televisión sobre la banda de 700 Megas para Castilla La Mancha, también a través de Telefónica I+D. Esto se hizo en Alcázar de San Juan en directo. Ya había experiencias previas de Televisión Española sobre el 5G, pero siempre sobre una red propietaria o un nódulo más pequeño. En este caso era una solución real.

También hemos hecho transmisiones para comprobar cómo era la estabilidad de la señal sobre dos módems de 5G para transmitir con una mochila con el banco de pruebas de I+D de Telefónica. La prueba ha sido un éxito.

Tenemos ya equipos de 5G en el mercado ahora mismo trabajando en el campo. En el caso de eventos deportivos destacaría que lo que hemos empleado, fundamentalmente, son las mochilas como medios de transmisión y un equipo receptor instalado en la unidad móvil a través de una fibra dedicada.

Por citar algunos ejemplos, en el maratón de Valencia hemos empleado 3 motos de carrera, una cámara car que estaba transfiriendo planos espectaculares en directo y también una cámara giro bike que va en una moto y ofrece una señal fantástica y estabilizada. Estas soluciones hacen evolucionar el lenguaje audiovisual del directo, aporta factor de calidad y un valor añadido a esas producciones.

En el maratón de Sevilla hemos puesto de cuatro motos, hemos desplegado un practicable y hemos creado una novedad: un punto de giro con un dron en directo. Esta solución ya se está implementando en las producciones deportivas, es más, LaLiga ya lo está usando. En redes de transmisión 5G tiene cabida perfecta.

También hemos hecho este año la San Silvestre para Telemadrid, a través de Telefónica. Para esta infraestructura hemos desplegado 3 motos, hemos puesto también un dron de señal en directo en la Puerta de Alcalá y una Cámara autónoma para hacer un evento publicitario.

Hemos realizado también en Málaga la carrera ASICS en la que hemos ido con 3 motos y un dron. Este dron cubría parte del recorrido. Era como una cámara de apoyo, pero realizada siempre con un dron que da una imagen un poquito más espectacular.

Otro evento que también ha marcado este año ha sido la Champions League en París, para Telemadrid a través de FORTA. Hemos hecho una transmisión de cuatro equipos autónomos para cubrir todo el evento

29 TM Broadcast GES-IT 5G

completo desde la zona entrenamiento del Real Madrid, campo de fútbol, zonas mixtas, previas, entrevistas y demás. Se ha realizado una cobertura completa con estos equipos autónomos con recepción directa en Telemadrid.

En todos estos casos de uso, en la medida en la que podemos usar la banda 5G, transmitimos en 5G. Teniendo en cuenta que el 5G no está maduro. Es un sistema de 5G sobre nódulos 4G pero bueno, se puede decir que estamos empezando a dar esos pasos y que las mochilas de nuestra marca ya están habilitadas.

¿Qué habéis empleado como flujo de trabajo para estos proyectos?

Hemos pasado por diferentes estadios. Partimos desde la captura de la cámara en una moto, la transmisión directa a la mochila y una recepción en la unidad móvil para entregarla; hasta la producción completa con contribuciones a través de tramas RTSP que son ingestadas en herramientas de producción en streaming. Este último modelo, por ejemplo, lo hemos realizado habitualmente en temas corporativos.

¿Qué retos habéis encontrado en la trasmisión de estos eventos?

Pues hemos encontrado que la cobertura en algunos puntos es compleja que propiciaba dificultad de transmisión. Para solucionarlos, hemos trabajado previamente en desplegar antenas de alta ganancia, muy características de nuestra marca, que instaladas en la moto nos facilitan que la transmisión sea

30 GES-IT TM Broadcast
5G

más estable y, de ese modo, reducimos los riesgos que tienen esos puntos complejos de transmisión.

Por supuesto, hacer test de cobertura previa para conocer bien cómo será el recorrido. Por ejemplo, respecto a los maratones recorremos el circuito el día anterior para obtener seguridad, conocimiento y una capacidad de minimizar los errores.

Otra de las soluciones que hemos implementado es utilizar equipos con un mayor número de módems. Siempre estamos utilizando 8 módems, como mínimo 6, sabemos que hay soluciones en el mercado con menos módems. Pero no las recomendamos para este tipo de producciones porque al final tienes que tener más capacidad, tienes que tener más proveedores y tienes que tener más más datos para garantizar el servicio.

Otra de nuestras capacidades es garantizar una gestión inteligente del ancho de banda y de los delays. Es decir, qué ancho de banda asignamos a una transmisión de vídeo, cómo la gestionamos, si tenemos posibilidad de aumentar el delay para hacer un poco más de buffer y reducir los problemas posibles de pixelado.

En definitiva, para transmitir de este modo hay que hacer un uso inteligente de la tecnología y con nuestro conocimiento a lo largo de estos años, ya tenemos ese modelo bastante estudiado y bastante evolucionado.

Todo esto se trabaja sobre la red 4G ahora mismo porque 5G no está tan expandido, ¿verdad?

Aparece como 5G, pero no es real. ¿Y por qué se da esa circunstancia?

Ahora mismo no hay instalada una infraestructura de red 5G. Esta red funciona sobre una frecuencia que va a necesitar muchos más repetidores. Va a tener que implementarse nueva. Ahora mismo el 5G es como cuando empezó el 4G y todo el mundo decía que tenía 4G y en realidad estaba usando las redes 3G.

Pues ahora mismo no hay un desarrollo en las ciudades, no hay un desarrollo global del 5G. Las torres hay que cambiarlas todas y se debe introducir nueva infraestructura en interiores. Entonces no hay 5G real, por lo tanto no están dando esos anchos de banda y no está funcionando.

Se trata del ya conocido 4,5G, ¿verdad?

Efectivamente, es un desarrollo en el que las redes se identifican como 5G, emites sobre 5G, pero las señales se están repartiendo sobre la tarta 4G actual. Los transpondedores son 4G y sí, te puede llegar a aportar algo más, pero porque estás trabajando sobre la red actual, una red que está muy lejos de estar completa. Por ello, lo que te aporta, poco tiene que ver con lo que podría llegar a aportar.

Entonces, ¿cuáles son los casos de uso que se están dando sobre la red 5G real?

Nosotros hemos experimentado de forma práctica la transmisión 5G

5G TM Broadcast 31 GES-IT

con I+D de Telefónica sobre las dos únicas redes 5G que hay ahora mismo en España, Ericsson y Nokia. Estos son los casos que mencionábamos al principio. La cuestión es que en una de ellas se ha hecho la transmisión sobre estas redes de “5G falso”. No obstante, la segunda prueba que hicimos se hizo sobre la red 5G real. Fíjate que, de hecho, se apagó el TDT de Alcázar de San Juan durante los siete minutos que duró el evento. Se hizo así porque es la red de 700 la que ocupa la frecuencia del 5G, donde va todo el TDT también.

Como integrador, ¿cómo debe evolucionar esta tecnología para que se extienda su uso y se convierta en un estándar?

Debemos apostar por esta tecnología. Y el camino para hacerlo es

seguir haciendo producciones mixtas. Nosotros ya lo estamos haciendo: en una realización estándar usamos la unidad móvil de toda la vida donde incluimos las cámaras a las que estamos acostumbrados y los enlaces de siempre, pero introducimos una mochila. Por lo tanto ya son modelos de producción que incluyen la transmisión mediante redes de telecomunicación. Se está cambiando el helicóptero por el dron, se están cambiando los enlaces RF por las mochilas, etc. En definitiva, se transforman los modelos.

Adicionalmente, se está empezando a trabajar en la nube. El desarrollo comenzó hace dos años y con la pandemia se ha agilizado. Ahora hay muchas producciones que se hacen en la nube. Esto promueve una simplificación de los procesos y la creación de sinergias entre fabricantes

de equipos que desarrollan soluciones para hacer en la nube una realización completa, gráficos, sonido, en remoto, etc.

No obstante, a la gente le sigue proporcionando comodidad y seguridad tenerlo todo centralizado. El modelo clásico es más conocido para el realizador. Y el cambio puede llegar a provocar vértigo. La industria no puede descuidar ese campo.

5G 32 GES-IT TM Broadcast

¿Cómo evolucionará el negocio de GES-IT respecto al 5G?

Como decíamos, no está listo. La implementación aún va a tardar uno o dos años. El hándicap radica en que hay que hacer un desarrollo completo de la red y de las infraestructuras.

Mientras tanto, se debe respetar el modelo de 4G, para quien quiera seguir trabajando en esa banda.

¿Tú crees que pueden convivir?

Sí, sí pueden convivir. De hecho, son complementarios. Tal y como ha

pasado con el 3G y el 2G. Todo el mundo va a querer conseguir todo lo que ofrece el 5G. El 6G sigue siendo ciencia ficción. Pero cuando llegue, traerá unas capacidades increíbles: se podrán hacer transmisiones a 8K, latencias mínimas o transmitir flujos de alta capacidad de datos con comodidad. El futuro va a estar en esas grandes producciones en remoto con esta tecnología de alta capacidad. Yo creo que las principales cadenas lo tienen claro y empresas que se dediquen a este tipo de producciones, en la unión entre la transmisión mediante estas redes y en la nube.

¿GES-IT se subirá a esa ola?

Nosotros consideramos que va a quedar una gran oportunidad para poder seguir trabajando en el formato actual. De hecho quedará parte de ese tráfico liberado. De hecho, estamos haciendo transmisiones en HD sin ningún tipo de problema y con las latencias muy bajas. Entendemos que en el directo todo tiene que estar listo en menos de un segundo. Lo bueno que tiene nuestra tecnología es que el sistema de codificación y de envío es muy inteligente en su gestión desde la parte de la red. Con eso garantizamos que los anchos de banda que sacamos son datos reales y podemos trabajar perfectamente en HD en esas latencias. Es aquí donde está nuestro valor añadido.

GES-IT 5G TM Broadcast
33

Iralta VP El camino hacia las experiencias inmersivas

La forma de comunicarnos y generar contenidos está en una evolución constante y es indudable que las experiencias inmersivas captan la atención de los consumidores. Desde Iralta VP tienen esto muy en cuenta y hemos tenido la oportunidad de hablar con César Urbina, fundador y director creativo de la compañía, para conocer en qué punto nos encontramos ahora, qué podemos esperar de un futuro cada vez más tecnológico y cómo se están preparando para ello.

¿Qué es Iralta VP y cómo nace?

Iralta Virtual Productions nace de la unión de Iralta Films, que es la compañía matriz, y el Píxel Redondo, con la idea de crear contenidos y servicios enfocados en la producción virtual. David Burton, VFX supervisor con muchísima experiencia en la posproducción de películas y series, es quien está detrás del Píxel Redondo. Controla todo lo que tiene que ver con producción virtual y nosotros, en Iralta Films, estamos especializados en producción en realidad virtual y en motores de videojuegos para realidad virtual. La unión entre ambas empresas, que además llevamos trabajando durante cinco años en proyectos, ha hecho que el año pasado creásemos una empresa conjunta.

Nosotros llevamos produciendo contenidos de realidad virtual desde hace más de diez años. Mi hermano Ángel y yo creamos la empresa hace dieciocho años en la que hemos innovado y nos hemos ido diferenciando a la hora de meter interactivi-

dad, programación y nuevos formatos que no son vídeos al uso, sino vídeos en los que hay interactividad.

Cuando un cliente nos encargó, hace 12 años, producir un contenido para un domo descubrimos lo que era el vídeo 360. En ese momento, no había casi nadie en España que hiciera ese tipo de proyectos. Vimos que era un sector que tenía futuro y nos lanzamos. Vimos que éramos una empresa pionera y decidimos apostarlo todo por contar historias inmersivas.

Entonces, solicitamos unas ayudas al Ministerio de Cultura para la creación de contenidos culturales e innovación y creamos la primera experiencia de realidad virtual y vídeo 360. Fue enfocada al turismo, llama-

34 EXPERIENCIAS INMERSIVAS TM Broadcast IRALTA VP
César Urbina, fundador y director creativo de Iralta Virtual Productions

da Camino de Santiago 360. Este proyecto supuso un antes y un después para la compañía. Fue un proyecto muy ambicioso. Aún está disponible en iOS y Android y ganó en Fitur el premio a la mejor experiencia de turismo usando la realidad virtual.

¿En qué consistió ese proyecto?

Se trató de una aplicación en la que te puedes visionar en 360 grados en el camino de Santiago. Puedes visualizar todo, desplazarte a través de los giroscopios o con los dedos y moverte por las diferentes escenas que hay a lo largo de nueve capítulos visitando catedrales, castillos, bosques y todo el camino.

Esto fue hace diez años y era tan novedoso que nos empezaron a lle-

gar muchos encargos de diferentes destinos turísticos o instituciones como el Banco Interamericano de Desarrollo o el Banco Europeo de Inversiones. Hemos realizado vídeos 360 para muchas marcas como Coca Cola, Renault, Telefónica o Cepsa, siempre buscando la manera de innovar a la hora de contar historias. Los contenidos inmersivos cambian la manera de contar esas historias. Necesitas conocer muy bien cómo funciona la tecnología para que sepas realmente sacar el partido a las historias que puedes contar.

¿Cuál es vuestra forma de trabajar y en qué tecnologías os apoyáis?

Es fundamental tener un trabajo previo con los creadores. Nos reunimos con la productora o los creado-

res del formato y proponemos cómo utilizar las diferentes tecnologías de producción virtual.

Una vez decidido que tecnología es la ideal, se hacen pruebas de los flujos de trabajo. Todo está sincronizado con sistemas de tracking espacial, para ello necesitas visualizar el espacio. Hay todo un trabajo previo para, por ejemplo, virtualizar el plató y que las diferentes tecnologías que se usan, desde los motores, las pantallas y los sistemas de tracking, funcionen a la perfección.

Es una nueva metodología de trabajo. La posproducción siempre estaba al final, pero ahora podríamos decir que es un flujo circular, en el que la posproducción está desde el principio y va trabajando con el

35 TM Broadcast IRALTA VP EXPERIENCIAS INMERSIVAS

director de arte, con el director de vestuario, de fotografía… Van de la mano para que luego la parte de producción sea más corta y todo se haga en tiempo real.

¿Con qué herramientas y software trabajáis?

La base de todo lo que estamos usando para la producción virtual es Unreal. Dentro de Unreal, hay un ecosistema de herramientas como Capture Reality, que sirve para capturar y fotogrametriar lugares, crear los metahuman, generar actores virtuales. También utilizamos Sketchfab, un ecosistema de todo lo que es el motor de videojuegos.

Luego, utilizas otros softwares de 3D como pueden ser Maya o Blender, para modelar y animar. Y por otra parte, estamos usando el Faceware, un software de captura facial. Además de trajes de captura de movimiento para capturar todos los movimientos de los personajes.

También estamos usando una Sony FX9 para hacer pruebas con kits de ópticas fijas para producción virtual sin zoom, para poder hacer más fácil la virtualización del plató.

Por último, trabajamos con MoSys, un sistema de tracking espacial, que adquirimos para Mapi. Mo-Sys te permite virtualizar un plató y que al mover la cámara dentro de ese espacio, se transmita ese movimiento físico al mundo virtual. Mueves la cámara y la cámara virtual también se mueve.

¿En qué punto se encuentra ahora la compañía?

Hemos tenido un año 2022 fantástico, porque hemos hecho el primer proyecto de producción virtual de realidad aumentada que se ha hecho en España y de los primeros del mundo. Hablo de Mapi. Las propias compañías que nos han vendido y ayudado con el hardware y el software, como son Faceware o Mo-Sys, han publicitado el proyecto dentro de su portfolio de casos de éxito. Es un ejemplo muy innovador de cómo se puede llegar a usar la producción virtual y la realidad aumentada en televisión.

Mapi es uno de los proyectos más innovadores que ha desarrollado Iralta VP. Radio Televisión Española quiso crear un programa para todos los públicos y se basó en el formato del programa Chiko’s Challenge, de la televisión pública japonesa. La idea era crear un programa cuya protagonista sería Mapi, una niña virtual que se encargaría de realizar preguntas, a los famosos que iban, que cualquier niña o niño pequeño se haría y que plantean cierta dificultad.

Iralta VP quiso ir un paso más allá de lo que ya estaba creado y propuso utilizar la producción virtual para que Mapi pudiera existir en tiempo de emisión real.

¿En qué ha consistido el proyecto de Mapi?

La idea de Mapi viene originalmente de Chiko's Challenge, programa de la televisión japonesa pública que lleva en antena más de ocho años y que se hace a la manera tradicional. Se graba a un actor con

unas marcas de tracking y luego esto se posproduce.

Cuando Mediacrest, la productora que está detrás de Mapi, firmó el acuerdo con Televisión Española para hacer este programa, nosotros ya habíamos propuesto hacerlo usando producción virtual porque ahorraba, sobre todo, tiempo en posproducción. Eso también significa ahorro en presupuesto. Ahorraba costes, hacía un calendario mucho más asequible y permitió que Mapi naciera en Televisión Española. Se concibió en el mes de abril y a finales de julio ya estaba en antena. Pero lo que hay que saber para hacer pro-

36 IRALTA VP TM Broadcast
EXPERIENCIAS INMERSIVAS
Equipo Mapi.

ducción virtual es que debes realizar una preproducción muy buena para que todo funcione perfectamente.

Se rodaron 60 capítulos. El plató de Televisión Española se virtualizó antes de Mapi. Ayudamos y asesoramos a virtualizar el plató, junto al equipo de Mo-Sys. Todo esto se realiza en un falso directo, pero lo que se grababa era básicamente lo que luego se emitía. Nosotros habíamos previsto semanas de posproducción para posibles retoques o fallos de oclusiones, pero realmente al principio hicimos algunas correcciones y, en cuanto a la parte del 3D, lo que se grabó se emitió. Luego ya entraba en

juego el montaje, sonorización, etc, pero la generación de contenidos 3D fue directa. Esto es un salto tecnológico muy grande a nivel cualitativo.

Cada programa duraba unos 35 minutos y Mapi estaba 30 minutos en pantalla. De esos 30 minutos había tres cámaras de televisión para tres planos diferentes: un plano general, uno frontal y uno en escorzo. En los tres estaba Mapi en tiempo real. El realizador solo tenía que elegir qué cámara quería y ahí estaba Mapi funcionando. Teníamos 90 minutos de 3D por programa, una locura.

¿Ha sido Mapi vuestro proyecto más desafiante?

Sí, porque ha sido un proyecto que se ha hecho en muy poco tiempo. Ha sido un proyecto arriesgado, ya que cuando te embarcas en algo que nadie ha hecho no tienes referencias. Nos hubiera gustado tener más tiempo antes para probar y hubo cosas que se fueron mejorando y optimizando durante la emisión. Si hubiera habido temporada dos no sabemos dónde habríamos llegado.

¿Qué retos y qué limitaciones ha supuesto Mapi?

EXPERIENCIAS INMERSIVAS TM Broadcast
37 IRALTA VP

El reto ha consistido en ser capaces de producir tres programas con 90 minutos de 3D en tiempo real. Es una locura hacer eso. Los japoneses nos dijeron que no se podía hacer, que estábamos locos y luego nos han felicitado por ello. Es una tecnología que tiene mucha versatilidad para que el directo pueda crear nuevos contenidos y que los actores y el público puedan interactuar en tiempo real.

Muchos programas trabajan sobre fondos verdes y tienes que imaginar el personaje. Aquí no. El público y los concursantes lo veían en unas pantallas. Una de las mejores cosas era ver la sorpresa de la gente al ver que en tiempo real podían ver los gestos de la niña, en este caso, de la actriz Carla Pulpón, que ha hecho un trabajo increíble.

En cuanto a límites, tiene límites técnicos que te obligan a trabajar de otra manera. Es decir, tienes que tener en cuenta que en la posproducción en el 3D, cuando tienes una imagen con muchísimas partículas, fluidos o elementos, necesitas renderizarlo. Todo esto en producción en tiempo real está limitado. Tienes que optimizar mucho los elementos 3D para que esto funcione.

Entre todas estas nuevas experiencias inmersivas está sonando mucho el concepto del metaverso, ¿cuál va a ser el impacto del metaverso en el mundo broadcast?

El metaverso es una evolución de Internet. Una nueva manera de conectarnos todos y de acceder a la web. Puede ser a través de gafas de realidad virtual o a través de pantallas o dispositivos móviles con reali-

dad aumentada. Digamos que hay varias tecnologías (VR, AR y XR) que confluyen en el metaverso. La televisión y el cine participarán en esto.

Para mí, todavía es difícil visualizarlo. Sí que puedes hacer formatos de televisión que tengan su continuidad en el metaverso o crear mundos paralelos para que la gente pueda vivir una experiencia con un personaje, luego te lo llevas y has creado un escenario, un decorado y una experiencia unificada de juego donde puedas participar. O sea, eso ya se puede hacer. Todavía no se está haciendo mucho, pero es posible.

Entre las ventajas que contempla está la interacción con el público. Si nosotros, como avatares, tenemos nuestro personaje virtual, podríamos hablar por ejemplo con Mapi. La

EXPERIENCIAS INMERSIVAS
38 IRALTA VP TM Broadcast Online MAPI 2 minutos.

interactividad ya no es simplemente mandar un mensaje a través del móvil, sino estar dentro y poder participar. Eso es lo que va a conseguir el metaverso.

Entonces, ¿se espera que las grandes cadenas de televisión adopten estas tecnologías?

Sí, desde luego. Usar fondos virtuales o personajes de realidad aumentada en tiempo real en un programa de televisión te abre las posibilidades. El límite está en tu imaginación.

Nosotros estamos desarrollando varios formatos, ayudando a productoras a desarrollar nuevos formatos en los que aplicamos tecnologías de producción virtual y las posibilidades son infinitas.

A veces innovar es difícil, porque cuando algo funciona, ¿para qué lo vas a cambiar? Pero es que la tecnología te permite llegar al público de otra manera. Yo creo que debemos escuchar y ver lo que están viendo los jóvenes, abrir nuestros contenidos o nuestra manera de contar historias para que los jóvenes se sientan interesados en ello.

¿Cuál será el futuro de las experiencias inmersivas?

Cada vez hay más pantallas por todos lados y siempre se está intentando generar contenidos para captar la atención y que puedas interactuar con ellos.

Por ejemplo, cada vez hay más exposiciones inmersivas. Vemos a Van Gogh o Frida Kahlo o Dalí en salas envolventes 360 donde puedes

disfrutar de contenidos y sentir que estás dentro. Esto va a ir a más, es evidente. La gente va a un museo y a veces no solo quiere ver un cuadro, quiere estar dentro.

No creo que todo vaya a ser así, pero una gran parte de los contenidos de entretenimiento van hacia el mundo inmersivo. La realidad aumentada tiene unas posibilidades increíbles.

¿En qué otros proyectos estáis trabajando ahora?

Entre otros trabajos, estamos con un proyecto de realidad virtual que se llama “Oso, tigre y dragón”. Es una experiencia de realidad virtual, basada en un libro, acerca del crecimiento personal en el que la realidad virtual te ayuda a convertirte en tu mejor versión.

También estamos desarrollando el de Ramón y Cajal, una experiencia de realidad virtual, para el museo de Ciencias y el CSIC, en el que se podrá conocer la figura de Ramón y Cajal. Podrás participar en los descubrimientos que hizo y le hicieron ganar el Premio Nobel, ver las neuronas a través del microscopio como las veía él y entrar dentro del cerebro y descubrir cómo funciona la sinapsis cerebral. Con esta experiencia vamos a dar un salto a nivel tecnológico. Estamos haciendo muchísimas pruebas antes de poder adaptar el guión, para que el guionista sepa realmente lo que podemos y lo que no podemos hacer. Hay que tener mucho cuidado. La imaginación no tiene límites, pero la tecnología sí.

En cuanto a producción virtual, estamos trabajando con una productora para hacer formatos de televisión con producción virtual y hasta ahí puedo leer. Habrá más que contar en un futuro.

¿Cuál es el futuro de la compañía?

Tiene un gran futuro porque la producción virtual es algo que está empezando. Hemos demostrado que somos capaces de hacer un proyecto como Mapi y es una buenísima carta de presentación. Esto es lo que nos está ayudando a que se abran puertas. Ha hecho que Iralta VP esté entre las compañías españolas mejor preparadas para afrontar el futuro de la producción virtual. Yo creo que va a ser muy bueno.

Por otra parte, el futuro de nuestra compañía es la internalización. Estamos a un nivel en el que podemos competir con proyectos de fuera. De hecho, estamos hablando con gente de fuera para desarrollar formatos. El mundo es global y nosotros vamos a trabajar para estar ahí.

Un futuro rodeado de experiencias inmersivas.

A veces hay que creer. Hay que creer en las corazonadas y ver, que cuando descubres algo y piensas que es el futuro, tienes que perseguirlo.

Recuerdo durante la pandemia, que estuvimos todos encerrados, estar en casa jugando con Unreal y descubriendo las posibilidades que ofrecía y decir… esto es el futuro, vamos a por ello. Esto es el ejemplo de que hay que perseguir los sueños.

IRALTA VP
EXPERIENCIAS INMERSIVAS TM Broadcast 39

Utopía Voyagers El metaverso ya es una realidad

Para ahondar en lo que nos espera en un futuro con el metaverso, hemos hablado con Edgar Martín-Blas, CEO y director creativo de Utopía Voyagers.

Con 230 proyectos a sus espaldas, ha publicado su libro “Pioneros en un viaje más allá de la realidad”, donde relata la experiencia con estos proyectos, cómo ha sido enfrentarse a lo desconocido, cómo fueron aquellos días y cómo lo vivieron.

¿Qué es Utopía Voyagers y cómo nace? ¿Cómo se ha desarrollado la compañía a lo largo de los años y en qué punto se encuentra ahora?

Virtual Voyagers empezó en un prototipo en el año 2013/2014, que fue cuando empezaron a aparecer los primeros prototipos de gafas virtuales. En aquel momento había unas muy importantes, las Oculus,

que fueron creadas con un kickstarter. Yo tuve la suerte de tener uno de esos prototipos y vi el potencial que tenía, que venía algo muy fuerte, pero evidentemente solo era un prototipo. No había mercado ni había nada.

Nos juntamos varios amigos, empezamos a investigar y a hacer I+D. Inicialmente fue por hobbie, no

había todavía ninguna estructura empresarial. Empezamos a coordinar y ocurrió algo curioso, las marcas empezaron a llamar porque también veían el potencial. Tuvimos la suerte de que, antes de crear cualquier estructura, ya teníamos clientes que querían trabajar con nosotros. Grandes marcas tipo Ferrari, Vodafone, Inditex... Era como que querían jugar.

40 EXPERIENCIAS INMERSIVAS TM Broadcast UTOPÍA VOYAGERS

De esa forma fuimos haciendo muchos trabajos hasta que en el año 2020 ya habíamos desarrollado 230 proyectos y trabajado con más de noventa marcas. Empezamos a expandirnos con proyectos internacionales y fue muy bien.

A raíz del proyecto con Meta y todo el inicio del concepto del metaverso recibimos en 2022 la llamada del grupo Utopía, que viene de Los Ángeles, y nos hizo una oferta de adquisición para integrarnos dentro de un ecosistema grande que están creando de metaverso, artistas, celebrities… En junio de 2022 nos integramos y ahora hemos cambiado de Virtual Voyagers a Utopía Voyagers.

¿En qué consistió exactamente el proyecto de Meta?

En 2020 recibimos este proyecto. Estaban preparando todo lo de su metaverso y querían hacer una plataforma de conciertos que fuera en un entorno completamente virtual.

Consistió en crear unos conciertos virtuales que, digamos, fueran configurables en todo el escenario. Es decir, tú tienes un espacio vacío donde vas arrastrando objetos tridimensionales, altavoces, el escenario o incluso puedes cambiar todo y hacerlo en un platillo volante, lo que quieras. Luego se integraba todo el equipo, el cantante, los bailarines... todo rodado en el mundo real, pero integrados totalmente en ese escenario. Pero no se trata de una posproducción. Todo esto ocurrió en tiempo real.

¿Cuál es vuestra forma de trabajar y en qué tecnología os apoyáis?

Normalmente, cuando afrontamos un proyecto hay diferentes tecnologías. Por una parte, la tecnología a la

41 TM Broadcast UTOPÍA VOYAGERS EXPERIENCIAS INMERSIVAS
El equipo de Utopía Voyagers.

EXPERIENCIAS INMERSIVAS

que llamamos protometaverso, que se trata de entrar a un metaverso con una pantalla normal, como puede ser tu móvil. Evidentemente no es inmersivo ni experiencial porque no estás dentro, pero sirve como transición para que la gente vaya entrando. Cuando hacemos un proyecto basado en pantalla se suele hacer con WebGL, un protocolo que permite que cualquier navegador pueda entrar a un mundo tridimensional, conectarse con otros usuarios, moverse y actuar sin tener que instalar ninguna aplicación. Ya se ha estandarizado, es compatible con todo y te permite crear metaversos accesibles con un click.

Otra vía sería la virtual. Es el metaverso en su máxima expresión. Estás dentro, tienes presencia, puedes interactuar y poco a poco se va extendiendo.

¿Con qué tipo de herramientas contáis?

Sobre todo trabajamos con tres herramientas. Una es Unity, que es como un creador de mundos tridimensionales y programación orientado a videojuegos y también al metaverso.

Otra, Unreal Engine, que sería como más calidad, pero también es verdad que no es tan todoterreno para que se pueda adaptar a todos los dispositivos.

Y luego tendríamos la WebGL, que nosotros trabajamos por ejemplo con Play Canvas, un editor de mundos tridimensionales y de programación muy bueno y súper compatible con todo.

Luego, evidentemente, le agregamos vídeo 360 streaming y tropecientas tecnologías, pero las que digamos que hacen un poco como editor serían esas: Unreal Engine, Unity y Play Canvas.

A raíz del proyecto con Meta visteis que venía algo grande. El concepto de metaverso empezó a cobrar fuerza, ¿qué supone esta nueva tecnología? ¿En qué punto se encuentra y qué debemos saber sobre ello?

Ahora ya empieza a ser un sector un poco más profesional pero todavía queda mucho. Aún estamos en el Salvaje Oeste, todavía quedan por lo menos cinco o seis años. Es algo muy cambiante que se está redefiniendo, pero eso es lo divertido.

Va a tener una absorción de tecnologías enorme, virtual, realidad aumentada, inteligencia artificial, la blockchain… todo en una cosa que todavía no tiene forma, pero que poco a poco se está consiguiendo.

En el mundo hay unos 30 y pico millones de gafas de alta calidad, y dentro de poco PlayStation también va a vender sus gafas. Pero todo esto es poco a poco, al igual que los

42 UTOPÍA VOYAGERS TM Broadcast

móviles. Cuando iPhone salió solo vendía unos 7 millones de unidades y ahora son cientos. Lo virtual va mejorando poco a poco. Las gafas serán más baratas, más ligeras y mejores. Con el tiempo se parecerán a unas gafas normales de ver. En vez de calcular el metaverso con la gafa lo que hará será conectarse a la nube y la nube renderizará el metaverso. Eso se está trabajando ahora con empresas como Nvidia, que están creando un omniverse, toda una plataforma del cloud para que la gafa no procese nada y todo se haga en la nube.

De esa manera, también se está trabajando para que sea más accesible para el público en general, ¿no?

Claro, porque ya no depende de tu dispositivo. Tu dispositivo solo tendrá que conectarse por Wifi o lo que haya en ese momento. Falta depurarlo y que vaya bajando de precio porque es caro. Para que lo entendamos, ahora mismo estamos en el momento en el que se ha inventado el cine. Hay curiosidad y es algo muy interesante, pero técnicamente que-

dan cosas que arreglar. Igualmente ya se empieza a generar una gran industria.

Por ejemplo Zepeto, es un metaverso coreano con 350 millones de usuarios que ya interactúan. Roblox es un protometaverso que también tiene 60 millones de usuarios activos al día. Normalmente son generación Z, por debajo de los 20 años. Todos esos usuarios apenas ven la televisión, tienen sus amigos en el metaverso y sus amigos reales. Todo esto ahora lo costean los padres, pero dentro de cinco años ya no serán niños, sino potenciales consumidores. Por eso el camino hacia el metaverso no es a un año vista. Internet no se construyó en un año, tardó décadas.

¿Podríamos decir que estamos en un inicio avanzado del metaverso?

Sí, un inicio avanzado que es real. Por un lado, como empresa puedes facturar y ganar bastante dinero. Por otro lado, como usuario puedes acceder a mundos de metaverso muy buenos, pero evidentemente,

son como las primeras páginas web que solo eran fotos y texto.

Lo único que falta para que el metaverso sea ese concepto en mayúsculas es que estemos interconectados. Es decir, igual que en Internet vas con links de una página a otra. Ahora mismo, en el metaverso, se están construyendo mundos aislados que tienen una pequeña conexión porque están en la misma store de meta. Entonces, ¿qué se está trabajando? Pues se ha creado el Metaverso Standard Forum, que es como un foro de muchas marcas grandes para empezar a trabajar en cómo va a ser la interoperabilidad entre metaversos.

Por ejemplo, yo entro con mi avatar, tengo unas posesiones, una cartera para hacer pagos, etcétera. El objetivo es que si entro en el de Disney y luego salto al nuestro, o al de Vodafone o al de Inditex, sea todo muy fluido. Como estar entrando en un mundo que tiene muchos mundos, pero continuo con mi avatar, mi wallet y mis posesiones. En 2023 ya empezaremos a verlo seguramente.

EXPERIENCIAS INMERSIVAS TM Broadcast
43 UTOPÍA VOYAGERS

Por poner una metáfora, ¿sería como ir por la Gran Vía de tienda en tienda?

Eso es, pero se requieren estándares y por eso está el que va a unificar todo. Será una conexión con la blockchain que te diga el usuario, el wallet, qué avatar tienes, qué has comprado en tu historial, etc. Pero como siempre digo, no sale inventado, todo esto hay que ir haciéndolo. Además, se agregan tecnologías que están sumando al metaverso. Está la blockchain, la web 3D o la inteligencia artificial, que ahora está muy disparada y ya se ha logrado que tenga razonamiento de bastante nivel. Esos metaversos estarán poblados por gente y por inteligencia artificial.

¿Es posible que generaciones anteriores sean más reticentes a todo esto?

Eso es muy habitual, al igual que cuando apareció Internet. Cuando sale algo muy drástico, algo que cambia los cimientos de lo que conoces, suele pasar. Normalmente es como las etapas del duelo de las personas.

Primero hay un momento de negación, de pensar que esto es imposible. De repente ves que todos, en este caso la generación Z, se están metiendo ahí y que nadie ve los canales de televisión y piensas, pues igual está pasando algo. Entonces llega la ira del “no debería ser”, “es que la tele de toda la vida...” o “es que el Internet de toda la vida tiene que seguir siendo lo que es”. Te entra la ira porque ves que está ocurriendo. Luego llega el momento de depresión, porque ves que no puedes contra todo eso, es algo que te supera. Y, por último, la aceptación, cuando entiendes que es un canal

más que viene y que no va a destruir nada, simplemente es algo nuevo. Cuanto antes termines de pasar esas fases más adaptado estarás al futuro, porque si te quedas en la negación luego todo esto te va a comer.

¿Crees que después de pasar todas estas etapas de duelo se podría llegar a una etapa, llamémosla, de deseo? ¿La gente lo va a querer?

Eso es. La tecnología y el hardware van mejorando. Al igual que los primeros teléfonos eran enormes y nadie los quería, hasta que apareció el Iphone. Hay que esperar un poco para que todo vaya mejorando, pero llegará un momento en que sea tu herramienta directamente.

Por ejemplo, hemos oído mucho sobre las gafas de realidad virtual que pesan mucho y que eso no puede triunfar. Obviamente hay

EXPERIENCIAS INMERSIVAS
44 UTOPÍA VOYAGERS TM Broadcast

gente que ya está pensando en cómo hacerla más ligera y mejorarlo. Apple, por ejemplo, no te va a presentar algo muy pesado y grande.

Será algo muy chulo, cool y muy fino. Eso hará que mucha gente empiece a trastear con todo esto. Lo bueno es que es un sector que se está creando con calidad, no se está haciendo rápidamente y mal.

¿Qué impacto tendrá el metaverso en cuanto al broadcast?

Se trata, sobre todo, de un tema de comunidades. Los programas televisivos tienen su audiencia y una comunidad asociada. El metaverso va a ser el lugar donde ese programa se expanda y puedas compartir espacio con otros fans del programa, entre otras cosas.

Primero irá conviviendo. Yo lo expando a ese universo, donde ocu-

rrirán más cosas que la emisión de una hora o media hora que dure el programa. Y luego, al revés. Lo que ocurrirá es que cosas que antes ocurrían como formato vídeo directo a la televisión, será en tiempo real hacia el metaverso.

¿En qué punto estaría el mercado ahora mismo?

Es real y ya se están haciendo cosas. Ahora mismo hay muy pocos players, mucha teoría y todo el mundo teoriza el metaverso, pero realmente los que están metidos en este mundo son muy pocas empresas con capacidad real.

La competición no está en teorizar, está en tener las capacidades

UTOPÍA VOYAGERS
EXPERIENCIAS INMERSIVAS TM Broadcast 45

técnico-creativas que te permitan desarrollar un proyecto en el metaverso.

Ahora mismo hay un sector con muy poca competencia. De hecho, podríamos decir que hay una mezcla entre gente que dice que puede hacer algo, pero no lo ha demostrado nunca, contra los que están trabajando de verdad en ello. Entonces, hay un mercado muy depurado en el que solo entra el que de verdad muestra su conocimiento. Da igual el dinero inicial que inviertas si no cuentas con conocimiento del mercado, porque entonces tu valor es cero.

¿Las grandes cadenas de televisión se tendrán que adaptar a estas nuevas tendencias?

Las cadenas de televisión ya se están adaptando. Cuando vean en

sus estadísticas que la generación Z no les está viendo no lo van a poder obviar. Estas generaciones tienen un modo alternativo de ver las cosas. Es un cambio generacional muy grande.

Hay que estar preparado, pero como digo, no hablamos de futuro, ya no. El asunto estará en quién se adapta y quién no.

En cuanto al contenido que consumimos y se desarrolla en el mundo broadcast, ¿se va a poder adaptar o va a tener que cambiar?

Tiene que cambiar, porque realmente el formato no es el mismo. No se trata de un escenario donde ocurren cosas, estamos hablando de mundos.

Imagina un programa infantil. Ahora se trata de un plató donde se hacen cosas. Con el metaverso con-

vivirán. A lo mejor en el plató seguirán ocurriendo esas cosas, pero luego en el metaverso, despliegas un mundo entero donde incluso puedes tener venta de productos y juegos, suscripciones… Además, esto permite que no se dependa de una parrilla de tiempo, ese mundo tendrá 24 horas de funcionamiento. Esto es una ventaja.

El tema está en no verlo como una moda o que quizá llegue o quizá no, sino que ya está ahí.

Está claro que presenta infinitas posibilidades pero, ¿qué limitaciones puede tener?

Las limitaciones, ahora mismo, son básicamente de hardware. Por ejemplificarlo, estamos en esos primeros móviles un poco rudimentarios pero que funcionan. Se trata de tiempo y de que poco a poco vaya mejorando.

EXPERIENCIAS INMERSIVAS 46 UTOPÍA VOYAGERS TM Broadcast

En cuanto a la red va bien. Con la red que tenemos vamos sobrados para el metaverso. Con el hardware necesitamos que sea cada vez más ligero, más barato y que el usuario no lo vea como que está entrando en el metaverso, sino como igual que vemos ahora el hecho de abrir el móvil. Me pongo unas gafas de realidad virtual y es inmediato, lo tengo aquí delante. Y ya se está trabajando para ello, para que sea inmediato.

¿Cómo crees que va a evolucionar la tecnología?

Va a llegar un momento en que las gafas o los elementos que vayan saliendo van a ser híbridos entre lo que llamamos el metaverso cien por cien virtual y el metaverso mixto.

El metaverso virtual será ese otro mundo donde yo, por así decirlo, desaparezco y estoy inmerso en ese otro mundo. Pero tampoco puedes estar metido ahí cinco horas, sino que estarás una hora como mucho. Pero luego está el metaverso mixto, que es para el que empresas como Apple, Meta y muchas otras están preparando dispositivos. Ya hay algunos como Magic Leap, que son unos cristales transparentes que escanean todo lo que hay a tu alrededor.

Para ejemplificarlo, yo puedo hacer que de repente, aquí donde estoy, aparezca un entrenador de aerobic y entrenar con él. Realmente está aquí, conmigo, y entiende que en el espacio hay una mesa, una puerta y sabe actuar en función del entorno. Parece de ciencia ficción, pero ya existe. Ya no se trata de aislarte e ir a otro mundo, sino que con-

vive contigo. Eso podría llegar a ser el sustituto del móvil, por eso Apple se está metiendo en todo esto.

En una palabra o frase, ¿cuál dirías que es la clave para entender el metaverso?

Yo diría que es como entrar en un sueño lúcido. Todo eso que no puedes hacer en el mundo real. En el metaverso se van a proponer lugares y situaciones que en el mundo real jamás podrías hacer, precisamente porque para eso está el mundo real. El mundo real no hay que sustituirlo, simplemente será como vivir sueños lúcidos de cosas imposibles que antes no podíamos vivir. Por ejemplo, con la narrativa de una película o una serie, puedes estar dentro y ser parte de todo ese mundo con millones de personas más.

Imagina ir al cine a ver la película de Avatar. Verás la película como siempre y luego podrás entrar al mundo de Pandora para explorarlo, como si fuera un parque temático y alucinar.

Volviendo a Utopía Voyagers, ¿cuál crees que es el futuro de la empresa?

Estar en esa ola que hay ahora del metaverso, que ya estamos dentro, pero habrá muchos cambios. Pero es bueno, eso nos gusta y llegará un momento que realmente para nosotros lo importante no es ser los más grandes, sino que dentro de veinte años o cuando decidamos parar un poco, digamos, estuvimos allí. Estuvimos en esos días del inicio, construimos el metaverso. Nos podemos morir tranquilamente porque

hemos hecho algo grande. Eso es lo más importante realmente. Es una evolución hacia intentar ser un player que creó parte de esto, en un porcentaje pequeño, pero que ayudó. Jugamos las cartas bien, nos lo pasamos muy bien y fuimos de los que creyeron en todo esto.

¿En qué próximos proyectos estáis trabajando?

Estamos construyendo un producto propio dentro de Utopía Voyagers. Un mundo entero que estamos creando para trabajar con grandes marcas, celebrities, artistas y grandes alianzas. En 2023 habrá noticias de todo esto, pero ya vamos a ese nivel de cómo tiene que ser el metaverso en los próximos años. Estamos yendo hacia lo que queremos, que debería ser ese mundo que parezca real.

Cada vez está más cerca ese metaverso que se plantea…

Hay que mandar un mensaje de tranquilidad. El metaverso no se hace en un año, ni ha muerto, ni ha resurgido. Lleva haciéndose décadas. Es la suma de tecnologías a la que poco a poco se le ha dado un nombre y ahora que tiene un nombre, se continúa. Evidentemente es un negocio que está moviendo billones en el mundo de facturación real. Es una industria que poco a poco va creciendo y que con los años veremos el resultado. No viene a suplantar a nadie, ni a destruir la tele, ni el cine ni nada. Como ya he dicho, es un nuevo canal en el que tú eres parte del contenido.

UTOPÍA VOYAGERS EXPERIENCIAS INMERSIVAS TM Broadcast
47

Facultad de Producción Virtual La integración de TSA en la Universidad

Rey Juan Carlos

Campus de Vicálvaro

48 PRODUCCIÓN VIRTUAL TM BroadcastUNIVERSIDAD REY JUAN CARLOS

Telefónica Servicios Audiovisuales ha desarrollado la renovación de los estudios broadcast para estudiantes de la Universidad Rey Juan Carlos, una de las universidades públicas españolas más atentas a los desarrollos tecnológicos industriales asociados a las carreras de Comunicación. Tanto es así que, en sus dos campus —Vicálvaro y Fuenlabrada—, han decidido implementar infraestructuras que podríamos encontrar en cualquier broadcaster de prestigio nacional e internacional. Por supuesto, siempre adaptado al entorno educativo. En esta entrevista descubrirán, de la mano de los titulares de la universidad, Víctor Alonso, técnico en los estudios de Vicálvaro, y Antonio Lara, profesor de Comunicación; cuáles son las ópticas desde las que los docentes observan la viabilidad de estos estudios, así como los objetivos educativos a los que destinarán estos recursos.

Por otro lado, José Luis Coto, ingeniero de Proyectos de TSA y Product Manager del proyecto de la Universidad Rey Juan Carlos en el campus de Vicálvaro, les aportará el punto de vista del integrador: quien mejor conoce los equipos implementados, las razones de su instalación y los retos que se han encontrado por el camino.

¿Qué instalaciones y recursos audiovisuales tiene la URJC en el campus de Vicálvaro?

Antonio Lara: La sede original es el campus de Fuenlabrada. Pero llega un momento en el que la universidad da el paso y decide que también va a ofrecer las titulaciones de comunicación en este campus. Entonces, una de las decisiones que se toma es habilitar ciertas instalaciones como plató profesional.

Víctor Alonso: Esto se desarrolló entre 2005 y 2006. El campus de Vicálvaro cuenta con un plató y su estudio de realización. También tiene cinco estudios de radio. Una sala de edición de vídeo con 70 puestos con AVID Media Composer. Cuatro cabinas de postproducción equipadas con AVID y DaVinci Resolve de Blackmagic. A parte de estos recursos, también disponemos de un pequeño set de croma con un pequeño control de realización.

Antonio: Realmente, este segundo plató es un poco más reducido y está pensado para elaborar contenidos de realidad virtual. Ahora se ha quedado relegado a un segundo plano porque la nueva instalación que hemos desplegado en este ya está orientada a la producción virtual. No obstante, seguirá operativo como una alternativa si el principal está en uso.

49 TM Broadcast UNIVERSIDAD REY JUAN CARLOS PRODUCCIÓN VIRTUAL

Durante todo este tiempo ha ido creciendo el campus de Vicálvaro. Evidentemente, llega un momento en el que hay que actualizar las instalaciones para que se acerquen al nivel de la industria.

Desde el punto de vista de la universidad, las necesidades que tenemos para dar clase no son las mismas que las de una productora. Esto hay que tenerlo en cuenta. No necesitamos que la calidad de imagen, por ejemplo, sea la máxima porque no vamos a vender los productos. No vamos a despreciarlo tampoco, pero como todo cuesta dinero, en eso no hay que poner todos los fondos. No obstante, lo que sí necesitamos es que el modo de operar sea exactamente igual al que luego se van a encontrar en el mundo profesional. Los alumnos deben trabajar con un material que les proporcione el conocimiento necesario para que cuando vayan a cualquier empresa sepan usar las herramientas con las que se trabaja habitualmente.

¿De dónde partíais?

Víctor: Trabajábamos con SD. Todo era Grass Valley, la mezcladora, las cámaras y las OCC.

Antonio: Era un buen material. Pero ahora hemos dado el salto a HD.

Víctor: La mesa de sonido era Yamaha. Ten en cuenta que todo se montó en 2006. Había software que se había quedado totalmente obsoleto.

Antonio: Teníamos hasta magnetoscopios físicos. El playout que había era pedestre.

Víctor: Sí, era muy básico, solo tenía una tarjeta para reproducir. Por otro lado, antes el estudio solo tenía tres cámaras. Ahora hemos ganado dos más. Una cámara en una grúa y una PTZ.

¿Qué es lo que habéis instalado?

José Luis Coto: Básicamente el plató de virtual, con cinco cámaras Sony, tres cámaras de estudio HXCFB80HN y una ENG PXW-Z280 montada sobre una grúa de Systec, una cámara robotizada PTZ BRC-X1000. Las OCC HXC-FB80N y los paneles de control de cámara RCP-3500. Todo de Sony. Las ópticas son de Fujinon.

El mezclador de vídeo es de Grass Valley, el modelo Kula. Hay un sistema de titulación de vídeo CG Newtek LiveCG Broadcast SDI y un sistema de playout de AxelTech. La mesa de sonido es Yamaha. La virtualización es de Aximmetry. Las cinco cámaras están renderizadas.

Posicionamiento de Mo-Sys. Intercom de AEQ con una matriz Crossnet. Una matriz de 32 por 32 con sus respectivos controles de cámara. La microfonía es de Sennheiser.

¿Se ha desarrollado la instalación sobre IP?

José Luis: Las señales se transportan por fibra, pero al final es un SDI. Los protocolos sobre los que trabaja la instalación es SMPTE.

¿Cuál ha sido el objetivo principal de esta renovación?

Antonio: Acercarnos al mercado, sí. Que los alumnos cuenten con un plató real. Tanto como por la tecnología que hay aquí ahora mismo, como la que hay en Fuenlabrada. Tenemos, de hecho, lo mejor que hay en el mercado. Debemos tener en cuenta que estas inversiones son a largo plazo. Vamos a tener esto durante muchos años. Pero vamos,

PRODUCCIÓN VIRTUAL 50 UNIVERSIDAD REY JUAN CARLOS TM Broadcast

que estoy seguro de que hay muchos platós que no cuentan con equipos tan buenos como los que tenemos ahora mismo aquí.

Hay mucha competencia entre las universidades por tener lo mejor. Esto es rotativo, hoy podemos ser la universidad de España con más recursos. Pero seguro que en unos años llega la Complutense y renueva su equipamiento. Pero lo cierto es que es una competencia sana que también fomenta que crezca el nivel educativo de los alumnos.

¿Cuál ha sido la principal motivación para incorporar técnicas de realidad virtual? ¿Habéis optado por la pantalla verde, otros han apostado por los LED?

Antonio: Sí, pero es mucho más caro.

La decisión de instalar esta tecnología viene dada porque, efectivamente, es una realidad que se está

imponiendo ya en muchos sitios. De hecho estamos viendo la posible colaboración con Telemadrid. Esto es debido a que van a implementar un sistema muy parecido. La colaboración está asociada al integrador, TSA.

Lo que pasa que tampoco podemos dejar que la tecnología nos domine. Está disponible, pero los profesores estamos pensando en darle el uso adecuado. Estamos volcados en encontrar el proceso de aprendizajes para los alumnos más adecuados.

Por lo tanto, tenemos que ser capaces de crear rutinas específicas. Por ejemplo, yo estoy ya buscando fondos para utilizar estos recursos de la misma manera que los veníamos utilizando hasta ahora. Lo ideal sería involucrar a los alumnos y que, por ejemplo, los de telecomunicaciones colaboren para que se creen sinergias entre todos los grados.

Pero está claro que la inversión ha sido muy buena porque los alumnos le pueden sacar mucho partido a la instalación.

¿Por qué estáis optando por Aximmetry?

José Luis: La primera razón para implementarlo es que abarata los presupuestos. Pero lo segundo es que el rendimiento está muy a la par de lo que hay actualmente en mercado. Además, el hecho de que sea un open source y se da la posibilidad de que siga desarrollándose constantemente, eleva muchísimo las posibilidades creativas. De hecho, veo que es un producto perfecto para la universidad porque permite al que lo está usando desarrollar assets a un nivel muy profesional. Está basado en Unreal, pero permite hacer muchísimas cosas. En Movistar tienen dos sistemas, tanto Aximmetry como Vizrt y por lo que comentan no tienen mucho que envidiar a soluciones tan potentes como las de los suecos.

Lo más interesante es precisamente la habilidad de crear sin restricciones. Con otras soluciones necesitas licencias para hacer cosas, ya que las capas impuestas sobre los sistemas son más opacas. Pero este es un sistema accesible que se basa en el estándar de la producción virtual, es decir, el motor de Unreal. De hecho, en televisiones profesionales, están valorando este producto en detrimento de las soluciones más habituales.

¿Ha habido también alguna renovación en las instalaciones de radio de la universidad?

UNIVERSIDAD REY JUAN CARLOS PRODUCCIÓN VIRTUAL TM Broadcast
51

Víctor: Sigue pendiente. Tenemos unos recursos de radio basado en software antiguo de AEQ y cuatro mesas analógicas y entonces ahora sería saltar las mesas digitales, equipararnos un poco a la tecnología de Fuenlabrada. Allí tienen mesas digitales IP Capitol de AEQ. La idea es hacer un upgrade como hemos hecho en el plató de televisión. Ahora estamos considerando si continuar con Audioplus de AEQ o pasar a Dalet.

¿Cuáles son los usos que se le darán a estos estudios?

Antonio: Para empezar, la prioridad los estudios de grado. A partir de ahí, vamos subiendo. Es decir, por un lado están los estudiantes de máster. Luego, por supuesto, los alumnos de TFG. Que se supone que son los más experimentados y que suele aprovechar los últimos equipos que vamos implementando.

Lo cierto es que con los que más cuidado tenemos que tener son con los alumnos que por primera vez empiezan a gestionar estas herramientas. Con ellos siempre debe haber un profesor supervisando, pero a medida que van evolucionando en sus estudios se les va dando un poco más de independencia.

¿Existen colaboraciones entre distintos grados que traten de sacar el máximo partido a estas instalaciones?

Antonio: Ha habido alguna colaboración anterior. Por ejemplo, con los alumnos de telecomunicaciones. No obstante, colaboraciones entre los grados de comunicación y de

periodismo, que serían las más lógicas, no suelen darse pero porque ya se está ofertando un doble grado basado en esas dos ramas. Por lo tanto, se alojan las colaboraciones que van surgiendo sobre la marcha.

Víctor: También está la productora de la universidad. Que suele favorecer estas dinámicas.

Antonio: Efectivamente, y en ella participan todos los alumnos de comunicación. En esta facultad hay tres unidades de esta área: comunicación audiovisual, periodismo y publicidad. Aunque cada uno de estos grados tenga un profesor responsable, también tiene alumnos responsables de esa tarea. Entonces los de CAV se dedican a la creación de piezas de todo tipo, —como tutoriales para ayudar a la docencia—, los de periodismo tienen una publicación digital y los de publicidad también se dedican a la creación de campañas. Aunque todo este sistema

es muy dinámico. No hay unos puestos fijos que los alumnos de las distintas facultades y los distintos alumnos tengan que cubrir, sino que se ofrece un modelo dinámico para que sean los propios alumnos los que aporten proyectos.

¿Cuáles son los retos que ha encontrado la universidad en esta implementación?

Víctor: Para facilitar la vida a los profesores nos hemos basado en el proyecto que se desarrolló en Fuenlabrada.

Antonio: Ese proyecto se desarrolló antes y el que hemos desarrollado aquí ha ido a la estela.

Víctor: No ha sido igual, ni mucho menos, porque aquí el espacio es más reducido y las necesidades han sido distintas. Por lo tanto tuvimos que rediseñar ese proyecto y adaptarlo al campus de Vicálvaro. En ello nos ha ayudado mucho TSA. La rela-

PRODUCCIÓN VIRTUAL 52 UNIVERSIDAD REY JUAN CARLOS TM Broadcast

ción ha sido muy buena y estamos muy contentos con ellos porque nos han ayudado mucho a encajar las diferentes piezas.

Desde la perspectiva de TSA. Este es un proyecto basado en el implementado en el campus de Fuenlabrada. ¿Cuáles han sido los retos de la integración?

Claro, no es lo mismo que en Fuenlabrada. Allí son dos estudios, no tienen grúa, no tienen el mismo número de cámaras, algún equipamiento cambia también. Por lo tanto nosotros les hemos ido acompañando y aplicando soluciones específicas. Por ejemplo, se ha desplegado una ingesta compartida con su propia red, una solución muy específica personalizada para las necesidades de la universidad. Les hemos añadido más líneas de vídeo para que se acostumbren a lo que los alumnos se encontrarán en el día a día. Esto se realizó en la fase de diseño.

Luego en la implementación también se ha optado por la flexibilidad. Ha habido cambios que no estaban planteados. Por ejemplo, hemos integrado una NAS de almacenamiento compartido para que puedan acceder a repositorios comunes pero a través de un PC de pasarela para proteger el sistema y la red. Se han desarrollado soluciones que no estaban contempladas en el pliego en un principio, pero que había que hacer para dar viabilidad al proyecto. Por ejemplo, se vio que en el caso del mezclador, todas las secuencias de TGAS y todos los faldones van cambiando según los grupos de alumnos.

No tendría sentido que estos estudiantes introdujeran sus pinchos USB directamente en la máquina. Por eso pusimos ese PC pasarela dedicado a este propósito y lo conectamos con el mezclador con una red VLAN aparte.

En resumen, lo que hemos hecho es adecuar el flujo de trabajo de la televisión a los pormenores que tendría ese modelo en un entorno de educación como es el de la

Universidad Rey Juan Carlos. Un grafista no va con su pincho a la televisión. Su media es ingestado en un repositorio. De hecho, la universidad tiene un sistema de edición de AVID. Estamos pensando en implementar una NAS intermedia para poder tener un semiflujo automático de envío y transmisión de media.

La relación está siendo muy buena. Y la ayuda y la predisposición de ambas partes están siendo impresionantes.

UNIVERSIDAD REY JUAN CARLOS PRODUCCIÓN VIRTUAL TM Broadcast
53
54 DIRECTORES DE FOTOGRAFÍA TM Broadcast ALEJANDRO MARTÍNEZ

De familia cineasta y nacido en la Ciudad de México, Alejandro Martínez ha creado su propio camino como director de fotografía. Nominado a los premios Goya por su trabajo en “Autómata” y con más de 20 años de recorrido, el reconocido director de fotografía nos cuenta sus impresiones sobre el oficio y cómo fue trabajar en la producción de “House of the Dragons”.

¿Quién es Alejandro Martínez y como entró en el mundo de la cinematografía?

Empecé como cinefotógrafo desde muy joven por mi familia. Mi abuelo fue un director de fotografía muy prolijo en la época de oro del cine mexicano. Comenzó muy joven, desde los 20 años, y dirigió la fotografía de todo tipo de películas. Hizo alrededor de 250, desde género de luchadores hasta películas con Luis Buñuel. Mi padre se dedicó un poco más a la publicidad, pero también estuvo en el set muchos años. Tíos cineastas, hermanos cineastas... yo crecí en los sets.

Por la figura de mi abuelo, sabía que quería ser director de fotografía antes de saber lo que significaba realmente y, en efecto, me fui encaminando. Realicé mis estudios e hice todo el recorrido, desde meritorio a cámara, asistente de producción, operador, luego me fui al lado de los eléctricos y llegué a ser jefe de eléctricos y después empecé a hacer mis cosas. Esos fueron mis inicios. Es el oficio de la familia. Nos dedicamos a esto desde hace 100 años, está en el ADN familiar. Algunos hemos podido escoger, otros no tanto, pero todos estamos ahí.

Comentas que has pasado por distintos puestos, desde trabajo en el set hasta puestos de mayor responsabilidad en cinematografía, ¿crees que esa experiencia te ha ayudado a realizar un trabajo concreto?

Sí. También soy maestro de cine, en la escuela de México, en el Centro de Capacitación Cinematográfico y siempre les digo a mis alumnos que no es necesario pasar por todos estos puestos para poder ser un buen director de fotografía, pero para mí fue muy importante hacerlo. Vivir los diferentes lados me enseñó lo que significa el trabajo de los demás, lo que cuestan las cosas o lo que requiere cada quien para hacer un distinto trabajo y luego poder solicitarlo. Pedir una luz, una cámara en cierta posición, cómo funcionan las mismas cámaras... el saber cómo hacerlo creo que te da una experiencia y conocimiento extra. ¿Cuál es la contraparte? Que requiere tiempo. Quizá, uno no quiere o no le interesa invertir ese tiempo, y también lo entiendo, pero para mí no hubo otra opción y agradezco que haya sido así, porque creo que tengo una idea más global de las cosas que ocurren en un set.

¿Es un camino común entre otros directores de fotografía o profesionales del cine?

Antes lo era, no había otra opción. Soy de una generación análoga y no fue hasta mi sexto o séptimo largometraje que empezamos a trabajar en digital. Había que tener una serie de conocimientos muy particulares sobre cómo se manejaban las cámaras, cómo se manejaban las luces, cuáles eran las disciplinas del set, los puestos eran como muy específicos. No había de otra, había que empezar desde abajo. No podías salir con tu cámara y ponerte a rodar porque no había acceso a cámaras.

Hoy en día creo que no es necesario. Puedes agarrar tu cámara, ponerte a rodar y realizar tus proyectos. Tienes muchos recursos a tu alcance y haciendo cosas puedes coger experiencia. Pero como digo, para mí fue importante. No sé si lo haría diferente ahora, pero fue lo que me pasó a mí y creo que me ayudó bastante.

Mi recomendación, cuando me preguntan, es que pasen por otros puestos y que vayan escalón a escalón, aunque cueste un poco más, pero la experiencia va a ser muy diferente, el oficio va a ser diferente e incluso el dominio de la profesión

55 TM Broadcast ALEJANDRO MARTÍNEZ
DE FOTOGRAFÍA
DIRECTORES

va a ser más rápido. La experiencia de trabajar con otras personas, ver otros puntos de vista y, a fin de cuentas, dudar de esos puntos de vista o desarrollar uno propio es muy importante.

Teniendo en cuenta lo que comentas sobre el acceso a la tecnología, ¿crees que es más sencillo llegar a la dirección de fotografía ahora comparado con antes?

La parte técnica es definitivamente más fácil. Trabajar con una cámara digital, la sensibilidad de los sensores o la retribución inmediata de estar viendo en un monitor lo que sucede, esa parte es más fácil. No pretendo hacer de menos a nadie con esto, pero el conocimiento técnico es menor. Cuando las cosas eran fotoquímicas y uno no tenía la tecnología de ahora, era como estar un poco a ciegas. Lo que te hacía ver era el conocimiento. Por ejemplo, ver como se estaba exponiendo ese negativo era conocimiento puro. Ahora es el monitor el que te dice si la exposición es correcta. Es diferente. La disciplina en el set también es diferente, aunque en este caso no diría si es más fácil o más difícil. El oficio de cinematógrafo, ser la herramienta que cuenta una historia visualmente no es ni más fácil ni más difícil, es la misma.

Esta profesión es por una parte arte y por otra parte oficio y creo que la parte de arte siempre será lo mismo. En cuanto al oficio, se trata de cómo englobas tu conocimiento, cómo te comportas en un set, cómo lo manejas, cómo te vuelves experto en ello… en eso ha cambiado. Ahora por ejemplo, con el proyecto de

Fallout, estoy rodando esta serie en 35 mm y es regresar a una cierta disciplina, un cierto conocimiento, orden y un control de tus elementos, porque nadie va a decirte que lo que estás haciendo está bien hasta tres días después.

Hablando con Pablo Rosso, director de fotografía argentino, nos comentaba que como tú empezó trabajando en analógico y que la forma de componer una imagen para cine se trabajaba desde la visión, desde los ojos, desde la escena, sin mirar cómo se reflejaba en un monitor. Eso le dio una cualidad profesional muy propia a la hora de trabajar mirando la escena, interpretando que es lo que podría pasar, ¿esto es algo común entre los que habéis trabajado en analógico?

Es literalmente lo que pasaba. Imagina hoy, en un set digital, que al empezar a rodar apagas todos los monitores. Ahí están las cámaras, las

luces, pero no vamos a ver nada en digital. En este caso tenemos un conocimiento más sólido. Saber qué te da una emulsión fílmica, cómo trabaja, que pasa con los blancos, con los negros, con la temperatura al color al exponer ese fílmico o que se le puede hacer. Básicamente es trabajar a ciegas.

Esa fue la magia de toda la vida del director de fotografía. Era esa persona, entre comillas, mágica que sabía cómo todo esto se estaba interpretando en un negativo. Hoy en día, con los monitores es mucho más sencillo para todos ver si algo funciona o no. Los fotógrafos de hoy en la escuela quieren clases y experimentar en analógico, pero llegan al set y todo es digital, entonces han cambiado mucho las reglas del juego. Creo que los que hicimos analógico sabemos un poco más acerca del proceso fotográfico, ahora bien, el proceso de hacer cine, ese sigue siendo el mismo.

DIRECTORES DE FOTOGRAFÍA 56 ALEJANDRO MARTÍNEZ TM Broadcast

¿Cómo fue tu progresión, dónde empezaste y cómo te involucraste en producciones más grandes?

A pesar de venir de una familia fílmica, mi padre se enfocó más a la publicidad, entonces yo conocía sets de publicidad. A partir de los 14 o 15 años. Mis trabajos de verano fueron como meritorio en sets de publicidad. A partir de ahí empecé a crecer. Estudié una carrera en Ciencias de la Comunicación, luego estudié cinematografía, hice cursos específicos y al principio de mi carrera como director de foto me dediqué a la publicidad, ya que eran los contactos que yo tenía. Era mi manera de estar en el set e ir progresando. Pasaron como 4 o 5 años antes de tener acceso al cine.

Mi trabajo de publicitario me conectó a directores de cine muy interesantes, entre ellos uno de mis grandes amigos y de mis directores favoritos de Madrid, Gabe Ibañez. Así empecé en el mundo del cine. Primero en México, hice cine de terror, como en 2004 o 2005, e hice un par de producciones con Filmax en España. Después, realicé un par de películas americanas, también de terror. Todo esto en fílmico, aún no existía el digital. Después de varias películas, sobre todo de terror, finalmente hago una película española llamada “Hierro”. “Hierro” es la segunda película digital que se hace en Europa en ese entonces. Nosotros rodamos con la primera cámara Red, la Red One. Era la primera cámara digital como tal y tomaba 24 fotogramas digitales por segundo. Recuerdo que la textura de “Hierro” era muy interesante. Enseguida supimos que esto era el futuro.

Después, hice una película más en fílmico que fue “Memoria de mis putas tristes”, adaptación de Gabriel García Márquez, pero a partir de “Hierro” se sintió el cambio radical. Con la salida de la Red One la industria cambió. Me seguí dedicando a la publicidad, con lo cual intercalé publicidad y cine durante muchos años, pero ya todo lo hacía en digital. Hice una película que se llamaba “Insensibles” en Barcelona y después, en 2015, realicé “Autómata” con Gabe Ibañez. Fue tras esta película que decidí, junto a mi familia y mis agentes, entrar al mundo de la televisión.

La televisión empezaba a ser lo que es ahora. Evidentemente, había series muy famosas como Los Soprano o Juego de Tronos, que ya empezaba, pero no había este boom por las plataformas. Decidimos que era un camino que había que tomar porque si no nos quedaríamos atrás.

¿Se veía claro en aquel momento?

Se veía que algo empezaba a ser interesante. Los escritores y directores empezaban a moverse y se mudaban al streaming. Lo que no se preveía en 2015 es que el cine tendría una caída tan fuerte, lo cual tuvo mucho que ver con la pandemia, pero ya se observaba que la clase media del cine estaba desapareciendo, que se realizarían proyectos o bien gigantes, con muchas decisiones de estudio o proyectos pequeños donde había una autoría muy marcada, pero poco dinero para hacerlo. Fue ahí cuando decidimos meternos a la televisión.

Empezamos haciendo pilotos, primero más pequeños, luego más

grandes, después episodios. Hubo todo un recorrido y escalonaje. Recuerdo cuando mis agentes me dijeron que tenía que meterme en todo esto y yo no quería, pero pensé que si acababa haciendo algo como Juego de Tronos estaría bien y me lancé. Fue un recorrido de ir haciendo cosas cada vez más interesantes y también de no acomodarme, porque en la televisión es fácil caer en nichos. Si por ejemplo, hago una serie que tiene siete temporadas tendría el trabajo asegurado, pero justo era lo que no quería. Ha sido un trabajo de muchas decisiones al escoger que hacer o no, de proyectos que tú piensas que van a ser súper exitosos y luego no llegan a mucho y también ha contado un poco la suerte a la hora de tomar decisiones, pero básicamente así fue fluyendo hasta un proyecto que hice hace tres años. Este proyecto fue “The Alienist”, donde Juan Carlos Medina, con el que había trabajado en España, me invitó a hacer un par de episodios. Fue ahí, cuando entré en la televisión de mayor presupuesto, donde puedes tener un poco más de libertad en ciertas cosas como en el nivel creativo. Tras esto, hemos podido hacer proyectos muy interesantes y esperamos seguir así.

Hablamos de que en aquel momento el mundo de la televisión aflora muchísimo, ¿crees que aquellos presupuestos medios en el cine y toda esa corriente creativa se mudaron a la televisión?

Creo que sí, aunque esto es una idea un poco general, porque todavía hay proyectos de todo tipo, pero sí. Hoy en día, post pandemia, quieres ir al cine y cuesta trabajo escoger

ALEJANDRO MARTÍNEZ DIRECTORES DE FOTOGRAFÍA TM Broadcast
57

una película, más si no eres fan de Marvel o del terror. Se mudó el talento, los escritores, los directores y para los directores de foto empezó a ser más atractivo. A día de hoy, no puedes nombrar a un director de foto, de una generación que no sea Roger Deakins, que no haya hecho televisión. Personas como Emmanuel Lubezki o muchos fotógrafos han optado por esto, porque es donde vemos que van los talentos, los presupuestos y los buenos proyectos. El orden de poder de los estudios ha cambiado mucho. A lo mejor, hoy en día, no hablas de Universal sino de Netflix, Amazón o HBO, cada uno con sus nichos, con sus propuestas de trabajo. Con esto no digo que sea mejor, simplemente es así. Para mí, de las ofertas que recibo, las más interesantes están en televisión. Es un esquema diferente, ya sean capítulos, un piloto o toda la serie, pero las mejores historias y el dinero para el diseño de producción ahora están en la televisión.

Es muy habitual ver que en las series, el modelo de trabajo para crear episodios a nivel fotográfico, se ha repartido entre varios profesionales, ¿qué ventajas o desventajas trae esto?

Tiene ventajas y desventajas. Una serie se puede distribuir de muchas formas. Por ejemplo, hacer una serie con un solo director de fotografía y varios directores es complicado. Si esa serie tiene diez capítulos no te da tiempo a prepararla tú solo. Además, hay muchas cosas que no se saben: hay guiones que no están escritos, las series generalmente arrancan sin tener todos los capítulos escritos y para preparar una serie

de diez capítulos, que es como preparar una película de ocho horas, con un solo equipo necesitarías ocho meses de preparación.

Los estudios prefieren que los directores tengan cierto control sobre ciertos episodios o sobre ciertos fragmentos y es una forma más conveniente y práctica de trabajar. Para ello, requieren a diferentes fotógrafos, que cada director tenga esa aportación creativa con una persona con la que puedan estar todo el tiempo.

Estos formatos son heredados de la televisión de antes, pero también son un poco inevitables, porque la televisión puede tener todo el dinero del mundo, pero lo que no tiene es tiempo. Si ruedas diez capítulos de 50 minutos los tienes que rodar en 6 meses, no los puedes rodar en 2 años como se rodaría una película. Es una nueva forma de trabajo que si la comparamos con el cine difiere en muchas cosas, es mejor en unas y no tan buena en otras, pero si no la comparas con el cine y la comparas con la televisión de antes es mucho más eficiente y mucho mejor.

¿Artística o creativamente es mejor? Desde mi punto de vista no. La forma de hacer cine es un proceso netamente creativo donde uno se toma el tiempo que se tiene que tomar. El tiempo es el gran lujo del cine. Esto, en televisión, se sustituye con otras cosas como, por ejemplo, que más de un director de fotografía haga un proyecto. También se ha llegado al común denominador de establecer unas reglas, dar una información para que la película tenga una unidad visual, todo esto con una cierta libertad. Yo puedo decir que House of Dragons es el proyecto donde más libertad creativa he tenido en mi carrera, no hubo una sola persona que me dijera que hacer o cómo hacerlo.

Algo que me gusta es que al final el proceso es como realizar una película. Algunas decisiones, como lo referente a los sets o actitudes de un personaje, pueden estar tomadas por alguien más, pero hay un montón de decisiones que se toman de manera más tradicional. Yo hablo mucho con los otros directores de foto, me pongo de acuerdo con ellos,

DIRECTORES DE FOTOGRAFÍA 58 ALEJANDRO MARTÍNEZ TM Broadcast

ya que tampoco queremos que el programa sea diferente en cada episodio. Para mí, la unidad creativa o la unidad visual viene de la inercia o de las decisiones tomadas al principio más que de lo que se hace en el día a día. Si decides que la película se va a rodar con cierta cámara o con ciertas lentes o la elección de luces que tomas, se produce esa inercia que lleva a una unidad visual. Por eso, al final los proyectos se acaban viendo similares y es lo que funciona, poder tener unidades, trabajar a la par, mientras que uno trabaja el otro filma. Es la única forma de hacer estos proyectos tan grandes en el tiempo en el que se hacen.

Hablando de House of the Dragon, cuando te incorporaste al proyecto, ¿en qué fase estaba la producción?

¿Pudiste dar tu punto de vista sobre el aspecto visual en la preproducción o te adaptaste a un aspecto que ya estaba establecido?

Fue un proyecto muy interesante. A Dragons llego por una directora con la que había trabajado antes, Clare Kilner, que es la directora con

la que estoy ahora en Nueva York. Ella quería que me incorporara al proyecto para realizar tres capítulos de la serie. Una vez arreglada toda la logística con HBO, que ellos pasan un proceso de escrutinio intenso, se consiguió.

Los showrunners de Dragons querían que estuviéramos ahí en todo el proceso. Básicamente, el proyecto se empezaba a preparar con uno de los showrunners, Miguel Sapochnik y su director de foto Fabian Wagner. Ellos iban a rodar primero, pero nos querían a todos, entonces eramos tres directores de foto haciendo nueve capítulos y luego otra directora de foto, que se incorporó a los tres meses, haciendo uno. Llegamos desde que los sets se estaban construyendo, desde que todo arrancaba y tuvimos mucha libertad, como poder tomar todo tipo de decisiones de cómo deberían ir los sets o tamaño de las ventanas. Fue un proceso súper bonito porque pudimos colaborar en todo. Estar desde el principio ayudó muchísimo porque hubo una colaboración muy intensa entre todos nosotros. Fabian es una gran

persona y nos ayudó mucho. Él ya había hecho capítulos en “Juego de Tronos” y nos ayudó a entender todo ese universo.

Todo el mundo me pregunta qué tan limitado estuve y es uno de los proyectos en los que más libertad he tenido en mi carrera. Nunca nadie me dijo que tenía que hacer o cómo hacerlo. Hay que tener en cuenta que hay muchas limitaciones a nivel conceptual, es una época medieval en la que, por ejemplo, solo puedes iluminar con luna, con sol o con fuego. Eso de entrada es limitante, pero como decía antes, le da una unidad visual a todo.

Para desarrollar esta primera temporada de House of the Dragon, ¿qué equipos técnicos se han utilizado?

Dragons se rodó en digital, con cámaras Arri. Combinábamos Alexas 65 mm y Alexas LF. Las 65 mm eran para que los planos abiertos fueran más postales, como más gloriosos. Se rodó con una óptica no tradicional pero nada especial. Fueron unas lentes DNA Prime y el equipamiento era bastante sencillo, nada fuera de lo normal. El lujo era rodar esos planos en 65 mm, pero no se utilizó ningún proceso especial.

¿Cuál ha sido el mayor reto técnico al que os habéis enfrentado en el rodaje de esta temporada? ¿Cómo se ha resuelto?

Para mi hubo dos grandes retos. Uno fue cómo iluminar estos sets gigantes. Eran enormes y fue un gran reto porque había que iluminarlo pensando en un montón de cosas,

ALEJANDRO MARTÍNEZ DIRECTORES DE FOTOGRAFÍA TM Broadcast
59

como en la permanencia de esa luz, ya que no podías iluminar el set cuando querías sino que debías dejar una base para lo que siguiera después. Pero la verdad es que tenía un súper equipo, no puedo decir que lo solucioné yo solo porque sin la ayuda de la gente no habría sido posible. El equipo que trabajó en esa serie es de primera. No solo tienen experiencia sino también la disposición de ayudarte en todo momento. En nuestro equipo eléctrico eran buenísimos y además era un equipo enorme. Siempre que pedías cosas se traducía en tenerlo listo en unas horas. También, había mucho tiempo para iluminar y luego revisarlo. El proceso de preparación fue largo. ¿Cómo se consigue? Se consigue viéndolo, yendo al papel, diseñándolo, hablando con el diseñador de producción o el director sobre las necesidades de cada escena y después hablando con los técnicos, proponiendo probar con una cosa u otra.

Una serie como Dragons tiene un sello distintivo en cuestión a cómo está iluminada, desde como entra la luz por las ventanas a las diferencias de las temperaturas de color. Pero para mí, el gran valor de esa serie es el valor humano. El equipo que trabaja en ella es espectacular. Eso es lo que marca la diferencia en que proyectos así de grandes sean complicados o no. La clave de haber iluminado esos sets tan grandes fue la gente que tuve.

El segundo gran reto fue mi introducción a algo que no había hecho en la vida, que fueron los volúmenes LED. En uno de los foros de los estudios Warner, se construyó un set de

volumen y fue un reto porque nos dimos cuenta que es una nueva tecnología en la que realmente nadie es experto. Todo el mundo tiene idea, hay gente que ha trabajado con ello antes, pero todos estamos aprendiendo. Fue una experiencia porque creo que aprendimos todos y también pudimos empujar a la gente más técnica a un punto de vista diferente. Nos decían que algo no se podía hacer, pero tú aportabas esa vena creativa de incentivar a hacerlo y creo que ellos mismos aprendieron mucho de nosotros. Había gente que había hecho los volúmenes en “The Mandalorian”, gente que sabía más sobre esta tecnología y también les llevamos a lugares donde no estaban tan cómodos, pero que al final funcionaban. Pusimos las cosas en duda, empujamos la tecnología al límite y fue muy bonito, porque no hubo una resistencia a lo nuevo, sino una colaboración muy linda entre todo el equipo.

¿Qué parte del metraje se realizó con volúmenes LED?

Hablando de porcentaje no es mucho, como un 20%. A mí me tocó hacer como cinco sets en el volumen. Se lograron cosas súper bonitas. Cada uno hizo como tres o cuatro sets y se trata de un juguete de ricos, pero bien aprovechado, con las razones correctas y bien hecho funciona increíble.

¿Crees que esta tecnología ha llegado para quedarse? ¿Es la gran revolución actual?

Creo que sí. Tendrá que haber versiones más baratas, pero es la mejor forma de resolver un montón de

cosas. Ojalá se quede. Creo que solo hay que pillar el truco de cómo hacerlo, que sea más barato, lo cual será cuestión de tiempo pues la tecnología tiende a abaratarse, pero sobre todo es una cuestión de saber usarlo. Después de esa experiencia siento que mucha gente querrá usar la versión barata o usarlo para cosas que no tienen sentido. Se tiene que tratar de un proceso pensado y preparado, si se hace de esa manera funciona muy bien.

Es la gran revolución de ahora. Hay cosas que pasan al siguiente nivel, otras que no y el volumen es una de las grandes inversiones que tenemos ahora. Está en nosotros como industria saber aprovecharlo, usarlos bien y hacerlos más accesibles. Si no pasará como con el 3D, si se vuelve inaccesible y caro desaparecerá. Igualmente esto es una tecnología muy básica, es una proyección y las proyecciones existen desde que el cine es cine. Pero como digo, es algo que si la industria es inteligente debería poder conservar y nos ayudará durante muchos años.

¿Podrías contarnos algo de Fallout, el proyecto en el que estás trabajando ahora?

Lo que puedo contar es lo que ya se sabe, aunque no creas que sé mucho más. Es la adaptación del juego Fallout, que cumple 25 años. Estamos rodando en Nueva York, aunque es una serie que se ha rodado en varias localizaciones, desde Namibia en África a Utah o Los Ángeles. La lidera Jonathan Nolan, que ha hecho “West World” o “The Peripheral” y es el mismo grupo de gente de “West World”. Yo voy a

DIRECTORES DE FOTOGRAFÍA 60 ALEJANDRO MARTÍNEZ TM Broadcast

hacer dos capítulos y creo que va a quedar chulísima. De lo que he visto y de lo que me han contado, creo que es una serie no solo para los fans del juego, sino que en general va a gustar muchísimo. Si conoces el juego sabes que tiene un rollo visual muy interesante. Esa estética de los 50, del Happy América de aquella época, se está traduciendo a la serie y los guiones están muy bien.

En cuanto al apartado técnico, ¿con qué equipos se está trabajando?

Se está rodando en 35 mm con cámaras Arri, con lentes anamórficos y con un look muy tradicional, que no se ve hoy en día. Se le está dando un tratamiento como de película antigua y cuando lo ves tiene

todo el sentido. Se hará el escaneado en negativo, pero se está rodando como si estuviéramos rodando una película de hace 20 años. Hoy en día, trabajar de esta forma en una serie como esta resulta muy interesante.

¿Encajarían bien los volúmenes LED con una tecnología como esta?

Pues precisamente se están haciendo volúmenes y nadie se está quejando, nadie ha dicho que no se pueda. Obviamente los recortes de croma son un poco más complicados, pero también una vez sabes las reglas del juego las cosas salen. La gente está contenta con el formato y se están usando volúmenes de luz. Es un gran experimento y debe ser de las primeras series que casan la tecnología del volumen de luz con el análogo. Veremos qué pasa.

ALEJANDRO MARTÍNEZ
DE FOTOGRAFÍA TM Broadcast
DIRECTORES
61

SRT Alliance

Garantizando una transmisión de vídeo segura

SRT Alliance es una organización desarrollada por la compañía Haivision cuyo objetivo es superar los desafíos asociados con la transmisión de video en streaming. La base de esta tarea es el protocolo de transporte SRT (Secure Reliable Transport, es decir, transporte fiable y seguro). Una de las particularidades de este protocolo es que es gratuito y de código abierto. Gracias a esta característica, la evolución se enriquece con una gran colaboración constante. Haivision ha denominado Open Source Project a este proyecto de crecimiento de las capacidades de su protocolo SRT.

Por otro lado, además de garantizar un transporte eficiente en la transmisión por streaming, SRT Alliance también tiene como objetivo hacer partícipe a la mayor parte posible de la industria global de producción de contenido multimedia en la adopción de este protocolo. Uno de los eventos clave para lograrlo es PlugFest, promovido por SRT Alliance. De hecho, como aventuran en esta entrevista, la edición 2023 será muy especial.

Hablamos con Pablo Hesse, Director de SRT Alliance acerca de cómo alcanzar estos dos objetivos cruciales. Gracias a esta conversación, entendimos sus métodos, su pasado, presente y futuro, así como las ventajas de participar. Mediante sus respuestas es fácil comprender por qué SRT es una de las mejores opciones para comunicar instalaciones con puntos de transmisión remotos.

¿Cómo nace SRT Alliance?

Haivision lleva más de 18 años dedicándose a la tecnología de redes de vídeo. A medida que la transmisión de vídeo se vuelve omnipresente, Haivision reconoce la necesidad de garantizar una colaboración más amplia del ecosistema, dado que los flujos de trabajo personalizados del mundo real inevitablemente combinan tecnología de múltiples proveedores. Para garantizar la interoperabilidad en estos ecosistemas complejos, Haivision cree que SRT

puede servir como el protocolo de baja latencia que vincule la tecnología de transmisión de vídeo en streaming.

Haivision reconoce que independientemente de lo importante que se vuelva el SRT, la adopción es poco probable si la tecnología es propietaria. Los proveedores de tecnología necesitan estar seguros de que tienen el control de sus propias hojas de ruta tecnológicas. Y de ahí la iniciativa Open Source (código fuente abierto).

62 PROTOCOLOS TM Broadcast SRT

Al abrir la tecnología SRT al mundo, todos, incluidos los clientes de Haivision, pueden beneficiarse de un ecosistema abierto en el que puedan integrar sus tecnologías de transmisión de vídeo con otras soluciones de vídeo, infraestructuras de red y sistemas.

En 2017, Haivision abrió el protocolo SRT y la pila de tecnología de soporte, y constituyó SRT Alliance para respaldar su adopción. Desde entonces, los principales servicios de streaming, plataformas en la nube y proveedores de soluciones de transmisión han respaldado y adoptado SRT, incluidos AWS, Google Cloud y Microsoft.

¿Cuáles son los objetivos de la asociación?

La misión de SRT Alliance es apoyar la disponibilidad gratuita del protocolo de transporte de vídeo SRT de código abierto para acelerar la innovación mediante el desarrollo colaborativo. SRT Alliance promueve el reconoci-

miento y la adopción de SRT en toda la industria como estándar común y de facto para toda transmisión en streaming de Internet de baja latencia.

Un objetivo importante de SRT Alliance es hacer que las nuevas características estén disponibles para la comunidad de código abierto. La funcionalidad de SRT de código abierto aportada por la comunidad está disponible para cualquier desarrollador, y los nuevos desarrollos de los miembros de SRT Alliance volverán a migrar a SRT de código abierto de forma regular.

¿Cuáles son las líneas de actuacion que está siguiendo la asociación para alcanzar sus objetivos?

Unirse a SRT Alliance es gratuito y brinda a sus miembros diversas ventajas, incluido el acceso a la información más reciente sobre soluciones de SRT, oportunidades de asociación y comercialización, y oportunidades de creación de redes con ejecutivos de SRT Alliance y otros miembros.

63 TM Broadcast SRT PROTOCOLOS

¿Bajo qué condiciones es SRT un protocolo de código abierto?

El SRT es un protocolo de código abierto distribuido bajo MPL-2.0 y con licencia pública de Mozilla. La licenia pública de Mozilla fue elegida para lograr un equilibrio entre impulsar la adopción de SRT de código abierto, y fomentar las aportaciones para mejorarla por parte de la comunidad de adoptantes.

De esta manera, cualquier tercero es libre de usar la fuente SRT en un trabajo más grande, independientemente de cómo se compile ese trabajo. Y si un tercero realiza cualquier cambio en el código fuente, estaría obligado a ponerlo a disposición de la comunidad.

Como protocolo de código abierto, los proveedores están seguros de saber que cualquier inversión que hagan en la adopción y el soporte de SRT está protegida en la comunidad de código abierto para siempre. El código abierto también permite una mayor adopción por parte del cliente y un camino claro hacia la estandarización dentro de la comunidad.

¿Cuál es el modelo de negocio de Haivision para SRT?

Nuestro objetivo es superar los desafíos de la transmisión de vídeo en streaming de baja latencia y, en última instancia, cambiar la forma en que el mundo realiza el streaming. La mejor manera de lograrlo es poniendo el protocolo SRT a disposición de forma gratuita a fin de poder acelerar la innovación mediante el desarrollo colaborativo. Todos los miembros de SRT Alliance

se beneficiarán de ser parte de una red creciente de puntos finales de SRT y tendrán la oportunidad de colaborar en negocios, tecnología y la mejora del flujo de trabajo.

¿Qué diferencia al protocolo SRT de otras opciones en la industria?

El protocolo SRT es muy utilizado en el mundo de la transmisión en streaming e incluye más de 592 miembros de SRT Alliance que ofrecen miles de soluciones listas para SRT. De hecho, el Informe de Transformación de IP en Radiodifusión 2022 de Haivision indicó que SRT es el protocolo de transporte más utilizado para la transmisión de vídeo. Además, el protocolo SRT ofrece estadísticas integradas para ayudar con la resolución de problemas y el seguimiento. Proporciona además información en vivo sobre la calidad de transmisión de la red, que se puede utilizar como retroalimentación en tiempo real para observar los procesos de codificación de vídeo y ajustar el ancho de banda de vídeo.

Como protocolo basado en UDP, SRT tiene la ventaja adicional de

abordar las limitaciones causadas por el control de congestión de la red y experimenta una menor latencia en comparación con los protocolos basados en segmentos. Cuando se producen situaciones en las que entran en juego factores como la baja latencia, la seguridad o la fiabilidad de la red, se necesita SRT. Dado que SRT es independiente del contenido, ofrece flexibilidad para elegir y mejorar los códecs de audio y vídeo y permite nuevas tendencias a la vanguardia de la tecnología.

¿Cuál es la penetración del protocolo SRT en broadcast?

La transición de SDI a IP ha sido un tema candente durante algún tiempo, pero en los últimos dos años, se ha vuelto más importante que nunca. Desde plantillas distribuidas hasta producción remota, la pandemia continúa presentando desafíos y oportunidades importantes para la industria, lo que obliga a los difusores a reconsiderar su enfoque para crear y entregar contenido de calidad.

Con las tecnologías y los estándares actualmente en vigor, los difusores por fin se están dando cuenta de los beneficios de migrar sus flujos de trabajo de producción a IP. El transporte de vídeo a través de Internet, la nube, las redes móviles y de área local permite una mayor flexibilidad, escalabilidad y la capacidad de crear servicios nuevos y únicos que antes no estaban disponibles con una infraestructura SDI fija.

Mientras que las redes internas de alta velocidad de los difusores están dominadas por tecnologías de redes

64 SRT TM Broadcast
PROTOCOLOS
Pablo Hesse, Director de SRT Alliance

IP, como NDI y SMPTE ST 2110, SRT cierra el círculo a instalaciones remotas, reporteros de campo y la nube.

Continúa la tendencia hacia la producción remota con una reducida dotación de equipos y personal desplazados in situ. Al mismo tiempo, los propios flujos de trabajo de producción en vivo se están descentralizando. Los difusores están aprovechando las tecnologías de transmisión de baja latencia para permitir la colaboración en tiempo real entre el talento y el personal a largas distancias e incluso para operar de forma remota los equipos de transmisión.

Si bien la industria de la transmisión está experimentando una clara transformación hacia la tecnología IP y en la nube, las rutas de transición varían. La mayoría de los difusores están mezclando diferentes tecnologías, tanto en sus propias instalaciones como en la nube, al tiempo que aprovechan las inversiones existentes. SRT, SMPTE ST 2110, NDI e, incluso, 5G se encuentran entre las muchas opciones para flujos de trabajo que posibilitan IP, al igual que el creciente número de soluciones basadas en la nube para la gestión de flotas, el enrutamiento de flujos y la producción de la transmisión.

Al igual que con otras industrias, los difusores también están aceptando que muchos de los cambios recientes en la forma en que trabajamos y producimos contenido han venido aquí para quedarse. La nueva normalidad es híbrida, ya sea respecto a la forma en que funcionan los difusores o en relación a qué tec-

nologías utilizan. Hacer que los flujos de trabajo de transmisión sean lo más flexibles y ágiles posible será clave para su éxito.

¿Dónde funciona este protocolo y dónde no?

El protocolo SRT se desarrolló específicamente para mantener una baja latencia y una alta calidad de vídeo cuando se transmite a través de redes que se ocupan de la pérdida de paquetes, latencias fluctuantes y el ancho de banda disponible, así como la inestabilidad asociada. Incluso si la latencia no es el criterio principal, para un cierto caso de uso, SRT se elige a menudo debido a la fuerza de los flujos de transmisión. El protocolo SRT ayuda a superar las restricciones de conectividad de los cortafuegos y ofrece cifrado AES para proteger el contenido. Se pueden unir múltiples conexiones de red para escenarios de redundancia y

conmutación en respuesta a errores, lo que garantiza que los paquetes lleguen al receptor a través de múltiples rutas de red.

Un área que estamos explorando actualmente y que entusiasma a nuestro equipo, es la capacidad de unir múltiples interfaces de red para proporcionar más ancho de banda que un solo enlace. Esto puede ser extremadamente útil cuando se transmite en streaming en situaciones en las que hay una alta concurrencia de usuarios a través de la misma red.

¿Hasta dónde puede llegar el protocolo SRT? ¿Es capaz de enviar una señal 4K 50p HDR WCG con sonido envolvente 5.1?

Los límites del protocolo SRT se definen principalmente por el ancho de banda de red disponible o las conexiones concurrentes. En térmi-

PROTOCOLOS TM Broadcast
65 SRT

nos de resolución, velocidad de fotogramas, gama de colores más amplia, número de canales de audio/vídeo y códecs utilizados, SRT es muy flexible. Es agnóstico al contenido y transporta paquetes, sin importar lo que contengan, por lo que es una gran opción que resistirá el paso del tiempo.

¿Cómo se preparan para la nube?

El protocolo SRT permitía flujos de trabajo basados en la nube ya desde el principio en 2012, y especialmente desde el lanzamiento en código abierto en 2017. Para superar los desafíos de llevar contenido a la nube desde el campo o de trasladar contenido de forma segura entre instancias de nube, el protocolo SRT es una de las principales opciones. En los primeros tiempos, se debía principalmente a la falta de alternativas. Pero hoy en día, la razón de ello es que SRT es reconocido como un protocolo fiable, maduro y fácil de implementar. El desarrollo de SRT mantiene un enfoque en las tendencias de la nube y actualmente está activo en el grupo de trabajo Media Over Quick en IETF. Los miembros de SRT Alliance también brindan valiosos comentarios sobre las características necesarias para adaptarse a los flujos de trabajo en la nube que surgen con gran rapidez.

Muchas contribuciones de vídeo a través de redes de telecomunicaciones se realizan utilizando el protocolo SRT, aun cuando existen otras alternativas. ¿Por qué hay tanta dependencia?

Las razones para elegir el protocolo SRT son múltiples. Sobre todo, SRT

resuelve los problemas a que se enfrentan los usuarios al transmitir en el mundo real y se ha ganado una reputación de un protocolo fiable. Ver es creer y es fácil comenzar por tu cuenta con SRT. Usar una cámara de teléfono inteligente como remitente de SRT o realizar un seguimiento las transmisiones de SRT con dispositivos móviles y aplicaciones gratuitas es tan simple como ver una transmisión en streaming de SRT en el reproductor de medios VLC. Por otro lado, se pueden encontrar fácilmente equipos de transmisión que admiten SRT. Esta gran flexibilidad e interoperabilidad en una amplia gama de dispositivos, software y soluciones en la nube de muchos fabricantes e iniciativas de código abierto es casi tan importante como la capacidad de compensar la pérdida de paquetes, la inestabilidad y las oscilaciones del ancho de banda.

¿En qué otras industrias y mercados está tratando de introducirse el protocolo SRT?

Los desafíos de la red que SRT ayuda a superar no son específicos de un mercado o industria concretos. Esta es la razón por la que SRT es elegida por los difusores, así como

por quienes operan en sectores como defensa, empresa y medicina, deportes y entretenimiento, y ciencia e instituciones públicas.

Las necesidades de los difusores seguirán centrándose en el desarrollo futuro, así como en el tratamiento de los comentarios de la comunidad SRT de los diversos mercados. SRT estriba en hacer que la transmisión en streaming sea más fiable y segura, independientemente de si se realiza en un estudio de televisión, helicóptero o barco, en el campo con una unidad móvil o simplemente un teléfono inteligente, en cooperación con un equipo de filmación completo o por cuenta propia en una oficina en casa.

¿Cuál

es el futuro de SRT Alliance?

Continuaremos apoyando a todos nuestros miembros a través de los múltiples canales que tenemos establecidos. Uno de tales instrumentos, como ya hemos dicho, es PlugFest, y aún no hemos confirmado una edición muy especial para el próximo año, así que si quieren participar no duden en enviar su solicitud a SRT Alliance o envíen un correo electrónico a info@srtalliance.org.

PROTOCOLOS 66 SRT TM Broadcast

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.