Revista RUBIK Julio 2024 - Especial Tecnología Audiovisual y Broadcast

Page 1


EL FOCO EN LA TECNOLOGÍA AUDIOVISUAL Y EL BROADCAST

En RUBIK, como venimos diciendo desde principios de año, queremos dar una visión completa de la industria audiovisual, acercándonos en detalle y desde un enfoque profesional a las diferentes caras de nuestro poliédrico sector.

Dentro de esa panorámica, la tecnología juega un papel fundamental. En esta edición nos acercamos a esos aspectos, siendo el núcleo de nuestra cobertura un extenso y exhaustivo reportaje con las últimas soluciones y productos presentados en la gran feria tecnológica del sector (el NAB de Las Vegas). Un artículo desglosado por compañías fabricantes con el que saber lo último que se pone a disposición del mercado tanto para el ámbito broadcast como para la producción de cine/series. Para conocer las últimas tendencias tecnológicas que están siendo esenciales en las actualizaciones de las televisiones, publicamos un artículo escrito por Luis Sanz, consultor tecnológico con una dilatada experiencia impulsando

esa clase de modernizaciones. En conjunción con esto, consideramos que una excelente manera para averiguar la aplicación de esas tendencias es revelar, a través de varios reportajes, las renovaciones concretas que han llevado a cabo algunos broadcasters (Canal Sur, Telemadrid e IB3), a partir de la colaboración de sus directores técnicos. Uno de los bloques de esta edición tan tecnológica está dedicado a la Inteligencia Artificial, una de las innovaciones más disruptivas del momento. Más allá de las polémicas y las incertidumbres que suscita la IA, queremos poner el foco en cómo se está utilizando. En primer lugar, hablamos con Pere Vila, Director de Estrategia Tecnológica de RTVE, para que nos cuente, a través de proyectos y usos concretos, las herramientas de este tipo que está implementando el ente público. Además, publicamos también un artículo sobre la evolución de la IA y cómo está influyendo en la industria audiovisual, en un contexto inestable en cuanto a los modelos de producción

y la optimización de la rentabilidad de los proyectos.

Los Juegos Olímpicos de París 2024 son el gran evento del año. Además de lo meramente deportivo, tienen un enorme interés desde el punto de vista de la producción televisiva, con un incomparable despliegue de medios. Para abordar todos los detalles de esta cita desde este punto de vista hemos hablado con Isidoro Moreno, Director de Ingeniería y Operaciones Técnicas de OBS (Olympic Broadcasting Services), la entidad responsable de producir la señal internacional para las televisiones con derechos de emisión. Complementando a esta charla, hemos entrevistado también a Fernando Ruiz, Sports Director de Warner Bros. Discovery, y a Laura Martín, Broadcast Operations Senior Manager de la compañía, para conocer cómo plantearon los JJ.OO. desde Max y Eurosport.

Carlos Aguilar Sambricio y Miguel Varela

Pere Vila
*Imagen generada con IA
Aragón TV

TENDENCIAS ACTUALES EN LA TECNOLOGÍA DE LOS RADIODIFUSORES

LAS COMPAÑÍAS DE RADIODIFUSIÓN SE ENFRENTAN A DOS ELEMENTOS CLAVES EN EL CONTEXTO AUDIOVISUAL. POR UN LADO, LOS ESPECTADORES SE ENCUENTRAN CON LA POSIBILIDAD DE DISPONER DE MÚLTIPLES DISPOSITIVOS Y PANTALLAS PARA RECIBIR TODO TIPO DE CONTENIDOS AUDIOVISUALES Y, POR OTRO, LA FACILIDAD DEL STREAMING POTENCIA LA PROLIFERACIÓN DE PLATAFORMAS DE CONTENIDOS Y LA PRESENCIA DE MULTITUD DE CANALES EN INTERNET. ENTRE TODOS, SE OFRECE TAL CANTIDAD DE CONTENIDOS QUE NO HAY TIEMPO NADA MÁS QUE PARA ELEGIR AQUELLAS FUENTES QUE OFRECEN NO SOLO CONTENIDOS, SINO COMPLEMENTOS QUE LES HACEN MÁS INTERESANTES Y ATRACTIVOS. POR ELLO, LOS BROADCASTERS TIENEN QUE RECURRIR A LA TECNOLOGÍA PARA OFRECER SUS CONTENIDOS CON SUFICIENTE INTERÉS.

POR LUIS SANZ, CONSULTOR AUDIOVISUAL

En este camino, las tendencias actuales de la tecnología de los radiodifusores se concentran en las diferentes etapas de elaboración de sus contenidos. Destacamos las siguientes.

Se está aumentado, cada vez más, el número de cámaras utilizadas, sobre todo, en la producción de eventos en directo y

en deportes en particular, para ofrecer más puntos de vista desde diferentes ángulos del evento y proporcionar más detalles a los espectadores de lo que está ocurriendo.

Últimamente, y también en la producción de eventos y deportes en particular, se está implementado el concepto de ‘broadcast cinematográfico’, con la intención de conjugar la forma habitual de presentar

las imágenes en televisión, con el ‘look cinematográfico’, utilizando ópticas con focales más cortas para resaltar los primeros planos sobre los fondos desenfocados. Ello hace mucho más atractiva la presentación de jugadores o participantes en los eventos.

Cada vez se recurre más a la nube para las actividades radiodifusoras, por la ventaja de evitar la instalación de mucho hardware en los centros locales y reducir

los costes de producción, pero todavía es minoritario el uso de la nube en centros ya establecidos, siendo muy utilizado en los canales de nueva creación.

Más de la mitad de los broadcasters utiliza actualmente redes celulares, básicamente 4G y 5G, para la contribución de vídeo en directo, compitiendo con el uso de Internet. De igual manera, la mayor parte de las emisoras utilizan, o van a utilizar en breve, 5G para la contribución a la emisión de los canales.

También están creciendo las emisiones OTT (Over The Top) como forma de acceder a contenidos a través de Internet, incluso con las plataformas típicas como Facebook.

En cuanto a los métodos de codificación de la señal , para el transporte de vídeo en directo es mayoritario el uso del protocolo SRT (transmisión confiable segura) creado por la compañía canadiense Haivision, desarrollado para enviar vídeos a través de Internet. Por su parte, también para los trabajos de contribución, es prioritario el uso del código de compresión HEVC (High Efficiency Video Coding), también

conocido como H265, que comprime la señal de vídeo con mayor calidad y menor tasa binaria.

El uso de la realidad aumentada está contribuyendo a mejorar la información a suministrar a los espectadores. La posibilidad de integrar en la imagen real en directo elementos gráficos o corpóreos relacionados con ella enriquece la emisión haciéndola más atractiva e interesante. La realidad aumentada ya es imprescindible en la emisión de deportes en directo. Con ella se puede ver la información relativa a cada jugada según se produce, se grafía el movimiento del balón o de una pelota de golf. En algunas ligas en Estados Unidos, la realizada aumentada permite interactuar al espectador con los datos ofrecidos.

La desaparición de las emisiones en definición estándar (SD) y la obligación de que en TDT (Televisión Digital Terrestre) los canales tienen que emitir en HD (Alta Definición) ha provocado dos consecuencias. La primera es la muerte de todos los antiguos receptores de televisión que solo sintonizaban canales en SD y, de ellos, aquellos que

Instalaciones de © Aragón TV

estaban preparados para trabajar en alta definición (HD ready) pero no sintonizaban en HD. Solo pueden usarse adquiriendo un sintonizador externo en HD e introduciendo la señal en el receptor por conexión scart o HDMI.

La segunda consecuencia es la necesidad de los radiodifusores de centrarse en el formato de emisión y aquí aparece el interés de trabajar en mejorar la calidad de la imagen emitida. Por ello, se avanza tecnológicamente en trabajar en HD HDR (Alto rango dinámico). Con el HDR, la HD puede presentar detalles del contenido emitido en escenas brillantes o muy oscuros, que sin él no se apreciarían. Obviamente, es preciso que los receptores tengan implementada la posibilidad de reconocer HDR.

También se está empezando a aplicar la técnica HFR (Alta Tasa de Cuadros) en la producción de contenidos . HFR consiste en añadir más cuadros (fotogramas) a los normales (25/30 por segundo). Con ello se consigue más detalle en la imagen y se mejora la profundidad de campo en planos generales y el desfase temporal en las tomas con mucho movimiento.

También se está generalizando la producción de contenidos en el mal llamado 4K . En informática, 4K es cuatro veces 1K (1024 dígitos), es decir, 4096 dígitos. En producción audiovisual, la HD es una imagen con 1920 x 1080 píxeles. La llamada producción en 4K, denominada también UHD (Ultra Alta Definición) en la emisión de los canales, es el doble horizontal y verticalmente de la HD (2 x 1920, 2 x 1080), es decir, 3840 x 2160 píxeles. En conclusión, el 4K es para la informática y el UHD para la televisión. Por otro lado, en UHD también se está empezando a aplicar la técnica HDR y ya empieza a haber canales en UHD, por ejemplo, en Televisión Española.

En relación con el formato y por la masiva presencia de contenidos en las plataformas de Internet, Instagram y Tiktok se está empezando a producir en formato vertical 9/16 , para adaptarlo al visionado normal en los teléfonos móviles, obteniendo una pantalla completa sin necesidad de girar el teléfono.

Las tendencias tecnológicas actuales en la producción en directo en plató se centran en el uso mayoritario de grandes

pantallas con tecnología LED , en la que se presentan los contenidos a los que se refieren los presentadores presentes en el estudio, que prácticamente siempre están de pie. También está muy extendida la utilización de la realidad aumentada con la presencia corpórea de elementos informativos o simplemente decorativos. Por supuesto, la iluminación del plató con proyectores halógenos se está sustituyendo por pantallas y proyectores de iluminación con tecnología LED.

Una tendencia tecnológica cada vez más presente es la migración de las instalaciones en video digital estándar (SD) a tecnología IP , con la sustitución de todo el cableado tradicional de vídeo y audio por cableado informático y matrices de audio y vídeo por routers. Con esta tecnología se puede generalizar la producción remota, llevando la señal de las cámaras desde el lugar de captación al centro de producción en donde se realizará el programa.

Si hay una tendencia tecnológica actual en la radiodifusión que empieza a primar sobre todas las demás es la aplicación de técnicas de Inteligencia

Artificial (IA) que está empezando a utilizarse en todos los departamentos de las compañías.

Las aplicaciones de IA utilizadas son, entre otras: catalogación y archivados automáticos, subtitulado automático, generación de textos, conversión de voz a texto y de texto a voz, traducción simultánea, generación de gráficos, imágenes y vídeos, asistentes a los periodistas, generación de avatares, seguimiento automático de presentadores de programas, remasterización de formatos de contenidos, control de contenidos emitidos, recomendaciones personalizadas a los espectadores, automatización de jugadas con seguimiento en deportes, generación de trailers automáticos, automatización y optimización de procesos o detección de informaciones falsas.

Sin duda, la Inteligencia Artificial está empezando a cambiar con fuerza el panorama radiodifusor . Esperemos que sea para bien.

Nuevo Control en © Telemadrid

NAB 2024: La vanguardia de la tecnología audiovisual y broadcast

EN ESTE EXTENSO REPORTAJE PONEMOS EL FOCO EN ALGUNAS DE LAS MÁS INTERESANTES NOVEDADES QUE SE MOSTRARON EN EL CENTRO DE CONVENCIONES DE LAS VEGAS DURANTE LA EDICIÓN 2024 DEL NAB, LA GRAN FERIA MUNDIAL DE LA TECNOLOGÍA AUDIOVISUAL Y BROADCAST. HACEMOS UN REPASO EMPRESA POR EMPRESA, POR ORDEN ALFABÉTICO, PARA CONOCER QUÉ ES LO QUE ESTÁ LLEGANDO AL MERCADO O ESTÁ A PUNTO DE HACERLO.

Adobe llevaba, como acostumbra, una nutrida cantidad de actualizaciones de sus soluciones. En su software Premiere Pro implementa herramientas de IA para agilizar los flujos de trabajo y ampliar las posibilidades creativas, como la inserción o eliminación de objetos o la ampliación de un clip añadiendo unos segundos al final de un plano.

Estos nuevos flujos de trabajo de edición serán impulsados por un nuevo modelo de vídeo que se unirá a la familia de modelos Firefly, que incluye los modelos de imagen, vector, diseño y efectos de texto. La empresa

también ha anunciado que va a incorporar modelos de IA generativa de terceros directamente en sus aplicaciones.

De entre todas las nuevas funcionalidades destaca especialmente Enhance Speech, que permite mejorar la calidad de los audios para que se acerquen a como si se hubieran grabado en un estudio. La tarea, que se realiza en un segundo plano para permitir trabajar en otras cosas mientras se hace el ajuste, permite ajustar la cantidad de mejora con un regulador.

Por otro lado, también presentó la versión 4 de Frame.io, plataforma de

colaboración creativa flexible, rápida e intuitiva que agiliza y simplifica los flujos de trabajo en la creación y producción de contenidos. La gestión del workflow está ahora enmarcada por un sistema de metadatos dinámico y de carpetas inteligentes, haciendo más personalizable y flexible esta plataforma basada en la nube. También se han ampliado las posibilidades creativas al haber transformado las áreas de transferencia de archivos, la revisión y aprobación de activos multimedia.

POR CARLOS AGUILAR SAMBRICIO

La española AEQ acudió a Las Vegas con varios nuevos productos. Uno de ellos fue Solaris, un gateway multicódec de audio que incorpora entre 8 y 64 audiocodecs estéreo en un equipo de una unidad de rack o un servidor dedicado o compartido. Prescinde de entradas y salidas de audio local, por lo que confía en la entrega de audio a una red IP redundante en formatos AES67 o Dante.

La Unidad de Comentarista Olympia 3 permite ahora la conexión a matrices del sistema de comentarista AoIP para eventos grandes, con múltiples sedes y múltiples deportes. Añade la aplicación SW System Planner, que permite al host broadcaster planificar la red AoIP requerida, los dispositivos de red de audio auxiliares o nodos de red, y los conversores de formato. También destacaron los TP9000, paneles de usuario de intercom con teclas de palanca de 4 vías qué están diseñados para sistemas de intercom Crossnet de hasta 190 puertos y Conexia de hasta 1.000 puertos.

Arri Alexa 35 Live Multicam System

Agile Content presentaba en NAB Agile CDN Director, una solución para luchar contra la piratería en las plataformas de contenidos mediante la autorización de las sesiones para evitar el acceso no deseado. El sistema posibilita el bloqueo de hasta 60.000 solicitudes no válidas al día. Basado en la tecnología Edgeware, ofrece un switching muy fluido durante el stream.

AJA introdujo en NAB 2024 algunas actualizaciones de sus productos. Con AJA ColorBox v2.1, su equipo para flujos de trabajo gestionados por color en tiempo real, ahora es posible downconversion 4K/UltraHD y 4K/2K y ofrececompatibilidad con ACES Metadata File (AMF) y ARRI Wireless Video Optimized LogC4 (WVO). Su conversor HDR/WCG, con el firmware FS-HDR v4.3, incluye las últimas BBC HLG LUTs v1.7, así como un nuevo desentrelazador adaptable al movimiento y controles de sincronización HFR de canal a canal.

Ha mejorado el Bridge Live, el transcodificador multicanal de flujo de trabajo de vídeo IP utilizado, para facilitar la producción remota y la transmisión de eventos en directo. La versión V17.1 de AJA Desktop, para los productos AJA Kona, Io y T-TAP, permite pasar metadatos como SCTE-104, Dolby Vision, Closed Captioning y SMPTE Time Code. Destacamos también que la versión 2.1 DEL dispositivo de transmisión y grabación H.264 HELO Plus incluye un nuevo parámetro SRT Stream ID al modo Caller, añade el modo SRT Listener como selección del usuario, y presenta una vista de la configuración de fotogramas B de cada codificador en la página de estado.

Akamai promocionó su plataforma Akamai Connected Cloud y lanza unos servicios cloud basados en la GPU NVIDIA RTX 4000, de forma que logra un procesamiento de vídeo 25 veces más rápido que los métodos tradicionales basados en la CPU. Será útil para la creación de contenidos digitales, el modelado 3D, el renderizado, streaming de vídeo, transcodificación de vídeo, procesamiento de contenidos de realidad virtual y realidad aumentada, inteligencia artificial generativa y aprendizaje automático o el análisis de datos.

Ross Video Carbonite Code

Alfalite ha lanzado una solución que mezcla tecnología y arte. Gracias a la colaboración con el artista digital César Yagüe, pone en el mercado AlfaArt, una solución integral llave en mano con pantallas LED de gran formato que convierten paredes en lienzos vivos, con media players de última generación y obras de arte en movimiento perfectamente curadas y preparadas para ser utilizadas. El objetivo es transformar espacios convencionales, de manera sencilla, en espacios de vanguardia y de gran esteticismo.

Amazon Web Services cada vez va aportando más soluciones aplicables al ámbito del audiovisual profesional. En NAB 2024 mostraron sus herramientas nativas y open-source para monitorado integral permitiendo a los operadores con poca experiencia con el cloud que puedan hacer playout de canales y tener una visión en tiempo real como estaban acostumbrados. También hay que subrayar el monitorado de flujo de trabajo para video en directo, accesible a través de la consola y la API de AWS Elemental MediaLive y detecta y visualiza los recursos. Crea mapas de señales que muestran videos en AWS Elemental MediaConnect, MediaLive y MediaPackage, junto con Amazon S3 y Amazon CloudFront para ofrecer una visibilidad integral. Puede crear sus propias plantillas de alarmas o partir de un conjunto de alarmas recomendadas.

Por último, destacamos el AWS Deadline Cloud, que permite crear y gestionar proyectos y trabajos de renderizado por medio de Amazon Elastic Compute Cloud (Amazon EC2) directamente desde estaciones de trabajo y canales de creación de contenido digital.

Arri acudió a la mayor feria de tecnología del mundo con un producto muy broadcast: el sistema Alexa 35 Live – Multicam. El objetivo es poner la calidad de imagen cinematográfica del sello Alexa a disposición de las producciones en vivo. Combina la nueva cámara Alexa 35 Live, el nuevo Sistema de Producción en Vivo LPS-1 (un Adaptador de Fibra para Cámara y una Estación Base de Fibra), el RCP Skaarhoj y varios accesorios. Cuenta con sensor 4K de tamaño Super 35, que permite poca profundidad de campo, y hasta 17 stops de rango dinámico. Además, posee dispone de la tecnología patentada de color REVEAL y permite grabar ProRes de calidad completa en la cámara durante las producciones en directo, para una mayor flexibilidad en postproducción. La montura de lente modular puede cambiarse entre LPL, PL, EF y B4, facilitando una amplia selección de lentes.

Los ARRI Look Files pueden otorgar un aspecto de imagen singular a través de los Multicam Looks especialmente desarrollados. Presionando únicamente un botón, puedes activar uno de los 87 looks prediseñados. La cámara incluye cinco texturas ARRI multicámara y ocho de estilo cine. Las amplias opciones de conectividad de la Estación Base de Fibra incluyen cuatro entradas de retorno y 15 salidas SDI simultáneas para 3G, 6G y 12G en enlace simple, dual o cuádruple, así como SMPTE 2110 IP.

Otra novedad de Arri son sus focos Fresnels LED L-Series Plus, un 90% más brillantes que sus predecesores (los L5 y L7) pero de similar tamaño y peso. Poseen conectividad de red directa con entrada de datos LAN y control de iluminación a través de ArtNet y Streaming ACN, además de control a bordo con el SkyPanel Classic. El L5-C Plus dispone de una lente Fresnel de cinco pulgadas, mientras que la L7-C Plus de siete pulgadas.

Atomos acudía a NAB con una novedad interesante gracias a la colaboración con Editshare que acelera el proceso entre grabación y postproducción. El material rodado con una cámara conectada a un grabador Atomos compatible con procesos cloud vía HDMI o SDI y vinculada a una cuenta de Atomos Cloud Studio, puede añadir MediaSilo como destino, sincronizándose automáticamente, de modo que el contenido llega a MediaSilo mientras se graba, pudiéndose revisar el material para postproducción inmediatamente. La integración de MediaSilo con productos Atomos como Shogun y Ninja permite a los profesionales decidir la cámara adecuada para cada proyecto.

Riedel RiCapture

Aveco, empresa especializada en automatización y MAM, promocionaba en Las Vegas su solución Astra Media Factory, que unifica flujos de trabajo a través de una experiencia de usuario única (facilitando el aprendizaje de los técnicos) y que puede operar en entornos on-premise, remota y multi-cloud, permitiendo una transición a la nube gradual y natural a los broadcasters. El sistema permite automatizar la ingesta de archivos / señales en vivo o metadatos, posibilita el uso de inteligencia artificial en la gestión de contenidos y realiza fácilmente playout de canales de recursos on-premise, remoto y cloud en la misma interfaz para un control más eficiente.

Blackmagic volvió a brillar en NAB 2024, primeramente con sus nuevos modelos de cámaras. Por un lado, con la Blackmagic URSA Cine 12K, una cámara con sensor RGBW 36 x 24 mm y rango dinámico de 16 pasos y montura intercambiable para objetivos PL, LPL y EF. Cuenta con un almacenamiento integrado de 8TB y permite sincronización Blackmagic Cloud.

Otra cámara nueva es Blackmagic PYXIS 6K, que posee sensor 6K de 36 x 24 mm que ofrece 13 stops de rango dinámico y grabadores de medios CFexpress duales.

Por otro lado, anunciaron la versión 19 de su software de postproducción DaVinci Resolve, que añade muchas mejoras basadas en IA, el DaVinci Resolve Micro Color Panel, y los mezcladores ATEM 1 M/E Constellation 4K y ATEM 2 M/E Constellation 4K, dos modelos UHD de hasta 20 entradas SDI 12G.

Otros productos nuevos de Blackmagic que se mostraron en NAB fueron Blackmagic 2110 IP Converter, conversores que incluyen modelos compatibles con formatos UHD mediante conexiones Ethernet 10G; el SmartView 4K, un monitor UHD profesional con entradas IP SMPTE-2110 y SDI 12G; y una nueva adición a su línea de matrices de conmutación Videohub 12G: el modelo 120×120 12G.

Avid es siempre una compañía con múltiples novedades. En NAB enseñó, en varias soluciones, que la compañía ha implementado Ava, un conjunto de herramientas basadas en inteligencia artificial que buscan automatizar la transcripción de voz a texto, el resumen y la traducción. Además, Media Composer cuenta ahora con una nueva herramienta de colaboración basada en SaaS que permite la colaboración en tiempo real con Microsoft Teams para sesiones de edición virtualizadas desde cualquier lugar, así como nuevas integraciones de flujos de trabajo de soluciones de terceros como Autodesk Flow Capture y Doom Solutions. En ProTools mostró funciones como la integración ARA de plugins de postproducción de audio como iZotope RX, Synchro Arts VocAlign y Sound Radix Auto Align; la integración de Dropbox Replay con ProTools para acelerar los flujos de trabajo de revisión y aprobación; flujos de trabajo de audio inmersivo que incluyen re-renders en directo para Dolby Atmos; mejoras en el flujo de trabajo de diálogos o guardado de sesiones de ProTools como archivos compatibles con Media Composer.

Por último, Avid actualiza MediaCentral, su herramienta integral de producción de noticias con una edición mejorada basada en navegador con formas de onda de audio, herramientas de búsqueda más potentes, Blueprint Builder para la planificación de flujos de trabajo o mejoras en la aplicación Rundown. Además, ha promovido integración de terceros en su como la creación de transcripciones y subtítulos basada en IA; las traducciones de Traco y Digital Nirvana; o los flujos de trabajo con Marquis o X.news para contenido procedente de redes sociales.

Grass Valley Maverik

Brainstorm estuvo en el evento mostrando su Suite 6, la última versión para eStudio, InfinitySet y Aston. Entre Unreal Engine y el motor de render eStudio trabajan desde una sola estación de trabajo, sostenida por la GPU Nvidia RTX 6000 Ada Generation. Las mejoras principales que trae Suite 6 son LUTs 3D de color coincidente, gráficos en movimiento AR en contexto, teletransporte de talento inmersivo o contenido multifondo.

Suite 6 hace a InfinitySet compatible con estaciones de trabajo Dual-GPU, lo que permite a los usuarios dividir los requisitos de renderizado entre las dos GPU. InfinitySet 6 también ahora admite SMPTE 2110. En cuanto a Aston, gracias a StormLogic, permite nuevas transiciones e interacciones entre plantillas e incorpora herramientas para crear proyectos interativos que pueden usarse con pantalla táctil. Además, se ha simplificado el proceso de diseño y las actualizaciones esenciales pueden aplicarse directamente por los diseñadores principales, sin necesidad del resto del equipo.

Calrec mostró en NAB 2024 una nueva versión de la mesa de mezclas Argo S muy compacta para unidades móviles de espacio reducido. Esta versión combina el puente de medidores y la interfaz de usuario táctil en una única fila de pantallas. Cada sección de 12 faders de ancho es totalmente independiente para procesamiento, acceso de control de ruta, fuentes de alimentación y conectividad, y se incluye una licencia DSP nueva de 128 a 384 canales de entrada.

Cinedeck apostó en NAB 2024 por la presentación de una solución de producción y distribución de vídeo basada en la nube: Cloudflow Hub. Este equipo unifica en una única plataforma las capacidades de ingesta en directo, transcripción embebida y transcodificación de sus soluciones CD2, cineXtools y Connex. Incorpora IA para ofrecer subtítulos y traducciones en directo, permitiendo mayor eficiencia y accesibilidad en la producción.

Clear-Com asistió a la convención del NAB principalmente para la presentación de su nueva intercom Gen-IC Cloud, una solución virtual segura y flexible para integrar fácilmente hardware local con una intercom virtual. Permite escalar rápidamente múltiples clientes virtuales según se necesita, integrándose con el hardware de ClearCom a través de LAN, WAN e Internet. Al poder desplegarse regionalmente, se minimiza la latencia típica de la virtualización. Los sistemas de Gen-IC Cloud Intercom a nivel global pueden conectarse entre sí, para conformar una potente y segura herramienta de comunicación y colaboración.

Vizrt Viz Virtual Studio Go
Dalet Pyramid

Cobalt acudió a NAB 2024 con nuevas tarjetas. Una de ellas era la Cobalt Indigo Og-2110-Bidi4-Gateway, una interfaz ST 2110 bidireccional de cuatro canales nativa para E/S SDI disponible en el factor de forma openGear. Admite hasta 4 entradas a resoluciones 3G e inferiores, o una entrada a resolución 4K, con total compatibilidad NMOS. En lo que respecta a Dante, enseñó la Cobalt Aria Aud2Dante y Cobalt Aria Aud4-Dante, que ofrecen unidades de doble y cuádruple canal con funciones de hasta 12G Dante/AES/MADI/ Embed y De-Embed con capacidades Frame Sync.

Dalet se centró en enseñar a los asistentes cómo ha mejorado los flujos de trabajo colaborativos a través de la inteligencia artificial y el cloud para facilitar la producción, distribución, archivo y monetización de noticias, deportes y entretenimiento. Su plataforma unificada para la gestión de activos permite un mayor retorno de la inversión gracias a la automatización y la optimización de la los recursos, evitando el caos habitual de las redacciones.

Así, la aplicación Dalet Pyramid se presenta junto con Dalet Cut, editor basado en navegador, y funciones basadas en IA que incorpora Dalet Media Cortex, lo cual posibilita una planificación centralizada, una producción de noticias multiformato y una gestión de escaleta basada en navegador.

DJI acudió a Las Vegas con varios productos de interés. En primer lugar, destacaban los nuevos estabilizadores RS 4 y RS 4 Pro. El primero, con brazos de los ejes recubiertos de teflón y 3 kg de capacidad de carga útil. El segundo, equipado con brazos de los ejes de fibra de carbono, y una capacidad de carga útil de 4.5 kg. Asimismo, en el stand tenían el DJI Focus Pro, primer sistema independiente de control de objetivos de enfoque manual automatizado.

DJI también enseñó el DJI Mavic 3 Pro, que posee una nueva unidad de cámara estabilizada con gimbal más grande con tres cámaras: una cámara principal MFT Hasselblad de 24 mm (equiv.), una cámara de teleobjetivo medio de 70 mm, y una cámara con teleobjetivo de 166 mm, que ahora tiene una lente mejorada de f/3.4 (hay una versión Cine con SSD incorporado de 1 TB y la capacidad de grabar ProRes 422 desde las tres cámaras). Por último, destacamos el DJI Osmo Pocket 3, de sensor CMOS de 1 pulgada, grabación 4K/120 fps y estabilización mecánica en tres ejes.

Blackmagic-PYXIS-6K

Eizo sitúa en el mercado el nuevo monitor de referencia ColorEdge Prominence CG1 HDR. Con un brillo máximo de 1.000 nits, una relación de contraste máxima de 1.000.000:1 y una resolución de 4.096 x 2.160 píxeles (DCI-4K), sus aplicaciones son para masterización final y la corrección de color, o producción en directo de contenidos HLG o PG-HDR. Al ser compatible con el estándar SMPTE ST 2110, puede integrarse en entornos de producción basados en IP. Además, es el primer ColorEdge compatible con la tecnología Fixed Rate Link (FRL), con lo que transmite material 4K de 12 bits sin comprimir a través de HDMI.

Evertz llevaba varias soluciones nuevas al centro de convenciones. Una de ellas tenía que ver con su DreamCatcher Bravo, plataforma de producción colaborativa para ingesta, reproducción, conmutación de vídeo/audio en directo, repeticiones o gráficos, etc. Añadía las funciones Metadata y Highlight Factory, que permiten crear automáticamente clips y listas de reproducción mediante IA con modelos de lenguaje de gran tamaño y tecnología de aprendizaje automático profundo. Asimismo, agregó el formato JPEG XS a su plataforma NEXX. NEXX es una plataforma de enrutamiento y procesamiento en dos opciones de marco (3RU y 5RU) y admite enrutamiento 12G-SDI en el marco 5RU. Admite módulos avanzados que incluyen sincronización de cuadro, conversión up/down/cross, puertas de enlace IP y multipantallas avanzados. Llamó la atención, a su vez, una nueva gama de paneles de control de hardware para Bravo Studio: Bravo-Airfly-Pro, Bravo-Waveboard y BravoWaveboard-Mini.

FilmLight, especialista en soluciones para postproducción, lanza Nara, una herramienta que posibilita la descodificación y reproducción de forma nativa de la media sin necesidad de transcodificar a archivos proxy. Su motor de streaming minimiza el uso de ancho de banda y ofrece un acceso veloz y seguro a los archivos multimedia a través de un navegador web donde cada archivo se presenta con una miniatura y los metadatos asociados. La indexación y su interfaz de usuario permiten encontrar los contenidos rápidamente. Una vez encontrado, prácticamente cualquier formato de archivo puede visualizarse de forma segura en el espacio de color correcto desde un navegador web casi de inmediato. Nara puede instalarse en una red de almacenamiento del estudio o en la nube.

EVS se centró en la flexibilidad en el pasado NAB. Dio a conocer su nuevo modelo de licencias para su servidor de producción en directo XTVIA, permitiendo ajustar la capacidad de producción a la evolución de las necesidades de los clientes, y facilitando la expansión de canales y los cambios de características del servidor sin tener que cambiar el hardware. Los broadcasters pueden ampliar o reducir su capacidad según lo necesiten para una mayor eficacia y rentabilidad.

Hay tres modos distintos: Multicámara, ideal para las producciones en directo más exigentes, con replays a cámara superlenta y highlights con funciones completas para flujos de trabajo complejos; Spotbox: pensado para ingesta y reproducción, con puertos de grabación seguros para ingesta de múltiples fuentes en directo, y reproducción de canales; y Sportlight, adecuado para producciones más pequeñas o con un presupuesto limitado, pero con repeticiones y resúmenes con el sello de calidad EVS.

AVID Media Central

Fujifilm asistió a la feria del NAB con la lente Fujinon Duvo HZK 14-100mm como estandarte. Esta lente zoom portátil con montura PL es la tercera de la serie de lentes Duvo de Fujinon, complementando a Duvo HZK 25-1000mm F2,8-F5,0 PL Mount Cinema Box Lens y al Duvo HZK 24-300mm Portable PL Mount Zoom Lens. El nuevo producto está dirigido a entornos broadcast y ofrece zoom de 7,1x, cubriendo 14-100mm, un rango focal de uso frecuente en plató. La solución cuenta con T2,9 en el extremo ancho (14mm), lo que también le permite adaptarse a conciertos con poca luz, eventos nocturnos y entornos que busquen una profundidad de campo limitada. Al igual que los anteriores, incorpora un expansor 1,5x integrado.

En el ámbito de las cámaras, su stand destacaba por dos productos. Uno era la Fujifilm GFX100 II, con nuevo sensor de 102 megapíxeles “GFX 102MP CMOS II HS” con una velocidad de lectura aproximadamente dos veces más rápida que GFX100S. Es capaz de grabar internamente en 4K hasta 60p sin recorte y en 8K hasta 30p con un recorte de 1,4x. Lo hace en H.264 y H.265 con muestreo 4:2:2, 10 bits y compresión All-I. El otro era la Fujifilm X100VI, de grabación de vídeo en 6,2K a 30p y 4K a 60p, con grabación interna en color 4:2:2 de 10 bits. Introduce la nueva curva F-Log2 con más de 13 stops de rango dinámico.

Haivision llegaba a Las Vegas con una novedad por encima de las demás, la solución de cloud Haivision Hub 360, que busca la gestión remota de dispositivos, usuarios, fuentes de vídeo y destinos durante la contribución en directo. Los profesionales pueden enrutar vídeo en directo sobre Internet con SRT y redes celulares con SST y permite gestionar transmisores de vídeo móvil Haivision, codificadores Makito, apps MoJoPro y receptores StreamHub para contribución por IP y SDI.

Los usuarios pueden fácilmente hacer ‘arrastrar y soltar’ codificadores y fuentes de vídeo de transmisores de campo que estén conectados y llevarlas a StreamHub para manejar flujos de trabajo broadcast en directo. Haivision Hub 360 simplifica estos flujos para ofrecer coberturas de eventos complejas desde cualquier lugar.

Harmonic destacó en NAB 2024 con VOS360, un sistema de publicidad durante el streaming pensado para producciones deportivas en directo. Ofrece nuevos formatos publicitarios en split-screen que posibilita nuevos modos de monetización. El sistema no perturba la experiencia del visionado de los espectadores, ya que la publicidad aparece simultáneamente al contenido y con una baja latencia en comparación con otras soluciones. Es un producto nativo de la nube y que permite la inserción publicitaria entregada a millones de usuarios concurrentes. Los anuncios pueden colocarse de forma estratégicamente en momentos de baja o alta intensidad en los partidos, tanto de forma manual como automática.

Grass Valley fue de las mayores protagonistas del NAB. En el ámbito de cámaras, mostraron las nuevas LDX 135 RF y 150 RF, para cubrir la demanda de versiones inalámbricas en su serie LDX 100. Poseen tres Xenios Imager, una sensibilidad de hasta F11 @ 2000 lux, un nuevo procesamiento LUT integrado que evita recurrir a conversores externos y la posibilidad de grabar a 6x 1080p con resolución UHD nativa de la salida de señal en directo.

También hubo expectación con Maverik X, nuevo mezclador basado en software. Permite flujos de trabajo UHD HDR de 10 bits, conversión automática ascendente/descendente/cruzada y mapeado HDR LUT. Puede usarse en local, híbrido o en la nube, y se adapta a cada necesidad de producción, dando así la posibilidad de definir el número de entradas/salidas, M/Es, keyers, DVEs y replay wipes. Combinado con AMPP, el sistema puede incluir multiviewer completo, mezcla de audio, grafismo, replay y otras opciones que se controlan desde una sola interfaz.

Además, al gestor de contenidos Framelight X se le ha añadido IA media el AWS Rekognition, posibilitando el análisis de millones de imágenes, incluyendo streaming y vídeos almacenados en pocos segundos. También han mejorado LiveTouch X, solución para replays que ahora permite 2, 3, 6 y más super slow-motions y una mejorada agrupación de cámaras por usuario.

Otras novedades son la nueva generación de tarjetas de E/S IP para sus mezcladores de la serie K-Frame XP, que soportan hasta 100Gbe de conectividad JPEG XS nativa directamente al conmutador por tarjeta, el nuevo Clipstore II a la línea de productos Grass Valley K-Frame, que ofrece hasta 4 canales de reproducción y grabación, hasta UHD 4K 2160P como SDI o ST2110, y GV Orbit, que aumenta su rendimiento de orquestación de enrutamiento híbrido IP y SDI con la integración de AMPP para control y monitorización unificados.

La japonesa Ikegami, que celebraba su 60 aniversario, acudió a las Las Vegas con una novedad que destacaba por encima de las demás: el sistema de cámara portátil HD HDK-X500. Diseñada para operación tanto en estudio como en exteriores y cámara de hombro, posee tres sensores CMOS de obturación global de 2/3 pulgadas de última generación y corrección óptica automática del viñeteado en toda la gama de objetivos zoom con montura de bayoneta B4 compatibles con OVC. Utiliza el mismo sistema de doble filtro de densidad neutra y compensación de color utilizado en sus cámaras de gama alta, mientras que el procesador digital integrado proporciona una corrección del color de 16 ejes que ajusta de forma precisa la escena y crea efectos específicos. También mostraban el panel de control de operaciones OCP-500 de Ikegami permite controlar la HDK-X500 de forma totalmente remota.

Asimismo, destacaban los nuevos monitores HD HLM-2460WA y HLM-1860WR. El primero es de 24 pulgadas y cuenta con un panel LCD IPS con una relación de contraste de 1.800:1 y 400 nits de brillo máximo. El segundo es de 18,5 pulgadas y la pantalla dispone de una relación de contraste de 1.000:1 y 500 nits de brillo máximo.

Imagine Communications llevó a Las Vegas un producto ya presentado unos meses antes, Magellan Connect, una extensión de su Magellan Control System que permite a la plataforma de enrutado broadcast gestionar señales en aplicaciones ground-tocloud. Aprovechando tecnologías de distribución ya testadas en seguridad y codificación, y gracias a la integración con AWS MediaConnect y TechEx MWEdge, Magellan Connect genera un entorno integral de enrutado que permite una conexión sencilla de las señales, independientemente de si está en onpremise o en la nube.

Arri Alexa 35 Live Multicam System

Interra Systems llevó a Las Vegas la versión 9.0 de su sistema Baton, ya anunciado en el último IBC y que es una plataforma de control de calidad impulsada por IA. Posee un nuevo motor mejorado y una aplicación web que permite nuevas comprobaciones, formatos y funciones. Complementando las actualizaciones, el Baton Media Player también ha mejorado en rendimiento y usabilidad, una actualización que beneficia especialmente a aquellos que trabajen con contenido UHD y Dolby Atmos. La plataforma migra de Python 2.x a Python 3.x, lo que redunda en una interfaz más responsive, una escalabilidad mayor y una optimización de los recursos. La mejora de las comprobaciones incluyen la detección y la decodificación de códigos QR, pérdidas de vídeo, barras negras, detección de logos, reconocimiento de subtítulos abiertos, etc.

JVC llevó a NAB 2024 los nuevos mezcladores de estudio Connected Cam vMix de la serie KM-IP12S8: KM-IP12S8 y KM-IP12S8PRO. Están pensados para aplicaciones multicámara, como producciones deportivas y eventos en directo. Incluyen licencia de software vMix 4K o vMix Pro Live Production and Streaming. El KM-IP12S8 admite hasta 12 entradas de vídeo NDI/SRT y ocho SDI, así como múltiples opciones de salida, como 12G-SDI, 3G-SDI, HDMI y DisplayPort. Asimismo, posee tres puertos Ethernet de 2,5 GbE para conectividad NDI, SRT, Dante y RTMPS. El KM-IP12S8PRO tiene las mismas cualidades hardware, pero con la licencia de software vMix Pro para reproducción instantánea de ocho canales.

Pebble, la empresa antes conocida como Pebble Beach, ofreció en NAB novedades en Prima, su plataforma para aplicaciones multimedia integradas en tiempo real y basada en Linux/Kubernetes. Gracias a la colaboración con NVIDIA y su Holoscan for Media, Prima permite que muchas aplicaciones multimedia (playout, workflow y visualización de contenidos) se ejecuten en una plataforma de cálculo compartida en lugar de en un hardware específico.

Sennheiser MKH 8030

Matrox Video presentó en NAB una actualización del kit de desarrollo de software Matrox DSX para tarjetas NIC y E/S DSX y X.mio que permiten una latencia ultrabaja de entrada a salida, con un retardo de 1 frame en vídeo entrelazado y de 2 franes en vídeo progresivo. DSX SDK 10.5 también admite ST 2110-22 con codificación y descodificación JPEG-XS y añade compatibilidad nativa con AWS S3 con Flex Reader y Writer para aplicaciones cloud

Otra novedad es la tarjeta de red ST 2110 de 100 GbE. Está diseñada para entornos multimedia de alto rendimiento, incluida la producción virtual. De sus codificadores y decodificadores Matrox Monarch EDGE enseñó su versión 2.07 con soporte de audio HDR y Dolby, metadatos VANC para subtítulos, SCTE-104 para inserción de anuncios y SRT Stream IDs para hacer más sencillo el enrutamiento de secuencias. Por último, destacamos Matrox ORIGIN, que ofrece a los radiodifusores y proveedores de producción en directo una solución escalable, flexible, basada en la nube y COTS en un modelo OPEX.

Panasonic llamó la atención de los asistentes de esta edición con su nuevo servidor para directos Kairos Core 200 AT-KC200L1 y la versión 1.7 de software, que añade la operatividad de enrutado inteligente. El AT-KC200L1, que es compatible con entradas y salidas SDI de serie, ofrece una calidad de vídeo alta al utilizar Kairos las retransmisiones en directo, eventos, deportes y en los mercados corporativos y educativos. Admite 24 entradas / 12 salidas (FHD) de serie,[2] pero ofrece una producción de vídeo más flexible a los clientes que utilizansistemas de producción de vídeo basados en SDI. Además, se pueden admitir hasta 32 entradas/16 salidas (FHD) instalando de manera adicional la placa E/S SDI AT-KC20M1

Por otro lado, también debutó su nueva cámara PTZ AW-UE30, una solución compacta y silenciosa que es adecuada para reuniones educativas y corporativas por su seguimiento automático incorporado.

Prestigioso software para producción virtual, Pixotope es compatible con la última versión de Unreal Engine (5.4), pudiendo hacer uso de Unreal Motion Design. El objetivo es llevar gráficos de calidad cinematográfica y contenido inmersivo al ámbito de las noticias, deportes y otros workflows de ritmo rápido.

Pixotope aprovecha el controlador gráfico multicanal Erizos Studio, compatible con MOS, para ofrecer una solución basada en plantillas y escaletas, y consolidar la gestión de varios canales gráficos, evitando una sincronización lenta de plataformas de proveedores independientes y reduciendo el tiempo de formación de los operadores. Se cubre todo el flujo de trabajo de producción virtual, desde el tracking de cámaras hasta la realidad aumentada y los gráficos de estudio virtuales y la realidad extendida.

La española Promax destacaba en NAB 2024 su analizador universal de 6 GHz para broadcast Atlas NG, un medidor de campo multipropósito que ahora viene con analizador de señal 4G/5G (opcional), TS y ASI sobre fibra (opcional) y DVB-S2x con soporte de hasta 256-APSK, así como ATSC 3.0, IPTV, medidas de fibra óptica, 3G-SDI, ALP y transport stream, ASI...

El producto pretende ser referencia para el análisis y el diagnóstico de redes de telefonía móvil y es totalmente compatible con HEVC H.265 y descodifica con fluidez vídeos HEVC codificados a resolución de 10 bits.

Quantum acudió al NAB con la solución de almacenamiento ActiveScale z200, que incluye ahora una opción totalmente flash que ayudará a casos de almacenamiento S3 que necesitan una rápida ingesta de datos, análisis de alto rendimiento, recuperación rápida de datos y preservación de datos a largo plazo. El almacenamiento totalmente flash ActiveScale Z200 ofrece hasta cinco veces más rendimiento (gigabytes por segundo) y hasta nueve veces más transacciones que las soluciones tradicionales de almacenamiento de objetos en disco duro, facilitando las funciones como la ingesta de datos de alto rendimiento, la preparación de datos de IA, la formación y la inferencia, las bases de datos NoSQL y el streaming de contenidos.

RED se suma a la tendencia de ofrecer el look cinematográfico al mundo broadcast. Así, en el NAB 2024 mostraba el nuevo módulo RED Cine-Broadcast que es compatible con V-Raptor y que pretende la integración del look cine en producciones de entretenimiento, retransmisiones deportivas y eventos. Permite la emisión en directo de hasta dos canales de 4K 60P (HDR/SDR) a través de 12G-SDI. El sistema, preparado para la emisión IP con SMPTE ST 2110 (TR-08) y hasta una señal 4K 60P JPEG-XS, también incorpora un conector de cable de fibra óptica híbrido LEMO SMPTE 311M/304M, que se conecta a una estación base 2 RU montable en bastidor.

La empresa anunció también, para la gama de cámaras DSMC3, Broadcast Color Pipeline, función que permite corregir en directo el color de las cámaras RED en entornos de emisión o streaming, así como realizar ajustes bajo demanda.

Monitor Ikegami HLM-2460WA

Riedel contó con algunas novedades interesantes en Las Vegas. Una de ellas fue MediorNet HorizoN, que difumina los límites entre las infraestructuras basadas en SDI y las de ST 2110 con una serie de gateways SDI-IP, ofreciendo una gran cantidad de funciones de procesamiento de vídeo como conversión up/down/cross, conversión SDR-HDR y corrección de color. En una única unidad de rack, cuenta con 16 motores de procesamiento independientes y configurables individualmente. Permite hasta 128 canales de SDI-ST 2110, hasta 32 canales de SDR-HDR o hasta 16 conversiones up/down/cross.

Más allá de eso, amplía su gama de soluciones de ingesta RiCapture con la incorporación de RiCapture i8, i44 e i84. Ofrecen una mayor densidad de canales y/o resolución UHD, compatibilidad con 8 y 10 bits y almacenamiento SSD interno ampliado. RiCapture permite en todos los casos grabación de alta calidad en DNxHD o DNxHR junto con codificación H.264 4:2:0 y 4:2:2 al almacenamiento local, así como grabar 16 canales de audio embebido por canal, así como 64 canales Dante o AES67.

Rohde & Schwarz enseñó en el centro de convenciones su nuevo transmisor refrigerado por líquido TE1, su modelo más sostenible y que ofrece un servicio de monitoreo remoto 24 horas al día, 7 días a la semana. Está optimizado para aplicaciones de alta potencia de hasta 98kW. La solución simplifica el mantenimiento y la operación, reduciendo costes hasta un 40%, minimizando la huella de carbono y siendo el primer transmisor nativo ATSC 3.0.Así, la aplicación Dalet Pyramid se presenta junto con Dalet Cut, editor basado en navegador, y funciones basadas en IA que incorpora Dalet Media Cortex, lo cual posibilita una planificación centralizada, una producción de noticias multiformato y una gestión de escaleta basada en navegador.

Ross Video, empresa fundamental en el mundo broadcast, celebró en la feria su 50 aniversario con múltiples productos. En mezcladores de producción, debutaba Carbonite Code, equipo basado en software optimizado para flujos de trabajo NDI y que presenta tres MEs, cada uno con 6 Keyers. En esta gama también se añade Carbonite Ultra 60, mezclador con clip player HD/ UHD y 800GB de SDD interna para almacenamiento. En superficies de control para mezcladores se lanzaron los nuevos paneles TouchDrive TDx4 y TDx3, con opciones de control táctil, por deslizamiento y por gestos. El stand acogió, asimismo, el lanzamiento de la versión 12 de su sistema de gráficos en tiempo real Xpression, ahora con LUTs 3d customizados para HDR y clip ganging para fill/key, y los nuevos motores M9 (en 2RU y 4RU), con 25% más cores que el M8 y cerca de 4 veces más almacenamiento en solo 2RU. En cuanto procesadores de imágenes, enseñó Mosaic Ultra, que ofrece calidad de hasta 50 millones de píxeles en UHD o los 20 millones de píxeles en modo HD, con una muy baja latencia.

Otra novedad fue Artimo (Art In Motion), sistema de cámara para estudio de robótica avanzada que posee la flexibilidad de un pedestal de movimiento libre y que emplea la tecnología LiDAR. También destacó en su stand el Streamline Pro Video Editor, sistema escalable que combina funcionalidades de gestor de contenidos con editor de vídeo que agiliza la creación y entrega audiovisual.

La principal novedad de Sennheiser en NAB 2024 era el micrófono MKH 8030, que cuenta con un transductor pushpull simétrico y acústicamente abierto —para un sonido lo menos restringido y distorsionado posible— y basado en la reconocida tecnología de doble cápsula del micrófono MKH 800 Twin de Sennheiser. En conjunción con un diafragma de baja tensión, proporciona una sensibilidad muy destacada y una amplia respuesta en frecuencia. Son adecuados para entornos húmedos, cálidos y fríos, porque el flujo permanente de corriente de RF en la cápsula del micrófono evapora la humedad de forma natural. Está pensado para exteriores, como retransmisiones deportivas y rodajes en la naturaleza. El patrón polar bidireccional en forma de 8 capta el sonido igualmente por delante y por detrás, además de rechazar el sonido lateral. Su rango de agudos ampliado (hasta 50 kHz) capta el sonido de forma detallada con una respuesta de transitorios precisa, mientras que su pintura antirreflectante Nextel evita reflejos de las luces.

La nueva consola compacta System T S400 era la estrella del stand de Solid State Logic en NAB 2024. Es una superficie de control para la plataforma System T de producción broadcast IP nativa de nueva generación. Disponible en bastidores independientes de 16+1, 32+1 o 48+1 faders, la S400 se sitúa entre la compacta S300 de bastidor fijo y la S500 modular. Como la S500, dispone de faders táctiles premium de 100 mm y una pantalla OLED dedicada para cada fader. Además de la producción de estudio en directo, el S400 es una solución ideal para espacios reducidos: unidades móviles, espacios para eventos y aplicaciones musicales, etc.

Además, también hizo su debut System T Cloud, una solución cloud integral para producir audio broadcast con más flexibilidad y escalabilidad que es perfecta para gestionar producciones en directo desde múltiples lugares.

Sony, como siempre, era una parada obligatoria para los visitantes. En cámaras de cine seguían mostrando la todavía reciente Burano, cámara 8K Full Frame versátil, ligera y compacta con 16 stops de rango dinámico y estabilización de imagen para objetivos con montura en E y PL. En cámaras de estudio tenían la HXC-FZ90, adecuada para producciones HD y, con licencia de software, 4K HDR con sensor CMOS de ⅔ pulgadas. Adopta el espacio de color BT.2020 y es compatible con SR Live para HDR (HLG/S-Log3).

Su gama gama de monitores PVM (PVM-X3200 , PVM-X2400 , PVM-X1800) estaba con la versión 5.0 del firmware, que añade producción simultánea de vídeo HDR y SDR, funciones optimizadas para HDR como ajustes automáticos 4K/HD SDI, ajustes detallados del brillo de los negros y compatibilidad con el modo entrelazado. Además, se contaba con la pantalla Crystal LED VERONA, para aplicaciones VFX en cámara. Cuenta con tecnología Deep Black y antirreflejos, y un diseño de carcasa 1:1 de fácil instalación.

Sound Devices llegó al NAB 2024 para desplegar su A20-SuperNexus, un receptor de 16 canales con tecnología HexVersity (2-, 3-, 4-, 5-, o 6 antenas de diversidad) en una unidad de rack, con lo que permite ahorrar espacio. Mediante licencias de software, puede expandirse a 32 canales, todos con HexVersity. Posee un rango de sintonización de 169 –1525 MHz, lo que le permite operar en cualquier parte del mundo, y cuenta con RF Mirror Mode para trabajar de forma completamente redundante.

Sony promovía su ecosistema Networked Live con herramientas para facilitar la producción remota y distribuida a través de soluciones híbridas en las instalaciones y en la nube. Lanzaban la nueva funcionalidad V1.1 para el dispositivo de transporte de medios LAN/WAN NXL-ME80, que permite que el dispositivo funcione como receptor junto a la unidad de producción remota CBK-RPU7, en un entorno de comunicación 5G privado. En cuanto al conjunto de aplicaciones basadas en la nube, Creators’ Cloud, el servicio de colaboración y gestión de media, Ci Media Cloud, cuenta ahora con integración con Medway de Marquis Broadcast que permite la ingesta automatizada desde Ci a los sistemas Avid. Además, lanza oficialmente Ci Workflow, que permite realizar VFX con un trabajo más automatizado.

Visitantes del NAB Show

Tedial enseñó en NAB las mejores de su sistema de gestión de contenidos SmartWork, utilizado para noticias, postproducción, playout, OTT, deportes, etc. Ofrece nuevas funciones de colaboración y sin código, así como mejoras en la seguridad con la implantación de la norma ISO 27017 y la renovación de las certificaciones ISO 27001 y GPDR. Refuerza su naturaleza cloud sin código con diversos editores gráficos (BPM workflow designer, Form designer, Metadata editor y UI designer), que tienen interfaces intuitivos y facilitan una colaboración más fluida y eficiente.

Vizrt mostró en la feria NDI 6, solución de producción remota con flujo de trabajo en la nube con TriCaster Vectar y que ofrece soporte nativo de HDR y 10 bits de color. Esta nueva versión mejora la compatibilidad y la seguridad de las transmisiones NDI, permitiendo la colaboración segura y en tiempo real entre ubicaciones y dispositivos diferentes.

Por lo demás, debutaba Viz Virtual Studio Go, una solución de escenarios virtuales y gráficos de realidad aumentada que se combina muy bien con TriCaster. Con su software y hardware preconfigurados, gráficos totalmente diseñados y personalizables y plantillas de sets virtuales, se simplifica sensiblemente todo el proceso.

Telestream se desplazó a Las Vegas y enseñó en su stand Live Capture as a Service, una solución para ingesta de contenidos en directo aprovechando la tecnología de la nube y eliminando la necesidad de infraestructura física. Con esto permiten a los radiodifusores tener mayor flexibilidad y escalabilidad, así como reducir gastos generales. Paralelamente, la empresa también disponía GLIM as a Service, plataforma cloud que ofrece acceso y reproducción instantánea de la media, facilitando el control de calidad y la colaboración en tiempo real.

Por lo demás, había bastante más cosas de interés por Telestream: Vantage Cloud, sistema que permite gestionar el contenido desde la ingesta a la distribución con soporte automático e impulsado por IA para diversos procesos; DIVA 9, sistema que simplifica el archivado con almacenamiento inteligente de medios, funciones avanzadas de búsqueda Elasticsearch e integración completa en la nube; y Live Play 2.0 solución que acelera el acceso a los contenidos y agiliza el montaje y la emisión de las noticias, posibilitando la revisión inmediata de las señales de varias cámaras y que añade compatibilidad con el protocolo AMP y una nueva interfaz con funciones multipantalla.

TVU Networks acudió al NAB para mostrar sus tecnologías de vídeo en vivo basadas en la nube e IP. Con el sistema de gestión TVU MediaHub, se proporciona una Escalabilidad híbrida e ilimitada (con recursos locales en centros de datos o en la nube), aceptando varios formatos de entrada que van desde SDI, NDI, SRT, TVU Grid, hasta YouTube, y con una interfaz visual orientada a objetos.

La utilización de la A por la empresa también es pronunciada en flujos de trabajo como TVU MediaMind, TVU Producer y TVU Channel desde la adquisición hasta la distribución. Algunas mejoras en lo que respecta a IA que están aportando son la automatización de los informes de publiciad, las transcripciones o el clipping de contenidos.

Vubiquity llegaba al centro de convenciones de Las Vegas para mostrar las bondades de MetaVU, que fue desarrollado como parte del Vubiquity Media Suite. MetaVU es una solución de software que agrega, enriquece, localiza y entrega metadatos a escala global. La plataforma SaaS y nativa en la nube incluye más de 2.000 OTT y Set-Top-Box existentes. Con detallados géneros, palabras clave, etiquetas y categorías de ánimo, sus metadatos ayudan a un descubrimiento de contenido más accesible, recomendaciones más inteligentes y un mayor engagement.

La empresa VSN, referente en gestión y automatización de contenidos en los últimos lustros, se muestra con la nueva marca So More Media, que reúne también a M&I y Woody. Una plataforma unificada de espíritu holístico para afrontar los retos tecnológicos con mayor facilidad, creatividad y eficiencia, desde la planificación al archivado. Las ya conocidas cualidades de Vsn se combinan con el software para cadenas de radio y broadcasters de M&I y con el software de ingest y outgest de Woody.

Zeiss llegó al NAB 2024 con dos novedades principales. Por un lado, con la versión 2.0 del software Zeiss CinCraft Scenario, que proporciona datos de tracking de cámara para renderizado en tiempo real para producción virtual o AR/XR en directo, así como captura de esos datos para postproducción. Integra un nuevo calibrador de plantillas de objetivos, permitiendo ajusta las plantillas genéricas a las características específicas de cada proyecto. Amplía su compatibilidad a objetivos fuera del ecosistema Zeiss y Arri/ Zeiss, ofreciendo plantillas para más de 90 objetivos de más de 10 gamas, incluidas lentes broadcast.

La compañía del Grupo Mediapro especializada en gráficos, WTVision, presentó en Las Vegas FootballStats CG, solución personalizable para partidos de fútbol. Permite visualización de datos en tiempo real para partidos de fútbol, así como una completa integración con otros productos de wTVision, lo que proporciona a broadcasters soluciones integrales. También muestra en NAB otras soluciones como Studio GC, controlado de vídeo y grafismo, o ChannelMaker, software de automatización de emisión.

Fujinon Duvo HZK 25 - 1000
Zeiss Nano Prime Lenses

RTVA, A LA ESPERA DE UNA NUEVA ESTRATEGIA TECNOLÓGICA

EN ESTA EDICIÓN ESPECIAL DE TECNOLOGÍA AUDIOVISUAL Y BROADCAST, EN RUBIK HEMOS QUERIDO COMUNICARNOS CON ALGUNAS TELEVISIONES

AUTONÓMICAS PARA CONOCER CÓMO SE ESTÁN RENOVANDO LOS RADIODIFUSORES EN ESPAÑA Y DE QUÉ FORMAN ESTÁN MEJORANDO SUS

INFRAESTRUCTURAS Y SU EQUIPAMIENTO. EN ESTE PRIMER ARTÍCULO, NOS CENTRAMOS EN LA RADIO Y TELEVISIÓN DE ANDALUCÍA (RTVA), PARA LO QUE HEMOS CONTACTADO A SU DIRECTOR TÉCNICO, PEDRO ESPINA.

Era especialmente interesante comunicarse con Pedro Espina, ya que desde 2023 ocupa la Dirección Técnica de la RTVA , la entidad que lleva a los espectadores Canal Sur.

Espina, que sustituía en el cargo a José Enrique Zamorano, es ingeniero informático, titulado por la Universidad de Sevilla, Máster en Seguridad Informatica por la UOC y Máster en Protección de datos, Transparencia y Acceso a la información por la Universidad San Pablo CEU. Hasta ese momento, era coordinador general de la Dirección General de Comunicación Social de la Junta de Andalucía.

Según nos comenta Espina, ahora mismo están inmersos “en la definición de una estrategia tecnológica para los próximos años que sirva de guía y hoja de ruta tecnológica”.

Al entrar hace muy poco, Espina se encontró con renovaciones tecnológicas que estaban ya en marcha.

Una de ellas era el sistema de gestión de la continuidad de emisiones (playout), basado en servidores de vídeo K2, con mezclador Miranda y sistema de automatización Marina de Pebble Beach, que se está renovando completamente. Se está pasando a una arquitectura de dispositivos de canal integrado también de Pebble Beach que soporte a partir de ahora la gestión de vídeo sobre IP (ST 20226, ST 2110), integrando la inserción de subtítulos en formato OP-47, el sistema de transcodificación, un sistema de control de calidad (QC) automático y la renovación del sistema de tráfico Provys.

Otra implementación que se encontró era la del sistema de comunicación interna (Intercom), seleccionando el sistema Conexia, con terminales TP8116 de AEQ, con conectividad IP y uso de protocolo Dante.

La tercera y última tiene es la Plataforma digital integrada de edición, emisión y archivo, contratada como servicio a Telefónica y que cubre prácticamente todo el ciclo de producción audiovisual de la televisión.

A partir de la llegada de Espina, se han iniciado diversas renovaciones. Por ejemplo, se ha cambiado el sistema de teletexto, pasando a un sistema redundado Polistream U8100 de BroadStream.

Además, hay novedades en el sistema de generación de señales de sincronismo, tanto en el centro de producción principal como en los centros territoriales, utilizando generadores Telestream SPG8000A redundados en configuración MaestroEsclavo con changeover automático en Sevilla y equipamiento de Albalá Ingenieros (HTG3001C01).

A nivel de grabación, Espina nos indica que se ha producido una renovación de 10 cámaras ENG Panasonic AG-CX350.

Otra actualización relevante es que se han renovado las pantallas LED de gran formato de los estudios de TV 1 y 3, incluyendo una de 13,5 x 2,5m, otra de 7 x 2,5m, y dos de 4,5 x 2,5m, con el correspondiente sistema de gestión de grafismo. Para esto último se ha optado por una solución de Chyron.

Por último, subrayamos que se han adquirido 8 codificadores IP Quantum de

Cámaras ENG

Panasonic AG-CX350

Prodys y 6 mezcladores portátiles para las retransmisiones de la radio.

“No obstante, la principal licitación ha sido la del servicio de redacción del proyecto y dirección de ejecución para la modernización de las infraestructuras y sistemas técnicos para la producción de televisión del centro de San Juan de Aznalfarache”, señala Espina.

“Debe ayudarnos a avanzar en la migración a IP del equipamiento principal de conmutación de señales de vídeo , así como en la renovación de los mezcladores de vídeo de los Estudios de TV”, añade el director técnico de RTVA.

De todas las licitaciones puede obtenerse más información en la plataforma de contratación pública de la RTVA.

Es un servicio de consultoría e ingeniería sobre su principal centro de producción de televisión adjudicado recientemente a Abacanto.

TELEMADRID, UNA NUEVA INFRAESTRUCTURA ÚNICA Y CONVERGENTE USANDO LA

TECNOLOGÍA IP

OTRO BROADCASTER ESPAÑOL DEL QUE CONTAMOS CÓMO SE HA RENOVADO ES TELEMADRID Y SU RADIO TELEVISIÓN MADRID (RTVM). NOS HEMOS COMUNICADO CON SU DIRECTOR TÉCNICO, JOSÉ MARÍA CASAOS, PARA CONOCER EN DETALLE SUS PROYECTOS, SU ESTRATEGIA, SUS IMPLEMENTACIONES Y SU NUEVA TECNOLOGÍA.

José María Casaos , ingeniero de Telecomunicaciones por la Universidad Politécnica de Madrid, se incorporó a RTVM en 2019. Tiene un amplio curriculum en el sector TIC, incluyendo experiencias como emprendedor, como fundador de la empresa Createcna. También ha ejercido como director técnico del grupo Atresmedia y como director de negocio de televisión de Ericsson para Iberia.

“El año 2023 ha sido sin duda el año de implementación del proyecto de renovación tecnológica de Telemadrid, el cual incluye muchas iniciativas y donde uno de los principales proyectos ha sido la creación de una infraestructura única y convergente usando la tecnología IP, con todos sus beneficios, en cuanto a mejora de la calidad y ahorro de costes de las producciones, mayor redundancia y fiabilidad de las infraestructuras, que sin duda contribuirán a la sostenibilidad del servicio público”, nos cuenta José María Casaos.

Según indica a RUBIK, en este proyecto, se han elegido los protocolos de tecnología de vídeo SMPTE 2110, el protocolo DANTE de audio (del que ya tenían experiencia

previa en Onda Madrid), y, en paralelo, seguirán usando “otros protocolos IP que actualmente estamos usando en todo tipo de conexiones y videoconferencias, como puede ser el NDI, SRT y demás”.

En la actualidad disponen de dos controles en IP, que han llamado A y B (a diferencia de los anteriores numerados del 1 al 4) para que puedan dar servicio a cualquiera de los cuatro platós de televisión, pero también a la totalidad del centro de producción donde se va a poder conectar cualquier equipo como cámaras o micrófonos, y anticipándose a flujos de trabajo con capacidad de producción remota.

“El IP también hará posible hacer de una manera mucho más sencilla la gestión de los controles de realización, con sus sistemas de orquestación y control, que facilitan enormemente la gestión de señales, los multipantallas, las comunicaciones, así como la automatización de muchos procesos y, sin duda, favorece el trabajo diario, el trabajo en remoto y el soporte y mantenimiento de los sistemas”, explica Casaos sobre la importancia de la transición a IP.

LA CUESTIÓN HUMANA Y LA SOSTENIBILIDAD

“La introducción de una tecnología prometedora o especialmente interesante no sirve de nada sin un equipo humano preparado para aprovechar al máximo los beneficios de esta, y más cuando lo que está sobre la mesa es una transición a una infraestructura técnica completamente diferente que trae modificaciones sustanciales en la operativa de gran parte de la cadena broadcast”, asegura el director técnico de RTVM.

La nueva etapa de Telemadrid es más flexible para el técnico y permite producir con unos flujos de trabajo internos más sencillos, facilitando mucho la capacidad de innovar en todas las áreas de la televisión.

La sostenibilidad también es clave para el ente, según señala Casaos: “Se siguen incrementando las decisiones encaminadas a la sostenibilidad, con el compromiso de examinar la huella tecnológica de las inversiones con vistas a reducir costes, disminuir la complejidad operativa y reducir la producción de carbono”.

Un ejemplo de ello ha sido las inversiones en iluminación con tecnología LED para los platós de televisión. “Ha reducido el consumo eléctrico en más de una 85% y la renovación de la infraestructura que soporta nuestra capacidad de almacenamiento y procesamiento en los sistemas, que nos ha permitido reducir la huella física hasta un 40% en el CPD, debido al menor consumo eléctrico, ruido, etc.”, recalca el director técnico de Telemadrid.

Otros proyectos de tecnología que se han realizado en RTVM son:

• Ejecución y puesta en marcha del proyecto de sustitución del sistema de Prompter de los estudios, 6 licencias para funcionamiento redundante, 15 monitores de 17”, sistemas de operación tanto fijos como inalámbricos en cualquier de los estudios.

• Mejora de la fiabilidad del sistema intercomunicación técnica mediante la adquisición de una matriz de back-up.

Centralita PBX Redundante. Instalación de un sistema redundante PBX para mejora de la seguridad de las comunicaciones de voz de los programas de Televisión y Radio.

• Adquisición de una mesa de control de iluminación de back-up para aumentar la fiabilidad de los sistemas de iluminación.

Instalación de una pantalla LED de grandes dimensiones en el

Plató 1. Compuesta por 6 pantallas, 1 fija y 4 móviles (motorizadas), y 1 de suelo que permitirá realizar Realidad Extendida (XR).

• Se han licitado y adjudicado los servicios de Cabecera y múltiple TDT para la difusión de los programas de Telemadrid y Onda Madrid. “Son servicios que se han adaptado a la nueva situación tecnológica, marcada por la desaparición de los servicios SD y que RTVM ha aprovechado para la incorporación de una emisión HD HDR destinada a mejorar la calidad de visionado para los usuarios de televisores de última generación”, apunta Casaos.

• Adquisición de un sistema automatizado de producción audiovisual para el Estudio 3. Dotan de tres cámaras robotizadas y un sistema de gestión que detecta qué persona está interviniendo y elige los planos de cámara más adecuados según criterios previamente establecidos. Este sistema permite la generación de contenidos con destino al área digital de una forma fácil y económica. Puesta en marcha de un sistema de codificación y transmisión de video y audio con baja latencia a través de Internet (Tecnología SRT) que permite el envío de señales de retorno y Telepromter a medios de producción en exteriores como unidades móviles, ENG´s y otros.

• Renovación del Locutorio para eventos externos. Es una nueva instalación con tecnología SMTE2110 y HD del Locutorio para eventos de exteriores.

IB3, UNA MÁS EFICIENTE GESTIÓN DE CONTENIDOS CENTRALIZADOS

EN TERCER Y ÚLTIMO LUGAR, REPASAMOS LAS NOVEDADES TECNOLÓGICAS QUE SE HAN INCORPORADO EN EL ENTE

PÚBLICO DE RADIOTELEVISIÓN DE LAS ILLES BALEARS (EPRTVIB). PARA ELLO, NOS HAN DESVELADO LOS DETALLES GABRIEL POL, JEFE DE SISTEMAS EN FUNCIONES, Y PABLO MARTÍNEZ, RESPONSABLE DE ESTUDIOS Y UNIDADES MÓVILES.

Entre este artículo y los anteriores acerca de las implementaciones de la temporada 2023-2024 en Canal Sur y Telemadrid, dibujamos en esta edición de RUBIK un retrato sobre las tendencias tecnológicas en las televisiones en España.

“El EPRTVIB que aglutina IB3 Televisión e IB3 Radio ha realizado importantes

transformaciones tecnológicas en los últimos años, como medio de comunicación público esencial, para continuar ofreciendo a la población de las Islas Baleares la mejor calidad de imagen y audio en un mercado broadcast en continuo cambio adaptándose al actual mercado tecnológico”, asegura Gabriel Pol

A nivel de medios audiovisuales en 2023 realizaron la transición definitiva de los

antiguos canales SD a HD potenciando la calidad de imagen y audio para el disfrute del espectador.

Para conseguir este estándar de calidad, durante 2023 finalizo la implementación del sistema de digitalización de contenidos y la renovación del MAM, actualizando el antiguo sistema de gestión Digition para TV y Mar4Suite para radio a un modelo

avanzado y personalizado sobre la plataforma Dalet. “Esta actualización se traduce en una eficiente gestión, edición y reproducción de contenidos centralizados tanto para los servicios de televisión como para los servicios de radio y servicios online”, indican los responsables técnicos de esta radiotelevisión.

Respecto a la renovación tecnológica en la sede central de Calviá, que contienen los estudios principales de producción, nos cuenta que se finalizó la unificación de estos con, entre otras cosas, sistema de captación de imagen Panasonic AK-UC4000, mesas de mezclas Maverik sobre main frame Kahuna 9600 y Kahuna 6400 y sistemas de monitorado multipantalla configurable MV-820”.

Asimismo, en esa sede de Calviá, se añadió un sistema de control de audio vía red Dante con mesas de sonido Yamaha CL5, RSio64-D y Rio3224-D, así como llevó a cabo la renovación de la mesa de sonido de la unidad móvil UM01 por una Yamaha QL5 Por último, se realizó la implementación de la red de audio Dante y la actualización del sistema de intercom a OMNEO de RTS para la unificación de los flujos de trabajo con el centro de producción de Calviá.

PERE VILA

DIRECTOR DE ESTRATEGIA TECNOLÓGICA DE RTVE

UNA DE LAS TENDENCIAS MÁS CLARAS EN LA RENOVACIÓN DE LAS TELEVISIONES EN LA

ACTUALIDAD ES LA INTELIGENCIA ARTIFICIAL. AUNQUE DESDE HACE AÑOS SE ESTABA UTILIZANDO, EN LOS ÚLTIMOS TIEMPOS HA EXPERIMENTADO UN CRECIMIENTO EXPONENCIAL Y ESTÁ PERMEANDO

EN TODOS LOS ÁMBITOS TECNOLÓGICOS. RTVE ESTÁ SIENDO PIONERA, ASÍ QUE

HEMOS ENTREVISTADO A PERE VILA,

DIRECTOR DE ESTRATEGIA TECNOLÓGICA DEL ENTE PÚBLICO.

Rubik: Entraste hace muchos años en RTVE, en la parte de Ingeniería como Director Técnico, pero ahora tu cargo es diferente, más enfocado a la innovación, ¿no?

Pere Vila: Yo creo que es un cambio natural, en el sentido de que ha habido muchos cambios en RTVE. En este período han pasado seis presidentes y yo también estoy más mayor, así que se ha ido ajustado. La parte de Ingeniería, y su día a día, la dejé en el año 2015.

En estos últimos seis años he estado más dedicado a introducir innovación dentro de la casa, como por ejemplo la Ultra Alta Definición (UHD). Nosotros empezamos las primeras emisiones en el 2014 y se ha logrado una transformación, hasta el punto de que España es pionera en este tema con los primeros canales en ultra alta definición. Es una cuestión que he llevado hasta hace un año. Al entrar en el Departamento de Producción y dejar de ser innovación, pasa a ser una cuestión de producción normal.

Luego empezamos también con el trabajo con el 5G. El 5G tiene muchos ángulos interesantes desde el punto de vista de producción. Hay un ángulo que es que las cámaras estén permanentemente conectadas y las conexiones que vienen de los equipos, que es lo que se llama slicing, y es la posibilidad de reservar capacidades en determinados sitios a determinadas horas.

POR CARLOS AGUILAR SAMBRICIO

Por ejemplo, si tú quieres hacer un directo desde la plaza de la Cibeles, reservas ancho de banda para salir de allí en alguna de las células que hay de 5G. Esto no ha tirado adelante porque las empresas de telefonía han ido desplegando el 5G en los móviles, pero todavía la infraestructura continúa siendo 4G para muchas partes y, por tanto, hay tecnologías como el slicing que no se han desarrollado.

Ha habido cuestiones de 5G en la emisión o en la producción en la cloud, pero es algo que vamos dejando al Departamento de Producción.

Desde el año 2018 abrimos el capítulo de la incorporación de herramientas de inteligencia artificial en diferentes fases de la producción audiovisual. Yo ahora estoy focalizado en esto.

Rubik: Centrándonos ya en la IA, estaríamos ante la tecnología más disruptiva de todas ellas, ¿verdad? ¿Cómo ha cambiado la inteligencia artificial, que era algo que ya existía en cierta manera, a esta nueva etapa tecnológica que está cambiándolo todo?

P. V.: Nosotros llevamos años utilizando IA para según qué procesos. Por ejemplo, tenemos un sistema relacionado con la accesibilidad que analiza los contenidos del canal 24 horas cada minuto para mirar si hay lengua de signos y hace un informe

mensual de las horas en lengua de signos que hay en el canal 24 horas. Tenemos sistemas de subtitulado que subtitulan automáticamente las desconexiones territoriales.

“La IA ha explotado. Lo que antes eran algunos nichos, ahora ya afecta prácticamente todas las áreas, siempre como soporte al trabajo. Sirven para que la gente pueda hacer su trabajo mejor y más rápido”

Tenemos también un sistema que analiza los fondos documentales para hacer un metadatado automático. Tenemos un sistema que analiza los contenidos que emitimos para mirar cuántos minutos de tiempo dedicamos a hablar de objetivos de desarrollo sostenible en los programas de actualidad. Tenemos proyectos de redacción automática de texto que hemos usado para las elecciones políticas. Poco a poco, lo hemos ido introduciendo.

Son proyectos pre ChatGPT pero en los últimos años esto ha explotado. Lo que

antes eran algunos nichos, ahora ya afecta prácticamente a toda la empresa y a todas las áreas. Son herramientas que vamos contextualizando, siempre como soporte al trabajo. Sirven para que la gente pueda hacer su trabajo mejor y más rápido, ya sean periodistas de producción, grafistas o gente vinculada a la administración. Están entrando en todas partes.

Empezamos con ello en 2015-2016 y luego un proceso nuevo en 2018 con la Universidad Autónoma de Barcelona. Ahora mismo, tenemos entre diez o doce proyectos relativos a IA funcionando dentro de la casa en diferentes estamentos. Ha sido tal la explosión, que se ha tenido que crear un comité de inteligencia artificial dentro de la casa para ver cómo se va introduciendo.

Rubik: La IA también desemboca en polémicas, aunque sobre todo la generativa que tiene que ver con derechos de autor. Pero en el caso de la producción también hay consideraciones laborales. El enfoque entiendo que no es que haya menos empleados, sino reducir tiempos y que los profesionales puedan hacer más cosas, ¿no?

P. V.: Más cosas o mejor. Por ejemplo, hay herramientas que dan soporte a la verificación de noticias. Te ayudan a que puedas monitorear determinadas redes sociales o que puedas verificar un audio, un video, la viralidad o un bot. Es un conjunto de herramientas que no sustituye al verificador de RTVE, sino que ahora tiene muchas más herramientas y, por tanto, más precisión en temas de gestión.

Otra cuestión que hacemos con IA es elaborar dossieres de prensa personalizados para periodistas. Si tú eres un periodista que estás interesado en, por ejemplo, problemáticas relacionadas con la mujer, pues indicas los medios de comunicación que quieres seguir, te hace un resumen de las piezas que han tocado esa cuestión. Así, ya tienes un briefing para ti, cada día por la mañana, antes de empezar. Son temas que facilitan el trabajo.

Rubik: En ese sentido, implementando la IA en todos los procesos, ¿qué cálculos hacéis en términos de eficiencia y reducción de tiempos?

P.V.: A lo bruto, si lo tuviéramos implantado en todos los procesos y se utilizan adecuadamente las herramientas,

Avatar Hyperia, experto en tecnología musical en Radio 3

“SI IMPLANTÁSEMOS LA IA EN TODOS LOS PROCESOS, LOS PROFESIONALES DE UNA TV DISPONDRÍAN DE CASI 2 HORAS MÁS AL DÍA DE PROMEDIO”

probablemente podríamos disponer de un par de horas o una hora y media por persona al día. De promedio, porque en unos casos se ganará más y en otros menos.

Rubik: ¿En qué áreas de un broadcaster crees que puede ser más beneficiosa?

P. V.: En todas. Hay que plantearlo en el sentido de que tiene que entrar en todas las áreas, también en las áreas administrativas o de relación. En una empresa como esta es una locura la cantidad de reuniones que se hacen. Entonces, por ejemplo, si tú tienes una reunión en Teams, si la tienes en conjunción con el CoPilot, cuando acaba, te hace un resumen con los keypoints y luego te manda un correo con todo lo que se han hablado.

Para los grafistas también es interesante. Pueden tener herramientas que les ayudan a inspirarse, que les ayuden a producir contenidos y luego ellos los acaban de perfeccionar e integrarlos. Los periodistas, como decía antes, pueden tener briefings, herramientas de verificación, pueden tener disponer de más y mejor trabajo de la gente

que está en documentación, pueden tener herramientas para metadatado... Hay herramientas para resúmenes de los informes. La gente que hace informes relacionados con la audiencia puede tener también herramientas que vayan analizando qué es lo que se está viendo. Hay una herramienta que incluso ayuda a la gente que planifica los fastchannels. Es a todos los niveles.

Rubik: Has mencionado 10 o 12 proyectos con IA en los que estáis trabajando ¿Qué destacarías de ellos?

P. V.: Todos son referencia y algunos han recibido premios internacionales. Por ejemplo, los sistemas de subtitulado de los informativos en castellano y en bilingüe. Llevamos años trabajando en esto con los informativos desconectados. De otra manera, sería muy difícil. Tenemos el sistema de metadatos automático, estamos ayudando a introducir contenidos en el archivo. Este año hemos tratado cerca de 40.000 horas que se han podido introducir en un archivo que, de otra manera, no hubiéramos podido hacerlo.

Estamos analizando los programas de actualidad para ver la cantidad de minutos en los que se habla de los objetivos de desarrollo sostenible. Tenemos un sistema que hemos utilizado para hacer las elecciones municipales y generales, generando contenidos para las poblaciones de menos de 1.000 habitantes, para las áreas rurales, que es algo que no hace nadie.

Tenemos una herramienta para verificación de contenidos que se llama IVERES, que está trabajando VerificaRTVE. Tenemos un avatar en Radio 3 (RNE) que se llama Hiperia, que es un experto para hablar de temas de tecnología en la música.

Como te decía antes, tenemos herramientas de ayuda a los periodistas para crear dossieres o crear resúmenes. También para generar voces. Creo que todos son interesantes. Muchos de ellos han estado premiados a nivel nacional e internacional. Por ejemplo, en el último IBC de Ámsterdam obtuvimos premio entre por la redacción, o sea, la preparación de los contenidos para las elecciones municipales, para las poblaciones

Análisis realizado con IA del espacio otorgado a los objetivos de desarrollo sostenible durante la programación de RTVE.

de 15.000 habitantes y tuvo un acceso un poco finalista.

Rubik: ¿Estáis también participando en iniciativas de desarrollo e investigación?

P. V.: Nosotros trabajamos con universidades. Tenemos un modelo de innovar que es de investigación aplicada. Por ejemplo, tenemos una cátedra desde 2017 con la Universidad de Zaragoza y allí estamos trabajando con los telecos aspectos relacionados con los fondos documentales.

Luego, tenemos una cátedra con la Universidad de Granada, con Informática, colaborando en temas conversacionales de análisis de voz y verificación de voces. También tenemos una cátedra con los telecos del Campus de Castelldefels de la Universidad Politécnica de Catalunya, que son unos expertos en el tratamiento de imagen. Son muy buenos. Otra cátedra es con la Universidad Carlos III de Madrid, con Informática, que son muy buenos en temas de análisis de contenidos, redes sociales, etc. Estamos haciendo mucha innovación con estas cuatro universidades.

Rubik: ¿Cuáles son los próximos proyectos con IA en los que os vais a embarcar?

P. V.: Hay algún departamento, por ejemplo el Departamento de Interactivos en RTVE, que dirige Manuel Gómez Zótano, en el que se está avanzando también, porque tiene

herramientas de semántica, recomendación, etc. En mi caso, que son proyectos más transversales, me gustaría ir adelante con tres proyectos gordos. Generamos voces en español y ahora vamos a generar dos voces en catalán para Sant Cugat. Lo tendremos en noviembre. La idea era tenerlo para las elecciones en Cataluña, que iban a ser en febrero del 2025 pero se adelantaron. Es un proyecto para narrar la información de las poblaciones de menos de 1.000 habitantes, para alcanzar donde los periodistas no llegan.

“Tenemos un sistema de metadatos automático para introducir contenidos en el archivo. Este año hemos introducido cerca de 40.000 horas.
De otra manera, no hubiéramos podido hacerlo”.

Queremos lanzar un proyecto para analizar el 100% de las emisiones de RTVE para hacer los informes a la CNMC sobre pluralidad, para informar sobre accesibilidad… El sistema te genera los reportes que han de hacer las diferentes direcciones sobre los contenidos. Quiero también lanzar un Chat GPT interno para los

contenidos de informativos. Va entrando la información de todo lo que vamos emitiendo y lo vaya relacionando.

Hay otro proyecto también que me gustaría arrancar, que es un proyecto vinculado a Radio Nacional de España. Sería para recuperar material de archivo, sobre todo de territoriales, que está en cintas todavía, que no se han digitalizado. Pero no se trata tanto de digitalizarlo, sino hacer una herramienta. La idea es que pongas la cinta en un magnetofón, un Revox viejo, lo pongas en marcha y el sistema sea autosuficiente para pasar de voz al texto, reconocer personajes, clasificar la temática... Es hacer un trabajo que nos permita recuperar contenidos que, de otra manera, es muy difícil de recuperar.

Rubik: Has comentado antes que se ha creado un Comité de Inteligencia Artificial. ¿Cuándo fue y qué labores tiene?

P. V.: Está desde hace casi medio año. Había varios comités parciales y ahora se ha creado un comité general. Está presidido por la Dirección del Gabinete de Presidencia y con la participación de la presidenta en las reuniones iniciales. Vamos a tratar temas de formación, de norma interna…

Desde mi punto de vista personal, hay mucho desconocimiento sobre este tema y hay personas que son un poco apocalípticas. Es un freno que no tiene sentido. La única manera de avanzar es convencer a esta gente que lo utilice.

Reconocimiento al proyecto Iveres de RTVE en los II Premios Nacionales de Ingeniería Informática

IA: LA RESPONSABILIDAD DEL CAOS EN LA INDUSTRIA AUDIOVISUAL

LA INDUSTRIA AUDIOVISUAL ESTÁ VIVIENDO, COMO LA HUMANIDAD EN GENERAL, UNA CRISIS

INTERNA EN RELACIÓN A LOS MODELOS DE PRODUCCIÓN Y A LA OPTIMIZACIÓN DE LA RENTABILIDAD DE LOS PROYECTOS QUE SE PRODUCEN.

La eterna caída del público en las salas de cine y el alto coste de producción no sólo han generado inquietudes en el modelo de negocio clásico del cine, sino en cómo buscar otras fuentes de financiación y/o el abaratamiento del coste de producción de los proyectos. En paralelo a esta situación interna de la industria, se está viviendo una revolución a nivel mundial de la inteligencia artificial que ha ayudado históricamente a mejorar y automatizar procesos mecánicos y repetitivos, pero ¿cómo afecta directamente a esta industria?

Lo primero que debe hacerse es identificar y separar los conceptos de

inteligencia artificial generativa y no generativa. Sólo así se podrá entender que la IA no generativa lleva conviviendo con la humanidad desde antes de 1950 y que el eterno debate de la inteligencia de las máquinas ya lo puso sobre la mesa Alan Turing con su Test de Turing en su publicación “ Computing Machinery and Intelligence”. Los primeros acercamientos a la IA fueron para resolver problemas que tuvieran un alto componente matemático y lógico, algo lejos de la creatividad y de la cultura. Se debe tener en cuenta que la IA nació como una herramienta para mejorar la vida de los humanos simplificando procesos mecánicos y liberando de carga pesada a las personas . Pero ¿cómo ha

evolucionado hasta la actualidad y por qué ahora es el trending topic de cualquier foro profesional incluida la industria audiovisual?

La IA en la industria audiovisual está presente desde hace muchos años , bajo la filosofía de abaratamiento de costes y mejora de los procesos mecánicos. Está presente sobre todo en fases de la postproducción de las obras, donde se ha utilizado para borrar elementos de las escenas, para mejorar la imagen, sonido, etc. No son más que los famosos plugins o funcionalidades “inteligentes” de los programas de edición y postproducción. Ha sido con la aparición de la IA generativa, cuando ha ocupado todos los

POR ANDREU FULLANA
*Imagen generada con IA

Imagen del panel celebrado en Conecta Fiction&Entertainment 2024: ‘IA Sin Miedo: Abrazando la Responsabilidad Ante el Caos’, en el que participaron como ponentes Andreu Fullana. Director, BIAM, Pilar Sánchez-Bleda. Partner-Lawyer, Auren, Paco Torres. CEO Blend Studios e Hilario Abad. Filmmaker, Scriptwriter & Post-Producer.

temas de conversación y ha implicado a muchos más profesionales del sector cultural. Al fin y al cabo, todas las revoluciones industriales siempre dan qué hablar, y como mencionó Paco Torres, productor y creador con larga experiencia en IA, durante sus intervenciones en el panel de IA en Conecta 8 en colaboración con el BIAM: “la IA generativa es la revolución industrial más significativa de la historia”.

Pero, se debe tener en cuenta que en paralelo a todas estas revoluciones, se seguía investigando la gran aspiración del ser humano: la inmortalidad . Si por el lado científico de la sanidad se ha tenido siempre el objetivo de alargar la vida de los seres humanos, por el lado de la informática y la ingeniería se ha investigado la inteligencia artificial con la aspiración de tenerla a imagen y semejanza del ser humano . En esta carrera por la inmortalidad, se han creado las llamadas IAs generativas, que son ya inteligencias artificiales con un desarrollo interno a imágen y semejanza de como funcionan las conexiones neuronales del ser humano.

Esta carrera por la inmortalidad la hemos visto reflejada en el cine y las historias narradas en novelas a lo largo de la historia, que son el principal reflejo de las sociedades de las épocas. Títulos como Metropolis (1927) de Fritz Lang, Westworld (1968) de Michael Crichton, Blade Runner (1928) Ridley Scott, Terminator (1984) de James Cameron, El Hombre bicentenario (1999) de Chris Columbus, A.I Artificial Intelligence (2001) de Steven Spielberg o en España EVA (2011) de Kike Maíllo, y todos sus spin-offs, segundas partes y remakes. En todas y cada una de esas historias, los humanos conviven con máquinas que están hechas a su imagen y semejanza y que utilizan los mismos métodos de aprendizaje pero mucho más eficaces. Y sin querer hacer un gran spoiler, esta es la realidad que nos acompaña a día de hoy. Lo que hace unos años era aspiracional en narrativas del género “ciencia ficción”, empiezan a ser la realidad actual y poco a poco lo irán siendo más. No se debe olvidar que toda la IA va de la mano de la informática y esta se rige por la Ley de Moore desde 1965 cuando Gordon

Moore, cofundador de Intel, se dio cuenta de que los transistores de un chip se duplicarían cada dos años y el poder de procesamiento de las computadoras crecería exponencialmente.

En este escenario, se han creado las IAs generativas, que han sido alimentadas mundialmente por todos nosotros con las versiones gratuitas y con la introducción de datos masivos con y sin permiso de las propiedades y/o autorías. Y aquí es donde reside el principal problema legal, como remarcaba Pilar SánchezBleda, abogada especializada en el sector audiovisual, en el mismo panel de Conecta 8 con BIAM, la utilización de materiales protegidos por derechos de autor, propiedad intelectual y propiedad industrial, es la principal razón por la que están surgiendo miles de demandas a nivel mundial y la principal razón de las huelgas de guionistas y actores en Estados Unidos.

En estos movimientos, se trata de proteger la autoría , ya que las nuevas IAs generativas son capaces de crear, mediante las referencias de otras

obras nuevos productos de consumo audiovisual, pero a día de hoy, no es posible trazar la propiedad intelectual de todos los recursos utilizados por la IA para sacar el llamado “output”. De hecho, en el mismo panel surgió la idea de que IAs generativas de video han retrasado sus lanzamientos a la espera de ver cómo se resuelven los temas de los derechos.

Otra idea que hay que tener clara es que para la calidad de los outputs influye mucho el cómo se trabaja con la IA, como mencionaba en el mismo panel Hilario Abad, creador y experto en IA . Todo depende de cómo le pidas a la IA que te genere y cómo la vas entrenando y son los famosos ‘prompts’ los que marcan la diferencia. La IA, a día de hoy, es una herramienta que ha venido para quedarse.

Lo que no acabo de tener tan claro, como autor, es que en unos años siga siendo una herramienta o sea una compañera más de trabajo, pero con altas capacidades . El debate actual se está centrando en cómo se debe usar y qué se debe hacer, pero el debate debería ir más allá. Debe entenderse que la IA en dos años será el doble de potente e inteligente que lo que es a día de hoy , sea cuando sea que estés leyendo este artículo. Otra reflexión que se puede hacer en relación a los derechos de propiedad intelectual y la manera de aprender de una IA, viene a intentar responder la siguiente pregunta ¿acaso el ser humano no aprende a contar historias tras consumir la lecturas, obras audiovisuales o escuchando a otras personas y se hacen referencias a dichos estilos creativos?

Aquí el principal problema reside en que la IA aprende mucho más rápido que una persona humana , y aquí reside el miedo de las personas más reticentes. Además este miedo, como comentaba Pilar en Conecta 8, puede generar un caos pero se debe surfear con esta nueva tecnología y abrazarla con responsabilidad si no te quieres quedar atrás en el sector productivo.

¿Qué nos deparará la evolución de la tecnología de aquí a dos años? ¿Tendremos en un futuro películas a la carta generadas por IA en directo como se atreve a predecir Paco Torres? Deberemos preguntárselo a la IA, para ver qué piensa ella

*Imagen generada con IA

LA PRODUCCIÓN DE OBS, EN CIFRAS

• Plantilla permanente de OBS: Unos 160 empleados (representación de 28 nacionalidades)

• Plantilla durante los Juegos Olímpicos: Más 8.300 empleados (procedentes de más de 110 países)

• 72 multilateral feeds de contribución en UHD

• 28 Multi-Clips Feeds

• 82 distribution feeds HD

• 81 distribution feeds UHD

• Casi 3.300 feeds HD y UHD procesados y distribuidos dentro del IBC

• Más de 30 televisiones con derechos que representan a casi 150 organizaciones broadcast

• Más de 11.000 horas de contenido producido por OBS

• Unas 3.900 horas en directo de deportes y ceremonias

• Más de 2.300 horas de Multi-Clips Feeds

• 47 unidades de producción

• Más de 1.000 cámaras

• Más de 20 sistemas de replay multi-cámara

• Más de 3.800 micrófonos

• Algunos partners tecnológicos: Panasonic, Intel, Alibaba, Samsung, SLX Lighting, Atos, Orange, DXC Technology y Cisco

Sostenibilidad

• Reducción del 13% de espacio del International Broadcasting Centre respecto a Tokio 2020 (-23% respecto a Rio)

• Reducción del 29% de requisitos de energía broadcast en las sedes respecto a Tokio 2020 (-46% respecto a Rio)

Igualdad

• OBS ha contratado a más de 30 comentaristas femeninas (+80% respecto a Tokio 2020 y +200% respecto a Rio)

• Dos terceras partes de los cargos de OBS para la gestión de las sedes ocupados por mujeres

• OBS incrementa el número de mujeres en los equipos de producción, especialmente en funciones relacionadas con la generación de las imágenes

ISIDORO MORENO

DIRECTOR DE INGENIERÍA Y OPERACIONES TÉCNICAS DE OBS

PARA CONOCER LOS DETALLES DE LA COBERTURA DE LOS JUEGOS

OLÍMPICOS DE PARIS 2024 ASÍ COMO DE LAS INNOVACIONES

TECNOLÓGICAS EN LAS QUE ESTÁN TRABAJANDO, RUBIK HA

ENTREVISTADO A ISIDORO MORENO, DIRECTOR DE INGENIERÍA Y

OPERACIONES TÉCNICAS DE OBS (OLYMPIC BROADCASTING SERVICES),

LA ENTIDAD RESPONSABLE DE PRODUCIR LA SEÑAL INTERNACIONAL

PARA LAS TELEVISIONES CON DERECHOS DE EMISIÓN.

POR CARLOS AGUILAR SAMBRICIO

Rubik: Una de las tareas del OBS es el diseño y puesta en marcha del IBC. ¿Habéis hecho algún cambio en el IBC para estos juegos?

Isidoro Moreno: OBS tiene dos misiones fundamentales desde el momento en que se fundó. Una es, por un lado, hacer consultoría para el propio Comité Olímpico Internacional y para los Comités Olímpicos locales. Es decir, cuando se asignan unas Juegos a una ciudad, se les asesora en muchos aspectos.

Uno de los aspectos fundamentales es el IBC, que es un edificio muy específico, ya que es el Centro Internacional de Radio y Televisión. Tiene unas características un tanto peculiares pero, como hay un plan de sostenibilidad, intentamos también asesorar al comité para minimizar el impacto que pueda tener ese edificio. Antes se hacían edificios cada vez más grandes y de mucha más capacidad, pero hay una tendencia al trabajo remoto y, por tanto, intentamos adaptarnos a la infraestructura que existe. Siempre que tenga unas condiciones porque, evidentemente, tiene que ser algo adecuado.

Las especificaciones las hemos bajado mucho en cuanto a requerimientos de disponibilidad de energía eléctrica y capacidad o de tamaño y localización. Antes

“Uno de los principales objetivos de OBS es tratar de ofrecer contenido lo más personalizado y variado posible”

tenía que ser un solo edificio, ahora puede ser un edificio múltiple, porque la conectividad nos permite hacerlo.

El asesoramiento es también para las sedes, la infraestructura que necesitamos en energía y también los espacios para colocar los elementos de broadcast necesarios para las retransmisiones en cada una de las sedes. Les asesoramos también en la iluminación para poder cubrir el deporte correctamente.

La segunda misión, que es tan importante como la primera, es ser la televisión anfitriona (host broadcaster), que implica hacer la mejor

cobertura posible para todos los deportes y con una sola entidad. Aquí vamos a tener más de mil cámaras de televisión; si tuviera que venir cada televisión con sus cámaras para cubrir el evento, sería imposible.

Lo que hacemos nosotros es generar lo que llamamos el feed multilateral, es decir, la señal internacional. Esa señal internacional se pone a disposición de los radiodifusores que tienen derechos de emisión.

Con estas dos premisas intentamos primero mantener una consistencia entre Juegos. La tendencia que había anteriormente

© 2021 Olympic Broadcasting Services Owen Hammond
“Damos todo el material a los broadcasters mucho más preparado y listo prácticamente para que lo coloquen en su propia plataforma de distribución.
También para Social Media, para que pueden hacer su posting en las distintas redes sociales”

a Manolo Romero era que la televisión estatal en el caso de Europa, o con capacidad de acometer el proyecto se encargaba de hacer la cobertura televisiva. En Barcelona 92, mi primera operación Olímpica, por primera vez se formó una división dentro del comité organizador capaz de acometer el proyecto olímpico. La dimensión del proyecto era inabordable por una sola televisión, así que este formato para hacer de televisión anfitriona se conserva desde entonces.

Otro problema era la consistencia entre juegos, puesto que cambiar de personal en cada operación hacía extremadamente difícil la toma de algunas decisiones básicas por falta de experiencia. Ocurría muy a menudo que no éramos capaces de dimensionar adecuadamente un proyecto, porque no se tenía esa experiencia previa. OBS vino a cubrir esa falta de experiencia, creando una empresa con un núcleo de personal que participase en todos los eventos.

Ahora somos un núcleo de 160 personas que estamos en todas las operaciones y mantenemos ese know-how, ese conocimiento, y lo vamos transmitiendo. Por lo tanto, las operaciones cada vez son más eficientes en cuanto a la forma de implementarlas y además tener una consistencia en cuanto a calidad, formato y plan de producción de la cobertura, etc.

Rubik: Tenéis un sistema llamado OBS LiveCloud para la entrega de contenidos. ¿Cuándo lo pusisteis en marcha y cómo lo habéis mejorado para estos juegos?

I.M.: Parte de esa evolución de la que hablábamos antes, cuando uno piensa en los Juegos de hace una serie de años, vemos que la conectividad era cara y muy limitada. utilizábamos satélite y algo de fibra, pero con unos precios prohibitivos. Hoy en día hay una tendencia global hacía la conectividad por fibra.

Empezamos a establecer una red internacional de comunicaciones. A los radiodifusores que tienen su espacio de trabajo en el IBC, les ofrecemos conectarse al mundo, a sus propios países, a través de esta red de fibra.

Pero había muchos broadcasters que o bien por sus planes de cobertura o bien por una cuestión presupuestaria, o simplemente para ser más eficientes, quería quedarse en su país, porque allí tienen toda la infraestructura que necesitan para hacer la cobertura de los Juegos, y entonces la cuestión que se planteaba era cómo poder hacerles llegar el contenido que se genera en los Juegos a su propio país.

El tema del cloud era incipiente cuando lo hicimos por primera vez en el año 2020 en Lausanne, en los Juegos de la Juventud. Entonces estuvimos haciendo lo que llamamos nosotros una prueba de concepto, para ver cómo funcionaba. Lo que hicimos era mandar las señales en alta definición (HD) desde Lausanne a las Américas, y funcionó fenomenal.

Entonces, en 2021 para los Juegos de Tokio fue la primera vez que lo pusimos en marcha para distribución de contenido alta definición HD y tan solo uno (la Televisión de Israel) UHD. Este LiveCloud implicaba poner contenido en vivo, haciendo streaming, para

© 2021 Olympic Broadcasting Services Owen Hammond
Hotel Vibra Beverly Playa
Sponsored by / Patrocina
Collaborates / Colabora / Col·labora
©

los broadcasters de Tokio 2021. Solo un año después , en 2022, en los Juegos de Invierno de Beijing, pasó a ser el servicio más utilizado para distribución de contenidos, más incluso que el que tenemos de la gente aquí en el IBC, que está cableada y, por tanto, es más sencilla de implementar.

Rubik: En Tokio hubo gran incremento de visionado de los Juegos por plataformas online. ¿Cómo habéis trabajado para París en este ámbito?

I.M.: Como comentaba antes, la misión principal de OBS es la producción de los Juegos y la distribución del contenido. Si uno mira atrás, desde que yo conozco la operación olímpica hasta el año 2012, la operación era muy similar: producir la señal internacional y distribuirla a los radiodifusores, con algunos servicios adicionales.

Pero a partir de 2012 los radiodifusores empezaron a pedir contenido más listo para su difusión y había una explosión de plataformas digitales que ya se se estaban implantando y empezaban a ser claves en el mundo de la Televisión.

Nosotros lo que empezamos a hacer fue dar el contenido de nuestra cobertura de Olímpicos en formatos múltiples. En el caso de París, lo damos en la máxima calidad posible en UHD 4K con HDR y vamos dando distintos formatos en HD y con distintos niveles de compresión para que no solamente las plataformas de televisión lineales o las televisiones tradicionales tengan acceso

“Utilizamos mucho ahora la Inteligencia Artificial para la personalización de resúmenes de televisión, porque los radiodifusores quieren highlights más enfocados a su país”

al contenido, sino también plataformas digitales.

Se les simplifica mucho porque le damos todo mucho más preparado y listo prácticamente para que lo coloquen en su propia plataforma de distribución. Eso aplica también a otras cosas, como por ejemplo el Social Media (las redes sociales). Ahora también damos servicios donde los propios radiodifusores pueden hacer su posting en las distintas plataformas, en X, Instagram, etc. Todo eso se lo vamos facilitando para que la variedad del menú de opciones que ellos tengan sea lo más amplia posible y podamos cubrir el mayor espectro posible de sus necesidades.

Rubik: El núcleo de la entrevista es hablar de las innovaciones tecnológicas. Después vamos a entrar en detalle en varias pero, en términos generales, ¿cuáles serían las principales novedades técnicas, las líneas estratégicas, en la cobertura de Paris 2024

I.M.: Tratar de ofrecer contenido lo más personalizado y variado posible para que cubra todas las facetas de las plataformas es algo muy importante.

Seguimos con las emisiones UHD HDR. En Tokio ya hicimos toda la cobertura UHD, ya que previamente sólo habíamos hecho experimentos. Experimentos que ahora seguimos haciendo con 8K (empezaron con este formato en Londres 2012), pero se hace en paralelo, con una producción más pequeña, es decir, que tienen un número de cámaras menores, porque no podemos poner el mismo número de cámaras en todos los formatos.

Utilizamos mucho ahora la Inteligencia Artificial, en diversos proyectos, como por ejemplo hacer personalización de resúmenes de televisión. Muchas veces los radiodifusores nos pedían unos highlights o unos sumarios que fueran mucho más enfocados a su país, pero la obligación de OBS es hacer una cobertura neutral.

Esa cobertura neutral requiere que, por ejemplo, en un maratón, no solo se cubra la cabeza de carrera, sino que también al resto de participantes mostrando de vez en cuando la cola del pelotón para que todo el mundo tenga acceso a ver sus atletas. ¿Qué ocurre? Pues que sería inviable hacer manualmente en un plano de cámara donde tienes a 20 personas en una maratón saber, por ejemplo, qué corredor checo está ahí para la TV de su

2021 Olympic Broadcasting Services Owen Hammond

país. Ahora, mediante este sistema con IA les permitimos tener acceso a una plataforma donde se parametriza qué es lo que quieren ver y automáticamente el sistema les ofrece un contenido que considera que puede ser de utilidad para sus necesidades.

Todas las televisiones quieren hacer entrevistas a sus propios atletas. Entonces, hemos introducido en la Villa Olímpica un estudio con realidad aumentada, donde se

puede hacer el típico efecto de que te traes al atleta a tu estudio, pero acompañado de la metadata asociada a los movimientos de cámara.

Es decir, tenemos un fondo verde para hacer un chroma key, pero no solamente le mandamos el fill y el key, sino que además también les damos la posibilidad de que haya un movimiento de cámara de 360 grados y mediante la transmisión de la metadata

permite generar un estudio virtual donde se sitúa al atleta o persona entrevistada en el estudio dando una gran sensación de realismo, mejor que un simple chroma key con una cámara estática.

También estamos utilizando ahora tecnologías de 5G, tanto para cámaras autónomas como cámaras conectadas a sistemas de producción para transmisiones en vivo, como es el caso de la Vela.

© 2021 Olympic Broadcasting Services Owen Hammond
© 2021 Olympic Broadcasting Services
Silvio Ávila
“No me atrevo a decir una fecha de cuándo se implantará el 8K. Se dice que es una tecnología terminal, porque más allá de esa resolución, el ojo no es capaz de apreciarlo”

Rubik: Con respecto al UHD y HDR que has mencionado antes que ya pusisteis en marcha en Tokio, he visto un gráfico que ponía que cada vez estáis haciendo más contenido. Más contenido a más calidad, entiendo que implica un reto tecnológico importante.

I.M.: Sí, hay un reto tecnológico. Cuando se trata de hacer transmisiones en directo de deportes en UHD 4K y HDR, aunque nuestro archivo lo generamos en UHD-HDR nativo, los sumarios y postproducción los estamos haciendo ahora mismo en 1080i,

que es el formato estándar que tenemos con los radiodifusores. Además de la limitación tecnológica, debemos mantener la retrocompatibilidad, hay que tener en cuenta que muchos radiodifusores todavía no han hecho la migración.

Nosotros tenemos la obligación de dar contenido que sea retrocompatible, o sea, que cualquier radiodifusor con derechos tenga la posibilidad de poder utilizar el contenido en su formato. A veces también tenemos otro tipo de limitaciones como disponibilidad en el mercado de todos los elementos necesarios para una retransmisión televisiva. Por ejemplo, la primera vez que hicimos toda la producción en alta definición fue en Pekín en 2008, pero todas las cámaras no estaban disponibles para ser de alta definición.

Algo similar pasa con UHD, radioenlaces RF con latencias demasiado grandes que requieren la utilización de cámaras HD (1080p HDR) en lugar de UHD nativa. Esto nos obliga en algunos lugares poner otros elementos para resolver estos problemas.

Rubik: Has comentado que, paralelamente, estáis colaborando con la japonesa NHK para pruebas en 8K. ¿Cómo habéis preparado esto?

I.M.: En realidad, la colaboración es con NHK de Japón y con CMG de China, que también han traído aquí unidades de producción y entre los dos se han dividido las distintas coberturas.

Se hace una pequeña cobertura en 8K, que van a ser las ceremonias de apertura y clausura, los Urban Park Sports, como la escalada, y el atletismo, que lo va a hacer la televisión china. Combinando las dos producciones, tenemos varios teatros en el mundo donde se hace una proyección en 8K que es bastante impresionante. Uno de esos teatros está aquí en París, pero hay varios en Tokio y hay algunos en Pekín también. Allí, la gente va a tener la posibilidad de poder ver pruebas en 8K.

Rubik: ¿Manejáis un plan sobre los Juegos en los que creéis que, por primera vez, se harán de forma primordial en 8K?

© 2021 Olympic Broadcasting Services Owen Hammond

I.M.: Es difícil hacer una estimación así sobre la fecha, creo que es un poco arriesgado. En una ocasión estuve con Masayuki Sugawara, gurú del 8K en sus inicios allá por 1995, y él decía una cosa muy interesante: que el tamaño del píxel en 8K es similar al tamaño del cono del ojo, con lo cual era una tecnología terminal.

¿Qué quería decir por tecnología terminal? Que una vez tú tienes la resolución de 8K en tu ojo, más de eso, tu ojo no es capaz de apreciarlo. Entonces, personalmente, yo creo que el 8K sí que llegará porque es una mejora. La resolución 4K es muy, muy buena, pero en 8K será el máximo. El tema ha sido que en la evolución del 8K, primero se empezaron con compresiones altísimas donde se mandaba 8K en 256 Mbps, pero ahora estamos mandando 8K en nativo en 96 Gbps.

La necesidad del requerimiento de anchos de banda muy grandes así como la disponibilidad de todos los elementos necesarios de la cadena de producción en UHD-2 8K hace que sea una tecnología que todavía no es del todo accesible pero llegará.

Si miramos atrás, el analógico estuvo desde el año 36 hasta que finalmente pasó a ser señal digital en 2004. Sin embargo, de 2004 a 2010 ya hubo una transición global por la que muchísimos países ya emitían en

alta definición, y la transición a 4K también ha sido muy corta. Así que la de 8K podría llegar en un periodo más corto de lo que pensamos, pero no me atrevo a decir una fecha.

Rubik: He visto que una novedad es que el uso de lentes cinematográficas. ¿Qué puedes contar de ello?

I.M.: Sí, yo creo que el mundo del cine tiene una narrativa que es muy interesante. Utilizando una cámara cinematográfica y jugando con la profundidad de campo, tenemos una herramienta muy útil para resaltar una acción interesante desde el punto de vista de la narrativa de la imagen. La gran diferencia entre cine y televisión en deportes es en directo es complicado. el mundo del cine la planificación es extensísima y prácticamente no se hace un tiro de cámara sorpresa. Se habla mucho de la improvisación en cine, pero es más a nivel de guion.

Actualmente, estamos incorporando cámaras cinematográficas en muchísimos deportes, yo te diría que casi la mayoría para poder ofrecer ese tipo de planos más cercanos y visualmente más atractivos.

Rubik: También está aumentando el uso de drones y cablecam, ¿no es así?

I.M.: Sí, los drones dan unos ángulos muy interesantes pero tenemos la limitación de

© 2021 Olympic Broadcasting Services Owen Hammond

la seguridad. Muchas veces es complicado utilizarlos, sobre todo encima de grandes audiencias. Es increíble el nivel de seguridad que tienes que establecer para garantizar la seguridad en caso de fallo. Un dron es un elemento cada vez mucho más seguro, pero puede tener un error. Hay que tener muy en cuenta el tener un entorno seguro para preservar la seguridad del espectador y para los propios atletas.

Pero sí, efectivamente, los ángulos de visión a vista de pájaro tan cercanos dan unas perspectivas muy interesantes donde se puede ver realmente la acción desde otro ángulo. Por ejemplo, se me ocurre un deporte que es de invierno pero en el que funciona muy bien: los saltos de esquí. Ahí ponemos un cablecam que tenemos que va siguiendo al atleta o también poder subir con un dron en un movimiento mucho más arriesgado, que da unas perspectivas muy interesantes. En definitiva, no paramos de incrementar su uso, pero siempre con un estudio muy exhaustivo de seguridad.

Luego, hay deportes obvios como la vela donde, aparte del helicóptero, no te queda más remedio que tener perspectivas desde un dron para que se pueda acercar mucho más y que, además, es muy impresionante.

También en vela junto con RF trabajamos con 5G, lo que nos permite colocar teléfonos

“Estamos utilizando ahora tecnologías de 5G, tanto para cámaras autónomas como cámaras conectadas a sistemas de producción para transmisiones en vivo, como es el caso de la Vela”

como cámaras y tienen un impacto mínimo en cuanto a la competición. Porque hay que tener muy en cuenta eso. Cuando ponemos un elemento que afecta a uno de los participantes, ese elemento se tiene que replicar en todos los otros participantes del evento.

Entonces, si tenemos 20 barcos y vas a poner tres cámaras, el resto de los barcos tienen que tener un peso equivalente en forma, tamaño y peso para que las condiciones de competición sean equivalentes. En ese sentido, uno de los grandes retos que tenemos es la negociación con las federaciones para poder incorporar elementos tipo wearables, como sensores, u otro tipo de elementos.

Rubik: En las coberturas deportivas, los sistemas de replay y cámara lenta son

fundamentales. ¿Cómo lo afrontáis para Paris 2024?

I.M.: Por definición, el replay tiene la complejidad de que, cuando cambias de formato y te vas a un formato que requiere más ancho de banda, como es el caso de la UHD, el replay se complica muchísimo y, además, tienes también la limitación del máximo número de frames por segundo que podemos grabar

En una cámara en alta definición llegábamos a más de 1.200 frames por segundo para tener un replay perfectísimo. Sin embargo en 4K, el máximo número se reduce drásticamente, llegando a 120 frames por segundo en el caso de UHD-2 8K, lo que nos limita en los posible replays que podamos hacer. Pero sí, es un desafío en sí mismo cambiar de tecnología, porque tener un sistema que sea capaz de reproducir en tiempo real es muy, muy complejo. E imagina si fuéramos ya al 8K, donde estás grabando 96 gigas, o sea, la máquina que necesitas es muy potente. Es un tema complejo.

Rubik: Tenéis un servicio que es MultiClip Feeds. ¿En qué consiste y en qué deportes lo implementáis?

I. M.: Sí, este servicio empezó en Pyeongchang (Juegos Olímpicos de Invierno de 2018). Consiste en lo siguiente: tú tienes

un deporte que está retransmitiéndose en su canal porque estamos haciendo la cobertura normal de televisión, con sus gráficos, sus replays, etc., pero en paralelo se le daba la oportunidad al radiodifusor de tener más material mostrando diferentes ángulos a los mostrados durante la retransmisión, lo cual permite la posibilidad de un resumen del evento muy rico en contenido con imágenes espectaculares.

En Pyeongchang empezó con un solo deporte y ha ido creciendo. Ahora tenemos creo que 27, más del 50% de deportes de los deportes cubiertos en Paris 2024 tienen disponibilidad de MCFs.

Para que te hagas una idea de la dimensión de la cobertura que vamos a dar este año, unas 3.900 horas van a ser de deporte en vivo. Además, hacemos unas 2.300 horas de replays con estas cámaras adicionales, con lo que serían más de 6.000 horas. El resto hasta las 11.000 horas de grabación que ponemos a disposición de los radiodifusores son historias que vamos creando, o sea, entrevistas, seguimientos, pequeños reportajes de la ciudad y otro contenido.

“La realidad aumentada en el ámbito de los gráficos es fundamental. Vamos buscando nuevas formas de contar lo que ocurre en las competiciones”

Rubik: También a nivel de gráficos dinámicos creo que habéis hecho innovaciones…

I.M.: Sí, el tema de la realidad aumentada en el ámbito de los gráficos es fundamental. En colaboración con Omega, nuestro top sponsor de grafismo, vamos buscando nuevas formas de contar lo que ocurre en las competiciones. Ten en cuenta que los Juegos Olímpicos son un evento multidisciplinar donde el espectador se engancha a deportes que jamás ha visto pero no sabe muy bien cómo funcionan sus reglas.

Entonces, el grafismo es una forma de comunicación visual que describe muy bien cómo funciona un deporte, así que los vamos incorporando. En Tokio, en Vela, incluimos sobre los barcos una flechita que te dice que es el barco de tal país o que el viento en ese barco ahora mismo es de tantos nudos y va a tal velocidad. Va dando un montón de información. En Tiro con Arco incluimos en Tokio el número de pulsaciones por minuto de los atletas. En este deporte es un tema importante bajar el ritmo cardíaco, porque la precisión que tienes cuando tu cuerpo no está vibrando por los latidos del corazón es mayor.

Así que hemos puesto una gran variedad de sensores, acordados con las federaciones. Esto solamente se puede hacer si la Federación está de acuerdo y se incluye como parte de elementos de descripción de la cobertura. Lo puedes dar en la transmisión normal pero también afecta mucho a las plataformas digitales, que pueden construir una segunda pantalla con información constante.

En los gráficos se ha incluido mucha inteligencia artificial para ayudar a analizar y hacer una selección rápida de elementos que puedan ser importantes.

FERNANDO RUIZ

SPORTS DIRECTOR DE WARNER BROS. DISCOVERY

EN RUBIK CONTINUAMOS PROFUNDIZANDO EN LA RETRANSMISIÓN DE LOS JUEGOS OLÍMPICOS, EL GRAN EVENTO DE ESTE VERANO. EN ESTA OCASIÓN CHARLAMOS CON FERNANDO RUIZ, SPORTS

DIRECTOR DE WARNER BROS. DISCOVERY Y LAURA MARTÍN, BROADCAST OPERATIONS SENIOR MANAGER DE LA COMPAÑÍA, PARA CONOCER TODOS LOS DETALLES SOBRE LA RETRANSMISIÓN DEL EVENTO POR

PARTE DE LA COMPAÑÍA, QUE OFRECERÁ MÁS DE 3.600 HORAS DE CONTENIDO A TRAVÉS DE MAX.

Fernando Ruiz, Sports Director de Warner Bros. Discovery

©Warner Bros. Discovery

Rubik: ¿Cuánto tiempo lleva preparar la emisión de un evento faraónico como los Juegos Olímpicos?

Fernando Ruiz: Todo comienza en un trabajo previo inicial, en el cual enviamos al equipo a identificar cuáles serán las necesidades on site, la preparación que requiere el tipo de canales que queremos conformar, las ventanas locales que queremos tener en España, visita a las sedes olímpicas… desde que comenzó ese proceso, llevamos alrededor de dos años y medio de trabajo.

Rubik: ¿Cuáles son los principales retos que os habéis encontrado y cómo es el proceso de ir marchando checkpoints en el calendario para superarlos uno a uno?

F. R.: En un evento tan grande, el desafío más importante es el de la coordinación entre todas las partes implicadas. Somos una empresa muy grande, lo cual es fenomenal a la hora de aprovechar sinergias, pero implica un trabajo arduo de gestión interna. Tenemos 19 redacciones repartidas por Europa, con 19 idiomas diferentes y todas comparten información. Por ejemplo, si tenemos una zona mixta en natación -por poner un ejemplo-, es importante que todos tengamos claro quién va a aprovechar esa posición dentro del Hub Internacional. Saber dónde va a estar cada profesional, a qué hora. Y teniendo en cuenta que estamos hablando

POR MIGUEL VARELA

“MAX OFRECE TODAS LAS HERRAMIENTAS AL ESPECTADOR PARA CREAR SUS PROPIOS JUEGOS OLÍMPICOS A LA CARTA”

de un equipo de 800 personas trabajando, es un trabajo muy exhaustivo.

Rubik: Hemos entrevistado recientemente a vuestro socio proveedor de la señal, OBS. ¿Ellos también están implicados en ese proceso de coordinación?

Laura Martín: Ya llevamos varios Juegos Olímpicos trabajando con ellos, es importante el entendimiento mutuo que te da esa experiencia. Ellos tienen la infraestructura técnica que posibilita la producción de la señal que luego nosotros vamos a emitir. Nuestros equipos de la central están en contacto permanente con ellos, estableciendo diversas reuniones técnicas a lo largo de todo el proceso, para entender en qué puntos nos van a facilitar las señales y cuáles son los medios técnicos en los que nos vamos a poder apoyar para trasladársela a los espectadores.

Rubik: Los Juegos Olímpicos siempre son un epicentro de experimentación e innovación tecnológica, para ofrecer sorpresas a los espectadores. ¿Qué novedades habrá en ese sentido?

L. M.: No sé si se trata exactamente de una sorpresa para el espectador, pero nosotros trabajamos a día de hoy con una solución basada en tecnología 21-10 que es la más puntera a nivel internacional. Esta tecnología nos permite tener una sala de realización con todos los medios técnicos a nivel de control en Madrid, para producir en un estudio que está basado en París.

F. R.: Yo destaco la apuesta de la compañía por lo que hemos bautizado como la Warner Bros. Discovery House, ubicada en la azotea del hotel Raphael, un emblema de París situado al lado del Arco del Triunfo, donde tenemos un despliegue tecnológico brutal. En la azotea hay cuatro estudios, con diferentes capacidades, y tres posiciones de stand-ups para hacer conexiones en directo

con vistas de los tejados de París, de la Torre Eiffel, del Arco del Triunfo… esa terraza 360º permitirá albergar conexiones en directo para todos los países de Eurosport. Y como te decía Laura, con la ventaja añadida de poder usar el estudio que queramos, sin necesidad de llevar un operador de cámara, porque todo se gestiona en directo desde Madrid, eso es una gran ventaja.

Presentación de la programación de MAX para los Juegos Olímpicos en París, con la Torre Eiffel de Fondo ©Warner Bros. Discovery

Rubik: ¿Y a nivel visual en las retransmisiones? ¿Habrá alguna sorpresa?

L. M.: Nuestros estudios de televisión usan tecnología de plató virtual, con varias escenas en las que se utilizarán elementos de realidad aumentada para completar la emisión y añadir datos en 3D. El avance tecnológico en este tipo de soluciones fue brutal durante la pandemia, y nos permitió

incluso teletransportar a escala 1:1 a un deportista en 3D para que ‘estuviera’ en el plató. Pero lo bueno es que ahora podemos estar físicamente allí, tener a los deportistas en directo, que es una cosa que buscábamos tras quedarnos con las ganas en Tokio y Pekín.

F. R.: Felizmente hemos superado esas situaciones un poco marcianas de la pandemia, como cuando teníamos a Nadal jugando en Australia y Álex Corretja le entrevistaba desde Madrid… en un plató que estaba en Londres. Seguimos haciendo uso de la tecnología para complementar, pero hay que celebrar que ya podemos viajar a París y entrevistar cara a cara a los deportistas. Digamos que el despliegue tecnológico en ese sentido se va a hacer en MAX para complementar retransmisiones a la carta, en directo, resúmenes… por ejemplo, empleando tabletas táctiles para hacer análisis y repasando determinadas jugadas en algunos deportes, teniendo grandes especialistas como Pity Hurtado en baloncesto para ese tipo de cuestiones.

Rubik: ¿Cómo se ha estructurado la gran cantidad de contenido olímpico dentro de MAX para que resulte clara y atractiva para el espectador?

F. R.: Esa era la gran cuestión, porque se trata de una producción masiva de señales. Estamos hablando de 3.600 horas de contenido. A través de nuestros canales de televisión lineal cubrimos 1.700 horas, por lo que habrá otras 1.900 más que sólo estarán en MAX. Todo está muy bien organizado, separado en canales temáticos para que el espectador vaya directamente al deporte que le gusta con la máxima comodidad. Creo que se ha hecho un gran trabajo tecnológico para que la plataforma sea muy intuitiva, para que tú puedas filtrar por contenidos, por deporte, por horas, buscar atletas, ponerte alerta de medallas… MAX ofrece todas las herramientas para crear tus propios Juegos Olímpicos a la carta y componer tu propia parrilla.

Rubik: Tal vez esa era la gran limitación de las retransmisiones de los Juegos hasta ahora, la linealidad, que hacía inabarcable todo el contenido que se generaba

F. R.: Sí, en ese sentido no hay precedentes. Ofrecemos todos los Juegos

Olímpicos, cada instante de los mismos, está en MAX, ya sea bajo demanda, en directo, a través de reportajes… esa es un poco nuestra seña de identidad. Si te gusta el tiro olímpico, por ejemplo, que tiene poca cabida en los canales lineales, en la plataforma tendrás una ventana de acceso directo a esa modalidad para verla en directo, bajo demanda y acceder a highlights y resúmenes. En definitiva, una oferta inigualable.

Rubik: ¿Cómo se consigue optimizar una cantidad de contenido tan grande para evitar cortes en la plataforma o las retransmisiones?

F. R.: Una de las fortalezas de nuestra compañía es que podemos sintetizar muy bien los recursos que tenemos gracias a las distintas sinergias de la compañía. Por ejemplo, si hay un evento que estamos retransmitiendo en cabina, ese evento se podrá ver en distintas plataformas.

Gracias a nuestro desarrollo tecnológico, esos comentarios pueden estar en la app, en los pop-up channels, en los canales lineales Eursport y Eurosport 2… pero es una única señal de imagen y audio que está viajando a través de las distintas plataformas.

L. M.: Además, tenemos la garantía de trabajar con las empresas más importantes a nivel mundial del sector broadcast para darnos soporte, entre 15 y 20 fabricantes que son todos empresas punteras para nuestras salas, como también lo son las empresas externas que nos dan soporte.

Rubik: ¿Cuántos equipos de edición y montaje tenéis trabajando cada día durante los Juegos?

L. M. Tenemos dos centrales en las que se está recogiendo constantemente todas las señales que OBS nos provee. Todas ellas se graban en un media set management, donde tenemos el contenido centralizado. Luego, en cada una de nuestras regiones pueden acceder a ese contenido, y en cada sede tienen su propio equipo de edición. A nivel coral, también tenemos un Hub central en el que se trabaja constantemente para facilitar piezas completas a todas las regiones.

F. R: Por darte un ejemplo concreto, nosotros aquí en España acabamos de preparar un reportaje sobre la Selección Española de balonmano. Lo hemos subido a nuestro sistema central que se llama MAM, desde el que todas las sedes pueden

Retransmisión del equipo de Eurosport, con París al fondo ©Warner Bros. Discovery

descargar ese contenido con su script, editarlo y retocarlo en la medida que lo consideren oportuno y utilizarlo. Esa es una de nuestras grandes ventajas para generar contenido.

L. M.: MAM es el nombre genérico de la herramienta. Y luego, el nombre del gestor de archivos -en inglés, media set management– se llama SCS de la empresa Grass Valley. También tenemos la posibilidad, que es muy útil, de acceder desde nuestro control de realización a esas señales que se están grabando. A través de un sistema de repetición podemos cortar y editar esas imágenes on the fly, sin necesidad de ir a una sala de edición. A los pocos segundos de que están ocurriendo las imágenes, ya las tenemos y pueden ser trabajadas con rapidez.

Rubik: En lo referente al volumen y nivel de retransmisiones. ¿Marcarán estos Juegos un antes y un después en el ámbito de las retransmisiones deportivas?

F. R.: : No sé si sería muy pretencioso decir eso, pero lo que sí estoy en condiciones de asegurar es que cualquier apasionado de los Juegos Olímpicos va a ser muy feliz. Porque hemos vivido todo el trabajo para emitir los Juegos como si fuéramos un espectador más. Y hay espectadores que antes se podían frustrar, porque querían ver una competición o un partido que no encontraba en ningún canal de televisión lineal, ya que hay muchos deportes de nicho que tienen menos seguimiento, pero si sumas a muchos espectadores de cada nicho al final tienes una cantidad muy grande.

Con la retransmisión de MAX no tendrás que esperar a ver si puedes ver un partido de hockey hierba, una competición de tiro olímpico o de breaking. Los espectadores tendrán un acceso total a los 32 deportes olímpicos, podrán moverse de uno a otro con fluidez, que dicho así parece fácil, pero es un reto tecnológico muy importante. En ese sentido, estamos ofreciendo la retransmisión más completa de la historia de unos Juegos Olímpicos.

Warner Bros. Discovery House en el Hotel Raphael
©Warner Bros. Discovery

EL IBC DE ÁMSTERDAM DESVELA SU PROGRAMA DE CONFERENCIAS

EL IBC, LA PRINCIPAL FERIA DE TECNOLOGÍA AUDIOVISUAL Y BROADCAST EN EUROPA, CELEBRARÁ SU PRÓXIMA

EDICIÓN DEL 13 AL 15 DE SEPTIEMBRE. LAS CONFERENCIAS, PRESENTACIONES, PANELES Y OTRAS SESIONES SE TRASLADAN A UNA NUEVA UBICACIÓN DENTRO DEL RAI AMSTERDAM.

Sally Watts, directora de contenido de IBC, afirma que “los temas específicos que abordarán nuestros paneles abarcan desde la inteligencia artificial y la colaboración entre humanos y máquinas hasta los canales FAST y su impacto en la monetización y la lucha contra las noticias falsas y la desinformación, además de otras tendencias disruptivas que presentan nuevos desafíos y oportunidades”.

El IBC de Ámsterdam 2024 ha presentado ya lo que desplegará en cuestiones de conferencias, presentaciones, paneles y otras sesiones en las Conferencias de IBC de este año.

La duración se ha ampliado a tres días, en lugar de los dos del año pasado. También hay cambio de espacio, pues se trasladará al Auditorium Complex del RAI, con dos salas y un gran salón independiente. El espacio acogerá también los premios IBC Innovation Awards el 15 de septiembre.

Benedict Evans, el analista de medios y tecnología, impartirá una masterclass de apertura titulada ‘Navegando por un panorama de medios cambiante: IA y todo lo demás’. Evans explorará cómo la disrupción

se ha convertido en la nueva normalidad y analizará cómo las tecnologías inmersivas, la IA, la nueva conectividad, las experiencias de contenido personalizadas y otros desarrollos están transformando el sector.

Inmediatamente, se desarrollarán una serie de breves charlas informales sobre la innovación tecnológica, con la participación de: Grace Boswood, directora de tecnología de Channel 4; Cristina Gomila, directora general de Tecnología de Contenidos e Innovación de Sky; Sinead Greenaway, directora de tecnología de transmisión y usuario final de la BBC.

El segundo día de la conferencia contará con ponencias de Girish Bajaj, vicepresidente de Prime Video y Amazon MGM Studios Technology, y Phil Wiser, vicepresidente ejecutivo y director de tecnología global de Paramount Global.

También habrá una charla informal conjunta titulada ‘En la intersección de la IA y la creatividad: por qué el futuro está en la colaboración hombre-máquina’ con Sachin Dev Duggal, fundador y director general de Builder.ai, y Andy Hood, vicepresidente de tecnologías emergentes de WPP.

Otra sesión del segundo día que promete es ‘Juegos Olímpicos 2024: Tecnología para transmitir más allá de las expectativas’, con Israel Esteban, director de tecnología de beIN Media Group y James Miles, director sénior de flujos de trabajo de eventos en vivo en NBC Sports, que hablarán sobre la tecnología utilizada, las lecciones aprendidas y lo que eso significa para el futuro de la emisión de deportes. Al día siguiente, otra sesión sobre ‘La inteligencia artificial en los Juegos Olímpicos de París 2024: nuevos análisis para llegar a nuevas audiencias’ contará con Chris Jackson, director global de datos digitales y análisis de Olympic Channel, que hablará sobre los desafíos de los datos en tiempo real y cómo la inteligencia artificial puede ayudar.

Por último, cabe destacar que habrá una charla de Maria Rua Aguete, Directora Senior de Investigación en OMDIA, que presentará hallazgos sobre temas y tendencias actuales, incluido el impacto de la IA, la evolución de los modelos comerciales, los cambios en los hábitos de visualización de los consumidores, la influencia de las Smart TVs y otros desarrollos en el sector audiovisual.

IBC Ámsterdam 2023

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.