TM Broadcast España #166, Junio 2023

Page 1

EDITORIAL

La primavera ha terminado con multitud de encuentros realizados por distintas firmas comerciales. Siempre se han producido, sin embargo parece que en los últimos meses el afán por celebrar micro eventos en los que hablar de tú a tú con los clientes gana protagonismo en el mercado.

Esta cuestión está vinculada con otras dos sin duda atractivas. Por un lado la cercanía de IBC, que un año más abrirá sus puertas en septiembre y servirá como amplificador y dinamizador de las novedades del mercado. Por otro la opinión, cada vez más marcada en los grandes directivos del sector broadcast, respecto al futuro de las grandes ferias. Recientemente charlando con Jeff Rosica, CEO de AVID, nos comentaba que las ferias internacionales pierden fuelle en pro de los eventos locales, que tienden a hacerse desde 2020 cada vez más potentes y más numerosos.

El tiempo dirá si esa tendencia se acentúa o, por el contrario, los grandes eventos internacionales recuperan facturación, expositores y visitantes prepandemia.

Lo cierto es que, entre tanto, ferias como Bitam Show, referente nacional del audiovisual español, este 2023 batirá récord de expositores y facturación.

Hablando de eventos, la revista TM Broadcast ha organizado recientemente un nuevo Desayuno de Trabajo en el que ha tenido el privilegio de contar con algunos de los directivos top y charlar distendidamente sobre cuestiones relativas a “Nuevas tecnologías y optimización de costes”. Ya estamos trabajando en un amplio artículo que verá la luz el próximo número para trasladar a todos los lectores las interesantes opiniones que nos brindaron.

Fueron muchos los temas planteados como se verá. Al tiempo que detectamos, como viene siendo habitual estos últimos meses, un desbordante interés por los asuntos relacionados con IA, futuro, posibilidades, incluso aspectos éticos relacionados con su uso.

En sus manos un nuevo ejemplar de TM Broadcast. El número pre-vacacional. Disfrute de los contenidos de primer nivel preparados especialmente para usted.

Editorial EDITORIAL TM Broadcast 3

EDITOR

Javier de Martín editor@daromediagroup.com

DIRECCIÓN DE CONTENIDOS

Mercedes González mercedes.gonzalez@tmbroadcast.es

DIRECCIÓN ADMINISTRACIÓN

Laura de Diego laura.dediego@daromediagroup.com

DIRECCIÓN COMERCIAL

Javier M. Gutiérrez jmg@tmbroadcast.es

PUBLICIDAD

Sergio Castaño sergio.castano@tmbroadcast.es

Patricia Pérez ppt@tmbroadcast.com

REDACCIÓN redaccion@tmbroadcast.es

MAQUETACIÓN

Sorex Media

COLABORADORES

Yeray Alfageme

Carlos Medina

Luis Pavía

Carlos Alberto Martín

Javier Guerra

Luis Sanz

Alfonso Redondo

José Luis Cordero

Carlos González

Fernando Suárez

SUSCRIPCIONES suscripciones@tmbroadcast.es

Imprime: IMEDISA ARTES GRÁFICAS S.L.

Dep. legal: M-11254-2008

ISSN: 1888-6965

Impreso en España en junio de 2023

TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.

TM Broadcast es una publicación de Daró Media Group S.L.

Centro Empresarial Tartessos

Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid.

Tf: 91 640 46 43

20 Final de la UEFA Champions League con Movistar+

Charlamos con Movistar Plus+ acerca de los desafíos que ha supuesto una producción de tal calado, los procesos de pre y post producción requeridos para una emisión fluida, las medidas de seguridad adoptadas y la innovación implementada en esta última edición.

26 Protocolos de contribución y distribución en entornos Broadcast

Una visión panorámica de los protocolos para contribución de señales de TV en entornos broadcast: ST2110, SRT, NDI y más.

Actualidad 4 SUMARIO SUMARIO 6 The Viewfinder, por Yeray Alfageme 19

36

Yamaha Serie DM7: mayor potencia y menor precio TM Broadcast y AV Integración

Audiovisual, otra de las cabeceras de este grupo editorial, fueron los únicos medios españoles en asistir a la presentación de la nueva serie DM7 de Yamaha en la Japan House, Kensington, Londres.

Computación cuántica, ¿ficción o realidad?

Para comenzar, debemos entender qué es la computación cuántica y por qué suena un poco a ciencia ficción o a serie de TV con Sheldon Cooper a la cabeza.

50

44 62

HDR Broadcast TV. Tecnología y creatividad mano a mano

Vamos a conocer a través de este artículo cómo el HDR conquista poco a poco el panorama actual del audiovisual profesional.

con

SUMARIO TM Broadcast 5
Filmando “The Last Of Us”
A día de hoy es difícil decir cuándo estará disponible esta tecnología, pero parece que está más cerca de lo que imaginábamos hace unos años. Eben Bolter 56 Revolucionando la industria de los medios: Liberando el poder de los entornos virtualizados en la nube

Proyecto IVERES de RTVE: los primeros resultados usando la IA contra la desinformación

RTVE, que, junto con la Universidad Autónoma de Barcelona (UAB) lidera el proyecto IVERES, ha dado a conocer el pasado jueves 15 de junio los primeros resultados de la lucha contra las fake news y la desinformación generalizada; la presentación se ha hecho a través de un acto celebrado en la sede del Parlamento Europeo en España (Madrid), y ha coincidido con la tramitación en el PE de la primera ley que regula el uso de la IA

En este sentido, Borja Díaz-Merry, responsable de VerificaRTVE ha explicado cómo se están aplicando ya en la redacción de Torrespaña diversas herramientas de verificación, con muy buenos resultados. Después de indicar que “los desinformadores están muy bien preparados”, ha instado a “disponer del mayor número posible de herramientas para que los equipos de investigación puedan equilibrar la balanza y puedan luchar eficazmente y rápidamente contra las falacias”.

La Oficina del Parlamento Europeo en Madrid ha celebrado el encuentro “Ciencia y tecnología ante la desinformación en Europa. Proyecto IVERES”. Para Damián Castaño, jefe de prensa de la Oficina, “la nueva ley significa un paso muy importante y posiblemente estará disponible durante la presidencia española de la UE y deberá ajustarse a los principios y valores de los países miembros”. Verónica Ollé, directora del Gabinete de la Presidencia de RTVE, ha puesto el énfasis en la conveniencia de alejar el temor a las nuevas tecnologías, “mientras no se pierda de vista que los ciudadanos tenemos derecho a una información veraz, reconocida constitucionalmente”. Por su parte, Mª Ángeles Ferre González, jefa de la Subdivisión de Programas Temáticos Científico-técnicos de la Agencia

Estatal de Investigación ha resaltado la oportunidad de la colaboración público-privada y la acción decidida de la Agencia por impulsar proyectos que supongan un avance en la lucha contra la desinformación.

Pere Vila, director de Estrategia Tecnológica de RTVE ha defendido la bondad del trabajo multidisciplinar conjunto que representa el proyecto IVERES, cuyo objetivo es proporcionar una herramienta de inteligencia artificial en español que ayude para la verificación de audios, imágenes y textos y permita conocer su autenticidad, entre otras utilidades y ha reclamado a instituciones y empresas que “inviertan en conocimiento para que cada vez haya más ingenieros e ingenieras formados para abordar los nuevos desafíos a los que se enfrenta la sociedad”.

La jornada ha servido para dar a conocer los avances en el desarrollo del proyecto IVERES. Santiago Tejedor, de la UAB y codirector del proyecto, ha explicado el trabajo de su equipo en internacionalizar las claves del periodismo de verificación y la necesidad de realizar un gran esfuerzo pedagógico “si queremos evitar que la IA se vea como un enemigo”. Respecto de la investigación en monitorado de redes sociales, José María Álvarez de la UC3M, ha reconocido la dificultad en distinguir las verdades de las falsedades, si bien hay un consenso en considerar que estamos delante de un problema de gran magnitud y en concreto, en su área de investigación, “aumentado por los modelos de IA en lenguaje generativo, que son una locura”.

Actualidad 6 NOTICIAS TM Broadcast RTVE

Esta acción se encuadra dentro del plan estratégico del grupo mediático, que planea abrir centros de producción virtual en otras ciudades como Barcelona, Madrid, Miami y Nueva York; las instalaciones que Grup Mediapro ha establecido en Miami, Florida, contarán con una pantalla LED de grandes dimensiones y tecnología punta, gracias a su alianza con BrandStar

digitalmente. Este sistema de grabación permite explorar nuevas fronteras audiovisuales ya que ofrece posibilidades infinitas de customización y genera entornos inmersivos para películas, series, programas de televisión, anuncios, vídeos musicales y eventos híbridos.

Esta nueva línea de negocio se enmarca en un ambicioso plan de Grup Mediapro que tiene como objetivo proporcionar equipamientos de producción virtual en sus principales centros de producción a lo largo de 2023-2024. En esta primera fase de desarrollo, el grupo prevé abrir centros en Miami, Barcelona, Nueva York y Madrid.

Mediapro US ha inaugurado recientemente el centro de producción virtual más grande del sur de Florida, Estados Unidos, que incluye la instalación con una pantalla LED, de grandes dimensiones: 24 metros de ancho, 7 metros de alto y más de 1.000 paneles. Este videowall LED, capaz de generar entornos inmersivos, permitirá al grupo ofrecer servicios de producción virtual a sus clientes.

El acuerdo plurianual firmado entre Mediapro US y BrandStar, una

de las productoras con más recorrido de los Estados Unidos, ha permitido impulsar esta nueva línea de negocio. BrandStar se ha hecho cargo del diseño, construcción e instalación de la pared LED y también ofrecerá servicios de soporte para operar el sistema de producción virtual.

Esta instalación audiovisual funciona con el software Unreal Engine, una herramienta de creación 3D que combina de manera sincrónica el entorno real con elementos creados

En Barcelona el plató de producción virtual se pondrá en marcha a finales de 2023. Este estudio se ubicará en el 22@, el centro de producción audiovisual urbano más grande de Europa, y combinará 235 m2 de pantallas LED con croma. En el tercer trimestre de este mismo año, el grupo sumará un nuevo centro de producción virtual de 1.500 m2 en Nueva York. La segunda fase de este plan estratégico se completará con la puesta en marcha, a partir de 2024, de otro centro en Madrid. Y, en las siguientes fases, Grup Mediapro desplegará esta tecnología en todos sus centros de producción.

Actualidad NOTICIAS TM Broadcast GRUP MEDIAPRO 8
Grup Mediapro inaugura en Florida el centro de producción virtual más grande del sur del estado

Blackmagic

presenta tres modelos

de solución

portátil

broadcasting: Atem TV Studio HD8, HD8 ISO y 4K8

El nuevo Atem Television Studio es un switcher de producción en vivo profesional integrado en un panel de control de transmisión, por lo que puede usarse para trabajos de alto nivel y al mismo tiempo portátil debido a su tamaño compacto. Tiene 8 entradas SDI convertidas a estándares, salidas auxiliares, 4 manipuladores de croma, 2 manipuladores descendentes, SuperSource, 2 reproductores multimedia y un amplio catálogo de transiciones. Además, hay un modelo ISO que registra las 8 entradas para editar.

Permite seleccionar entre transiciones, como disolver, o efectos más dramáticos, como sumergir en color, apretar DVE y empujar DVE. Incluso puede agregar un DVE para efectos de imagen en imagen con gráficos personalizados. Por último, puede usarse para transmitir la señal en directo.

El panel frontal incluye botones para seleccionar fuentes, activar transiciones y configurar efectos de vídeo. También ofrece una barra en T incorporada para el control de transición manual. El panel frontal incluso tiene un área de control del mezclador de audio con medición en vivo en una pantalla LCD diseñada para mostrarlo.

Grabación en el almacenamiento de red interno

Atem Television Studio HD8 ISO admite la grabación de todas las entradas de vídeo en el almacenamiento flash interno M.2 opcional. El

de

almacenamiento interno estará disponible para compartir a través de la red Ethernet local para que obtenga un flujo de trabajo de posproducción completo. Esto significa que las personas pueden trabajar en tareas de posproducción, como edición, corrección de color y preparación de gráficos, mientras graban nuevos programas en vivo.

Mezclador de audio Fairlight incorporado

Con un mezclador de audio Fairlight incorporado, Atem Television Studio permite realizar mezclas complejas de sonido en vivo. El mezclador interno presenta suficientes canales para todas las entradas SDI, así como canales adicionales para las entradas XLR, RCA y MADI. Cada canal de entrada cuenta con ecualizador paramétrico de 6 bandas de la más alta calidad, compresor, limitador, expansor y puerta de ruido, así como controles de nivel y panorama.

El nuevo switcher de Blackmagic se presenta en tres modelos diferentes con distintas capacidades y características:

ATEM TV STUDIO HD8

Switcher de producción en vivo compacto con panel de control de transmisión incorporado, 8 entradas 3G-SDI, transmisión, grabación, vista múltiple, DVE, manipuladores, cámara web USB, reproductores multimedia, intercomunicación y almacenamiento en la nube opcional.

ATEM TV STUDIO HD8 ISO

Este modelo ISO incluye todas las funciones de ATEM Television Studio HD, agrega grabación ISO de las 8 entradas y admite hasta 8 cámaras remotas con control y tally para cada cámara.

ATEM TV STUDIO 4K8

Switcher de producción en vivo Ultra HD similar al modelo HD no ISO, aunque con diferentes características: incluye 8 entradas 12G-SDI, 10 salidas auxiliares 12G-SDI para grabadoras externas, conmutador Ethernet 10G de 4 puertos y más.

Actualidad BLACKMAGIC DESIGN
NOTICIAS TM Broadcast 10
EL NUEVO SWITCHER DE BLACKMAGIC SE PRESENTA EN TRES MODELOS DIFERENTES CON DISTINTAS CAPACIDADES Y CARACTERÍSTICAS.

La distribuidora española

Magnetrón cumple 50 años en la industria del audio

Magnetrón, una de las empresas españolas a la cabeza de la distribución de equipos de sonido de alta calidad, realiza un recorrido por su trayectoria ante su quincuagésimo aniversario

La empresa española, distribuidora oficial de Sennheiser para España y Portugal, cumple en 2023 cincuenta años dedicados a la dinamización del mercado audiovisual, comprometidos con la calidad del sonido y el servicio a sus clientes. Durante estos 50 años de trayectoria, la mayorista se ha ocupado de la distribución de otras marcas reconocidas del audio profesional (FBT, Rycote, Neumann, Xílica, Blaze, Klipsch, entre otros).

Desde sus orígenes, en 1973, hasta hoy, Magnetrón se ha situado a la vanguardia tecnológica del sonido, centrándose en un único objetivo: ofrecer el mejor acabado en la gestión del audio. A este respecto, su director, Jesús Pascual, comenta:

“Este aniversario supone para nosotros un hito importante, aunque esto solo significa el comienzo. Estamos muy entusiasmados con lo que nos va a deparar el futuro y nos comprometemos a seguir ofreciendo solo el mejor sonido a nuestros clientes”.

A pesar de los cambios constantes en el panorama global, Magnetrón se mantiene fiel a su compromiso de ofrecer «solo el mejor sonido» con innovaciones como el EW-DX de Sennheiser, que brinda un sonido superior y seguridad inalámbrica, o las soluciones TeamConnect Ceiling, que ofrecen una alta calidad de audio para salas de reuniones y conferencias o espacios de colaboración.

Otro buen ejemplo es la gama de amplificadores

DSP PowerZone Connect de Blaze Audio o los roomkit de sala optimizados que Xílica, en colaboración con Sennheiser, ha lanzado recientemente.

TM Broadcast
MAGNETRÓN

Ateme integra el protocolo BISS-CA para protección de contenidos en todas sus soluciones premium

Ateme, empresa dedicada a las soluciones de compresión, entrega y transmisión de vídeo con innovación en su núcleo, ha hecho que el estándar BISS-CA para la protección de contenido sea accesible dentro de todos sus productos y soluciones premium, ya que la firma es co-desarrolladora del BISS-CA estándar; ofrecer la solución de forma gratuita busca contribuir a facilitar la adopción del protocolo por parte de la industria.

Un protocolo de codificación desarrollado conjuntamente con la Unión Europea de Radiodifusión (European Broadcasting Union) y los Servicios de Eurovisión, el Acceso Condicional al Sistema de Codificación Interoperable Básico (BISS-CA) ofrece acceso abierto y condicional y brinda a los usuarios una contribución transparente, rastreable e independiente del proveedor y un sistema de codificación de distribución primaria. BISS-CA es seguro gracias a su encriptación con claves rodantes. Como estándar, es interoperable entre codificadores, transcodificadores, multiplexores y decodificadores. También es escalable y simple de operar, utilizando claves públicas para administrar activos. Ateme incorpora BISS-CA a sus soluciones premium KYRION, TITAN y PILOT.

Ateme tiene como objetivo ayudar a los propietarios de contenido a luchar contra la piratería de transmisiones deportivas en vivo. Desde la introducción de BISS-CA en 2018, Ateme ha empleado con éxito el

estándar y mejorado sus beneficios. Por ejemplo, al agregar soluciones de marca de agua de diferentes proveedores de seguridad de datos, con control directo a través de BISS-CA, Ateme ha transformado la protección de canales en una solución antipiratería completa, con eliminación de activos cuando se detecta una fuga. Agregar el modo de audio BISSCA también aumenta la granularidad de la gestión de activos, lo que permite el cifrado separado de cada canal de datos. Esto hace posible aislar audio o datos específicos y transferirlos de forma segura a receptores dedicados.

“La piratería está aumentando. Según la firma internacional de investigación Parks Associates, podría resultar en la pérdida de hasta 113 mil millones de dólares para los servicios de transmisión para 2027”, dijo Julien Mandel, director senior de marketing de soluciones en Ateme. “Por eso es importante continuar la lucha contra la piratería. Es por eso que en Ateme que-

remos hacer que BISS-CA sea más accesible, incluyéndolo en nuestros productos y soluciones premium. Lanzado en NAB Show 2018, BISS-CA ha evolucionado para cumplir con nuevos modos de operación. Hoy en día, no es solo para la distribución satelital: la combinación de BISS-CA con cualquier protocolo de transmisión de solicitud de repetición automática (ARQ), como el transporte confiable seguro (SRT), permite la transmisión segura a través de Internet pública, así como la entrada/salida segura hacia/desde la nube. A medida que continuamos innovando y mejorando nuestras soluciones, también nos complace ofrecer todas las nuevas soluciones de entrega premium con acceso gratuito al soporte de BISS-CA en nuestros codificadores KYRION, nuestro conjunto de transcodificadores TITAN y nuestro sistema de gestión PILOT”.

Actualidad ATEME
NOTICIAS TM Broadcast 12

Berdonés y Jimeno lanzan una OPA para llegar al 80% del capital de Secuoya

Raúl Berdonés y Pablo Jimeno anuncian una opa para adquirir la mayoría del capital de la compañía de contenidos. Los fundadores del grupo anuncian una oferta pública de adquisición del 55% del capital que, sumado al 25% actual, supone el 80% del accionariado, con una prima sobre el valor actual de cotización de las acciones del 55,9% y con un valor de compañía de 127,5 millones de euros. De esta manera, Secuoya deja claro su objetivo de consolidarse como un estudio independiente, de accionariado español y de alcance global.

Además, la compañía comunicará en un futuro cercano su estrategia empresarial al menos para el próximo lustro, con la meta de integrar talento creativo y productores destacados en el mercado hispanohablante.

Desde los inicios de su andadura, el Grupo Secuoya ha apostado por la internacionalización, y hoy opera de forma habitual en cuatro mercados: Estados Unidos, Latinoamérica, Oriente Medio y Europa.

Con Secuoya Studios como eje central de la estrategia integral de operación 360º de su negocio de contenidos, la compañía apuesta por el talento en español, tanto a nivel creativo como ejecutivo: David Martínez, Alfredo Pérez de Albéniz y Eduardo Campoy dirigen las áreas creativas del estudio, Unscripted, Cine y Ficción, a las que se suman los departamentos de Stories, capitaneado por Eduardo Galdo, Production Services y Commercial & Distribution, este último liderado por el equipo de Sergio Pizzolante, ubicado en la oficina de Miami.

SECUOYA TM Broadcast

MLEDGE, un proyecto sostenible de desarrollo de infraestructuras Cloud y machine learning

La iniciativa sostenible para el desarrollo de redes eficientes y soluciones en la Nube y de Federated Learning será fundamental para la evolución de las infraestructuras Cloud y machine learning/aprendizaje federado en España; además, el proyecto, que cuenta con financiación del Ministerio de Asuntos Económicos y Transformación Digital y de los fondos europeos Next Generation, se orienta a impulsar la I+D+i nacional y cuenta con los Objetivos de Desarrollo Sostenible de la Agenda 2030

La toma de decisiones basada en datos e impulsada por algoritmos de Aprendizaje Automático o Machine Learning (ML) está cambiando la forma en que funcionan la sociedad y la economía, con un profundo impacto positivo en nuestra vida cotidiana. Para que estas soluciones sean efectivas, a menudo se tienen que procesar datos cerca del usuario/a final y dichos datos pueden ser privados y confidenciales.

El Aprendizaje Distribuido y, en particular, Federado (FL: Federated Learning) emerge como un paradigma líder dentro de la rama del ML satisfaciendo estas dos propiedades. El aprendizaje federado ha crecido en paralelo con la expansión de la nube hacia el borde (CloudEdge) pero, curiosamente, ambos se han desarrollado en su mayoría de forma

independiente, a pesar de su paralelismo natural. En MLEDGE (Aprendizaje Automático en la Nube y en el Borde), IMDEA Networks trabajará, con el Dr. Nikolaos Laoutaris como investigador principal, para revertir esta tendencia mediante la implementación de FL como una capa intersectorial independiente pero optimizada sobre Cloud Edge, con aplicaciones y datos del mundo real para demostrar que esta sinergia puede producir grandes beneficios para todos.

Se estima que la economía de los datos alcanzará un impacto de 827.000 millones de euros para los 27 países de la UE en 2025. Por ello, el objetivo es habilitar un ecosistema próspero de servicios FL en el borde, seguros y eficientes, capaces de facilitar el uso de datos persona-

les y B2B confidenciales para entrenar modelos de machine learning (para usuarios/as finales individuales u organizaciones administrativamente independientes que colaboran bajo diferentes suposiciones de confianza -de total a nula, y cualquier nivel intermedio-).

Eficiencia, sostenibilidad y seguridad

Como destaca Elisa Cabana, Investigadora Postdoc de IMDEA Networks: “El proyecto aporta investigaciones, entre otras áreas, en la de servicios de aprendizaje federado (FLaaS), procesamientos en el borde de la nube (Cloud Edge), uso eficiente de FL en nubes híbridas y protección contra ataques, protección de datos sensibles o confidenciales que sean intercambiados, gestión de los desafíos de portabilidad de datos en

NOTICIAS TM Broadcast 14 Actualidad IMDEA NETWORKS

el borde, etc.”. En este contexto, el equipo diseñará un marco de desarrollo y componentes que ayuden a popularizar este tipo de servicios, así como soluciones contra ataques de envenenamiento o inferencia lanzados desde servidores de borde rebeldes y/o nodos de agregación “honestos pero curiosos”. Incluye la creación de una ‘marca de agua’ para proteger contra la redistribución de datos o metadatos intercambiados entre servidores en el borde en el marco del FLaaS.

Otros aspectos a destacar serán, como resume Cabana: “Crear una capa de lógica económica y de negocio que implemente una distribución justa de costes e ingresos entre las partes cuando colaboren

en el entrenamiento de modelos de ML, y dar soporte a DevOps (Conjunto de prácticas que agrupan el desarrollo de software y las operaciones de TI. Su objetivo es hacer más rápido el ciclo de vida del desarrollo de software y proporcionar una entrega continua de alta calidad) y al desarrollo continuo de servicios de aprendizaje automático en la nube, optimizando los costes mediante su monitoreo, predicción y asignación inteligente y energéticamente eficiente de los trabajos de computación”. La investigación contribuirá, además a diseñar, implementar y hacer públicos demostradores que trabajen con datos sensibles de individuos, y alimenten modelos útiles en áreas de la econo-

mía tradicional y de la economía digital como FinTech, identidad, salud, transporte, control de acceso, etc.

El proyecto será fundamental para el desarrollo de infraestructuras Cloud y ML/FL en España y para el fomento de la I+D+i nacional. Contribuirá a los Objetivos de Desarrollo Sostenible establecidos por las Naciones Unidas para 2030 y promoverá el desarrollo sostenible de redes eficientes y soluciones FL a través del trabajo práctico que puede impactar de manera sustancial y positiva en el medio ambiente.

Actualidad IMDEA NETWORKS

Panasonic introduce la actualización ST2110 en su línea de cámaras de estudio AK-HC3900

La multinacional tecnológica de origen japonés, cuya línea de productos abarca desde cámaras de estudio básicas hasta de alta gama, la línea PTZ UE160 y la plataforma de vídeo en directo Kairos, anuncia una actualización ST2120 para su cámara de estudio AK-HC3900, que estará disponible a partir del tercer trimestre de 2023 a través de un código de activación AK-SFC391 de pago

La actualización de software para el modelo AK-HC3900 apunta a mejorar la calidad y eficiencia en los centros de producción y a reducir costes, debido a que elimina la necesidad de unidades de control de cámara (CCU) y, con la nueva adaptación, garantiza la transmisión sin compresión de calidad broadcast.

Gracias a esta implementación la cámara de estudio Panasonic AK HD podrá conectarse a un equipo de emisión o conmutador de red compatible, lo que da la posibilidad de transmitir imágenes HD sin comprimir la calidad broadcast, directamente desde el cabezal a través de IP con una latencia muy baja, sin necesidad de una CCU. También admite vídeo de retorno IP (HD), señal de referencia (PTP), salida de señal troncal (HD), entrada de avisador y entrada/salida de audio de intercomunicación IP con el ST2110.

Por otro lado, la AK-PLV100, que ya admite esta renovada adaptación sin comprimir, también recibirá una actualización de firmware en un

futuro cercano. Esto permitirá la salida SMPTE ST2110, incluida la compresión JPEG-XS de serie directamente desde el cabezal de la cámara, lo que facilitará las operaciones de producción en directo y minimizará el número de dispositivos externos necesarios.

La mejora también garantiza que este modelo se conecte directamente a Panasonic KAIROS a través de IP, lo que ahorra espacio y da la posibilidad de obtener una producción y distribución en directo efectiva y flexible con un gran número de cámaras. Cuando se enlaza al ST2110, un único mainframe KAIROS Core 100 puede conectar simultáneamente hasta 48 entradas y 32 salidas, utilizando una pequeña unidad central de 1U de rack. La conexión sin CCU del modelo HD AK-HC3900 economiza aún más espacio y reduce el cableado para un funcionamiento eficiente, además de disminuir significativamente el consumo de energía en comparación con los sistemas convencionales.

NOTICIAS TM Broadcast 16 Actualidad PANASONIC

Cellnex despliega para Aena la primera red privada 5G en el aeropuerto de San Sebastián

Aena, la gestora aeroportuaria que más volumen de pasajeros maneja a nivel mundial, ha llegado a un acuerdo con el operador de infraestructuras y servicios de telecomunicaciones Cellnex Telecom para desplegar y poner en servicio la primera red privada basada en tecnología 5G en los aeropuertos españoles.

Aena deposita su confianza en Cellnex para instalar y desplegar la red 5G en el aeropuerto de San Sebastián, pero no solo eso: también se encargará de desarrollar diferentes casos de uso vinculados a la adquisición, recopilación y tratamiento seguro de datos medioambientales (gases y partículas en suspensión, temperatura, humedad y ruido) gracias a la Plataforma SmartBrain de Cellnex y a la operativa con drones, sobre todo en materia de seguridad y monitorización avanzada.

La quinta generación de comunicaciones móviles, más conocida como 5G, revolucionará los procesos de transformación digital gracias a su alta velocidad de transmisión de datos, su baja latencia, su capacidad de gestión de una alta densidad de dispositivos conectados y, especialmente, por su elevada disponibilidad y fiabilidad. En su aplicación aeroportuaria, el 5G supondrá un antes y un después, convirtiéndose en la base para el futuro desarrollo del aeropuerto y constituyéndose en la base para una enorme gama de nuevas aplicaciones y funcionalidades que permitirán un servicio mas eficiente y sostenible.

Cellnex cuenta para este proyecto con la colaboración de Nokia como partner para la red 5G, y con Inetum para el uso de drones, el suministro de los mismos y su operativa.

A nivel global, Aena ha identificado el 5G como una de las tecnologías clave para su proceso de transformación digital. A pesar de que la conectividad en los aeropuertos es un hecho desde hace unos años, el salto a esta nueva tecnología permitirá desarrollar nuevas aplicaciones en campos tan importantes como el de la seguridad o las operaciones. El 5G facilitará el avance del internet de las cosas (IoT), la implementación del BigData, la realidad virtual y aumentada, y la inteligencia artificial.

Esta nueva tecnología, y las aplicaciones y funcionalidades que giran sobre ella, potenciarán igualmente la gestión sostenible de la actividad aeroportuaria, compatibilizándola con la conservación del entorno natural y la gestión ambiental.

El Jefe de la División de Ideación y Emprendimiento de Aena, Pablo López Loeches, ha destacado la importancia de disponer de una red 5G privada en uno de nuestros aeropuertos que nos permita probar casos de uso aeroportuarios específicos que requieren de alta capacidad, baja latencia y alta densidad de dispositivos, además de una nueva capa de conectividad que ofrezca a la comunidad aeroportuaria la posibilidad de disponer de un servicio de

transmisión de datos de gran fiabilidad y alta disponibilidad.” Ha afirmado también que “la realización de estas pruebas nos permitirá identificar el grado de madurez de la tecnología 5G y en qué medida puede adaptarse a las necesidades de Aena para mejorar nuestros servicios internos de conectividad.”

Por su parte, Miquel Mir, director de Negocio Empresas en Cellnex España ha destacado “la importancia de las infraestructuras de telecomunicaciones y tecnologías como el 5G para contribuir a la optmización de los procesos en entornos tan complejos como los aeropuertos en los que la seguridad y la eficiencia operativa son claves, más allá de la conectividad para los pasajeros”, y se ha mostrado “satisfecho de participar conjuntamente con Aena en este piloto que servirá para sentar las bases de los futuros despliegues de este tipo de redes, y sus múltiples casos de uso, en los aeropuertos españoles; además de poder demostrar las capacidades de Cellnex como operador de infraestructuras neutras de telecomunicaciones y su experiencia para ayudar al despliegue de redes críticas”.

NOTICIAS TM Broadcast 17 Actualidad CELLNEX

Sony lanza la cámara HXC-FZ90 para simplificar la producción 4K en vivo

“A medida que los formatos de producción se diversifican según los proyectos, vemos que más empresas buscan una forma flexible de cambiar a voluntad entre 4K, HD y HDR. Es posible que aún estén produciendo la mayoría de sus encargos en HD, pero saben que necesitan una prueba de futuro y quieren poder responder ahora a los informes con un componente 4K o HDR”, comentó Norbert Paquet, director de producción en vivo de Sony Europa.

Si bien la mayoría de las empresas de producción de eventos, organizaciones de e-sports o instituciones educativas producen la mayor parte de su contenido en HD, son cada vez más conscientes de los beneficios que ofrece la producción 4K y buscan formas sencillas de cambiar a 4K. La cámara HXC-FZ90 de Sony

permite un cambio fluido y sin problemas en el momento elegido por los organizadores del evento. El HXC-FZ90 también es compatible con HLG (Hybrid Log Gamma) y SLog3 para el flujo de trabajo SR Live de Sony, que permite HD, HDR o 4K HDR cuando se desee.

Las características clave del nuevo sistema de cámaras de estudio HXCFZ90:

• Sensor CMOS 4K de 2/3” de un solo chip con montura B4 que permite una resolución de 2000 líneas de TV

• Licencia 4K disponible semanal o mensualmente o como característica permanente

• Compatibilidad integrada con HLG y S-Log3 para el flujo de trabajo SR Live

• Función ARIA: Optimización automática de la imagen según las características del objetivo

• Integración simple con CNA-2 web RCP Control que permite un monitoreo avanzado

• Cableado simplificado con Prompter o cámaras PTZ (ILMEFR7 por ej.) por Network Trunk (Ethernet)

• Conector mini jack estéreo para una conexión sencilla de auriculares

• Manejo sencillo de la cámara desde el panel frontal de la nueva CCU HXCU-FZ90 con funcionalidades como IRIS y control de pintura

• Función de asistencia de enfoque avanzada

NOTICIAS 18 TM Broadcast Actualidad SONY
LA HXC-FZ90 SALDRÁ AL MERCADO EL PRÓXIMO INVIERNO (2023)

La calma que precede a la tormenta

Tras la revolución que supuso el HD hace ya unos años y el cambio brutal que está siendo el UHD junto con la tecnología IP, que, aunque no están técnicamente relacionados, pero por requisitos técnicos muchas veces van de la mano, parece que hace ya un tiempo que se nos está dando una tregua.

Es cierto que al UHD y a la tecnología IP les queda un tiempo de implantación, pero al menos no están apareciendo nuevas tendencias, como el fallido 3D, que nos enturbien las aguas. Toda tecnología tiene un proceso de madurez y parece que al UHD le está llegando su tiempo. Yo al menos viví la llegada del UHD y el IP como apelotonada con el HD, pero no está siendo el caso ahora mismo.

Y me alegro. En este mundo tan rápido y que corre tanto que a veces dan ganas de hacer una parada y bajarse de él, está bien que las cosas tomen su tiempo. Más aún cuando creo sinceramente que al UHD le falta mucho por aportar. En el momento que todos en nuestras casas podamos disfrutar de todo lo que esta tecnología nos ofrece, especialmente el HDR y WCG, será cuando los creadores y artistas tendrán vía libre para sorprendernos y exprimir todas las posibilidades al igual que lo hecho con el HD y el color, para los nostálgicos.

Sin embargo, ya hay mar de fondo. La IA, el ML, las tecnologías generativas van a suponer un antes y un después no solo en nuestra industria si no en el mundo. Por

primera vez me alegro de que en el broadcast nos cueste avanzar en ocasiones y que nos lo estemos tomando con cierta calma, aunque hay iniciativas reales y muy buenas usando IA y estas nuevas herramientas.

Que se den su tiempo. Hay que ser pioneros, no cabe duda. Es más divertido y mejor. Pero no hay que correr en exceso. Dejemos al UHD y a todo lo que ello conlleva, como el IP, madurar y que todo lo nuevo vaya llegando de manera más natural que impuesta.

Seguro que disfrutamos más de todo el abanico de posibilidades que nos brindan todas estas herramientas desde la calma que desde el estrés autogenerado de imponernos un ritmo frenético que no ha lugar.

Me encanta lo nuevo, lo novedoso y lo innovador, pero también adoro la seguridad, la calma y la certeza de que estoy pisando suelo firme y seguro. El UHD empieza a ser suelo firme, seguro y probado. Disfrutémoslo mientras llega el siguiente huracán que va a sorprendernos a todos.

@yerayalfa www.linkedin.com/yerayalfa
THE VIEWFINDER The Viewfinder TM Broadcast 19
Por Yeray Alfageme, Business Development Manager en Optiva Media an EPAM company
20 TM Broadcast MOVISTAR+ DEPORTES

Cómo se prepara una final de la Champions

MOVISTAR+

Movistar Plus+ realizó la cobertura total de la UEFA Champions League, ofreciendo desde el día 9 de junio tanto el choque de temporada, la final, como todo lo que sucedía antes y después de la cita en Estambul, Turquía. En TM Broadcast hemos querido conocer cómo ha sido el despliegue de medios y de equipos tecnológicos y humanos para retransmitir una de las citas deportivas con mayor expectación de todo el año. Charlamos con Movistar Plus+ acerca de los desafíos que ha supuesto una producción de tal calado, los procesos de pre y post producción requeridos para una emisión fluida, las medidas de seguridad adoptadas y la innovación implementada en esta última edición.

21 TM Broadcast MOVISTAR+ DEPORTES

¿Cuáles son los principales desafíos que enfrenta Movistar+ al producir la final de la UEFA Champions League y cómo los aborda?

Se trata de uno de los eventos deportivos más relevantes de la temporada, y el compromiso de Movistar Plus+ con nuestros abonados es ofrecerles la mejor experiencia televisiva. Para ello, implicamos a todas las áreas de la compañía: nuestro equipo de narración le da rigor al evento y técnicamente nos valemos de los últimos avances tecnológicos.

¿Cuánto tiempo lleva la planificación y preparación de la producción televisiva de un evento de esta magnitud?

La señal internacional la produce el broadcaster que posee los derechos en el territorio donde se juega la final. El resto de operadores que personalizamos la señal internacional en esta edición, arrancamos la pre producción con tres meses de antelación, a partir de la site visit que organiza UEFA. Desde ese momento cada operador diseña su plan de producción y los últimos detalles se cierran una vez que se conocen los equipos que van a disputar la final.

¿Qué tecnologías innovadoras se utilizaron para mejorar la experiencia de visualización de los espectadores durante la final de la Champions League?

En las finales de la UCL del ciclo 2021/24 se ha incorporado como estándar de producción el UHD HDR HLG BT2100. Además, en todos los flujos de producción UHD en la UCL,

no sólo en la final, la señal internacional se produce, además de en estéreo y 5.1, en Dolby Atmos. Esta mezcla, aparte del multicanal inmersivo, incluye diversos objetos como sonidos personalizados de ambas aficiones o el audio de los comentaristas, que son totalmente personalizables por el consumidor final.

¿Qué enfoque creativo adoptáis para destacar la emoción y la intensidad del partido en la transmisión televisiva?

Movistar Plus+ cuenta con un activo fundamental, su equipo. Nuestros narradores y comentaristas son capaces de transmitir esa emoción desde el terreno de juego hasta los hogares de nuestros abonados. Esto,

DEPORTES
22 MOVISTAR+ TM Broadcast

unido a las mejores tomas y repeticiones de las jugadas más importantes, logran que el espectador experimente la competición con la misma intensidad que si estuviese en el estadio.

¿Cómo se aseguran de capturar los momentos clave del partido y brindar una cobertura exhaustiva de todas las acciones importantes y desde todos los ángulos?

El plan de cámaras del Host Broadcaster contemplaba 35 posiciones dentro del estadio que se sumaron a las cámaras aéreas (cable-cam, dron y helicóptero) y capturaron todo lo que acontecía tanto en el terreno de juego como en los alrededores del estadio y de la ciudad. Entre todas estas cámaras de campo había 7 super slow motion, 2 ultra slow motion y 4 steady cam por radio frecuencia.

Para ello contamos también con 7 EVS 12 de canales que permiten visualizar todas las repeticiones de las acciones más importantes del partido.

Paralelamente, Movistar Plus+ realizó su señal personalizada con 6 posiciones de cámaras adicionales.

¿Qué requerimientos en cuanto a personal y equipo técnico hay para llevar a cabo una producción televisiva de esta envergadura y cómo se organizaron estos durante el evento?

Para cubrir una final de UEFA Champions League desplazamos a un equipo humano de 55 personas, incluyendo perfiles técnicos, editoriales, artísticos y de producción.

MOVISTAR+
DEPORTES TM Broadcast 23 “
EN LAS FINALES DE LA UCL DEL CICLO 2021/24 SE HA INCORPORADO COMO ESTÁNDAR DE PRODUCCIÓN EL UHD HDR HLG BT2100
.

En cuanto a los medios técnicos, el Host Broadcaster destinó 2 unidades móviles encargadas de la producción de la señal internacional y, además de ello, Movistar Plus+ empleó una unidad móvil dedicada exclusivamente a la personalización de la señal para nuestra plataforma.

¿Cómo son los procesos de edición y postproducción que siguen tras el partido para preparar los contenidos destacados y los resúmenes?

Tanto la señal internacional como las señales de las cámaras principales se grabaron en la unidad móvil y en nuestro centro de producción. A partir de todo ello, el equipo editorial y de realización elaboraron las piezas que formaron parte del programa post partido (“Noche de Champions”). Dispusimos además de herramientas como “El Líbero”, que nos permitieron analizar en detalle las jugadas más destacadas del partido.

¿Qué medidas de seguridad se implementaron para garantizar la integridad de la producción televisiva y la transmisión en vivo de la final de la Champions League?

Para asegurar el suministro eléctrico, UEFA requería, tanto al Host Broadcaster como al resto de operadores con medios de producción propios en el estadio, que las unidades móviles cumplieran con la norma IEC 60364-7-717: 2009.

De esta forma se evitaba que cualquier incidencia eléctrica afectara a la retransmisión del partido.

Además de ello, el transporte de la señal desde el estadio hasta nuestro

centro de producción estaba encriptado para que solo los right-holders tuvieran acceso. Finalmente, Movistar Plus+ implementó sus propias medidas antipiratería en el proceso de emisión.

¿Cómo integraron la presencia de los patrocinadores y socios comerciales en la producción televisiva sin interrumpir la experiencia de los espectadores?

El principal soporte publicitario durante el partido es la publicidad perimetral del terreno de juego, cuyo contenido comercial se personaliza para distintos mercados a través de un sistema de Virtual Board Replacement. De esta forma se consiguió una presencia de los anunciantes poco intrusiva y sin alterar la experiencia del espectador.

¿Cuáles fueron los desafíos logísticos más importantes que enfrentaron al desplegar equipos de

producción en el estadio? ¿Cómo los superaron?

Al tratarse de un evento internacional que atrae a numerosos aficionados, medios de comunicación, y personal implicado en la organización del partido, exigió una mayor planificación para organizar la logística de transportes y alojamientos del equipo que desplazamos. Siempre hay que tener en cuenta las limitaciones de la ciudad en cuanto a capacidad hotelera además de las alteraciones en el tráfico que tienen determinadas capitales, que se acentúan cuando se celebran eventos de estas características.

¿Qué tipo de innovaciones o mejoras implementaron en comparación con las ediciones anteriores de la final de la UEFA Champions League?

En esta final de la UCL, aparte de la señal internacional del partido,

DEPORTES 24 MOVISTAR+ TM Broadcast

ENCRIPTADO PARA QUE SOLO LOS RIGHT-HOLDERS

TENGAN ACCESO. MOVISTAR PLUS+ IMPLEMENTA

SUS PROPIAS MEDIDAS ANTIPIRATERÍA EN EL PROCESO DE EMISIÓN.

EBU puso a disposición de todos los broadcasters diversas señales de cámara como la cámara master, la aérea y la beauty, además de la señal internacional sin grafismo, sin necesidad de estar desplazado en Estambul.

En cuanto a cámaras especiales, aparte de las grúas, polecams, steadycams… había 2 fan cam cinematic style que se encargaron de captar las reacciones de ambas aficiones con mayor profundidad de campo.

También fue la primera final de UCL que utilizó la tecnología SAOT para ayudar a reducir el tiempo necesario para verificar los goles en posibles fuera de juego.

¿Qué aspectos destacados o momentos memorables capturaron durante la producción televisiva de la final de la Champions League?

Los equipos que llegan a la final y sus protagonistas definen los mejores momentos del partido. Además de las mejores acciones futbolísticas, la final de este año vino marcada por el interés que siempre suscitan Pep Guardiola y sus jugadores.

MOVISTAR+
“ EL TRANSPORTE DE LA SEÑAL DESDE EL ESTADIO HASTA NUESTRO CENTRO DE PRODUCCIÓN ESTÁ
26 TM Broadcast PROTOCOLOS TECNOLOGÍA

Protocolos de contribución y distribución en entornos Broadcast

Una visión panorámica de los protocolos para contribución de señales de TV en entornos broadcast: ST2110, SRT, NDI y más.

En el apasionante mundo del broadcast, donde la innovación y la tecnología avanzan a pasos agigantados, es fundamental mantenerse al día con los últimos avances en protocolos de contribución y distribución de señales. En este artículo exploraremos algunos de los más relevantes en entornos broadcast, como ST2110, SRT, NDI, DASH, HLS, RTMP y muchos más.

Estos protocolos desempeñan un papel fundamental en la transmisión y entrega de contenido audiovisual en tiempo real, ya sea para la televisión tradicional, la transmisión por Internet o los servicios de vídeo bajo demanda. Cada uno de ellos tiene sus propias características y beneficios, y es importante comprender cómo funcionan y cuándo es más apropiado utilizar cada uno de ellos.

Comenzaremos hablando sobre el estándar ST2110, que ha revolucionado la forma en que se manejan las señales de vídeo, audio y datos en los entornos de producción y distribución de televisión IP. Exploraremos su arquitectura y cómo permite la transmisión de múltiples flujos de media y alta calidad en tiempo real.

Seguidamente nos sumergiremos en el protocolo SRT (Secure Reliable Transport), que ha ganado popularidad debido a su capacidad para garantizar la entrega segura y confiable de señales de vídeo a través de Internet. Veremos cómo SRT utiliza técnicas de corrección de errores y retransmisión selectiva para asegurar una transmisión robusta y de baja latencia.

Continuaremos nuestro recorrido con NDI (Network Device Interface), un protocolo desarrollado por NewTek que permite la transmisión de vídeo y audio de alta calidad a través de una red de área local (LAN). Exploraremos sus aplicaciones en entornos de producción en vivo y cómo ha simplificado la conectividad y la interoperabilidad entre diferentes dispositivos.

Además, analizaremos los protocolos de distribución de contenido DASH (Dynamic Adaptive Streaming over HTTP) y HLS (HTTP Live Streaming), utilizados ampliamente en la transmisión de vídeo a través de Internet. Veremos cómo funcionan estas tecnologías de transmisión adaptativa y cómo han mejorado la experiencia de visualización para los usuarios finales.

27 TM Broadcast PROTOCOLOS TECNLOLOGÍA
Por Yeray Alfageme, Business Development Manager en Optiva Media an EPAM company

No podemos dejar de mencionar el popular protocolo RTMP (RealTime Messaging Protocol), ampliamente utilizado para la transmisión en tiempo real de contenido multimedia a través de Internet. Exploraremos su arquitectura y su relevancia en el contexto actual de la transmisión de vídeo en vivo.

ST2110

El protocolo ST2110 ha desempeñado un papel revolucionario al cambiar la forma en que se gestionan las señales de vídeo, audio y datos en entornos de contribución y distribución broadcast basados en IP. El ST2110 es un estándar desarrollado por SMPTE (Society of Motion Picture and Television Engineers) que define un conjunto de especificaciones técnicas para el transporte de flujos de media en tiempo real sobre redes IP.

Una de sus principales características es su enfoque basado en flujos separados, lo que significa que el vídeo, el audio y los datos se transmiten como flujos independientes, a diferencia de los métodos tradicionales que encapsulaban todos los componentes en un solo flujo. Esto proporciona una mayor flexibilidad y escalabilidad, ya que cada elemento se puede manejar y procesar individualmente.

El estándar ST2110 utiliza el protocolo de transporte IP (Internet Protocol) para el enrutamiento y la transmisión de los streams. Esto permite la interconexión de equipos de diferentes fabricantes y la integración de sistemas en una infraestructura de red común. Además, el protocolo aprovecha las redes Ethernet

ST2110

A ENTORNOS SIN COMPRESIÓN, DONDE SE REQUIEREN GRANDES ANCHOS DE BANDA, POR EJEMPLO MÁS DE 1 GBPS EN SEÑALES HD-SDR, ES PRÁCTICAMENTE INVIABLE PARA DISTRIBUCIÓN DE CONTENIDO.

estándar, lo que reduce los costos de implementación y facilita la migración hacia entornos IP.

En cuanto a la calidad de la señal, el ST2110 ofrece una excelente fidelidad y precisión sin compresión. El protocolo admite resoluciones de vídeo hasta 4K y más allá, así como audio de alta calidad, incluyendo herramientas para formatos inmersivos como el sonido envolvente. Además, el ST2110 proporciona baja latencia, lo que resulta fundamental en aplicaciones en tiempo real, como transmisiones en vivo o producciones interactivas.

ST2110 está diseñado para entorno de producción. Debido a su orientación a entornos sin compresión, donde se requieren grandes anchos de banda, por ejemplo más de 1 Gbps en señales HD-SDR, es prácticamente inviable para distribución de contenido. La práctica totalidad de entorno de producción en IP trabaja con este protocolo y es cierto que, sobre todo en grandes eventos y producciones, se puede usar para contribuir entre centro de producción sobre redes privadas de gran ancho de banda, pero no es lo más recomendable o al menos apropiado.

Además, el ST2110 se integra de manera efectiva con otros protocolos y estándares comunes en la industria como son el SMPTE ST2022-6 para la transmisión sobre redes IP y el AES67 para la interoperabilidad de audio sobre IP. Esto fomenta la compatibilidad y la colaboración entre diferentes sistemas y garantiza la flexibilidad en la elección de equipos y tecnologías siempre dentro de un entorno de red controlado y de alta capacidad, como puede ser una unidad móvil o centro de producción.

TECNOLOGÍA
28 PROTOCOLOS TM Broadcast
ESTÁ DISEÑADO PARA ENTORNO DE PRODUCCIÓN. DEBIDO A SU ORIENTACIÓN

SRT (Secure Reliable Transport)

El SRT es un protocolo de transporte de código abierto desarrollado por Haivision, diseñado específicamente para superar los desafíos de la transmisión de vídeo a través de Internet. Con su combinación de técnicas de corrección de errores y retransmisión selectiva, consigue una entrega segura y confiable de señales de vídeo, incluso en entornos con pérdida de paquetes, alta latencia o fluctuaciones en el ancho de banda.

Una de sus características destacadas es la capacidad para adaptarse dinámicamente a las condiciones de red en tiempo real. Utilizando algoritmos inteligentes de control de flujo y control de congestión, el protocolo puede ajustar automáticamente la velocidad de transmisión y la cantidad de corrección de errores según las condiciones de la red. Esto asegura una óptima calidad de transmisión y minimiza los efectos de la pérdida de paquetes.

Otra ventaja importante es su enfoque en la seguridad. El protocolo utiliza cifrado de extremo a extremo para proteger la confidencialidad e integridad de los datos transmitidos, lo que garantiza la privacidad y evita posibles ataques o manipulaciones de la señal. Además, el SRT incluye mecanismos de autenticación y control de acceso, lo que permite verificar la identidad de los

participantes en la transmisión y controlar quién puede acceder a ella.

SRT se utiliza sobre todo en distribución de contenido o en contribuciones entre centros de producción distantes en las que la conectividad se realice a través de Internet. En estos entornos el SRT facilita la entrega de contenido broadcast a múltiples destinos como estaciones de televisión, proveedores de servicios de transmisión por Internet o plataformas de vídeo bajo demanda. El protocolo se integra con facilidad en sistemas de distribución existentes y se adapta a diferentes requisitos de ancho de banda y latencia, lo que lo hace ideal para entornos de transmisión en vivo o eventos deportivos.

Además, el SRT se ha convertido en un estándar ampliamente adoptado por la industria, con el respaldo de numerosos fabricantes de equipos y proveedores de servicios. Esto garantiza la interoperabilidad y la compatibilidad entre diferentes soluciones y asegura la flexibilidad en la elección de equipos y tecnologías.

PROTOCOLOS
TECNOLOGÍA TM Broadcast 29 “
ENTRE CENTROS DE PRODUCCIÓN DISTANTES EN
QUE LA CONECTIVIDAD
DE INTERNET. ”
SRT
SE UTILIZA SOBRE TODO EN DISTRIBUCIÓN DE CONTENIDO O EN CONTRIBUCIONES
LAS
SE REALICE A TRAVÉS

NDI (Network Device Interface)

Desarrollado por NewTek, ahora Vizrt, el NDI es un protocolo que permite la transmisión de vídeo y audio de alta calidad, así como datos auxiliares, a través de una red IP en su más amplio sentido. NDI está diseñado, al igual que ST2110, para entornos de producción pero, debido a la compresión que realiza sobre la señal, se puede usar para distribuir señales en ciertos entornos controlados aunque, como hemos comentado, su objetivo principal es simplificar la conectividad entre diferentes dispositivos en un entorno de producción en vivo y facilitar la interoperabilidad entre ellos.

Una de las principales ventajas del NDI es su enfoque basado en software, lo que significa que se puede implementar en sistemas existentes sin la necesidad de hardware adicional. Gracias al NDI, cualquier dispositivo o aplicación compatible puede convertirse en una fuente o destino de vídeo/audio en la red, lo que brinda una gran flexibilidad y facilidad de uso.

Además, está pensado para usarse en redes Ethernet estándar, debido a su adaptación a los anchos de banda existente y sus características técnicas. Una funcionalidad que ejemplifica este hecho es que una señal HDSDR ocupa menos de 1 Gbps de ancho de banda, lo que permite usar una única conexión Ethernet entre el equipo y la red.

El protocolo NDI también ofrece una baja latencia, lo que es crucial para la producción en vivo y la colaboración en tiempo real. Esto signifi-

ca que los cambios y ajustes realizados en una fuente de vídeo o audio se reflejan rápidamente en los destinos, sin retrasos perceptibles. Esta característica es especialmente valiosa en entornos de producción donde la sincronización y la respuesta en tiempo real son fundamentales.

Como hemos señalado el protocolo NDI está orientado a contribución,

más concretamente a entornos de producción. No es tan común su uso en entornos de distribución, aunque puede usarse, ya que no dispone de mecanismos tan avanzados de corrección de errores o adaptación a anchos de banda variables como el SRT u otros.

La compatibilidad del NDI con una amplia gama de dispositivos y software ha contribuido a su creciente

TECNOLOGÍA 30 PROTOCOLOS TM Broadcast
UNA DE LAS PRINCIPALES VENTAJAS DEL NDI ES SU ENFOQUE BASADO EN SOFTWARE, LO QUE SIGNIFICA QUE SE PUEDE IMPLEMENTAR EN SISTEMAS EXISTENTES SIN LA NECESIDAD DE HARDWARE ADICIONAL.

popularidad en la industria broadcast. Numerosos fabricantes de equipos y desarrolladores de software han adoptado el protocolo NDI en sus productos, lo que garantiza la interoperabilidad y la compatibilidad entre diferentes soluciones.

RIST (Reliable Internet Stream Transport)

Desarrollado por la Iniciativa RIST, que reúne a múltiples actores de la industria, el RIST es un protocolo de transporte que utiliza Internet para la contribución y distribución de señales multimedia en tiempo real. Su objetivo principal es superar los desafíos asociados a la transmisión sobre Internet garantizando una entrega fiable y de baja latencia.

Una de sus características fundamentales es el enfoque en la fiabilidad de la transmisión. El protocolo

utiliza técnicas de corrección de errores como la retransmisión selectiva y la recuperación de paquetes perdidos, para garantizar la integridad de los datos transmitidos. Esto permite una transmisión robusta incluso en redes con pérdida de paquetes, latencia variable o congestión, algo muy común en la red de redes.

Además, el estándar RIST implementa mecanismos de control de flujo y control de congestión para garantizar una transmisión eficiente y adaptativa. Estos mecanismos monitorean y regulan la cantidad de datos transmitidos en función de las condiciones de la red, evitando la saturación y el cuello de botella. Esto asegura un uso óptimo del ancho de banda disponible y minimiza los efectos de la congestión de la red.

nes de cifrado de extremo a extremo para proteger la confidencialidad de los datos transmitidos. Además, incluye mecanismos de autenticación y control de acceso, lo que permite verificar la identidad de los participantes en la transmisión y protegerla contra ataques maliciosos.

Como su propio nombre indica, RIST está orientado 100% a la distribución de contenido a través de Internet. Por supuesto puede usarse en entornos de contribución y producción, pero no está desarrollado para ello. Este protocolo es especialmente fiable, quizá con una mayor latencia que protocolos de distribución similares, pero con un extra de seguridad y robustez.

Hay que mencionar que RIST, aunque bastante extendido y por ello lo incluimos aquí, no está tan extendido como protocolos más modernos como SRT o más sencillos como RTMP o DASH.

Zixi

El protocolo ZIXI surgió como una solución avanzada para la contribución y distribución de contenido en entornos broadcast a través de Internet. Desarrollado por ZIXI, este protocolo se centra en garantizar una entrega fiable y de baja latencia sin comprometer la calidad del contenido transmitido adaptándose para ello a la situación de la red en cada momento.

La seguridad es otra preocupación importante en la transmisión broadcast y el RIST también aborda este aspecto. El protocolo ofrece opcio-

Una de las características clave del ZIXI es su capacidad de gestión del ancho de banda. Utilizando algoritmos inteligentes, el protocolo puede adaptar dinámicamente la velocidad de transmisión y la com-

PROTOCOLOS TECNOLOGÍA TM Broadcast
31
RIST IMPLEMENTA MECANISMOS DE CONTROL DE FLUJO Y CONTROL DE CONGESTIÓN PARA GARANTIZAR UNA TRANSMISIÓN EFICIENTE Y ADAPTATIVA. ”

presión del flujo de vídeo en función de las condiciones de la red. Esto asegura una óptima utilización del ancho de banda disponible y permite una transmisión de alta calidad incluso en entornos con fluctuaciones en el ancho de banda.

Además, incorpora mecanismos avanzados de corrección de errores y retransmisión selectiva para garantizar la integridad de los datos transmitidos. Esto permite que el protocolo recupere paquetes perdidos o dañados en tiempo real, minimizando los efectos de la pérdida de paquetes en la calidad y la coherencia del contenido transmitido.

La baja latencia es otro aspecto crucial en la transmisión broadcast en tiempo real y el ZIXI aborda esta preocupación de manera efectiva. El protocolo ha sido diseñado para minimizar la latencia en la transmisión de vídeo y audio, lo que permite una colaboración y una interacción en tiempo real entre los diferentes puntos de contribución y distribución. Esto es especialmente valioso en eventos en vivo, donde la sincronización precisa es esencial.

Ofrece también una solución completa para la seguridad de la transmisión. El protocolo soporta encriptación de extremo a extremo, lo que garantiza la confidencialidad e integridad de los datos transmitidos. Además, incluye mecanismos de autenticación y control de acceso para proteger contra accesos no autorizados y asegurar la autenticidad de los participantes en la transmisión.

Por su naturaleza, ZIXI es usado principalmente en entornos de distribución o como contribución entre eventos en directo y centros de producción. De hecho, hay muchos fabricantes que han implementado sus propios protocolos basados en ZIXI, ya que este permite servir como base a otras implementaciones más avanzadas. Paulatinamente ha ido siendo sustituido por protocolos más modernos como SRT pero aún hay muchos entornos en los que ZIXI es un protocolo fundamental.

Dynamic Adaptive Streaming over HTTP (DASH)

El protocolo DASH se basa en el estándar HTTP y utiliza técnicas de streaming adaptativo para entregar contenido multimedia de manera eficiente. En lugar de transmitir un único flujo de vídeo, DASH divide el contenido en segmentos más pequeños y los entrega al dispositivo receptor a través de conexiones HTTP estándar. Estos segmentos pueden tener diferentes resoluciones, tasas de bits y formatos de compresión.

Una de las principales ventajas del DASH es su capacidad de adaptación dinámica. El protocolo monitorea constantemente las condiciones de la red y las capacidades del dispositivo receptor, ajustando la calidad del vídeo en tiempo real para garantizar una reproducción suave y sin interrupciones. Así, el contenido se adapta automáticamente a la conexión de red y a las capacidades del dispositivo, optimizando la experiencia de visualización para cada usuario.

UNA DE LAS PRINCIPALES VENTAJAS DEL DASH ES SU CAPACIDAD DE ADAPTACIÓN DINÁMICA

Otra característica clave del DASH es su compatibilidad con múltiples formatos de vídeo, como MPEGDASH, HLS y Smooth Streaming. Esto permite a los proveedores de contenido adaptar sus transmisiones a diferentes dispositivos y plataformas, asegurando una amplia accesibilidad y una experiencia de usuario consistente en una variedad de dispositivos, desde televisores inteligentes hasta teléfonos móviles.

Por supuesto está 100% orientado a distribución de contenido a usuarios finales a través de Internet. Evidentemente también puede usarse en redes IPTV más controladas, pero su potencial se desarrolla por completo cuando hay que llevar el contenido a millones de usuarios finales con diferentes dispositivos cada uno. Evidentemente DASH se basa en redes CDN para dicha distribución.

Además, este estándar ofrece ventajas significativas en términos de almacenamiento y escalabilidad. Los segmentos de contenido se almacenan en caché en el lado del cliente, lo que reduce la carga en los servi-

TECNOLOGÍA 32 PROTOCOLOS TM Broadcast
. ”

dores de transmisión y facilita la entrega eficiente a un gran número de usuarios simultáneos. Esto hace que el estándar DASH sea una opción rentable para la distribución masiva de contenido en línea.

El protocolo DASH también permite a los usuarios pausar, adelantar o retrasar el contenido sin problemas. Gracias a la entrega basada en segmentos, los usuarios pueden saltar a cualquier punto del contenido sin la necesidad de descargar todo el archivo de vídeo siempre que el origen de la CDN lo permita. Esto proporciona una mayor flexibilidad y comodidad para los espectadores, mejorando su experiencia de visualización.

HTTP Live Streaming (HLS)

El estándar HLS utiliza el protocolo HTTP para transmitir contenido multimedia en segmentos pequeños y adaptativos, similar a DASH. El con-

tenido se divide en segmentos de duración fija; estos se almacenan en servidores de origen y se entregan a los dispositivos receptores a través de conexiones HTTP estándar mediante redes CDN. Estos segmentos pueden tener diferentes resoluciones, tasas de bits y formatos de

compresión, lo que permite una adaptación dinámica según las condiciones de la red y las capacidades del dispositivo.

Una de las ventajas clave del HLS es su compatibilidad con una amplia gama de dispositivos y plataformas. El protocolo es compatible con navegadores web, sistemas operativos móviles y dispositivos de transmisión, lo que garantiza que los usuarios puedan acceder al contenido sin problemas desde una variedad de dispositivos, ya sean teléfonos móviles, tablets, televisores inteligentes o computadoras.

El HLS también ofrece una experiencia de visualización optimizada mediante la transmisión adaptativa. El protocolo monitorea continuamente las condiciones de la red y las capacidades del dispositivo receptor, seleccionando automáticamente la calidad de vídeo más adecuada para garantizar una reproducción fluida y sin interrupciones. Esto significa que los usuarios experimentarán una calidad de vídeo óptima en función de su conexión de red y las capacidades de su dispositivo.

Otra ventaja importante del HLS es su capacidad para manejar interrupciones y fluctuaciones en la conexión de red. Si se produce una interrupción momentánea o una disminución en la calidad de la red, este estándar puede cambiar sin problemas a una calidad de vídeo más baja para evitar interrupciones en la reproducción. Esto asegura que los espectadores puedan disfrutar del contenido sin problemas, incluso en redes con limitaciones de ancho de banda.

PROTOCOLOS TECNOLOGÍA TM Broadcast
33 “
SEGMENTOS PEQUEÑOS Y ADAPTATIVOS,
EL ESTÁNDAR HLS UTILIZA EL PROTOCOLO HTTP PARA TRANSMITIR CONTENIDO MULTIMEDIA EN
SIMILAR A DASH.

De la misma manera que DASH, HLS está orientado por completo a la distribución de contenido sobre Internet, entornos OTT e IPTV. Junto con DASH son los protocolos más extendidos y, me atrevería a decir que, debido a su altísima compatibilidad casi con cualquier dispositivo, HLS es el protocolo más usado en Internet para la distribución de contenido en streaming.

Además, el HLS ofrece ventajas en términos de almacenamiento y transmisión de contenido bajo demanda. Los segmentos de contenido se almacenan en caché en el lado del cliente, lo que reduce la carga en los servidores de transmisión y facilita la entrega a un gran número de usuarios simultáneos. Esto hace que el HLS sea una opción escalable y rentable para la distribución masiva de contenido en línea.

Real-Time Messaging Protocol (RTMP)

El RTMP fue desarrollado por Macromedia (ahora Adobe) y se ha

convertido en un estándar de facto para la transmisión en vivo y la interacción en tiempo real en Internet. El protocolo utiliza una conexión persistente entre el servidor de transmisión y el cliente receptor, lo que permite una transmisión continua y confiable del contenido multimedia.

Una de las ventajas principales del RTMP es su baja latencia. El protocolo ha sido diseñado para minimizar la demora entre la transmisión y la reproducción del contenido, lo que lo hace ideal para aplicaciones en vivo donde la sincronización precisa

es esencial. Esto permite a los espectadores disfrutar de eventos en tiempo real, como transmisiones deportivas o conciertos, sin retrasos significativos.

Además, el estándar RTMP ofrece una alta calidad de transmisión de medios. El protocolo permite la entrega de contenido en diferentes formatos y tasas de bits, lo que garantiza una reproducción fluida y una calidad de vídeo y audio óptima. Esto es especialmente importante en entornos broadcast, donde la calidad del contenido es fundamental.

TECNOLOGÍA
34 PROTOCOLOS TM Broadcast “
UNA DE LAS VENTAJAS PRINCIPALES DEL RTMP ES SU BAJA LATENCIA. EL PROTOCOLO HA SIDO DISEÑADO PARA MINIMIZAR LA DEMORA ENTRE LA TRANSMISIÓN Y LA REPRODUCCIÓN DEL CONTENIDO.

Conclusiones

En este artículo técnico de divulgación sobre protocolos de contribución y distribución en entornos Broadcast, hemos explorado varios protocolos relevantes y su papel en la transmisión y entrega de contenido audiovisual en tiempo real. Cada uno de estos protocolos tiene características únicas y beneficios específicos y es importante comprender cómo funcionan y cuándo es más apropiado utilizarlos.

El protocolo ST2110 ha revolucionado la forma en que se gestionan las señales de vídeo, audio y datos en entornos de producción y distribución de televisión IP. Su enfoque basado en flujos separados proporciona flexibilidad y escalabilidad y su integración con el protocolo IP y las redes Ethernet estándar facilita la interoperabilidad y la migración hacia entornos IP.

El protocolo SRT se ha destacado por su capacidad para garantizar la entrega segura y confiable de señales de video a través de redes no confiables. Con técnicas de corrección de errores y retransmisión selectiva, el SRT logra una transmisión robusta y de baja latencia, adaptándose dinámicamente a las condiciones de la red y asegurando la privacidad de los datos transmitidos.

El estándar NDI ha simplificado la conectividad y la interoperabilidad en entornos broadcast a través de redes de área local. Su enfoque basado en software permite la integración en sistemas existentes sin hardware adicional costoso y su baja latencia y capacidad de transmitir datos auxiliares enriquecen la producción en vivo.

Por su parte, el RIST ha surgido como una solución confiable y eficiente para la contribución y distribución de contenido en tiempo real sobre redes IP no confiables. Sus técnicas de corrección de errores y control de flujo garantizan la integridad de los datos transmitidos, y su enfoque en la seguridad protege la confidencialidad e integridad de la señal.

Centrándonos más en la distribución Zixi, el protocolo de protocolos, junto a DASH Y su hermano HLS son lo más usados en la industria con mucha diferencia. El ya antiguo RTMP se ha visto también superado por SRT y está cayendo en desuso con el único freno de una compatibilidad prácticamente universal pero con problemas de fiabilidad y estabilidad que SRT no tiene.

El RTMP también es conocido por su capacidad de adaptación a las condiciones de la red. Puede ajustar dinámicamente la calidad de transmisión en función del ancho de banda disponible y las fluctuaciones en la conexión. Esto asegura una transmisión estable y sin interrupciones, incluso en redes con limitaciones de ancho de banda o enlaces no confiables.

En términos de aplicación en entornos de contribución y distribución broadcast, ofrece flexibilidad y compatibilidad con una variedad de dispositivos y plataformas. Los proveedores de contenido pueden utilizar RTMP para transmitir señales de vídeo y audio desde diferentes fuentes como cámaras de estudio, unidades móviles de producción o aplicaciones de transmisión en vivo, hacia servidores de transmisión y distribución.

El protocolo RTMP también se utiliza ampliamente en la distribución broadcast a través de plataformas en línea y servicios de streaming. Permite a los proveedores de contenido entregar transmisiones en vivo o contenido pregrabado a una amplia audiencia, brindando una experiencia de visualización interactiva y en tiempo real.

Aunque el RTMP ha sido ampliamente utilizado en el pasado, es importante mencionar que su popularidad ha disminuido en los últimos años debido al surgimiento de protocolos más modernos y eficientes, como el HLS y el DASH. Sin embargo, sigue siendo relevante en ciertos casos de uso y entornos específicos que requieren baja latencia y transmisión en tiempo real.

PROTOCOLOS
TECNOLOGÍA TM Broadcast 35

Yamaha Serie

DM7

Mayor potencia y menor precio

TM Broadcast y AV Integración Audiovisual, otra de las cabeceras de este grupo editorial, fueron los únicos medios españoles en asistir a la presentación de la nueva serie DM7 de Yamaha en la Japan House, Kensington, Londres, el pasado 6 de junio; la multinacional nipona congregó a un reducido número de periodistas para presentar este nuevo lanzamiento, en su primer evento presencial tras la pandemia.

36 TM Broadcast YAMAHA SERIE DM7 PRODUCTOS

La nueva gama de mesas de mezclas digitales de Yamaha, la serie DM7, se compone de dos consolas, un modelo de tamaño medio y un modelo compacto, más un nuevo software de control que funcionaría en ambos modelos, y dos paquetes de actualizaciones: uno, para el sector Broadcast y el firmware Theatre, enfocado a eventos de sala.

Con una narrativa exquisita —y coincidiendo con el trigésimo quinto aniversario del lanzamiento de su primera mesa de mezclas digital, en 1988— Yamaha eligió la Japan House en Londres como escenario para la presentación de su nueva serie de consolas mezcladoras de audio, reivindicando de esta forma su herencia milenaria y vinculando la filosofía nipona al desarrollo de sus productos.

Desde que creara su primer producto, el Reed Organ, en 1887, Yamaha —cuyo nombre hace referencia al universo samurái gracias a la combinación de los vocablos ‘yama’ (montaña) y ‘ha’ (espada)— no se ha detenido en su camino de desarrollar nuevos productos, ya sean instrumentos musicales o herramientas de gestión y control de audio, bajo los principios de la más estricta tradición nipona: la precisión, la flexibilidad y la adaptación, en este caso, al mercado. Además, en el desarrollo de estas series Yamaha ha puesto gran atención en la reducción de costes, impulsando así la inserción del producto con uno de los precios más competitivos del mercado.

Los valores de la tradición japonesa están presentes en cada una de las acciones de Yamaha; así, el hecho de encuadrar la presentación de sus nuevas soluciones de mezcla digital de audio en el marco de la Japan House de Londres, compartiendo espacio con una exposición sobre el uso de la seda en el antiguo Japón, no debe considerarse como algo secundario. Usando la comparación con el hilo de seda, material resistente pero delicado, flexible

pero poderoso, a partir del cual se elaboran diversos productos, desde cinturones trenzados hasta sofisticadas armaduras samurái, el origen y objetivo de la nueva línea DM7 aparece cristalino ante el espectador: se trata de una nueva serie que busca simplificar los flujos de trabajo usando la tecnología más puntera y respondiendo a las necesidades que se han ido identificando durante los últimos años.

Tras un breve recorrido por la exposición de la parte superior, en el que invitados y prensa pudieron conocer de primera mano las tradiciones ancestrales en artesanía y telares de seda de la cultura japonesa, la presentación dio comienzo en la sala de eventos de la Japan House, estructurada de un modo sencillo, a través de las intervenciones de Karl Christmas, Marketing Manager - Digital Mixers & Production, Tobias Weich, recientemente nombrado Director de la División de Audio Profesional de Yamaha, y Andy Cooper, director del área de ingeniería de Audio Profesional de Yamaha en Reino Unido.

A modo de introducción, Christmas hizo un breve recorrido por las dificultades que la pandemia de 2020 y la consecuente crisis de suministros tuvieron sobre la industria en general —y particularmente sobre Yamaha—, y celebró poder contar de nuevo con la presencia de periodistas e invitados para presentar el último y esperado lanzamiento de Yamaha Music; Tobias Weich, Director de la División de Audio Profesional de Yamaha en Europa, habló sobre los

37 TM Broadcast YAMAHA SERIE DM7 PRODCTOS

retos a los que se enfrenta Yamaha en Europa y expuso brevemente las directivas que han llevado a la prestigiosa firma a desarrollar las consolas DM7, y, por fin, Andy Cooper, especialista en ingeniería de amplia trayectoria en la casa, trasladó al público los avances integrados en la nueva Serie DM7, no sin provocar alguna que otra exclamación de sorpresa entre los presentes.

Y no es para menos: las nuevas consolas DM7 y DM7 compact vienen con una pantalla multitáctil que ofrece nuevas funcionalidades,

visualización completa de la selección de canales y permite modificar los parámetros de forma rápida; incorporan inteligencia artificial para detectar el pre-set más adecuado para la pieza que se esté reproduciendo (modo Assist)… y hasta puede dividirse en dos. Pero vamos por partes.

Las consolas mezcladoras

DM7

y DM7 Compact

La nueva gama de mesas de mezclas digitales de Yamaha, la serie DM7, se compone de dos consolas, un modelo de tamaño medio y un

modelo compacto, más un nuevo panel de control que funcionaría en ambos modelos, y dos paquetes de actualizaciones: uno, para el sector Broadcast y el firmware Theatre, enfocado a eventos de sala. De esta manera, la línea DM7 resulta la más versátil de Yamaha hasta el momento, siendo capaz de adaptar sus funcionalidades a cualquier tipo de evento, desde un concierto hasta un espectáculo teatral, pasando por cualquier tipo de streaming o producciones en vivo.

Las nuevas consolas mezcladoras DM7 y DM7 compact disponen de

PRODUCTOS
38 YAMAHA SERIE DM7 TM Broadcast

LAS NUEVAS CONSOLAS MEZCLADORAS DM7 Y DM7

COMPACT DISPONEN DE 120 Y 72 CANALES, RESPECTIVAMENTE, ADEMÁS DE 48 BUSES DE MEZCLA, 12 MATRICES Y NUEVAS FUNCIONES

120 y 72 canales, respectivamente, además de 48 buses de mezcla, 12 matrices y nuevas funciones, todo ello destinado a obtener un audio de gran calidad al mismo tiempo que se

facilita la labor de los técnicos a los mandos.

Uno de los elementos que más llamó la atención de algunos de esos técnicos, que acudieron invitados a

la presentación, fue el despliegue que hace la pantalla de vista de canales; se trata de una pantalla multitáctil de 12,1 pulgadas que ofrece al usuario toda la información disponible sobre cada uno de los canales de los que dispone. Con ayuda de los dedos, el usuario puede mover el ecualizador (EQ) o ajustar el tamaño en que se muestran canales y ajustes —esto es gracias al nuevo software de control DM7, que permite editar todos los elementos que uno pueda pensar: teclas, acciones, controladores, joystick, flujos de transporte… Además, incorpora dos

YAMAHA SERIE DM7
PRODUCTOS TM Broadcast 39 “

nuevos faders y puede usarse para expandir los controles en modelos anteriores de consolas Yamaha.

Mención especial merece el llamado modo Split, que divide la consola en dos: una de las partes se encargaría del FOH y la otra podría gestionar una emisión en directo, por ejemplo. Este modo Split permite dividir los canales de entrada, las escenas y los buses de mezcla, haciendo que la consola, en cualquiera de sus dos presentaciones, funcione como dos mesas de mezclas independientes.

Esta funcionalidad no solo permitiría que dos técnicos operaran a la vez con acciones diferentes, sino que, además, al dividir el ‘motor’ real de la consola en dos motores independientes, y otorgar a cada uno de ellos acceso a canales de entrada o canales de salida específicos, se

AMBAS CONSOLAS

UTILIZAN COMO BASE EL PROTOCOLO

DANTE, Y RESULTAN

TOTALMENTE

COMPATIBLES CON

LAS UNIDADES RIO

Y CON TODOS LOS DISPOSITIVOS EXTERNOS HABITUALES

reducen a la mitad la cantidad de canales. El usuario podrá determinar cuántas mezclas están disponibles en la ‘consola’ A y cuántas mezclas están disponibles en la ‘consola’ B. Como se indicaba anteriormente, de esta forma resulta muy fácil, por ejemplo, usar una de las consolas para producir un programa y la otra para transmitir en vivo, al mismo tiempo.

Ambas consolas utilizan como base el protocolo Dante, y resultan totalmente compatibles con las unidades RIO y con todos los dispositivos externos habituales, como

PRODUCTOS 40 YAMAHA SERIE DM7 TM Broadcast

receptores de micrófonos o de altavoces provenientes de otros fabricantes, y demás, como es frecuente en los productos de Yamaha.

Nuevas funcionalidades

El nuevo sistema DM7, integrado por una consola mezcladora de tamaño medio, otra compacta y un sistema de control —más firmware adaptado a diferentes usos—, está diseñado con la intención de que los usuarios ya acostumbrados a anteriores herramientas de Yamaha, como RIVAGE PM, por ejemplo, se encuentren como en casa; eso sí, en una casa con multitud de mejoras

para un uso aún más confortable. Para muestra, un adelanto de lo que desarrollamos más adelante:

 Uniendo la DM7 con la unidad compacta de la misma serie más el panel de control, se obtiene un rack de un metro desde el que es posible manejar el sonido de cualquier producción con la máxima precisión y una flexibilidad desconocida hasta el momento. En este metro de sistema de mezclas el técnico dispone del control de 120 entradas , 48 buses de mezcla, 24 DCAs y 12 buses de matriz. Con 30 faders motorizados, 36 codificadores y 3 pantallas multitáctiles.

 La serie DM7 ofrece gran variedad de encoders para un ajuste más preciso y fiel a los requerimientos de la producción; es posible visualizar el flujo de la señal e incluso manipularlo de forma táctil, a través de la pantalla.

 Además de las entradas, la DM7 dispone de alimentación phantom, dinámicas de ganancia analógica y digital e inserciones EQ.

La serie DM7 se basa en el mismo concepto de sonido natural que introdujeron en su día los preamplificadores de micro RIO D2, y para ello introduce toda una serie de efectos y optimizaciones que facilitarán el trabajo a multitud de técnicos: ofrece hasta 64 canales de plugins, diversas dinámicas de flujo de sonido, modelado de circuitos virtuales en el interior, compresor multibanda y supresor de ruido dinámico.

La ecualización (EQ) ofrece cuatro estilos o modos de aplicación: Precise, Agressive, Smooth y Legacy; estos últimos ya conocidos para los usuarios de Yamaha. De esta forma, se amplía la gama de tonales.

La interfaz visual ha sido mejorada y ofrece un histórico de las acciones que se han llevado a cabo. El software Dynamic 2 incluye algunos procesos nuevos, como FET Limiter y Dode Bridge Comp, para poder elegir la forma de compresión de los archivos. El Mix Balance Control agrega, además, una fácil compresión paralela.

Inserciones

A través de la pantalla multitáctil, el usuario podrá elegir el inicio de la inserción y después seleccionar hasta 4 plug-ins, del canal Premium, del rack de Effects o del rack de EQ, o de forma personalizada.

Premium Rack: tiene espacio hasta para 64 unidades e incluye favoritos del público de Rupert Neve Design como Portico EQ, Comp o Primary Source Enhancer. El técnico tiene a su disposición OpenDeck Tape Saturation, Dynamic EQ, compresión multibanda y, por encima de todo ello, resalta el apreciado supresor de ruido dinámico DaNSe.

Effects Rack: alberga una amplia gama de controles de reverberación HD y R3 de alto rendimiento, delays retro y modernos, modulación y efectos de saturación.

EQ Rack: con capacidad para 32 unidades o 64 canales de ecualización gráfica o paramétrica. Con independencia del proceso interno que

YAMAHA SERIE DM7 PRODUCTOS TM Broadcast
41

inserte, es posible compensar completamente el delay (retardo), así como las diferentes rutas del bus de salida.

Otras funcionalidades que es posible encontrar en relación a las inserciones son el Dugan Automixer, que está disponible en la barra de canales, siempre en posición post fader, preparado para ser usado hasta en 64 canales de entrada. Esta herramienta es especialmente recomendable para obtener una voz clara, en eventos como conferencias, mesas de debate o similares.

Protocolo DANTE

Dante Networking ha sido un elemento clave en las mesas mezcladoras de Yamaha durante más de una década y la nueva serie DM7 no iba a ser diferente.

Cualquiera que sea su tamaño, toda consola dentro de la línea DM7 ofrece 144 canales, tanto de entrada como de salida, a 96 kHz o 48 kHz. Es compatible con los formatos AES67 y SD 2110, y es posible montar y controlar hasta 24 dispositivos externos usando tan solo una de las mesas mezcladoras DM7, sea de tamaño mediano o compacta.

En estos dispositivos externos se incluyen la serie R de Yamaha y los TIO racks, los altavoces autoamplificados DZR-D, los amplificadores XMV y PC-D y los Nexo NXamp, además de la habitual gama de sistemas de micro inalámbricos de terceros y preamplificadores de micrófonos remotos. Nuendo Live, el control de software de grabación multipista, está integrado en la red y, además, podemos encontrar el Virtual Sound

Check, un patch dedicado a la grabación y a la producción virtual de sonido.

También hay un nuevo atajo de parche secuencial realmente útil para gestionar una gran cantidad de canales de forma cómoda, sencilla y rápida, con control a través de la pantalla multitáctil.

Función Assist

Se trata de la novedosa herramienta que echa mano de la inteligencia artificial integrada que es capaz de sugerir nombres para los canales de entrada y, aquí va la novedad, configurar las ganancias de HA para que se adapten a los sonidos ingestados. Esta función es especialmente útil para técnicos con poca experiencia o para técnicos que disponen de una amplia experiencia pero de tiempos muy reducidos.

Además, el modo Assist puede incluso establecer los niveles de fader para establecer un punto de inicio de la mezcla. No se trata de un intento de eliminar la presencia humana en controles, advierte el experto en ingeniería de Yamaha, Andy Cooper, sino que esta función tiene como objetivo reducir el tiempo dedicado a tareas técnicas o automatizadas de forma que el técnico pueda concentrarse más en la creatividad y la edición del sonido.

que permite dividir la consola física en dos consolas virtuales, como ya hemos mencionado. Esta división se traduce en la capacidad de la consola para mantener dos formas diferentes de producción al mismo tiempo; es decir, es posible que durante la misma sesión dos técnicos controlen, a través de la misma consola, la producción de un evento en vivo y la emisión en streaming del mismo.

Pero, además, es posible gestionar los canales, flujos de trabajo y presets de forma táctil a través del display: pocas veces se ha visto mayor agilidad y fluidez en una mesa de mezclas. Es posible establecer niveles fijos, arrastrarlos y copiarlos hacia la otra mesa (virtual) de mezclas donde se gestiona otra producción, y hasta ocultar botones y niveles de forma rápida y fácil.

El modo dividido es un concepto diferente. Aquellos que hayan intentado usar una mesa de mezclas para dos propósitos diferentes, como mezclar una transmisión en vivo al mismo tiempo que el FoH, se dará cuenta de la relevancia de esta nueva introducción por parte de Yamaha. Gracias a esta función, la mayoría de los recursos se dividen al cincuenta por ciento, por lo que los buses mixtos pueden estar definidos de cualquier forma.

Se trata de una de las características más sorprendentes de la DM7, ya

Eso sí, se advierte a los usuarios que elijan el modo dividido o predeterminado antes de comenzar a programar, ya que los archivos de ‘Escenas’ y ‘Consola’ no se pueden transferir de un modo a otro.

PRODUCTOS 42 YAMAHA SERIE DM7 TM Broadcast
“En misa y repicando”: el modo ‘split’

Paquetes de Firmware específicos

Yamaha ha querido incluir, siempre teniendo en cuenta el feedback recibido de sus clientes, nuevos paquetes de actualización de firmware específicos, con especial atención a los dos sectores que más demandan las soluciones de audio de Yamaha: el sector broadcast y el sector Theatre. Cada uno de ellos ofrece características específicas para la aplicación elegida. Estarán disponibles por separado y se pueden instalar en el mezclador, de

forma independiente o ambas, ya que pueden coexistir sin problemas en una misma consola; ambas opciones de firmware vienen gratis cuando se compra la unidad de control.

Resultado: mayor operatividad

La serie DM7 supone un paso más en cuanto a operatividad, teniendo en cuenta tanto la velocidad de procesado, la agilidad que suponen sus nuevas funciones como la flexibilidad que ofrece.

Disponibilidad y precio recomendado

Las consolas de la nueva serie DM7 de Yamaha estará disponible a partir de septiembre, a un precio recomendado de venta al público de 26.450€ para la DM7 de tamaño mediano y de 13.950€ para la DM7 Compact. La controladora DM7 saldrá al mercado en diciembre de 2023, con un precio recomendado de 4.500€ y los paquetes de software, que saldrán en la misma fecha, tendrán un coste a partir de 2.000€.

YAMAHA SERIE DM7 PRODUCTOS TM Broadcast
43 NUEVOS PLUG-INS
EFECTOS Portico 5033 • Portico 5043 • Portico 5054 • Buss Camp 369 • Buss Camp 076 • DaNSe • Dynamic EQ4 •MBC4 • EQ-1A • Equalizer 601 • Opendeck • REV-X • Analog Delay • Reverb R3 plate • Isolator
PACKAGE •Mix Minus •Fader cue Release •Back Stop PFL • Audio Follow Video •Source Selection Mix Mode •Speaker Selection •Loudness Meter •Peak program meters (PPM) •5.1 Surround THEATRE PACKAGE •4 Bank EQ/DYN • Actor Library • DCA preset • DCA Scene Grid • MIDI Output Event On Scene • AFC Image Control
Y
BROADCAST

Computación cuántica, ¿ficción o realidad?

44 TM Broadcast COMPUTACIÓN CUÁNTICA TECNOLOGÍA

Debido a los últimos avances tecnológicos se comienza a vislumbrar la realización de lo que hasta ahora era considerado una quimera en computación; la física cuántica aplicada a la era de la información genera conceptos que parecen lejanos en el tiempo, pero quizá no lo sean tanto. Para comenzar, debemos entender qué es la computación cuántica y por qué suena un poco a ciencia ficción o a serie de TV con Sheldon Cooper a la cabeza. A día de hoy es difícil decir cuándo estará disponible esta tecnología, pero parece que está más cerca de lo que imaginábamos hace unos años.

Por Rodrigo de la Moneda González, Marketing y Comunicación Telefónica Servicios Audiovisuales, y Asier Anitua Valluerca, Gerente Desarrollo de Negocio Telefónica Servicios Audiovisuales

Todo empieza con los Qubits, la versión cuántica de los bits: la computación cuántica permite realizar cálculos paralelos masivos y resolver problemas que se encuentran fuera del alcance de los sistemas actuales. Esta tecnología tiene el potencial de transformar el sector broadcast, abordando desafíos como la optimización de los algoritmos de compresión de vídeo, la mejora en la eficiencia de transmisión y difusión de contenidos o, lo que verdaderamente puede suponer un cambio de paradigma, la integración de herramientas de IA capaces de, por ejemplo, crear contenidos ultrapersonalizados de forma casi autónoma.

Pero, ¿qué es un ordenador cuántico?

Un ordenador cuántico es una máquina que utiliza los principios de la mecánica cuántica para realizar cálculos. A diferencia de los ordenadores clásicos, que utilizan bits para procesar y almacenar información en forma de ceros y unos, los ordenadores cuánticos utilizan qubits (bits cuánticos). Estos qubits son capaces de aprovechar las propiedades cuánticas para realizar tareas que llevaría demasiado tiempo ejecutar en un ordenador clásico. Entre estas características destacan la superposición y el entrelazamiento cuántico.

Si comenzamos con la superposición, debemos aclarar que esta supone que una partícula, o qubit en este caso, puede estar en diferentes estados al mismo tiempo. Sólo cuando se observa y mide su situación se “obliga” a que el sistema colapse , devolviendo una única respuesta. Como ejemplo de este comportamiento, tomemos como referencia el lanzamiento de una moneda. Mientras está girando en el aire, esta se encuentra en un estado de superposición en el que hay un 50% de posibilidades de que salga cara o cruz, pero sin decantarse por una u otra opción. Sólo cuando la moneda cae y se decide por un estado u otro podemos observar qué valor ha tomado, ya que se le ha obligado a colapsar en una de las dos opciones.

Retomando los qubits, imagina tener que resolver un problema complejo con multitud de soluciones. En un ordenador clásico se necesitaría probar cada posibilidad en serie, de una en una, lo que no sería deseable en términos de tiempo. Gracias a la superposición, los qubits pueden adoptar diferentes valores de forma simultánea (unos y ceros), lo que les permite representar todas las posibles soluciones de un problema a la vez. Esta cualidad se traduce en una capacidad de procesamiento masiva, ya que el sistema puede explorar todas las soluciones al mismo tiempo.

45 TM Broadcast COMPUTACIÓN CUÁNTICA TECNOLOGÍA

Por otra parte, continuando con la segunda cualidad cuántica, los qubits se pueden entrelazar entre sí, lo que significa que el estado de un qubit está intrínsecamente ligado al estado de otro, aun estando separados por grandes distancias. Toda variación en el estado de un miembro del par cuántico se reflejará en el otro, lo que supone una potencial aplicación en la transmisión de información y resolución de problemas.

Por ejemplo, en ciertas operaciones cuánticas se utilizan qubits entrelazados para distribuir información entre diferentes partes de un sistema en paralelo, lo que puede acelerar significativamente el proceso de cálculo, ya que la información viaja de forma instantánea sin tener que atravesar un circuito.

Además, el entrelazamiento cuántico puede aprovecharse en otros campos como la seguridad en las

comunicaciones, para generar claves criptográficas que sean imposibles de interceptar o modificar sin que pasen desapercibidas. Esto se debe a que el entrelazamiento hace que cualquier intento de medir o espiar la información afecte el estado de los qubits, y en consecuencia al de sus parejas, lo que alertaría al receptor de que alguien ha intentado intervenir la transmisión.

TECNOLOGÍA
46 COMPUTACIÓN CUÁNTICA TM Broadcast
IMAGEN GENERADA AUTOMÁTICAMENTE POR IA (COMPUTACIÓN CUÁNTICA DIBUJADA POR UN NIÑO DE CINCO AÑOS)

LOS ORDENADORES CUÁNTICOS SON

ción y transmisión de contenidos están comenzando a exigir una capacidad de procesamiento que requiere de nuevas soluciones tecnológicas para que todo el proceso sea eficiente.

CLÁSICOS SERÍAN EXTREMADAMENTE LENTOS.

Es importante tener en cuenta que no todos los problemas se benefician de la computación cuántica. Los ordenadores cuánticos son especialmente eficientes en ciertos tipos de operaciones, como la factorización de números grandes, donde los cálculos clásicos serían extremadamente lentos. Por otra parte, los ordenadores tradicionales son óptimos en la realización de tareas cotidianas y cálculo sencillos que no requieren tanta potencia, como la navegación web.

Continuando con el funcionamiento de la computación, y tras haber entendido sus fundamentos, es necesario establecer que los qubits no son los únicos componentes dentro de estos sistemas. Al igual que en la computación clásica, los ordenadores cuánticos operan mediante el uso de puertas cuánticas, concepto equivalenteequivalente al de las puertas lógicas. A diferencia de estas últimas, que operan en base a lo que se conoce como lógica booleana, su contraparte más avanzada aprovecha los principios de superposición y entrelazamiento para controlar los estados cuánticos de los qubits (como en el ejemplo de la moneda lanzada al aire) y realizar cálculos

en paralelo. Mediante la combinación de estas puertas se pueden crear circuitos capaces de realizar diferentes operaciones, por lo que su correcto diseño es fundamental para construir algoritmos eficientes.

Para minimizar el riesgo de arrastrar fallos en los cálculos, los ordenadores cuánticos cuentan con potentes sistemas de refrigeración, ya que los qubits necesitan operar bajo temperaturas mínimas cercanas al cero absoluto. Por otra parte, los mecanismos de lectura del estado de los qubits son fundamentales, puesto que son los encargados de traducir la información cuántica resultante de los cálculos a datos legibles. Finalmente, todo este mecanismo está orquestado por una unidad de control, responsable de la coordinación de los cálculos y demás componentes a través de la ejecución de un software especialmente diseñado para estos entornos.

Con el auge de las nuevas plataformas y la carrera por crear contenidos de calidad que atrapen a los espectadores, los consumidores del sector están desarrollando unos estándares cada vez más exigentes. Los usuarios esperan encontrarse con experiencias inmersivas, Apple Glasses, metaversos, contenidos personalizados y una calidad excepcional de vídeo, audio y sensorización. Todo esto con la idea de poder acceder a los contenidos cuándo, cómo y dónde se desee.

Nos encontramos ante un sector que precisa soluciones para cumplir y superar, por una parte, las expectativas de sus consumidores y, por la otra, los retos técnicos que afronta. Teniendo esto en cuenta, resulta evidente afirmar que es fundamental adoptar y desarrollar nuevas tecnologías que aporten soluciones eficaces a estos retos.

En la era de la transformación digital el sector audiovisual se enfrenta a desafíos cada vez más complejos. La producción, distribu-

Desde el Big Data al metaverso, estos avances facilitarán el diseño de herramientas que, además de plantear soluciones a problemas ya existentes, ponen en escena nuevos retos y dibujan un prometedor horizonte de posibilidades. De entre todas estas tecnologías destacan especialmente los avances en computación cuántica ya que, de una forma u otra, acabarán impactando en todo el panorama tecnológico y revolucionando no solo el sector de las telecomunicaciones, sino nuestra manera de crear, consumir y relacionarnos con los contenidos.

¿Cómo puede afectar al universo broadcast esta nueva tecnología?
COMPUTACIÓN CUÁNTICA TECNOLOLGÍA TM Broadcast 47
ESPECIALMENTE EFICIENTES EN CIERTOS TIPOS DE OPERACIONES, COMO LA FACTORIZACIÓN DE NÚMEROS GRANDES, DONDE LOS CÁLCULOS

Lógicamente esta tecnología comenzará siendo usada por unos pocos países privilegiados y con un foco mayor en defensa, seguridad y ciberseguridad, tanto en comunicaciones como en sistemas. Sin embar-

go,tan pronto avanceserá más accesible para otros sectores, entendemos que siempre en un modo PaaS (Platform as a Service) ya que poseer esta tecnología en el medio plazo no sería posible por la propia seguridad de los sistemas no cuánticos.

Imaginando un posible caso de uso, podríamos mencionar los sistemas de inteligencia artificial para

producción audiovisual automática en los que la creación de contenidos ultra personalizados sea una forma más de generar contenido casi de forma instantánea. Por ejemplo, facilitar una serie de instrucciones a la IA para crear unos dibujos animados con una historia personalizada al máximo, eligiendo personajes, moraleja, objetivo, enfoque y sesgo que se desee. Las grandes productoras

TECNOLOGÍA 48 COMPUTACIÓN CUÁNTICA TM Broadcast
¿Qué casos de uso tienen sentido con esta tecnología?
ORDENADOR CUÁNTICO (IMAGEN GENERADA POR IA)

podrán jugar con los derechos de reproducción de sus personajes para que los consumidores puedan crear ad hoc historias con sus personajes favoritos, entrelazándolos a ellos y sus circunstancias, como si de diferentes multiversos se tratara.

En casos de uso más complejos de explicar, pero igualmente útiles a largo plazo, se podrían dar nuevos protocolos de transmisión y comunicación basados en el entrelazamiento cuántico: imitando el uso que le dan a esto los ordenadores cuánticos, se podrían diseñar protocolos

IMAGINANDO UN POSIBLE CASO DE USO, PODRÍAMOS

MENCIONAR LOS SISTEMAS DE INTELIGENCIA

ARTIFICIAL PARA PRODUCCIÓN AUDIOVISUAL

AUTOMÁTICA EN LOS QUE LA CREACIÓN DE CONTENIDOS ULTRA PERSONALIZADOS SEA UNA FORMA MÁS DE GENERAR CONTENIDO CASI DE FORMA INSTANTÁNEA.

que permitan la transmisión prácticamente instantánea de información audiovisual de un dispositivo a otro.

Otros casos de uso que podríamos encontrar, entre otros muchos, serían:

 Técnicas de encriptado de información más eficaces y de difícil intervención, puesto que se podría notificar casi al momento cualquier intento de modificación que hayan sufrido los qubits y se dispone de mayor capacidad de cálculo (supone más compleji-

dad). En este punto, empresas españolas como Arquimea están ya ofreciendo la encriptación del futuro a prueba de cuántica; así, permiten afrontar la seguridad del futuro bajo las amenazas de la computación cuántica.

 Aplicar la IA para el escaneado y modelado de escenas y objetos en 3D, sobre el cual la computación cuántica podría acelerar los tiempos de procesado; en este punto, Volinga es una de las soluciones que junto a Arquimea están valorando su implantación.

 Impacto en Blockchain: mejora de los algoritmos, mayor velocidad en las transacciones (podría aumentar el número de transacciones por segundo, pero este factor depende de diferentes puntos como el propio diseño de Blockchain, que implica la validación continua de las transacciones y nuevos bloques que se añaden a la cadena), criptografía cuántica, escalabilidad de las redes Blockchain.

 Reconocimiento y análisis de contenidos: identificación de patrones y preferencias, segmentación del público, clasificación de contenidos según tipos de audiencia, personalización de las plataformas y contenidos.

 Realidad virtual y aumentada: simulación de entornos virtuales más complejos, interactivos y realistas (objetos virtuales, escenarios para presentaciones, películas, series, etc.).

COMPUTACIÓN CUÁNTICA TECNOLOLGÍA TM Broadcast
49
COMPUTACIÓN CUÁNTICA (IMAGEN GENERADA POR IA)

La mayoría de los profesionales del sector broadcast del audiovisual ya conocen de una u otra forma lo que es el HDR. En primer lugar, porque el mundo de la fotografía, la captación con Smartphone y las técnicas de retoque de imagen fija han acelerado el uso y disfrute de este tipo de tecnología; en segundo lugar, porque los fabricantes de equipamiento audiovisual, tanto profesional como de consumo, han popularizado el término en sus campañas de promoción y marketing.

Pero, ¿en qué momento está el HDR en la TV Broadcast? Vamos a conocer a través de este artículo cómo el HDR conquista poco a poco el panorama actual del audiovisual profesional.

Cada vez que una tecnología se desarrolla son muchos los factores que van determinando el nivel de éxito e implantación de la misma. En el caso de la imagen / vídeo llevamos viviendo muchas modificaciones en estos últi-

50
TM Broadcast HDR TECNOLOGÍA
Por Carlos Medina, Experto y Asesor en Tecnología Audiovisual

mos años. Algunas, con mayor suerte, han sido aceptadas, usadas y con un alto feedback de satisfacción entre los usuarios / espectadores, como, por ejemplo, la resolución de las imágenes / vídeos. En muy poco tiempo hemos pasado del SD (PAL= 720 × 576; NTSC= 720 × 480) al FHD (1.920 x 1.080 píxeles), 2K (2.048 x 1.080 píxeles), UHD (3.840 x 2.160 píxeles), 4K (4.096 x 2.160 píxeles), o incluso al 8K (7.680 x 4.320 píxeles) a lo largo de todas las fases del proceso audiovisual, desde la captación hasta la recepción, distribución y emisión de los contenidos.

Seguramente, la resolución es un concepto más fácil de entender, o por lo menos de asumir. Esta es una de las principales razones de su éxito. Entonces, ¿qué está pasando con el HDR?

Lo primero es saber de qué estamos hablando. HDR es el acrónimo del inglés High Dynamic Range, que significa alto rango dinámico. Es una tecnología más difícil de comprender ya que implica conocer y entender otros parámetros técnicos. Dicho de una forma sencilla, HDR permite tener mayor riqueza tonal entre las zonas iluminadas y oscuras en una imagen / vídeo en términos de exposición.

El objetivo de esta tecnología es dotar de un mayor realismo a la imagen que visualizamos. Por tanto, se quiere mejorar el registro y reproducción del máximo de valores / niveles de blancos, grises y de negro (lo que denominamos habitualmente como brillo o luminancia). Cuando vemos vídeos HDR, nuestra valoración suele vehicularse a través de

DICHO DE UNA FORMA SENCILLA, HDR PERMITE TENER MAYOR RIQUEZA TONAL ENTRE LAS ZONAS ILUMINADAS Y OSCURAS EN UNA IMAGEN / VÍDEO EN TÉRMINOS DE EXPOSICIÓN.

expresiones tan populares como “qué buena calidad”, “qué bien se ve todo”, “qué imágenes más vibrantes” o “qué fuerza”, entre otras.

El brillo o luminancia se mide en “nits”, o candelas por metro cuadrado (cd / m2); así existen variaciones desde valores muy oscuros –de 0,00005 nits– hasta valores muy luminosos –cerca de 10.000 nits o más–. Por tanto, HDR supone trabajar con imágenes con mayores rangos de nits frente al SDR (Standard Dynamic Range - Rango Dinámico Estándar), es decir, que trabaja con un rango que va del nivel máximo de brillo, que se corresponde con el blanco puro, hasta el mínimo que representa el negro.

Por ejemplo, un televisor cuya capacidad máxima de brillo es de 100 nits y la mínima de 0,1nits tiene una ratio de contraste de 100/0,1 es decir de 1000:1 (estándar de un televisor HD). Si aumentamos el brillo máximo a 400 nits manteniendo el nivel de negro en 0,1 nits, obtendremos una ratio de contraste de 4000:1. Es decir se ha incrementado la ratio de contraste y, por lo tanto, el rango dinámico. Así, conseguimos una nueva experiencia visual en la percepción de las imágenes / vídeos y nos aproximamos un poco más a lo

que sucede con la visión humana cuando mira directamente a la realidad. *Así, se consigue que la experiencia de visionado se asemeje cada vez más a la percepción directa de la realidad por el ojo humano .

La implantación del HDR supone tener un control de esta tecnología durante todas las fases de la producción audiovisual. Una clara mejora respecto al uso del SDR donde el resultado de una imagen presentaba “zonas altas - el nivel de blancoquemadas” y/o “empastada en los negros o zonas oscuras”.

El formato HDR supone de alguna manera reinventar la TV o por lo menos cambiar las reglas de juego de la producción del contenido SDR (Standard Dynamic Range). A las imágenes FHD / UHD se suman algunas modificaciones en asuntos tales como:

 La mejora en los dispositivos de captación, tanto en la sensibilidad de los sensores como en la forma de procesar las imágenes utilizando las diferentes curvas de gamma logarítmicas presentes en el mercado audiovisual.

 La completa estandarización de imágenes con una profundidad de color (bits por píxel - bpp) por debajo de los 10 bits o mayores.

51 TM Broadcast HDR TECNOLOGÍA

 El trabajo con nuevos espacios de color que sean más amplios bajo normativa ITU-R BT.709, ITU-R BT.2020 y/o DCI-P3.

 El conocimiento y la práctica de iluminar con curvas de gamma logarítmicas e imágenes RAW.

 El proceso de acabado final de la imagen y el etalonaje en el contenido visual.

 La implantación de códecs que permitan la difusión de HDR para distintos deliveries.

 La utilización de flujos de trabajo de producción en paralelo SDR/HDR y HDR/SDR.

 La comercialización de dispositivos de visionado compatibles HDR, es decir monitores, proyectores de vídeo y televisores de consumo (sea cual sea la tecnología utilizada:LED Full, Nanocell, OLED, OLED+, QLED…).

Todas las organizaciones broadcast están apostando por una producción UHDTV y HDR, como recomiendan la Unión Internacional de Telecomunicaciones (ITU), la Sociedad estadounidense de Ingenieros de Cine y Televisión (SMPTE), la Asociación de Tecnología de Consumo (CTA, la antigua Asociación de Bienes de Electrónica de Consumo - CEA), el Grupo de Expertos de la Imagen en Movimiento (MPEG), la Asociación de Discos ópticos Blu-Ray (BDA), e incluso, VESA (Video Electronics Standards Association).

El estándar HDR TV nos hace recordar algunas situaciones vividas

en el pasado a la hora de implantar una nueva tecnología, es decir, la aparición de varias soluciones y denominaciones en un corto periodo de tiempo, por ejemplo:

HDR10

En agosto de 2015, la Consumer Technology Association (CTA) anunció este estándar abierto (sin pagar derechos de licencia) para la adopción de HDR, apoyado por la mayoría de fabricantes, distribuidores y creadores de contenido, entre los que destacan Sony, Samsung, LG, Sharp, Vizio, Hisense.

Sus características principales son el empleo de la Función de Transferencia Electro-Óptica (EOTF) del estándar SMPTE ST 2084, unespacio de color Rec. 2020, luminancia de color hasta un máximo de 1.000 nits, profundidad de color de 10 bits e instrucciones globales de imagen además de una sola capa de contenido con metadatos estáticos y unainterfaz mínima para obtener señal –HDMI 2.0a.

Este sistema no es retrocompatible con los televisores SDR, aunque es el estándar más extendido, e incluso obligatorio en los Blu-Ray de UHD.

En abril de 2016 la UHD Alliance (agrupación de distintos sectores industriales formada por los principales estudios de cine, fabricantes de electrónica de consumo y compañías de tecnología y distribuidoras de contenido) estableció la certificación Ultra HD Premium para asegurar la correcta implantación HDR10 con las siguientes carácterísticas resolución: 3.840 x 2.160, profundi-

dad de color de al menos 10 bits, espacio de color BT.2020, luminancia máxima de más de 1.000 nits, nivel de negros de menos de 0,03 nits yaplicación de lanorma SMPTE ST 2084- EOTF.

Los principales creadores y distribuidores de contenido HDR10 son Netflix, Amazon Prime Video, VUDU, HBO, Google Chromecast Ultra, Playstation 4 PRO, Xbox One, Vimeo, You Tube. Y los estudios de Hollywood: Fox, Warner Bros, Paramount, Sony, Lionsgate.

HDR10+

En 2017 se actualiza el formato HDR10, creado por la colaboración de Samsung, 20th Century Fox y Panasonic y que cuenta con Amazon Prime Videocomo el primer proveedor de servicios de streaming.

La gran novedad es que incorpora metadatos dinámicos que permiten ajustar la configuración de los parámetros de escena frame a frame (fotograma a fotograma). La nueva funcionalidad se denomina Dynamic Tone Mapping;integra el codec x265 HEVC, conexión HDMI 2.0 y es soportado por Blu-Ray de UHD.

DOLBY VISION (DV)

Es una referencia y estándar en HDR, que se basaen las conclusiones de una serie de experimentos con los espectadores para determinar cuánto rango dinámico necesita la visión humana. El resultado fue que se alcanza un nivel satisfactorio (90%) al reproducir un rango de 0 a 10.000 nits.

Los laboratorios Dolby determinan utilizar la normativa BT.2020 SMPTE

TECNOLOGÍA
52 HDR TM Broadcast

Óptica (EOTF) del estándar SMPTE

LOS PRINCIPALES CREADORES Y DISTRIBUIDORES

DE CONTENIDO HDR10 SON NETFLIX, AMAZON PRIME VIDEO, VUDU, HBO, GOOGLE CHROMECAST ULTRA, PLAYSTATION 4 PRO, XBOX ONE, VIMEO, YOU TUBE. Y LOS ESTUDIOS DE HOLLYWOOD: FOX, WARNER BROS, PARAMOUNT, SONY, LIONSGATE.

ST-2084, luminancia de color hasta un máximo de 10.000 nits, profundidad de color 12 bits (permite utilizar 68.000 millones de colores) e instrucciones parciales de metadatos por fotograma individual.

Es retrocompatible con los televisores de SDR y –de forma opcional–con los televisores compatibles con el sistema HDR10. También es opcional en los Blu-Ray de UHD.Este estándar tiene un sobrecoste añadido que suele repercutir en el consumidor por la necesidad de pagar por un chip especial de Dolby Vision, un proceso de certificación y unas licencias de reproducción.

Los principales creadores y distribuidores de contenido HDR Dolby Vision son Netflix, Warner, Universal Pictures, Amazon Prime Video, VUDU, Google Chromecast Ultra… Los estudios de Hollywood: MGM, Sony, Warner BrosyUniversal.

HLG

Hybrid Log-Gamma (HLG) se trata de un estándar auspiciado por las cadenas públicas BBC británica y la japonesa NHK. Uno de sus grandes aciertos para su implantación es la compatibilidad en entornos

SDR/HDR con Rec 709 para transmisiones televisivas terrestres, por cable y por satélite. Es estándar abierto (sin pagar derechos de licencia). Emplea una EOTF (ElectroOptical Transfer Function) híbrida de gamma logarítmica (HLG) sin metadatos y profundidad de color de 10 bits.

Su factor diferencial es que está orientado principalmente para contenido en directo, en televisión o retransmisiones deportivas, por ejemplo, durante las Olimpiadas de Tokio de 2020.

Advanced HDR

Se trata de la propuesta de uno de los gigantes tecnológicos asociados directamente al cine, Technicolor (HDR Technicolor), y que por ahora tiene una acogida prácticamente nula, aunque cuenta con el apoyo de los creadores de contenidos. Desde el CES 2016, Philips se convirtió en su gran aliado y esto tuvo como resultado el formato SL-HDR1 (anteriormente Prime Single).

Es retrocompatible con los televisores de SDR, a través de un dispositivo decodificador externo,emplea la Función de Transferencia Electro-

ST 2084 e incluye una sola capa de contenido con metadatos estáticos y dinámicos; como es habitual, también es opcional en los Blu-Ray de UHD.

HDR Converter

No es un estándar HDR como tal, sino una tecnología desarrollada por LG en sus televisores que permite convertir yescalar un contenido de SDR a HDR mediante emulación, en la que básicamente se retocan algunos ajustes, como el contraste, para dar sensación de HDR.

VESA DisplayHDR

Es simplemente una certificación para el correcto cumplimiento del HDR en el entorno de los monitores. Las especificaciones DisplayHDR y DisplayHDR True Black de VESA brindan un beneficio importante para la industria de las pantallas y para los consumidores finales.

Consiste en un estándar abierto de la industria para determinar la calidad de visionado del HDR en los monitores para conocer cuál es la calidad de imagen que vamos a tener en cada pantalla.

Se distinguen tres niveles de certificación: DisplayHDR 400 (gama baja), pensado para ordenadores portátiles, DisplayHDR 600, para portátiles de gama media y monitores, y DisplayHDR 1000, para equipos de alta gama.

El camino no está siendo fácil debido a la multitud de soluciones que se están proponiendo, lo que en muchas ocasiones puede confundir tanto al profesional a la hora de

HDR
TECNOLOGÍA TM Broadcast 53 “

generar contenido o comercializar imágenes y vídeos HDR, como al usuario final cuando tiene que comprar un televisor, actualizar el equipamiento técnico o disfrutar de propuestas audiovisuales en su pantalla.

Incluso en el ámbito de producto de consumo, muchos fabricantes utilizan denominaciones propias que siguen provocando confusión: Samsung con SUHD Precision Black Pro; Panasonic bajo Dynamic Range Remaster; LG con Wide Color Led; Sony con X-tended Dynamic Range; Philips deniminandolo Bright Premium y Micro Dimming Premium, entre otros.

Sin embargo, es necesario resaltar el esfuerzo que están haciendo estos fabricantes de televisores y proyectores de vídeo para conseguir introducir el ecosistema HDR en nuestras casas con dispositivos de pantalla capaces de mostrar 1.000 nits de brillo con 10 bit o incluso con 17 bit, aunque Dolby siga recomendando llegar a los 4.000 nits para conseguir imágenes increíbles.

En el sector broadcast TV, la Unión Internacional de Telecomunicaciones publicó la recomendación ITU-R HDR-TV, BT.2100-0, por lo que los profesionales nos encontramos bajo dos estándares a nivel mundial: Hybrid Log-Gamma (HLG) y Perceptual Quantizer (PQ), que después se traducen en las diferentes denominaciones arriba señaladas.

Por último, a la hora de producir y comercializar en entorno broadcast, es fundamental determinar si queremos mantener la compatibilidad

entre un flujo SDR/HDR o también utilizar metadatos estáticos o dinámicos.

Y, a nivel normativo, ya existen publicaciones que van avalando las garantías de una producción HDR para el sector profesional:

 ARIB STD-B67 Essential Parameter Values for the Extended Image Dynamic Range Television (EIDRTV) System for Programme Production.

 EBU Tech 3320 User Requirements for Video Monitors in Television Production. Version 4.1 (9/2019).

 ETSI TS 103 433-1 High-Performance Single Layer High Dynamic Range (HDR) System para uso en dispositivos electrónicos de consumo .

 SID ICDM IDMS 1.1 SID International Committee for Display Metrology (ICDM) Information Display Measurements Standard v1.1.

 ITU-R Rec. BT.601-7 Studio encoding parameters of digital television for standard 4:3 and wide screen 16:9 aspect ratios. ITU-R. March 2011.

 ITU-R Rec. BT.709-6 Parameter values for the HDTV standards for production and international programme exchange. ITU-R. June 2015.

 ITU-R Rec. BT.1886 Reference electro-optical transfer function for flat panel displays used in HDTV studio production. ITU-R. March 2011.

 ITU-R Rec. BT.2020-2 Parameter values for ultra-high definition television systems for production and international programme exchange. Oct. 2015.

 ITU-R Rec. BT.2035 A reference viewing environment for evaluation of HDTV program material or completed programmes.

 ITU-R Rec. BT.2100-2 Image parameter values for high dynamic range television for use in production and international programme exchange. July 2018.

 ITU-R Rec BT.2390-11 (03/2023) High dynamic range television for production and international programme exchange.

 ITU-R Rec. BT.2124 Objective metric for the assessment of the potential visibility of colour differences in television. ITU-R. Jan. 2019.

TECNOLOGÍA 54 HDR TM Broadcast
A LA HORA DE PRODUCIR Y COMERCIALIZAR EN ENTORNO BROADCAST, ES FUNDAMENTAL DETERMINAR SI QUEREMOS MANTENER LA COMPATIBILIDAD ENTRE UN FLUJO SDR/HDR O TAMBIÉN UTILIZAR METADATOS ESTÁTICOS O DINÁMICOS.

 ITU-R Rec. BT.2408-0 Operational practices in HDR television production. ITU-R. Oct. 2017.

 ITU-T Rec. H.273 Coding-independent code points for video signal type identification, 2016.

 ITU-R BT.2381-0 (07/2015): Requirements for High Dynamic Range Television (HDR-TV) Systems.

 ITU-R BT.2077 Real time serial digital interfaces for UHDTV signals.

 OpenEXR High-dynamic-range scene-linear image data and associated metadata format. www.openexr.com.

 SMPTE ST 2036 1 Ultra High Definition Television Image.

 SMPTE ST 0196-2003 MotionPicture Film - Indoor Theater and Review Room Projection - Screen Luminance & Viewing Conditions.

 SMPTE ST 0431-1-2006 D-Cinema Quality - Screen Luminance Level, Chromaticity and Uniformity.

 SMPTE RP 0431-2-2007 D-Cinema Quality - Reference Projector and Environment.

 SMPTE ST 2084:2014 y CEA-861.3A-2016: High Dynamic Range (PQ) Electro-Optical Transfer Function of Mastering Reference Displays. SMPTE 2014.

 SMPTE ST 2086:2018 Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images.

 SMPTE ST 2094-0:2017 y CEA-861G: Overview Document - Dynamic Metadata for Color Volume Transformation. DOI: 10.5594/SMPTE.OV2094-0.2017.

 SMPTE ST 2048-1 2048×1080 and 4096×2160 Digital Cinematography Production Image Formats FS/709.

 SMPTE ST 2065 4:2013 ACES Image Container File Layout. HDR Production File Format.

 SMPTE ST 268-2 DPX format extensions for high dynamic range and wide color gamut pictures.

 VESA DisplayHDR: VESA High-performance Monitor and Display Compliance Test Specification (DisplayHDR CTS). Rev. 1.1 (2019).

 ARIB STD-B67 (2015, agencia japonesa de normalización): Hibryd Log Gamma (HLG) Essential Parameter Values for the Extended Image Dynamic Range Television System.

El Comité de Sistemas Avanzados de Televisión (ATSC), bajo la transmisión terrestre ATSC 3.0, el Comité MPEG bajo el estándar HEVC, DVB Europa y la Sociedad de Ingenieros de Cable y Telecomunicaciones (SCTE) ya se encuentran trabajando en la preparación de estándares de HDR para la difusión de este tipo de contenido.

Cualquier profesional del sector audiovisual, tanto en el ámbito broadcast como en el de la cinematografía digital, tiene que tener claro que el HDR es una tecnología que debe cuidarse a lo largo de todo el proceso de trabajo (Workflow HDR): desde el origen y desarrollo del proyecto (Project Development), pasando por la preproducción, la contribución (producción, grabación / rodaje y post-producción), el delivery (distribución, emisión y/o retransmisión) y, por supuesto, hasta los displays o dispositivos de salida de imagen que utiliza el usuario final o espectador (monitores, televisiones, tablet, móviles…).

El estándar HDR tiene implicaciones muy importantes en todas las decisiones que han de tomarse para obtener un contenido broadcast de calidad. En la actualidad, debemos seguir impulsando los contenidos HDR frente a los SDR dado el nivel de satisfacción que generado por su disfrute. Sin embargo, es este un impulso que todavía necesita de la colaboración entre los agentes implicados en la tecnología (desarrolladores, ingeniería, fabricantes de equipamiento…) y los que promueven la creatividad visual (productores/as, directores/as-realizadores/as, directores/as de fotografía, operadores/as de cámara, técnicos/as de postproducción y etalonaje…).

El éxito del HDR supone un mano a mano entre tecnología y creatividad, una dinámica conversacional entre el impulso investigador de nuevas opciones de calidad de imagen y los requerimientos de unos espectadores cada vez más exigentes.

HDR TECNOLOGÍA TM Broadcast
55

Eben Bolter

El arte se encuentra con la alta tecnología

56 DIRECTORES DE FOTOGRAFÍA TM Broadcast EBEN BOLTER

TM Broadcast ha tenido el placer de charlar con el director de fotografía del último éxito de HBO “The Last Of Us”. Eben Bolter ha hablado con nosotros sobre nuevas herramientas y formas de hacer películas, cómo prevé el futuro de la industria y qué tipo de filmación y producción de alta tecnología le interesa más.

¿Quién es Eben Bolter y cómo empezó en el mundo de la cinematografía?

Soy director de fotografía y empecé en esto haciendo cortometrajes con amigos en cámaras DSLR. En lugar de ir a la escuela de cine me comprometí a rodar tantos cortos como pudiera, y a lo largo de los años ya he rodado más de 100 cortos. Es una excelente manera de aprender ensuciándose las manos en todas las áreas de los departamentos de cámaras e iluminación.

¿Cuál ha sido su progresión y cómo se involucró en una producción como "The Last of Us"?

Hacer tantos cortometrajes me permitió desarrollar una buena carta de presentación, que a su vez me llevó a contratar un agente, rodar largometrajes y luego series de televisión. He tenido la suerte de trabajar con HBO varias veces antes, así que cuando se anunció “The Last of Us”, mi agente pudo conseguirme una entrevista y de alguna manera me hice con el trabajo.

Para desarrollar estos capítulos de “The Last of Us”, ¿qué equipos técnicos y humanos estuvieron involucrados?

La temporada 1 de la serie tiene 9 capítulos, en 3 de los cuales he intervenido como director de fotografía. Hemos utilizado 3 cámaras durante la mayor parte de la serie, con un

57 TM Broadcast EBEN BOLTER DIRECTORES DE FOTOGRAFÍA
EBEN BOLTER, A LA IZQUIERDA EN LAS FOTOGRAFÍAS ARRIBA Y ABAJO, CON PARTE DEL EQUIPO DE “THE LAST OF US”.

increíble equipo de técnicos de cámaras canadienses, y tuve la suerte de poder traer a mi proprio operador de primera unidad, Neal Bryant, desde Los Ángeles. El experto en iluminación Paul Slatter dirigió un departamento de iluminación enorme, y Spike Taschereau un departamento de soporte de cámaras muy eficiente.

¿Qué tecnología se ha utilizado para desarrollar los capítulos?

En cuanto a la tecnología, la mayor parte de la innovación fue respecto al diseño de producción y los efectos visuales, con el diseñador John Paino y el jefe de efectos visuales Alex Wang coordinándose de forma brillante para dar vida al mundo de "The Last of Us" en la cámara. Nuestro enfoque habitual

era que si los actores podían tocarlo, tenía que ser real. Si estaba en la distancia lejana fuera de su alcance por encima de ellos, usaríamos extensiones VFX.

¿Cuál es el mayor reto técnico al que se ha enfrentado? ¿Cómo lo resolvió? Una vez terminado, ¿qué capítulo considera más gratificante en cuanto al trabajo que ha realizado?

DIRECTORES DE FOTOGRAFÍA 58 EBEN BOLTER TM Broadcast

En el episodio 5 teníamos una secuencia de callejón sin salida que requería construir la calle y las casas en un backlot fuera de nuestro estudio en el centro de Calgary. La escena requería una sensación de luz de luna en medio de la nada que pareciera orgánica y naturalista, pero que permitiera al público captar el pulso de la historia con claridad. La complicación añadida era que los vientos en Calgary pueden llegar a 160 km/h, por lo que tuvimos que crear una solución de luz suave a gran escala sin usar textiles. Nos decidimos por un enfoque de "red" de iluminación, con 400 tubos LED bicolor individuales espaciados uniformemente y suspendidos de cuatro grúas de construcción, obteniendo así una luz suave y controlable que permitía al viento pasar para que pudiéramos seguir rodando.

EBEN BOLTER
DE FOTOGRAFÍA TM Broadcast
DIRECTORES
59

¿Cuál es la mayor innovación tecnológica que han introducido en el rodaje de esta temporada de “The Last of Us”?

No era realmente una filmación en la que buscábamos innovar con tecnología, sino simplemente contar la historia de la manera más auténtica posible. Diría que el nuevo elemento tecnológico más interesante fue la plataforma de cámara ZeeGee. Es un dispositivo que emula el funcionamiento en mano, pero fijado a un chaleco y brazo Steadicam. Con ello se elimina parte de la inestabilidad propia de la sujeción con la mano y se permite al operador crear un aspecto manual auténtico, pero desde cualquier altura, no solo a la altura arbitraria de su hombro.

El Capítulo tres "Mucho, mucho tiempo" tuvo un gran impacto y fue realmente aclamado por el público. Se pueden ver escenas como la conversación de Bill y Frank al piano o su última cena. En términos de iluminación y fotografía, ¿cómo se crea el ambiente para un episodio como este?

Para Peter Hoar, el director, y para mí esta era una historia en la que queríamos emplear el don de una relación contada durante 20 años a su máximo potencial, por lo que tramamos con mucho cuidado la forma en la que las estaciones, el clima y la hora del día podrían utilizarse de mejor manera para reflejar el estado de ánimo de las escenas y de su relación en general.

En cuanto al quinto capítulo, ¿cómo fue el enfoque de la iluminación en la escena del francotirador y la batalla contra los infectados?

Una vez más, se trataba de reflejar la verdad de la situación. Nuestros personajes están en medio de la nada en plena noche, sin electricidad, y no pueden usar sus linternas a fin de mantenerse ocultos, así que tuve que motivar la visibilidad a través de la luz de la luna simulada, hasta que llegó la armada y los faros y el fuego tomaron el control. La dificultad estaba en comprometerse con la autenticidad de nuestro mundo mientras recreábamos una luz de luna a gran escala y flexible, que es inherentemente falsa.

El HDR se está convirtiendo en un estándar ahora que ya hay disponibles soluciones de control del HDR. ¿Alguna vez ha tenido la oportunidad de rodar en HDR? ¿Se ha convertido en la norma, y modifica el trabajo del director de fotografía? ¿Qué opina de esta técnica?

Sí, en realidad soy un gran fan de las oportunidades que HDR nos ofrece como cineastas. También creo que es la nueva realidad de cómo la mayoría de la gente verá nuestro trabajo. Cualquier televisor comprado en los últimos 5 años tendrá HDR y en vista de la forma en que se lanzan las películas y, por supuesto, los drama televisivos de alta gama en la actualidad, hay que rodar teniendo en mente cómo verá el trabajo la audiencia. En la película de Netflix “Fauces de la noche”, Netflix respaldó mi solicitud de tener control HDR 4K en el plató de DIT y esto supuso toda una revelación para mí. Rodamos e iluminamos para HDR, y

DIRECTORES DE FOTOGRAFÍA 60 EBEN BOLTER TM Broadcast

luego realizamos el etalonaje del HDR en primer lugar con Jill Bogdanovic en Co3. Para mí, el truco es pensar en la gama HDR como si fuera una caja de herramientas ampliada. Cada escena y toma no tiene que usar el rango completo, y en “Fauces de la noche” generalmente limitamos nuestros reflejos a alrededor del 70% de brillo, pero cuando se emplea luz brillante como una herramienta de narración de historias, tuvimos la capacidad de abrirlo el 100% y literalmente hacer que nuestra audiencia entrecierre los ojos.

Otra de las grandes revoluciones que está viviendo esta industria es la Producción Virtual. ¿Ha tenido la oportunidad de rodar con esta tecnología? ¿Qué piensa sobre la Producción Virtual? ¿Va a cambiar la forma en que todos producimos contenido?

Tuve la suerte de que me pidieran dirigir la fotografía en un corto para que una empresa demostrara sus pantallas de Producción Virtual y me entusiasmó echar un vistazo temprano a la tecnología. Es increíblemente impresionante y ofrece oportunidades fascinantes para la iluminación interactiva y la captura de VFX en cámara. Todavía hay muchas pegas que resolver y no funciona para todo tipo de rodaje o escena, pero para ciertas producciones y escenas es una nueva herramienta maravillosamente emocionante.

¿Cuál será la próxima gran revolución con respecto al trabajo del Director de Fotografía?

Creo que HDR continuará normalizándose, particularmente a medida que los cines comiencen a instalar pantallas OLED gigantes en lugar de proyectores, y si Apple lanza un auri-

cular de realidad virtual convencional como se rumorea, será interesante comprobar cómo se las van a ingeniar los cineastas para encontrar formas de proporcionar contenido para esa experiencia de usuario. Soy un fanático de la tecnología y me encanta mantenerme al día sobre las oportunidades que hay. El PSVR2 me causó una gran impresión, así que si Apple da con la tecla correcta, realmente puedo verlo cobrando fuerza y marcar tendencia.

¿En qué próximos proyectos podremos ver a Eben Bolter?

Mi próximo lanzamiento es “Invasión secreta” de Marvel, serie en la que tuve el placer de dirigir la fotografía adicional. Me lo pasé muy bien trabajando con Marvel y estoy deseando que los fans la vean.

EBEN BOLTER DIRECTORES DE FOTOGRAFÍA TM Broadcast
61

Revolucionando la industria de los medios: Liberando

el poder de los entornos virtualizados en la nube

62 TM Broadcast ENTORNOS VIRTUALIZADOS TECNOLOGÍA

En el panorama vertiginoso y en constante evolución de la industria de los medios, los enfoques tradicionales a menudo tienen dificultades en seguir el ritmo de las demandas de la creación y distribución de contenido en tiempo real. Desafíos tales como requisitos dinámicos de producción, necesidades de escalabilidad y flexibilidad, y las complejidades de la colaboración en entornos de trabajo remoto se han vuelto más frecuentes. Los entornos virtualizados ofrecen una solución a estos desafíos. Mediante la creación de máquinas virtuales o contenedores que replican hardware físico, están transformando la industria de los medios y permitiendo el uso eficiente de los recursos informáticos. Estos entornos tienen un inmenso potencial para las organizaciones de medios que buscan soluciones escalables, flexibles y colaborativas en una era definida por rápidos cambios y la innovación digital.

63 TM Broadcast ENTORNOS VIRTUALIZADOS TECNOLOGÍA
Por Jonas Michaelis, Consejero Delegado Techtriq GmbH

Los entornos virtuales ofrecen una serie de ventajas para la industria de los medios. En primer lugar, optimizan la utilización de recursos, lo que permite a las organizaciones de medios aprovechar al máximo sus capacidades informáticas al tiempo que reducen los costes. La escalabilidad y la elasticidad también son ventajas clave que permiten a las empresas de medios dimensionar sin problemas sus operaciones en función de la demanda, acomodando picos de actividad sin provocar interrupciones. Además, los entornos virtualizados facilitan la colaboración y el trabajo en remoto, superando así las barreras geográficas y permitiendo la cooperación en tiempo real entre equipos dispersos.

La integración de tecnologías avanzadas en entornos virtualizados abre aún más posibilidades para los profesionales de los medios. Han surgido herramientas generativas de

IA, como ChatGPT de OpenAI, para transformar la industria. Combinadas con las posibilidades de una plataforma de integración de medios como qibb, ofrecen multitud de opciones para automatizar y optimizar los procesos de medios.

Desafíos en la industria de los medios

La industria de los medios opera dentro de un entorno dinámico y de ritmo rápido, donde la demanda de creación y distribución de contenido en tiempo real está siempre presente. Las organizaciones de medios se enfrentan a una serie de desafíos a medida que navegan por este panorama, adaptándose a las necesidades y expectativas en continua evolución de sus audiencias. La industria exige capacidad de responder rápidamente a las tendencias emergentes, las noticias de última hora y las preferencias cambiantes de la audiencia. Los creadores y distribuidores de contenido deben ser capa-

ces de generar y entregar contenido en tiempo real, manteniendo el ritmo de un entorno en constante cambio.

Las cargas de trabajo pueden fluctuar drásticamente, con picos repentinos en la demanda de eventos específicos o noticias de última hora. Las empresas de medios necesitan una infraestructura que puedan redimensionar sin problemas, lo que les permitirá asignar recursos de manera eficiente en función de la demanda. Esta agilidad garantiza que puedan manejar mayores cargas de trabajo sin sacrificar el rendimiento o incurrir en costes innecesarios durante períodos de menor actividad.

Además, la necesidad de trabajar a distancia y de contar con opciones de colaboración independientes del tiempo y la ubicación se ha hecho evidente de forma reciente como reacción a la pandemia mundial. La colaboración efectiva se vuelve vital

TECNOLOGÍA 64 ENTORNOS VIRTUALIZADOS TM Broadcast

para garantizar una coordinación perfecta entre los miembros del equipo, independientemente de su ubicación física. Sin embargo, la colaboración en tales entornos distribuidos puede resultar un desafío, con barreras en la comunicación, el intercambio de archivos y la gestión de proyectos.

La racionalización de los procesos de colaboración es esencial para posibilitar un trabajo remoto eficiente y una coordinación efectiva del equipo. Las organizaciones de medios necesitan herramientas y sistemas que faciliten la colaboración en tiempo real, lo que permite la comunicación, el intercambio de archivos y el control de versiones con total transparencia. Superar estos obstáculos permite a los equipos trabajar juntos sin problemas, maximizando la productividad y la eficiencia.

Con la comprensión y gestión la naturaleza dinámica de la producción de medios, los requisitos de escalabilidad y flexibilidad, y los desafíos de la colaboración y el trabajo en remoto, las organizaciones de medios pueden posicionarse para lograr el éxito en esta industria en rápida evolución.

Abordar los desafíos: entornos virtualizados

Para superar los desafíos que afronta la industria de los medios, los entornos virtualizados han surgido como una solución transformadora. Estos entornos aprovechan las máquinas virtuales o contenedores para replicar el hardware físico, ofreciendo escalabilidad, flexibilidad y una utilización eficiente de los recursos. Mediante la desvinculación del hardware y el software subya-

centes, los entornos virtualizados brindan a las empresas de medios la libertad de elegir las mejores herramientas y servicios sin verse encadenados a un solo ecosistema de proveedores.

Este agnosticismo respecto a los proveedores es un aspecto crítico de los entornos virtualizados que aborda directamente el desafío asociado la existencia de disparidad de herramientas y servicios de diferentes proveedores. Este enfoque permite una integración perfecta entre diferentes herramientas y servicios, agilizando con ello los flujos de trabajo, reduciendo la complejidad y mejorando la interoperabilidad.

La integración de sistemas virtualizados refuerza aún más los beneficios de los entornos virtualizados gracias a la consolidación sistemas y servicios dispares en un ecosistema unificado. Tal integración elimina el enfoque aislado que dificulta la escalabilidad, la optimización de recursos y la colaboración. Al aprovechar la integración de sistemas virtualizados, las organizaciones de medios pueden lograr una interoperabilidad perfecta, lo que permite a los profesionales acceder a recursos y utilizarlos en todos los sistemas, compartir proyectos en tiempo real y colaborar en ellos y optimizar la asignación de recursos en función de la demanda.

Mediante la integración de entornos virtualizados en sus flujos de trabajo, las organizaciones de medios pueden superar los desafíos asociados al agnosticismo de los proveedores y la integración de sistemas virtualizados. Estas soluciones transformadoras capacitan a los profesionales de los medios con entornos escalables, flexibles y colaborativos, lo

que les permite satisfacer las demandas de la industria de los medios en rápida evolución.

Plataformas de integración de medios: una solución de flujo de trabajo preparada para el futuro

Uno de los mejores ejemplos en este campo es qibb. Como plataforma de integración de medios basada en la nube, qibb apoya a las organizaciones de medios para agilizar sus flujos de trabajo, colaborar de forma transparente y desbloquear nuevas posibilidades en la creación y entrega de contenido. Al consolidar numerosas herramientas y servicios en un entorno unificado, qibb elimina la complejidad y las ineficiencias asociadas con el trabajo en múltiples plataformas, lo que posibilita que los profesionales de los medios se centren en sus esfuerzos creativos y aumenten la productividad. Con qibb, los equipos pueden integrar sin problemas sus herramientas preferidas, agilizar los flujos de trabajo y reducir las complejidades de los flujos de trabajo específicos de cada proveedor.

Con un creciente catálogo de conectores y plantillas predefinidas, qibb ofrece diversas funcionalidades para trabajar con entornos virtualizados. Esto permite a las organizaciones de medios construir y mantener integraciones de manera más rentable, más rápida y sin dependencia de los proveedores. El enfoque de reducida planificación de plataformas como qibb simplifica el proceso de automatización e integración de flujos de trabajo de medios, lo que facilita más que nunca la creación de procesos de producción eficientes y escalables.

ENTORNOS VIRTUALIZADOS TECNOLOGÍA TM Broadcast
65

Transformando flujos de trabajo con inteligencia artificial

La integración de herramientas de inteligencia artificial (IA) como ChatGPT en un flujo de trabajo basado en la nube da lugar a toda una gama de nuevas posibilidades. Al incorporar de forma transparente la IA generativa en el proceso de creación de contenido, la plataforma de integración de medios puede capacitar a los profesionales de los medios para automatizar y mejorar sus flujos de trabajo, lo que deriva en un ahorro de tiempo y esfuerzo sin por ello comprometer la calidad de la producción.

En este flujo de trabajo ejemplar, qibb aprovecha sus capacidades avanzadas en colaboración con ChatGPT para mejorar el proceso de creación de contenido. Al subir el vídeo, se iniciará un proceso automatizado de transcripción de voz a texto. Con ello se elimina la necesidad de transcripción manual, ahorrando así tiempo y esfuerzo. Con la transcripción fácilmente disponible, qibb incorpora además ChatGPT en el flujo de trabajo. ChatGPT, impulsado por algoritmos avanzados de procesamiento del lenguaje natural, analiza la transcripción y genera un resumen conciso y coherente de los puntos clave del video. Este resumen proporciona a los profesionales de los medios una visión general rápida

del contenido del video, lo que facilita la revisión eficiente del contenido y la toma de decisiones. Como último paso del proceso y aprovechando su comprensión contextual de la transcripción, ChatGPT genera automáticamente contenido personalizado para diversas plataformas de redes sociales. Gracias al uso de sus capacidades de procesamiento del lenguaje, ChatGPT produce fragmentos de texto optimizados adecuados para plataformas como LinkedIn o Twitter. Esta automatización elimina la necesidad de creación manual de contenido para cada plataforma, garantizando así una mensajería coherente y ahorrándoles tiempo a los profesionales de los medios.

Abrazando un futuro dinámico

El futuro de los flujos de trabajo de medios tiene un inmenso potencial a medida que los entornos virtualizados continúan evolucionando y redefiniendo a la industria. Con los avances en la tecnología, podemos esperar soluciones aún más innovadoras que mejoren la productividad, la creatividad y la colaboración.

Los entornos virtualizados integrarán cada vez más tecnologías avanzadas como lo es la inteligencia artificial, revolucionando por ende la gestión de contenidos, la creación y la distribución. Estas tecnologías

permitirán a los profesionales de los medios desbloquear nuevos niveles de eficiencia y efectividad, ofreciendo experiencias personalizadas e inmersivas a las audiencias por medio de diversas plataformas y dispositivos.

La colaboración seguirá constituyendo un enfoque clave a medida que los entornos virtualizados fomenten el trabajo en equipo y el intercambio de conocimientos entre las redes globales. Los profesionales de los medios colaborarán en tiempo real, trascendiendo las limitaciones geográficas y los husos horarios. Esta colaboración global dará como resultado diversas perspectivas, una mayor creatividad y una innovación acelerada.

Con la adopción de entornos virtualizados, las organizaciones de medios pueden navegar por el panorama en constante cambio, impulsar la innovación y ofrecer contenido atractivo que cautive a las audiencias en la era digital y más allá. A medida que la industria continúa evolucionando, las oportunidades de crecimiento y creatividad se vuelven ilimitadas, y aquellos que abracen el futuro dinámico de los flujos de trabajo de los medios prosperarán en este panorama en rápida evolución.

TECNOLOGÍA 66 ENTORNOS VIRTUALIZADOS TM Broadcast

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.