TM Broadcast España #187, Mayo 2025

Page 1


EDITORIAL

El nuevo Plan Técnico Nacional de la TDT puesto en marcha recientemente por el Gobierno consolida la apuesta de España por la Ultra Alta Definición (UHD), fijando el proceso para su implantación. Con RTVE como punta de lanza en este salto tecnológico, con emisiones regulares en UHD desde hace años, la Televisión de Galicia (CRTVG) se convirtió hace unos meses en el primer canal autonómico en emitir en esta resolución. TV3 (3Cat) ya ha anunciado, entre tanto, que tiene previsto seguir sus mismos pasos antes de acabar el año.

Esta estrategia, que posiciona a nuestro país como referencia internacional, se enmarca en la creencia de que la TDT actúa como un elemento vertebrador clave de la población. Y, en este sentido, su función de servicio público debe ir ligada a una firme apuesta por la innovación para no quedarse atrás frente a otros competidores, dada la variada y exigente oferta de contenido a disposición del usuario en el actual ecosistema mediático.

Con el objetivo de tomar el pulso a todos estos cambios, centramos el foco en esta ocasión en 3Cat, inmersa en un profundo proceso de transformación tecnológica, del que damos todas las claves en un extenso reportaje donde han participado sus principales responsables técnicos. Su migración a IP, las innovaciones implementadas en su canal OTT o una estrategia dirigida a colocar el contenido en el centro son algunas de sus líneas estratégicas.

Y de lo particular a lo general. Complementa este contenido una entrevista con el nuevo presidente de FORTA, Juande Mellado, al que le pedimos una visión global de la evolución técnica que están siguiendo los canales autonómicos. Si bien la autonomía de cada cadena es esencial, esta organización ejerce un rol importante a la hora de guiar a los broadcasters en su camino hacia el progreso tecnológico. El intercambio de experiencias, proyectos y visiones resulta, en este sentido, fundamental.

Cerramos, por último, este editorial con un anuncio importante: estrenamos ‘Off the record’, una nueva sección en la que nos acercaremos a los líderes la industria en España con un enfoque inédito, preguntándoles por anécdotas clave de sus trayectorias y extrayendo de ellos una visión más personal del mercado. Empezamos este ciclo de entrevistas con Víctor Sánchez, Chief Operating Officer de RTVE.

EDITOR

Javier de Martín editor@daromediagroup.com

DIRECCIÓN DE CONTENIDOS

Mercedes González mercedes.gonzalez@tmbroadcast.es

REDACTOR JEFE

Daniel Esparza daniel.esparza@tmbroadcast.es

DIRECCIÓN COMERCIAL

Javier M. Gutiérrez jmg@tmbroadcast.es

PUBLICIDAD

Sergio Castaño sergio.castano@tmbroadcast.es

Patricia Pérez ppt@tmbroadcast.com

REDACCIÓN redaccion@tmbroadcast.es

COLABORADORES

Yeray Alfageme

Carlos Medina

Luis Pavía

Carlos Alberto Martín

Javier Guerra Luis Sanz

Alfonso Redondo

José Luis Cordero

Carlos González

Fernando Suárez

MAQUETACIÓN

Sorex Media

DIRECCIÓN ADMINISTRACIÓN

Laura de Diego laura.dediego@daromediagroup.com

SUSCRIPCIONES suscripciones@tmbroadcast.es

Imprime: IMEDISA ARTES GRÁFICAS S.L.

Dep. legal: M-11254-2008

ISSN: 1888-6965

Impreso en España en mayo de 2025

TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.

TM Broadcast es una publicación de Daró Media Group S.L. Centro Empresarial Tartessos

Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid. Tf: 91 640 46 43

SUMARIO Actualidad

OFF THE RECORD

Víctor Sánchez, COO de RTVE: “La retransmisión más crítica que he vivido fue la cumbre de la OTAN en Madrid”

Entrevistamos al director de Operaciones de la corporación pública para conocer los momentos más decisivos de su carrera profesional y las principales tendencias que modelarán la industria, entre otras cuestiones

22

TELEVISIONES

Transformación e Innovación Tecnológica en 3Cat

Por Natàlia Prats, Alberto Alejo, Toni Roig, Llorenç Gómez, Manel Díaz, Jordi Mata y Rafa Bermudez.

38

TECNOLOGÍA

Tic, tac, el tiempo se agota: La carrera contra el olvido en la digitalización de cintas de vídeo

El patrimonio y la historia audiovisual de las últimas décadas están en peligro. Millones de horas de contenido grabado en cintas de emulsión magnética, tanto analógicas como digitales, corren el riesgo de perderse para siempre debido al deterioro de los soportes y la obsolescencia de los equipos necesarios para su reproducción.

52

ENTREVISTA

Juande Mellado, nuevo presidente de FORTA: “Quiero impulsar herramientas que nos permitan ser más competitivos”

Los canales públicos de alcance regional tienen mucho que decir en el actual contexto de aceleración tecnológica, y FORTA (Federación de Organismos de Radio y Televisión Autonómicos) se erige aquí como un actor clave para optimizar recursos, compartir experiencias o favorecer la innovación de sus miembros.

44

LABORATORIO

Solo o en equipo: Canon C80

El desarrollo y la innovación en las cámaras de video/ cine profesionales está viviendo un constante avance hacia lo más novedoso. Esto permite a los distintos usuarios disponer de equipos de captación de un alto nivel técnico y creativo en plazos de tiempo muy cortos.

TECNOLOGÍA

Eficiencia, flexibilidad, planificación, seguridad e innovación: claves de la producción remota

Guía para no perderse sobre el origen y los pilares principales que sustentan estos nuevos modelos que están revolucionando la producción audiovisual

60

HBS se alía con la italiana NVP para la producción audiovisual de LaLiga

Ambas entidades formarán una empresa conjunta con sede en España para gestionar las operaciones

La empresa Host Broadcast Services (HBS), nuevo proveedor de LaLiga junto a Telefónica Servicios Audiovisuales (TSA) tras la sorpresiva decisión del campeonato nacional de fútbol de excluir a Mediapro como partner audiovisual, se aliará con la italiana NVP para este proyecto.

HBS y NVP se encargarán conjuntamente de la producción y distribución audiovisual de los partidos de

Primera y Segunda División durante cinco años, a partir de la temporada 2025-26, según ha compartido HBS en un comunicado. Ambas entidades formarán una empresa conjunta con sede en España para gestionar las operaciones.

«Es un gran privilegio para HBS haber sido designada por LaLiga. Estamos muy orgullosos de nuestro historial a nivel mundial, y entrar en un nuevo territorio y establecer una alianza con un cliente tan prestigioso representa una oportunidad emocionante. Junto a NVP, esperamos trabajar con LaLiga para ofrecer una

cobertura innovadora y atractiva a las audiencias durante los próximos años», declara Dan Miodownik, CEO de HBS.

«Estamos muy orgullosos de asociarnos con HBS en este prestigioso proyecto. Este logro confirma nuestro compromiso con la excelencia, el desarrollo continuo y la innovación. Esperamos contribuir al éxito continuado de LaLiga con nuestra experiencia y dedicación», afirma Massimo Pintabona, CEO de NVP.

Mediapro da marcha atrás y retira sus palabras

contra LaLiga tras ser excluido como proveedor

La compañía niega ahora que el proceso de adjudicación estuviera caracterizado «por el secretismo, la falta de transparencia y los continuos cambios y atrasos en los plazos que se iban produciendo»

Grup Mediapro da marcha atrás. El grupo de servicios audiovisuales se retracta del contenido íntegro de su comunicado publicado el pasado día 14 de abril en relación con la decisión de LaLiga de excluirlos como proveedores audiovisuales de la competición deportiva de fútbol. La compañía explica que su primera respuesta -en la que emitía una sonora queja contra LaLiga, como publicó TM BROADCACAST– «fue producto de una precipitada valoración de los resultados del concurso y sus afirmaciones no estaban justificadas», ha informado en un nuevo comunicado.

«Grup Mediapro estaba convencida de que su oferta económica y técnica era la mejor y así lo expresó ante la sorpresa del resultado del concurso. Este convencimiento motivó el comunicado, que releído hoy no parece el más adecuado y lo lamentamos, pues ni en esos momentos ni ahora podemos estar en condiciones de valorar y comparar las diversas opciones que se presentaron», expone la compañía en respuesta a la declaración expresada en el primer comunicado, donde consideraban que su propuesta era «más barata para LaLiga y para los

clubs y técnicamente mejora ostensiblemente los propios requerimientos establecidos por la Liga».

«Por todo ello -prosigue la nueva nota de prensa-, Grup Mediapro se retracta: no le consta que la decisión de LaLiga haya sido arbitraria y sin base objetiva, ni que las decisiones de LaLiga obedezcan a motivos distintos a los técnicos y económicos y para beneficiar a otros participantes. Ni entonces ni ahora tenemos los elementos de juicio suficientes que apoyen dichas afirmaciones y, por tanto, no deben ser tenidas en cuenta».

La radio, aliada ideal en el masivo apagón: así vivió RTVE la inédita jornada

El director del área técnica de la corporación, Jesús García, confirma que tanto la televisión como la radio operaron a nivel técnico con normalidad gracias sus generadores

España vivió el pasado lunes 29 de abril un día inédito, con un apagón masivo que afectó de forma asimétrica a todo el país. Al caos que provocó entre la población permanecer varias horas sin electricidad ni internet se sumó la incertidumbre de no saber qué estaba ocurriendo, al no poder recurrir a las fuentes habituales de información. En este contexto recobró un protagonismo especial la radio, que se convirtió para muchos en el único contacto con el exterior.

La jornada dejó, así, escenas de largas colas frente a bazares y tiendas de electrónica en busca de transistores y pilas para poder hacerlos funcionar, así como grupos de gente en medio de la calle reunidos en torno a un aparato de radio, retrotrayéndonos a estampas de otro tiempo que creíamos olvidadas. “En estos casos el medio fundamental, como está demostrado, es la radio, que es a la que acude todo el mundo rápidamente para informarse”, explica a TM BROADCAST Jesús García Romero, director del área técnica de TVE.

Jesús García confirma a esta revista que tanto la televisión como la radio pudieron operar a nivel técnico con plena normalidad gracias sus grupos electrógenos. “No nos impactó, estamos preparados para actuar ante este tipo de adversidades. Todos los servicios esenciales reaccionan inmediatamente, y los servicios informativos empiezan a buscar

puntos de información y trasladan a la ciudadanía las recomendaciones de las autoridades, que es nuestra misión principal en estos casos”.

“Tenemos depósitos de casi 15.000 litros de gasoil que nos habrían permitido aguantar dos o tres días sin problema”, detalla el directivo técnico de RTVE, que indica que lo que sí hicieron es apagar los equipos que no eran necesarios, con el fin de no llevar al límite el consumo de estos grupos electrógenos, y dado que se desconocía cuándo iban a restituir el servicio. La corporación cuenta con tres generadores para abastecer cada uno de sus centros de producción en Madrid.

Otra cosa es, claro está, el evidente trastorno que provocó el apagón entre el personal de la casa, con empleados que llegaron con retraso al turno de tarde y otros que no pudieron regresar a sus hogares hasta pasadas varias horas por el monumental atasco que asoló durante buena parte del día la capital madrileña.

“A una parte del personal, sobre todo a los de las unidades de soporte, se les pidió que se quedaran hasta que se incorporara alguien de la tarde, siempre y cuando no tuvieran problemas familiares, con el fin de realizar los relevos y asegurar la continuidad”, explica García.

“Intentamos que el que tuviera problemas familiares sí pudiera salir lo antes posible y a los demás les sugerimos quedarse aquí también para evitar desplazamientos innecesarios y no colapsar las carreteras, que era lo que estaban recomendando las autoridades”, prosigue Jesús García, teniendo en cuenta que la corporación pública contó en todo momento con luz y era posible también mantenerse informado.

Suspensión de programas

Sí se suspendieron programas, sobre todo en Prado del Rey, porque muchos profesionales tenían que volver a casa para cuidar a los niños, familiares o cualquier otra urgencia sobrevenida por el contexto de crisis. Y porque la mayoría de telespectadores tampoco podían verlos. En su lugar, se volcó toda la emisión a Torrespaña, en un servicio especial de informativos que se prolongó durante toda la tarde y que se enlazó de noche con el programa ‘La noche en 24 horas’ dirigido por Xavier Fortes.

El UHD, objetivo estratégico de la TDT: RTVE y UHD Spain reúnen al sector para analizar este salto tecnológico

Los participantes destacaron el papel clave del broadcast por su capacidad de garantizar el acceso libre a la información de toda la población

España ha logrado erigirse a la vanguardia en la implementación del UHD, y RTVE ha adoptado en este proceso un papel protagonista. El nuevo plan técnico nacional de la TDT, aprobado recientemente por el Gobierno, consolida esta tendencia y programa los pasos para fijar la Ultra Alta Definición como estándar de emisión. Con este pretexto, la corporación pública organizó el pasado 8 de mayo en colaboración con la asociación UHD Spain unas jornadas técnicas para poner en firme los hitos alcanzados hasta ahora y aclarar el horizonte que tienen los radiodifusores por delante en su camino hacia el progreso tecnológico.

Bajo el título ‘Evolución de la TDT a la Ultra Alta Definición’, estas conferencias reunieron a la plana mayor del sector en el Auditorio de RTVE en Prado del Rey. Entre las conclusiones que se extrajeron durante el acto,

destaca el peso estratégico que los directivos convocados atribuyeron a la TDT, en tanto que es la única vía de acceso gratuita de todos los ciudadanos a la televisión lineal. También se puso en valor su importancia crítica en situaciones de emergencia como la DANA o el reciente apagón sufrido en España.

Todo ello convierte al broadcast, a juicio de los convocados, en una industria clave por su capacidad de garantizar el acceso a la información entre la población con la máxima cobertura territorial y social. Esto posiciona a la TDT también como pilar clave de soberanía, al estar basada en normas europeas, mercados horizontales y licencias otorgadas por poderes públicos, frente a los crecientes mercados verticales y soluciones propietarias que se están propugnando desde grandes empresas tecnológicas y plataformas de terceros.

En este sentido, el salto tecnológico previsto al UHD se erige como un elemento clave para que los radiodifusores puedan seguir siendo competitivos en el escenario actual, donde existe una variada y exigente oferta de contenido.

Firme apuesta por el UHD en España

El director de Desarrollo Corporativo y Servicio Público de RTVE, Roberto Lakidain, fue el encargado de presentar el evento. Durante su discurso, puso en valor la apuesta televisiva en España por el UHD, con el reciente inicio de emisiones en esa resolución de la TVG y los planes en este sentido para 2025 de TV3, que se suman así a los pasos ya dados por La 1. “RTVE fue la única televisión en el mundo que emitió los Juegos Olímpicos en UHD”, recordó también para ilustrar el empuje tecnológico del broadcast en nuestro país.

A continuación, la subdirectora general de Planificación y Gestión del Espectro, Julia Criado, ofreció una charla sobre el nuevo plan técnico nacional de la TDT, aprobado por el Consejo de Ministros el pasado 25 de marzo, que mejorará la experiencia de visionado de los ciudadanos (Ultra Alta Definición y Audio de Nueva Generación más allá del audio multicanal en 5.1), haciendo un uso más eficiente del espectro radioeléctrico.

La experiencia de RTVE, TVG y TV3

El evento incluyó también un coloquio en torno a la apuesta de diferentes actores de la industria broadcast por la Ultra Alta Definición. Contó con la participación de Jesús García, director del Área Técnica de TVE; Sara González, directora del Área de Soporte Tecnológico y Medios de CRTVG; Toni Roig, director de Operaciones de CCMA; David Jiménez Bermejo, investigador de la Cátedra de RTVE en la UPM; y Ramón Salat, Strategic Growth Opportunities Director de Cellnex Telecom. La moderación del debate, por su parte, corrió a cargo del director de Políticas Audiovisuales y Servicio Público de RTVE, Javier Sánchez.

En el transcurso del encuentro todos los participantes pusieron en común sus experiencias con la Ultra Alta Definición.

UHD Spain ofrecerá su infraestructura a todos los operadores

Por último, Víctor Sánchez, director de Medios y Operaciones de RTVE y presidente de UHD Spain, explicó algunos de los objetivos estratégicos de esta asociación junto a Xavi Redón, Product Manager de Cellnex Telecom y vicepresidente del citado grupo. En este sentido, anunciaron que UHD Spain ofrecerá su infraestructura a todos los operadores de televisión de España tanto a nivel nacional como autonómico. “La asociación se ofrece como apoyo para quienes vayan a iniciar emisiones en UHD a través de la nueva red RGE2”, expuso Víctor Sánchez en “una invitación abierta, sin intereses comerciales, que solo busca facilitar la implantación de la UHD en España”.

MAC 2025, de la evolución de los servicios a la revolución del contenido audiovisual

El evento ofrecerá los avances de la IA en el ámbito audiovisual, una ampliación de su ciclo de conferencias e incorporaciones a las mesas de financiación

El gran protagonista de la edición 26 del Mercat Audiovisual de Cataluña (MAC) volverá a ser la Inteligencia Artificial, sus avances, sus posibilidades y también sus efectos secundarios. La Keynote Inaugural, dedicada a los efectos secundarios de la IA en los medios, estará a cargo de Patricia Ventura, quien situará los límites de este tipo de tecnologías, y la programación de la Sala 1 se extenderá en mostrar las novedades en el uso de este tipo de aplicaciones en la generación, distribución y monetización de contenidos audiovisuales; así como en analizar todos sus efectos secundarios (marco moral, jurídico, regulaciones estatales y continentales, etc.), según ha anunciado el evento a través de un comunicado.

Pero no solo de IA vive el audiovisual y, por este motivo, el MAC sigue ofreciendo a sus asistentes las novedades en el ámbito sonoro y del pódcast y amplía su programa de conferencias ofreciendo sesiones especializadas en la gestión de rodajes; en políticas audiovisuales o en los hábitos de producción de las generaciones menores de 30 años.

Además, una de las otras grandes novedades del MAC de este año es la renovación del espacio ferial (FIRA MAC), rediseñando el emplazamiento, ofreciendo una diversidad de proyectos y empresas de servicios muy superior a la de años pasados y alojando una pequeña muestra de los proyectos de innovación y prospección sectorial llevados a cabo por el laboratorio del MAC (el MAC LAB).

Otra novedad es la programación de talleres la tarde del día del certamen. Formaciones prácticas gratuitas multinivel, ya sea para principiantes como para profesionales de largo recorrido. Los contenidos son diversos: «Cómo aplicar la IA generativa en el audiovisual», «Cómo monetizar un pódcast», «Principios básicos de la producción audiovisual», etc.

Finalmente, es importante destacar el gran crecimiento que ha experimentado la programación de los pitchings de coproducción de documentales audiovisuales y de pódcast y programas sonoros para radio. Este año se suman a las mesas de financiación 3.CAT y Ràdio 4, consiguiendo ser el único certamen que dispone en sus mesas de financiación a los principales operadores públicos del territorio (La Xarxa, RTVE y 3.CAT).

Toboggan estrena en Madrid un nuevo plató de producción virtual en alianza con Appia, Lavinia y Visual Max

Consiste en un ledwall de 22×6 metros con un techo de 7×8 y unos tótems de 6×3

Toboggan Group estrena un nuevo plató de producción virtual en sus instalaciones de Boadilla del Monte (Madrid). Este proyecto es el resultado

de una alianza de esta compañía con Appia, Grupo Lavinia y Visual Max. Consiste en un ledwall de 22×6 metros con un techo de 7×8 y unos tótems de 6×3, y está orientado a la producción nacional.

«La producción virtual atraviesa una fase de adolescencia precoz», ilustró Antoine Vaxelaire, cofundador de Appia, durante la presentación del nuevo plató, a la que acudió TM BROADCAST. Durante su charla, Vaxelaire explicó las claves que definen un plató de producción virtual y contó su experiencia en algunos proyectos reales con esta tecnología para compañías como Vicio, Elrow o 3cat.

El cofundador de Appia constató cómo cada vez más proyectos recurren a la producción virtual. «Es una tecnología muy versátil», ilustró. La producción virtual se compone fundamentalmente de tres tecnológicas, lo que denominó «un tríptico mágico»: paneles LED, un media server y un sistema de tracking. A esto añadió un cuarto elemento, que es «un superquipo detrás».

Visual Max es el proveedor de la pantalla LED, que tiene una resolución 8K y un pitch de 2.3 mm. Para el apartado del media server han contado con Disguise y en la parte de traking han optado por Mo-Sys.

Telecinco ofrece un espectacular despliegue con tecnologías inmersivas para explicar el Cónclave

Carlos Franganillo ‘acudió’ virtualmente al lugar donde se eligió al nuevo Papa

A raíz del gran evento informativo que tuvo lugar el pasado 21 de abril, cuando se dio a conocer la muerte del papa Francisco, Telecinco ‘acudió’ virtualmente al Cónclave sin necesidad de viajar físicamente al Vaticano, tomando como aliadas para ello la tecnología y la innovación.

En un informativo nocturno reciente de la cadena, Carlos Franganillo explicó a su audiencia todo el proceso que se lleva a cabo para elegir al nuevo pontífice. Para ello, el presentador se sirvió de tecnologías inmersivas, lo que le permitió situarse al comienzo de su narración en la Plaza de San Pedro, donde se produce la elección del nuevo Papa.

En el despliegue tecnológico que dio lugar a la narrativa visual de la información se emplearon efectos de realidad aumentada y extendida, producidos por las herramientas de grafismo de Vizrt. Estos fueron combinados con planos y encuadres proporcionados por la Spidercam, una minicámara suspendida en el aire sustentada por cuatro cables cruzados, y por el resto de cámaras robotizadas del plató.

Asimismo, el diseño de producción también contó con cámaras PTZ, 210 metros cuadrados de paneles LED de Alfalite y las luminarias de Velvet Light, según informó esta última a través de un comunicado.

Ubicado virtualmente en ese lugar, Franganillo señaló y explicó el significado del humo negro proveniente de la chimenea, que confirma que «el Cónclave ya está en marcha, ha habido una primera votación». Fue en ese momento cuando concluyó su paseo por la plaza y se ‘coló’ dentro de la Capilla Sixtina. Allí llegó a mostrar la obra maestra pintada por el artista Miguel Ángel en el siglo XVI.

Bajo esa misma bóveda, se extendieron las mesas en las cuales se agruparán «los cardenales, los príncipes de la Iglesia, por debajo del rey, que es el Papa» para elegir al sucesor de San Pedro. A continuación, Franganillo salió de nuevo para dirigirse al balcón de la basílica, en el que se asomará el cardenal una vez haya sido elegido un nuevo jefe de la Iglesia católica, dando así por finalizado el informativo de

prime time, pero añadiendo que, tras este acto, «una nueva etapa habrá comenzado».

La primera inmersión, en octubre de 2024

Este universo 3D, que pretende enriquecer el relato informativo, fue inaugurado por Telecinco durante los meses previos a las elecciones de Estados Unidos, en octubre de 2024. Durante dicha emisión, Franganillo sorprendió a su audiencia, esta vez sí que por primera vez en España, adentrándose en la sala que acogió la Convención de Filadelfia en 1787 y que dio lugar a la Constitución estadounidense, redactada por mandatarios como George Washington y Benjamin Franklin. A partir de ahí, realizó un recorrido por localizaciones donde los ciudadanos acudirían a votar y acabó en la tribuna del Capitolio en la que, tras conocer los votos, juraría el cargo el nuevo presidente.

Asimismo, el «set de rodaje» contaba con una pared azul a la que el presentador tuvo que adaptarse cuando paseaba por el croma, imaginándose que se encontraba en las calles americanas.

Rafael Jaramillo, diseñador de producción de MR Factory, explicó entonces cómo fue el proceso de crear aquellos escenarios: «Hemos utilizado mucha documentación netamente americana, buscando recursos para recrearlo en un mundo 3D, para que el espectador, sin que haya viajado, reconozca y tenga la sensación de estar en ese lugar».

La feria BITAM calienta motores

para otra edición récord en noviembre: el 85% del espacio ya está reservado

La edición de 2024 contó con la participación de unos 120 expositores y un total de 8.112 profesionales

La feria BITAM Show, principal evento del sector audiovisual en España, reunirá de nuevo los días 19 y 20 de noviembre a los principales protagonistas del sector. Y, según trasladan desde la organización, la edición de este año podría batir nuevos récords a tenor del buen ritmo de comercialización, con un 85% del suelo disponible ya reservado. La feria, de la que TM BROADCAST es media partner, volverá a tener lugar en el Pabellón Madrid Arena y contará con

una superficie de exposición de 7.880 metros cuadrados.

El Pabellón se dividirá de nuevo en tres anillos: Integración Audiovisual, Live & Entertainment y Pro Video/ Broadcast. Esta diferenciación de las plantas permite eliminar cualquier tipo de interferencia entre los diferentes tipos de tecnologías y mejorar la experiencia del asistente, ya que puede dirigirse directamente al área temática que considere más interesante.

Más de 8.000 profesionales y 120 expositores

La edición de 2024 contó con la participación de unas 120 empresas en calidad de expositores y un total de 8.112 profesionales.

Víctor Sánchez, COO de RTVE:

“La retransmisión más crítica que he vivido fue la cumbre de la OTAN en Madrid”

Entrevistamos al director de Operaciones de la corporación pública para conocer los momentos más decisivos de su carrera profesional y las principales tendencias que modelarán la industria, entre otras cuestiones

¡Nueva sección!

Estamos de estreno: arrancamos en TM BROADCAST una nueva sección llamada ‘Off the record’. Nos acercaremos a los principales líderes de la industria en España con un enfoque inédito, preguntándoles por anécdotas clave de sus trayectorias y extrayendo de ellos una visión más personal del mercado.

¡Empezamos!

Patrocinado por:

Víctor Sánchez lleva toda su trayectoria profesional ligado a RTVE. Tras pasar por varias áreas y asumir distintos puestos de responsabilidad, ocupa actualmente el cargo de Chief Operating Officer en la corporación pública. Es optimista respecto al momento actual que atraviesa la industria broadcast en nuestro país, que considera que está a la vanguardia tecnológica. “Creo que todas las televisiones españolas cuentan con sistemas muy integrados, con un altísimo nivel de automatización”, ilustra.

Respecto a los avances tecnológicos más relevantes para el sector, Víctor Sánchez incide en el salto al UHD en la TDT, donde RTVE es pionera y el conjunto del sector está mostrando, en general, una apuesta firme. “El paso a UHD implica una mejora en un entorno en el que no es fácil introducir cambios, porque afecta a todo el mundo que ve la televisión en España”, pone en valor.

En esta conversación, el director de Operaciones de RTVE comparte algunas de las tendencias que modelarán el futuro de la televisión, de la tecnología cloud a la inteligencia artificial, y nos relata los momentos decisivos de su carrera profesional, entre otras cuestiones.

En primer lugar, me gustaría saber cómo has llegado hasta aquí. Tu carrera profesional está muy ligada a RTVE. ¿Cuáles han sido tus pasos dentro de la corporación?

Así es, mi carrera profesional ha estado totalmente ligada a Televisión Española desde el comienzo. Entré en la parte de técnica electrónica, en mantenimiento. Uno de los

hitos importantes fue que aprobé una oposición de analista de sistemas, lo que me permitió pasar a la parte de sistemas, encargada de la gestión tecnológica de la empresa. Eso me dio una visión más global de todo el funcionamiento.

A partir de ahí, contaron conmigo para una subdirección en el área de mantenimiento en torno a 2009, y después fui evolucionando dentro de la empresa hasta asumir la Dirección Técnica, y posteriormente la Dirección de Operaciones, que es el cargo que ocupo actualmente. Ha sido un proceso de crecimiento desde abajo, en el que he ido cambiando de áreas y asumiendo nuevas responsabilidades, siempre en línea con las habilidades que empecé a desarrollar desde el principio. En resumen, ha sido una evolución vivida junto a muchas personas de la casa, y mi balance es muy positivo.

¿Cuál dirías que ha sido el momento más decisivo de tu carrera?

Diría que ha habido momentos decisivos en distintos ámbitos. Desde el punto de vista de la confianza que la empresa deposita en uno, diría que lo más decisivo fue cuando me nombraron Director Técnico de Televisión y, más tarde, Director de Operaciones. Esos han sido los dos momentos clave a nivel de carrera profesional.

En cuanto a proyectos, destacaría el primero que dirigí como responsable técnico-operativo: los Juegos Olímpicos de Londres. Fue un hito importante, ya que también asumí parte de la operación, y supuso un gran reto.

A nivel de sistemas, otro momento determinante fue la implantación de las redacciones digitales, tanto en Prado como su extensión a los centros territoriales y a Torrespaña, así como la digitalización del fondo documental y su puesta en explotación como sistema. Esos han sido tres de los proyectos más relevantes en los que he participado, y les tengo un recuerdo muy especial. Aparte, por supuesto, de muchas otras iniciativas tecnológicas.

¿Hay alguna anécdota o momento crítico que recuerdes especialmente? Tengo entendido que también estuviste al frente de la cobertura de la cumbre de la OTAN en Madrid, que debió ser todo un reto.

Sí, sin duda la retransmisión más crítica e importante que he vivido fue la de la cumbre de la OTAN. Se retransmitió para todo el mundo en un momento muy delicado, con una guerra recién iniciada y todos los ojos puestos en Madrid. Vinieron la mayoría de los líderes de la OTAN, incluido el presidente de Estados Unidos. Fue uno de los eventos más tensos y complejos que hemos abordado. Técnicamente no era muy complicado, pero no podía fallar nada, y la presión era máxima.

Hemos tenido varios eventos así: grandes coberturas en cumbres europeas, Juegos Olímpicos, mundiales… Y luego, en el día a día, las operaciones informativas —telediarios, coberturas especiales— siempre tienen momentos críticos. A veces sucede algún fallo, pero normalmente se tienen que encadenar dos o tres errores para que se llegue a lo que llamamos “un negro” o a una falta de información.

Hemos pasado por muchas situaciones de ese tipo, siempre aprendemos de ellas y planteamos mejoras para que no vuelvan a ocurrir.

De hecho, recientemente hubo un apagón y TVE no se vio afectada, lo cual dice mucho de la resiliencia que hemos ido desarrollando poco a poco. En el mundo broadcast, la criticidad está duplicada, y hay protocolos prácticamente para cada situación. Cuando algo falla, lo analizamos, aprendemos y lo incorporamos para evitar que vuelva a suceder.

Respecto al apagón, es cierto que se resolvió con éxito. En TM BROADCAST recogimos al día siguiente el testimonio de Jesús García Romero, director del área técnica de TVE, que nos contó cómo lo vivió.

Así es. Tenemos grupos electrógenos, tenemos UPS [sistema de alimentación ininterrumpida]… Y cada vez que ocurre un incidente, vamos afinando más. Se determina qué equipos deben estar conectados a la UPS, cuáles pasan después a los grupos electrógenos… En definitiva, se va conformando una estrategia que, al final, consigue que ciertos eventos que sí han tenido impacto en otras industrias no lo tengan en el entorno broadcast.

Al final, somos gente preparada para lo imprevisto y para reaccionar rápido.

¿Cuál es el desarrollo o avance tecnológico que más ha optimizado o facilitado tu trabajo?

Más que optimizar el trabajo directamente, los avances tecnológicos lo que hacen es abrirnos la

La entrevista, en siete claves

“Cada vez que ocurre un incidente, afinamos más, y conseguimos así que ciertos eventos que sí han tenido impacto en otras industrias no lo tengan en el entorno broadcast”

“El gran avance que está transformando la televisión es la Ultra Alta Definición. Va a mejorar significativamente la calidad con la que se ve la televisión en los próximos años”

“El metaverso aplicado al broadcast tuvo más repercusión mediática que implantación real”

“La IA ya está afectando a nuestro sector de forma muy directa. Hay otros sectores que aún están en fase de adaptación, pero aquí ya estamos viendo aplicaciones concretas”

“La inteligencia artificial y la cloud están muy relacionadas. Tener infraestructura en la nube nos permite aplicar la IA de forma ágil, hacer prototipos y evolucionar rápidamente”

“Uno de los principales retos está en la veracidad de las noticias: cómo garantizar la trazabilidad de la información desde su origen hasta que se pone a disposición del ciudadano”

“Anticipo en el futuro una televisión con contenidos en UHD, mucho más interactiva con el usuario y, también, más inmersiva. Incluso con contenidos adaptados al perfil del espectador” puerta a nuevas soluciones que tenemos que implantar. Yo diría que los grandes avances han estado en la parte cloud, sobre todo la cloud híbrida, que ha sido clave para los sistemas de redacción y el fondo documental. Esto ha permitido acelerar los desarrollos y mejorar la eficiencia.

Ahora estamos entrando en otro avance que, en mi opinión, será el gran cambio de los próximos años: la inteligencia artificial. Creo que son dos avances clave, no solo en nuestro sector, sino a nivel global.

Y dentro del ámbito específico del broadcast, destacaría la introducción del IP, que va a darnos muchísima flexibilidad en la forma de hacer producciones. Y por supuesto, el gran avance que está transformando la televisión en este momento es la Ultra Alta Definición. Como sabes, recientemente hicimos una presentación en relación al nuevo Plan Técnico Nacional de la TDT aprobado por el Gobierno. Ese es el camino que estamos siguiendo, y creo que va a mejorar significativamente la calidad con la que se ve la televisión en los próximos años.

¿Y hay algún avance que consideres que ha sido sobrevalorado en el mercado?

Te diría que el metaverso aplicado al broadcast. Creo que tuvo más repercusión mediática que implantación real. No digo que no lleguemos al metaverso, seguramente lo haremos con experiencias inmersivas mucho más ricas y personalizadas, potenciadas por la inteligencia artificial.

Pero sí es cierto que en su momento vi un empuje muy fuerte hacia el metaverso que luego no se tradujo en una evolución tan rápida como se esperaba. Habrá que seguir pendientes, pero de momento no ha sido tan disruptivo como se pensaba.

¿Cuál consideras que ha sido la noticia del año en el sector?

Para mí, la noticia del año pasado fue, sin duda, el UHD. Nosotros hicimos la cobertura de los Juegos Olímpicos también en UHD, y eso marcó un hito tanto en el sector como en Europa. Francia ya está ahí, Italia ha comenzado… Creo que supone un punto de inflexión en la calidad de transmisión por TDT.

El paso a UHD implica una mejora en un entorno en el que no es fácil introducir cambios, porque afecta a todo el mundo que ve la televisión en España. Así que, sin duda, ha sido una de las noticias clave. Y la otra sería la expansión de la inteligencia artificial en los modelos de vídeo y en la generación de contenidos. Creo que esto también marcará un antes y un después en el sector.

¿Hay alguna otra noticia o tendencia que, al margen de su relevancia, te haya sorprendido especialmente?

Me está sorprendiendo mucho la evolución de las herramientas vinculadas al entorno televisivo. Se está alcanzando un nivel de producción y de utilidad altísimo, con herramientas superintegradas que están elevando el nivel tecnológico del sector.

Siempre he considerado que la televisión es un entorno muy tecnológico, pero ahora se está demostrando que es un entorno super tecnológico, donde las innovaciones se implantan muy pronto. La inteligencia artificial, por ejemplo, ya está afectando a nuestro sector de forma muy directa. Hay otros sectores que aún están en fase de adaptación, pero aquí ya estamos viendo aplicaciones concretas.

También destacaría los entornos virtuales creados con motores 3D, como Unreal. Están logrando una calidad visual que ya es muy difícil de distinguir para el ojo humano, y eso está abriendo nuevas posibilidades dentro del sector.

Y teniendo en cuenta todo esto, ¿cuáles son los principales retos que afronta actualmente el sector?

Uno de los principales retos está en la veracidad de las noticias. Creo que ese es, sin duda, el gran reto: garantizar la trazabilidad de la información desde su origen hasta que se pone a disposición del ciudadano. ¿Quién ha generado esa noticia? ¿De dónde procede? Esa es una gran preocupación para todos nosotros.

Otro reto importante es la mejora continua de la calidad, que creo que va a seguir el camino iniciado con el UHD. También está la personalización del contenido: adaptar lo que ofrecemos a cada usuario. En ese aspecto, la inteligencia artificial va a tener una influencia muy grande.

Y no podemos olvidar lo son “las tripas” del sector, es decir, la infraestructura que permite que todo funcione. Aquí entra en juego el IP, que debemos ir incorporando para conseguir la flexibilidad necesaria y poder adaptarnos con rapidez a los cambios tecnológicos.

En este punto también se vincula la nube. Para mí, la inteligencia artificial y la cloud están muy relacionadas. Tener infraestructura en la nube nos permite aplicar la inteligencia artificial de forma ágil, hacer prototipos y evolucionar rápidamente.

Así que sí, creo que el sector se va a mover hacia modelos de cloud híbrida. Esto nos permitirá contar con cierta infraestructura en la nube que dé respuesta rápida, ya sea generando contenido o mejorando procesos de forma inmediata y útil.

Insistes en el tema del UHD, donde España es pionera. En este sentido, ¿cuáles consideras que son los puntos fuertes de la industria broadcast española en comparación con otros países del entorno?

Lo primero que diría es que se trata de una industria madura, y que estamos a la cabeza en lo tecnológico. Esto se ve reflejado en el hecho de que muchas grandes producciones vienen a realizarse a España. Es un sector con una gran cantidad de

profesionales muy cualificados, muchos de ellos trabajando también en empresas internacionales, lo que nos permite afrontar integraciones complejas y mantenernos en una posición de liderazgo.

Creo que todas las televisiones españolas cuentan con sistemas muy integrados, con un altísimo nivel de automatización. Me refiero a los sistemas de redacción, grafismo, archivo… que permiten una gran flexibilidad operativa. También tenemos sistemas de continuidad en alta definición plenamente funcionales. Diría que estamos en un momento muy positivo para el sector.

¿Y detectas algún elemento de mejora?

Sí, por supuesto. La mejora siempre es continua. Todos tenemos que mejorar: forma parte del ciclo natural de la evolución. Creo que la clave está en la capacidad de adaptación: adaptarse al momento, a las necesidades, y —en nuestro caso—

también a las tecnologías. Es fundamental ponerlas a nuestro servicio y alinearlas con lo que la empresa necesita.

Hablando un poco de futuro, ¿cómo te imaginas la televisión dentro de 10 años?

Es difícil imaginar cómo será la televisión a más de tres años vista. Ir más allá ya sería hacer un ejercicio muy futurista. Pero sí la veo con contenidos en ultra alta definición, mucho más interactiva con el usuario y, también, más inmersiva. Incluso con contenidos adaptados al perfil del espectador. Eso que antes parecía ciencia ficción —como que el final de una película cambie según tus gustos o haya distintos desenlaces según el usuario— empieza a parecer cada vez más plausible. Creo que evolucionaremos hacia muchos más eventos en directo con una calidad muy elevada y hacia películas o contenidos de ficción superinmersivos, con una calidad espectacular.

Para cerrar, ¿qué consejo le darías a alguien que se esté introduciendo ahora en el sector broadcast en España?

Le diría que es un sector muy tecnológico y, al mismo tiempo, muy dinámico. Cada día es diferente porque surgen cosas nuevas constantemente. Es un entorno muy bonito, que te permite, si te interesa el mundo de la tecnología, evolucionar hacia soluciones muy punteras. Así que le animaría a entrar en el sector y a esforzarse. Hay varios caminos posibles y distintas opciones, y lo bueno es que cada día es distinto.

Por último, ¿te gustaría lanzar una pregunta para el siguiente entrevistado?

De acuerdo, lanzaré una pregunta con buena intención: “¿Cómo ves la introducción de la inteligencia artificial en el flujo de trabajo? ¿En qué procesos la implementarías?”.

Por

Natàlia Prats, Directora Corporativa de Infraestructuras Digitales y Tecnológicas

Alberto Alejo, Director de Ingeniería Toni Roig, Director de Operaciones

Llorenç Gómez, Jefe de Infraestructuras

Manel Díaz, Infraestructuras Operativas

Jordi Mata y Rafa Bermudez, Investigación y Servicios Transversales

Organización y coordinación: Luis Sanz, Consultor Audiovisual

JORDI MATA, ALBERTO ALEJO, NATÀLIA PRATS, TONI ROIG, LLORENÇ GÓMEZ, MANEL DÍAZ

Transformación e Innovación Tecnológica en 3Cat

UNA PERSPECTIVA

3Cat está inmerso en un profundo proceso de transformación e innovación tecnológica. Uno de los proyectos clave para esta transformación es lo que 3Cat llama la "Hoja de Ruta de Estudios, Controles y Platós", mediante el cual estamos adoptando tecnología IP. Esto incluye la implementación de VideoIPath, Broadcast Controller y la automatización de procesos.

Además, estamos creando un nuevo CPD para centralizar la tecnología y proporcionar polivalencia a las posiciones en los controles. Estas iniciativas favorecen la producción independiente de los espacios y la localización de los estudios, permitiendo la producción remota y la adaptación de la infraestructura a diferentes modelos de producción, ya sea para Televisión, Radio (Audio o Visual), Medios Digitales o varios medios a la vez.

En este contexto, estamos hibridando producciones como la Radio Visual, donde las cámaras PTZ, los presets, los sistemas de autorrealización, Tricaster y VMIX son nuestros grandes aliados. Otro ejemplo es la producción vía MOJO y los sistemas de verticalización de imágenes para aprovechar contenidos y difundirlos tanto en formato 16:9 como 9:16.

Todas estas tecnologías conllevan también la aparición de nuevos roles, modificación de los actuales, así como cambios en las operativas que permiten una mayor flexibilidad y eficiencia.

Por otro lado, la difusión a través de Medios Digitales ha multiplicado exponencialmente la necesidad

de contenido para la nueva OTT, así como en formato vertical para redes sociales o dispositivos móviles en general. Actualmente, por ejemplo, la OTT 3Cat cuenta con 1.360.000 usuarios registrados y gestiona unas 610.000 reproducciones diarias, con un total de 262.000.000 desde su inicio hace un año y medio y el contenido disponible no para de crecer. Además de catchup, y produciones digital first o digital only, la plataforma incluye ya un campus educativo, videojuegos así como alianzas con entidades (el Liceu, el Festival de Sitges, Colles Castelleres,...) que enriquecen la plataforma. La previsión es que siga creciendo, ampliando su catálogo.

3Cat también está transformando los Informativos, situando el contenido en el centro y dando independencia al medio de distribución. Este nuevo enfoque, por ejemplo, impacta en la tecnología utilizada en el nuevo control y plató, así como en la plataforma digital y los boletines de radio. El proyecto de Nuevos Informativos verá la luz en en Otoño. Esperamos explicar los detalles en próximas ediciones de TM Broadcast.

Lo que sí ya podemos avanzar, es que los Nuevos TNs contarán con robots llamados Artimo (acrónimo de art" y "motion", "movimiento " en inglés), de la empresa canadiense Ross Video, los primeros en el mundo ,con una tecnologia silenciosa, precisa en cuanto a movimientos y una estética ligera que se adapta perfectamente a nuestra nueva forma de explicar las cosas. En un primer momento, se adquirirán cinco robots de la marca canadiense.

Este innovador sistema de cámaras robotizadas - que permite capturar imágenes de gran calidad - está diseñado para poder moverse, ofreciendo una gran versatilidad de ángulos y movimientos de cámara y aportando soluciones de realización más artísticas y creativas.

Mediante la integración de cinco robots, se mejorará significativamente la calidad de emisión, ofreciendo a la audiencia unos contenidos visualmente más atractivos y técnicamente más sofisticados. El anuncio oficial del lanzamiento se ha realizado en la feria tecnológica NAB de Las Vegas el pasado abril.

ROBOT ARTIMO

Esta inversión estratégica subraya el compromiso de 3Cat de seguir apostando con fuerza por la innovación, mantenerse claramente en la vanguardia del audiovisual y seguir ofreciendo el mejor servicio a la audiencia, siempre poniendo la tecnología al servicio de los contenidos y de un periodismo de calidad, riguroso y adaptado a las nuevas formas de consumo audiovisual.

La calidad de nuestros contenidos es una de nuestras señas de identidad. En esta línea, la apuesta de 3Cat por la UHD es indudable. Somos miembros de grupos de trabajo como UHD-Spain y Forta-RTVE, Convenio Compostela, TV Abierta, tenemos contenido 4K, HDR y full UHD y llevamos tiempo publicando contenido UHD en televisores HBBTV, emitiendo en pruebas por TDT y, según anunció el gobierno catalán, en breve en emisiones regulares.

En este artículo vamos a desarrollar los principales elementos que suponen la principal innovación tecnológica de 3Cat en estos momentos.

Empezaremos explicando con gran detalle la puesta en marcha del Control C Audio, ejemplo evidente

de nuestra apuesta por el sonido de calidad como Dolby Atmos.

En cuanto a la definición de estándares y tendencias, vale la pena mencionar nuestra apuesta por el DAB+, DVB-I y el uso de tecnologías como WebAssembly. 3Cat ha realizado diversas demos que ilustran su potencial en aplicaciones, como por ejemplo el lenguaje de signos y se ha convertido en referente para medios nacionales e Internacionales. HBBTV, por ejemplo, ha aceptado nuestra propuesta de incluirlo en la especificación.

Finalmente, el uso de la Inteligencia Artificial es otra de nuestras apuestas claras. 3Cat trabaja la IA tanto en el desarrollo de soluciones como en el uso de aplicaciones de mercado, ya sea para generar o enriquecer contenido, como para optimizar procesos y recursos, siempre desde el punto de vista de uso responsable.

Control C de 3Cat: Sonido inmersivo en estado puro

La nueva sala de audio se convierte en una referencia fundamental para la producción y postproducción de sonido en Dolby Atmos.

Introducción:

Tecnología al servicio del futuro

En octubre de 2024, 3Cat puso en marcha el nuevo Control C, un espacio concebido para liderar la producción de sonido inmersivo en entornos broadcast. Esta apuesta tecnológica sitúa a la compañía catalana en la vanguardia del sector audiovisual, adaptándose a las nuevas tendencias de consumo y producción de contenidos.

Concebido tanto para postproducción como para producción de directo, el nuevo control es compatible con todos los platós y controles de realización de la compañía. Su diseño responde a los más altos estándares de calidad y funcionalidad. La sala se encuentra integrada en el entorno de producción de Sant Joan Despí en el edificio CPA (Centro de Producción de Audiovisuales). El sistema de audio de este estudio comparte los recursos con la red NAS de postproducción (DSmedia) y con el sistema MAM de 3Cat, Digition, lo que garantiza flujos de trabajo fluidos y colaborativos entre departamentos.

CONTROL C

Sonido inmersivo y Dolby Atmos: una nueva experiencia para el espectador.

El sonido inmersivo transforma la forma en que escuchamos. A diferencia del estéreo o el 5.1, Dolby Atmos introduce una tercera dimensión vertical, permitiendo colocar sonidos en cualquier punto del espacio tridimensional. Esto crea una experiencia sonora envolvente, realista y profundamente emocional.

Esta tecnología, desarrollada por Dolby Laboratories, ha traspasado el ámbito del cine para instalarse en televisores, smartphones, tablets y barras de sonido domésticas, convirtiéndose en un estándar cada vez más accesible para el consumidor final. Dolby Atmos permite una localización precisa de cada elemento sonoro, sumergiendo al espectador en una experiencia multisensorial única que complementa la narrativa audiovisual.

Su flexibilidad permite trabajar tanto en grandes producciones cinematográficas como en contenidos para plataformas OTT, donde el estándar Atmos es cada vez más habitual.

Con el Control C, 3Cat apuesta por un entorno preparado para estas nuevas exigencias, ofreciendo la posibilidad de trabajar en cualquier tipo de proyecto Dolby Atmos o MPEG-H. La sala utiliza un sistema de escucha en formato 7.1.4 cumpliendo con los requisitos de certificación Dolby Atmos. La calibración acústica de la sala ha sido realizada y certificada por Ricardo Viñas, Senior Sound Consultant de Dolby Laboratories, asegurando una respuesta sonora de referencia.

Equipamiento técnico de última generación

El sistema de escucha de la sala ha sido diseñado para cumplir con los requisitos más exigentes en producción inmersiva. La monitorización se basa en la gama Genelec "The Ones", en configuración 7.1.4:

› Genelec 8351B como altavoces principales frontales (LCR), complementados con los subwoofers W371A para extensión de baja frecuencia.

› Genelec 8341A para canales de efectos envolventes y aéreos.

› Genelec 7380A PM para el canal LFE.

› Gestión del sistema a través del software Genelec Loudspeaker Manager (GLM), que permite utilizar diferentes ajustes de calibración, ecualización y control de niveles de referencia.

En paralelo, la sala incluye dos estaciones de trabajo Avid Pro Tools Ultimate sobre plataformas Apple, conectadas a través de interfaces RME Digiface Ravenna. Esta configuración garantiza:

› Hasta 128 canales de audio de entrada y 128 canales de salida simultáneos por estación, con muy baja latencia.

› Conectividad sobre estándares AES67, RAVENNA, ST 2110 y ST 2022-7.

› Control y configuración mediante interfaces web con soporte NMOS IS-04 / IS-05.

› Integración entre Lawo mc²56 MKIII y Pro Tools | Ultimate mediante protocolo HUI.

La consola Lawo mc²56 MKIII se integra de forma fluida con estaciones de trabajo DAW como Avid Pro Tools | Ultimate gracias al soporte nativo

CONTROL C

del protocolo HUI (Human User Interface) sobre IP. Esta integración permite el control remoto completo de Pro Tools directamente desde la superficie de control Lawo, simplificando flujos de trabajo en entornos de postproducción, grabación y broadcast.

Mediante HUI sobre Ethernet, la mc²56 MKIII accede a funciones clave de Pro Tools, como:

› Control de transport (play, stop, rec, etc.)

› Automatización de faders y mute/ solo

› Armado de pistas

› Navegación por sesiones y bancos de canales

La implementación de control sobre la mc²56 MKIII permite mapear canales físicos de la consola a pistas del DAW, con una respuesta en tiempo real y bidireccional, de manera que cualquier cambio en la DAW o en la consola se refleja al instante en el otro extremo.

Además, gracias al motor A__UHD Core y la arquitectura IP nativa, se pueden enrutar señales de audio directamente entre el entorno Lawo y el sistema ProTools.

El resultado es una integración completa y coherente que permite a los operadores trabajar desde las superficies Lawo como si estuvieran dentro de ProTools, con la ventaja añadida de una plataforma de mezcla escalable y centrada en entornos de producción moderna.

Para completar el procesamiento de sonido, el control cuenta con unidades físicas de efectos Bricasti M7

con posibilidad de ser controladas remotamente, reconocidas por su calidad en producciones musicales y audiovisuales. Así como múltiples sistemas de procesamiento virtual como el entorno Waves con el sistema Extreme Soundgrid Server, controlados por aplicativos como Waves SuperRack, junto con otros sistemas de proceso simultáneo como Live Professor, UAD, Plugin Alliance, Slate Digital, etc. para la gestión en tiempo real de procesos digitales.

Una relación consolidada con Lawo desde 2007

3Cat confía en la tecnología de Lawo desde 2007, cuando empezó a incorporar sus soluciones en los entornos de producción. Lawo, empresa alemana con sede en Rastatt, es un referente global en sistemas de mezcla, procesamiento y control para broadcast, audio en vivo y producción remota. Su experiencia en infraestructuras IP y soluciones de audio sobre red ha permitido a 3Cat evolucionar hacia entornos cada vez más flexibles y escalables.

En esta nueva sala de audio, se ha implementado la tecnología UHD Core y la plataforma HOME, pilares fundamentales de la propuesta de Lawo. UHD Core proporciona una capacidad de procesamiento DSP de última generación, mientras que HOME facilita la conectividad, gestión y seguridad de los flujos de trabajo en redes IP.

El corazón del Control C es la mesa de mezclas Lawo mc²56 MKIII, equipada con una superficie de 48 faders y arquitectura IP nativa. Esta consola es compatible con estándares SMPTE ST 2110, AES67, RAVENNA

y Dante, lo que facilita su integración en entornos mixtos y escalables. Sus características técnicas incluyen:

› Procesamiento de hasta 2496 canales DSP y 448 buses de mezcla.

› Herramientas avanzadas para mezcla inmersiva 3D.

› Compatibilidad con DAWs, integración con Waves® Plugins y automatización dinámica con timecode.

› Control remoto, gestión avanzada de señales y orquestación de recursos vía plataforma HOME.

INTEGRACIÓN

CON LAWO

Integración con la infraestructura existente: del Nova73HD al futuro IP

La transición del sistema Lawo desde sus inicios con la tecnología asociada a los Routers Nova73HD hasta el actual entorno UHD Core, se ha realizado de forma progresiva, asegurando la compatibilidad con las infraestructuras anteriores. La integración ha sido posible gracias a la distribución de audio sobre redes IP bajo los estándares AES67, RAVENNA y ST 2110, lo que garantiza baja latencia, sincronización precisa y escalabilidad.

Esta nueva arquitectura permite interconectar sistemas de mezcla,

estaciones de postproducción y plataformas de almacenamiento a través de un entorno de red común. El sistema de control HOME actúa como capa de gestión y orquestación, mientras que el protocolo NMOS facilita el descubrimiento automático y la interoperabilidad entre dispositivos.

Para garantizar estabilidad y precisión en los sistemas conectados, se emplea sincronización mediante PTPv2 (Precision Time Protocol) con el Profile ST2059. En este sentido, el generador máster Tektronix SPG8000A se convierte en una herramienta esencial, ya que asegura una sincronización precisa de los equipos de audio. Este generador de señales ofrece múltiples salidas y una interfaz intuitiva, lo que facilita la gestión de la sincronización PTP en entornos de producción complejos.

Para garantizar la continuidad del servicio, se ha implementado una arquitectura redundante con dos generadores SPG8000A configurados en modo Main y Backup. Ambos dispositivos reciben referencia satelital GNSS independiente, asegurando que cada uno pueda funcionar como Grandmaster de manera autónoma en caso de fallo.

La conmutación se gestiona de forma transparente gracias al algoritmo BCMA (Best Master Clock Algorithm), que forma parte del estándar IEEE 1588. Este algoritmo evalúa métricas como la prioridad del reloj, la estabilidad, la exactitud de la fuente externa (GNSS), y decide cuál debe actuar como Grandmaster en cada momento. En este despliegue, se establecieron

prioridades administradas manualmente para definir el generador principal, manteniendo al segundo en modo pasivo a menos que se produzca un fallo.

La transición entre masters se ha verificado como suave y sin disrupciones, con cambios inferiores a los 100 nanosegundos en la sincronización de los dispositivos esclavos, lo

cual es perfectamente tolerable en entornos broadcast IP con buffers bien dimensionados.

Flexibilidad total gracias a ADDER, BFE KSC CORE y Riedel

Una infraestructura KVM construida sobre los sistemas de la compañía Adder, permite el control flexible de hasta 10 pantallas de manera simultánea en el control de audio.

Se han utilizado los modelos ALIF 1002R i ALIF 1002T como emisores y receptores en la red existente de KVM con dos servidores AIM Infinity Manager. Esto nos da la versatilidad de utilizar en un mismo sitio de trabajo multitud de ordenadores que nos facilitan las operaciones necesarias en las diferentes producciones o servicios de postproducción que realicemos.

La orquestación y el control centralizado de todos los recursos de imagen y sonido se gestionan mediante el sistema de automatización BFE KSC Core (Broadcast Controller). Esta solución actúa como el auténtico cerebro del sistema, permitiendo

una gestión dinámica, eficiente y segura de todos los elementos implicados en la producción y emisión.

KSC Core es un componente clave en la gestión de destinos de audio, especialmente en entornos complejos como los que utilizamos con Lawo, donde es fundamental una asignación precisa de recursos, rutas y permisos. El sistema permite administrar de forma granular el acceso a cada destino de audio, garantizando que solo los operadores autorizados puedan enrutar señales específicas. Esto resulta esencial para preservar la integridad y la seguridad operativa en un entorno IP.

INFRAESTRUCTURA KVM

Además, el sistema incorpora la gestión de exteriores dentro del mismo ecosistema de control, lo que permite planificar y supervisar las conexiones remotas desde un único punto centralizado. Esta capacidad agiliza las operaciones de eventos en directo y el trabajo con unidades móviles, aportando eficiencia y rapidez en situaciones críticas.

La interfaz de usuario se basa tanto en paneles físicos como virtuales, completamente personalizables, desde los cuales los operadores acceden a todas las funcionalidades del sistema: enrutamiento de señales, cambios de configuración, activación de presets, supervisión de dispositivos, etc. Esta versatilidad permite adaptar fácilmente el sistema a distintas configuraciones de sala y tipos de producción.

Una de las grandes ventajas de contar con un Broadcast Controller como KSC Core en entornos de producción multicontrol es la posibilidad de asignar perfiles de trabajo específicos a cada posición física dentro del control. Esto permite una adaptación total a las necesidades de cada operador, ya sea de audio, vídeo, EVS, script o producción.

Gracias a la capa de orquestación de KSC Core, cada posición de trabajo se puede cargar automáticamente con su configuración personalizada al iniciar sesión, incluyendo:

› Asignación de perfiles de trabajo a posiciones físicas

› Enrutamiento de señales de vídeo y audio

› Accesos directos y soft keys personalizados

› Selección de fuentes de monitorado individuales

Esto garantiza que cada operador encuentre exactamente las herramientas que necesita, independientemente del tipo de programa o evento. Además, la infraestructura IP combinada con el motor de control permite reconfigurar por completo un control en segundos, algo impensable con arquitecturas tradicionales.

Por último, esta arquitectura facilita una gestión centralizada de permisos y configuraciones, ideal para entornos en los que varios operadores rotan entre estudios o controles. Esto asegura coherencia operativa, una experiencia de usuario

homogénea y una notable reducción del margen de error.

El sistema de intercomunicación se ha construido utilizando la tecnología IP de Riedel, concretamente la matriz Artist1024. Riedel es un referente mundial en soluciones de intercomunicación profesional, para este proyecto se han utilizado paneles de las series 1200 y 2300, que ofrecen una gran flexibilidad, calidad de audio y opciones de configuración para todo tipo de flujos de trabajo.

Tratamiento acústico: precisión para el sonido inmersivo

El acondicionamiento acústico del Control C ha sido una prioridad desde la fase de diseño. Cada superficie, volumen y material empleado responde a los criterios establecidos para la cumplir la recomendación ITU-R BS.1116. Una recomendación de calidad para los servicios de radiodifusión que describe condiciones de escucha de audio de alta precisión, pensadas para aplicaciones de monitorización como estudios de grabación, postproducción y edición de audio. El objetivo era garantizar una respuesta sonora controlada y homogénea en toda la sala.

RED

Se ha trabajado con diferentes materiales acústicos para evitar reflexiones no deseadas y mantener una claridad óptima en la reproducción. El tratamiento de los modos propios de sala, la uniformidad espectral y el tiempo de reverberación han sido ajustados para cumplir con la curva Dolby de referencia. Todo ello ha contribuido a la obtención de la certificación Dolby Atmos, haciendo del Control C un entorno de mezcla de referencia.

A continuación, se muestran los resultados obtenidos antes de aplicar el ajuste de la curva

TIEMPOS DE REVERBERACIÓN

Diseño ergonómico y confort para los operadores

Además del tratamiento acústico, el diseño de la sala se ha concebido pensando en el bienestar de los operadores. La iluminación se ha realizado siguiendo los criterios técnicos del Col•legi Oficial d'Òptics Optometristes de Catalunya, que en su día desarrollaron un estudio sobre condiciones visuales óptimas en salas de control audiovisual.

Dolby, con el equipo de reproducción funcionando en modo plano. Estos resultados corresponden a la respuesta en frecuencia en el punto de escucha, también conocida como Respuesta Operativa de la Sala.

Para garantizar una escucha sin coloraciones, esta respuesta debería mantener un nivel uniforme en todas las frecuencias.

Los límites en verde indican desviaciones que normalmente son seguras y no causan coloraciones significativas.

RESPUESTA DE LA SALA

Gracias a este estudio, se han aplicado soluciones lumínicas que minimizan la fatiga ocular, mediante la combinación de luz indirecta, regulación de temperatura de color y niveles de contraste adecuados entre pantallas y entorno. Los acabados interiores, desde la elección de materiales hasta la disposición del mobiliario, buscan un entorno acogedor, funcional y ergonómico, clave para trabajos de larga duración con alta concentración.

Espacios complementarios: ambientación y locución

Además de la sala principal, el Control C cuenta con un espacio para ambientación musical dotado con una consola Yamaha CL1 y un sistema de reproducción de archivos de sonido Dalet. La plataforma DALET Galaxy, actúa como sistema principal de gestión de contenidos y reproducción de audio. Esta solución se integra de manera nativa con la infraestructura de audio sobre IP, facilitando flujos de trabajo eficientes y totalmente digitales. El sistema está compuesto por cuatro servidores DALET, que funcionan como reproductores de audio. Estos servidores publican las salidas de audio

directamente en la red Ravenna, un estándar de audio sobre IP que proporciona latencia ultra baja.

La infraestructura permite utilizar hasta diez controladores distintos, accesibles desde cada uno de los controles de sonido distribuidos en las salas de producción. Cada controlador puede gestionar múltiples canales y se puede configurar individualmente para habilitar la opción de faderstart, lo que permite una integración directa con las mesas de mezclas. De esta manera, al abrir un canal de fader, se activa automáticamente la reproducción del audio correspondiente desde DALET, mejorando la agilidad operativa y reduciendo el riesgo de errores en directo. Este ecosistema centralizado y flexible optimiza la producción de contenidos, asegurando una experiencia de usuario fluida para los operadores técnicos.

La instalación comprende también el diseño de un locutorio insonorizado para dos personas, siguiendo la línea del resto de controles de la corporación. Este espacio puede utilizarse para tareas de traducción simultánea o locución de piezas en proyectos de postproducción. Está equipado con una consola Sonifex AVN-CU2, una solución compacta basada en AoIP, ideal para producción remota, entrevistas y eventos en directo. Destaca por su calidad de audio, panel frontal configurable y múltiples opciones de conectividad y control.

Los locutorios están conectados permanentemente con las instalaciones de Catalunya Ràdio mediante tecnología AoIP, lo que permite gran agilidad en coberturas conjuntas y proyectos colaborativos entre ambas divisiones del grupo 3Cat.

Pruebas en entornos reales y proyectos destacados

Durante el verano de 2024, el Control C se sometió a una exigente prueba de fuego: la mezcla inmersiva de la tercera edición del concierto del programa Eufòria, grabado en el Palau Sant Jordi. La experiencia sirvió para verificar el comportamiento del sistema en un entorno de gran escala y alta exigencia.

Actualmente, el control se utiliza para la mezcla de actuaciones en directo del programa Col•lapse, como backup del resto de programas diarios de la corporación y es el centro neurálgico de la producción en Dolby Atmos del musical Mar i Cel, de la compañía Dagoll Dagom. Esta producción próximamente se estrenará en salas de cine, en televisión lineal y en la plataforma 3Cat. Un producto con un ambicioso

AMBIENTACIÓN MUSICAL LOCUTORIO

tratamiento sonoro, marcando un nuevo hito en la colaboración entre el teatro musical y la televisión pública catalana.

Innovación al servicio del audiovisual catalán

Con la puesta en marcha del Control C, 3Cat reafirma su papel como referente tecnológico en el ámbito de la producción audiovisual. El liderazgo de Llorenç Gómez, responsable del Área de Infraestructuras Digitales y Tecnológicas, junto al equipo formado por Marc Sanclimens, Roger Maneu, Toni Rodríguez, Blanca Auber, Ramon Guillaumet, Nerea Pomés y Manel Diaz, ha sido clave en el diseño y ejecución del proyecto.

Este control no solo representa un salto cualitativo, sino también una herramienta estratégica para afrontar los desafíos del

presente y del futuro del sonido en el campo audiovisual.

(Fotografías: Javier Herrero)

WEBASSEMBLY

Lengua de Signos con WebAssembly en la Televisión Digital Terrestre

3Cat busca mejorar el servicio de lengua de signos en la TDT sin afectar a quienes no lo necesitan. La solución actual, que incrusta el vídeo del intérprete, no permite

personalización. Para resolverlo, se propone una aplicación interactiva con "Picture in Picture". Sin embargo, la doble decodificación de vídeo es inviable en la mayoría de televisores. WebAssembly permite decodificación por software con rendimiento casi nativo. 3Cat impulsó su incorporación en HbbTV y validó su viabilidad con una prueba de concepto. Presentado en eventos europeos del sector, este avance permitirá un servicio configurable y personalizable, haciendo viable su futura estandarización.

PRUEBAS

El reto tecnológico

Actualmente, 3Cat ofrece el servicio de lengua de signos en sus emisiones de TDT mediante la incrustación en origen del intérprete de lengua de signos en el contenido principal. Nuestro compromiso es aumentar la producción de este servicio de accesibilidad, pero con el sistema actual esto produce ciertas molestias para los usuarios que no necesitan el servicio y, además, no permite la configuración y personalización por parte del espectador.

Con la última revisión de la ley general de comunicación audiovisual que establece que las obligaciones de accesibilidad a los contenidos emitidos por la TDT pueden garantizarse a través de servicios de televisión conectada, se abre la posibilidad de ofrecer estos servicios mediante la tecnología HbbTV.

De esta manera, se puede recuperar la idea de que la mejor manera de ofrecer el servicio de lengua de signos es de forma opcional y personalizable. Para ello, se propone una aplicación interactiva HbbTV que reproduzca el vídeo del intérprete, proveniente de un streaming de video estándar por banda ancha, sobre la señal de la TDT mediante la funcionalidad “Picture in Picture” (PiP) en el propio receptor.

La sincronización del video del intérprete de lengua de signos con la emisión TDT se plantea mediante la inserción de marcas TEMI en el flujo de emisión, que pueden recuperarse en la aplicación HbbTV, y mediante la implementación de un streaming

DASH Low Latency para el video del intérprete de lengua de signos, que permite que este llegue al televisor incluso antes que la emisión TDT, de tal forma que puedan sincronizarse.

El problema radica en que, debido a diversas limitaciones, la inmensa mayoría de los televisores del mercado no pueden realizar simultáneamente una doble decodificación de vídeo de forma nativa. Por lo tanto, la única alternativa es recurrir a la decodificación por software del video de lengua de signos, algo inalcanzable con las tecnologías tradicionales disponibles actualmente en el estándar de televisión HbbTV.

Sin embargo, en el entorno web, desde 2017, existe la tecnología WebAssembly para navegadores, que permite alcanzar un rendimiento casi nativo y posibilita la decodificación de vídeo por software.

La evolución del estándar HbbTV

Desde 3Cat propusimos al grupo de trabajo de HbbTV encargado de las nuevas versiones del estándar la incorporación de la tecnología WebAssembly dentro del conjunto de tecnologías que lo componen, con el objetivo de garantizar que todos los nuevos dispositivos HbbTV sean capaces de ejecutar código WebAssembly.

Esta propuesta fue acompañada de ejemplos y métricas que demostraban cómo esta tecnología podría incrementar el rendimiento en la ejecución de ciertas tareas entre un 50% y más de un 80%, lo que en el campo de la accesibilidad podría

aportar un gran avance en este entorno. Este incremento de rendimiento es indispensable en condiciones donde el factor tiempo real es crítico, como en la decodificación de vídeo.

Impacto

Esta solución, basada totalmente en los estándares de emisión TDT y de distribución de video de banda ancha, permite una producción del servicio de lengua de signos de forma estándar y sin la necesidad de recurrir a desarrollos complejos en producción, lo que la hace válida tanto para emisiones en directo como para emisiones pregrabadas. Además, el sistema es fácilmente adaptable para el consumo a la carta, ver desde el inicio, previsualizaciones, etc en el mismo televisor.

Esta solución permite tratar el servicio de lengua de signos de igual forma que otros servicios de accesibilidad, como son subtítulos y audiodescripción, en el sentido de que son componentes de un mismo contenido que el usuario activa o desactiva a voluntad sin cambios de contexto. Esto facilita que el usuario pueda configurar sus preferencias de accesibilidad de forma homogénea y que se activen los servicios de forma automática según su selección.

El impacto que puede llegar a tener la incorporación de WebAssembly en HbbTV es enorme debido a que con su adopción se podrán plantear desarrollos de aplicaciones que exigen un alto rendimiento que hasta el momento eran totalmente inviables en este entorno.

Uso de la Inteligencia

Artificial en la Producción de 3Cat

Asistente periodístico

A principios de 2024, 3Cat comenzó a realizar pruebas de concepto sobre la idea de asistir a los periodistas de la redacción digital del 324. cat mediante el uso de IA Generativa. Estas pruebas fueron un éxito y, tras una valoración positiva, se decidió la arquitectura tecnológica más adecuada para pasar a producción. Así, se creó un asistente integrado en el CMS Redaccional, que es utilizado diariamente por los periodistas para generar contenido que se publica en el portal web y la aplicación móvil del 324.

La arquitectura del asistente está compuesta por varios componentes clave:

CMS Redaccional: Es el punto de origen de la información trabajada por los redactores y el punto final donde se muestran las opciones generadas por el asistente. Aquí, el redactor decide si la propuesta es correcta o si desea generar otra versión.

Servicio en Python: Implementado y desplegado a través de un contenedor Docker en Amazon ECS, este servicio construye el prompt a partir de la noticia que está trabajando el redactor y ciertas reglas alineadas con las necesidades de la redacción.

Endpoint de Azure OpenAI: Utiliza el modelo GPT-4 para procesar la información y generar contenido útil para los redactores.

El asistente periodístico incluye diversas funcionalidades que facilitan el trabajo de la redacción:

Generación automática de títulos: Creación de títulos atractivos y relevantes basados en el contenido del artículo, teniendo en cuenta criterios periodísticos, editoriales y de SEO. También puede ofrecer títulos cortos y concisos para redes sociales.

Etiquetas editoriales: Sugerencia de etiquetas temáticas basadas en el análisis del texto para mejorar la organización del contenido dentro del CMS y optimizar la navegación de los usuarios.

Etiquetas archivísticas: Asignación automática de metadatos que permiten una mejor gestión documental y recuperación de contenidos en el futuro.

Etiquetas SEO: Generación de palabras clave y metadescripciones optimizadas para buscadores, aumentando la visibilidad de los artículos en motores de búsqueda como Google o Bing.

Además, se están trabajando otras funcionalidades que aún no se han implementado en producción para hacer un despliegue controlado:

Elaboración de un resumen más extenso: Creación de resúmenes más detallados si así se requiere a nivel editorial.

Identificación de entidades (NER - Named Entity Recognition): Extracción automática de nombres propios, lugares, organizaciones y otras entidades relevantes presentes en el texto para facilitar la indexación y el enlace con otros contenidos relacionados.

Identificación de contenido relacionado: Buscar en la base de datos de noticias de la redacción contenido que podría servir para enriquecer la noticia o para ayudar al periodista en la que esté confeccionando en ese momento.

Es importante destacar que el asistente está diseñado para ayudar al periodista, quien tiene el control final sobre las propuestas generadas. El periodista solicita una propuesta

al asistente y, si la acepta, debe incorporarla manualmente en el campo pertinente. Si el periodista graba la noticia sin modificar nada de la propuesta del asistente, el CMS muestra un mensaje alertando que no se ha modificado la propuesta, asegurando así el control humano en el proceso.

Se ha estimado que la redacción, con la versión actual del asistente, gana entre 5 y 10 minutos por noticia en la que se hace uso de él. Esta primera versión del asistente representa una innovación importante para la redacción de informativos, ofreciendo funcionalidades que ayudan tanto en la creación como en la distribución de contenido, y mejoran la eficiencia del equipo de periodistas.

DVB-I (Digital Video Broadcasting Internet Protocol)

3Cat ha sido pionera en la puesta en marcha de pruebas con el nuevo estándar DVB-I, con el objetivo de evaluar su idoneidad como solución para la distribución de contenidos en televisión.

DVB-I se presenta como una evolución natural de la televisión digital, al permitir una experiencia de usuario coherente y unificada, independientemente de si el contenido se recibe por vía terrestre, por internet o por una combinación de ambos. Entre sus principales ventajas destacan la facilidad de descubrimiento de servicios y su capacidad para ofrecer servicios personalizados y de valor añadido. Todo ello

conservando el modelo de la TDT que garantiza el acceso a contenidos de televisión lineal en abierto.

Además, esta tecnología puede ayudar a mejorar la prominencia de los servicios de los radiodifusores en un entorno cada vez más competitivo y fragmentado.

En el marco de nuestra apuesta por la innovación, en 3Cat hemos realizado pruebas combinando DVB-I con la tecnología ya consolidada de HbbTV, con el objetivo de demostrar cómo ambas soluciones pueden integrarse de forma complementaria. Esta combinación permite ofrecer nuevas tipologías de servicio y experiencias enriquecidas para el usuario, aprovechando la robustez del estándar DVB-I junto con la interactividad y flexibilidad que aporta HbbTV. Con ello, se refuerza la idea de una televisión híbrida, conectada y centrada en las necesidades del espectador actual.

3Cat siempre ha mostrado una especial sensibilidad hacia los servicios de accesibilidad en televisión, conscientes de su importancia para garantizar una experiencia inclusiva para todos los ciudadanos. En esta línea, hemos llevado a cabo pruebas específicas sobre la distribución de subtítulos, audiodescripción y lengua de signos a través del estándar DVB-I, con el objetivo de ilustrar nuevas posibilidades de distribución de estos servicios de accesibilidad que mejoran la experiencia de usuario. Estas pruebas refuerzan nuestro compromiso con una televisión accesible, moderna y al alcance de todos.

Juande Mellado, nuevo presidente de FORTA:

“Quiero impulsar herramientas que nos permitan ser más competitivos”

Los canales públicos de alcance regional tienen mucho que decir en el actual contexto de aceleración tecnológica, y FORTA (Federación de Organismos de Radio y Televisión Autonómicos) se erige aquí como un actor clave para optimizar recursos, compartir experiencias o favorecer la innovación de sus miembros.

Por Daniel Esparza
JUANDE MELLADO

“Quiero impulsar herramientas que nos permitan ser más competitivos sin renunciar a nuestra esencia: cercanía, servicio público y conexión con la ciudadanía”, subraya a TM BROADCAST Juande Mellado, elegido el pasado mes de enero nuevo presidente de FORTA, un mandato rotativo que dura seis meses y que este directivo ya ostentó en el primer semestre de 2020.

Juande Mellado compagina esta labor con su cargo de director general de la Radio Televisión de Andalucía (RTVA). Coincidiendo con el ecuador de su segunda presidencia al frente de la Federación, que celebra su 35 aniversario, aprovechamos para preguntarle por la evolución de la organización durante estos últimos años, sus objetivos principales o los retos principales que afrontan en este momento los medios autonómicos.

Respecto al reciente plan técnico nacional de la TDT aprobado por el Gobierno, en el que se fijan los pasos a seguir para adoptar el estándar UHD, Mellado expone que la postura de la Federación es “constructiva”. Pero puntualiza: “Pedimos que se tengan en cuenta las particularidades de nuestras cadenas y que se asegure la viabilidad técnica y económica de los cambios que se deriven del nuevo plan. La TDT sigue siendo una herramienta fundamental de cohesión territorial”.

A continuación, la entrevista completa:

No es la primera vez que estás al frente de FORTA, pues ya dirigiste la presidencia rotativa

de la federación durante el primer semestre de 2020. Teniendo en cuenta que han pasado dos meses desde que has asumido de nuevo este mandato, ¿qué diferencias principales detectas respecto a tu anterior periodo, tanto en el seno de la organización como a nivel de mercado?

La diferencia más evidente es la velocidad a la que evoluciona todo. El ecosistema audiovisual está en plena transformación, y eso exige que las decisiones se tomen con mayor agilidad y visión estratégica. En 2020 ya vivíamos una aceleración digital forzada por la pandemia, pero hoy ese cambio no es coyuntural: es estructural.

Desde FORTA percibimos que las cadenas autonómicas han reforzado su papel no solo como prestadoras de un servicio público, sino también como agentes clave en la innovación de formatos, producción propia y adaptación tecnológica. La colaboración entre cadenas también ha ganado solidez: compartimos experiencias, proyectos y herramientas con una visión mucho más cohesionada.

En general, ¿cómo afrontas esta nueva etapa al frente de FORTA?

Con mucha responsabilidad, pero también con enorme ilusión. FORTA acaba de cumplir sus primeros 35 años como una red que ha consolidado la pluralidad informativa y cultural en España y en sus comunidades autónomas.

Mi objetivo es fortalecer esa misión desde la cooperación entre todas las organizaciones que forman parte de FORTA. Queremos que cada

cadena sea más fuerte gracias al impulso de todas radiotelevisiones que componen la Federación.

Nos encontramos en un momento de consolidación digital, y desde la presidencia quiero impulsar herramientas que nos permitan ser más competitivos sin renunciar a nuestra esencia: cercanía, servicio público y conexión con la ciudadanía.

“Las cadenas públicas de proximidad jugarán un papel más relevante aún, precisamente porque ofrecen lo que otros no pueden: contexto, cercanía, pluralidad y pertenencia”

¿Cuáles son los principales objetivos estratégicos de FORTA como organización actualmente?

La transformación digital, sin duda, es uno de los ejes principales. Apostamos por la evolución hacia nuevos formatos, la consolidación de nuestras plataformas OTT y la inversión en innovación tecnológica. Pero también trabajamos en fortalecer la producción propia como base de nuestra identidad y motor de la industria audiovisual de nuestras regiones.

Otro pilar fundamental es el refuerzo del papel institucional de FORTA como garante del pluralismo, la diversidad cultural y lingüística, y la información de cercanía. Porque las cadenas de FORTA llegan a públicos y territorios de un modo propio, singular y difícilmente replicable por otros operadores, y que constituye una de nuestras señas de identidad y de valor.

En este sentido, ¿cómo valoras la utilidad de pertenecer a FORTA para sus miembros en el actual contexto de aceleración tecnológica?

En un contexto en el que la cooperación tecnológica y editorial es clave para seguir siendo relevantes, FORTA es hoy más útil que nunca, porque permite compartir desarrollos, intercambiar experiencias en digitalización, en producción de nuevos formatos o en analítica de datos.

La Federación también fomenta economías de escala en la adquisición de derechos, acuerdos tecnológicos o formación, y gracias a nuestra forma de trabajo y cooperación ganamos en eficiencia y capacidad de anticipación, por ejemplo cuando algunas cadenas pilotan procesos que luego son replicados y adaptados por otras.

A nivel tecnológico, ¿cómo valoras el estado actual de las televisiones públicas de FORTA, considerando su resolución en las emisiones, transición a IP, etcétera?

Estamos en plena transición hacia entornos digitales, con diferentes grados de implementación según cada cadena, pero con una dirección clara. Muchas de las cadenas

de FORTA ya emiten en HD de forma estable, y otras lo harán en breve.

La digitalización no es solo un cambio de formato, sino de cultura organizativa: afecta al modo en que se producen, distribuyen y consumen los contenidos. Las inversiones en tecnología deben ir acompañadas de procesos de formación y reorganización interna, y en esto FORTA está siendo un catalizador.

¿Se persigue desde FORTA, de algún modo, una cierta equiparación tecnológica de sus miembros, o hay que entender que cada televisión debe avanzar a su ritmo?

La autonomía de cada cadena es esencial, pero FORTA actúa, continúa actuando como un espacio de alineación estratégica. Compartimos hojas de ruta, tecnologías, plataformas y buenas prácticas, todo lo cual va construyendo una especie de “manual de buenas prácticas” que resulta útil para todas las cadenas, desde las características particulares de cada una.

No se trata de uniformar, sino de construir una base común que permita afrontar los retos con herramientas compartidas. La pluralidad tecnológica también es una fortaleza si sabemos aprovecharla.

“Estamos trabajando en reforzar la colaboración en contenidos informativos a través de herramientas comunes de intercambio de noticias y coberturas compartidas”

FORTA reúne todos los meses a los directores generales para poner en común conocimientos y proyectos. ¿Hay alguna innovación, cobertura de interés o caso de éxito reciente de alguna televisión de los que nos puedas hablar?

Tenemos varios ejemplos recientes. Por citar uno, Canal Sur ha reforzado su plataforma Canal Sur Más, integrando funcionalidades que mejoran la experiencia de usuario, incluyendo contenidos bajo demanda, señal en directo y programación segmentada. En Castilla-La Mancha, CMM Play está impulsando contenidos temáticos pensados para públicos jóvenes. TVG de Galicia está ya emitiendo en UHD y 3Cat ha lanzado nuevos formatos pensados directamente para plataformas digitales. Todo esto nos nutre como colectivo y nos permite acelerar aprendizajes.

En línea con esto, ¿cuáles dirías que son los retos principales que afrontan las televisiones públicas en el contexto actual?

El reto central es la relevancia. No basta con estar: hay que conectar. La fragmentación de públicos, la competencia global de las plataformas y los cambios en los hábitos de consumo de contenidos audiovisuales nos exigen una transformación constante.

Pero, simultáneamente, hay que mantener el equilibrio: no podemos perder la función de servicio público, de cobertura informativa local, de diversidad cultural y lingüística. Y, por supuesto, todo esto con estructuras sostenibles y eficaces.

Otro de los desafíos clave que estamos abordando desde las cadenas de FORTA tiene que ver con el compromiso con una información veraz, contrastada y cercana. En un momento en que la desinformación circula a gran velocidad, hemos reforzado nuestras unidades de verificación y continuamos con dinámicas de trabajo riguroso en los servicios informativos. Muchas cadenas cuentan ya con equipos de fact-checking especializados, y desde FORTA compartimos metodologías, formación y criterios para asegurar la calidad y la fiabilidad de la información. Creemos firmemente que las televisiones públicas autonómicas son uno de los mejores antídotos frente a los bulos y las noticias falsas, y por eso nuestro compromiso es permanente: con la verdad, con la ciudadanía y con los valores democráticos.

Qué nos puedes decir de las radios públicas, ¿qué momento dirías que atraviesan, qué desafíos específicos enfrentan?

“Ya no hablamos de televisión, radio o internet por separado: hablamos de contenidos audiovisuales multiplataforma”

Las radios públicas autonómicas viven una etapa muy interesante. Han sabido adaptarse bien al entorno digital, incorporando podcasts, contenidos interactivos y nuevas narrativas sonoras.

Son un pilar imprescindible del ecosistema informativo, y además permiten llegar a públicos que valoran la inmediatez, la cercanía y la calidad del relato. El reto es seguir apostando por la digitalización del audio y explorar nuevas fórmulas de segmentación de la audiencia, especialmente en entornos móviles y conectados.

A este respecto, quiero destacar el reciente IV Foro de la Radio en Palma, organizado por FORTA junto a los compañeros de IB3, que nos permitió visibilizar líneas de trabajo comunes y reafirmar nuestro compromiso con un modelo de radio plural, accesible, innovadora y centrada en el servicio público, especialmente en situaciones de emergencia o catástrofes como las que hemos padecido.

La radio sigue siendo un espacio de conexión emocional muy potente con las audiencias, y desde FORTA vamos a seguir impulsando su renovación tecnológica y narrativa.

¿Cuál es la visión de FORTA respecto a la evolución de la industria hacia el streaming y las plataformas OTT?

La asumimos como una oportunidad. Y ya no hablamos de televisión, radio o internet por separado:

hablamos de contenidos audiovisuales multiplataforma. Las plataformas propias —como CanalSur Más, CMM Play, 3Cat, Primeran o AGalega— son hoy otro espacio donde nuestros contenidos conviven con nuevas formas de consumo. Queremos estar donde están los espectadores y oyentes, y para eso necesitamos recursos, formatos, canales, que nos permitan ofrecer servicios personalizados, accesibles y de calidad, sin renunciar a nuestros valores.

El Gobierno ha dado luz verde recientemente al nuevo plan técnico nacional de la TDT. ¿Tiene FORTA alguna opinión sobre esta normativa?

Nuestra postura es constructiva. Valoramos positivamente todo desarrollo que garantice la universalidad, la calidad de emisión y la continuidad del servicio público en el nuevo entorno digital. A la vez, pedimos que se tengan en cuenta las particularidades de nuestras cadenas y que se asegure la viabilidad técnica y económica de los cambios que se deriven del nuevo plan. La TDT sigue siendo una herramienta fundamental de cohesión territorial.

¿Nos puedes adelantar algún proyecto o directriz de futuro de interés que no se haya mencionado aún?

Estamos trabajando en reforzar la colaboración en contenidos informativos a través de herramientas comunes de intercambio de noticias y coberturas compartidas. También queremos impulsar un gran observatorio sobre consumo de contenidos audiovisuales en las cadenas autonómicas, que nos permita afinar mejor nuestra oferta y detectar oportunidades de segmentación y personalización. Y estamos explorando vías para una mayor puesta en valor, visibilidad e internacionalización de nuestras producciones propias.

“Las inversiones en tecnología deben ir acompañadas de procesos de formación y reorganización interna, y en esto FORTA está siendo un catalizador”

En general, ¿cuál es tu visión sobre el futuro de la televisión?

¿Qué papel crees que jugarán en el panorama mediático del futuro las

televisiones públicas o de proximidad? ¿Crees que tendrán que reconvertirse?

La televisión, entendida como lenguaje y como vínculo con la ciudadanía, seguirá siendo un espacio central de los ecosistemas audiovisuales. Lo que cambia son los soportes, los tiempos y los hábitos.

Las cadenas públicas de proximidad jugarán un papel más relevante aún, precisamente porque ofrecen lo que otros no pueden: contexto, cercanía, pluralidad y pertenencia. Nos reconvertiremos en la forma, pero no en el fondo. Y es que nuestra misión sigue siendo la misma: informar, educar y entretener desde la proximidad y el compromiso con la ciudadanía.

También me gustaría destacar el papel insustituible que juegan las cadenas autonómicas en contextos de emergencia o catástrofes, como quedó patente en la cobertura de la erupción del volcán de La Palma, las DANAs recientes o grandes incendios. Solo las televisiones y radios autonómicas cuentan con la infraestructura, la capilaridad territorial y el conocimiento local necesarios

para informar con rigor, inmediatez y responsabilidad en momentos críticos. Además de informar, actuamos como canales esenciales de colaboración con protección civil y otras autoridades públicas. Es una función de servicio público en su máxima expresión, y una de las razones por las que nuestras cadenas son valoradas por la ciudadanía.

¿Te gustaría añadir algo?

Me gustaría reivindicar, también aquí, el papel de las televisiones públicas autonómicas como auténticos laboratorios de creatividad. Muchas ideas que luego se han convertido en formatos de éxito han nacido en nuestras cadenas. Somos un espacio de innovación, de talento emergente, de experimentación responsable. Y esa capacidad es hoy más necesaria que nunca. Porque en tiempos de incertidumbre, el valor de lo público se reafirma.

“La colaboración entre cadenas también ha ganado solidez: compartimos experiencias, proyectos y herramientas con una visión mucho más cohesionada”

Tic, tac, el tiemposeagota: Lacarreracontrael olvidoenla

digitalización decintas devídeo

El patrimonio y la historia audiovisual de las últimas décadas están en peligro. Millones de horas de contenido grabado en cintas de emulsión magnética, tanto analógicas como digitales, corren el riesgo de perderse para siempre debido al deterioro de los soportes y la obsolescencia de los equipos necesarios para su reproducción. Empresas especializadas, como TSA (Telefónica Servicios Audiovisuales) junto a Memnon, han lanzado una advertencia clara: en pocos años será imposible digitalizar muchas de las cintas antiguas que aún quedan por salvar.

Por Asier Anitua Valluerca, Gerente Desarrollo de Negocio I Servicios Audiovisuales, Telefónica

TECNOLOGÍA

La International Association of Sound and Audiovisual Archives (IASA) ya advirtió:

“El tiempo ha llegado—de hecho, casi ha pasado—para preservar los millones de cintas de vídeo producidas desde los años 70 hasta principios de los 2000 y que se encuentran en archivos de todo el mundo. La combinación de obsolescencia de formatos, la disminución de equipos de reproducción y la especialización necesaria para operarlos, junto con el deterioro del material magnético, hace que la preservación de estos contenidos sea una prioridad alta.”

En los últimos 21 años se han digitalizado 5 millones de horas de contenido, pero solo en los próximos 18 meses se espera la conversión de 1,25 millones de horas adicionales, y la lista de espera ya alcanza 7 millones de horas más

Los desafíos de la digitalización de cintas de vídeo

Digitalizar cintas de vídeo no es un proceso sencillo. Existen múltiples desafíos que hacen que esta tarea sea cada vez más difícil y costosa.

1. Obsolescencia tecnológica

› Sin equipos de reproducción, el contenido es inaccesible.

La mayoría de los formatos de vídeo requieren magnetoscopios específicos para su reproducción. Estos equipos ya no se fabrican y la cantidad de unidades en funcionamiento es cada vez menor.

› Cabezales de reproducción casi extintos.

Los cabezales de vídeo son una parte crítica de los magnetoscopios y su producción ha cesado. Actualmente, muchos equipos operan con cabezales reacondicionados o extraídos de otras máquinas. La escasez de estos componentes representa una amenaza directa para la reproducción de material audiovisual.

› Piezas de repuesto cada vez más costosas y escasas.

Para mantener los equipos en funcionamiento, las piezas deben extraerse de otras máquinas en desuso, lo que reduce drásticamente la disponibilidad y eleva los costos.

2. Deterioro del material

› Las cintas magnéticas tienen una vida útil limitada. Factores como humedad, calor, polvo y desgaste afectan su estabilidad, provocando pérdidas de señal, imágenes distorsionadas e incluso la imposibilidad de reproducción.

› El “síndrome del vinagre” y la descomposición de los polímeros afectan ciertas cintas, haciéndolas frágiles e inutilizables con el tiempo.

› El polvo y otros contaminantes pueden dañar la superficie de la cinta, afectando la calidad de la imagen y el sonido.

› Problemas como el “sticky-shed syndrome” hacen que la cinta se adhiera a los cabezales del magnetoscopio, impidiendo la reproducción sin tratamientos específicos.

3. Pérdida de conocimiento técnico

› La digitalización de cintas es un proceso altamente especializado. La falta de técnicos y especialistas capacitados agrava el problema, ya que muchos de los profesionales que trabajaron con estas tecnologías se están retirando sin un relevo generacional suficiente.

› Algunas tecnologías datan de los años 60 y 70, lo que hace que su mantenimiento y uso sean cada vez más difíciles.

› La falta de estándares en digitalización y catalogación genera inconsistencias en la gestión de los archivos.

4. Aumento de los costos

› Los equipos en funcionamiento son cada vez más costosos.

La escasez de repuestos y técnicos especializados encarece el proceso de digitalización.

› La digitalización en masa se está volviendo económicamente inviable.

En poco tiempo, los costos harán que muchas organizaciones abandonen la idea de preservar sus archivos.

5. Problemas de estandarización y metadatos

› Existen inconsistencias en los estándares de digitalización y preservación, lo que dificulta la organización y recuperación de archivos digitalizados.

› La falta de metadatos adecuados complica la identificación y catalogación de los contenidos digitalizados, generando una carga operativa adicional.

Formatos en mayor riesgo

TSA junto a Memnon han categorizado los formatos según la dificultad de preservación, tomando en cuenta la disponibilidad de equipos, la degradación de la cinta y la viabilidad de reproducción.

Los formatos con dificultad crítica para su preservación incluyen los formatos profesionales y Broadcast:

› D2, D3, D1, MII, 2” Quadruplex, EIAJ

› MiniDV, HDV, VHS, U-Matic, HDCAM SR, Digital Betacam, Betacam SP

› DAT, ADAT, F1, cassettes de audio compactos, discos ópticos

CD/DVD, cintas LTO

Estos formatos serán imposibles de recuperar en un futuro cercano si no se digitalizan a tiempo.

¿Cuánto tiempo queda?

Según estas compañías, quedan menos de 10 años para digitalizar cintas antes de que sea económicamente inviable. En algunos formatos, como D2, U-Matic o MiniDV,

la ventana de tiempo podría cerrarse en menos de cinco años.

Algunos broadcasters están intentando digitalizar sus archivos poco a poco y por su cuenta, al ritmo actual simplemente no lo lograrán a tiempo. Los recursos limitados y la complejidad técnica hacen que este proceso sea inabarcable sin el apoyo de especialistas. Solo las empresas con infraestructuras optimizadas tienen la capacidad de gestionar estos volúmenes masivos en el poco tiempo que queda antes de que la digitalización sea imposible.

Además, los estudios muestran que muchas instituciones no han destinado los recursos necesarios para digitalizar sus archivos. Si esta tendencia continúa, es probable que un gran porcentaje de contenido audiovisual se pierda para siempre.

El punto de no retorno: los cabezales desaparecen, sin solución.

La situación ha alcanzado un punto crítico. La última empresa que reciclaba cabezales de vídeo ha anunciado recientemente que cesará su producción, lo que significa que una vez que se agoten los repuestos existentes, no habrá forma de reemplazarlos. Se están explorando posibles alternativas, pero a día de hoy no tienen una solución viable. Esto deja al sector en una cuenta regresiva irreversible: cuando los cabezales actuales fallen, las cintas quedarán definitivamente inaccesibles.

El papel de la inteligencia artificial en la digitalización

La inteligencia artificial (IA) puede jugar un papel clave en la preservación de estos contenidos, optimizando procesos y mejorando la calidad del material digitalizado.

Soluciones como TSA Media HUB pueden ayudar a procesar todos los contenidos digitalizados en una solución temporal que apoye en:

Generación de metadatos

› La IA puede analizar y etiquetar automáticamente contenido, identificando rostros, objetos y transcribiendo diálogos.

› Esto facilita la búsqueda y organización de grandes volúmenes de contenido digitalizado.

Mejora de calidad

› La IA puede escalar vídeos desde definición estándar hasta 4K u 8K, mejorando la nitidez y reduciendo el ruido original.

› Herramientas avanzadas permiten corregir colores, estabilizar imágenes y eliminar artefactos.

Restauración automática

› Algoritmos de IA pueden reconstruir detalles perdidos, eliminando ruidos e imperfecciones en vídeos deteriorados.

› Se pueden corregir problemas de sincronización y reconstrucción de fotogramas dañados.

Automatización del proceso

› La IA permite detectar y corregir errores automáticamente, reduciendo la necesidad de intervención humana.

› Puede clasificar cintas por contenido, ayudando a organizar archivos de forma eficiente.

La mayoría de los formatos de vídeo requieren magnetoscopios específicos para su reproducción. Estos equipos ya no se fabrican y la cantidad de unidades en funcionamiento es cada vez menor.

Procesamiento y almacenamiento

› TSA Media HUB permite a las empresas procesar y mejorar sus archivos digitalizados con servicios temporales de IA, asegurando que el contenido tenga la mejor calidad antes de ser archivado definitivamente.

› Puede integrarse con cualquier MAM existente o, en algunos casos, sustituirlo por completo, ofreciendo una solución final para empresas que no cuentan con un sistema de gestión de medios previo, como en sectores corporativos y empresariales que no pertenecen a la industria tradicional de medios o televisión.

Por ejemplo, modelos de machine learning como las redes neuronales convolucionales (CNN) analizan fotogramas deteriorados para reconstruir detalles perdidos, interpolando información entre imágenes y corrigiendo artefactos mediante patrones aprendidos de bases de datos de alta calidad.

Existen inconsistencias en los estándares de digitalización y preservación, lo que dificulta la organización y recuperación de archivos digitalizados.

Soluciones

y recomendaciones

Ante este escenario, es imprescindible actuar de inmediato. Algunas medidas recomendadas son: Digitalizar cuanto antes.

No esperar a que los equipos fallen o las cintas se degraden. Convertir el contenido a formatos digitales sin compresión o de alta calidad, como ProRes o DNxHD.

Herramientas como GANs (Generative Adversarial Networks) permiten generar contenido faltante —como bordes de cuadros dañados— con un realismo antes imposible.

Además, algoritmos de procesamiento de lenguaje natural (NLP) transcriben y sincronizan diálogos automáticamente, incluso en grabaciones con ruido de fondo, mientras sistemas de deep learning identifican y corrigen decoloraciones capa por capa, imitando el comportamiento químico de las emulsiones originales.

Estas tecnologías no solo restauran: transforman archivos obsoletos en material listo para plataformas 4K o metaversos, democratizando el acceso a la historia con una precisión que supera los métodos manuales. Sin embargo, su éxito depende de la calidad del material fuente digitalizado —cuanto antes se actúe, mayor será el potencial de reconstrucción—, lo que subraya aún más la urgencia de este rescate técnico.

Además, maximizan el valor de los archivos digitalizados, haciéndolos más atractivos para su explotación comercial en nuevos formatos y plataformas.

No solo se están agotando los equipos, sino también la capacidad de digitalización.

Según datos recientes, la demanda de servicios de digitalización ha crecido exponencialmente. En los últimos 21 años se han digitalizado 5 millones de horas de contenido, pero solo en los próximos 18 meses se espera la conversión de 1,25 millones de horas adicionales, y la lista de espera ya alcanza 7 millones de horas más. A este ritmo, la capacidad de digitalización se agotará en menos de una década, y aquellos archivos que no hayan sido migrados a tiempo podrían quedar excluidos del proceso. Además, la creciente demanda podría encarecer los costos del servicio, lo que hace aún más estratégico invertir en digitalización cuanto antes.

Una vez digitalizado, el archivo debe protegerse adecuadamente.

No basta con convertir el contenido a un formato digital; es esencial contar con copias de seguridad redundantes en diferentes ubicaciones. Se recomienda almacenar los archivos en servidores en la nube (privada, pública o híbrida), sistemas de

almacenamiento de alta durabilidad para evitar la pérdida de información por fallos técnicos o incidentes inesperados. La historia digitalizada es un activo valioso, pero solo si se conserva con un enfoque estratégico de preservación a largo plazo.

¿Por qué importa la preservación audiovisual?

Más allá del valor técnico y operativo de digitalizar cintas de vídeo, la preservación de estos archivos es un deber cultural e histórico. A lo largo del siglo XX y principios del XXI, el vídeo ha sido un medio fundamental para documentar:

› Momentos históricos: declaraciones políticas, eventos deportivos, guerras, crisis económicas y revoluciones han quedado registrados en formatos que hoy están en riesgo de desaparecer.

› Memoria colectiva: desde los noticieros hasta las producciones cinematográficas y televisivas, estos materiales forman parte de la identidad de las sociedades.

› Patrimonio artístico: obras de teatro grabadas, videoclips musicales, cine independiente y documentales han sido preservados en cintas que podrían perderse si no se actúa a tiempo.

› Recuerdos personales y familiares: más allá del ámbito institucional, miles de familias tienen en formatos como VHS, Hi8 o MiniDV sus recuerdos más valiosos, desde bodas hasta los primeros pasos de sus hijos.

Si estos materiales se pierden, se borra una parte irrecuperable de la historia.

La inteligencia artificial (IA) puede jugar un papel clave en la preservación de estos contenidos, optimizando procesos y mejorando la calidad del material digitalizado.

Una responsabilidad histórica: los gobiernos no pueden mirar hacia otro lado

El reto no es solo tecnológico o empresarial: es un deber patrimonial y cultural. Los gobiernos y organismos públicos tienen una responsabilidad directa en la preservación de los archivos audiovisuales, especialmente en los contenidos históricos, informativos y culturales de televisiones públicas y organismos estatales. Si no se toman medidas inmediatas, se estará condenando a la desaparición de décadas de memoria colectiva, privando a futuras generaciones del acceso a su propio pasado. No actuar equivale a perder para siempre una parte fundamental de la historia.

El valor económico de la digitalización

La digitalización no solo preserva la historia, sino que también puede convertirse en una fuente de ingresos:

1. Licenciamiento de contenido Empresas pueden vender secuencias de vídeo para documentales, películas y reportajes.

2. Creación de plataformas de streaming de archivo

Algunas instituciones ofrecen acceso a su contenido bajo modelos de suscripción o pago por visionado.

3. Uso en marketing y redes sociales

Clips históricos pueden reutilizarse en campañas publicitarias y contenido digital.

4. Producción de versiones restauradas y remasterizadas

Mediante IA, los archivos pueden ser mejorados y vendidos en Blu-ray o plataformas de streaming.

5. Aplicación en empresas corporativas

La digitalización permite organizar registros históricos, mejorar la formación interna y fortalecer la identidad corporativa.

El momento de actuar es ahora. Cada día que pasa, más archivos audiovisuales se degradan irreversiblemente y más equipos de reproducción dejan de estar operativos. Instituciones, medios de comunicación y empresas deben priorizar la digitalización de sus archivos, asignando recursos adecuados antes de que la pérdida sea definitiva.

Una digitalización eficiente puede transformar archivos históricos en activos valiosos para el futuro. Casos como la preservación del archivo histórico de los centros territoriales de RTVE, realizada por TSA y Memnon, muestran que, con la tecnología adecuada y una estrategia bien definida, aún es posible salvar décadas de historia audiovisual.

No se trata solo de conservar el pasado, sino de construir el futuro. La digitalización es la única forma de garantizar que la memoria audiovisual continúe viva y accesible para las próximas generaciones.

Empresas y entidades que aún no han comenzado este proceso deben actuar ahora: retrasarlo puede significar perderlo todo.

La historia no espera, y el tiempo para salvarla se está agotando.

Conceptos técnicos clave en la digitalización

Para entender mejor los desafíos de la digitalización de vídeo, es importante conocer algunos términos técnicos fundamentales:

› Magnetoscopio (VTR - Video Tape Recorder): dispositivo que permite reproducir y grabar cintas de vídeo en formatos como Betacam, U-Matic, VHS, MiniDV, entre otros. Estos equipos ya no se fabrican y son cada vez más difíciles de encontrar en buen estado.

› Cabezales de vídeo: domponente crítico de los magnetoscopios que permite leer y escribir en las cintas. Con el uso, se desgastan y dejan de funcionar, haciendo imposible la reproducción del contenido.

› Síndrome del vinagre: deterioro químico de las cintas de acetato que genera un fuerte olor a vinagre y hace que el material se vuelva quebradizo e inutilizable.

› Sticky-Shed Syndrome: problema en las cintas magnéticas donde

la capa de óxido se degrada y se vuelve pegajosa, adhiriéndose a los cabezales del VTR y haciendo imposible la reproducción.

› Codec: programa que comprime y descomprime archivos de vídeo digital. Algunos formatos

comunes en digitalización son ProRes, DNxHD y H.264.

› MAM (Media Asset Management): sistema de gestión de archivos digitales que permite organizar y acceder a contenido audiovisual de forma eficiente

Eficiencia, flexibilidad, planificación, seguridad e innovación: claves de la producción remota

Guía para no perderse sobre el origen y los pilares principales que sustentan estos nuevos modelos que están revolucionando la producción audiovisual

Por Carlos Medina, asesor en Tecnología Audiovisual

El sector audiovisual tiene como misión principal ofrecer contenidos audiovisuales para comercializar en función de unos objetivos concretos como pueden ser: divertir, entretener, informar, educar o elaborar un bien cultural. Es un sector muy condicionado por los intereses empresariales, los factores económicos, el contexto social, el talento, la creatividad y el desarrollo tecnológico.

Este listado de condicionantes ha marcado el devenir de cada una de las decisiones que se toman en las diferentes áreas/departamentos del audiovisual para dar calidad creativa y técnica. Estamos hablando de lo que implica hacer un largometraje, un concierto de música, una retransmisión deportiva, un espectáculo de visuales/mapping, entre otros.

Por tanto, para entender un poco más de lo que vamos a hablar en este artículo, tenemos que entender la palabra “producción”. Nos estamos refiriendo a un concepto superior, no a un simple departamento compuesto por profesionales especializados en la producción y gestión (productor, coproductor, productor ejecutivo, productor delegado, ayudante de producción…); y a un proceso más complejo que una secuencia de fases en la elaboración de un producto audiovisual.

Hablamos de “producción”, bajo un prisma económico-productivo, como el proceso en el cual se usan los recursos disponibles y las materias primas para crear bienes y servicios con un valor añadido, combinando factores como trabajo, capital y recursos. La “producción” como sinónimo de creación, elaboración y/o fabricación.

En los últimos años se habla de distintos modos de producción audiovisual, que es necesario clarificarlos y que coexisten en plena competencia. Estos son:

1- Producción in situ/on site: este tipo de producción significa que es necesario una sede física (real) que aglutina a todo el personal y equipamiento técnico. Es la producción más tradicional y con la que más experiencia se cuenta. Tanto el personal artístico (presentadores, cantantes, speakers, conferenciante, ponente,…) como el técnico (producción, organizadores, imagen, iluminación y sonido) tienen que estar físicamente en el lugar, tanto para desarrollar el contenido de la producción, como para el manejo de los equipos y tecnologías necesarias. Supone trabajar en un instalación perfectamente constituida para hacer contenido audiovisual: un estudio de TV (control room + plato TV) y un control central de una emisión.

2- Producción a distancia: este tipo de producción supone que desplazamos equipos especializados al lugar donde se desarrolla el contenido, fuera del entorno de un estudio TV tradicional. Esto implica una integración de señales y una comunicación entre ambos entornos: el desplazamiento de una OB Trucks, Vans & Fly Packs y el control central de emisión propio de una TV. También se conoce como producción distribuida.

3- Producción automatizada/asistida: este caso simplemente significa que algunas facetas o procesos son programados con la intervención de las máquinas, de una forma autónoma, a través de protocolos aprendidos e inteligencia artificial (IA). Por tanto, es una mejora en los flujos de trabajo que afecta solamente a los procesos técnicos en la gestión de los contenidos audiovisuales hacia la simplificación. La cobertura de los Juegos Olímpicos de 2021 se convirtió en una de las producciones REMI más importantes en la historia reciente, siendo un hito en su escala y sofisticación

4- Producción remota/off site: este modo de producción da como resultado un contenido audiovisual desde el trabajo y la toma de decisiones en otras sedes distanciadas e independientes del lugar donde esté el contenido a producir. Es la producción más actual y que mayor crecimiento está desarrollando.

El máximo nivel de este modo es una producción remota total - REMI (Remote Integration Model), también conocido como una producción centralizada.

5- Producción híbrida: es la combinación de una producción in situ y una producción off site para dar como resultado un contenido audiovisual. Es decir, es necesario tanto trasladar un equipo humano y equipamiento técnico reducido al lugar donde está el contenido audiovisual, como la existencia de una instalación base donde se toman

decisiones y se pueden hacer operaciones técnicas remotas.

6- Producción virtual/on line: quizá más futuro que presente, es un modo de producción donde no hay nada físico. Nos basamos en un entorno completamente creado y generado (realista o imaginado) con herramientas, aplicaciones y dispositivos técnicos bajo el control en redes locales y globales. También está suponiendo cambios e innovaciones en la forma de consumir y participar de los contenidos por parte de los espectadores/usuarios/público.

Pero, siendo más realistas y en el momento actual, la producción virtual (PV) se entiende como el modo de elaborar material y contenido audiovisual bajo dos únicas premisas: la tecnología digital como elemento dinamizador del proceso en todas las fases existentes del

audiovisual y la realización del trabajo en tiempo real. Me remito al artículo publicado en TM BROADCAST “Producción Virtual en Broadcast” (Nº 183enero 2025).

Esta variedad y diversificación de modos de producción como un proceso de elaboración global surgen por tres razones principales de distinta procedencia:

› Covid.19. La crisis sanitaria de la covid-19 provocó la inmovilización de las personas en su vida diaria y afectó de forma significativa en las dinámicas del entorno laboral. Fue la implementación global del teletrabajo o de soluciones técnicas a distancia. En el caso del sector audiovisual, supuso trabajar con equipos técnicos muy reducidos en el ámbito broadcast, o incluso, que el personal técnico pudiera desempeñar sus funciones desde sus propios hogares.

En junio del 2020, la revista TM BROADCAST organizó un desayuno informativo titulado “Producción remota sobre IP”, con la presencia de algunos de los agentes más significativos sobre este tema, siendo visionarios de lo que en los siguientes años iba a suceder.

› Contenidos live (en riguroso directo). Sin duda, los directos se han convertido en el motor actual del audiovisual para ofrecer nuevas experiencias al espectador y donde la maquinaria audiovisual alcanza grandes dosis de espectáculo en imágenes, videos, proyección, sonidos e iluminación.

› Innovaciones tecnológicas. Las empresas I+D en nuevas tecnologías, junto con las decisiones tomadas por los diferentes

gobiernos, hacen que se vayan implantando nuevos protocolos de comunicación y producción de contenidos audiovisuales, como la TDT, el desarrollo de la IP o las novedades del 5G.

Desde este gran enfoque, la producción audiovisual actual se ha encaminado hacia la producción remota o aquello que aglutina el acrónimo en inglés REMI (Remote Integration Model). Nuevos métodos de producción a favor de obtener un master de emisión o master final en el argot audiovisual.

En la actualidad, la combinación de la producción REMI y la producción híbrida es lo que mejor se adapta a la realidad para producir contenidos audiovisuales. Por tanto, hay algo de presencial y bastante de remoto. Por ejemplo, la cobertura

de los Juegos Olímpicos de Tokio 2020 (realizados en 2021) por parte de la Olympic Broadcasting Services (OBS).

Este evento deportivo de ámbito mundial se ha convertido en una de las producciones REMI más importantes en la historia reciente, siendo un hito en la escala y sofisticación de la producción remota para televisión:

› OBS implementó una infraestructura REMI masiva que permitió producir más de 9.500 horas de contenido.

› Gran parte de la realización, mezcla de señales, edición, subtitulado y control de calidad se realizó desde el International Broadcast Centre (IBC) y desde centros remotos ubicados en otros países.

En España, destacamos en el año 2022 la producción remota en retransmisiones deportivas del partido de la UEFA Champions League del Real Madrid, producido por Telefónica Servicios Audiovisuales (TSA). En este caso, el partido de fútbol se disputó en el estadio Santiago Bernabéu, donde se instalaron las cámaras y los equipos de captación, siendo la realización multicámara, llevada a cabo de forma remota desde las instalaciones de Telefónica en Tres Cantos, a más de 30 km del estadio.

¿Cómo es posible? ¿Qué hay que tener en cuenta en una REMI desde el punto de vista técnico?

› Tecnología y dispositivos de captación de imagen y sonido: esto implica tener cámaras (con operador, remoteadas, por ejemplo cámaras PTZ, y/o robotizadas) y disponer de microfonía. Sin olvidarnos del equipamiento propio de iluminación.

En circunstancias concretas y bajo un presupuesto elevado se suele disponer de una Unidad Móvil de Producción (UMP) dotada con tecnología precisa para hacer un multicámara en Live (directo).

Fundamental que los equipos funcionen bajo conexiones profesionales (SDI; IP), protocolos estándares (DANTE, NDI, DMX512, ART-NET…) y encoders/decoders seguros (LiveU, TVU, Haivision, Kiloview).

› Sistemas de interconexionado e intercomunicación. Se pueden utilizar plataformas seguras de videoconferencia y streaming,

permitiendo una coordinación efectiva sin presencia física y en tiempo real.

Dependiendo de las necesidades y presupuesto, las opciones de conexión varían:

• Fibra punto a punto: Ideal para garantizar la máxima calidad, aunque con un coste más elevado.

• FTTH: Conexiones de fibra óptica convencionales con o sin priorización del tráfico, que ofrecen una buena relación calidad-precio.

• 4G/5G: Equipos móviles como mochilas de transmisión inalámbrica que permiten flexibilidad y menores costes, compatibles con satélite, WiFi o internet.

• DSNG (Digital Satellite News Gathering).

Es muy significativo establecer redes de comunicación e intercambio que soporten SRT, RTMP/ RTSP, NDI/NDI Bridge, Free-D, entre otros.

Una pieza fundamental en toda producción REMI es la comunicación y coordinación interna entre técnicos del audiovisual (Intercom IP), por ejemplo: ClearCom, Unity Intercom, Riedel, entre otros.

› Sistemas de realización multicámara de control remoto, como: mezclador de vídeo, mesas de audio, sistemas de monitoreado con multiviewer, unidades de control de cámara (CCU) y alguna aplicación Replay para grabaciones y repeticiones (EVS XT, Slomo.TV).

Es muy frecuente trabajar con software de producción remota como vMix, OBS, Vizrt, etc.

› Nuevos paradigmas computacionales, como la computación en la niebla (Fog Computing), la computación en el borde (Edge Computing), la computación en la nube (Cloud Computing) y la cadena de bloques (BlockChain) permitiendo el acceso remoto a las aplicaciones de realización, monitorado, compartir datos de manera confiable y escalable, mayor personalización, mejorar la calidad de la transmisión y reducir la latencia o ampliación de la transmisión de contenido en vivo en redes sociales y plataformas de vídeo en línea.

Algunos ejemplos de infraestructura Cloud o centro de datos: AWS MediaLive/MediaConnect; Google Cloud Video AI/Transcoder; Microsoft Azure Media Services; plataformas de colaboración en la nube (Sony Ci, LucidLink).

La producción audiovisual actual se ha encaminado hacia la producción remota o aquello que aglutina el acrónimo en inglés REMI (Remote Integration Model)

› Automatización IA y Deep Learning. En algunos trabajos se están implantando de una forma sencilla para asignaciones de pautas de realización automático basado en reglas y plantillas

pre-establecidas, posiciones y seguimientos de enfoque y movimiento inteligente en las cámaras, funciones de subtitulado automático y/o el doblaje en varios idiomas, generar grafismos en tiempo real, entre otros.

› Distribución y Salida: CDN (Content Delivery Network): Akamai, CloudFront, Fastly; Plataformas de streaming: YouTube, Twitch, Facebook Live; Señales Broadcast (HLS, MPEG-TS, DVB).

Es fácil observar que una REMI permite realizar o producir un contenido audiovisual desde un lugar distinto al de su ejecución física. Por tanto, a la experiencia de una producción in situ y/o una producción a distancia, que supone el hecho de llevar equipamiento audiovisual y retransmitir un contenido, se suma la novedad, es el cómo se produce en una producción remota (REMI).

El mayor éxito y cabida que está teniendo la producción remota es la generación de contenido audiovisual en directo, mediante una retransmisión de los contenidos por la transferencia del audio y vídeo a una ubicación centralizada, desde la cual se controlan de forma remota las cámaras de vídeo, los equipos, las diferentes señales y la comunicación in situ.

Una producción REMI es una solución que utiliza nuevas técnicas, permitiendo una serie de beneficios y adaptaciones en las dinámicas de trabajo en el sector audiovisual como:

› Reducción de costes y desplazamientos: minimiza la necesidad de trasladar personal y equipos al lugar del evento.

› Eficiencia operativa: permite una realización más ágil y flexible reduciendo tiempos.

› Optimización del personal: requiere menos personal técnico sobre el terreno.

› Centralizar operaciones y optimizar recursos.

› Sostenibilidad y disminución de la huella de carbono en el audiovisual.

› Mayor adaptabilidad y escalabilidad hacia diferentes contenidos audiovisuales.

› Flexibilidad y diversidad en los flujos de trabajo: desde los entornos tradicionales físicos hasta recursos en la nube.

› Solución ideal para contenidos con realidad virtual (RV), aumentada (RA) y mixta (RM).

y Juegos Olímpicos. Ofrece producción desde sus centros globales o en la nube.

› Grass Valley: proveedor de equipos de realización y software para REMI. Su plataforma GV AMPP (Agile Media Processing Platform) permite realizar producciones 100% en la nube. Muy usado por cadenas como CBS Sports, Eurosport y Sky.

› Sony: desarrolló soluciones IP Live Production. Cámaras, mezcladores, servidores y sistemas integrados con capacidad para producción remota. Destacamos sus mezcladores XVS, utilizando los conjuntos de herramientas virtuales disponibles, como Virtual Menu, Virtual Panel y Virtual ShotBox. Ha colaborado con OBS y cadenas como NHK y BBC.

› Panasonic: su solución KAIROS es totalmente compatible con señales de banda base e IP, como SDI, ST 2110 y NDI, en cualquier combinación sin conversión externa. Como sistema IP nativo, KAIROS también admite la sincronización PTP (Protocolo de Tiempo de Precisión) y es ideal para la producción de vídeo remota en un entorno completamente basado en IP.

En la actualidad, la combinación de la producción REMI y la producción híbrida es lo que mejor se adapta a la realidad para producir contenidos audiovisuales

El desarrollo y la innovación de grandes empresas y proveedoras de tecnología REMI en TV están dotando de confianza al sector para seguir apostando por los LIVE y la producción remota. Por ejemplo:

› NEP Group: uno de los líderes mundiales en soluciones de producción remota. Ha implementado grandes operaciones REMI para eventos como NFL, NBA

› Vizrt: conocida por su software de gráficos en tiempo real, también ha desarrollado plataformas de control remoto para la nube. Viz Vectar y Viz Engine se integran en flujos de trabajo REMI.

› LiveU: especialistas en transmisión de video en directo sobre redes móviles (4G/5G). Muy usada en producciones deportivas

y noticieros en REMI. Solución popular por su portabilidad y facilidad de uso.

› TVU Networks: ofrece herramientas para producción remota, como cámaras, switches virtuales, control de gráficos y comunicación IP. TVU Producer y TVU RPS (Remote Production System) son muy usados por medios de América Latina y Asia.

› AWS (Amazon Web Services): su plataforma de servicios en la nube es la base para muchas producciones REMI modernas. Proporciona capacidad de procesamiento, almacenamiento, edición y distribución en la nube.

› Ross: con su tecnología Ross Production Cloud y Remote Production (REMI).

› TSA (Telefónica Servicios Audiovisuales): en España, ha sido pionera en aplicar REMI con fibra y redes IP, incluso en partidos de Champions League.

› VMIX: es una solución completa de software para producción y transmisión de video en vivo.

Crea, mezcla, conmuta, graba y transmite en vivo producciones profesionales en una PC o portátil con Windows. Soporte para entradas que incluyen cámaras, cámaras IP, archivos de video, imágenes, NDI , SRT, conjuntos virtuales, títulos, audio, reproducción instantánea , videollamadas, reuniones de Zoom y mucho más.

› Nevion Virtuoso: es un nodo de medios definido por software, listo para virtualización y basado en estándares que puede realizar una variedad de funciones en tiempo real para una amplia gama de aplicaciones, incluidas la contribución de IP y el transporte de medios de área amplia, instalaciones de producción de IP y redes LAN/WAN convergentes para producción remota y distribuida. Es un componente clave de Networked Live.

› Matrox Video: los decodificadores Monarch EDGE ofrecen nuevos flujos de trabajo de producción remota 4K en redes públicas.

El mayor éxito que está teniendo la producción remota es en la generación de contenido audiovisual en directo

AIMS (Alianza para Soluciones de Medios IP); AMWA (Asociación de Flujo de Trabajo de Medios Avanzados); UER (Unión Europea de Radiodifusión); JTNM (Grupo de trabajo conjunto sobre medios en red); SMPTE (Sociedad de Ingenieros de Cine y Televisión) o VSF (Foro de servicios de vídeo) son agentes imprescindibles para que las innovaciones tecnológicos y los flujos de trabajo sean profesionales cumpliendo con acuerdos globales como IP, SMPTE 2110, JPEG XS, AES67, MADI, SMPTE 2022-2, SMPTE 2022-6, SMPTE 2022-7, PTP, JPEG 2000, TICO, AES67, FEC…

Cada una de estas soluciones e innovaciones participan bajo la eficiencia, flexibilidad, planificación estratégica, seguridad e innovación tecnológica dentro del flujo de trabajo específico de una producción REMI.

Solo o en equipo: Canon C80

El desarrollo y la innovación en las cámaras de video/cine profesionales está viviendo un constante avance hacia lo más novedoso.

Esto permite a los distintos usuarios disponer de equipos de captación de un alto nivel técnico y creativo en plazos de tiempo muy cortos.

Laboratorio realizado por Carlos Medina, asesor en tecnología audiovisual y cámaras

Los distintos fabricantes de cámaras han entrado en una intensa competencia buscando soluciones de un gran nivel y con unos precios muy ajustados. Canon Inc., compañía japonesa (1937) con sede principal en Tokio, lleva mucho tiempo como referencia mundial de los productos que oferta, tanto al sector audiovisual amateur, como profesional (Broadcast/Cinema).

Tenemos que destacar su serie de producto denominada EOS CINEMA, con la que lleva presentando al mercado audiovisual un modelo de cámara año tras año: EOS C300 (2011); EOS C500 (2012); EOS C700 (2017); EOS C300 Mark III (2020); EOS R5C (2022), entre otras. Seguramente algunas son ya muy conocidas por

nuestros lectores y los operadores de cámara que están trabajando en el sector, dado que ofrecen soluciones muy acertadas a las necesidades de sus clientes.

En la actualidad, no podía ser de otra manera, Canon sigue presentando un nuevo modelo: EOS C80, que está disponible desde noviembre de 2024.

Hemos tardado en poder tener en nuestras manos este modelo, pero tenemos que señalar que nos ha dado una muy buena sensación desde que lo sacamos de su maleta de transporte. Es compacto y plenamente autónomo (es decir, permite grabaciones y reproducciones de media sin ningún tipo de accesorio extra).

En principio, recuerda a una cámara de fotografía pero, según la vas observando y conociendo sus prestaciones, te va conquistando para realizar trabajos en video Broadcast (monocámara-multicámara), trabajos de filmmaker o para el ámbito del cine.

Canon EOS C80 tiene un cuerpo de cámara bastante ergonómico gracias a su empuñadura y correa integrada, a la posibilidad de colocar un asa superior (con zapata y soporte del micrófono) y a un diseño muy acertado en la colocación de los botones de menú, los diales de control y/o por la incorporación de un nuevo mini-joystick de navegación (en la parte trasera).

Con unas dimensiones de aproximadamente 6.3 x 5.4 x 4.5 pulgadas (160 x 138 x 116 mm) y un peso corporal principal aproximado de 1.3 Kg, nos ha sorprendido el buen aprovechamiento de todas las áreas y partes en el cuerpo de cámara, por lo que está plenamente justificado su tamaño.

Veamos con más detalle algunas de las opciones externas de la cámara:

› Interruptor POWER. Situado en la parte superior, está la función de ON CAMARA, OFF y bloqueo de controles.

› Botón de REC/DISPARO: también en la parte superior (encima de la empuñadura).

› Botón de CAMARA/MEDIA: cuando la cámara esté encendida, al presionar este botón se alterna la cámara entre el modo CAMERA (grabación) y el modo MEDIA (reproducción y gestión de las grabaciones).

› Botón de SLOT SELECT: nos permite hacer la selección entre las dos ranuras de tarjeta (A-B) que tiene esta cámara. Podemos trabajar con varios tipos de tarjetas: SD, SDHC y SDXC; con la clase de velocidad UHS (Ultra-High Speed): U3; y la clase de velocidad de video (Video Speed Class): V30, V60 y V90.

› Gancho para cinta métrica y marca de plano focal.

› Botones (+/-) de acceso directo a ND filter. Se puede seleccionar uno de los tres niveles de densidad ND y si se activa la gama ND

ampliada se puede seleccionar uno de los cinco niveles de densidad. En definitiva, este modelo tiene una amplia gama de filtro ND, que permite un mejor control de la exposición adaptable a distintas condiciones de iluminación: desde ND no activado hasta ND10 stops.

› Botones de acceso personalizables. Un total de 13 botones donde se pueden asignar 73 funciones. Desde las más básicas: WB, Balance de Blancos Personalizable, Peaking, Monitor de forma de Onda-WFM, Zebra, DISP, AF Lock, AUTO IRIS, AUDIO STATUS…; hasta las más precisas: marco de enfoque automático, modos de seguimiento, modo de ISO/Ganancia, estabilización IS óptico; transmisión IP, marcadores en pantalla, selección de ranuras de tarjetas, botón de REC…

› Diales de control. El cuerpo de cámara incorpora dos: uno frontal y otro posterior. También un nuevo mini-joystick de navegación en la parte trasera.

› Área de Audio: al abrir el monitor LCD se descubre esta área: interruptor de Input 1/Input 2 -LINE/ MIC/MIC + 48V-; selector de nivel de entrada de audio CH1 y C2 y un selector de audio Manual o AUTO.

› Área de Conectividad: situado principalmente en el lado izquierdo del cuerpo de cámara podemos encontrar un completo abanico de conexiones:

– Conector BNC con salida SDI Vídeo: HD: SMPTE 292; 3G:

SMPTE 424, SMPTE 425; 6G: SMPTE ST 2081; 12G: SMPTE ST 2082. Audio: SMPTE ST 299-1, SMPTE ST 299-2.

– Conectores mini-XLR 3 para Input audio 1 y 2.

– Conector miniclavija estéreo 3,5 mm para input MIC (micrófonos de condensador)/LINE (dispositivos de línea).

– Terminal USB Type-C™ equivalente a SuperSpeed USB (USB 3.1 Gen 1) para salida vídeo UVC.

– Terminal remote miniclavija estéreo submini 2,5 mm (para la conexión del controlador remoto RC-V100 o mandos a distancia disponibles).

– Conector HDMI salida video/ audio/TC.

– Terminal auriculares bajo una miniclavija estéreo 3,5 mm.

En otras partes del cuerpo de cámara están: un conector BNC para entrada/salida Time Code, un terminal Ethernet (conector RJ45, compatible con 1000BASE-T con cables CAT5e, par trenzado blindado -STP- ) y el terminal de corriente DC IN (24 V CC).

› Área de Menú: colocado en la parte trasera central compuesta por un boton de acesso directo al menú, un dial de navegación (SET) y una boton de cancelación.

› Otros: compartimiento para la batería de alimentación (modelo BP-A30N y BP-A60N, BP-A30 y BP-A60), anillo de montura para objetivos RF (con sus respectivos contactos de objetivo), orificios

para tornillos de trípode (1/4”) -en el lateral- y tornillos de trípode 1/4” y 3/8” junto con pasador antirotación de trípode -en la base del cuerpo de cámara-, doble ranura para tarjetas de almacenamiento/grabación, tally (verde/rojo), montura superior con tornillo 1/4”, zapata multifuncional y entrada (lateral)/salida (en la base) de ventilación de aire.

Y destacamos el monitor táctil LCD de 3,5 pulgadas que dispone de una resolución de la pantalla aproximada de 2,76 millones de puntos (1280 x RGB x 720) con funciones de selección táctil del punto de enfoque e interfaz de usuario táctil para los ajustes de disparo.

Pero no solo el exterior nos va a permitir dar respuesta a diferentes métodos de trabajo, manejo y/o configuración, sino que en el interior de la Canon EOS C80 descubrimos grandes prestaciones e innovaciones tecnológicas con el fin de ser una solución muy acertada para distintos entornos (filmmaker, video Broadcast, TV y eventos live multicamara, publicidad, cine…).

En primer lugar, tenemos un sensor CMOS (con rolling shutter) bajo una arquitectura de construcción BSI Apilado Full Frame (36,0 x 19,0 mm -40,7 mm en diagonal-) 6K (real: 26.67 Megapíxeles -6202 x 4300-;efectiva: 19.05 Megapíxeles -6008 x 3170-). La decisión de incorporar un sensor BSI (Back Side Illuminated) apilado nos ofrece varias ventajas: una mejor captura de la luz, menos ruido en ISOs altos, mejor rendimiento con bajas iluminaciones, imágenes más

nítidas y mejores colores, lectura de los datos mucho más rápida, una mejora en el enfoque automático, un correcto rendimiento de rolling shutter y un menor error en las grabaciones a cámara lenta. Todo un acierto en este modelo para posicionarse en el ámbito audiovisual con calidad broadcast y cinematográfica.

En segundo lugar, ESOS C80 dispone de un ISO triple base (800/3.200/12.800), lo que nos permite una optimización en condiciones de luz muy diferentes a la hora de la captación. Nuestras comprobaciones nos han dado un buen resultado con base 800 y 3.200 obteniendo imágenes muy limpias,

permitiendo un mayor rango dinámico y una mayor fidelidad del color.

En este sentido, la combinación del tipo de sensor, de las respuestas del ISO triple base y la posibilidad de trabajar con alguna curva tonal logarítmica, junto con parámetros de procesamiento de señal, hace que el rango dinámico de esta cámara podamos situarlo en 16 pasos (Canon Log 2: 1600 % a ISO 800) y 14 pasos (Canon Log 3: 1600 % a ISO 800).

Por otra parte, Canon no se olvida de las ópticas a la hora de poder obtener una imágenes de alta calidad, por lo que la EOS C80 viene con un sistema de montura RF, que

hace posible un rendimiento óptico inigualable, trabajar con metadatos de objetivos en tiempo real y con sistemas AF/IS con gran capacidad de respuesta. Además, incorporando un adaptador de montura de Canon podemos incorporar objetivos tipo EF, EF Cine y PL (compatibilidad con Cooke/i Technology™ y con objetivos anamórficos (x2,0/ x1,8/x1,3).

Otra de las innovaciones que incorpora esta cámara es el Dual Pixel CMOS AF II (segunda generación) con IA, tecnología de enfoque automático que usa cada píxel del sensor para enfocar y capturar imágenes al mismo tiempo. Junto con el algoritmo EOS iTR AFX que emplea “deep learning”, obtenemos un enfoque automático más rápido y actualizado, transiciones suaves de enfoque cuando cambias de un objeto a otro, un seguimiento de cara, ojos, cabeza, cuerpo y animales extremadamente preciso y con gran capacidad de respuesta de todo el sensor.

Todas estas novedades y aciertos por parte de Canon se materializan en una imagen resultante Cinema RAW Light de 12 bits de 6K (6.000 x 3.164 pixeles de 1 a 29.97 fps -553 a 639 Mb/s VBR) y de 4.368 x 2.304 pixeles (de 1 a 29.97 fps -678 Mb/s VBR).

Podemos destacar que esta cámara puede ofrecer: 6K a 30 fps en Cinema RAW Light LT; 4K DCI y UHD hasta 120 fps en modo Super35 y 2K hasta 180 fps para efectos de cámara lenta.

Sin olvidar que la combinación de la imagen captada por su sensor Full Frame 6K junto con un kit de ópticas profesionales y el procesamiento de la señal bajo los parametros de ajuste de exposición/colorimetria, se ven gratamente beneficiados por los modos de grabación que nos ofrece la EOS C80. El resultado son unos”brutos” de cámara excelentes para emisión, transmisión y/o procesos de postproducción:

› RAW LT (Full Frame) 12bit (6.000x3.164); Super 35mm (cortado) 12 bit (4.368x2.304)

› RAW ST (Super 35mm (cortado) 12 bit (4.368x2.304)

› XF-AVC YCC4:2:2 10 bit, intraframe (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› XF-AVC YCC4:2:2 10 bit, Long GOP (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› XF-HEVC S YCC4:2:2 10 bit, Long GOP (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› XF-HEVC S YCC4:2:0 10 bit, Long GOP (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› XF-AVC S YCC4:2:2 10 bit, intraframe (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› XF-AVC S YCC4:2:2 10 bit, Long GOP (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› XF-AVC S YCC4:2:0 8 bit, Long GOP (4096x2160, 3840x2160, 2048x1080, 1920x1080)

› Proxy: 4:2:0 10 bit, Long GOP (2048x1080, 1920x1080)

› Proxy: 4:2:0 8 bit, Long GOP (2048x1080, 1920x1080, 1280x720)

› Foto fija JPEG

En resumen, tenemos unos formatos de grabación profesionales con altas velocidades de grabación y con sus respectivos metadatos para distintos flujos de trabajo de VFX y producción virtual (PV).

Estas innovaciones y prestaciones de la EOS C80 nos permiten entrar de lleno en un flujo de trabajo optimizado y preparado para entornos profesionales que requieran 6K/4K. Así, en la grabación en tarjetas podemos filmar en 6K/4.3K (RAW - Cinema

RAW Light), 4K (XF-AVC / XF-HEVC S / XF-AVC S); 6K con una grabadora externa utilizando HDMI RAW o grabar en 4K conectada al terminal SDI OUT o HDMI OUT de la cámara.

Tambien, simultáneamente obtenemos clips proxy de 2K (XF-AVC / XF-HEVC S / XF-AVC S) en una tarjeta SD slot B.

La EOS C80 permite un flujo de trabajo usando ACES, el sistema de codificación de color definido por Academy of Motion Picture Arts and Sciences (Academia de Artes y Ciencias Cinematográficas), bien datos RAW en grabadora externa (HDMI RAW) o en tarjeta interna SD.

Debemos de reseñar la importancia de esta cámara a la hora de trabajar con curvas gamma logarítmicas y con los espacios de color: Canon Log 2/C.Gamut, Canon Log 3/C.Gamut, Canon Log 3/BT.2020, Canon Log 3/ BT.709, Canon 709/BT.709, BT.709 Wide DR/BT.709, BT.709 Standard/ BT.709, PQ/BT.2020/ITU-R BT.2100, HLG/BT.2020//ITU-R BT.2100. También, la entrada de LUT de usuario y archivos LooK (Look Files, compatible con archivos .cube de 17 o 33 cuadros) que pueden aplicarse en la grabación; y que en el modo CAMERA se pueden monitorizar en el LCD con la función de asistencia de visualización.

En relación a los menus de la EOS C80, tenemos que indicar que todos aquellos usuarios acostumbrados a los modelos anteriores de Canon van a seguir muy familizariados con cada una de las pestañas/submenús y parámetros a modificar. Explicamos el sistema de menús para los que van a conocer por primera vez la serie EOS:

› Configuración de cámara: por ejemplo, Iris, Obturador (de 1/1 a 1/2000), ISO (100, 160, 200, 400, 640 , 800, 1.600, 2.500, 3.200, 6.400, 12.800, 25.600, 51.200, 102.400), Ganancia (-6 dB, -3 dB, -2 dB~42 dB, 45 dB, 48 dB, 51 dB, 54 dB), ángulo de Obturación (11,25º a 360º, en función de la velocidad de fotogramas por segundo), medición de la luz, AWB, AF continuo, motivo de seguimiento de AF (personas/animales), detección de ojos/ cara/cabeza/cuerpo, Barras de Color (SMPTE, EBU, ARIB), estabilización óptica, entre otros.

› Custom Picture: nos permite elegir entre C1:Canon 709, C2:Canon Log 2, C3:Canon Log 3, C4:BT.709 Wide DR, C5:BT.709 Standard, C6:PQ, C7: HLG, C8:EOS Standard, C9:EOS Neutral y C10: User10 a C20: User20.

› Configuración soportes/grabación: la elección de los slot de tarjetas (A/B), el modo del sensor (Full Frame/Super 35mm cortado), la frecuencia del sistema (59.94 Hz, 50.00 Hz, 24.00 Hz), formato de grabación, modo de grabación (Grabación normal, Cám. lenta y rápida, Clip S&F/Audio -WAV-, Pregrabación -3 segundos-, Grabación Continua en tarjeta A Principal y en tarjeta B ininterrumpida, Grab. fotogramas, Intervalo de grabación), Grabación Proxy, Grabación secundaria, Grabación Relay, Grabación Doble ranura (A+B). También, la configuración de los metadatos y la configuración de HDMI (RAW y Time Code).

› Configuración de audio: la selección de la entrada de audio en CH1/CH2 y CH3/CH4, el nivel de grabación, el limitador Input, la configuración de la zapata multifuncional (shoe/inalámbrico), el tomo (1 kHz: –12 dB, –18 dB, –20 dB, Off), la configuración de auriculares, altavoz, canales de monitor y canales de HDMI OUT, entre otros parámetros.

› Configuración de monitores: brillo, contraste, color, nitidez, luminancia de la pantalla incorporada LCD, la salida de imagen B/N y visualización/configuración detallada de DISP en LCD, SDI y HDMI, incluyendo la función destacada de la ayuda de visualización, para las grabaciones que tengan aplicado un Custom Picture.

› Funciones de asistencia: muy importantes para la mejora en el control de la grabación como son: guía de enfoque, Peaking (LCD, SDI y HDMI), Color False, Zebra, WFM (LCD, SDI y HDMI), marcadro de la relación de aspecto (4:3, 13:9, 14:9, 16:9, 1.375:1, 1.66:1, 1.75:1, 1.85:1, 1.90:1, 2.35:1, 2.39:1, 9:16, 4:5,[2:1, 1:1, Custom) y marcador de área de seguridad, entre otros.

› Ajustes de red: hacen referencia a la activación y ajustes de los distintos modos de conexión: Transferencia FTP, Transmisión IP, Navegador remoto, App Canon, Protocolo XC, Protocolo CV, Frame.io.

› Botones personalizables.

› Configuración de sistema: desde la zona horaria, fecha y hora e idioma, hasta el terminal Remote, la señal de salida SDI (4096x2160P/3840x2160P, 2048x1080P/1920x1080P, 1920x1080P, 1920x1080i(PsF), 1280x720P), la señal de salida HDMI (4096x2160P/3840x2160P, 1920x1080P, 1920x1080i, 1280x720P), modo de Time Code (Preset/Regen), Time Code Run (Rec Run/FreeRun), Tipo de Bit de Usuario, la funcionalidad del selector díal frontal y trasero, el bloqueo de botones, el nivel de respuesta de la pantalla táctil; pasando por los ajustes del tally (lampara indicadora), el modo y velocidad del ventilador y el aviso de la DC IN (V), entre otros.

› Menús personalizado (Mi menú).

Canon sigue siendo referencia en el sector audiovisual, siempre busca la mayor de las compatibilidades para que sus productos tengan la mejor cabida entre los profesionales. Tiene compatibilidad con distintos softwares: Cinema RAW Development, XF Utility, EOS VR Utility, app control remoto de la cámara, complemento RAW para Avid Media Access y para Final Cut Pro, complemento XF para Avid Media Access, complemento EOS VR para Adobe Premiere Pro, complemento de metadatos de CV para Adobe After Effects, complemento Live Link para Unreal Engine, herramienta de extracción de metadatos de CV, MP4 Join Tool, HEVC Activator y Camera to Cloud de Frame.io.

Hemos tenido poco tiempo para poder probar todas y cada una de las posibilidades que ofrece EOS C80,

pero destacamos que Canon deja abierto un gran abanico de posibilidades y configuraciones para que los distintos operadores de cámara y directores de fotografía encuentren la mejor estética, textura y color en sus producciones audiovisuales.

Para finalizar, tenemos que agradecer al personal de Canon ESPAÑA por darnos la posibilidad de poder conocer y trabajar con la EOS C80, junto con una maleta de cuatro objetivos Canon CN-R, con los que hemos podido disfrutar del proceso y obtener unos resultados visuales óptimos.

Cuando sale una cámara o cualquier nuevo equipamiento tendemos a compararlo con lo que hay en el mercado, y no nos damos cuenta de que cada solución que aportan los fabricantes está diseñada para unas

necesidades y entornos concretos. La Canon EOS C80 tiene muy presente por donde pueden ir las tendencias, las tecnologías y los tipos de producciones audiovisuales que hay en la actualidad (a partir del 2024).

En definitiva, la cámara Canon C80 es una herramienta preparada para trabajar en muchos entornos profesionales (cine, tv, publicidad, documentales, eventos live…); pero sobre todo permite obtener imágenes de calidad con look cinematográfico/Broadcast tanto para trabajos realizados por una única persona (filmmakers o de poco presupuesto), como con equipos complejos: una segunda unidad de cámara en producciones de gran nivel, una realización multicámara TV o Live.

Canon lo pone más fácil. EOS C80 ¿solo o en equipo?

ASOCIACIÓN DE FABRICANTES Y DISTRIBUIDORES

DEL AUDIOVISUAL EN ESPAÑA

AFD E

ASOCIACIÓN DE FABRICANTES Y DISTRIBUIDORES DEL AUDIOVISUAL EN ESPAÑA

ASOCIACIÓN DE FABRICANTES Y DISTRIBUIDORES

DEL AUDIOVISUAL EN ESPAÑA

¿Quieres FORMAR PARTE de la ASOCIACIÓN QUE REÚNE a las EMPRESAS MÁS RELEVANTES del SECTOR AUDIOVISUAL en España?

EL PUNTO DE ENCUENTRO PARA LOS PROFESIONALES DEL SECTOR AUDIOVISUAL EN ESPAÑA

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.