TM Broadcast España #189, Julio/Agosto 2025

Page 1


EDITORIAL

La industria broadcast está inmersa en un complejo proceso de transformación que trasciende lo tecnológico. Esta transición exige adoptar cambios profundos a nivel estructural, cultural y organizativo.

En este contexto, es posible distinguir entre tecnologías como IP o NDI, que aportan flexibilidad, y otras que implican una mayor complejidad operativa, como UHD o HDR. La migración hacia arquitecturas IP está permitiendo construir sistemas más ágiles, mientras que el salto a resoluciones superiores multiplica el volumen de datos y obliga a repensar procesos clave como la edición, el archivo o la postproducción. Todo ello, claro está, mejora la experiencia del espectador, pero conlleva un coste asociado que exige evaluar cuidadosamente el retorno de inversión.

Estas son algunas de las conclusiones que se extrajeron del último Desayuno TM BROADCAST, promovido por TSA e IBM, en el que reunimos a responsables técnicos y ejecutivos de algunas de las principales empresas del sector para identificar las claves de esta transición y anticipar su evolución.

En este número ofrecemos un amplio resumen de los temas abordados en el coloquio. Entre ellos, figuró también el auge de soluciones híbridas que combinan la escalabilidad del cloud con el control del on-premise, así como la preocupación en el sector por la escasez de perfiles técnicos con formación transversal en redes y vídeo.

El sector avanza, pues, hacia modelos más inteligentes y flexibles, y el reto reside en gestionar esta transformación con visión, anticipando necesidades y formando a los equipos que deberán liderar esta nueva etapa. Creemos firmemente que encuentros profesionales como el citado desayuno, y números como el que tienes entre manos, contribuyen a ese objetivo.

Con el IBC a la vuelta de la esquina, el momento es especialmente propicio para un análisis en profundidad como el que aquí te ofrecemos. Esperamos que disfrutes de este y del resto de contenidos que hemos preparado en exclusiva para ti, y te deseamos una excelente feria.

EDITOR

Javier de Martín editor@daromediagroup.com

DIRECCIÓN DE CONTENIDOS

Mercedes González mercedes.gonzalez@tmbroadcast.es

REDACTOR JEFE

Daniel Esparza daniel.esparza@tmbroadcast.es

REDACCIÓN

Bárbara Ausín redaccion@tmbroadcast.es

Carlos Serrano

Ana Peláez

PUBLICIDAD

Sergio Castaño sergio.castano@tmbroadcast.es

Patricia Pérez ppt@tmbroadcast.com

COLABORADORES

Carlos Medina

Luis Pavía

Carlos Alberto Martín

Javier Guerra

Luis Sanz

Alfonso Redondo

José Luis Cordero Carlos González

Fernando Suárez

MAQUETACIÓN

Sorex Media

DIRECCIÓN ADMINISTRACIÓN

Laura de Diego laura.dediego@daromediagroup.com

SUSCRIPCIONES

suscripciones@tmbroadcast.es

Imprime: IMEDISA ARTES GRÁFICAS S.L.

Dep. legal: M-11254-2008

ISSN: 1888-6965

Impreso en España en agosto de 2025

TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.

TM Broadcast es una publicación de Daró Media Group S.L. Centro Empresarial Tartessos

Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid.

Tf: 91 640 46 43

SUMARIO

Actualidad

DESAYUNO TM BROADCAST

La re-evolución del broadcast: hacia nuevos modelos inteligentes

La industria avanza hacia infraestructuras más flexibles que exigirán un rediseño completo de los flujos de trabajo. El cambio ya está aquí, y este escenario plantea nuevos retos y oportunidades. TM BROADCAST reúne a un grupo variado de responsables técnicos y ejecutivos para establecer las líneas maestras de esta transición.

OFF THE RECORD

Isidoro Moreno, Head of Engineering de OBS:

“Para mí no hay duda: cuanta más resolución y calidad de imagen, mejor”.

50

DIVULGACIÓN

Broadcast cinematográfico: mucho más que un término de moda

Esta nueva tendencia en el sector ha llegado para quedarse. Los diferentes actores del cine y el broadcast, incluidos los fabricantes de cámaras y ópticas, deben entenderse para generar alianzas profesionales con garantías de éxito.

58

LABORATORIO

FUJIFILM Kangaroo LITE: archivado seguro y económico a largo plazo en cinta LTO

Sí. El titular es correcto y sintetiza los conceptos fundamentales de la nueva propuesta de Fujifilm: archivado de contenidos digitales a largo plazo, en un formato seguro y económico, garantizado a 30 años, en formato cinta. Sí, de nuevo es correcto: cinta.

La plataforma RTVE Play incorpora un registro obligatorio y añade nuevas funcionalidades

La OTT incorpora un perfil infantil, una herramienta de interacción y, a partir de ahora, los usuarios deberán estar registrados para poder acceder a los contenidos

La plataforma RTVE Play ha anunciado el lanzamiento del registro obligatorio. A raíz de ello, los usuarios deben tener una cuenta gratuita para para poder seguir accediendo a los contenidos de la plataforma tanto en directo como en diferido. Asimismo, la OTT ha incorporado dos novedades: el Perfil infantil, para que los niños accedan a contenidos apropiados para su edad de forma segura, y RTVE Play Participa, donde los usuarios pueden interactuar con los programas. según ha informado RTVE a través de un comunicado.

La plataforma española completa así el registro obligatorio para quienes accedan por la web desde el móvil o el ordenador. Este proceso ya arrancó en una primera fase en febrero de 2024, mediante la app y en televisiones conectadas. A través de ello, la Corporación tiene la intención de conocer mejor a su audiencia para ofrecerle una experiencia más personalizada con recomendaciones adaptadas, así como seguir viendo un contenido donde lo dejaron o crear una lista con sus favoritos.

Para la creación de la cuenta, los usuarios únicamente deben facilitar un correo electrónico, la contraseña que elijan, fecha de nacimiento, género, país y código postal. Para cualquier incidencia en el registro, RTVE ha puesto a su disposición el

teléfono de asistencia 911 860 993 con el que se podrán poner en contacto de lunes a viernes de 10:00 a 22:00 horas.

Nuevas funcionalidades

RTVE Play Participa ha sido diseñado para permitir al usuario ser el protagonista y generar comunidad. Lo usuarios podrán interactuar de forma directa con los programas de RTVE a través de herramientas como encuestas o chats en directo, y proponer ideas para nuevos formatos y títulos de ficción.

Asimismo, el chat en directo permite ver y comentar las series y programas de RTVE junto a otros usuarios. Se incorporará además un espacio donde los espectadores podrán poner a prueba sus conocimientos a través de quizzes y juegos como «Elige 1», relacionados con la actualidad y los contenidos.

Por otra parte, el Perfil infantil está dirigido para los más pequeños y ya está disponible en la app para móvil y tabletas y en las televisiones conectadas. En él, lo niños podrán ver series y programas de Clan y películas tanto infantiles como para público familiar. Cuenta, además, con tres portadas especiales con contenidos adaptados a la edad de cada niño: preescolar, infantil y junior.

Aragón TV abre el proceso para diseñar la identidad de su futura OTT

El proyecto debe incluir también la estrategia de marca y el restyling del ecosistema visual de TV, Radio, Noticias y Deporte

La Corporación Aragonesa de Radio y Televisión (CARTV) ha publicado el pliego de prescripciones técnicas para la contratación del servicio de consultoría, diseño, desarrollo creativo y producción de la nueva identidad visual de su futura plataforma OTT. Esta plataforma,

actualmente en fase de desarrollo, será la nueva ventana digital para los contenidos de Aragón TV, Aragón Radio y el resto de marcas del grupo, según ha informado la Corporación a través de un comunicado.

El objeto del contrato contempla también la redefinición de la arquitectura de marca de la CARTV y el diseño de un sistema visual coherente que integre todas las marcas de la corporación bajo una estrategia común.

El proyecto incluye:

› Definición estratégica y denominación de la nueva OTT.

› Diseño del logotipo, sistema gráfico, tipografías, paleta cromática y piezas audiovisuales asociadas.

› Elaboración del manual de identidad visual de la OTT y actualización, si procede, de los manuales de las marcas actuales.

CARTV tiene registrada actualmente la marca Aragón Play, aunque el pliego ofrece a la empresa adjudicataria dos líneas creativas posibles:

› Línea continuista: Crear un logotipo para la plataforma que mantenga el nombre “Aragón” acompañado de un complemento que identifique claramente su carácter OTT, en continuidad con otras marcas ya consolidadas como Aragón TV, Aragón Radio, Aragón Noticias o Aragón Deporte, y respetando la coherencia gráfica del grupo.

› Cambio radical: Proponer un nuevo nombre y una identidad completamente renovada, que permita redefinir tanto la arquitectura de marca de la plataforma como su relación con el resto de enseñas corporativas de CARTV.

Ontario Soluciones se expande internacionalmente y abre una nueva oficina en Ámsterdam

El espacio estará dirigido por Arjem Hofland, responsable de ventas de Dejero para casi toda Europa

Ontario Soluciones ha anunciado la apertura de una nueva oficina en Ámsterdam con el objetivo de ofrecer sus soluciones de tecnología audiovisual a clientes de Europa. El espacio estará dirigido por Arjem Hofland, responsable de ventas de Dejero para casi toda Europa, quien pasará a ser también gerente de ventas para Ontario en el continente, según ha informado la compañía a través de un comunicado.

Arjen posee más de 30 años de experiencia en el sector. La compañía ya había trabajado previamente con él durante los últimos años, colaborando en diferentes proyectos y exhibiendo en múltiples ferias comerciales y afirma que «algunos de los clientes europeos nos han estado pidiendo que trabajáramos juntos para ofrecer más servicios y productos, así que eso es lo que estamos haciendo ahora».

Algunos de las soluciones que estarán inmediatamente disponibles en la oficina de los Países Bajos son: la gama entera de transmisión de vídeo, producción remota y kits de conectividad para ubicaciones sin conexión terrestre. «Sin embargo, eso es solo el comienzo, ya que estamos expandiendo el canal de ventas para algunos de nuestros socios, como NewBlue FX», añade la empresa.

Mediaset Infinity despega con la IA como pilar: así es la nueva plataforma digital

Inteligencia artificial, una nueva arquitectura tecnológica y experiencia publicitaria renovada.

Juan Baixeras, director de la División de Canales Digitales de Mediaset España, desgrana a TM BROADCAST las claves de este proyecto

Las plataformas de streaming se han convertido en aliadas estratégicas de la televisión tradicional. El nacimiento de las OTT introdujo un nuevo actor en la batalla por la atención de la audiencia, rebajando la influencia de la televisión lineal. Sin embargo, con el paso de los años la industria broadcast ha advertido que su irrupción también le abre nuevas oportunidades para fidelizar a su audiencia y llegar a las nuevas generaciones.

Frente a los riesgos de que la oferta de contenidos lineales se pierda entre la maraña de opciones de consumo que el usuario tiene a su disposición, las cadenas de televisión han buscado nuevas fórmulas ‘a la carta’ para que el espectador pueda decidir qué ver y cuándo hacerlo. Porque las emisiones lineales continúan teniendo su público, pero ya no son suficiente.

En esta estrategia se inscribe, por ejemplo, el lanzamiento en 2020 de RTVE Play —plataforma que sustituyó a ‘RTVE a la carta’ y que ha llegado a posicionarse durante

algunos meses como la OTT española líder—. Más recientemente, también destaca la transformación de la antigua Mitele, que ha adoptado un nuevo modelo bajo la marca Mediaset Infinity.

“Esta plataforma es una evolución de la que ya lanzó Mediaset Italia hace 4 años y que ha sido un éxito rotundo”, contextualiza a TM BROADCAST Juan Baixeras, director de la División de Canales Digitales de Mediaset España.

Para ponerla en marcha, la compañía ha contado con socios técnicos como Amazon Web Services, Google oComcast. El nuevo servicio ofrece acceso abierto a una oferta de contenidos con el sello de los formatos de Mediaset España: las emisiones en directo y a la carta de sus programas y series; contenidos exclusivos derivados de sus formatos de televisión; y nuevas producciones originales creadas para su estreno en el entorno digital.

Muchos de estos formatos, que antes solo estaban disponibles bajo suscripción, están ahora al alcance de todos los espectadores. Todo ello “almacenado en la base de datos CRM del grupo y gestionado a través de una estructura técnica de cloud muy robusta”, detalla Juan Baixeras.

Por otro lado, el antiguo modelo SVOD de MitelePLUS ha sido sustituido por Mediaset Infinity+, que brinda a los suscriptores el acceso a la totalidad del catálogo de contenidos digitales de Mediaset España con ventajas adicionales. Entre ellas figuran la eliminación de interrupciones publicitarias, la reproducción desde el inicio de un directo y la descarga de contenidos.

Para superar los aspectos de la versión anterior, el equipo también ha llevado a cabo una renovación de la arquitectura tecnológica. “El despliegue de la nueva infraestructura se ha apoyado en tecnología de

última generación, tanto a nivel de back-end como en el desarrollo de las nuevas aplicaciones para móviles, connected TV y web", explica a esta revista el director de la División Digitales de Mediaset.

Uso de herramientas inteligentes

Ante una propuesta audiovisual de tal calibre, el uso de herramientas inteligentes también era necesario para tratar de ajustar las innovaciones a los gustos y preferencias de los futuros espectadores. “La inteligencia artificial ha sido un pilar clave del proyecto. Hemos implementado un nuevo sistema de recomendación y personalización de contenidos basado en IA —ARES—, que analiza los patrones de consumo de cada usuario para ofrecer una navegación

más contextual y recomendaciones ajustadas a sus intereses. Esto se refleja tanto en la página de inicio como en secciones dinámicas, listas personalizadas y la zona de usuario”.

La posibilidad de reproducir contenidos bajo demanda condiciona, desde luego, el diseño de este tipo de plataformas. En este sentido, Mediaset ha optado por mejorar la atención y comunicación de su servicio de la siguiente manera: “Se han implementado nuevas herramientas de comunicación, cross-device, así como un nuevo sistema de atención y soporte al usuario, donde también incluiremos elementos de IA para ofrecer una atención técnica más ágil y cercana”, incide Juan Baixeras.

Lanzamiento de Ad Infinity

Finalmente, a lo largo del año, Mediaset irá incorporando novedades a sus contenidos y en el último trimestre lanzará Ad Infinity, la nueva experiencia publicitaria digital de Publiespaña que se suma a otros formatos del servicio de streaming como Open Infinity, Ad Pause y Ad in Content.

Entre las características de la nueva solución, se incluyen: métricas transparentes, con datos verificables y auditables, completion rate del 95%, bloques publicitarios limitados a cuatro spots, una herramienta basada en IA para definir y ajustar la presión publicitaria según el perfil de cada espectador, anuncios sin repetición e Infinity Break, con mayores coberturas digitales en el menor tiempo posible.

Estas son las claves del salto tecnológico de la televisión gallega hacia el UHD

Tras convertirse en el primer canal autonómico con estas características en España, la Corporación de Radiotelevisión de Galicia (CRTVG) desvela los objetivos de su segunda fase

El 28 de marzo de 2025, Televisión de Galicia se convirtió en la primera cadena autonómica que emitía un canal en Ultra Alta Definición en España a través de la Televisión Digital Terrestre (TDT).

Tras este gran paso a nivel autonómico, muchos medios públicos nacionales optaron por seguir su ejemplo, como es el caso de EITB, que proporcionó también la resolución UHD en la señal de ETB1 y ETB2. Todo ello se enmarca en el Plan Técnico Nacional de la TDT aprobado a finales del primer trimestre de este año y del cual informó TM BROADCAST.

Como miembro de la Federación de Organismos de Radio y Televisión Autonómicos (FORTA), la Corporación de Radiotelevisión de Galicia (CRTVG) ha proporcionado a UHD Spain las claves sobre el proyecto y ha adelantado lo que está por venir de la emisión de su canal principal en Ultra Alta Definición.

A continuación, la entrevista que ha realizado la asociación y ha compartido a través de un comunicado.

¿Qué significa para la TVG convertirse en la primera autonómica en emitir en Ultra Alta Definición?

Para la Corporación RTVG el lanzamiento de su canal principal TVG en UHD por la TDT evidencia su apuesta por la innovación técnica en los servicios audiovisuales que proporciona, posicionándola como un radiodifusor tecnológicamente avanzado, comprometido con la incorporación de nuevos estándares.

Este anuncio fue inesperado para muchos. ¿Cuál ha sido el principal motivo para dar este paso tecnológico?

Lanzar el canal principal de TVG en UHD a través de la TDT empezó a plantearse desde el momento que se estableció la fecha de apagado definitiva de los canales SD en la TDT, calendarizado en febrero de 2024 en el Plan Técnico Nacional de la TDT. La desaparición de estos canales permitió optimizar el ancho de banda del mútiplex.

¿Qué equipos o tecnología se han incorporado para permitir esta mejora?

Se ha puesto el foco en implementar la emisión simulcast UHD de la señal en HD. Para ello, en colaboración con nuestro operador de red se han instalado los dispositivos de escalado y codificación necesarios para difundir esa señal con calidad UHD.

¿Cuáles son las principales características de este nuevo canal en UHD? ¿4K, HDR, audio inmersivo…?

La señal TVG en UHD, además de ofrecer una resolución 4K a los telespectadores, posee alto rango dinámico (HDR) con curva HLG, que provee un mayor contraste, incrementando la nitidez de la imagen. Por otro lado, hemos introducido el espacio de colores extendido (WCG) según la norma ITU-R BT.2020, con una profundidad de color de 10 bit.

Se utiliza además una tasa HFR de 50 frames por segundo, progresivo, en la que ya venía produciendo CRTVG desde hacía años, lo que ha supuesto una ventaja a la hora de transicionar a UHD.

Para la codificación de la señal se utilizó codificación avanzada HEVC, de mayor eficiencia espectral.

¿Cómo puede un espectador asegurarse de estar viendo TVG en UHD? ¿Se emite en alguna plataforma más? ¿TV a la carta?

Actualmente todos aquellos televisores parametrizados con 4K y HDR son compatibles con nuestra señal, que además aparece identificada con el logo “UHD”. La primera fase del proyecto de transición a UHD ya ha tenido lugar, con el lanzamiento del canal principal en simulcast UHD por la TDT. En la segunda fase prevista tenemos como objetivo disponer de la capacidad de grabar y reproducir en el sistema de continuidad aquellos contenidos nativos que se vayan produciendo a medio

plazo en UHD, tanto grabados como eventos en directo, así como poder distribuirlos a través de nuestra plataforma digital de contenidos bajo demanda AGalega.gal.

¿Esperan un aumento en la audiencia o un cambio en los hábitos de consumo con esta mejora? ¿Hay cifras de televisores compatibles con UHD en Galicia?

Nuestro objetivo prioritario en esta primera fase es ofrecer un servicio público universal de mayor calidad y atractivo para los ciudadanos, utilizando como base la modernización tecnológica de las emisiones por TDT.

¿Cómo valora la situación de la televisión pública en España respecto a la adopción de la UHD?

Es indudable el impulso que ha supuesto la publicación en marzo de este año del nuevo Plan Técnico Nacional para la implantación de la UHD en la TDT en España. Así como difundir la señal en UHD a través de la TDT, desde una perspectiva técnica, puede suponer un proceso relativamente sencillo, la adopción de estándares de producción que permitan producir en UHD a lo largo de toda la cadena de producción de un radiodifusor va a requerir la ejecución de proyectos de mayor

complejidad en todos sus aspectos, tiempos, costes, etc.

¿Cree que este tipo de avances pueden marcar diferencias significativas entre las autonómicas?

Las características y circunstancias de cada radiodifusor autonómico son únicas y diversas, del mismo modo que lo son y pueden serlo los objetivos y las diferentes soluciones técnicas adoptadas por cada radiodifusor autonómico para lanzar señales basadas en nuevas tecnologías de formato de video como UHD, Full HD con HDR…ya sea a través de la TDT, Hbbtv, plataformas de contenidos a la carta, etc.

La 1 estrena el concurso ‘La Pirámide’ en un plató de 1000 m²

Producido por RTVE en colaboración con Globomedia, el programa será conducido cada tarde por la actriz Itziar Miranda

Para las tardes de verano, La 1 ha estrenado ‘La Pirámide’, el concurso con más adaptaciones en la historia de la televisión presentado por la actriz Itziar Miranda (‘Amar en tiempos revueltos’, ‘MasterChef Celebrity 9’).

“Ya está todo preparado para una de las grandes apuestas del verano de RTVE, y con Itziar Miranda al frente, en un rol nuevo”, destacó María Eizaguirre, directora de Comunicación y Participación de RTVE, en la presentación del programa.

‘La Pirámide’, adaptación del formato de Sony Pictures Television ‘The 100.000$ Pyramid’ y producido por RTVE en colaboración con Globomedia (The Mediapro Studio), suma 20 adaptaciones internacionales y es uno de los más emblemáticos de la ABC, donde lleva ocho temporadas.

María José Rodríguez, directora general de Globomedia, explicó las cualidades del plató: “No hemos escatimado en la producción: tiene 1.000 metros cuadrados, 100 luces motorizadas, 12 cámaras… hemos traído la mejor tecnología a la emoción de este concurso”. “Se adapta a los tiempos, al público, a las nuevas generaciones… Estamos convencidos de que va a enganchar porque acompaña, entretiene y enseña”.

Miriam García Corrales, directora de Entretenimiento de RTVE, informó sobre el triunfo del formato en otros países: “Es un concurso que es un referente internacional. Los famosos y los concursantes anónimos le van a dar mucha frescura. Y el final te deja atrapado”. En cuanto a Itziar, ha afirmado que “va a sorprender porque es empática, simpática y ha entendido el formato en muy poco tiempo”.

Itziar Miranda, que debuta como presentadora de concursos, confesó que ‘La Pirámide’ es “divertido y entretenido”. “Me encanta que las familias dejen los dispositivos móviles y vean juntos el concurso”, ha explicado. En cuanto a su nuevo papel, ha contado que “está siendo todo muy

emocionante. Este formato es mítico en Estados Unidos. Me encantan los concursos, son alegría y éste la tiene, y también emoción”.

‘La pirámide’

Un juego de asociación de palabras en el que cada tarde tres concursantes, elegidos al azar entre el público, contarán con la ayuda de un personaje conocido, como Anabel Alonso, Joaquín Reyes y Manuel Díaz “El Cordobés” en las primeras entregas, para sumar el mayor número de aciertos. Las tres parejas competirán, en una fase contrarreloj, por superar la fase clasificatoria y alcanzar la Pirámide Final, a la que solo puede llegar una pareja, y 100.000€ de premio.

El game show consta de cuatro fases de juego, en las que los concursantes tendrán que adivinar una serie de palabras, imágenes o frases basadas en descripciones que les dan sus compañeros de equipo.

Al frente de la dirección del programa está Elías Segovia, con una larga trayectoria en la producción de espectáculos escénicos y grandes formatos televisivos.

Miriam García Corrales, María Eizaguirre, Itziar Miranda y María José Rodríguez en la presentación del concurso / RTVE

FORTA elige nueva presidenta a Rosa Romà (3cat)

La Federación de Organismos o Entidades de Radio y Televisión (FORTA) anuncia el nombramiento de Rosa Romà i Monfà, presidenta de la Corporació Catalana de Mitjans Audiovisuals – 3Cat, como nueva presidenta pro tempore de la Federación. Romà ejercerá el cargo durante seis meses, hasta enero de 2026, de acuerdo con el turno rotatorio establecido por los estatutos de la organización. En un artículo reciente en TM BROADCAST, exploramos en profundidad el estado tecnológico actual de la corporación catalana, sumergida en un proceso de transformación digital.

Rosa Romà sucede en la presidencia a Juande Mellado, director general de RTVA – Radio Televisión de Andalucía, cuya gestión, centrada en la consolidación de iniciativas de transformación digital y cooperación interterritorial entre las cadenas autonómicas, ha sido reconocida positivamente por la Junta General de FORTA. A propósito de su nombramiento, Mellado concedió una entrevista a TM BROADCAST donde abordó su visión de mercado y los retos de la Federación.

“Las radios y televisiones públicas autonómicas compartimos la misión

de reflejar la diversidad, la cultura y las lenguas de nuestros territorios. Mi objetivo es reforzar nuestra colaboración para acelerar la transformación digital y la consolidación de las cadenas como hubs de contenidos multisoporte, impulsar la innovación y garantizar un servicio público de calidad que nos conecte con todas las audiencias y combata la desinformación”, ha señalado Rosa Romà tras su elección.

Spiideo, nuevo proveedor de producciones automatizadas de la Federación Española de Baloncesto

El acuerdo estará vigente hasta finales de 2028 e incluye la cobertura de todos los campeonatos de España de Selecciones Autonómicas, así como los Campeonatos de España de Clubes

La Federación Española de Baloncesto (FEB) ha anunciado una colaboración con Spiideo con el objetivo de modernizar sus producciones automatizadas. El acuerdo entre ambas entidades estará vigente desde ahora hasta finalizar el año 2028.

A partir de ahora, Spiideo ofrecerá su servicio de cobertura con producción automatizada a todos los campeonatos de España de Selecciones Autonómicas, así como a los Campeonatos de España de Clubes. La intención de este proyecto es ofrecer a los usuarios una producción homogénea en todos los eventos de la Federación, que podrán emitirse a través de Canal Feb o de las propias redes sociales de la FEB.

Patrik Olsson, CEO y cofundador de Spiideo, afirmó que “es un honor trabajar junto a la FEB para marcar el comienzo de una nueva etapa en el deporte, en la que cada jugada se puede ver y compartir. Esta colaboración refleja un profundo compromiso con el futuro del deporte, donde la tecnología se une a la pasión por el baloncesto, haciendo que cada momento sea visible y accesible para los aficionados, jugadores y entrenadores de toda España».

Mientras que Elisa Aguilar, Presidenta de la FEB, ha dado la bienvenida al nuevo fichaje de la Federación y ha comentado que “nuestra filosofía es la de trabajar junto a los mejores y Spiideo es una referencia en su segmento. Vamos a dar un impulso a la forma de ver y vivir el baloncesto, haciendo que sea accesible para todos y ofreciendo una nueva experiencia en torno a nuestro deporte”.

Movistar Plus+ y EuroLeague amplían su acuerdo hasta 2031

La plataforma añadirá cinco temporadas en exclusiva y retransmitirá todos los partidos en los que participen equipos españoles, así como una selección de los mejores encuentros de toda la competición

Movistar Plus+ ha anunciado una ampliación de su acuerdo con EuroLeague, en un nuevo ciclo que añadirá cinco temporadas en exclusiva, alcanzando la primavera de 2031, según ha informado a través de un comunicado.

La plataforma ha trabajado en el desarrollo de este contenido, tanto a nivel de producción y personalización como en la accesibilidad dentro de su oferta de contenidos, llevando a la Euroliga a nuevas cotas de consumo entre los aficionados al baloncesto en España.

Daniel Domenjo, CEO de Movistar Plus+, afirma: “Este es un nuevo paso en la estrategia de Movistar Plus+ para reforzar nuestra apuesta por el mejor deporte y seguir configurando en esta nueva etapa una oferta de contenidos inigualable, con lo mejor de las principales competiciones. La EuroLeague es la máxima expresión del baloncesto y nos esforzaremos por cumplir con la exigencia en cada partido.”

“Estamos encantados de renovar nuestra asociación con Movistar Plus+, una plataforma ampliamente conocida por su calidad y excelencia, lo que la convierte en el hogar perfecto para la EuroLeague y la EuroCup. España sigue siendo uno de nuestros mercados más estratégicos, y esta renovación es clave para garantizar la transmisión de alta calidad y contenido editorial premium, mejorando aún más la experiencia del aficionado. Este acuerdo a largo plazo destaca la solidez de nuestra colaboración y garantiza que los aficionados españoles seguirán disfrutando de una cobertura de primer nivel mientras la Euroliga emprende una nueva y emocionante etapa de competición

y crecimiento”, añade Paulius Motiejunas, CEO de EuroLeague.

El acuerdo llega a las puertas de una temporada en la que la competición acoge novedades como la ampliación del número equipos participantes hasta 20, la llegada del cuarto representante español (Valencia Basket) y la expansión de fronteras con la incorporación de Dubai Basketball Club.

Asimismo, la BKT EuroCup será otro de los alicientes asegurado en esta nueva etapa y ofrecerá la cobertura de todas las citas y enfrentamientos entre los principales equipos del continente, esta temporada con el Baxi Manresa como representante español en la competición.

Movistar Plus+ retransmitirá todos los partidos de la Euroliga en los que participen equipos españoles, así como una selección de los mejores encuentros de toda la competición. Los dos partidos más destacados de cada jornada estarán disponibles para todos los clientes de la plataforma a través del nuevo movistarplus. Aquellos aficionados que busquen la experiencia completa de la Euroliga podrán acceder al resto de encuentros a través de los canales de Deportes por M+.

Finalmente, la plataforma ofrecerá entrevistas exclusivas, programas previos y posteriores a los partidos de encuentros seleccionados y el programa Eurofighters.

AMETIC coordinará la participación de la industria española en el IBC

IBC, el gran evento global sobre el futuro de los medios y del entretenimiento, celebrará su 58ª edición en el RAI de Ámsterdam del 12 al 15 de septiembre. En esta edición espera atraer a más de 43.000 visitantes de más 170 países para mostrar las novedades de más de 1.250 expositores profesionales, de los cuales más de 150 son nuevos. Y como viene siendo habitual en las últimas tres décadas, AMETIC se encargará de coordinar la participación de la industria española.

La edición de este año contará con 14 pabellones organizados por sectores específicos de producto y ofrecerá un amplio programa de actividades diseñado para dar respuesta a los desafíos actuales del ecosistema audiovisual y anticipar las tendencias del futuro. Entre sus atractivos se encuentran los prestigiosos IBC Innovation Awards, el nuevo espacio IBC Future Tech centrado en los avances más disruptivos y el Accelerator Media Innovation Programme, una iniciativa para identificar e impulsar soluciones colaborativas frente a los grandes retos tecnológicos.

La participación española en IBC 2025 pone de relieve la fortaleza tecnológica de nuestra industria, que sigue siendo un proveedor clave de soluciones para la radiodifusión a escala global. Las empresas españolas destacan por ofrecer productos de alta calidad para todos los estándares internacionales de radio

y televisión, consolidando su posición como referentes del sector gracias a su constante innovación.

No en vano, es una industria ya que ofrece soluciones y productos para que la Televisión Digital Terrestre en España pueda evolucionar mediante la migración de Alta Definición a Ultra Alta Definición en los próximos años, de acuerdo con el Plan Técnico Nacional de TDT aprobado el pasado mes de marzo y que coloca a España a la cabeza de Europa al seguir apostando por proporcionar a los ciudadanos una amplia oferta televisiva en abierto con la máxima calidad técnica posible.

Asimismo, nuestras empresas también están preparadas para dar solución a los retos que plantea el despliegue y la implantación de la radiodifusión digital terrestre (DAB+) en nuestro país, cuyo pistoletazo de salida está previsto para el próximo año, toda vez que entre en vigor el nuevo Plan Técnico Nacional de Radio Digital en el que la administración española ya está trabajando.

La industria española cubre una amplia gama de necesidades dentro de la cadena de valor audiovisual extremo a extremo: desde sistemas de codificación de audio y vídeo hasta tecnologías empleadas en la radiodifusión, incluyendo transmisores de radio y televisión, sistemas radiantes osistemas para la captación y distribución de la señal en el interior de edificios.

De igual modo, España es capaz de proporcionar soluciones de IA que permiten la realización multicámara

de un partido de fútbol, plataformas OTT y productos multimedia para múltiples entornos y plataformas. También dispone de equipos de alta gama para medición, monitorización y análisis de señales de radiodifusión de radio y televisión, así como para el transporte de las señales de TV con muy alta calidad para entornos profesionales. O soluciones que combinan realidad aumentada (AR) y producción virtual que permiten la gestión de múltiples escenas, la teletransportación del presentador ográficos hiperrealistas usando tecnologías avanzadas de renderizado, integrando el mundo real y el virtual con un elevado nivel de inmersión, realismo y espectacularidad en tiempo real.

AMETIC, la asociación que representa al conjunto del sector digital en España, considera estratégica la presencia internacional de la industria española de tecnología audiovisual y continúa apoyando su expansión en los principales mercados globales. En esta labor, que cuenta con el respaldo del ICEX, promueve la internacionalización de empresas españolas con productos y soluciones profesionales de alto valor añadido.

La participación española en IBC 2025 correrá a cargo de AEA, Anglatenic, Brainstorm Multimedia, Broad Telecom (Btesa), Commtia Systems, Cinfo, Egatel, Fluendo, Gsertel, OMB, Percon, Sener TAFS, Sapec, SteadgyGum o Tredess.

Las teles temáticas de pago registran el mayor crecimiento de su historia

La agrupación de TV Temáticas de pago en España ha batido un nuevo récord en la temporada 2024-2025 tras experimentar el mayor crecimiento de su historia. El Balance de audiencias GECA ha registrado un share de televisión del 11’3% en dicho grupo, 0’7% más que en el último informe.

En esta temporada, que abarca desde el 2 de septiembre de 2024 hasta el 30 de junio de este año, ha destacado el máximo de los canales de pago frente al descenso de las Temáticas TDT, las cuales registran su peor dato de las últimas tres temporadas con un 28’6% (un 1’6% menos

que en 2023-2024). Estas son las únicas que ha perdido cuota de pantalla frente a los últimos datos.

El canal Gol Play se ha despedido del conjunto de temáticas en abierto con un 0’8% y sus cadenas sustitutas, Squirrel y Veo 7, que se estrenaron en enero y junio de este año, se han colado en el Top25 y han empatado con el 0’5% de cuota de pantalla.

En cuanto a los operadores de televisión nacional en abierto, Atresmedia mantiene su liderazgo con el 26’4%, pero desciende junto a Mediaset (en segunda posición con el 24’7%) seis décimas. Sin embargo, RTVE, ocupando el último puesto del podio, crece un 0’2%, adquiriendo un 15’6%.

Por su parte, el grupo de canales generalistas se recupera del curso y crece medio punto alcanzando el 48,2% de la audiencia. Además, La 1 y La 2 han sido los que mayor número de formatos han estrenado en la temporada, con un total de 37 entre ambos (22 y 15, respectivamente). En la misma línea, las autonómicas públicas crecen sumando tres décimas y adquiriendo el 8’2%.

La re-evolución del broadcast: hacia nuevos modelos inteligentes

La industria avanza hacia infraestructuras más flexibles que exigirán un rediseño completo de los flujos de trabajo. El cambio ya está aquí, y este escenario plantea nuevos retos y oportunidades. TM BROADCAST reúne a un grupo variado de responsables técnicos y ejecutivos para establecer las líneas maestras de esta transición

Promovido por

Con la participación de

Asier Anitua, gerente de Desarrollo de Negocio e Innovación de TSA

César Bermejo, Key Account Manager de TSA

Pedro Espina, director técnico de RTVA Canal Sur

Raúl Izquierdo, director de TBS

Ángel Mancebo, director de UNED Media

La industria de la televisión es, por su propia idiosincrasia, particularmente prudente en la implementación de nuevos avances tecnológicos en sus flujos de trabajo. La emisión es continua y no puede sufrir cortes. Pero esto no la deja al margen de la profunda transformación tecnológica que involucra a todos los mercados. Aun al contrario, el broadcast está erigiéndose en algunos casos,

Óscar Laviña, Storage Technical Sales Manager de IBM

Jesús García Romero, director del Área de Ingeniería de RTVE

como el de la inteligencia artificial, en punta de lanza de innovación.

Algo está cambiando en el sector, y en TM BROADCAST queremos tomarle el pulso en este momento tan trascendental. Para ello, hemos reunido a responsables técnicos y ejecutivos de distintos ámbitos en uno de nuestros desayunos para extraer una radiografía del momento actual y,

Moderador

Luis Sanz, consultor audiovisual

más importante aún, obtener las claves necesarias para anticipar hacia dónde avanza el mercado.

El evento, organizado por TM BROADCAST, estuvo promovido por Telefónica Servicios Audiovisuales (TSA) en colaboración con IBM. Contó con la participación de Asier Anitua, gerente de Desarrollo de Negocio e Innovación de TSA; César Bermejo,

Jesús Sancho, subdirector de Sistemas de Producción y Distribución de RTVE
Jesús Sánchez Villalba, director técnico de CMM Castilla-La Mancha Media
Manuela Martínez, jefa de Ingeniería y Mantenimiento de Movistar Plus+

Key Account Manager de TSA; Jesús García Romero, director del Área de Ingeniería de RTVE; Jesús Sancho, subdirector de Sistemas de Producción y Distribución de RTVE; Pedro Espina, director técnico de RTVA (Canal Sur); Jesús Sánchez Villalba, director técnico de CMM (Castilla-La Mancha Media); Manuela Martínez, jefa de Ingeniería y Mantenimiento de Movistar Plus+; Raúl Izquierdo, director de TBS; Ángel Mancebo, director de UNED Media; y Óscar Laviña, Storage Technical Sales Manager de IBM. La moderación del debate corrió a cargo de Luis Sanz, consultor audiovisual y colaborador habitual de la revista.

Cómo ha cambiado la televisión en diez años

El debate arrancó con una reflexión general que permitió a todos los ponentes aportar unas pinceladas sobre el estado tecnológico actual de sus respectivas compañías. ¿Qué ha cambiado en la última década a nivel de producción, emisión oresolución de problemas con la

llegada de avances tecnológicos como el IP, NDI, UHD, HDR o la inteligencia artificial?

En primer lugar, los participantes aclararon que muchas de estas tecnologías aún no se han implementado plenamente en sus flujos de trabajo, y están todavía transitando este proceso. Por otro lado, establecieron una clara diferencia entre avances como la migración a IP, que está permitiendo simplificar el trabajo operativo y levantar arquitecturas más flexibles, y otros como el salto a UHD, que está añadiendo una complejidad a todos los procesos no vista hasta ahora, al margen de la mejora de calidad que percibe el espectador, lo que también fue puesto a debate.

En el caso de Movistar Plus+, Manuela Martínez explicó que han terminado este año de convertir el primero de sus seis estudios a IP. En su opinión, tecnologías como el vídeo sobre IP suponen un cambio más estructural que operativo: “Más que cambiar cómo se trabaja en el día a día, lo que estamos viendo es

DE IZQUIERDA A DERECHA: ÓSCAR LAVIÑA, ASIER ANITUA Y CÉSAR BERMEJO.

una transformación profunda en los departamentos de ingeniería y mantenimiento. Hay que reciclarse completamente para poder diseñar y trabajar con estas nuevas tecnologías”.

Por otro lado, indicó que el objetivo que persiguen desde la compañía es que los operadores apenas noten el cambio con esta migración tecnológica. Aquí trazó diferencias respecto al UHD/HDR, donde señaló que el impacto operativo sí es más notable. “Tienes que cuadruplicar la infraestructura. Pasas a trabajar con cuatro veces más datos que en HD. Y eso afecta sobre todo a las áreas de producción y postproducción. Necesitas nuevos conocimientos, nuevos roles”.

Jesús García (RTVE) coincidió en la complejidad que conlleva el cambio a UHD/HDR. Por otro lado, incidió en la flexibilidad que otorga migrar a una arquitectura IP. “Hablando del IP a nivel de infraestructura de producción, está claro que es un cambio estructural. Pero no hay que olvidar la parte del IP que sí ha supuesto una gran flexibilidad: las mochilas, la transmisión por IP, el NDI…”.

También se abordó cómo han cambiado los procesos de ingesta, edición y archivo con el advenimiento de los nuevos avances tecnológicos. En general, los ponentes coincidieron en que ahora se genera un volumen muchísimo mayor de contenidos. Jesús Sánchez (CMM) lo ilustraba así: “Antes una televisión como nosotros manejaba 15 o 20 horas de material nuevo al día. Ahora, fácilmente, estamos en 110 o 120 horas. Y eso en una tele pequeña. Las grandes deben ser una locura”.

OLUCIÓ

Pedro Espina (RTVA) relató también su experiencia. “Como televisión pública, vamos más despacio. Queremos implantar IP el año que viene, y explorar el HDR. El UHD, de momento, lo vemos complicado, porque no tenemos suficiente espectro disponible”. En su caso, se plantean seguir la misma vía que otras cadenas como Telemadrid: apostar por HDR sobre HD como transición viable y gradual.

Transformación

tecnológica y cultural en la universidad

En el ámbito de la universidad, Ángel Mancebo (UNED) indicó que la transformación ha sido también radical, tanto a nivel tecnológico como cultural. La UNED, que opera bajo un modelo de semipresencialidad, cuenta con una red de 60 centros repartidos por toda España, al que se suma el campus central, donde se generan señales constantemente. “La pandemia fue un punto de inflexión: se multiplicó por cinco el uso de las plataformas online para tutorías y clases remotas”.

Este nuevo escenario conllevó cambios a nivel de infraestructura. “Pasamos de salas con operadores físicos para cada grabación a un sistema donde un solo operador puede controlar 10 o 12 salas desde un único puesto. Con NDI, cámaras robotizadas, micrófonos automatizados… incluso el profesor puede grabarse solo simplemente encendiendo la pizarra”.

El resultado fue una explosión de productividad. “Antes necesitabas hacer ‘booking’ para tener un técnico disponible. Ahora todo es autoservicio. Y la calidad también ha mejorado: pasamos de resoluciones inferiores a 570 a emitir en HD por streaming, aunque sin pasarnos, porque tenemos que asegurar la cobertura nacional. Y hay zonas donde el ancho de banda no da para más”.

¿Merece la pena dar el salto al UHD?

En este punto, Raúl Izquierdo (TBS) planteó como contrapunto que algunos cambios tecnológicos han estado condicionados por la moda

y el marketing, no tanto por una necesidad real. Una reflexión que abrió todo un debate posterior. “Hay quien quiere producir en Ultra HD porque ‘queda bien’, porque lo exige el cliente, aunque el contenido se emita finalmente en HD -expuso Izquierdo-. Es una decisión más de imagen de marca que técnica. Y si tienes presupuesto, adelante. Pero no siempre es imprescindible”.

Uno de los retos comunes que ha generado el UHD en los flujos de ingesta, edición y archivo es la enorme cantidad de datos. “¿Quién es capaz de mover tanto volumen en tiempo real?”, se planteó Jesús Sancho (RTVE). Según explicó, para visualizar contenidos nativos en UHD, se necesitan estaciones de trabajo muy superiores a las habituales. Esto llevó a RTVE a adoptar un sistema de trabajo con proxies: “Montamos en HD como proxy y luego, en la copia final, se lanza la EDL a un colorista, a un DaVinci o un Mistika. Allí se recupera el material original en 4K, se aplica el color, el HDR… pero la edición en UHD puro es inviable para la mayoría”.

El archivo también ha cambiado radicalmente. Aunque se comprima el contenido, los flujos siguen siendo enormes: “Solo en las pasarelas de contenido entre sistemas, el almacenamiento se multiplica por cinco -subrayó Sancho-. Nosotros trabajábamos en HD con 50 Mbps. Ahora, en UHD, estamos en 300 Mbps como mínimo. ¡Se multiplica por seis!”. Y todo esto, por supuesto, impacta directamente en el presupuesto: “El UHD es muchísimo más caro”.

Por ese motivo, una decisión tecnológica de esta envergadura debe medirse muy bien. Los beneficios en calidad con el salto a UHD y/o HDR son tangibles para el usuario, según coincidieron los ponentes, pero hubo también espacio para preguntarse si merece la pena el esfuerzo.

Frente a esta disyuntiva, César Bermejo (TSA) ofrecía el siguiente análisis: “Estamos hablando de un cambio tecnológico y, sobre todo, cultural. Hay que adaptarse a los nuevos target… o te mueres. Evidentemente, sí merece la pena. Técnicamente es más complejo, pero puede solventarse por la parte operativa. Antes digitalizábamos los flujos; ahora hay que rediseñarlos por completo para que sean más agiles y eficientes”.

El gran punto de inflexión se situó en el retorno de inversión. ¿Está dispuesto un cliente a pagar lo que cuesta hoy producir en UHD con HDR? En el caso de un partido de fútbol de alto nivel o en el de los Juegos Olímpicos… probablemente sí, pero no todo el contenido lo justifica y hay que adaptarlo a cada caso. Este fue, a grandes rasgos, el sentir general de la mesa.

DE IZQUIERDA

A DERECHA:

RAÚL IZQUIERDO, JESÚS GARCÍA Y JESÚS SANCHO.

DE IZQUIERDA

A DERECHA: ASIER ANITUA, CÉSAR BERMEJO, ÁNGEL MANCEBO Y MANUELA MARTÍNEZ.

Por otro lado, varios ponentes subrayaron que el HDR aporta más que el aumento de resolución: “Yo aplicaría HDR incluso en HD. La mejora del color y del contraste se percibe mucho más que el salto de HD a UHD”, opinó Jesús Sancho (RTVE). Manuela Martínez (Movistar Plus+) coincidió: “Hay una tendencia clara ahora a introducir HDR en HD, porque es mucho más fácil de producir… y el impacto visual es altísimo”.

Soluciones basadas en software

Óscar Laviña (IBM) coincidió con los demás ponentes en que el volumen de datos que se genera hoy es exponencial, y expuso su análisis desde la óptica del almacenamiento. “No todo puede estar siempre en

DE IZQUIERDA A DERECHA: LUIS SANZ, JESÚS SÁNCHEZ, PEDRO ESPINA, RAÚL IZQUIERDO Y JESÚS GARCÍA.

almacenamiento caliente, pero sí debe estar accesible en todo momento. Las soluciones híbridas deben mover los datos automáticamente según su uso”.

Asimismo, señaló que los clientes demandan cada vez más soluciones inteligentes, capaces de gestionar el ciclo de vida del dato sin duplicaciones innecesarias y con resiliencia ante fallos: “Nos piden que las soluciones estén definidas por software, para no quedar atados a un proveedor único de hardware. Y también que puedan desplegarse tanto on-premise como en nubes públicas oprivadas, sin cambiar todo el sistema”.

El reto de reformar… mientras mantienes la emisión

Otro elemento que se puso sobre la mesa son las dificultades que atraviesan los medios tradicionales para renovarse por el imperativo de la emisión continua. No puedes pararlo todo y empezar de cero. En este sentido, Asier Anitua (TSA) planteó que la verdadera transformación se nota especialmente cuando se parte de cero. “Ya no es tanto qué han hecho los clientes en estos últimos ocho o diez años, sino qué podrían hacer si montasen una tele nueva hoy. Y la diferencia es brutal”.

“Se parecería más a la UNED que a una televisión tradicional”, bromeó. “Todo está automatizado, con inteligencia artificial, lógica de servicio en lugar de inversión, actualización constante…”. En términos generales, comentó que cada cliente es un mundo y la función de TSA como integrador es adaptarse a él y buscar la solución más apta. Y esto, en ocasiones, exige ir más despacio.

Sobre este tema, Jesús García (RTVE) puntualizó también que a veces hay que poner freno al desarrollo tecnológico por el simple hecho de llegar a toda tu audiencia, en línea con lo planteado antes por Ángel Mancebo. "Nosotros hicimos los Juegos Olímpicos en HDR, pero ajustándolo de modo que se vieran bien en SDR, que es lo que acepta la mayoría del parque de receptores. No puedes ir al mejor de los resultados en HDR, porque podría verlo mal un 75% de la población”.

SOS: hacen falta nuevos perfiles técnicos

Jesús Sancho (RTVE) quiso introducir en el debate una reflexión clave: el impacto de todo este cambio tecnológico sobre los perfiles técnicos. “Hablamos mucho de que el impacto operativo debe ser mínimo… pero el impacto técnico es brutal. Nosotros tenemos serios problemas con los técnicos veteranos… y también con los nuevos”. Explicó que los técnicos de más experiencia muchas veces no han podido reciclarse adecuadamente, y los recién llegados llegan con conocimientos teóricos muy limitados en ambos mundos: IP y broadcast. “Un recién graduado puede saber algo de IP, pero no tiene ni idea de vídeo. Y los que saben de vídeo no entienden de IP. No hay una formación híbrida real”.

Manuela Martínez (Movistar Plus+) coincidió con este análisis y añadió

que hay también un déficit de formadores: “No encuentras a nadie que te dé un curso de IP con visión de vídeo. Esa es una de nuestras dificultades: cómo reciclas a la gente”.

Jesús Sánchez (CMM) ilustró esta disyuntiva a través de un ejemplo. “En 2002 discutimos si debíamos crear un único departamento técnico que aunara vídeo e informática… y nos equivocamos. Lo hicimos separado. Ahora tenemos un problema gravísimo”.

En términos generales, quedó patente durante el debate el gran problema de comprensión entre departamentos de red y de televisión. El dilema no es menor: los especialistas en redes no comprenden la criticidad de una señal de vídeo, mientras que los técnicos audiovisuales tradicionales no dominan el IP. Y, sin embargo, todos trabajan sobre flujos interdependientes.

Uso de la nube y entornos híbridos

La siguiente parte del debate se centró en el uso de la nube y los entornos híbridos entre instalaciones locales (on-premise) y servicios remotos. Luis Sanz abrió el tema planteando dos preguntas: ¿qué experiencias concretas tenéis con flujos híbridos? ¿Y cuáles son vuestras expectativas?

Uno de los ejemplos que se puso sobre la mesa es el sistema desplegado por RTVE en la cobertura del Festival de San Sebastián, que tras sus buenos resultados se ha estandarizado en otros eventos como el Festival de Málaga o el Benidorm Fest. “Allí teníamos varios puntos de trabajo: el set de TVE en la playa, el Kursaal con la unidad móvil, el centro territorial… y Prado del Rey en Madrid -explicó Jesús Sancho-. Coordinar todo eso era muy complejo. La solución, que

DE IZQUIERDA A DERECHA: ÓSCAR LAVIÑA, ASIER ANITUA, CÉSAR BERMEJO, ÁNGEL MANCEBO Y MANUELA MARTÍNEZ.

no fue excesivamente cara, pasó por un sistema de almacenamiento en la nube con un file system compartido, que permitió una integración sencilla entre todos los sitios”.

“Cada cabina podía ingestar su material directamente a la nube, y quedaba disponible en tiempo real para el resto. Incluso desde Prado del Rey se podía acceder al archivo local, ingestarlo y subirlo al sistema común. Antes necesitabas una moto para mover cintas de un punto a otro. Ahora, en cuanto ingestabas, todo el mundo tenía acceso inmediato al material”.

Jesús García mencionó un segundo gran caso de uso en la nube de RTVE:

la logística de entrega de contenidos por parte de productoras y la comercialización del archivo histórico. Para ello, emplean dos nubes públicas con herramientas como Aspera (IBM) y Aurora (Telestream), integradas en su flujo de control de calidad. “Cuando una productora nos entrega un documental, todo llega paquetizado: vídeo, subtítulos, tráiler, ficha técnica, fotos… Todo se sube a la nube, donde Aurora hace un control de calidad automático, y solo descargamos lo que ya ha pasado ese control”.

Asimismo, García Romero compartió algunas cifras que ilustran el impacto real de este modelo cloud en su flujo logístico de contenidos:

Más de 400.000 objetos gestionados (vídeos, audios, subtítulos, imágenes…), 40 TB mensuales en tráfico de datos, 1.800.000 de operaciones al mes…

La seguridad se erige en uno de los elementos clave a tener en cuenta al migrar a la nube. En términos generales, los ponentes admitieron que existe esta preocupación, pero subrayaron que confían en las garantías ofrecidas por los proveedores.

Desde Movistar Plus+, Manuela Martínez expuso una perspectiva más cautelosa. Aunque admitió el valor de las soluciones en la nube, señaló que deben acompañarse de políticas activas de ciberseguridad.

“Estamos estudiando un proyecto de disaster recovery para el archivo, pero más enfocado a una localización privada, no tanto a nube pública. Y también estamos valorando la posibilidad de un playout en la nube como contingencia”, explicó.

TSA Media HUB

Frente a esta disyuntiva entre la nube pública y la privada, Asier Anitua presentó al resto de ponentes el servicio híbrido TSA Media HUB. “Se trata de una solución que cubre desde eventos puntuales, como en el caso de RTVE, hasta servicios más estables, como el que comenta Manuela Martínez”, expuso.

“La gran diferencia está en que aquí el cliente puede aprovechar lo mejor de cada nube, incluida una nube privada que ponemos a su disposición -precisó-. Si quieres tener tus contenidos totalmente asegurados, aislados y separados,

tienes la opción. Y también puedes compartir recursos con otros clientes si lo deseas. Para nosotros, esa es la hibridación ideal: poder trabajar con Google, AWS, Oracle Cloud, Alibaba o cualquier otro hiperescalar, según lo que necesite el cliente. Ofrecemos lo mejor de cada entorno. Esta arquitectura permite jugar mucho con los costes, según el presupuesto del cliente y el grado de compartición de recursos”.

En todo caso, las producciones en la nube no siempre compensan y, en ocasiones, continúa siendo más barato desplegar una unidad móvil, porque la flexibilidad que aporta el cloud puede resultar inasumible a nivel de coste. Y lo mismo sucede al mover el archivo u otros servicios, según coincidieron los ponentes.

Ante este escenario, TSA busca precisamente con su Media HUB solventar esas barreras mediante arquitecturas flexibles y optimización de costes.

Inteligencia artificial

Aunque es indiscutible que la IA es una herramienta con un potencial todavía difícil de adivinar, también plantea nuevos dilemas de confianza, ética, propiedad intelectual, sesgos… Y en estos asuntos se centró una parte importante de este bloque del coloquio, que planteó más preguntas que respuestas.

En el caso de la universidad, Ángel Mancebo presentó dos frentes abiertos. “Por un lado, necesitamos aplicar IA para poder documentar las más de 6.000 horas anuales de producción (actos, vídeos, programas, podcasts…), que sería imposible acometer sin automatización. Todo tiene que estar subtitulado y transcrito por ley, y estamos incluso valorando ir más allá con audiodescripción”.

“Y, por otro lado, ya estamos probando IA generativa para la creación de vídeos, que permitiría crear píldoras

DE IZQUIERDA A DERECHA: JESÚS SÁNCHEZ, PEDRO ESPINA, RAÚL IZQUIERDO Y JESÚS GARCÍA.

educativas personalizadas para cada alumno. Pero los docentes se resisten, porque tienen miedo a que lo generado no represente fielmente lo que quieren enseñar”, planteó. Aquí entra también otro dilema ético: si el sistema está aprendiendo de lo que el profesor le da… ¿dentro de un año se podrá prescindir del maestro?

Pedro Espina explicó, por su parte, que su cadena ha lanzado recientemente la iniciativa Canal Sur Lab con el objetivo de empezar a estudiar desarrollos relacionados con la IA.

“Está claro que hay dos líneas: por un lado, el uso de la IA generativa para automatizar procesos y mejorar la productividad; y por otro, la parte de producción audiovisual, donde todavía no hemos hecho ninguna evaluación seria de herramientas que se puedan utilizar”.

En el caso de los contenidos, Manuela Martínez explicó que desde Movistar están trabajando ya,

por ejemplo, en herramientas de IA para mejorar el interfaz de usuario. “Hablamos de generar previos para cada contenido, de incorporar marcas que permitan pasar automáticamente al siguiente episodio de una serie o saltar los créditos”.

“En profesiones como la documentación -planteó también Martínezel dilema es mayor. Ahí ya ves que la IA lo está haciendo todo… y lo hace bien, además. La cuestión, entonces, pasa por reciclar la profesión”. Jesús Sánchez (CMM) expuso como contrapunto que seguirá siendo necesaria una supervisión, probablemente obligatoria por ley. “Lo más interesante es que nos está dando la posibilidad de documentar mucho mejor, de forma mucho más amplia, incluso en áreas que nunca habríamos imaginado”.

Otra aplicación de la IA que los ponentes pusieron sobre la mesa es la generación de promociones de películas e incluso tráilers automáticos.

Según expuso Jesús Sancho, RTVE está desarrollando un proyecto que utiliza IA para localizar planos dentro de una película, con el objetivo de facilitar la creación de promociones. “Si funciona bien, en lugar de buscar por texto, se podrá buscar directamente por imagen: escenas con acción, con emoción, con determinada iluminación…”.

Asier Anitua (TSA) expuso, por su parte, su experiencia en el uso de IA para hacer tráilers automáticos. “No es perfecto, pero ha mejorado mucho. Y es útil, sobre todo cuando una película no tiene tráiler. Incluso se está trabajando en ofrecer diferentes versiones del tráiler según la plataforma”.

También recordó, asimismo, que el TSA Media HUB ya incorpora herramientas de inteligencia artificial para automatización, análisis semántico o subtitulado, entre otras aplicaciones.

Cinco conclusiones

del debate

1. Existen diferencias entre avances como el IP, que está permitiendo simplificar el trabajo operativo y levantar arquitecturas más flexibles, y el UHD, que está añadiendo una complejidad inédita a todos los procesos.

2. Hay un problema de comprensión entre departamentos de red y de televisión: los especialistas en redes no comprenden la criticidad de una señal de vídeo y los técnicos audiovisuales tradicionales no dominan el IP. Sin embargo, todos trabajan sobre flujos interdependientes.

3. Las producciones en la nube no siempre compensan y, en ocasiones, continúa siendo más barato desplegar una unidad móvil, porque la flexibilidad que aporta el cloud puede resultar inasumible a nivel de coste.

4. En el entorno privado, el modelo OpEx es mucho más fácil de implementar, pero en la administración pública es un problema, porque está obligada a inventariar todo y prever los costes.

5. En el ámbito de la externalización, es fundamental contar con un primer nivel propio de asistencia local. Contar en plantilla con personal que sepa diagnosticar el problema, identificar qué ha fallado y, sobre todo…, saber a quién llamar.

Generación de subtítulos

La generación de subtítulos con IA generó también debate, porque en algunos casos el resultado es publicable y en otros no, según expusieron los ponentes. Aquí entra el juego el tipo de contenido, si nos referimos a productos que no sean especialmente Premium o a una película, donde el umbral de calidad exige una supervisión humana posterior.

En todo caso, es cuestión de tiempo que la tecnología sea más precisa, y en apenas seis meses la situación puede ser distinta, según coincidieron los ponentes. Una opción que empresas como Movistar están barajando es establecer dos líneas: una para contenidos supervisados y otra para los no supervisados. Otro elemento a considerar es la tolerancia ante posibles errores, que es mayor en un directo que en un contenido de ficción.

Ángel Mancebo (UNED) explicó que, en su caso, los subtítulos son fundamentales por la obligación de la universidad de brindar un servicio público accesible, y aquí la IA ha desempeñado un papel clave: “El salto en los últimos años ha sido brutal. Antes, necesitabas un audio perfecto, sin ruido de fondo, sin acento... incluso se llegaba a rehacer el audio, para que pudiera ser transcrito correctamente. Y ahora, sin embargo, funciona sorprendentemente bien”.

Los dilemas de la IA

Al margen de la capacidad de la IA, también se abordó en la mesa hasta qué punto deben fijarse unos límites y controlar su alcance.

DE IZQUIERDA A DERECHA: MANUELA MARTÍNEZ, LUIS SANZ Y JESÚS SÁNCHEZ.

En el transcurso de este debate, se incidió en la diferencia entre la IA aplicada a procesos y la IA generativa. Con esta última, entramos en un terreno más delicado. Según expuso Raúl Izquierdo (TBS), “aquí entran en juego la propiedad intelectual, el origen de los datos con los que se entrena el modelo… Porque, si entrenas con activos propios, perfecto, pero si estás usando material de otros, aquí ya puede haber problemas. Hay que ser muy cuidadosos”.

“Hay que tener cuidado con el hype -apostilló, por su parte, César Bermejo (TSA)-. No todo lo que lleva la etiqueta de “IA” lo es, y no todo se puede aplicar sin una estrategia

clara. En este sentido, hay que tener en cuenta el ADN editorial de cada medio. Y, sobre todo, garantizar siempre la trazabilidad y el control humano”.

Incidiendo en los dilemas que plantea la IA, también se abordaron los riesgos de que su uso merme de algún modo las capacidades y creatividad de las personas. “Si dejamos que la IA lo haga todo, corremos el riesgo de convertirnos en vagos intelectuales”, advirtió en este sentido Jesús García (RTVE).

Jesús Sánchez (CMM) expuso, por su parte: “La IA aporta mucho, pero necesita una guía. Sin criterio

detrás, es solo una herramienta sin rumbo. La IA es tan buena como la persona que la maneja”. La clave, coincidió Ángel Mancebo (UNED), es saber adaptarse a este advenimiento de nuevas tecnologías. “No creo que la IA quite trabajos. Al contrario, puede generar más demanda y más oportunidades”.

Óscar Laviña (IBM) planteó, por su parte, el siguiente análisis: “Con la IA generativa, hay una clave: entender de dónde vienen los modelos. Herramientas como ChatGPT han democratizado su uso, pero no sabemos cómo están entrenadas. Se alimentan de lo que hay en internet, y eso plantea muchas incógnitas”.

“En IBM -expuso- lo que tratamos de hacer es justo lo contrario: aportar trazabilidad, transparencia y gobierno sobre esos modelos. En eso estamos trabajando con Telefónica, precisamente. La parte de gobierno será clave para que las empresas puedan exigir a sus proveedores explicaciones claras sobre cómo están entrenando sus modelos, con qué datos, y qué garantías ofrecen”.

OpEx vs. CapEx

El siguiente bloque del debate giró en torno al auge de modelos OpEx frente al CapEx. “Hay una tendencia clara, especialmente entre los grandes fabricantes, hacia modelos de suscripción. Ya no compras una licencia de edición: la alquilas”, expuso Asier Anitua (TSA).

Este modelo, según precisó Anitua, plantea ventajas e inconvenientes. La ventaja principal es que siempre estás actualizado, no tienes que hacer una gran inversión inicial y puedes acceder a tecnología puntera, en un contexto en el que todo evoluciona cada vez más rápido. El inconveniente, en cambio, es el precio: puede salir más caro a medio plazo.

“Cuando tu core es generar contenido, probablemente te inclines más por el CapEx -puntualizó Raúl Izquierdo (TBS). Si no es así, seguramente te decantes por el OpEx o vayas a un modelo de externalización”. Al incidir sobre las preferencias de cada empresa, se estableció una nítida línea entre compañías públicas y privadas. Las conclusiones que se extrajeron en este sentido es que en

el entorno privado, el modelo OpEx es mucho más fácil de implementar, pero en la administración pública es un problema, porque es obligado inventariar todo y prever los costes.

Entre los motivos que llevan a las corporaciones públicas a invertir en CapEx, también figura su vocación de permanencia. “Las empresas públicas tienen vocación de continuidad, de servicio -justificó Jesús García (RTVE). No montas algo y luego cierras y desapareces. Así que, en muchos casos, invertir en hardware propio —los ‘hierros’— tiene sentido”. Aunque coincidía con esta visión, Jesús Sánchez (CMM) contrapuso que “la versatilidad que te da un modelo OpEx, con software siempre actualizado y una flexibilidad total, es muy interesante”.

Externalización de servicios

¿Qué ventaja tiene externalizar ciertas tareas a empresas especializadas? Con esta pregunta, Luis Sanz dio paso al último bloque del coloquio. En general, los ponentes coincidieron en la necesidad de contar con un primer nivel propio de asistencia local. “Luego ya, cuando hablamos de un segundo o tercer nivel, más especializado, es muy difícil tenerlo todo en plantilla, porque intervienen muchas marcas y tecnologías”, expuso Jesús Sancho (RTVE).

“En RTVE -apostilló Jesús Garcíahemos optado por mantener un primer nivel interno especializado: estudios, continuidad, redes, redacción digital… cada uno en su área, pero trabajando de forma coordinada”.

Es, pues, fundamental contar en plantilla con alguien que sepa diagnosticar el problema, identificar qué ha fallado y, sobre todo, saber a quién llamar... “Hoy en día, saber a quién llamar ya es un valor. Un sistema que falla puede estar compuesto por piezas de varios fabricantes. Identificar por dónde viene el problema es una habilidad clave”, añadió en este sentido Jesús Sánchez (CMM).

Asier Anitua expuso, por su parte, el planteamiento que sigue TSA para casos complejos a través de su Media HUB. “La idea es ofrecer al cliente una televisión completa como servicio. Tú eliges qué parte necesitas: continuidad, producción, archivo…. Nosotros ofrecemos un 24/7 con personal técnico especializado en broadcast. Eso es lo diferencial. Porque, aunque siempre será necesario que el cliente tenga su propio primer nivel de atención, ya no necesita conocer en detalle todos los equipos ni todos los sistemas”. César Bermejo (TSA) añadió: “Nosotros ponemos la capa técnica, de innovación y soporte, pero el gobierno del servicio siempre lo tiene el cliente”.

En el ámbito de la externalización surgen también otros temas sensibles, como la privacidad, la seguridad de los datos, la dependencia tecnológica… ¿Qué garantías ofrece el proveedor externo? “En nuestro caso, -expuso Asier Anitua (TSA)-, cumplimos con el Esquema Nacional de Seguridad (ENS), tanto a nivel de ingeniería como de soporte, y estamos certificando también el Media Hub. Esto es clave, porque hoy en día cualquier pliego que implique prestación de servicios lo exige”.

El papel de IBM en el TSA Media HUB

A propósito del TSA Media HUB, Luis Sanz aprovechó la presencia de un directivo de IBM en la mesa para lanzar, a modo de broche final del coloquio, la siguiente pregunta: ¿Qué aporta la compañía a este proyecto? “Nuestras soluciones están centradas en algo muy concreto: la gestión integral del dato -resumió Óscar Laviña-. Esto significa poner el dato exacto, en el momento preciso, en el lugar adecuado”.

“Esto tiene un impacto directo en los costes -prosiguió-. Porque hoy en día hay muchísimos datos, y no puedes almacenarlos todos en sistemas de acceso ultrarrápido. Tienes que gestionar inteligentemente qué va a dónde. Y ahí es donde nuestra solución brilla: todo lo que tenga que ver con administración, archivado, acceso… lo delegas en la propia capa de almacenamiento, de forma transparente”.

El cóctel posterior, en imágenes

Migración de Sistemas Broadcast a Tecnología IP con 2110 y JPEG XS de Net Insight

Publicado por MoMe, especialistas en soluciones para media, broadcasting y comunicaciones vía satélite.

Acelerando la revolución IP: cómo las soluciones 2110 y JPEG XS de Net Insight transforman los flujos de trabajo broadcast en 2025

Damien Nagle, Product Manager Net Insight

El sector broadcast ha acelerado la migración hacia infraestructuras IP empujado por la creciente demanda de contenidos HDR de alta resolución, producción remota e integración en la nube. Además la presión regulatoria en sostenibilidad y el control de costes, exigen soluciones robustas, escalables y seguras. En este contexto, Net Insight emerge como un actor clave con su plataforma Nimbra, que integra el estándar SMPTE ST 2110 para transporte IP sin compresión y JPEG XS como opción de compresión ligera, ideal para flujos exigentes en calidad y baja latencia.

Cada vez más broadcasters avanzan hacia modelos IP-first; las soluciones de Net Insight con equipos Nimbra desplegados en más de 85 países, impulsan redes multi-nacionales para producción en directo a gran escala, facilitando la convivencia fluida entre entornos SDI y 2110, con la incorporación de control NMOS a flujos de trabajo colaborativos entre múltiples sedes y equipos técnicos. La codificación JPEG XS ultra-densa —gestiona hasta 160 señales UHD por dispositivo—posicionan a NetInsight como el fabricante capaz de garantizar

latencia ultra baja sin pérdida de calidad visual, aplicable tanto a entornos híbridos como a ecosistemas completamente IP, desde eventos deportivos globales remotos hasta operaciones diarias en estudios.

La producción remota obtiene beneficios tangibles de las soluciones de NetInsight. En colaboración con Mobilelinks se desarrollaron los primeros flujos de trabajo remotos totalmente IP para la Liga Sueca de Hockey sobre Hielo (SHL). El sistema conecta 14 pabellones con enlaces redundantes de 10GbE y 12 cámaras JPEG XS/2110 por sede, todo gestionado de forma centralizada. “La reciente actualización en todas principales instalaciones de la liga habilita a Mobilelinks a realizar producciones remotas fluidas para SHL. Adoptar JPEG XS nos ha preparado para producciones UHD y flujos avanzados 2110”, afirma Andreas Langell, CEO de Mobilelinks. Este concepto multi-servicio de Nimbra, combinar transporte de datos sin pérdidas con medios IP, reduce costes operativos integrando configuraciones remotas con playout y distribución en la nube.

NetInsight y DMC Production y Matchday Production han modernizado la infraestructura de ligas danesas como Superligaen (fútbol profesional) y Metalligaen (hockey sobre hielo). Centralizan la producción de más de 800 partidos cada año, usando JPEG XS para las fuentes remotas, conversiones SDI a 2110, y todo muy fiable merced a los interfaces de fibra de Nimbra. Trond Hermansen, CTO Global de DMC Production, apunta que “La plataforma Nimbra de NetInsight garantizan fiabilidad y confianza, como se ha comprobado numerosas veces en nuestra Producción Remota. De hecho lo que nos preocupaba para este caso era la fiabilidad de soluciones

alternativas”. Las Media Pro Apps configurables por software de Nimbra hacen posible reutilizar el hardware y las licencias en migraciones, minimizando gastos y garantizando transiciones sin interrupciones.

Desde el punto de vista normativo y técnico, el estándar SMPTE ST 2110 ha revolucionado la forma de transportar señales audiovisuales sobre Ethernet utilizando hardware comercial (COTS). Net Insight garantiza compatibilidad en sus plataformas Nimbra 600 y 1060, e incorpora mejoras como redundancia sin pérdidas (ST 2022-7) y temporización precisa (PTP ST 2059). JPEG XS permite ratios de compresión de hasta 10:1 sin comprometer la calidad, ideal para ancho de banda limitados. Además, Net Insight incluye SMPTE RP 2129, que simplifica la gestión IP con un enfoque similar al SDI, y agrega flexibilidad en multicast y NAT.

Los diseños modulares de Nimbra permiten escalar operaciones con agilidad, realizar la transición de SDI a 2110 mediante actualizaciones por software, reduciendo el equipamiento en campo y la necesidad de personal técnico desplazado. Flujos NMOS, relojes PTP redundantes, preservación de encabezados RTP bajo RP 2129 y replicación con NAT posibilitan la expansión de redes sin reconfigurar direcciones IP. La densidad JPEG XS —hasta 160 señales UHD 4:2:2 10-bit— y la reutilización flexible de hardware e I/O refuerzan la sostenibilidad y versatilidad operativa de la plataforma.

La eficiencia de costes es fundamental. JPEG XS reduce hasta un 70 % el ancho de banda necesario frente al transporte 2110 sin comprimir, generando ahorros significativos en conectividad WAN. En el mercado europeo,

esto abre oportunidades para conectar instalaciones regionales mediante redes de fibra existentes, como el despliegue con Red Bee Media, que implementó el primer IP Media Trust Boundary 100GbE del mundo, combinando ST 2022, ST 2110 y ruteo NMOS en servicios gestionados. “Ha sido un gran ejemplo de colaboración. Net Insight adaptó Nimbra para ofrecernos funcionalidad exclusiva antes que nadie”, señala Robert Luggar, Jefe de Ingeniería de Playout en Red Bee.

Esta apuesta por la interoperabilidad es una de las fortalezas estratégicas de Net Insight. Su arquitectura IP Media Trust Boundary asegura una integración sin fricciones entre múltiples fabricantes, cumpliendo las directrices EBU. En NAB 2025, se presentó una transición fluida entre entornos 2110 y producción en la nube cloud, validando la escalabilidad y fiabilidad de la plataforma.

MoMe, con más de 25 años de experiencia en Ingeniería Broadcast y Media siempre al día con la evolución tecnológica, integra soluciones líderes como Net Insight para migrar a flujos IP, producción remota o contribución a través de la nube. Actualmente, la integración con la nube, la orquestación automatizada y los entornos IP resilientes, son los pilares de las nuevas tecnologías en producción audiovisual.

Isidoro Moreno, Head of Engineering de OBS:

“Para mí no hay duda: cuanta más resolución y calidad de imagen, mejor”

Por Daniel Esparza

Patrocinado por:

De la inmediatez a la planificación. Así describe Isidoro Moreno, Head of Engineering de OBS, el giro que supuso en su carrera pasar de dirigir técnicamente el Canal 24 horas a trabajar en los Juegos Olímpicos, un salto que considera uno de los grandes puntos de inflexión de su carrera. ¿El momento más crítico? Tokio 2020, donde a la complejidad habitual del evento se sumó el contexto excepcional de la pandemia.

En esta entrevista, Moreno comparte anécdotas tanto de su etapa en la corporación pública como en OBS, y traza un diagnóstico sobre los retos, fortalezas o avances tecnológicos principales de la industria. En cuanto a la evolución del consumo de contenidos, dibuja un panorama en el que convivirán la inmediatez y los productos de largo recorrido, y anticipa que una de las claves a futuro será saber combinar adecuadamente ambas formas de narración.

También reflexiona sobre el asunto de las resoluciones, un apartado en el que invitados anteriores de la sección ‘Off the record’ han percibido en ocasiones un bombo excesivo. “Es un debate abierto, pero para mí no hay duda: cuanta más resolución y calidad de imagen, mejor. El HDR, por ejemplo, es una mejora clarísima respecto al SDR”.

Y lo ilustra con el siguiente ejemplo: “Si echas la vista atrás y miras, por ejemplo, cómo se grabaron los Juegos de Barcelona 92 —que ya se hicieron en digital—, la resolución era tan baja que si grababas una carrera de 100 metros con una cámara frontal y no estaba perfectamente centrada, no eras capaz de identificar bien a los corredores. Hoy eso sería impensable”.

A continuación, un resumen de la conversación:

¿Cuáles fueron tus primeros pasos en la industria de la televisión y qué momentos destacarías?

Entré a trabajar en Televisión Española tras aprobar la oposición, y me destinaron al centro territorial de Bilbao. Era un centro importante, y además era un momento políticamente muy activo: estamos hablando del año 84.

Bilbao siempre ha sido una ciudad con mucho contenido. Profesionalmente, lo interesante fue que al incorporarme a un destino más pequeño que un gran centro de producción como el de Madrid, tuve acceso a prácticamente todos los flujos de trabajo existentes. Todo esto me dio una visión muy global de lo que es la televisión.

Después pasaste a OBS, que es donde estás ahora, ¿no?

Bueno, pasaron muchos años hasta entonces. En todo ese tiempo viví varios momentos clave. Como te decía, para mí Bilbao fue todo un descubrimiento. No venía del mundo de la televisión: estudié la carrera de telecomunicaciones, pero no tenía una especialización en imagen y sonido, a diferencia de muchos compañeros. Así que fue un descubrimiento total.

Pasé por muchos departamentos, y hubo un punto de inflexión en el año 90 con los Juegos Olímpicos de Barcelona. La magnitud del evento era tal que se requería una planificación y unos recursos enormes. Organizar un evento de este tipo no es algo que se improvise en un fin de semana. Aunque estamos acostumbrados a ver retransmisiones muy competentes en fines de semana,

ISIDORO MORENO

cuando se trata de un evento como los Juegos Olímpicos, el nivel de coordinación necesario es muchísimo mayor.

¿Cómo viviste ese salto, en qué medida cambió tu día a día de trabajo?

Yo venía de hacer televisión en su forma más tradicional, y justo antes de dar el salto al mundo de los grandes eventos estaba en la sección de informativos, concretamente en el Canal 24 Horas. Fui responsable técnico allí, y el enfoque era completamente distinto: todo era inmediatez, rapidez, reacción constante.

En cambio, con los Juegos Olímpicos entré en el mundo de la planificación, que es todo lo contrario. Ahí se trata de preparar cada detalle para que, cuando llegue el momento de la retransmisión, todo encaje perfectamente. Siempre digo lo mismo: cuando algo está muy bien planificado, la percepción que tiene el espectador es que ha sido fácil, que todo ha salido rodado. Pero que parezca fácil es precisamente el resultado de un enorme trabajo previo.

Ese cambio fue fundamental para mí. Me marcó pasar de lo inmediato a lo planificado, y aprender cómo se gestiona un evento tan complejo como unos Juegos Olímpicos, donde se emiten múltiples deportes al mismo tiempo, con coberturas distintas para cada uno. La coordinación de todo eso es un mundo muy interesante.

¿Qué momentos especialmente críticos de tu carrera te vienen a la cabeza?

A estas alturas, con la trayectoria que tengo, ha habido muchos. Y no es que uno sea masoquista, pero cuando te enfrentas a un problema que no estaba previsto, y eres capaz de resolverlo, eso te da una gran satisfacción profesional.

Uno que recuerdo especialmente fue en las elecciones del País Vasco de 2001. Yo estaba todavía en Televisión Española y participaba en la cobertura. A escasos segundos de empezar la emisión, el canal de programa del mezclador de vídeo no funcionaba. No quedaba ni un minuto. Observé que el canal de previo sí funcionaba, así que hablé con el operador y le pregunté si podía cortar desde el previo en vez del programa. Me dijo que creía que sí. Conmutamos un par de cosas, y lo hicimos: salimos en directo usando el canal de previo. Salió bien. Esa sensación de "lo conseguimos" es impagable.

Pero los Juegos Olímpicos de Tokio fueron, sin duda, el momento más crítico de mi carrera. No solo por la complejidad del evento en sí, sino por el contexto de la pandemia.

¿Me puedes detallar cómo fue esta experiencia?

El evento se retrasó un año por la covid, y cuando llegó finalmente el momento de celebrarlo, todos pensábamos que ya estaría superado. Pero no fue así. Por suerte, lo habíamos previsto. Nos hicimos la pregunta clave: “¿Y si esto no ha terminado?”. Con ese planteamiento, diseñamos una estrategia de trabajo remoto y contemplamos múltiples escenarios posibles.

La entrevista, en siete claves

“Uno de los grandes puntos de inflexión ha sido la transición de nuestra infraestructura al mundo IP. En nuestro caso, prácticamente hemos migrado ya el 100%”

“Con IP pasamos a una infraestructura más compleja, donde diagnosticar problemas no siempre es tan inmediato, pero que nos permite hacer cosas que antes eran impensables”

“Creo que el momento del 3D no ha llegado todavía. El mundo, en efecto, es tridimensional, así que en teoría tiene sentido… pero creo que se planteó mal”

“Una noticia clave del último año ha sido el inicio del declive del consumo lineal. Es un cambio que ya venía gestándose, pero ahora se ha hecho más evidente”

“El modelo español tiene ese componente de subvención y apoyo a la cultura que permite potenciar contenidos que, quizá en otros mercados, no podrían desarrollarse”

“Uno de los grandes retos a los que nos enfrentamos ahora mismo es el de las fake news y la manipulación maliciosa de los contenidos generados por inteligencia artificial”

“El mundo del broadcast ofrece muchas oportunidades. Se están abriendo caminos nuevos, muchos de ellos desconocidos todavía”

Una operación olímpica requiere muchísima gente, y cada persona ocupa un puesto con un nivel de criticidad muy alto. No puedes improvisar. Además, todo el personal tiene que ser acreditado con antelación, incluso con validación de antecedentes por parte de Interpol. No es un “ven mañana y te apuntas”. Así que decidimos preacreditar a personas de reserva. De esa forma, si alguien caía por covid u otra causa, teníamos una solución inmediata.

También habilitamos una infraestructura completamente accesible en remoto. Si una persona daba positivo al llegar al país —y esto pasaba, porque los umbrales de detección no eran los mismos en origen que en destino—, aún podía trabajar desde su habitación. Muchos agradecieron poder seguir activos, porque quedarse aislado 14 días (en el caso de Tokio) o incluso 21 (como en Pekín) sin hacer nada era durísimo.

Poder mantener una rutina diaria les ayudó muchísimo.

¿Qué avances tecnológicos crees que han tenido más impacto en el sector?

Hay muchos avances de los que se habla hoy en día. Todo el mundo menciona la inteligencia artificial, por ejemplo, y es cierto: se está hablando muchísimo. Pero para mí, uno de los grandes puntos de inflexión ha sido la transición de nuestra infraestructura al mundo IP. En nuestro caso, prácticamente hemos migrado ya el 100%.

Esto nos ha permitido optimizar recursos de forma notable. La industria broadcast siempre ha sido muy robusta, muy planificada, con sistemas que funcionaban sí o sí. Antes enchufabas una cámara a un magnetoscopio y aquello iba seguro. Ahora, en el mundo IP, el

modelo se parece más al de IT: dispositivos que se supone que son “plug and play”, aunque nosotros decimos de broma “plug and pray” —enchufa y reza para que funcione—.

Con IP hemos ganado muchísima flexibilidad. Pasamos de un hardware dedicado, muy fiable y directo, a una infraestructura más compleja, donde diagnosticar problemas no siempre es tan inmediato, pero que nos permite hacer cosas que antes eran impensables. Por ejemplo, ahora tenemos un centro de soporte centralizado en el IBC, que opera de forma remota.

Durante los Juegos de París, por ejemplo, gestionamos el TOC —nuestra interfaz entre las unidades móviles y la red de contribución— desde París. Esta capacidad de operar remotamente, de dar soporte casi en tiempo real como si estuvieras físicamente presente, es fundamental.

No solo para nosotros: también lo están aprovechando televisiones generalistas como TVE, con centros territoriales repartidos por todo el país.

El contenido es cada vez más complejo y más distribuido. Lo estamos viendo también en las plataformas. Producciones de Netflix, por ejemplo, están muy orientadas a los países donde se producen: son ad hoc, muy localizadas, con un alto nivel de personalización. Y eso también es posible gracias al mundo IP.

¿Y qué avances creen que han tenido, en cambio, más promoción que aplicación real?

Es cierto que ha habido avances tecnológicos a los que se les dio mucho bombo en su momento y que, al final, no fueron para tanto. Uno de los más claros, en mi opinión, fue el 3D. Creo que el momento del 3D no ha llegado todavía. El mundo, en efecto, es tridimensional, así que en teoría tiene sentido… pero creo que se planteó mal.

El gran error fue aplicar la misma narrativa del 2D al 3D. Y eso no funciona. En una película rodada en 2D, tú diriges la atención del espectador hacia un punto concreto de la escena. En 3D, ese control se pierde. Puede que tú quieras que se fijen en algo en particular, pero el espectador, con sus gafas 3D, está mirando hacia otro lado. Es como estar en un partido de fútbol y justo en el momento del gol estás mirando la banda opuesta. Te lo pierdes.

Yo recuerdo bien aquel 2012, cuando parecía que el 3D iba a revolucionar la industria. Se le dio muchísimo bombo, pero al final quedó en casi nada.

Otro ejemplo todavía más reciente ha sido el metaverso. Se presentó como el gran paradigma del cambio, pero tampoco ha cumplido esas expectativas. Sí, tiene su cabida, y hay reminiscencias de aquel impulso inicial, pero no ha sido ese gran salto que se prometía.

¿Cuál crees que ha sido la noticia del año?

Si tuviera que destacar una noticia clave del último año, más allá de una fecha concreta, diría que ha sido el inicio del declive del consumo lineal. Es un cambio que ya venía gestándose, pero ahora se ha hecho más evidente. Las plataformas, los eventos deportivos en streaming, los contenidos bajo demanda... todo esto está transformando la forma en que se accede al contenido.

La televisión generalista ya no es tan prominente como antes, y lo mismo ocurre con la transmisión lineal. Antes te sentabas en el sofá, ponías la tele y veías lo que estuvieran emitiendo. Hoy, ese modelo ha perdido fuerza.

Recuerdo que en 2001, en una intervención en una pequeña conferencia en Almería, me preguntaron cómo veía el futuro de la televisión, y respondí que lo veía como Internet: cada uno accede al contenido que quiere, cuando quiere. Eso se ha cumplido con las plataformas. Antes hubo intentos con el satélite, donde las películas empezaban cada cuarto de hora, pero ahora la clave es la inmediatez: quiero ver lo que quiero ver, en el momento que decido verlo.

Curiosamente, aunque la tecnología ya lo permitía, el público no había adoptado ese comportamiento tan rápidamente. Pero ahora sí. Y eso marca una nueva etapa: el acceso digital al contenido es cada vez más dominante.

Y, por supuesto, otra gran noticia ha sido la irrupción de la inteligencia artificial generativa. Hasta ahora hablábamos de IA como herramienta para ejecutar tareas automáticas, pero ahora estamos viendo sistemas capaces de generar contenidos. Tienes las reglas del lenguaje, los elementos necesarios, y puedes pedirle a una plataforma que componga un texto como si lo hubiera pensado un humano. Eso es un cambio profundo.

¿Qué grandes retos crees que tiene por delante la industria?

Uno de los grandes retos a los que nos enfrentamos ahora mismo, y que me preocupa especialmente, es el de las fake news y la manipulación maliciosa de los contenidos generados por inteligencia artificial. Es decir, la posibilidad de generar información impactante —y falsa— con apariencia de veracidad.

Aunque existen políticas que obligan a indicar si un contenido ha sido generado mediante herramientas sintéticas, el reto está en garantizar que esa transparencia se cumpla. Porque la tecnología lo permite, y si no se usa de forma ética, puede convertirse en un problema muy serio.

Pongo un ejemplo técnico que hemos debatido mucho en nuestro entorno: la producción en 8K.

En deportes, cuando grabas a 120 fps —el límite técnico actual debido a la velocidad de la luz—, las repeticiones tienen una resolución brutal, pero aun así, a veces no capturan con precisión todo el movimiento.

Ahí surgió la idea de generar, mediante interpolación, los frames intermedios. Si sabes que la pelota va de aquí a aquí, puedes calcular lo que pasa entre medias. ¿Pero es eso real? No. Técnicamen-

La pregunta del entrevistado

El anterior invitado de esta sección, Raúl Izquierdo (director de TBS), planteó al siguiente entrevistado, que eres tú: ¿cómo ves la evolución de los contenidos y de los modelos de producción desde el punto de vista técnico de cara al futuro?

Desde el punto de vista técnico, yo diría que uno de los aspectos más relevantes en la evolución de los contenidos es todo lo relacionado con las nuevas resoluciones y estándares de imagen. Estamos hablando de HDR, UHD, 1080p HDR… Es un debate abierto, pero para mí no hay duda: cuanta más resolución y calidad de imagen, mejor. El HDR, por ejemplo, es una mejora clarísima respecto al SDR.

La resolución también es clave. Si echas la vista atrás y miras, por ejemplo, cómo se grabaron los Juegos de Barcelona 92 —que ya se hicieron en digital—, la resolución era tan baja que si grababas una carrera de 100 metros con una cámara frontal y no estaba perfectamente centrada, no eras capaz de identificar bien a los corredores. Hoy eso sería impensable.

Y todo esto ha llegado también a los dispositivos personales: tenemos teléfonos móviles que graban en 4K, lo que demuestra cómo ha evolucionado la calidad de imagen a nivel de consumo.

Pero junto a este avance técnico, hay un desafío importante: la forma en que se consumen los contenidos. La gente joven, por ejemplo, no suele ver partidos completos. Prefiere resúmenes de tres, cuatro o cinco minutos. Y a veces, incluso viendo un partido entero, uno acaba viendo el resumen… y te das cuenta de que no refleja bien lo que pasó. Hay momentos clave que se pierden.

te es una estimación, y en retransmisiones deportivas eso plantea un problema. No puedes tomar una decisión sobre una jugada basándote en un frame que no existió realmente.

Al mismo tiempo, se ha dado el fenómeno contrario: narrativas que antes duraban hora y media —como una película—, ahora se desarrollan en series de ocho temporadas. Es una paradoja: por un lado, se busca inmediatez; por otro, hay espacio para contenidos largos y complejos. Ese equilibrio es muy interesante. Hay potencial tanto para el consumo rápido como para el contenido profundo y sostenido.

¿Qué pregunta te gustaría dejar a ti al próximo entrevistado?

Pues tiene relación con esto. En este contexto tan contradictorio, donde por un lado tenemos jóvenes que consumen contenidos en pantallas muy pequeñas —móviles, tablets— y, por otro lado, una industria que apuesta cada vez más por pantallas grandes, con más resolución e inmersión… ¿cómo se compatibilizan esos dos mundos?

Recuerdo una charla que di en la Universidad Complutense, donde pregunté a los estudiantes cómo consumían contenido. Me sorprendió ver que, aunque valoraban muchísimo las series y producciones de alta calidad, muchas las veían en el móvil o la tablet. ¿Por qué? La mayoría coincidía: por privacidad. No querían ver una serie en el salón con sus padres haciendo comentarios. Querían ver lo suyo, en su espacio.

Y sin embargo, los eventos deportivos preferían verlos en grupo, en pantallas grandes. Ese contraste —lo individual frente a lo compartido, lo portátil frente a lo inmersivo— me parece muy interesante. Y me encantaría saber cómo lo ve el siguiente entrevistado.

Entonces, si somos tan estrictos en entornos como este, ¿cómo no vamos a serlo con la información que emitimos al gran público? Tenemos que ser extremadamente cuidadosos para garantizar que lo que se muestra en pantalla es veraz y no está manipulado con fines cuestionables. Ese, para mí, es uno de los grandes retos del sector hoy.

¿Cuáles son las principales fortalezas de la industria española?

Como usuario de televisión y profesional del sector, creo que ha habido un cambio muy importante en la producción audiovisual española. La calidad de nuestras producciones ha mejorado muchísimo y se ha equiparado, en muchos casos, a la de las grandes producciones internacionales.

También ha cambiado mucho la forma de narrar. Antes, el cine europeo tenía una narrativa muy distinta al cine global, pero ahora vemos una clara convergencia, y creo que es para bien. No se trata de hacer grandes superproducciones, sino de encontrar un lenguaje narrativo que conecte con el público. En ese sentido, España ha sabido evolucionar muy bien. La narrativa española es interesante, innovadora y está teniendo un eco internacional muy fuerte.

Hay series españolas que han tenido un impacto global enorme, no solo en países de habla hispana, sino también en otros mercados donde han sido dobladas o subtituladas. Eso habla muy bien de cómo se están haciendo las cosas.

Y otro aspecto que me parece clave es el equilibrio entre lo público y lo privado. El modelo europeo —y

en particular el español— tiene ese componente de subvención y apoyo a la cultura que permite potenciar contenidos que, quizá en otros mercados, no podrían desarrollarse. Ese equilibrio es muy valioso. Es lo que permite apostar por producciones con identidad local, con una mirada propia, sin depender únicamente del rendimiento comercial inmediato.

Así que, en resumen, diría que nuestras fortalezas están en la calidad narrativa, la internacionalización de nuestras producciones y ese modelo de apoyo institucional que permite desarrollar contenido con valor cultural y creativo. Todo eso posiciona muy bien a la industria española en el entorno internacional.

¿Qué consejos darías a alguien que está empezando en el sector?

No tengo recetas mágicas, pero sí creo que hay algo que siempre funciona: observar. Observar lo que pasa a tu alrededor, reflexionar sobre las tendencias, los cambios, el origen de las cosas. Eso aplica a cualquier ámbito profesional.

El mundo del broadcast ofrece muchas oportunidades. Se están abriendo caminos nuevos, muchos de ellos desconocidos todavía. Y ahí hay un reto muy interesante para quienes tengan inquietud por innovar. Hoy en día hay herramientas disponibles para casi todo: lo importante es tener curiosidad, reflexionar, y no pensar que todo tiene que ser radicalmente disruptivo. La mayoría de las veces, la evolución se basa en lo anterior. Mi consejo sería ese: observar, reflexionar, detectar qué ángulos están menos explorados y profundizar en ellos.

Almacenamiento sin límites: M.Hermida presenta UNITEX, la unidad LTO externa con conexión USB

Tanto como crear, es saber guardar: conoce la unidad LTO con USB para quienes no pueden perder nada

En un contexto donde los volúmenes de datos crecen de forma exponencial —especialmente en sectores como el audiovisual, la fotografía o la producción de contenidos—, disponer de soluciones de almacenamiento fiables, portátiles y accesibles ya no es opcional: es esencial. Frente a este desafío, la unidad LTO externa con conexión USB de Unitex representa un cambio significativo en el acceso al almacenamiento profesional.

A diferencia de las tradicionales soluciones LTO, que hasta ahora requerían infraestructuras complejas y conexiones como SAS o Fibre Channel, esta unidad permite conectar directamente una cinta LTO a cualquier ordenador

mediante USB, sin necesidad de servidores dedicados ni conocimientos técnicos avanzados. Una solución que democratiza el backup profesional, poniéndolo al alcance de pequeños estudios, freelancers y equipos móviles, sin sacrificar capacidad ni seguridad.

Una solución real para quienes gestionan grandes volúmenes de datos

Con una capacidad de hasta 18 TB nativos (45 TB comprimidos), esta unidad transforma cualquier equipo con conexión USB-C o Thunderbolt 3 en una estación de respaldo profesional. Su instalación es tan sencilla como conectar y usar. Gracias a la interfaz USB 3.0 y al software LTFS3000, permite arrastrar y soltar archivos desde el explorador de Windows o Finder de Mac como si se tratara de un disco externo, conservando la compatibilidad entre distintos sistemas operativos (Windows, macOS, Linux).

Su diseño compacto (21 x 37 x 6 cm) y su peso de apenas 4,5 kg la convierten en una herramienta ideal para rodajes, producciones itinerantes, estudios fotográficos o cualquier entorno donde se trabaje con grandes volúmenes de datos. Robusta, silenciosa y sin necesidad de conexión constante a la red, esta unidad representa una alternativa fiable frente a los servicios en la nube o discos externos tradicionales.

La unidad Unitex incluye estándar el software del sistema de archivos de cinta LTO Unitex LTFS3000, que permite usar la cinta LTO en un sistema de fichero a fichero, al igual que un disco duro o una memoria USB, y tiene un manejo intuitivo para quien utiliza LTFS por primera vez ya que todas las funciones se integran en una sola ventana GUI. Permite operar de manera simultánea varias unidades LTO en un mismo sistema, comparte e intercambia datos en entornos de múltiples sistemas operativos (Windows, Mac OSX, Linux), también contiene una funcionalidad de gestión de generación de datos de grabación, que admite la recuperación de los datos grabados en el pasado, es una función de reversión de LFTS, que permite restaurar archivos eliminados oarchivos anteriores a la sobreescritura.

Esta unidad también ofrece el software opcional UNITEX ArchiveLT, que permite el archivo en modo base de datos y la recuperación a alta velocidad en LTO/HDD/ Archivo de disco óptico y la función de administración fuera de línea, lo que proporciona una solución integral para la administración de datos y el software UNITEX FASTapeLT, un software de copia de datos LTFS, admite la copia simultánea en múltiples cintas LTO, además de proteger la copia de datos mediante la función de verificación automática.

M.Hermida Informática: experiencia, especialización y soluciones a medida

Con más de 35 años de trayectoria y una facturación anual superior a 40m €, M.Hermida Informática es una empresa familiar consolidada como especialista en consumibles de impresión, almacenamiento de datos y distribución de productos de IT y de oficina.

M.Hermida distribuye cintas de datos LTO, etiquetas con códigos de barras para estas cintas, otros cartuchos de datos, discos duros, unidades SSD, memorias USB y tarjetas flash, pilas, baterías, cartuchos de tinta, toners, impresoras y papel fotográfico, entre otros muchos productos.

La compañía también se especializa en Managed Print Services, gestión documental, soluciones de impresión y ofrece asesoramiento para realizar la transformación digital en entornos empresariales.

M.Hermida Informática S.L. www.mhermida.com comercial@mhermida.com Tel. 916362900

Para quienes valoran la seguridad, la longevidad y el control sobre sus archivos, esta unidad LTO USB no es solo un dispositivo: es una inversión en tranquilidad.

Alianzas profesionales con garantías de éxito

Broadcast cinematográfico: mucho más que un término de moda

Esta nueva tendencia en el sector ha llegado para quedarse. Los diferentes actores del cine y el broadcast, incluidos los fabricantes de cámaras y ópticas, deben entenderse para generar alianzas profesionales con garantías de éxito

Por Carlos Medina, asesor en Tecnología Audiovisual

Cuando alguien quiere identificar lo más significativo de un largometraje, simplemente diciendo con contundencia: “es cine”, parece que se ha dicho todo. Exactamente igual sucede cuando queremos aproximarnos a los contenidos televisivos. Con decir: “es televisión”, queda todo más claro. Recuerdo las veces que he oído entre amigos, en foros profesionales o para recomendar un audiovisual expresiones como: “esto es cine”, “para ser un programa de TV, no está mal, funciona”, “tal serie

de TV es cine”, “la historia esta muy bien, pero parece video/TV”, entre otras.

Tenemos que decir que esta vinculación entre cine-TV y TV-cine, ha estado presente desde el momento en que ambos medios de comunicación necesitaron convivir e interrelacionarse para conseguir mejores resultados en el balance económico del contenido audiovisual generado. En un primer momento, fue por pura necesidad comercial, afectando a las vías de financiación, la explotación de la obra audiovisual y la temporalización en el uso entre los distintos canales de distribución de los contenidos cinematográficos en la TV (convencional y plataformas). Lo que se conoce como las ventanas de distribución/explotación.

Esta primera interacción, a cambio, permitía a la TV ofrecer otro tipo de contenido de mayor calidad estética y narrativa, además de aumentar su oferta televisiva.

En un principio, los contenidos eran rodados con cámaras de cine tradicional, básicamente en material fotosensible de 35mm, que tras varios procesos, se transformaba en imágenes electromagnéticas (hacer un telecine) aptas para la emisión en TV. Primero fueron los largometrajes, después los documentales (rodados también en formatos de película S16mm y 16mm) y, más tarde, la publicidad, los videoclips y las series de ficción.

Hoy en día, un rodaje cinematográfico y una grabación video/TV no son muy distantes entre sí, dado que utilizan los mismos medios de captación de imagen y sonido

Cine y televisión siempre han tenido sus diferencias. Hasta hoy. Ambos ecosistemas del audiovisual están más próximos que nunca. En este sentido, podemos identificar varios aspectos que hacen real la fusión de ambos entornos (TV-cine; Cine-TV):

› La digitalización de procesos, fases y flujos de trabajo para obtener un contenido cine/TV, desde la captación, hasta el deliver. Ahora el cine y la TV utilizan la misma materia prima para crear contenido audiovisual. Todo son ceros y unos.

› Una mayor eficiencia y rendimiento en la gestión de los archivos digitales, manteniendo altos niveles de calidad durante todo el proceso de producción.

› La democratización de tecnología de última generación, sobre todo en cámaras. El ajustado precio y unas prestaciones bastante similares facilitan el intercambio entre los dos entornos profesionales.

› El desarrollo de ópticas más específicas, diseñadas para minimizar aberraciones y defectos ópticos para la UHD/4K que permitan una integración plena en una realización multicámara y en una transmisión en vivo.

› El cambio de tecnología de la TV, pasando del SD a UHD/TV 4K,

incorporando el HFR y posibilitando trabajar en un gamut más amplio. Todo bajo una normativa broadcast.

› La utilización de metadatos, proxys e Intermediate File Format (DPX, IMF, XML…).

› La formación en última tecnología del cuerpo técnico (“nativos digitales”) y la constante adaptación a formas de trabajar basadas en la multitarea, lo multidisciplinar y lo colaborativo.

› La cultura visual de la audiencia opúblico con referencias muy presentes de ambos ecosistemas, junto con el alto consumo de los highlights y de los videjuegos.

› Una búsqueda constante hacia experiencias más visuales, más atractivas y un lenguaje audiovisual renovado.

› La iniciativa empresarial de emisoras TV, VOD y de las plataformas on line TV (estas últimas apostando por contenidos de gran calidad visual, por ejemplo, HBO, Netflix).

En la actualidad, en la era digital, entramos en una nueva etapa. Básicamente, que los contenidos de los programas de la TV tengan una estética más cercana a las referencias que nos da una película de cine. Es decir, un programa broadcast con “look cinematográfico” o, como otros lo conocen, “modo cine”.

Es lo que se denomina broadcast cinematográfico o cinematic broadcast. Lo actual es aplicarlo en los formatos de programa donde hay un directo o falso directo con un modo de realización multicámara.

En los procesos de producción de contenidos conocidos como

Los más pesimistas creen que al broadcast cinematográfico le puede suceder como al 3D, que tras varios intentos no acabe de implantarse de una forma productiva e industrial

grabados ya se tiene experiencia suficiente para garantizar un correcto flujo de trabajo cine-TV. Por ejemplo, en las series de ficción de procedencia americana e incluso de origen español, y también, en las telenovelas de origen turco.

Hoy en día, un rodaje cinematográfico y una grabación video/TV no son muy distantes entre sí, dado que utilizan los mismos medios de

captación de imagen y sonido. Tenemos que recordar que en la etapa del cine sobre material fotosensible sí existían claras diferencias con respecto a los medios electrónicos utilizados en TV: desde el tipo de cámara (eran en su mayoría cámaras de cine 35mm), hasta la obtención de la copia cero, pasando por el laboratorio químico, el corte del negativo, el etalonaje, el positivo y la incrustación de efectos, transiciones y rotulación.

Cine y televisión buscan un look definido por algunos de los siguientes parámetros:

› Imágenes más nítidas y colores más precisos.

› Una estética con una profundidad de campo más reducida.

› Un mayor detalle entre los blancos y los negros.

› La utilización de High Frame Rate (HFR).

› Relaciones de aspecto panorámicos.

› Una narrativa más dramática y emocional.

› La belleza del desenfoque.

› Conseguir precisos bokeh.

› La inexistencia de aberraciones y distorsiones en la formación de la imagen.

› Una colorimetría más amplia, enriquecida y más cercana a las referencias de la realidad.

En el broadcast cinematográfico, como en el cine, se requiere de: cámaras con sensores más grandes (como Super 35 o Full Frame); gamut extendidos -Wide Gamut- y mayor rango dinámico; imágenes logarítmicas; ópticas dedicadas y especializadas; mediciones de exposición bajo el nº T; juegos de objetivos con distancias focales fijas más cortas; un mínimo de procesamiento de registro lineal de 10 bits; una velocidad mínima de bits de 240 Mbps a 23,98 fps; procesos de gestión y corrección de color y etalonaje en

directo; aplicando LUTs (Look-Up Tables) y función de transferencia referida a la escena (por ejemplo, Slog3, Log C, Log3G10, VLog), principalmente.

A pesar de saber lo que queremos y cómo conseguirlo, tenemos la dificultad de aplicarlo a la TV bajo unas directrices muy concretas: el formato y duración de un programa de TV, la realización multicámara, la esencia del directo (live) y la conectividad (alámbrica e inalámbrica) propia del universo de las emisiones/ transmisiones TV.

Broadcast cinematográfico, en su esencia, es unir las virtudes y experiencias de ambos entornos profesionales para hacer pura TV. Del cine, ya tenemos el conocimiento y operativa para la obtención de imágenes con calidad y el buscado look; de la TV, tomamos su maestría y configuración en la realización multicámara en directo.

Los más pesimistas creen que al broadcast cinematográfico puede que le suceda como a otras innovaciones anteriores (como los contenidos en 3D), que tras varios intentos no acabe de implantarse de una forma productiva e industrial. Solo ven problemas como la falta de disponibilidad de equipos de cámara, la conectividad entre equipos y el procesamiento de la señal de imagen, la falta de técnicos y operadores de cámara especializados.

Los más optimistas, donde me posiciono, vemos que el broadcast cinematográfico va a ser mucho más que una tendencia o un término de moda. En la actualidad, ya se han tomado varias soluciones y medidas para que la forma televisiva de trabajar en directo, con un look cinematográfico, sea asumida dentro del sector audiovisual en TV, atendiendo a distintos tipos de producciones y necesidades:

› Los fabricantes de cámaras están ofertando un abanico muy interesante, siendo los más representativos: Arri, Red, Sony, Canon, Blackmagic y Panasonic, bajo distintos tipos de cámara, desde modulares, hasta compactas, pasando por PTZ y de estudio. Incluso Fujifilm se ha sumado este 2025 a esta tendencia (con su modelo GFX Eterna).

Podemos hablar de tres grandes grupos:

- Cámaras de cine digital con capacidades broadcast (por ejemplo, Red Komodo 6K, Arri Alexa Mini LF, o Blackmagic URSA Mini Pro 12K).

- Cámaras de video broadcast con características cinematográficas (por ejemplo, Sony PXW-FX9; Canon EOS C300 Mark III, Panasonic VariCam LT)

Los agentes implicados en el cine y el live broadcasting, así como los fabricantes de cámaras y de ópticas, están obligados a entenderse y generar alianzas profesionales con garantías de éxito

- Cámaras para transmisión en vivo con estilo cinematográficos (Sony HDC-3500 y/o Grass Valley LDX 86N).

Una de las plataformas que claramente apuesta por contenidos audiovisuales de calidad, con ese look cinematográfico para consumo VOD, es Netflix. Algunas de las cámaras que recomienda para sus rodajes son: Arri LF, Mini LF, 65 y la 35; Canon EOS C300 Mark II; Mark III, C500 Mark II, C700, C700 FF, C80, C400, R5C; Panasonic Varicam 35, LT, Pure, AU-EVA1; S1H, BGH1, BS1H, AK-UC4000; Red Weapon Mostruo 8K VV, Dragon 8K VV, Helium 8K S35, W-Gemini 5K S35, Komodo 6K, V-Raptor 8K W…; Panavision DXL2; Sony Venice, Venice II 6K / 8K, Burano, FX9, F55, F65, FS7 II, F5, FX6, FR7, PXW-Z450, HDC-F5500;

Blackmagic URSA Mini Pro 4.6K / G2, Mini Pro 12K OLPF… (Consultar posibles actualizaciones en https://partnerhelp.netflixstudios.com).

› La dualidad en los flujos de señal: grabación física en RAW y conexión en directo bajo estándares Broadcast.

› Configuración de multicámara mixta, es decir, utilizar la señal de video TV broadcast junto con una señal más cinematográfica. En este sentido, se están tomando algunas decisiones muy interesantes.

› Los fabricantes y desarrolladores de ópticas están facilitando la integración de productos de alta gama en la realización televisiva en directo y con la operativa de una multicámara: Fujifilm y Canon están en la primera línea de soluciones reales: ópticas más compactas, preparadas para sensores más grandes, estándares de colorimetría, objetivos zoom motorizados, empuñaduras con encoders de 16 bits, integraciones con distintas monturas (G, BL, PL…).

- Una mención muy significativa es la línea de objetivos de Fujinon (Fujifilm): Duvo (presentada en NAB Show 2024) y la óptica LA30x7.8BRM-XB2 (NAB Show 2025).

Por una parte, realizaciones multicámara que permitan intercalar imágenes cinematográficas con otras de estilo broadcast con modelos de cámara distintos (siempre intentando que el espectador pueda justificar los cambios en la imagen y en la estética visual); y, por otra parte, utilizar cámaras dentro de multicámara que den la posibilidad de cambiar el look visual (broadcast o cine) en la misma cámara.

› La formación de técnicos especializados viene abalada por su conocimiento más profundo del entorno digital, los flujos de trabajo y los parámetros técnicos fundamentales. Asimismo, la Formación Profesional y las acreditaciones profesionales correspondientes.

› La aprobación y cumplimiento de normativa broadcast (SMPTE ST 2067-21:2016; SMPTE ST 2067-21:2020 o SMPTE ST 206721:2023; SMPTE ST-2086; UIT-R BT.709 / D65 / UIT-R BT.1886; P3 D65 / SMPTE ST 2084 (PQ); ITU-R BT.1702-1). Son muy importantes:

- La norma SMPTE ST 2048-1 define las características principales de una imagen con una resolución 4K (4096×2160 píxeles).

- La norma SMPTE ST2110, SMPTE ST.2082-12 y SMPTE ST 2036-1 para 8K UHD (7680x4320 pixeles).

- La recomendación UIT-R BT.2100, propone tres niveles de detalle o resolución: televisión de alta definición (1.920×1.080), UHDTV 4K (3.840×2.160) y 8K (7.680×4.320) utilizando todos ellos el sistema de imagen progresiva con amplia gama de colores y la gama de frame-rate recogida en la recomendación UIT UHDTV de BT.2020.

› Las soluciones de conectividad bajo SDI 6G, SDI 12G, uso de convertidores y sistemas de transmisión por fibra óptica, las redes Ethernet y/o el wifi 5G.

› La coordinación e integración de responsabilidades entre los equipos técnicos, sobre todo entre ingeniería y operaciones técnicas, producción, realización, cámara, técnicos de postproducción y etalonaje. Estas nuevas líneas de trabajo permiten obtener soluciones adaptadas, compartir criterios y facilitar uso de LUTs.

Bajo las líneas arriba escritas, parece claro que la TV broadcast apuesta por un contenido hacia lo cinematográfico, ¿y al revés?

Por supuesto que también, pero lo dejamos para otro artículo.

En definitiva, cuando se busca ese look broadcast cinematográfico, lo que se está intentando es actualizar algunos contenidos de naturaleza televisiva hacia algo más visual, espectacular y de alta calidad a ojos de la audiencia. Seguro que habrá contenidos televisivos con una estética solamente broadcast como los informativos, los concursos, los debates, entrevistas y programas Talk Show, entre otros. Sin embargo, la inquietud del sector televisivo en directo

(live broadcasting) va a ir asumiendo con mucha naturalidad un look más cinematográfico, con el fin de atraer a un mayor número de espectadores a la televisión.

Algunos ejemplos y experiencias muy positivas son:

› En TVE, los Conciertos de Radio 3, siendo la primera producción de televisión en directo con tecnología 4K utilizando las cámaras Sony FX9 de sensor full frame para conseguir un look cinematográfico.

› Sony y Trans Audio Video (TAV) para la filmación del concierto de Vasco Rossi celebrado en el estadio de San Siro de Milán. Por primera vez se utilizaron hasta 22 cámaras Sony, la mayoría de ellas con sensor full frame.

› La Super Bowl del 2021, donde se utilizó una cámara Sony Venice equipada con lentes Sigma Art 1.4.

› LaLiga y Mediapro, incorporando a sus retransmisiones una cámara mirrorless de sensor grande.

Precisamente, TM BROADCAST organizó un desayuno denominado «Broadcast Cinematográfico», (14 de mayo 2024) en el Hotel Eurostars Madrid Tower, donde varios y reconocidos profesionales de la industria televisiva de nuestro país tuvieron la oportunidad de conversar sobre las experiencias, las ventajas y los retos que supone la integración de técnicas cinematográficas en la producción televisiva.

La tendencia es muy clara. Los agentes implicados en el cine y el live broadcasting, así como los fabricantes de cámaras y de ópticas, entre otros, están obligados a entenderse, comunicarse y generar alianzas profesionales con garantías de éxito.

Los más optimistas, donde me posiciono, vemos que el broadcast cinematográfico va a ser mucho más que una tendencia o un término de moda

FUJIFILM KangarooLITE:

archivadoseguroy económicoalargoplazoencintaLTO

Sí. El titular es correcto y sintetiza los conceptos fundamentales de la nueva propuesta de Fujifilm: archivado de contenidos digitales a largo plazo, en un formato seguro y económico, garantizado a 30 años, en formato cinta. Sí, de nuevo es correcto: cinta.

Texto: Luis Pavía

En todos nuestros laboratorios nos gusta hacer una introducción explicando y posicionando los productos a analizar con la mayor precisión posible, con intención de ofrecer a nuestros lectores la mejor perspectiva de acercamiento antes de profundizar. En esta ocasión consideramos que se hace especialmente necesario.

Antes de avanzar, deseamos agradecer tanto a FUJIFILM España como a su distribuidor M. Hermida Informática S.L. todos los recursos, facilidades y tiempo que nos han dedicado para que este laboratorio haya sido posible.

Para la gran mayoría, el formato de archivado de datos secuencial en cinta es algo del pasado, que paulatinamente fue desapareciendo en favor de los discos duros, a medida que éstos se fueron haciendo más asequibles, reduciendo precios al tiempo que aumentaban capacidades. Además, el archivado en disco nos ofrece un tiempo de acceso a la información extraordinariamente más rápido que el acceso a cinta.

Incluso las últimas generaciones de cinta de hoy en día adolecen de unos tiempos de acceso mucho más lentos que los discos. Entonces, ¿qué

sentido tiene volver a pensar ahora en ellas? Muy sencillo: todavía ofrecen algunas ventajas que los discos no tienen, ni se espera que puedan alcanzarlas con la tecnología actual.

Una vez grabado, el cartucho de datos se puede guardar en un armario reduciendo a cero absoluto el coste en energía de uso, el calor generado, y el acceso no deseado desde la red. Si, cierto que eso también se puede hacer con un disco duro, pero… ¿seguiremos teniendo el interfaz adecuado y nuestros datos permanecerán incorruptos cuando volvamos a enchufar nuestro disco

dentro de, por ejemplo, 3 o 4 años? ¿o 10…? La experiencia nos dice que a veces sí, y a veces no…

No nos malinterpretéis, por favor. No estamos diciendo que el archivado en disco no sea seguro. Al contrario, todas las grandes corporaciones cuentan con sistemas perfectamente seguros a base de cabinas, sistemas NAS, configuraciones RAID, etc., que hacen que el archivado en disco sea absolutamente fiable y seguro sin ninguna duda. Y además con todos nuestros datos accesibles de forma prácticamente instantánea.

Pero con un importante coste de mantenimiento, porque además de la inversión en los propios discos necesitamos diversas infraestructuras: de datos para acceder a ellos, de alimentación para mantenerlos girando, de climatización para mantener la temperatura adecuada en las salas, y de seguridad para mantener nuestros datos a salvo de todos los ciberataques que también forman parte del día a día.

Es la infraestructura propia de las grandes corporaciones, habitualmente interna para sus grandes volúmenes de información, o contratada como servicio en la nube para otras no tan grandes.

¿Pero qué sucede con otras organizaciones que, a pesar de no ser tan grandes, generan un inmenso volumen de información, como nuestros queridos medios audiovisuales? Cierto que son de las más exigentes en accesos instantáneos con máximas velocidades de transferencia y múltiples usuarios concurrentes a menudo deslocalizados. Pero una vez terminada una producción, simplemente quieren conservar un histórico de sus brutos de rodaje, pero ya sin ninguna de esas exigencias de acceso permanente e inmediato.

Es la misma necesidad de archivado histórico a muy largo plazo sin necesidad de acceso instantáneo que también se da en otros muchos sectores, como podrían ser sanidad, investigación científica,

fondos documentales, registros legales, etc. por poner sólo unos pocos ejemplos.

Entendemos que esta es una de las claves principales que mantiene vigente este formato: el largo plazo. Insistiendo en que no es el idóneo para archivar contenidos a los que necesitemos acceder instantáneamente en el día a día, sí resulta serlo para el archivado sencillo y seguro de nuestros contenidos, originales de rodaje o cualquier otro dato que precise un histórico a largo plazo.

El sistema es capaz de interconectarse con otros sistemas de almacenamiento externo para la escritura y recuperación de datos, comportándose entonces como el centro neurálgico de nuestro sistema de almacenamiento

Porque en una sencilla mañana de rodaje nosotros generamos más volumen de información del que puede generar toda la contabilidad de una gran gestoría o un despacho de abogados en 20 años. Y mantener la accesibilidad en caliente de esos contenidos crecientes dispararía los costes de forma inviable e innecesaria.

No descubrimos nada nuevo cuando decimos que los tiempos de acceso, escritura y lectura de los datos en cinta pueden llevar bastantes segundos o minutos, cuando el mismo volumen de información en disco duro se localiza en milisegundos, incluso nanosegundos con discos de estado sólido

Las cintas todavía ofrecen algunas ventajas que los discos no tienen, ni se espera que puedan alcanzarlas con la tecnología actual

Pero sí dejamos abierta la reflexión de cómo conservar Petabytes (que son miles de Terabytes, o millones de Gigabytes) de información que deseamos conservar, pero a la

que es posible que no necesitemos acceder durante meses, o años. Pero saber que estarán disponibles y legibles con todas las garantías cuando llegue el momento. Y poder conservarlos, además, con un consumo nulo en energía, permanencia en el soporte durante un período de más de 30 años, y la tranquilidad adicional de tenerlos desvinculados de la red.

¿O es que nadie ha echado de menos aquellos planos de otra producción que tan bien nos hubiesen venido, pero hubo que borrar porque necesitábamos los discos para la siguiente…? ¿Qué sería hoy de la historia del cine si no se hubiesen cuidado los celuloides?

Ahí es donde el nuevo dispositivo FUJIFILM Kangaroo LITE viene a proporcionar una interesante solución para gestionar esa necesidad. Y decimos solución porque no se trata sólo del hardware, sino también del software “FUJIFILM Object Archive” asociado para su gestión, que siempre conforman una solución llave en mano. Así que, una vez completada esta extensa introducción, vamos a ir repasando los tres elementos clave: el hardware por un lado, el software por otro, y una sucinta información

relativa a los cartuchos LTO, como soporte necesario para que todo funcione como esperamos.

En cuanto al hardware, la familia de soluciones de archivo Kangaroo existe en dos variantes: una de gran formato, FUJIFILM Kangaroo presentada en un gran arcón que incluye incluso su propio SAI; y FUJIFILM Kangaroo LITE que es la que hemos tenido ocasión de probar. Hemos de reseñar que nuestra unidad de prueba era un prototipo y no todas las funcionalidades estaban depuradas en el momento de realización de este laboratorio.

La versión LITE está disponible en variantes de sobremesa o de rack, y en cualquiera de ellas su presencia es imponente: aunque frontalmente tiene las dimensiones de un rack estándar de 4 alturas (48 cm de ancho y 13,5 cm de alto para la versión rack, o 19,5 cm de alto para la de sobremesa), su profundidad ronda el metro. Concretamente 91 cm para la versión rack y 101 cm para la de sobremesa.

Si el tamaño impresiona, su peso tampoco es nada desdeñable: 27 Kg para la versión de rack y nada menos que 39 Kg para la de sobremesa.

De hecho, el fabricante recomienda que el desembalaje y movimiento del equipo se realice al menos entre dos personas.

Cierto que esas dimensiones son necesarias para todo lo que alberga, ya que internamente cuenta con una unidad de procesamiento suficientemente potente con procesador Intel XEON y 64 Gb de RAM, fuentes de alimentación redundantes, una librería de cintas robotizada capaz de gestionar hasta 40 cintas LTO y dos unidades LTO que permiten trabajar con dos cartuchos LTO simultáneamente.

Su comunicación con el exterior para transferencia de datos se realiza a través de interfaces SAS con dos puertos de hasta 10Gb, contando con puertos de red adicionales para la gestión y administración del sistema que se realiza de forma remota accediendo con usuario y contraseña a través de su IP.

En este punto también es importante destacar que el sistema es capaz de interconectarse con otros sistemas de almacenamiento externo para la escritura y recuperación de datos, comportándose entonces como el centro neurálgico de nuestro sistema de almacenamiento. Para las funcionalidades de lectura y escritura soporta los protocolos SMB, CIFS y NFS. También S3, pero sólo para escritura externa en este último caso.

Es decir, que resulta perfectamente posible conectar simultáneamente nuestra solución FUJIFILM Kangaroo LITE a nuestro sistema principal de discos con datos en

caliente (de acceso inmediato) y al mismo tiempo a nuestra nube pública. Como veremos en su momento, gracias a sus políticas de copia podremos programar y automatizar todo lo necesario para que nuestras copias de seguridad se realicen y mantengan sin prácticamente intervención por nuestra parte.

Obviamente, toda esta transferencia de datos se realiza con protocolos y certificados de seguridad TLS, con claves privadas almacenadas de forma segura en la base de datos interna del sistema, para garantizar la seguridad y confidencialidad de estos contenidos.

La solución

no se compone solo de hardware, sino también del software “FUJIFILM Object Archive” asociado para su gestión, que siempre conforman una solución llave en mano

Dadas las características del equipo, la primera puesta en marcha requiere de algunos minutos, necesarios para el arranque de su sistema operativo y sus propias comprobaciones de librería de cintas antes de poder extraer los dos largos cajones frontales, donde cargaremos hasta 20 cartuchos LTO en cada uno de ellos.

Aunque completaremos información de los cartuchos LTO antes de terminar, adelantamos ya algunos datos que nos parecen significativos y muy necesarios para considerar correctamente el equipo: un cartucho LTO Ultrium 9 es capaz de albergar 18 Tb de datos nativos (o 45 Tb en formato comprimido) con un precio en el entorno e incluso por debajo de los 100€. Con la librería llena de cartuchos y en formato nativo ya estamos en 720 Tb, ¡1,8 Petabytes comprimidos! Y la siguiente generación (LTO-10) presentada casi al mismo tiempo que realizábamos este laboratorio, ya ofrece 30 Tb nativos por cartucho de datos, 75 Tb en comprimido.

Una vez que el sistema ha completado su inicialización y comprobaciones nos permite abrir los cajones (magazines) y estamos en disposición de cargar tantos cartuchos LTO como deseemos con una salvedad: se recomienda que haya al menos una cinta LTO limpiadora por unidad de lectura/grabación LTO. Esto nos deja una capacidad real para 38 cartuchos de datos LTO, ya que el equipo FUJIFILM Kangaroo LITE, viene con 2 unidades LTO.

Las posiciones de los cartuchos son indistintas ya que el sistema los gestiona, mueve, carga y descarga conforme a sus necesidades. De hecho, todo cartucho LTO pasa por un primer proceso de reconocimiento totalmente automatizado.

Estos no se asignan a una posición fija, y podremos encontrarlos en una posición distinta a dónde los dejamos, ya que se reconocen por sus propios identificadores únicos, como la matrícula de un coche. Además de un chip RF interno, cuentan con impresiones en distintos formatos para nosotros: texto alfanumérico y código de barras.

El equipo nos ofrece una versatilidad ampliada que modularemos en función de nuestras necesidades en cada escenario sin cambiar ni de plataforma ni de interfaz

Es decir, que realmente no tendremos que estar buscando y sacando cartuchos LTO de ningún armario para introducirlos. Gracias a la librería robotizada integrada, y mientras no superemos la capacidad máxima, todos los cartuchos estarán siempre en el “armario interior” de nuestra librería robotizada. Pero contando también con la posibilidad de extraerlos para guardar copias adicionales en distintos lugares, replicar datos en equipos distantes, o distribuirlos conforme a nuestros gustos onecesidades, sean las que sean.

En el panel frontal disponemos de un display, y unos pocos botones para acceder a un menú y las funciones básicas. Con un botón dedicado por magazine que nos permite abrirlos ordenadamente para cargar

y descargar cartuchos llegado el momento. Una vez cargados y completada esta parte del proceso de inicialización, siguiendo por cierto las claras y detalladas indicaciones rápidas que se entregan con el equipo, estamos en disposición de irnos a cualquier ordenador para darle auténtica vida al conjunto.

Recordemos que contamos con distintas conexiones de red: un gigabit Ethernet dedicado al acceso de los administradores del sistema, mientras que las otras dos con acceso hasta 10Gb Ethernet pueden estar conectadas a una red independiente, en la que residen los datos a transferir hacia/desde los cartuchos LTO. Esta es una garantía adicional, permitiendo aislar totalmente la administración del equipo del acceso de los usuarios o la automatización para mover datos.

Tanto el acceso de administración como el acceso a los datos se puede hacer desde ordenadores ubicados en cualquier lugar del planeta con acceso a las respectivas redes, que lógicamente también pueden ser la misma.

Entrando ya en el software de control FUJIFILM Object Archive, es de reseñar que se trata de un desarrollo de FUJIFILM que permite el archivado de datos tanto estructurados como no estructurados en formato abierto y autodescriptivo en estándar “TAR Posix”. Sin entrar en los pormenores, nos quedamos con el concepto de permitirnos una integración sencilla con prácticamente todas las aplicaciones de datos y plataformas de almacenamiento (incluso públicas) de prácticamente todo tipo de usuarios.

Adicionalmente, este mismo software nos permite gestionar tres posibles destinos: en nuestro dispositivo local, en una nube privada de FUJIFILM, o en nubes públicas. De esta forma el equipo nos ofrece una versatilidad ampliada que modularemos en función de nuestras necesidades en cada escenario sin cambiar ni de plataforma ni de interfaz.

Por último, permite programar y configurar todo tipo de políticas de seguridad, como copias automáticas, número de copias simultáneas incluso con criterios discriminados por regiones, y lógicamente el borrado si también forma parte de nuestras necesidades.

Este formato resulta idóneo para el archivado sencillo y seguro de nuestros contenidos, originales de rodaje ocualquier otro dato que precise un histórico a largo plazo

Comenzamos accediendo a la administración del equipo apuntando nuestro navegador a su IP, que nos requerirá usuario y contraseña. Con un menú estructurado en forma de árbol en la columna izquierda nos

encontramos las principales secciones: Administración, Configuración Externa, Configuración Interna, Operación, Informes, Información de sistema, Cambiador de medios, y el Manual del equipo.

Cada una de ellas está dividida en submenús que nos permitirán acceder a todas las características necesarias para cualesquiera que sean nuestras necesidades. Pero continuemos con lo que sería el orden lógico de operación.

Comenzaremos siempre por la inicialización de los cartuchos LTO: una vez que éstos se han introducido físicamente en los magazines y la librería de cintas los ha identificado, debemos inicializarlos. Este proceso se hace sólo una vez por cartucho y sería comparable al formateado de los discos duros. De esta forma el equipo ya podrá manejarlo.

Continuamos entonces definiendo nuestras fuentes de datos, que serán los directorios o discos locales oremotos cuyos contenidos desearemos guardar en algún momento; y de forma independiente los destinos, que serán los lugares dónde

desearemos guardar datos llegado el caso. Recordemos que estos destinos pueden ser tanto internos en cartuchos LTO en nuestro equipo FUJIFILM Kangaroo LITE como en nubes externas.

El paso siguiente será establecer las conexiones, es decir, los vínculos con los que estableceremos que fuente se va a guardar en que destino. Y algunos parámetros más, como por ejemplo si las copias serán incrementales o totales.

Una vez que todos nuestros parámetros están definidos, el sistema puede comenzar a salvar datos, acción que podemos lanzar de forma manual, automatizar conforme a períodos de tiempo, definir estrategias como copiar o mover datos eliminándolos de su lugar original, e incluso proceder a crear las políticas con las que estableceremos si queremos copias múltiples, o distribuidas en distintos destinos, etc.

– Árbol navegación cerrado
Admin – Árbol navegación abierto

Sin sobresaltos con eso de eliminar los originales. Tengamos en cuenta que, con una política de seguridad correctamente implementada, es sencillo tener identificadas colecciones de datos que, por ejemplo, al cabo de un tiempo como un año o dos, ya no necesitamos tener en caliente (acceso inmediato), y es suficiente conservar en frío (acceso ocasional bajo demanda).

Con una alerta: el sistema admite un único usuario administrador, de forma que si se produce cualquier incidencia con sus credenciales, tendríamos un importante problema. Entendemos que este es uno de los puntos a mejorar en próximas versiones.

Avanzamos ahora para averiguar la utilidad del acceso de usuario, teniendo claro que todas y cada una de sus posibilidades siempre se podrán permitir o restringir a través de los permisos que estipula el administrador.

Lo primero que llama la atención es que esta interfaz de usuario resulta mucho más agradable visualmente, y, como es de esperar, nos permite la mayor parte de tareas que no afectan a la configuración de equipo ni de sus usuarios.

Su menú principal, también en forma de árbol a la izquierda, cuenta con menos opciones y submenús, haciendo además un gestión mucho más sencilla e intuitiva: Panel principal, Permisos, Conexiones, y Papelera. El concepto del software nos permite una integración sencilla con prácticamente todas las aplicaciones de datos y plataformas de almacenamiento (incluso públicas) de prácticamente todo tipo de usuarios

Lógicamente, también tenemos un importante apartado donde establecemos todos los permisos relacionados con los distintos usuarios que, mediante una interfaz diferente podrán realizar las distintas acciones sobre el sistema para las que les hayamos otorgado acceso como obtener informes, programar acciones, lanzar copias o restauraciones de datos, etc.

Aunque contamos con muchas más funcionalidades como registros de uso y estados del sistema, a partir de este punto ya podríamos dejar el sistema funcionando con toda tranquilidad como administrador.

Al igual que con las funciones de Administrador, a través de la pestaña conexiones se pueden establecer todas aquellas que deseamos entre las fuentes y los destinos, con la importante diferencia que, en este caso, no será posible establecer nuevas fuentes ni nuevos destinos más allá de aquellos que hayan sido configurados por los administradores. Y siempre y cuando nuestro usuario tenga acceso a dicha funcionalidad.

Esto permite una flexibilidad de configuración importante, ya que se puede facilitar enormemente la tarea del manejo por parte de los usuarios

y operadores sin sobrecargar de tareas rutinarias a los administradores por una parte, y la adaptación a las nuevas necesidades y escenarios a medida que éstas evolucionen con el tiempo.

Volviendo a las generalidades del software FUJIFILM Object Archive, nos parece interesante conocer el criterio de uso que la marca ha establecido para él. Actualmente es muy frecuente que los desarrolladores nos ofrezcan modelos de comercialización basados en suscripciones o cuotas mensuales para las licencias de acceso y uso de sus aplicaciones.

Pero a diferencia de esto, FUJIFILM ha decidido que su modelo de licencia esté vinculado al volumen de datos escritos en cinta LTO para un periodo determinado, 3 o 5 años. De esta forma, el equipo se suministra una licencia activa para mover un determinado volumen de datos a cinta LTO y un periodo determinado que, una vez alcanzado este volumen y periodo, tendremos ocasión de extender con el volumen que estimemos necesario.

En cualquier caso, y dado que LTO por definición es un formato abierto, es más que probable que haya otras opciones disponibles y que nunca quedemos cautivos. Aunque también es cierto que vista la potencia, eficiencia y posibilidades de la plataforma no encontremos otras soluciones capaces de igualarla.

Como de costumbre, y dada la gran variedad de clientes, distribuidores y modelos de comercialización, evitamos publicar precios genéricos y recomendamos acudir a vuestro proveedor.

Para terminar de completar nuestro laboratorio, hablemos del concepto de cartucho de datos LTO Ultrium. El acrónimo viene de “Linear Tape Open”, respondiendo a su configuración de archivado de datos lineales, en soporte cinta y como formato abierto. Se diseñó como alternativa a los sistemas de cinta propietarios, lo que significa que no está sujeto a un fabricante concreto, y seguramente esta ha sido una de las características que le ha permitido llegar a nuestros días. Y además contar todavía con un futuro previsiblemente largo por delante.

User GUI Connections
User GUI History

Físicamente nosotros manejaremos un cartucho ligero y compacto, una caja cerrada de poquito más de 10 x 10 x 2 cm (102 x 105,4 x 21,5 mm para ser exactos) y de alrededor de 250 gr de peso. En ningún momento veremos ni tendremos acceso a la cinta de media pulgada que alberga, y aunque sus características físicas no han cambiado desde su concepción a finales de los años 90, sí lo han hecho sus capacidades.

Cuando se concibieron ya quedaron definidas las características que deberían cumplir las distintas generaciones, para asegurar el mantenimiento de la compatibilidad sin condicionar las mejoras que pudieran tener. Estas mejoras se han centrado alrededor del aumento de la capacidad y las velocidades de transferencia.

La primera generación LTO-1 data del año 2000 y tenía una capacidad de 100 Gb. Poniéndonos en situación respecto a los discos duros, debemos considerar que en ese año un disco de 40 Gb no estaba al alcance de todo el mundo, y el récord de capacidad lo ostentaba un IBM de 75 Gb a un precio astronómico.

Desde hace pocos años disponemos de la novena generación, LTO-9,

que ofrece una capacidad de 18 Tb nativos, ampliables hasta 45 Tb si utilizamos formato comprimido, y alcanza una transferencia de datos de 400Mb/s. Cierto que hoy existen discos de la misma capacidad, con precios a partir de unos 400€, mientras que la cinta ronda los 100€ e incluso menos.

Este mismo 2025 se ha lanzado la décima generación, LTO-10, con capacidades de 30 Tb nativos que se elevan hasta los 75 Tb en formato comprimido. Aunque las especificaciones de la hoja de ruta contemplaban capacidades algo mayores, ha sido una decisión conjunta del consorcio LTO. Y la evolución no terminará aquí, puesto que ya están establecidas las especificaciones de las próximas generaciones, al menos hasta la catorceava, LTO-14, con una capacidad nativa prevista de hasta 576 Tb y comprimida de 1,4 Petabytes por cartucho.

Aunque normalmente transcurren aproximadamente entre 2-3 años entre generación y generación, estos no son simples datos teóricos, sino que FUJIFILM tiene patentada la tecnología que lo hará posible desde 2020, a base de partículas

de ferrita de estroncio (SrFe) con un récord de 317 Gbpsi (Gigabytes por pulgada cuadrada).

En definitiva, desde la concepción de las cintas LTO hace 25 años hasta hoy en día, éstas siguen estando en algunos aspectos como el nivel de protección de datos, coste por Tb almacenado, huella ecológica y hoja de ruta un paso por delante de lo que ofrecen los discos duros ode estado sólido, y no nos cabe duda de que continúan trabajando para mantener alto el listón.

FUJIFILM

ha decidido que su modelo de licencia esté vinculado al volumen de datos escritos en cinta LTO para un periodo determinado, 3 o 5 años

Así que, por el bien de nuestros datos y nuestro archivo, no perdamos de vista las soluciones de archivo basadas en cinta LTO como la que nos ofrece este equipo FUJIFILM Kangaroo LITE con su software integrado de gestión y archivo de datos, FUJIFILM Object Archive.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.