

Uno de los principales objetivos de TM BROADCAST es ofrecer al lector un espacio de reposo y análisis dando voz a los profesionales más influyentes del sector, teniendo en cuenta que la vorágine del día a día en ocasiones dificulta la tarea de extraer una visión de conjunto de este mercado tan cambiante. El número que tienes entre las manos refleja muy bien este propósito.
En primer lugar, ponemos el foco en uno de los proyectos empresariales más interesantes de este inicio de año: el plan de expansión de Toboggan. La compañía va a incrementar su número de centros de producción y, en paralelo, está a punto de estrenar un nuevo plató de producción virtual. Exploramos todas las claves de estos dos proyectos de la mano de su CEO, Juan Pedro Rodríguez, con el que nos citamos en las oficinas centrales del grupo.
Por otro lado, hemos querido en esta ocasión conocer también la visión de los clústeres, que desempeñan una importante labor de impulso del audiovisual en su rol de intermediarios ante la administración pública. Con este objetivo, entrevistamos a Miquel Rutllant, presidente del Clúster Audiovisual de Cataluña -el más importante de España-, que compagina actualmente esta labor con la presidencia rotativa de la Redcau (Red Española de Clústeres Audiovisuales), lo que le otorga una posición privilegiada para analizar la evolución del sector.
Asimismo, exploramos en este número el uso real que está dando el mercado a dos herramientas tecnológicas que se han erigido en un potente motor de innovación: la producción remota y la producción virtual.
Por un lado, las producciones en remoto han marcado un antes y un después en las retransmisiones deportivas. Y una competición de primer nivel pionera en su implementación fue LaLiga a través del Grup Mediapro. El torneo de fútbol ha superado el umbral de los 3.000 partidos realizados con esta tecnología, así que aprovechamos el pretexto para explorar todas sus particularidades de la mano de Emili Planas, CTO de Mediapro.
La producción virtual se ha convertido, por su parte, en uno de los temas más comentados del sector en este primer trimestre. Con la pandemia como punto de inflexión y propulsada por los últimos avances en pantallas LED, motores gráficos o inteligencia artificial, cada vez más empresas recurren a este tipo de soluciones, atraídas principalmente por la reducción de sus costes y las impresionantes posibilidades creativas que brinda.
Por todo ello, hemos contactado con los directivos técnicos de tres estudios de producción de renombre internacional - Quite Brilliant, dock10 y Dimension- para conocer las claves de esta tecnología y sus diferentes formas de abordarla en publicidad, televisión y cine.
Esperamos que disfrutes de esta cuidada selección de contenidos. Nos leemos de nuevo el mes que viene.
EDITOR
Javier de Martín editor@daromediagroup.com
DIRECCIÓN DE CONTENIDOS
Mercedes González mercedes.gonzalez@tmbroadcast.es
REDACTOR JEFE
Daniel Esparza daniel.esparza@tmbroadcast.es
DIRECCIÓN COMERCIAL
Javier M. Gutiérrez jmg@tmbroadcast.es
PUBLICIDAD
Sergio Castaño sergio.castano@tmbroadcast.es
Patricia Pérez ppt@tmbroadcast.com
REDACCIÓN redaccion@tmbroadcast.es
COLABORADORES
Yeray Alfageme
Carlos Medina
Luis Pavía
Carlos Alberto Martín
Javier Guerra Luis Sanz
Alfonso Redondo
José Luis Cordero
Carlos González
Fernando Suárez
MAQUETACIÓN
Sorex Media
DIRECCIÓN ADMINISTRACIÓN
Laura de Diego laura.dediego@daromediagroup.com
SUSCRIPCIONES suscripciones@tmbroadcast.es
Imprime: IMEDISA ARTES GRÁFICAS S.L.
Dep. legal: M-11254-2008
ISSN: 1888-6965
Impreso en España en marzo de 2025
TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.
TM Broadcast es una publicación de Daró Media Group S.L.
Centro Empresarial Tartessos Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid. Tf: 91 640 46 43
REPORTAJE
Luces, cámaras… y expansión: Toboggan pone en marcha su plan de renovación
La compañía está inmersa en un proyecto de ampliación de sus centros de producción y va a estrenar, en paralelo, un nuevo plató de producción virtual. El objetivo: consolidar su vocación de proveer todos los servicios técnicos de una producción.
Acudimos a sus instalaciones para conocer los detalles de su plan estratégico de la mano de su CEO, Juan Pedro Rodríguez.
Mediapro ha superado el umbral de los 3.000 partidos realizados en remoto. Aprovechamos el pretexto para explorar las claves de este tipo de retransmisiones de la mano de Emili Planas, CTO de Mediapro. “Para que la producción remota sea una buena opción, se tienen que alinear los astros. No es algo que salga siempre a cuenta”, advierte.
Miquel Rutllant, presidente del Clúster Audiovisual de Cataluña: “Necesitamos disponer de más infraestructuras”
Miquel Rutllant compagina actualmente su labor al frente del Clúster Audiovisual de Cataluña con la presidencia rotativa de la Redcau (Red Española de Clústeres Audiovisuales), lo que le otorga una posición privilegiada para analizar la evolución del sector. Apunta, a este respecto, tres tendencias: producción virtual, inmersividad y evolución de los drones.
La producción virtual desde dentro: cómo están implementando los estudios más punteros esta herramienta
Los directivos técnicos de tres estudios de renombre internacional - Quite Brilliant, dock10 y Dimension- nos aportan sus claves para entender qué uso real está dando el mercado a esta herramienta tecnológica y sus diferentes formas de abordarla en publicidad, televisión y cine.
52
44
Un imprescindible que todos deberíamos tener Antorchas LED y minipanel LED para grabaciones de vídeo broadcast
Exploramos las soluciones de iluminación que utilizan los operadores de vídeo y televisión cuando salen a grabar sus contenidos audiovisuales, que conocemos como “piezas”.
LABORATORIO
SonyBRC-AM7
Inteligencia artificial de serie
La integración de funcionalidades controladas por IA, además de algunas características técnicas, hacen de esta PTZ una cámara diferente. Todo unido supondrá un significativo salto adelante en los flujos de trabajo de estos equipos.
60
LU-Smart y LiveU Studio servirán para mejorar la cobertura de eventos en directo de la radio pública
Radio Nacional Española (RNE) ha anunciado la integración de las soluciones de vídeo IP de LiveU combinadas con las de su socio local, Datos Media Technologies. A través de la aplicación móvil LU-Smart de LiveU integrada con su servicio de producción en la nube LiveU Studio, el medio tiene como objetivo maximizar las capacidades de producción en la nube para que sus programas de radio en vivo conecten mejor con la audiencia, según ha anunciado LiveU en un comunicado.
LU-Smart aprovecha las redes existentes (4G/5G, Wifi y LAN) para proveer la cobertura, permitiendo la producción de contenidos en vivo desde prácticamente cualquier lugar a través de un teléfono inteligente. Estas señales se envían a LiveU
Studio, permitiendo, así, la gestión y mezcla de canales (hasta 12 fuentes), la edición gráfica, la conmutación y la distribución de señales de vídeo desde cualquier lugar.
LU-Smart y LiveU Studio están tratando de mejorar la capacidad de RNE para cubrir eventos en vivo con la mínima equipación y una reducción de sus costes. El Studio permite la integración de unidades de campo portátiles LiveU adicionales para contribuir e integrar transmisiones en vivo distribuidas para su emisión a través de cualquier plataforma RTVE.
Según José Luis García Hernán Pérez, Subdirector de Medios Técnicos de RNE: «La tecnología LiveU ha significado una mejora importante, gracias a que facilita la incorporación de más contenidos de vídeo en la programación de radio. Esto responde a la demanda creciente de la audiencia de RNE, que busca una experiencia multimedia más dinámica y enriquecedora».
La colaboración entre LiveU y Datos Media busca optimizar las operaciones técnicas para ofrecer contenido dinámico y de alta calidad, satisfaciendo las demandas de la audiencia de inmediatez y accesibilidad.
«Nuestra colaboración con LiveU aporta soluciones de calidad e innovación a nuestro catálogo para este proyecto y para los futuros», añade Tomas Nielsen, director ejecutivo de Datos Media Technologies. «Con la tecnología LiveU, RNE obtiene la capacidad de producir eventos en vivo basados en la nube con un equipo mínimo, manteniendo una calidad de primer nivel y una integración perfecta con el resto de RTVE».
Laura Llames, directora general de LiveU en el Sur de Europa, resumió: «Estamos encantados de seguir creciendo con RTVE. Por encima de nuestro trabajo diario con TVE, es un privilegio ayudar al equipo de RNE llevando la radio también a la pantalla».
El objetivo full-frame con montura tipo E cuenta con rendimiento de alta resolución en todo el rango de teleobjetivo, bokeh y enfoque automático (AF)
Sony ha anunciado el lanzamiento de FE 400-800 mm F6.3-8 G OSS (SEL400800G), el primer superteleobjetivo zoom G Lens 800 mm de la marca. Esta nueva gama de objetivos Alpha incorpora un rendimiento de alta resolución en todo el rango de teleobjetivo, un bokeh y un enfoque automático (AF). Además, el diseño de zoom interno, que minimiza el cambio del centro de gravedad, permite un encuadre estable. Este también es compatible con los teleconvertidores 1,4x y 2x, con la intención de ampliar la longitud focal máxima a 1600 mm, según ha comunicado la compañía.
«En Sony, las necesidades de los fotógrafos y creadores son siempre la prioridad, por lo que estamos muy orgullosos de presentar el FE 400-800 mm F6.3-8 G OSS, la mayor longitud focal de la gama de objetivos con montura tipo E de Sony»,
indica Yann Salmon Legagneur, director de IP&S Marketing de Sony Europe. «Con la calidad prémium G Lens y un innovador diseño, este superteleobjetivo ofrece una increíble calidad de imagen en todas las longitudes focales, incluso hasta 1600 mm con un teleconvertidor 2x».
El objetivo ha sido diseñado para cubrir un rango de superteleobjetivo de 400 mm a 800 mm y puede llegar a una longitud focal máxima de 1600 mm con un teleconvertidor 2x. Con un mecanismo de zoom interno, la longitud del objetivo no cambia, de modo que el centro de gravedad permanece prácticamente igual. El objetivo cuenta con un anillo de rotación de zoom fluido.
Incorpora, además, una apertura circular de 11 láminas para contribuir a crear un efecto de bokeh esférico cuando se dispara con una
profundidad de campo reducida. Seis elementos de cristal ED (dispersión ultrabaja) controlan la aberración cromática.
Sus motores lineales de precisión controlan el grupo de enfoque y el seguimiento se mantiene con la velocidad máxima de ráfaga de 120 fps en la Alpha 9 III. Un interruptor limitador de enfoque (FULL/10mNEAR/¥-8m) se puede utilizar también para optimizar el control para diferentes distancias de sujetos.
El objetivo puede utilizarse para disparar a mano sin desenfoque debido al movimiento a través de la estabilización de la imagen óptica integrada SteadyShot TM. En el caso de la utilización de un trípode, el pie de la montura se puede rotar para una orientación horizontal o vertical.
Tres botones de fijación de enfoque con incrementos de 90° alrededor del barril del FE 400-800 mm F6.3-8 G OSS permiten su acceso en cualquier orientación y otras funciones. El zoom interno y el diseño resistente al polvo y a la humedad incluyen un elemento frontal que tiene un revestimiento de flúor que repele los agentes externos y hace que las lentes sean más fáciles de limpiar. Además, el DMF activa automáticamente el enfoque manual cuando se maneja la anilla. Por último, el parasol tiene un nuevo diseño con un botón de bloqueo y apertura de filtro.
El superteleobjetivo estará disponible en marzo de 2025 a un precio aproximado de 3.000 € en diferentes distribuidores autorizados de Sony.
Los nuevos modelos (AG-CX20, AG-CX18, HC-X1600 y HC-X1200) incluyen un gran angular de 25mm y un zoom óptico 24 aumentos
Panasonic lanzará cuatro nuevos modelos de videocámaras 4K para tratar de satisfacer las necesidades de producción, emisión y distribución de vídeo: AG-CX20, AG-CX18, HC-X1600 y HC-X1200. Tanto la AG-CX20 como la AG-CX18 vienen con una unidad de empuñadura extraíble, mientras que la HC-X1600 es compatible con una unidad de empuñadura que se vende por separado, según un comunicado de la empresa.
Las videocámaras con resolución 4K 60p de 10 bit combinan un cuerpo compacto y ligero con un rendimiento óptico, el cual incluye un gran angular de 25 mm y un zoom óptico de 24 aumentos.
Estos modelos han intentado incluir mejoras basadas en los comentarios recibidos por trabajadores del sector. Las principales mejoras son las siguientes:
› Visor OLED de alta resolución con 1,770K puntos y oculares más grandes.
› Puerto USB-C, que también puede alimentar la videocámara.
› Incorporación de un modo de grabación de baja tasa de bits (disponible con el próximo firmware):
en la próxima actualización de firmware se añadirá un nuevo modo de baja tasa de bits para la grabación FHD MP4. Soportará 28 Mbps (50p/59,94p), 24 Mbps (23,98p) y 20 Mbps (25p/29,97p).
› Zoom de baja velocidad 2,8 veces más lento que el modelo anterior, para ampliar la gama de expresión de vídeo.
› Visualización de la guía de composición: se ha añadido una rejilla guía que permite a los usuarios comprobar la composición y la horizontalidad.
› Funcionalidad de red: Admite Wi-Fi de 5 GHz y añade la función de anclaje USB.
› Vinculación con la aplicación «HC-ROP», la cual es ahora compatible con la función live view.
Los modelos AG-CX20 y AG-CX18 admiten transmisión en directo FHD a través de Wi-Fi y Ethernet. Desde el punto de vista del sistema, ambos están equipados con 3G-SDI y admiten salida simultánea con HDMI. Finalmente, la AG-CX20 proporciona conectividad IP con NDI HX2 y, mediante la actualización del firmware, será compatible con el protocolo SRT para streaming.
Rendimiento óptico
El objetivo integrado ofrece un zoom óptico 24x que abarca desde un gran angular de 25 mm hasta un teleobjetivo de 600 mm. El i.ZOOM alcanza 32x en modo 4K y 48x en modo FHD. El sistema de 4 lentes acciona los cuatro grupos de estas de forma independiente.
Dispone de dos anillos manuales, uno para el enfoque y otro para el zoom o el iris. Estos están diseñados con diferentes tamaños con la intención de que el anillo apropiado pueda controlarse sin errores al tacto con los dedos. Los Filtros ND se pueden seleccionar entre 1/4, 1/16, 1/64 y Transparente, mientras que el cristal se utiliza como contramedida contra la sobreexposición por luz directa.
AF/AE con detección de rostros
La velocidad de enfoque, la estabilidad y el rendimiento de seguimiento tanto para 4K como para FHD se consiguen a través del AF/AE con detección de rostros junto con el accionamiento del objetivo de enfoque. Asimismo, el seguimiento del sujeto con reconocimiento de color puede activarse al tocar la pantalla LCD.
Estabilizador óptico
Además del O.I.S. (Estabilización Óptica de la Imagen), la Estabilización Electrónica de la Imagen detecta y corrige el movimiento de la mano en 5 ejes, incluido el desenfoque rotacional. Esto busca proporcionar la corrección en condiciones inestables, como grabaciones a niveles bajos y altos. El sistema Ball O.I.S. reduce la fricción en la sección de accionamiento.
La compañía inicia una etapa de expansión e incorpora a su equipo a Gemma Carrasco como directora de Contenidos y Cristina Ocaña como directora de Comunicación
Adrián Madrid y Óscar Cornejo, fundadores de La Fábrica de la Tele hace 17 años, inauguran una nueva etapa con la creación de La Osa Producciones Audiovisuales. Esta transformación tiene como objetivo adquirir un modelo de negocio más amplio y consolidarse como una factoría independiente de contenidos y nuevos formatos audiovisuales, según un comunicado de la empresa.
A lo largo de una trayectoria de más de dos décadas, Cornejo y Madrid, consejeros delegados de La Osa, han producido formatos de actualidad, entretenimiento y documentales, los cuales han figurado entre los más vistos de la historia reciente de la televisión española.
Ahora, la compañía pretende reforzar su estructura con la incorporación de Gemma Carrasco como directora de Contenidos y Cristina Ocaña como directora de Comunicación, junto a Miquel Ramells, quien lidera la Dirección General y de Producción, y Javier Torres, al frente de la Dirección Financiera, Jurídica y Comercial.
¿Por qué una osa?
La productora busca representar con su nombre el simbolismo que caracteriza a este animal. Según
explican, las hembras de oso tienen un fuerte instinto maternal y protector. No tienen depredadores, son nobles por naturaleza, pero pueden ser extremadamente feroces si perciben una amenaza, mostrando su lado más valiente. Sus rugidos pueden ser emocionantes y también aterradores. Tienen una gran capacidad de aprendizaje y adaptación a diferentes situaciones y entornos, pueden recorrer grandes distancias en busca de alimento y soportar condiciones climáticas extremas.
Gemma Carrasco, directora de Producción
Licenciada en Ciencias de la Información por la UPV/EHU y con un Máster en Dirección de Empresas Radiofónicas por la Universitat Autónoma de Barcelona y Cadena SER, Gemma Carrasco inició su carrera en radio, donde trabajó más de una década en el programa ‘Hoy por Hoy’, dirigido por Iñaki Gabilondo. Posteriormente, se unió a Canal Plus como guionista de ‘Lo + Plus’ y formó parte del equipo fundacional de Cuatro como subdirectora de Programas de Actualidad y Factual. En 2009, recibió
el Premio Talento de la Academia de la Televisión. Gemma se unió a Mediaset España en 2010, ocupando el cargo de subdirectora de Programas de Actualidad hasta 2024. Recientemente, ha ejercido como Productora Ejecutiva en Cuarzo.
Cristina Ocaña, directora de Comunicación
Se incorpora para liderar la estrategia y la relación con medios de la compañía. Licenciada en Ciencias de la Información por la Universidad Complutense de Madrid y con un Máster en Gestión de Empresas Audiovisuales, cuenta con una trayectoria en el ámbito de la comunicación estratégica empresarial, las relaciones públicas y la gestión de marca. Durante más de dos décadas, desempeñó funciones en Mediaset España, donde hasta abril de 2023 fue Jefa de Prensa Corporativa. Recientemente, Ocaña ha ejercido como Directora General de Cuentas en la agencia de comunicación Adver PR, y ha sido responsable de la comunicación de diversos documentales y programas de televisión.
F1 TV Premium permitirá a los usuarios acceder a las sesiones del fin de semana en 4K Ultra HD/HDR y con una función Multiview
F1 TV ha anunciado el lanzamiento de F1 TV Premium, un nuevo servicio que ofrece la posibilidad de ver las carreras en 4K Ultra HD/HDR, junto con una nueva función Multiview personalizada disponible en algunos dispositivos, según un comunicado de la compañía.
La plataforma permitirá a los usuarios acceder a cada sesión del fin de semana de F1, incluyendo Grandes Premios, Sprints, clasificaciones y prácticas, en vivo. Además, podrán seguir las carreras de las categorías de soporte como F2, F3, F1 ACADEMY y el Porsche Supercup.
En su lanzamiento inicial, F1 TV Premium estará disponible en navegadores Chrome, dispositivos iOS, Apple TV y Roku. Una de las características que ofrece es la posibilidad de ver contenido en hasta seis dispositivos a la vez. Asimismo, la función Multiview permitirá a los usuarios combinar en una sola pantalla la transmisión principal, cámaras onboard, datos de tiempo real y más. Esta herramienta estará disponible inicialmente para usuarios de iOS, Chrome y TVOS.
A lo largo de 2025, contará con el equipo de presentadores y analistas de F1 TV, liderado por Laura Winter,
el seis veces ganador en IndyCar y miembro del Salón de la Fama James Hinchcliffe, y Lawrence Barretto, corresponsal de F1. A ellos se suman los comentaristas Alex Jacques y Jolyon Palmer, expiloto de F1, junto con Ruth Buscombe-Divey, exjefa de estrategia de Sauber; Davide Valsecchi, campeón de GP2; Alex Brundle, el campeón de la European Le Mans Series; y Sam Collins, analista técnico.
La Liga de Fútbol Americano de EEUU podría posicionarse como la más rentable en 2030, superando al ‘soccer’ por primera vez en la historia
La Liga de Fútbol Americano de EEUU (NFL, en sus siglas en inglés) podría superar para 2030, en términos de facturación por derechos, a las nueve principales competiciones de fútbol (o soccer en inglés) del mundo por primera vez en la historia. Es una de las conclusiones que extrae Rethink TV, una firma especializada en el análisis del mercado de la TV, en un informe reciente. Según este estudio, está previsto que las principales 17 ligas deportivas alcancen los 73.000 millones de dólares (unos 69.900 millones de euros) de facturación ese año 2030. El béisbol completaría el podio -junto a la NFL y el soccer– de los tres deportes más importantes a este respecto. De cara a 2035, este informe estima
que las 17 competiciones deportivas más importantes crezcan en términos de derechos hasta los 96.300 millones de dólares.
A continuación, se muestran las 17 ligas mundiales que más ingresos reciben respecto a los derechos de los medios:
› La Liga de Baloncesto profesional de Japón
› La Liga Federal de Fútbol de Alemania (Bundesliga)
› El Campeonato Brasileño de Serie A de fútbol
› La Super Liga de China de balompié
› La Premier League de fútbol de Inglaterra
› El Campeonato Mundial de Fórmula 1
› La Liga Premier de India de cricket
› La Liga de fútbol profesional en España
› El Campeonato de fútbol francés (Ligue 1)
› Las Grandes Ligas de Béisbol en EEUU (MLB)
› La Liga de fútbol profesional de EEUU y Canadá (Soccer)
› La Liga privada de Baloncesto profesional en EEUU (NBA)
› La Liga Nacional de Fútbol Americano
› La Liga Nacional de Hockey en EEUU y Canadá
› La Serie A de Fútbol italiano
› UEFA Champions League/Europa League
› La WWE de lucha libre (World Wrestling Entertainment)
A pesar de este crecimiento, el estudio anticipa que el panorama de derechos deportivos tiene un futuro complejo de aquí en delante, ya que las organizaciones deportivas se están adaptando a la evolución del streaming deportivo OTT. Así, detecta que los titulares de derechos de televisión de pago atraviesan una etapa de desgaste, a pesar de que son los que jugaron un papel clave en la transmisión deportiva. Tradicionalmente, los operadores y las emisoras de dichas televisiones vigilaban estos contenidos, con el fin de garantizar sus suscripciones. En este sentido, la transición hacia un modelo de venta directo al consumidor (D2C o Direct-to-Costumer) tampoco resulta del todo fácil, puesto que siguen apareciendo obstáculos tecnológicos y financieros, según el informe de Rethink TV. La televisión de pago, las plataformas OTT y el modelo D2C continúan peleándose por los contenidos deportivos de primer nivel.
Como se ha mencionado previamente, el cambio al streaming D2C se ve limitado por la infraestructura y el aumento de los costes de los contenidos. Si bien las ligas deportivas están ansiosas por tomar el control de su distribución, pocas están listas para igualar la confiabilidad y la escala de las redes de transmisión heredadas. Las soluciones ABR de multidifusión y Open Caching se encuentran en las primeras etapas, lo que retrasa la adopción a gran escala de las plataformas D2C por parte de los propietarios de derechos.
La corporación pública emplea una señal multipantalla, drones y sonido envolvente en la zona de los fuegos
À Punt suma nuevos recursos técnicos a las fallas. La corporación pública ha incorporado una señal multipantalla exclusiva disponible en la web y en las aplicaciones digitales del medio televisivo para Android, iOS y Smart TV. Esto ha permitido una retransmisión alternativa a la tradicional con el objetivo de que el espectador pueda ver, en directo y al mismo tiempo, los diferentes puntos de vista de la mascletá a través de la señal de las cámaras, según informó este medio en un comunicado.
En las retransmisiones se ha incluido también un sonido envolvente con la intención de enriquecer la experiencia auditiva y hacerla más atractiva. Esto se ha realizado a
través de micrófonos con una amplia respuesta de las frecuencias para tratar de captar la intensidad y la calidad del espectáculo de pirotecnia. Este tipo de micrófonos, que son los que se utilizan tanto en la grabación como en los directos de las bandas y las orquestas, han sido diseñados para intentar ofrecer una sensación acústica inmersiva.
En esa misma línea, un dron ha sobrevolado, por primera vez, la Plaza de la Virgen (plaça de la Mare de Déu) durante la Ofrenda de Flores a la patrona de la ciudad para ofrecer imágenes inéditas del acto. Todo ello se suma a los dispositivos de cámaras dron, mochilas y la tecnología empleadas en la noche de la Cremá.
En su trayectoria, ha ocupado el cargo de CEO y cofundador de Satisfaction Iberia y ha sido Executive Director de Mediacrest
Daniel Domenjó se incorpora a Movistar Plus+ como nuevo director ejecutivo con el objetivo de controlar la gestión y toma de decisiones en la plataforma. Sustituye en el cargo a Cristina Burzako, que seguirá como miembro del Consejo de Telefónica Audiovisual Digital.
Domenjó acumula 23 años de experiencia en televisión y comunicación como emprendedor, directivo, creador y productor ejecutivo de programas informativos, de entretenimiento y documentales para empresas como TVE, Antena 3, Discovery,
RTP-Portugal, Tele5 (Mediaset), TeleMadrid, TV3, Canal Sur, A Punt TV, BTV, URBE TV (Vocento), entre otras. Asimismo, ha trabajado como presentador del medio.
Asimismo, ha llevado a cabo, como Executive Director, el lanzamiento y consolidación de Mediacrest, productora a cargo de formatos como El Cazador (The Chase), Mapi y Asuntos Internos.
En su trayectoria, ha ocupado, hasta esta nueva transición, el cargo de CEO y cofundador de Satisfaction
Iberia, productora de contenidos scripted y unscripted en Iberia, Latam y US-Hispanics.
Domenjó ha compartido a través de sus redes sociales que trabajará «para estar a la altura del momento, a la altura del reto, a la altura de la industria y a la altura de todos aquellos que forman y han formado parte de Movistar Plus+ y de Telefónica».
La compañía pretende así reforzar su actividad en la región. Borja Chiriviella pasa a asumir nuevas responsabilidades en China y África
Brainstorm anuncia el refuerzo de sus actividades en Latinoamérica con la promoción de Erik Iriondo como gerente de Ventas para la región, ubicado en México DF. Erik asume la responsabilidad de las actividades comerciales en México, Centroamérica, Sudamérica y el Caribe. Contará con el apoyo del equipo técnico y de producción de Brainstorm en Latinoamérica, incluyendo la red de distribuidores y agentes, según un comunicado de la empresa.
Con el objetivo de incrementar su número de ventas de 2025 en Latinoamérica, Erik tendrá como responsabilidad principal la tarea de expandir el alcance de la marca, llegando a otros sectores como el
corporativo y de educación a través de la diversificación de la gama de productos de la compañía.
Con este nombramiento, Brainstorm pretende reforzar sus actividades en todo el mundo. Borja Chirivella, quien previamente lideraba el equipo de Latinoamérica, pasa a asumir nuevas responsabilidades en China y África, para tratar de impulsar la marca en estos mercados y potenciar el crecimiento en otros sectores. En esa misma línea, Francisco Gallego se convierte en responsable de ventas de EMEA y CEI, con excepción de España, Portugal, Reino Unido e Irlanda que continúan bajo la responsabilidad de Mónica Víctor y David Alexander respectivamente.
Sus tareas estarán enfocadas en la estrategia y producción ejecutiva de los programas y documentales del estudio
Secuoya Studios ha anunciado el nombramiento de Sergio Lizarraga como nuevo director del área de Unscripted. Sus tareas están enfocadas en la estrategia y producción ejecutiva de todos los programas y documentales del estudio, con el objetivo de fortalecer la oferta de contenido y tratar de consolidar la presencia de Secuoya Studios en el mercado global, según comunica la empresa.
Brendan Fitzgerald, CEO de Secuoya Studios, destaca la importancia de este nombramiento: “Sergio Lizarraga ha sido una pieza clave en el crecimiento del área de Unscripted. Su experiencia y conocimiento del sector garantizan una continuidad que potenciará la creación de contenidos originales nuevos, y confiamos en que su liderazgo conllevará un salto en la calidad de nuestra oferta para el mercado internacional”.
Por su parte, Sergio Lizárraga expresó su entusiasmo y compromiso con esta nueva etapa: “Asumo con mucha ilusión y responsabilidad esta nueva y emocionante etapa. Nada me hace más feliz que poder seguir creciendo en la que considero mi casa. Un lugar en el que se trabaja con independencia y libertad creativa. Una vez más, agradecido a Raúl Berdonés y Pablo Jimeno por la enorme confianza y a Brendan Fitzgerald por tenderme la mano sin pensárselo dos veces”.
Por su parte, Paolo Nocetti -anterior director del área de Unscripted– seguirá vinculado a la compañía como asesor.
Sergio Lizarraga ha sido subdirector del área Unscripted de Secuoya Studios desde 2023 y, anteriormente, director de desarrollo de la compañía.
Ha puesto en marcha más de 30 programas de televisión de diversos géneros, ha participado en el lanzamiento de canales de televisión como TEN y La7 Región de Murcia, así como en la estrategia de contenidos en LATAM del grupo.
Licenciado en Comunicación Audiovisual por la Universidad de Navarra, inició su carrera en Atresmedia, donde desarrolló nuevos proyectos para los canales Neox y Nova y asumió la coordinación de contenidos de la productora Verte. En 2010, se unió a Secuoya Content Group como director de I+D de Enminúscula Producciones, y en 2013 asumió la dirección.
La compañía está inmersa en un proyecto de ampliación de sus centros de producción y va a estrenar, en paralelo, un nuevo plató de producción virtual. El objetivo: consolidar su vocación de proveer todos los servicios técnicos de una producción. Acudimos a sus instalaciones para conocer los detalles de su plan estratégico de la mano de su CEO, Juan Pedro Rodríguez.
España se ha convertido en un foco de atracción destacado en el ámbito de la creación de contenido para ficción y entretenimiento. Con el objetivo de acompañar a la industria nacional en este proceso, Toboggan Group ha emprendido un ambicioso plan de expansión de sus centros de producción, que se encuentra en este momento en su primera fase. En paralelo, la empresa de servicios de producción ha hecho una fuerte apuesta este año por la producción virtual. TM BROADCAST ha visitado sus instalaciones centrales en Madrid para conocer todos los detalles de este plan estratégico de la mano de su CEO, Juan Pedro Rodríguez.
Texto: Daniel Esparza
La primera fase de este proyecto de ampliación consistirá en un nuevo hub formado por cinco centros de producción diferenciados en un área de unos 28.000 metros cuadrados en Villaverde (Madrid). Respecto a los platós, uno de ellos alcanzará los 2.300 metros cuadrados, dos serán de 1.500 metros y los dos restantes tendrán un tamaño de 1.200 metros.
La empresa empezó su construcción desde cero en octubre de 2024 y su objetivo es concluir las obras de esta primera fase en septiembre de este año. A partir aquí se acometerá otras dos fases más, de las que Toboggan todavía se reserva los detalles.
Una característica destacada serán las estructuras metálicas de los platós, diseñadas de modo que no se creen puentes acústicos entre unos y otros. Así, aunque a nivel visual parezca un edificio único, estará conformado por cinco espacios independientes.
Los platós tendrán 14 metros de altura libre con pasarelas, lo que resulta innovador. “Hay muchos platós de 7, 8 o 9 metros, pero de 14, no”, afirma Juan Pedro Rodríguez. “Otro elemento diferencial serán los acondicionamientos acústicos de los que los estamos dotando. Estamos fletando en este momento seis contenedores con material procedente de la fábrica Insul-Quilts de Los Ángeles, que es la que provee a los platós de Hollywood”.
A modo de anécdota, el CEO de Toboggan Group nos cuenta que este envío ha estado plagado de riesgos, como son el incendio que devoró recientemente Los Ángeles, y que estuvo a punto de afectar a la fábrica, así como las amenazas de aranceles del nuevo presidente de Estados Unidos, Donald Trump.
Respecto a la elección de la ubicación, indica: “La localización escogida de Villaverde reúne muchos de los elementos que estábamos buscando: estar en Madrid, en un lugar lo más céntrico posible y disponer de transporte público a mano. El nuevo hub estará a solo cuatro minutos de una estación que conecta con Atocha en solo tres paradas y enlaza también con el Metro Sur. Hay que tener en cuenta que estas producciones mueven a mucha gente. Si fijamos una media de
80 a 100 personas por cada estudio, estamos hablando de hasta 500 profesionales”.
Por otro lado, “dentro de Madrid no es fácil encontrar un sitio donde puedas elevar los edificios a una altura de 17 metros y medio para poder conseguir los 14 libres”, justifica el CEO de Toboggan Group. Y añade: “Otra ventaja fue la inmediatez: en esta ubicación teníamos la posibilidad de poder empezar a construir ya”.
Sobre los plazos, Rodríguez pone en valor que están cumpliéndose y que en julio-agosto estará ya listo el estudio más grande, mientras que los cuatros restantes se prevén para septiembre. “Estamos intentando agilizar el proceso por la demanda que recibimos de clientes pidiéndonos esos espacios”, puntualiza.
Los facilities, claves en una producción
“Hemos destinado un gran esfuerzo a que los platós cuenten con los facilities necesarios”, pone en valor Juan Pedro Rodríguez, en referencia a todas las instalaciones aledañas al plató que resultan fundamentales para que una producción se desarrolle con éxito: premontaje, carpintería, comedor, cocina, camerinos, oficinas, vestuarios, etc.
“Es cierto que la primera necesidad a cubrir en una producción es la capacidad del plató, pero hemos querido atender también algo de lo que nos dimos cuenta que carecían la mayoría de los estudios actuales. Podría dar la sensación de que hay demasiados platós en España, pero
muchos son realmente naves que no están ni siquiera adaptadas acústicamente”, indica.
Con esta expansión, “Toboggan busca consolidar su vocación de ser un actor integrador de todos los servicios técnicos de una producción audiovisual a nivel nacional”, resume. Esto abarca la logística, las cámaras, el sonido, la postproducción…
Respecto al tipo de producción, los estudios del nuevo hub están diseñados para ser polivalentes: “Están pensados tanto para ficción como para programas de entretenimiento de televisión, que necesitan grandes espacios, mucha altura y capacidades de carga”.
Nuevo plató de producción virtual
La otra pata del plan estratégico de Toboggan para este año será la instalación de un nuevo plató de producción virtual en Boadilla del Monte (Madrid), que está previsto que se estrene entre finales de marzo y principios de abril. Consistirá en un ledwall de 22x6 metros con un techo de 7x8 y unos tótems de 6x3.
Toboggan se ha aliado con otras tres compañías -Lavinia, Appia y Visual Maxpara crear un nuevo proyecto empresarial enfocado en la producción virtual
Para este proyecto, la compañía ha tejido un acuerdo con el Grupo Lavinia, Appia y Visual Max. “Hemos formado una alianza que culminará el año que viene seguramente en una compañía de la que formemos parte societariamente los cuatro que estamos”, anticipa Rodríguez, que concreta: “No formamos una alianza en la que cada uno aporta su especialización. Nos hemos juntado cuatro empresas para crear un nuevo proyecto empresarial enfocado en la producción virtual”.
“Lavinia y Appia llevan trabajando desde hace más de un año con Plató Nou. Nosotros queremos instalar un estudio más grande que tampoco alcance las dimensiones del que hay en Gran Canaria”, ilustra Rodríguez, que indica que “faltan platós medios de producción virtual en España, que son los que se adaptan realmente a la producción nacional en la que estamos focalizados”.
Sin embargo, más allá de las dimensiones o características del plató, hace especial hincapié en el personal cuando se le pregunta por las ventajas específicas del estudio: “Hemos puesto el foco en tener al mejor equipo humano para dotarnos de
una capacidad empresarial y no depender de personas específicas”.
El CEO de Toboggan Group indica que, si bien la producción virtual no es un fenómeno nuevo, muchas productoras no tienen todavía realmente claro cómo pueden beneficiarse de esta tecnología. En este sentido, distingue dos perfiles: “Nos hemos encontrado, por un lado, con productoras que no han probado todavía esta herramienta y no tienen un conocimiento profundo de sus posibilidades y, por otro, con productoras con una mala experiencia previa porque les vendieron algo que no era”.
“Ese segundo cliente -prosiguees mucho más difícil de recuperar. Para lograrlo, estamos haciendo un enfoque muy honesto y profesional. Buscamos tener una conversación previa con la productora en la fase de preproducción donde podamos decirle qué es lo que puede hacer y lo que no, cuánto se va a ahorrar y cuál es el beneficio que obtendrá. Y, después, acompañarle durante todo el proceso de producción, gracias a un equipo que tiene un gran expertise en producción virtual”.
Con el objetivo de recuperar a las productoras desengañadas con
la producción virtual y formar a las nuevas, Toboggan realizará a lo largo de este año diversos eventos dirigidos a perfiles creativos y técnicos. “Nuestro objetivo es que se entienda muy bien esta tecnología. Y aquí es fundamental para nosotros la participación de Appia, que ha instalado y gestiona ya más platós en Europa”.
“En el pasado ha habido mucha frustración con la producción virtual -incide-. Cuando empezamos a preguntar, nos dimos cuenta de que el mercado está regado de platós virtuales que en muchos casos se han quedado solo en una tentativa”.
Entre las causas que han conducido a este escenario, Rodríguez apunta que “nadie se ha dado de la mano”, en alusión a la falta de alianzas para acometer este tipo de proyectos. “Es un mercado que han intentado liderar desde empresas de pantallas a productoras de contenidos o autónomos que conocían las herramientas, pero ha faltado visión para formar un equipo multidisciplinar”, opina. Frente esta inercia, Toboggan aspira a convertirse, en virtud de su acuerdo con Lavinia, Appia y Visual Max, en “la empresa referente de producción virtual”.
Un apartado clave en este enfoque es, pues, la formación de personal. “Contamos ya con un equipo de unas 15 personas y nuestro objetivo es formar a más profesionales”. En este sentido, el CEO de Toboggan Group apunta al momento de convergencia que atraviesa el mercado, y lo ilustra de la siguiente manera: “Estamos mezclando mundos. A la hora de trabajar en una producción, puedes hacerlo en 2D, 3D o en Unreal, que son tres ámbitos distintos. Al trabajar en Unreal, por ejemplo, estamos trabajando mano a mano con técnicos que proceden del ámbito del videojuego”.
“Lo que hacemos es ir reciclando a nuestros propios técnicos y formando a nuevos -prosigue-. Damos así la mano a técnicos procedentes de otros mundos para que trabajen también con nosotros. Existen unas capacidades enormes. ¿Hay problemas de encontrar a gente? Podríamos decir que sí. En lo que no hay problema es en encontrar a gente que quiere formarse y participar de todo esto”.
En este sentido, apunta a que en el proyecto del plató de producción virtual están participando ingenieros procedentes de Disguise. “Ostentan un conocimiento absoluto de las herramientas que deben funcionar”, pone en valor.
Respecto a las posibilidades que ofrece esta herramienta, Rodríguez apunta que lo habitual es mezclar en un proyecto producción virtual y física, a excepción de casos muy concretos en los que, por ejemplo, la grabación discurra en un escenario fijo, como es el interior de un coche.
En todo caso, la clave reside, según abunda, en saber qué es lo que se puede hacer y lo que no en un plató de estas características. “The Mandalorian indujo a algunos a pensar que podía hacerse una producción netamente virtual. Pero esta serie se escribió teniendo muy claro cuáles son las capacidades y limitaciones de un plató de producción virtual”.
De ahí la importancia de transmitir a las productoras las posibilidades que ofrece esta herramienta, justifica el CEO de Toboggan Group. “Todo este año va a ser didáctico -concluye-. Nuestro eslogan será la honestidad. Es decir, no vamos a venderte nada que luego en el rodaje veas que te va a frustrar”.
Otro elemento clave a la hora de plantear un servicio integral como el que ofrece Toboggan es el de la postproducción. Juan Pedro Rodríguez indica que la elección de Boadilla para instalar el plató de producción virtual estuvo motivada por la cercanía con Picnic, un estudio
Con el objetivo de recuperar a las productoras desengañadas con la producción virtual y persuadir a las nuevas, Toboggan realizará a lo largo de este año diversos eventos didácticos
especializado en postproducción integrado dentro de la compañía que se inauguró en el año 2020. “Aquel año fue muy duro porque todo se paralizó en el contexto de la pandemia, pero desde 2021 no ha parado de crecer”.
“La culpa de que nuestra industria de servicios esté tan atomizada es por el CAPEX que necesita -reflexiona-. Frente a ello, nosotros buscamos ofrecer un pack completo, aunque no obligamos a ello. Así pues, trabajamos con productoras que nos entienden como una casa de cámaras, aunque cada vez más se acercan a nosotros por nuestra filosofía de proveedor integral”.
Renovación de equipo
¿Y cuántas producciones es capaz de abarcar actualmente Toboggan? Juan Pedro Rodríguez aporta algunos datos: “Si hace 7 u 8 años hacíamos unas tres o cuatro producciones simultáneas, hoy ya estamos en 15. Es decir, alojamos al mismo tiempo unas 13-14 producciones de ficción más dos diarias”.
Este volumen de demanda, claro está, conlleva una renovación periódica de equipo. Sobre todo de cámaras, que son las que menos vida útil tienen, apunta. “Tenemos ocho años de vida y vamos por la tercera generación de cámaras, así que renovamos cada 3-4 años… o incluso menos”.
Respecto a sus preferencias, indica: “En primer lugar, cabe subrayar que no podemos disponer de todas las marcas y modelos a la espera de que nos las pidan. Para nosotros, hay dos referentes en el mundo del rodaje, que son Sony y Arry, y nos van muy bien. El mundo de las ópticas es más cambiante, las modas oscilan más.
Apostamos por las que creemos que mejor están funcionando y son más versátiles para rodajes. Y, si nos piden alguna otra específica, nos buscamos la vida para obtenerla”.
Otro ámbito donde la empresa ha invertido es en unidades móviles, si bien tenemos que retrotraernos en este caso al año pasado. “Hicimos una inversión importante a principios de 2024. En ese momento no teníamos unidades móviles, más allá de pequeñas unidades para grabar los exteriores de MasterChef”.
“Toboggan se centró inicialmente en la ficción pero a lo largo de su trayectoria entró también en el segmento de los programas de entretenimiento por petición de nuestros clientes -justifica-. Nunca habría pensado que entraríamos ahí, pero entre mediados de 2023 y comienzos de 2024 nos compramos tres unidades móviles: una con hasta 30 cámaras y las otras dos con hasta 20”. En este sentido, apunta: “2023 fue un año muy bueno en programas de entretenimiento, pero en 2024 hubo un parón importante. Creemos que 2025 va a ser de nuevo bueno”.
“Nuestra asignatura pendiente son las luces -admite-. Y lo resolveremos a través de una alianza o comprando
una empresa”. Y pone el ejemplo de las pantallas LED: “Para cubrir este apartado, por ejemplo, llevamos trabajando con Visual Max desde hace muchos años y nos va muy bien. No sé si algún día formaremos parte del mismo grupo, pero ya trabajamos como si lo fuéramos”.
“Un
Un segmento en el que Toboggan también cuenta con experiencia, aunque ahora no tiene ningún plan en marcha, es el de los eventos en directo. “Lo tenemos en el radar, pero no estamos ahora en ello”, puntualiza Juan Pedro Rodríguez.
Un proyecto destacado en este segmento fue el concierto del artista argentino Duki en el estadio Santiago Bernabéu de Madrid. “Lo llevamos a cabo con el objetivo de demostrar que podíamos dar una cobertura casi cinematográfica a un proyecto de esta envergadura. También con el propósito de animar a la industria y que vean que resulta posible y el resultado es magnífico”.
En este sentido, apunta: “Mientras que antes íbamos con cámaras de estudio a un evento o un concierto, ahora muchas veces nos reclaman ese toque cinematográfico”. A este respecto, indica que la adaptabilidad de las cámaras de cine a estos entornos, que requieren ópticas largas y velocidades diferentes, no es algo que esté totalmente resuelto. “Por supuesto, se puede hacer, pero cada vez hay una exigencia mayor de ciertos sectores, como los programas de televisión, de dar un tratamiento más cinematográfico”.
La solución, cree Rodríguez, reside en las cámaras intermedias. “Son modelos más versátiles que te evitan tener que recurrir a la cámara más cara. Hay una gama intermedia a medio camino entre el cine y la televisión que funciona muy bien. Ahí Sony para nosotros es fundamental. Hemos colaborado mucho con ellos en adquirir ese tipo de cámaras, que incluyen esos sensores cinematográficos sin tener que recurrir a una Alexa 35”.
Toboggan está trabajando en un proyecto de gran envergadura con otros actores que trasciende el ámbito nacional, según adelanta su CEO
¿Un modelo? “Todas las FX están funcionando muy bien para este tipo de producciones. No es viable instalar para un evento o programa de estas características 16 Arri 35, pero sí desplegar 16 FX9 o FX6. Con la SFR 7 también estamos trabajando mucho”.
El boom tecnológico… con cautela
¿Ha trabajado Toboggan con tecnologías inmersivas? “Apostamos por ellas hace tres años -explica Rodríguez-, a través de una empresa llamada Panorama. Pero, según la montamos, ya anticipamos que iba a acabar mal por cómo empezó a venderse el metaverso”. “Ahora ya no tengo ninguna fe en lo inmersivo”, zanja.
¿Inteligencia artificial? “Tampoco me la creo 100%”, puntualiza, y hace aquí alusión al reciente anuncio de Porsche generado íntegramente por inteligencia artificial -making off incluido- que se viralizó rápidamente en redes sociales. “Es un spot de publicidad, que tiene otro ritmo.
No me creo que esa tecnología sea capaz de hacer 'El 47' o cualquier otra película que busca que el espectador empatice con el actor”.
En ese sentido, establece analogías con la irrupción de las cámaras de alta calidad integradas en los smartphones hace más de una década, cuando se decía: "Este corto se ha grabado con un iPhone". “Desde que nació ese iPhone, no han dejado de sofisticarse las cámaras de cine y son cada vez son más caras. Y los iPhone, en paralelo, han seguido creciendo”, ilustra, desdeñando así la idea de que la inteligencia artificial va a remplazar el trabajo creativo. “En publicidad quizá sí tenga más impacto”, admite.
Como es lógico, esto no significa que la IA no resulte una herramienta de extraordinaria ayuda, por ejemplo en postproducción. “Creo que nos va a ayudar mucho en la parte técnica, donde el trabajo que antes duraba varias jornadas ahora puede realizarse de forma casi inmediata”.
En todo caso, Rodríguez es plenamente consciente del momento de disrupción que vive el mercado. “Creo que los platós de producción virtual con pantallas tienen los días contados -anticipa-. Esa necesidad de proyectar los contenidos es cuestión de tiempo que desaparezca. Es un modelo ya obsoleto, pero hasta que se supere tenemos que trabajar con ello”.
Respecto al futuro, adelanta que Toboggan está trabajando en un proyecto de gran envergadura con otros actores más allá del ámbito nacional, pero se reserva de momento dar más detalles. “Espero que pronto podamos anunciarlo”.
Y nos concede una última reflexión, a modo de broche final de la conversación: “Si quieres ser un gran estudio de producción y servicios, lo que menos importan son probablemente tus capacidades creativas. Todos sueñan con pisar alfombras rojas y se les olvida pisar la tierra”.
Mediapro ha superado el umbral de los 3.000 partidos realizados en remoto. Aprovechamos el pretexto para explorar las claves de este tipo de retransmisiones de la mano de Emili Planas, CTO de Mediapro.
“Para que la producción remota sea una buena opción, se tienen que alinear los astros. No es algo que salga siempre a cuenta”, advierte.
Texto: Daniel Esparza
“Fuimos
la primera empresa en usar
la producción remota para cubrir una competición de alto nivel”, pone en valor Emili Planas
Las producciones en remoto han marcado un punto de inflexión en las retransmisiones deportivas. Y una competición de primer nivel pionera en su implementación fue LaLiga a través del Grup Mediapro, que se estrenó con este tipo de producción en 2013, cuando todavía no existía ninguna solución integrada disponible en el mercado, llevándose a cabo con tecnología desarrollada in house por Mediapro. Recientemente, el torneo de fútbol ha superado el umbral de los 3.000 partidos realizados en remoto. Aprovechamos el pretexto que nos brinda esta cifra para explorar todas las particularidades de estas producciones de la mano de Emili Planas, CTO de Mediapro, una voz de indiscutible autoridad para abordar este asunto.
Lo primero que hay que aclarar es que no hay un solo modelo de producción remota y, en función del tipo de deporte o competición, este requerirá unas determinadas especificaciones. Emili Planas cuenta cómo implementó Mediapro esta innovación tecnológica para LaLiga hace más de una década: “Lo que hicimos fue montar nuestra propia estructura con unos requerimientos que se mantienen a día de hoy. No lo arrancamos como un primer sistema a partir del que conformarnos para ir evolucionando, fuimos a máximos y conseguimos esos máximos ya en aquel momento, logrando que todo el equipo encargado de la realización, control de cámaras, etcétera, alcanzara operando en remoto el mismo feeling operativo que estando dentro de una unidad móvil”.
El reto era, pues, asegurar que la latencia fuera mínima y a la vez mantener o aumentar los niveles de calidad y seguridad de la producción. “Para lograr ese mínimo de latencia que preservara el buen feeling tuvimos que desarrollar una serie de soluciones bastante curiosas”, prosigue Planas. “A día de hoy esto ya es más más fácil, pero hace 13 años era muy innovador. De hecho, sólo existía una marca y modelo específico de encoders en el mercado que permitiera alcanzar este mínimo de latencia con el ancho de banda disponible en ese momento y la calidad requerida”.
“Dedicamos tres meses al proceso de desarrollo técnico y a las diferentes pruebas de toda la ingeniería, donde estuvieron involucradas las cinco áreas que en ese momento componían el grupo: la de ingeniería, Unitecnic; platós y unidades móviles, que en ese momento trabajaban como entidades separadas y no estaban integradas dentro de la empresa Eumovil como ahora; Overon para la parte de comunicaciones, redes y encoding; y Mediapro, a cargo de la operación ejecutiva y coordinación”.
Pasado ese tiempo, y con el trabajo coordinado de las cinco unidades mencionadas, Mediapro desarrolló un modelo que a día de hoy sigue funcionando. “Fuimos la primera empresa en usar la producción remota para cubrir una competición regular de lato nivel”, pone en valor Planas.
Con el paso del tiempo, el uso de este modelo se transfirió a la segunda división. “Curiosamente,
empezamos produciendo en remoto los partidos de primera, pero con la evolución de las retransmisiones, el incremento de cámaras y de requerimientos de producción de LaLiga, tanto de primera como de segunda, el modelo que teníamos inicialmente para primera pasó a cuadrarnos perfectamente con los modelos acentuados de segunda”, explica el CTO de Mediapro.
“Además, coincidió con un aumento del ancho de banda disponible en los estadios de segunda, que permitió implementar este modelo, que antes no era posible”, puntualiza. De los 11 partidos semanales, actualmente se realizan un mínimo de siete en producción remota.
“Lo que hemos hecho, hace menos tiempo, es habilitar un segundo modelo de producción remota -apunta Emili Planas-. “El primero es un modelo que tradicionalmente se llama REMI. Es un modelo en el que, simplificando mucho, transportas todas las señales al centro de producción, de modo que haces el programa ahí, es decir, en la unidad móvil solo envías, por decirlo así, cámaras y micros”.
“Con este segundo modelo que implementamos -prosigue-, lo que hacemos es operar remotamente los
dispositivos de la unidad móvil, y este sí lo aplicamos en todos los partidos de primera división y en los partidos de segunda donde no hacemos REMI. Con este modelo, hay un cierto número de operadores que no se desplazan, que operan los sistemas que están en el camión desde los centros de producción”.
Respecto a la envergadura de estas producciones en remoto, Planas indica que permite desplegar hasta 12 cámaras, dos de ellas super slow motion, si bien depende de las condiciones concretas de cada partido. “El rango oscila entre ocho y 12. Y dos de estas cámaras son super slow-motion de tres fases, por lo que hay que enviar cuatro señales para cada una de estas cámaras, desde el estadio hasta el centro de producción, para tener la señal compuesta más esas tres fases”.
¿Hablamos de producciones híbridas SDI-IP? “Estamos transicionando -indica Planas-. Si bien hace más de 20 años que utilizamos redes IP para contribución, hasta hace poco todos los flujos locales han sido SDI. Ahora mismo estamos combinando operativas IP-2110 con operativas SDI, y utilizamos en muchos casos modelos híbridos en los que el IP y el SDI se combinan lo mejor posible”.
“Nadie sería capaz de diferenciar si una producción de las que realizamos está hecha en remoto o en local. Esta era nuestro principal reto y objetivo cuando diseñamos el sistema”
Soluciones basadas en software
Por otro lado, preguntado por el uso de sistemas cloud u on premise para este tipo de producciones, Emili Planas indica que es más preciso hablar de soluciones basadas en software. “Si el software tiene su deployment en el cloud u on premise es otra cosa. En general, lo que nosotros hacemos es clasificar las soluciones en función de su uso, tanto si están basadas en software o si son un poco más tradicionales. A día de hoy estamos utilizando soluciones basadas en software que abrimos en cloud u on premise en función de variables que no tienen un sentido operativo, sino que están relacionadas más bien con la disponibilidad de sistemas, la flexibilidad de uno respecto al otro, la economía de escala o la cantidad de veces que usas el sistema”.
“En este sentido -apunta-, si usamos de forma masiva un sistema en permanencia, no suele salir a cuenta montarlo en cloud, aunque a veces pueda darse el caso de que sí. Suele salir más a cuenta comprarlo. Si dispones, claro, de las salas de rack, del equipo de mantenimiento y de todo el personal y la capacidad de operación que tenemos nosotros”.
“A veces nos vamos a cloud -añade-, porque es la mejor opción. Si quieres hacer subtítulos a partir de IA con un speech to text de cierta calidad, los sistemas basados en cloud están funcionando muy bien, en comparación con otros, aislados en tu sala de rack que no aprenden o no crecen”.
“Esta es un poco la filosofía -concluye-. Estamos haciendo a través de sistemas basados en software muchas producciones en directo,
incluyendo por ejemplo el multipantalla para LaLiga, pero hay que saber que no todos los modelos de producción remota alcanzan los mismos niveles de calidad”.
“La calidad técnica y operativa que se alcanza en remoto es exactamente la misma que haríamos en local”
¿Qué es lo que determina si una producción de estas características se realiza en remoto o en local? “Influye la logística, los kilómetros que debe recorrer el camión -indica Planas-. Hay una ventaja clara: si ahorras kilómetros a la unidad móvil, eres más ecológico y ahorras costes. Y nosotros buscamos ambas [desde 2014, Mediapro calcula que se han ahorrado 14 millones de kilómetros, lo que equivale a 7.000 toneladas de CO2].
Así pues, si una unidad móvil de primera división tiene que cubrir una misma zona que un partido de segunda, es mucho más eficiente enviar ese camión y hacer pocos kilómetros, en lugar de mandar uno que está más lejos, aunque sea un camión más liviano o una furgoneta más pequeña. A través de la logística, optimizamos los recursos de primera y segunda división para mejorar la eficiencia”.
En todo caso, deja claro Planas, la razón para desplegar o no una producción en remoto con estos modelos de máximo nivel no es de índole técnica u operativa. “Este tipo de producción remota puede cubrir competiciones de lo que llamamos Tier 1. Cuando no se cubren competiciones de máximo nivel con estos modelos de producción remota es por otras razones. La calidad técnica
y operativa que se alcanza es exactamente la misma que haríamos en local”.
“De hecho -incide-, nadie sería capaz, ni siquiera un espectador especializado en producción de fútbol, de diferenciar si una producción de las que estamos realizando está hecha en remoto o en local. Esta era nuestro principal reto y objetivo cuando diseñamos el sistema. Buscábamos que no se perciba menos calidad ni que hubiera más latencia que en otros partidos y, entonces, al sincronizar con las radios uno se pregunte por qué este partido tiene más delay que otros. Este tipo de elementos fueron relevantes a la hora de definir el modelo y siguen siendo importantes para nosotros cuando definimos cualquier nuevo modelo de producción remota”.
Emili Planas insiste en este punto en que no se puede hablar de la producción en remoto en genérico y cada deporte, como es lógico, presenta sus retos. “Hay otras competiciones o tipos de producción en los que la latencia puede ser menos relevante o donde, más allá de la calidad objetiva, entra más en juego una evaluación de la calidad. Aquí podemos entrar en modelos en los que seguramente los costes pueden bajar, pero a la vez tendrán algunas limitaciones. Si tienes que hacer un replay con super slow motion, por ejemplo, igual las soluciones de menor coste te dan bastantes más problemas…”.
“Estos son los elementos -prosigueque influyen en la decisión de cómo se hace este modelo de producción remota en comparación a otros modelos que también usamos y que no llegan a este nivel de máxima calidad”.
En el caso de LaLiga, Planas concluye: “Trabajar en remoto, con los principios que aplicamos para realizar una retransmisión de alto de nivel de LaLiga, no representa ninguna diferencia a nivel operativo respecto a trabajar en la unidad móvil”.
Otra cosa es que hablemos de otros deportes, donde quizá se puedan aplicar otros modelos específicos para producción en remoto que en el caso del fútbol no serían posibles: “Hay otros modelos de producción remota que sí plantean limitaciones y que algunos deportes pueden aceptar con total tranquilidad. Deportes de motor, por ejemplo, donde el tiempo entre la acción y el replay puede ser algo más largo”.
“En baloncesto y fútbol -contrasta Planas- el replay tiene que estar preparado inmediatamente después de que suceda la acción, porque suele ser ese momento cuando se para el juego. Es entonces cuando tienes tiempo para mostrarlo y es en ese momento cuando el espectador espera que se muestre. En otros deportes puedes esperar más tiempo a tener el replay preparado y no es relevante en la mayoría de casos si tardas un poco más o un poco menos”.
Así pues, volviendo al ejemplo del motor, no resulta tan difícil seleccionar la cámara para el replay de un adelantamiento o un accidente, por ejemplo. “Podrás seleccionar entre dos o tres cámaras, pero generalmente el plano bueno está clarísimo. En el caso del fútbol, hay muchas cámaras donde aparece la acción y escoger la mejor no es tan fácil”, ilustra Planas.
En el fútbol, la elección del plano correcto exige del operador una cierta experiencia para actuar con rapidez, y se necesita asimismo un equipo bien coordinado para lograr la misma operatividad que en una unidad móvil. Este elemento diferencial del fútbol, en resumen, lleva a que no valga cualquier modelo de producción remota y se precise de modelos muy específicos.
“Para
que la producción remota sea la mejor opción, se tienen que alinear un montón
de astros”
Ahora bien, esto no significa que, con el modelo adecuado, se puede producir ya siempre en remoto: “Para que la producción remota sea posible a nivel económico, se tienen que alinear un montón de astros. No es algo que haya llegado para salvarnos la vida y a partir de ahora vaya a hacerse todo en remoto. No siempre sale a cuenta”.
Es preciso distinguir aquí entre los modelos de producción remota más asequibles, que democratizan la producción en tanto que hacen viable la retransmisión de competiciones que de otro modo hasta ahora no era posible, y los modelos de máximo nivel. “Cuando tienes conectividad y dispositivos conectables, la producción remota es mucho más fácil que enviar una unidad móvil. Trabajando
en SRT y en modalidades de compresión altos, puedes hacer producción remota basada en cloud o en sistemas de software. Pero, sin querer que esto suene mal, estamos hablando aquí de un modelo de producción Tier 3, diseñado para deportes que hasta ahora no podían permitirse una producción de alto nivel porque es más cara”.
¿Significa que ese modelo sirva para todo tipo de producción? No. “Si hay un nivel de exigencia alto en la calidad de la producción, no solo a nivel técnico, sino también operativo, por la velocidad de respuesta que exige en caso de incertezas que ocurran durante la competición, por la latencia y demás, entonces hay que ir a un modelo de producción, sea en remoto o tradicional, un poco más alto”.
Pero este no es el único ‘astro que alinear’, por mantener la metáfora a la que alude Planas: “La producción remota te permite mutualizar la operación y que el mismo control, por ejemplo, haga un partido a las 12 del mediodía y otro a las 6 de la tarde. Tienes ese control haciendo dos partidos en una jornada en lugar de tener una unidad móvil que te hace un único partido. ¿Qué pasa si en el calendario de la competición todos los partidos se juegan simultáneamente? Pues pasa a desalinearse uno de los astros”.
Es preciso distinguir entre los modelos de producción remota más asequibles, que democratizan la transmisión de competiciones, y los modelos de máximo nivel
Otro factor importante es la distancia que recorren las unidades móviles, y Planas pone aquí el ejemplo de la competición de rugby en Argentina: “En Argentina, nos estuvimos planteando cubrir la liga de rugby en producción remota. Cuando analizamos todas las opciones, y nos llevó bastante tiempo, un día nos dimos cuenta de que todos los clubes de la liga que íbamos a cubrir menos uno tenían su estadio en el entorno de Buenos Aires. Es decir, los operadores tardaban el mismo tiempo en ir al centro de producción que al estadio. De golpe, se desalineó el astro de distancias”.
En definitiva, y sirva esto como reflexión final: “Cuando queremos
montar un modelo de producción remota siempre analizamos absolutamente todo y evaluamos que los astros estén lo más alineados posibles para ofrecer la solución técnica que mejor se adapte a las necesidades, al coste y a la operativa que se tenga que hacer. No vale un modelo para todo”.
Aunque nos hemos centrado en este artículo en el apartado técnico, merece la pena mencionar, a modo de apéndice, las ventajas que este tipo de producción entraña a nivel humano, en tanto que libera a buena parte del equipo de realizar grandes
viajes en las unidades móviles, les permite conciliar mejor y ayuda a reducir la siniestralidad.
A pesar de las reticencias que pudo despertar en un principio entre los realizadores, Emili Planas indica que ahora están todos encantados e ilustra con esta anécdota las comodidades que esta nueva forma de producción plantea: “El otro día uno me decía: ‘Lo que más me gusta de la producción remota es que tengo el baño detrás de mí, no tengo que ir a buscarlo dentro del estadio con la acreditación correspondiente o pedir un favor al dueño del bar que está al lado’”.
Miquel Rutllant compagina actualmente su labor al frente del Clúster Audiovisual de Cataluña con la presidencia rotativa de la Redcau (Red Española de Clústeres Audiovisuales), lo que le otorga una posición privilegiada para analizar la evolución del sector. Apunta, a este respecto, tres tendencias: producción virtual, inmersividad y evolución de los drones.
Texto: Daniel Esparza
En calidad de presidente del clúster, pone en valor las fortalezas de la industria catalana, que está creciendo a buen ritmo aupada por el boom tecnológico y las aplicaciones del audiovisual en nuevos segmentos. También identifica los principales retos que abordan desde el clúster: dotar a la región de más infraestructuras, promover ecosistemas empresariales para compartir equipo o hacer entender a la administración que el audiovisual trasciende más allá de la cultura, aunque esta siga siendo su pilar principal.
Respecto a su rol en la Redcau, Rutllant subraya el papel clave de esta asociación como aliado principal de la industria española e interlocutor ante el Gobierno central para promover la colaboración público-privada, toda vez que no existe en nuestro país ninguna otra agrupación de empresas con ese nivel de representatividad.
Admite que hay asuntos sobre los que es difícil el acuerdo, pues no deja de ser estar formada por clústeres que compiten entre ellos por atraer inversión y talento en sus respectivas regiones, pero cree que actuando en bloque pueden lograrse sinergias y establece, en este sentido, sus líneas principales de acción para lograrlo.
En primer lugar, querría saber cómo valoras el momento actual que atraviesa el Clúster Audiovisual de Cataluña.
Atraviesa un momento muy bueno. El Clúster Audiovisual de Cataluña se ha articulado como un instrumento que está resultando muy útil a la industria audiovisual catalana para aprovechar las oportunidades que nos brinda la transformación actual del sector.
¿Qué evolución ha experimentado desde sus inicios hasta ahora?
Este clúster se creó en 2013. Al principio estaba muy orientado al sector tradicional de la producción. Prácticamente todos los socios fundadores pertenecen a la cadena de valor del que podemos considerar el audiovisual tradicional. Desde ese año a este 2025 el sector ha experimentado una gran evolución y se ha producido un boom del audiovisual, que ha penetrado en muchísimos ámbitos y sectores.
Gracias a esta asociación, hemos podido organizarnos mucho mejor, detectar con más precisión los cambios del sector, generar acuerdos, hablar con la administración para que oriente mejor sus políticas e inversiones... Realmente, ha sido extraordinariamente útil.
El enfoque de los clústeres es transversal. Siempre insistimos en que somos horizontales, no somos los representantes de un sector concreto dentro del audiovisual. Abarcamos toda la cadena de valor
e intentamos enriquecer nuestra industria desde una perspectiva industrial y económica, utilizando herramientas estratégicas y anticipando hacia dónde avanza el sector, qué tipo de cosas tienen que suceder a nivel de infraestructuras, equipamiento, etcétera, para que este mercado continúe desarrollándose.
La confluencia de este boom del audiovisual con nuestra manera de trabajar está permitiéndonos crecer mucho como clúster. Justo antes del ISE se actualizaron las cifras de la industria audiovisual catalana. En el 2023, último año disponible, la industria catalana ha crecido un 15%. La sensación es que el mercado avanza desde entonces a ese ritmo.
¿Y el clúster ha crecido también propulsado por esa evolución?
La industria catalana crece y el clúster, por su parte, cada vez tiene más socios. Ahora mismo estamos en 220, que son representantes de todas
las cadenas de valor del audiovisual: infraestructuras, platós, empresas de servicios, productoras, compañías del ámbito inmersivo y de los videojuegos, fabricantes de pantallas y de proyectores, desarrolladores de software o realidad virtual, etcétera. Es decir, representan toda la cadena de valor, con la complejidad que esto implica.
Y funciona. Venimos de organizar unos desayunos que hacemos de vez en cuando orientados al networking, en los que se presentan tres empresas del clúster. Para que veas esta diversidad a la que aludo, exponían Mediacrest, una empresa de ficción y entretenimiento potente; Blanco y Negro, exsello discográfico musical transformado probablemente en el principal promotor de experiencias inmersivas de España; y Play Your Brand, que ha creado una red global para proveer profesionales del audiovisual de cualquier lugar del mundo para una producción.
Queda claro con este ejemplo la diversidad que nos caracteriza. Curiosamente, de esa mezcla tan heterogénea surgen muchísimas ideas y mucha unidad. Es brutal cómo somos capaces de avanzar en bloque. Y eso que no es fácil. Por ejemplo, cuando decimos que el sector audiovisual catalán ha crecido un 15%, no quiere decir que todos los segmentos hayan crecido ese porcentaje... Algunos han crecido mucho y otros no tanto. En calidad de portavoz, algunos me plantean: "Oye, que mi sector no va bien". Esta heterogeneidad conlleva muchas dificultades, pero es también muy enriquecedora.
¿Cuáles son las principales líneas de actuación del clúster catalán?
Para empezar, hay un tema que para nosotros es fundamental, y es que le asignamos a la tecnología la autoría o la responsabilidad de que la industria audiovisual esté creciendo tanto. A más avances tecnológicos, más crece el sector. Esto se ve
claramente cuando uno va al ISE. Si soy del sector audiovisual tradicional y entro ahí, me encuentro con una feria descomunal, pero veo muy pocas cosas de mi sector. Y todo lo demás sigue siendo audiovisual. Esto es realmente gracias a la tecnología. Así pues, adoptamos la tecnología como el elemento impulsor de nuestra industria.
A partir de aquí, analizamos nuestras fortalezas como mercado audiovisual catalán y vemos que aquí hay una industria muy potente en el ámbito de la TIC aplicado a múltiples sectores, como el de la salud. Además, somos un ecosistema receptor de muchas inversiones en startups y nuevas aventuras empresariales, muchas veces con un fuerte enfoque tecnológico.
Por otro lado, comprobamos también que tenemos una tradición creativa muy potente. Y no respecto al audiovisual únicamente, sino también en las artes, la arquitectura o la gastronomía. Así que, teniendo en cuenta esto, lo que hacemos es construir una industria audiovisual catalana de futuro apoyándonos en estos dos pilares fundamentales, que son la creatividad y la tecnología.
“La industria catalana crece y el clúster, por su parte, cada vez tiene más socios. Ahora mismo estamos en 220, que son representantes de todas las cadenas de valor del audiovisual”
Tenemos que dominar todas las tecnologías y estar al día de los últimos avances. La hemos de adoptar sin reticencias en todos nuestros procesos productivos y creativos, y al mismo tiempo hemos de reforzar todo este tejido de artistas digitales, generadores de contenidos y demás perfiles para construir sobre estos pilares una industria audiovisual potente.
Has mencionado algunas fortalezas de la industria catalana, ¿cuáles dirías que son sus principales retos?
Donde realmente vemos la necesidad de coger un cierto impulso es en las infraestructuras. Ahora mismo tenemos dos retos importantes. El primero es disponer, como te digo, de más infraestructuras de base audiovisual en Cataluña. El segundo es averiguar, en este contexto de enorme cambio tecnológico, de qué manera somos capaces de dotar estas infraestructuras, además de empresas o centros de formación, de las últimas tecnologías sabiendo que su tiempo de vida es muy corto.
Estamos muy centrados, pues, en pedir a las administraciones que promuevan nuevas infraestructuras, además de facilitar el aterrizaje a operadores privados que puedan, en base a planes urbanísticos en ciertos lugares, como por ejemplo Las Tres
Chimeneas de San Adrià, hacer sus inversiones en el ámbito de las infraestructuras.
Y también tenemos puesto el foco en ver de qué manera podemos facilitar esta adaptación tecnológica. Estamos pensando mucho en que se creen más y más ecosistemas en los que se compartan equipamientos para intentar aprovechar estas inversiones en equipos lo mejor posible, sabiendo que las empresas normalmente suelen tener equipos parados durante mucho tiempo. Si creas un ecosistema con varias empresas, puedes multiplicar muchísimo más su utilización.
Y hay un tercer reto más político o de fondo que nos cuesta un poco más afrontar, que es común con Redcau [Red Española de Clústeres Audiovisuales]: cuando le preguntas a alguien qué es el audiovisual, todavía pensamos solo en cine, televisión o publicidad. Pero el audiovisual se aplica también al sector sanitario, al de la educación, a la comunicación empresarial, a eventos, centros de control de un aeropuerto, etcétera. Las aplicaciones son múltiples.
Sin embargo, toda la administración, desde la local hasta la europea, está organizada según este planteamiento de asociar el audiovisual con la cultura. Está claro que el cine, la televisión, continúan siendo seguramente el subsector más grande del
“Nuestro objetivo es construir una industria audiovisual catalana de futuro apoyándonos en dos pilares fundamentales: la creatividad y la tecnología”
audiovisual. Esto siempre lo ponemos en valor: la cultura, entendida en sentido amplio, continúa siendo el principal motor de la industria audiovisual. Pero, si queremos realmente ser los mejores en el audiovisual del futuro, debemos tener también unas administraciones que estén organizadas y alineadas con este cambio que se ha producido. Es decir, el mismo reto que estamos teniendo los profesionales y las empresas del audiovisual para adaptarnos a los nuevos tiempos, debe ser abordado también por la Administración.
Y aquí, como digo, no hay excepción: la administración local, autonómica, nacional y la europea continúan teniendo políticas, planes, ministerios, consejerías, concejalías, programas, orientados siempre a lo cultural. Continúa siendo nuestro pilar principal, insisto, pero estamos dejando muchos temas de futuro sin planificación ni políticas. Desde Cataluña se lo estamos intentando explicar a las administraciones, pero también a nivel de Redcau es un tema que hemos puesto en común con los nueve clústeres.
¿Y cuál es el grado de receptividad que ves en la Administración?
Lo entienden perfectamente, pero romper con una manera de hacer las cosas y una inercia es muy complicado, porque esto quiere decir deshacer cosas para crear nuevas estructuras. Para un profesional que se quiere reciclar ya es difícil, imagínate para una empresa o una administración. Repensarlo todo, desmontar para volver a montar, es algo muy difícil de hacer. Pero sí vemos mucha receptividad.
Quizás donde en estos últimos años hemos visto un poco más de dinamismo es a nivel estatal. El último cambio que han hecho en este sentido es el Spain Audiovisual Hub of Europe. Hay una parte que lo lleva Cultura, otra Presidencia, pero es en la Secretaría de Estado de Digitalización e Inteligencia Artificial donde ahora mismo recae este tema, lo cual es una buena noticia. Es muy pronto para valorarlo, pero da la sensación de que se ha entendido que hay una parte del audiovisual que tiene que estar en estos ámbitos. Y que haya una Secretaría de Estado tecnológica detrás, como digo, es una muy buena noticia.
¿Qué posición ocupa la industria audiovisual catalana a nivel nacional?
Es difícil saberlo porque no hay datos comparables. Justamente por los cambios que se están produciendo en el audiovisual, va a ser muy difícil que nos pongamos de acuerdo en decidir qué entra dentro de la industria audiovisual y qué no. Tenemos una industria con un volumen de 8.600 millones, según datos de Acció, que es el departamento de Empresa de la Generalitat. Esta cifra puede abarcar segmentos que no encajen con lo que se considera industria audiovisual española, porque igual ellos están considerando únicamente lo tradicional. En definitiva, se torna muy difícil comparar.
Lo que sí sabemos es que en todo lo que tiene que ver con el nuevo audiovisual, como los sectores de inmersión, videojuegos, así como el sanitario o educativo, somos muy fuertes.
Es en estos 'nuevos audiovisuales' donde ahora mismo estamos creciendo más. Respecto al audiovisual más convencional, hay un polo principal de atracción que es Madrid, debido a que es la sede de los principales operadores públicos y privados de España. Creo que todos los demás, cada uno a nuestro nivel, vamos claramente por detrás.
Aun así, nosotros hacemos una apuesta también por el audiovisual más tradicional. De hecho, uno de los programas de infraestructuras del Gobierno catalán es la ampliación del Parque Audiovisual de Cataluña, en Terrassa, con la instalación de dos platós de gran tamaño más: uno de 1.500 y otro de 2.300 metros cuadrados, con el objetivo de convertirlo en un campus de producción de primerísimo nivel, que se sume a las infraestructuras ya existentes. La idea es, por un lado, no tener que salir fuera de Cataluña para producir, que es algo que les está pasando a veces a los productores catalanes por falta de infraestructuras. Pero también atraer el máximo número posible de inversiones y producciones a Cataluña, sabiendo que nuestras armas principales son industria y talento.
¿Industria y talento son entonces los elementos más fuertes del audiovisual catalán?
Es ahí donde realmente destacamos más. Tenemos un tejido de escuelas, universidades y centros formativos espectacular, y unas cuantas escuelas internacionales que se están instalando aquí en Cataluña. De hecho, este evento que te estaba explicando del clúster del que vengo ahora es en una escuela canadiense que se llama LCI, que abarca videojuegos, moda, artes digitales, arquitectura. Es decir, que tiene muy inculcada esta idea de la creatividad y la tecnología. Tiene una red internacional de escuelas y cuenta con una sede aquí en Barcelona espectacular. Todo esto está generando un talento inmenso.
Ante la falta de incentivos fiscales diferenciales con otros territorios, por lo que siempre apostamos en Cataluña es por la industria. Intentamos hacer bien las cosas en ese sentido, poniendo ecosistemas completos encima de la mesa, cubriendo todos los ámbitos del audiovisual, siendo muy innovadores, apalancándonos mucho en la tecnología, etcétera. Estas son nuestras armas.
¿Podemos establecer entonces como flaquezas del audiovisual catalán el déficit de infraestructuras y la falta de incentivos fiscales?
Podría decirse que sí, pero lo bueno es que tenemos un plan. Por un lado, está la ampliación del Parque Audiovisual de Cataluña y, por otro, el proyecto de la Cataluña Media City. Son dos proyectos que avanzan y son de gran complejidad administrativa. Ahí se está avanzando de manera muy importante. Hay un compromiso tanto del Gobierno catalán como del de España para que sean una realidad en los próximos años. La idea es generar este parque tecnológico audiovisual que abarque investigación, infraestructuras, un ecosistema empresarial, que atraiga empresas internacionales, etcétera. Diría que aquí hay un déficit pero también un plan, y se está avanzando en él. El otro déficit es carecer, en efecto, de una fiscalidad competitiva. No dejamos de pedir que haya una mejora fiscal, pero, como no sabemos si llegará, seguimos centrados en nuestras armas, que son la industria y el talento.
Centrémonos ahora en Redcau. Una primera consulta: ¿desde hace cuánto diriges también esta asociación?
La presidencia es rotatoria. Yo llevo algo más de un año. La Redcau representa a los nueve clústeres que hay actualmente en nuestro país. Las presidencias son, como digo, rotatorias y ahora le corresponde a Cataluña. El primer presidente fue del clúster de Navarra, y a continuación le tocará a Aragón. Pero la agenda y los objetivos son comunes.
¿Y cuáles son estos objetivos comunes, teniendo en cuenta que los clústeres competís entre vosotros?
Es muy importante puntualizar, en primer lugar, que la Redcau no es un clúster, sino una asociación. Cada clúster trabaja para fortalecer la industria regional de su comunidad. Es decir, competimos entre nosotros, sí. Sin embargo, encontramos que había una serie de temas que eran de interés común. Competimos, como digo, por la atracción de inversiones y producciones, por el talento.
“Toda la administración sigue asociando el audiovisual con la cultura. Es el subsector más grande pero necesitamos que se alinee con los cambios que se han producido”
Pero lo bueno es que prácticamente cada una de las regiones audiovisuales de España tiene sus propias características específicas. Cada uno se está especializando en un ámbito, con muchos solapes, obviamente, como no puede ser de otra manera.
Con la última incorporación que hicimos en la última asamblea de los clústeres de Madrid, Andalucía y Comunidad Valenciana, todas las regiones audiovisuales relevantes de España están representadas. Para nosotros esto es muy importante. Es clave, en este sentido, que quien se asocia a Recau sea verdaderamente un clúster. Es decir, que cumpla con su regionalidad y su transversalidad. Una asociación de productoras no tendría sentido, por ejemplo. Nosotros lo que queremos son organizaciones horizontales. Si repasamos los mercados audiovisuales de España, de los más relevantes solo me faltaría Baleares, que tiene un sector publicitario muy potente. Los demás estamos representados en la Redcau. En total, representamos unas 700 empresas de toda la industria audiovisual. No hay ahora mismo ninguna asociación con tanta representatividad en el sector en España.
¿En qué ámbitos es más difícil el acuerdo?
Ya cuando lo pusimos en marcha, los primeros socios fundadores teníamos muy claro que había temas que eran difíciles de abordar como Redcau. Por ejemplo, el tema fiscal. Canarias, Navarra y el País Vasco tienen situaciones fiscales distintas al resto de las regiones de España. Es un tema sobre el que sería difícil tener una posición común.
Sí estamos todos de acuerdo, en cambio, en que España debería tener el mayor atractivo fiscal para toda la industria, con independencia de que luego haya particularidades en cada una de las de las regiones. Entonces, tenemos como Redcau el objetivo de intentar convencer a la administración de esta dualidad cultura-industria para que realmente se puedan acometer las políticas apropiadas.
¿Y se está logrando?
Se está avanzando mucho, sobre todo a nivel de Gobierno central. Pensamos que es bueno para la industria audiovisual española atraer a jugadores internacionales. No nos tiene que dar miedo que vengan empresas de toda la cadena de valor del audiovisual y se instalen aquí. Lo único que hacen es reforzar. No debemos verlos como competidores, sino como refuerzos de nuestros ecosistemas. Nuestro interlocutor, a diferencia del que tenemos normalmente como clúster regional, para a ser el Estado, el Gobierno de España. En este caso, nos gustaría que hubiera políticas del ICEX para atraer realmente a la industria audiovisual y no solo producciones. También que haya más infraestructuras. Nos parece que una industria audiovisual española fuerte requiere una base de infraestructura y equipamiento potente. Y que se facilite a todas las entidades formativas el acceso a equipamientos de última generación.
¿Qué otros objetivos perseguís?
Para nosotros es fundamental que el nuevo talento que venga de las escuelas haya trabajado con los últimos equipamientos y los últimos
softwares disponibles para que realmente ayude a cambiar a las empresas. Esto también es importante para nosotros. Nos gustaría que hubiera más retención de talento. Hay mucho talento que se va fuera. Cuanto más fuertes seamos como industria más talento vamos a atraer y recuperar. Y también, y este es un planteamiento un poco inocente, estaría bien que nos pusiéramos de acuerdo las diferentes regiones audiovisuales de España para no pisarnos demasiado. En este país somos especialistas en copiarnos unos a otros, que no está tan mal, pero creo que hemos de ser capaces de no tener 30 ciudades audiovisuales con platós en España. Ya sé que no es el caso, pero si tiene que ser así es porque esté justificado y se haga de una manera lo más inteligente posible.
Yo creo, por ejemplo, que sí se está empezando a hacer bien todo lo relacionado con el ámbito de la producción virtual. Hay un par de iniciativas públicas muy potentes, una en Coruña y otra en Gran Canaria, también hay otra en Navarra, que se están complementando con iniciativas privadas, principalmente en Madrid y Barcelona, pero seguro que las hay en otros muchos sitios. Aquí tiene sentido que seamos capaces de crear un polo, sabiendo que el futuro de la producción en gran parte va a pasar por la producción virtual. Tiene mucho sentido que esto esté en todas partes.
Pero no que tengamos en cada una de las regiones cosas que sean demasiado iguales unas a las otras. Admitiendo, eso sí, que hay que hacer un equilibrio muy difícil, porque cada región ha de tener la libertad de desarrollar la industria a su manera.
A mí los únicos que se me ocurre que puedan tener una visión de la industria desde una perspectiva de toda España es, por un lado, el Gobierno y, por otro lado, Redcau. Yo creo que tiene que haber un diálogo público-privado por parte de estas dos entidades para intentar planificar una industria audiovisual a nivel nacional que evite al máximo los solapamientos, fomente la especialización y nos haga a todos más competitivos.
Lo que ha pasado muchas veces es que al final, si todos tenemos lo mismo, lo único que conseguimos es que bajen los precios, porque crece la oferta y no la demanda. Tenemos que maniobrar para evitar esto. Esta es quizás la parte más idealista.
Finalmente, el otro objetivo que tenemos es la internacionalización de la industria audiovisual española. Es decir, no solo que atraigamos, sino que también seamos capaces de salir fuera en todos los ámbitos del audiovisual. Además, yo creo que en los nuevos ámbitos que se están creando, como el de los videojuegos o lo inmersivo, hay muchísimo recorrido para la internacionalización.
“Pedimos desde el clúster catalán una mejora fiscal, pero como no sabemos si llegará, seguimos centrados en nuestras armas, que son la industria y el talento”
Has mencionado la producción virtual, ¿cuál dirías que es su grado de implantación en España?
Para nosotros es uno de los focos más importantes de crecimiento. En el clúster catalán, por ejemplo, a nivel de formación, hemos creado un videoblog donde hemos reunido a grandes especialistas en producción virtual en una serie de contenidos divididos en tres capítulos que están a disposición de los socios del clúster. Durante el ISE también organizamos sesiones de producción virtual. Para nosotros es un tema estratégico. Como queremos apalancar el crecimiento de la industria audiovisual catalana muchísimo en la tecnología, evidentemente abrazar este tipo de soluciones o de innovaciones es fundamental.
Tiene todos los componentes para que realmente sea un factor de éxito importante. Acudimos en nombre del Clúster Audiovisual Catalán hace pocos meses a Los Ángeles y Las Vegas para ver los ecosistemas de ahí. Son muy distintos uno del otro. Uno está más enfocado en la producción y otro en el entretenimiento a todos los niveles. Es brutal la cantidad de audiovisual que te encuentras ahí. Una de las empresas que estuvimos visitando son los estudios de Sony. Ahí estuvimos con la gente de Pixomondo, que son uno de los principales operadores de producción virtual. Y, al final, lo que te comentan es que es un tema de eficiencia de costes. Tienen el convencimiento total que la producción virtual se va a imponer porque a medio y largo plazo va a ser muchísimo más
competitiva y sostenible medioambientalmente que cualquier que otra manera de producir.
Implica desaprender cosas, aprender otras nuevas, pero este cambio se va a producir. Y la sensación que tenemos nosotros es que hay más y más producciones que se están haciendo en este ámbito. Seguramente el mayor dinamismo lo estamos encontrando en la publicidad, pero pensamos que de la publicidad terminaremos pasando cada vez más a la ficción y a continuación al entretenimiento. Somos muy optimistas, porque vamos a poder producir más barato y más sostenible.
¿Hay alguna otra tendencia que creas que tendrá especial interés de aquí a unos años?
Estamos dándole muchísima importancia a la inmersividad. Creo que se está desarrollando una cadena valor muy potente. De momento, sobre todo en Barcelona y Madrid. Pero está destacando mucho también, por ejemplo, Zaragoza, que tiene empresas de producción inmersiva de primerísima categoría, también centros formativos. Creo que esta es una de las tendencias importantes. Ahí hay un mercado grande que se está creando.
Y luego hay otra cosa que ya no es tan innovadora, pero en la que sí nos hemos fijado en el clúster, y es en la evolución de los drones. Empezaron como un elemento de rodaje para aportar una visión más cenital, pero han ido evolucionando hacia los espectáculos, donde se han convertido en un elemento fundamental. Estamos viendo empresas que utilizan
los drones hasta para iluminar platós. Para nosotros este es de algún modo un primer paso hacia los robots audiovisuales. Pensamos que es una tendencia todavía muy precoz, pero es un tema que está encima de la mesa. Pensamos que irá a más.
Cada vez hay más elementos automáticos audiovisuales. Las cámaras son totalmente automatizadas y, en general, nos encaminamos cada vez más hacia la robotización. Y la inteligencia artificial es un gran elemento de apoyo para todo este desarrollo.
Los robots audiovisuales son pues para nosotros ahora mismo, a nivel de industria audiovisual catalana, uno de nuestros focos principales.
Estoy muy contento de que se pueda visibilizar el trabajo que se hace desde la Redcau. No hay ninguna otra asociación con tanta representatividad y, en cambio, es aún muy poco conocida. Creo que somos un buen aliado para para la industria audiovisual española.
La producción virtual está de moda y se ha erigido en uno de los temas calientes de este primer trimestre del año, tanto a nivel nacional como fuera de nuestras fronteras. Aunque no se trata, desde luego, de una herramienta tecnológica nueva y ha ido evolucionando durante la última década, los últimos avances en pantallas LED, motores gráficos, experiencias inmersivas o inteligencia artificial le han dado el empujón definitivo.
Estas innovaciones no solo estimulan la imaginación de los equipos creativos, al permitirles crear entornos inéditos que fusionen como nunca antes lo real y lo digital. También posibilitan ampliar el abanico de proyectos que pueden introducir estas tecnologías, por sus mejoras en cuanto a eficiencia y coste.
Cuando irrumpe un nuevo avance tecnológico, es habitual que la industria se apresure a investigar qué nuevas opciones brinda esa
herramienta y cómo puede ayudar a las empresas a optimizar sus flujos de trabajo. Superado este entusiasmo inicial -y tras incurrir en ocasiones en errores o malentendidos-, es posible valorar con más detenimiento y reposo qué ventajas y desafíos plantea y trazar así un análisis más preciso del estado actual de esta tecnología.
Con este propósito, hemos mantenido estos últimos meses entrevistas con los directivos técnicos de varios estudios de renombre internacional
Los directivos técnicos de tres estudios de renombre internacional - Quite Brilliant, dock10 y Dimension- nos aportan sus claves para entender qué uso real está dando el mercado a esta herramienta tecnológica y sus diferentes formas de abordarla en publicidad, televisión y cine
especializados en producción virtual -Quite Brilliant, dock10 y Dimension-, que nos han aportado las claves para entender qué uso real está dando el mercado a esta tecnología y sus diferentes formas de abordarla en publicidad, televisión y cine.
“Ahora los estudios están utilizando la tecnología por las razones correctas, centrándose en escenas donde realmente agrega valor”, afirma Russ Shaw, Head of Virtual Production de Quite Brilliant, al valorar
la implementación actual de esta herramienta tecnológica, una idea en la que coinciden el resto de productoras consultadas.
En ese sentido, cabe destacar que la producción virtual no es la solución óptima para todo tipo de proyectos. “En los primeros días, hubo un gran entusiasmo en torno a la tecnología, y muchas producciones se apresuraron a explorar su potencial. Sin embargo, a menudo existía la idea errónea de que los proyectos
necesitaban ser completamente basados en locaciones o completamente virtuales”, incide Russ Shaw.
Otra tendencia clave es su extensión a proyectos que antes no podían permitírselo, democratizándose su uso. “A medida que los precios han disminuido, la accesibilidad de la producción virtual ha mejorado drásticamente. Los proyectos de bajo presupuesto están adoptando cada vez más la producción virtual debido a su eficiencia”, apunta Shaw.
Callum Macmillan, CTO de Dimension Studio, coincide en la misma línea: “Existe sin duda una mayor demanda de apoyo en producción virtual por parte de una gama más amplia de proyectos. Hace unos años, esta tecnología estaba predominantemente reservada para los proyectos más grandes, pero ahora estamos trabajando con más proyectos independientes gracias a la forma en que las tecnologías de producción virtual se han vuelto más eficientes y, por lo tanto, más rentables”.
Uno de los principales beneficios de la producción virtual en el que todos los estudios consultados coinciden es que permite agilizar los procesos sin mermar -en ocasiones, al contrario- la calidad del resultado final. Y aquí ha jugado un papel clave la posibilidad de renderizar en tiempo real. “Los avances más recientes en renderizado en tiempo real han sido transformadores. Actualmente, podemos lograr resultados fotorealistas en ICVFX [in-camera visual effects] en tiempo real, lo que antes requería horas de proceso posterior”, indica Callum Macmillan.
El CTO de dock10, Paul Clennell, apunta en la misma dirección: “Usando el renderizado en tiempo real más avanzado se puede ver cómo quedará cada toma a medida que sucede, ya sea en vivo en el estudio o a través de una visualización remota segura”.
En todo caso, no se trata de un apartado completamente resuelto, y los directivos técnicos consultados coinciden en que será una de líneas clave que marcarán la evolución de la producción virtual de aquí en
adelante. En palabras de Russ Shaw (Quite Brilliant), “la calidad de renderizado continuará mejorando, impulsada por GPUs [graphics processing units] más rápidas y mejores estándares de conectividad como SMPTE 2110. Esto permitirá una transmisión sincronizada, con baja latencia, HDR y alta frecuencia de cuadros, reduciendo los desafíos técnicos en las grandes pantallas LED”.
Todo esto reconfigura la progresión lineal del proceso tradicional de creación de contenido. También provoca cambios profundos en los flujos de trabajo, generándose nuevos espacios de coordinación entre los diferentes departamentos, y afecta particularmente a la postproducción.
“Esto no elimina la postproducción, sino que la transforma”, puntualiza Callum Macmillan (Dimension), e ilustra este cambio a través de su experiencia en la película ‘Here’: “Pudimos capturar imágenes con calidad de píxel final directamente en cámara, manteniendo al mismo tiempo la flexibilidad para tomar decisiones creativas. La integración de información de profundidad en tiempo real y controles ambientales sofisticados permite que muchas tareas tradicionales de postproducción ahora se manejen durante la fotografía principal. El resultado es un proceso más eficiente, creativo y colaborativo, que mantiene los más altos estándares de calidad al tiempo que optimiza los costos y tiempos en postproducción”.
Otro apartado que ha permitido llevar la producción virtual al nivel de calidad actual es la evolución de
las pantallas LED. “Si miramos atrás, en 2020 la calidad de los entornos en Unreal Engine era apenas aceptable para la producción en tiempo real, y la resolución de las pantallas LED estaba lejos de ser óptima. Los directores de fotografía a menudo recurrían a una profundidad de campo reducida para ocultar las imperfecciones del fondo”, explica Russ Shaw.
“Hoy en día -contrasta Shaw-, avances como la tecnología micro-LED y pantallas de píxel pitch más fino han mejorado significativamente el realismo de los entornos virtuales. Unreal Engine también ha evolucionado con innovaciones como Nanite, que permite el uso de mallas de alta densidad, y Lumen, que optimiza la iluminación y la calidad de las sombras, logrando contenidos más nítidos y realistas”.
A este respecto, Callum Macmillan añade: “La tecnología de pantallas LED ha madurado significativamente, permitiendo una mayor precisión en el color y una resolución más alta. Actualmente, estamos en nuestra tercera iteración de tecnologías de paneles y en la segunda generación de hardware de procesamiento de imagen, lo que está teniendo un impacto enorme”.
Formas de abordar la producción virtual
La producción virtual es, en cualquier caso, un término genérico amplio. ¿Cómo implementan los estudios esta herramienta en sus proyectos? Aquí cada empresa tiene un planteamiento, en función de sus recursos disponibles o de su filosofía. Quite Brilliant, con presencia
destacada en la publicidad, ha optado por un enfoque modular, apoyándose en su alianza con los míticos Twickenham Film Studios de Londres, uno de los estudios más antiguos de Reino Unido. Este acuerdo le ha llevado, asimismo, a recibir peticiones del sector cinematográfico.
En palabras de Russ Shaw, “operar principalmente desde los estudios Twickenham nos brinda acceso a múltiples platós, algunos configurados de forma permanente para producción virtual y otros fácilmente adaptables a soluciones personalizadas. Al contar con un diseño parcialmente modular, podemos ajustar el tamaño y la disposición de los muros LED para adaptarnos a las necesidades específicas de cada producción. Esta flexibilidad es fundamental, ya que los directores suelen requerir configuraciones a medida para materializar su visión creativa, evitando limitaciones o una carga innecesaria de trabajo en la postproducción”.
Volviendo a la idea de que la producción virtual no es una solución que valga para cualquier tipo de proyecto, Shaw puntualiza: “También contamos con la capacidad de desarrollar soluciones fuera de nuestras instalaciones cuando es necesario, siempre priorizando las necesidades financieras y logísticas de nuestros clientes”.
Dock10, que está más centrada en el segmento de la televisión, ha instalado capacidades virtuales en cada uno de sus diez estudios, en lugar de montar un plató virtual desde cero. “Estas soluciones emplean la tecnología más avanzada de motores en tiempo real de Epic y Unreal
Engine, junto con Zero Density y el sistema de tracking estrella de Mo-Sys. Al centralizar los sistemas en nuestro CTA, ofrecemos a nuestros clientes la flexibilidad de elegir el tamaño de estudio adecuado para su producción, que puede variar entre 1.000 y 12.500 pies cuadrados [entre 92,9 y 1.161 metros cuadrados]”.
En este sentido, Paul Clennell (dock10) apunta: “La capacidad de estudio virtual de dock10 es un potente conjunto de herramientas creativas diseñado para ofrecer un mayor valor en pantalla, permitiendo la creación de escenarios más ricos en contenido. Nuestra tecnología combina de forma fluida elementos físicos, realidad virtual y realidad aumentada en tiempo real, junto con datos en vivo”.
“El resultado -pone en valor Clennell- es completamente realista, con sombras y reflejos precisos, así como una integración perfecta incluso de los mechones individuales de cabello. Las cámaras pueden apuntar en cualquier dirección dentro del estudio para generar un entorno continuo en pantalla”.
En el caso de Dimensión, con un fuerte enfoque en la ficción, merecen una mención especial sus ‘humanos virtuales’. “Quizás una de nuestras innovaciones más emocionantes ha sido la combinación de humanos virtuales (ya sean metahumanos controlados en tiempo real o capturas volumétricas) con entornos de producción virtual ICVFX, creando experiencias híbridas que no eran posibles hace apenas unos años”, explica Callum Macmillan.
DIMENSION │ TIME BANDITS
Paul Clennell (dock10): “Usando el renderizado en tiempo real más avanzado se puede ver cómo quedará cada toma a medida que sucede, ya sea en vivo en el estudio o a través de una visualización remota segura”
“Nuestro proyecto más reciente, ‘Evergreen’, -ejemplifica Macmillandemuestra claramente cómo podemos crear personajes virtuales completamente dirigibles para el plano medio. La integración de humanos virtuales en entornos de producción virtual en tiempo real para dar vida a los elementos de fondo y plano medio es algo que también hemos implementado recientemente en las tomas del Coliseo en las que Dimension trabajó para la serie de Amazon Prime ‘Those About To Die’”.
El reto de la formación
Uno de los retos que plantea esta nueva herramienta tecnológica es la formación de personal, teniendo en cuenta que es necesario reunir conocimiento de diversas disciplinas. “Si bien normalmente contratamos personal de estudio con sólidas habilidades en 3D debido a nuestro uso de Unreal Engine, la formación interna es esencial para garantizar un soporte eficaz en rodajes en vivo”, explica Russ Shaw.
“Los estudios de producción virtual varían significativamente, ya que integran equipos de diferentes
Russ Shaw (Quite Brilliant):
“Ahora los estudios están utilizando la tecnología por las razones correctas, centrándose en escenas donde realmente agrega valor”
fabricantes, cada uno con su propio software y requisitos de configuración. Por ejemplo -ilustra Shaw-, la instalación de paredes LED, procesadores, sistemas de tracking de cámara, servidores de reproducción de medios y controladores de iluminación requiere un profundo conocimiento de múltiples disciplinas, desde la sincronización de cuadros hasta los distintos tipos de redes, cableado de video y señalización para pantallas”.
En general, todos los estudios consultados ponen en valor la importancia de contar con un equipo humano de primer nivel -ingenieros, diseñadores, especialistas técnicos-, más allá de la herramienta tecnológica como tal puesta a disposición del cliente. “Nuestro equipo de producción también cuenta con amplia experiencia en la configuración y calibración de cámaras -explica Shaw en este sentido-. Para los clientes que traen su propio equipo técnico, ofrecemos visitas técnicas gratuitas, permitiéndoles experimentar con los sistemas del estudio y su propio equipamiento antes del rodaje. Esta preparación práctica es invaluable para garantizar un proceso de producción fluido”.
dock10 ha creado, por su parte, un Equipo de Innovación, que se ha convertido en una referencia de I+D en el sector de la producción televisiva de Reino Unido. “Su objetivo -explica Paul Clennell- es explorar nuevas formas para que la industria adopte contenidos más interactivos, inmersivos y similares a los videojuegos, en un momento en el que el vídeo lineal y en 2D está en declive, especialmente entre las audiencias más jóvenes”.
“Tras haber producido cientos de horas de contenido innovador -prosigue Clennell-, el equipo de Innovación se ha ganado una sólida reputación por desarrollar herramientas y flujos de trabajo personalizados para producciones de vanguardia. Además, desempeña un papel clave en la educación y divulgación dentro del sector, mostrando nuevas formas de crear contenido”.
Clennell ilustra las innovaciones desarrolladas por este departamento a través del siguiente ejemplo: “El primer desarrollo del equipo dentro del estudio de I+D [creado ad hoc para este propósito] fue DMX-VL, una solución de software en tiempo
real que permite controlar tanto la iluminación móvil física como virtual desde una única consola de iluminación estándar de la industria. Esto facilita la entrega de posibilidades infinitas de iluminación para las producciones, sin necesidad de equipos adicionales, personal extra ni costos adicionales”.
Por su parte, Dimension plantea un enfoque “integral” para el desarrollo de talento que consiste en tres pilares: “Mantenemos sólidos vínculos con instituciones académicas, gestionamos un programa estructurado de prácticas, en colaboración con centros de formación, y mejoramos continuamente nuestros procesos de incorporación, en los que los miembros sénior del equipo brindan formación práctica en diversas disciplinas”.
“Esto último asegura -según precisa Macmillan- una transferencia de conocimiento eficiente y una rápida adaptación a nuestros flujos de trabajo y mejores prácticas. La inteligencia artificial también está desempeñando un papel clave en este proceso”.
Inteligencia artificial
En todo este proceso, la inteligencia artificial se erige en una herramienta de extraordinaria utilidad. Tal y como ejemplifica Russ Shaw, “es posible generar y aprobar un fondo creado con IA en menos de un día, en comparación con los tres días o más que se requieren para construir una escena similar en Unreal Engine”.
Ahora bien, la IA también plantea todavía ciertas limitaciones. En este sentido, Shaw puntualiza lo siguiente:
“El contenido generado por IA a menudo carece de control y adaptabilidad, lo que significa que todavía dependemos del software tradicional de efectos visuales en 2D para realizar ajustes sutiles o corregir artefactos. Además, el movimiento de cámara puede ser restrictivo, ya que la IA suele utilizar capas en 2.5D para simular profundidad, lo que puede fallar si la escena se fuerza demasiado o se mantiene en pantalla por mucho tiempo”.
En todo caso, ayuda a resolver retos que de otro modo costaría mucho más abordar. Paul Clennell pone un ejemplo: “El Equipo de Innovación está desarrollando técnicas para crear sombras y reflejos realistas en la producción virtual con pantalla verde [o croma] de múltiples cámaras. Durante años, esto ha representado un desafío enorme para la producción”.
“La solución -expresa Clennell- es el desarrollo de un modelo de IA personalizado. Llamado AI Composure, demuestra que la producción virtual con pantalla verde puede verse mejor y entregarse de manera más económica que los escenarios de pantalla LED; y no está limitada por el tamaño de la pared LED”.
Preguntado por esta cuestión, Callum Macmillan indica que la IA está integrada en toda la operación de Dimension. “Utilizamos modelos de lenguaje grandes para optimizar nuestros flujos de trabajo de producción y el seguimiento de proyectos, mientras mantenemos bases de conocimiento completas en cada departamento. Nuestros equipos artísticos utilizan herramientas
de texto a 3D y malla a 3D, y la IA generativa acelera nuestros procesos de previsualización mediante la generación rápida de imágenes en 2D”.
“Una de nuestras implementaciones más significativas -prosigue- es en la generación procedural de contenido, lo que ha revolucionado nuestros procesos de construcción de entornos y diseño de layouts. Esta integración multifacética de IA demuestra cómo el aprendizaje automático puede mejorar tanto los aspectos técnicos como los creativos de la producción virtual”.
Futuro de la producción virtual
La producción virtual no es una tecnología completamente madura, y de aquí en adelante se esperan nuevos avances que optimizarán esta herramienta y la dotarán de nuevas posibilidades, según coinciden los directivos técnicos consultados. Además de lo ya expuesto anteriormente, Russ Shaw expone lo siguiente: “Prevemos un creciente interés por parte de las empresas de postproducción gracias a herramientas como Chaos Arena, que optimizan la integración de los flujos de trabajo de V-Ray con pantallas LED sin necesidad de preprocesamiento. Estos avances mejorarán aún más la eficiencia y accesibilidad de los procesos de producción virtual”.
Por su parte, Callum Macmillan indica: “El futuro de la producción virtual será una integración cada vez más fluida entre los elementos físicos y virtuales. Estamos viendo una convergencia de tecnologías en tiempo real, inteligencia artificial y cine tradicional.
Los sistemas se volverán más modulares, los volúmenes serán más flexibles y dinámicos, ya sea para producción con LED, captura de rendimiento o captura volumétrica; todos coexistirán en un mismo volumen, lo que está revolucionando la manera en que se cuentan las historias. La experiencia del espectador se volverá más inmersiva a medida que la línea entre los elementos prácticos y virtuales siga difuminándose”.
Casos de éxito
Por último, pedimos a los tres directivos técnicos entrevistados que mencionen un caso de éxito vinculado con la producción virtual del que se sientan especialmente orgullosos. A continuación, reproducimos sus respuestas:
Russ Shaw (Quite Brilliant): si bien cada proyecto en el que hemos trabajado ha tenido elementos únicos e interesantes, una campaña reciente para Nissan, en colaboración con City Studios y The Gate Films, destaca especialmente. Más del 60 % del anuncio de televisión se rodó virtualmente en el estudio e incluyó la participación del entrenador del Manchester City, Pep Guardiola.
A pesar de su disponibilidad limitada—solo 90 minutos en el set— logramos incluirlo en 20 tomas.
El mayor desafío fue el ajustado calendario de producción, que no dejaba margen para errores. Para garantizar el éxito, capturamos todas las placas necesarias un día antes del rodaje en producción virtual, creando un animatic preliminar que permitió a todo el equipo visualizar la posición del coche, los
emplazamientos de cámara y los fondos para asegurar la continuidad. Gracias a una planificación meticulosa, un director y un director de fotografía excepcionales, y un equipo altamente experimentado, el proyecto se ejecutó a la perfección, recibiendo elogios unánimes.
Paul Clennell (dock10): el Innovation Team está trabajando en perfeccionar la integración de tecnología que permite renderizar contenido animado en tiempo real dentro de un entorno de estudio en vivo con múltiples cámaras. Este desarrollo se basa en el trabajo de dock10 en BBC Bitesize Daily, donde se lograron avances significativos en la animación de intérpretes capturados por motion capture dentro de flujos de producción virtual en vivo.
Esta técnica se llevó aún más lejos en ‘Dinosaur with Stephen Fry’, de Channel 5, donde las acciones preanimadas de los dinosaurios podían manipularse en la sala de control para crear nuevas secuencias de reproducción en vivo dentro del estudio.
A raíz de estos éxitos, el Innovation Team creó un estudio de I+D dedicado, en estrecha colaboración con el departamento de ingeniería de dock10 y proveedores clave, para integrar múltiples tecnologías innovadoras en un solo espacio. Este estudio multicámara UHD/ HDR cuenta con un infinity curve de tres paredes, captura de movimiento para múltiples talentos, face capture, seguimiento óptico de actores y capacidades avanzadas de grabación de video y audio.
Callum Macmillan (Dimension): nuestro trabajo en Here, de Robert Zemeckis, representa un hito particularmente significativo en la innovación de la producción virtual y un proyecto en el que llevamos al límite las posibilidades de las tecnologías en tiempo real.
El proyecto requería la creación de un mundo virtual en constante evolución, visto a través de una única ventana a lo largo de diferentes periodos de tiempo. Implementamos avanzados sistemas de simulación de vehículos con 55 unidades, desarrollamos complejos sistemas meteorológicos con lluvia, nieve y cambios estacionales, y exploramos nuevos enfoques para la iluminación interactiva.
Además, utilizamos cámaras de profundidad en tiempo real basadas en sistemas láser (nLight's HD3D), lo que permitió una integración de profundidad sin precedentes, logrando una fusión perfecta entre los elementos físicos y virtuales. Este proyecto ejemplifica hasta qué punto la producción virtual ha evolucionado, pasando de simples volúmenes LED a herramientas sofisticadas de producción en tiempo real.
Callum Macmillan (Dimension):
“El futuro de la producción virtual será una integración cada vez más fluida entre los elementos físicos y virtuales”
Nota: accede a la transcripción íntegra original (en inglés) de las entrevistas con Russ Shaw (Quite Brilliant), Paul Clennell (dock10) y Callum Macmillan (Dimension) incluidas en los últimos números de TM BROADCAST INTERNATIONAL a través de: https://issuu.com/daromedia
Cualquiera de nosotros ha tenido la experiencia en algún momento de su vida de no tener luz suficiente cuando va a realizar una fotografía con el móvil. La solución siempre ha sido fácil y rápida de localizar dado que nuestros móviles actuales -Smartphone- vienen con la opción de serie de tener una luz LED incorporada en la parte trasera de nuestros dispositivos. Esta luz LED se puede activar/desactivar manualmente desde un menú de configuración en la propia pantalla del móvil o dejar la opción de auto para que se dispare en caso de escasa iluminación a la hora de realizar la fotografía.
Por Carlos Medina, Asesor en Tecnología Audiovisual
Pero ¿qué pasa si con ese mismo Smartphone grabamos un vídeo con poca luz? Pues nos enfrentamos a un problema que necesitamos solucionar. Tenemos que utilizar alguna fuente de luz externa para poder obtener la mejor iluminación posible o aplicar alguna técnica de iluminación que mejore la grabación.
Esta última circunstancia también sucede en el ámbito de la fotografía cuando utilizamos cualquier tipo de cámara para grabar vídeo, sea cual
sea: compactas; Reflex o DSRL - Digital Single Lens Reflex-; cámaras sin espejo, EVIL - Electronic Viewfinder with Interchangeable Lens-, CSC (Compact System Camera), MSC (Mirrorless System Camera) o DSLM (Digital Single Lens Mirrorless); cámaras híbridas o cámaras bridge o cámaras superzoom; cámaras especiales o de acción; etc.
También nos va a ocurrir cuando nos sumergimos en el ámbito de la grabación de vídeo broadcast
– entorno profesional de vídeo/TV –para hacer una grabación de vídeo, independientemente de la cámara (handycam, compacta, modular, ENG - Electronic News Gathering -, EFPElectronic Field Production -, o cualquier cámara de vídeo DNG - Digital News Gathering -). Siempre nos hace falta alguna solución externa para una correcta iluminación frontal o para aplicar técnicas de iluminación más sofisticadas en referencia a la escena a grabar (luz de relleno, luz de contra, luz ambiente…).
Seguro que os suena la tendencia de utilizar anillos LED dentro del ámbito de los influencers o de los youtubers. Pues de esto va este artículo, pero solamente nos centramos en aquello que está dentro del entorno broadcast vídeo/TV.
Vamos a conocer un poco más las soluciones de iluminación que utilizan los operadores de vídeo/TV cuando salen a grabar un tipo de producción/contenido audiovisual que conocemos como “pieza”. Cada una de las soluciones que vamos a presentar se puede denominar de forma genérica como accesorios o equipos de iluminación complementarios.
En ningún caso nos referiremos a los distintos aparatos/proyectores de luz/luminarias que se utilizan en el ámbito de la iluminación fotográfica, cinematográfica o en los grandes estudios de TV o en espectáculos o eventos en directo, dado que tienen usos y necesidades bien diferentes (como puede ser su control de forma remota bajo una consola de iluminación o lograr un mayor alcance en las distancias de iluminación, por ejemplo).
Es el momento de comenzar. Lo primero es identificar y conocer una clasificación de esos posibles accesorios de iluminación, que nos ofrece tanto la tecnología actual como los distintos fabricantes, siendo los más óptimos para el ámbito descrito de las grabaciones con una sola cámara de vídeo:
› Antorcha LED: este accesorio es el más común y utilizado en las grabaciones ENG / DNG.
Se caracteriza por ser la agrupación de un número muy limitado de LED dispuestos dentro de la carcasa o cuerpo del dispositivo. Son soluciones compactas que se colocan en la parte superior de la cámara de vídeo (zapata de la cámara). Su diseño proviene de las antiguas antorchas de lámparas incandescentes, de ahí que siga con la misma denominación. El resultado de luz que se origina es un tipo de luz dura y más concentrada o spot gracias al propio diseño del dispositivo.
Algunos modelos son NANLITE Nanguang Fresnel CN-8F; NANLITE NA312001 Litolite 8F; SWIT Sunpro 2010S; SWIT S-204; ZHIYUN Molus X100;…
› Antorcha panel LED: este accesorio es una modificación del primero, siendo de formato rectangular o cuadrado. La gran diferencia es un número mayor de LED y su distribución en la superficie plana -lo que se conoce como panel-. Este diseño y la colocación de los LED provocan una emisión de la luz más abierta o wash. También, este dispositivo se coloca en la parte superior de la cámara de vídeo (zapata de la cámara).
Algunos modelos son FALCON EYES PockeLite F7; ZHIYUN Fiveray M20C o M40; GODOX ES45 E-Sport; GODOX LF308D; NANLITE NA152018 Litolite 5C;…
Cuando el panel LED tiene una forma completamente redonda o circular se conoce como DISCO LED (ROTOLIGHT LED).
Algunos modelos son CROMALITE Rotolight Antorcha Led¸ VIBESTA Peragos Disk 30C Color RGBWW Soft;…
› Mini panel LED: este equipamiento es una versión más pequeña de lo que se conoce como un Panel LED, utilizado más en rodajes de cine o colocados en las parrillas de iluminación de TV. Por tanto, es un accesorio más pequeño, siendo más conveniente para su transporte, manejo y colocación.
En el caso de las grabaciones con cámara de vídeo autónoma se suele utilizar para realizar esquemas de iluminación más complejos o como fuentes de luz de relleno o indirecta, siempre buscando soluciones para las propias necesidades de la “pieza”. Estos equipos suelen montarse sobre mini trípodes de iluminación, pinzas universales o soportes de mesa.
Algunos modelos son GODOX ES30; GODOX Panel LED 1000D II;…
› Anillo/aro LED (Ring LED): este accesorio está muy de moda en los últimos años gracias a las tendencias de los influencers y youtubers. Consiste en colocar la cámara de vídeo o solamente el objetivo de la cámara dentro de este anillo/aro de LED, con el único fin de obtener una iluminación directa, suave, plana y sin ningún matiz de dramatismo hacia el objeto/sujeto que ilumina.
Algunos modelos son REALPLUS Selfie Ring Light; F&V R300S SE Bi-color; F&V R720S Lumic Bi-Color;…
› Stick LED: es una solución más moderna y sofisticada que supone la colocación de una tira de LED dentro de un soporte rígido de forma alargada y de tamaño pequeño: mini tubo LED/mini barra LED/espada LED.
El éxito de este accesorio se debe a su capacidad para ajustarse y adaptarse a distintos entornos, puede colocarse libremente junto a a otros dispositivos de iluminación. Los resultados de
ANTORCHA PANEL LED VIBESTA PERAGOS DISK 30C COLOR RGBWW SOFT
iluminación son más creativos y mejoraran notablemente la luz ambiente resultante cuando se utilizan varios a la vez.
Algunos modelos son CINETUBE He 30; ZHIYUN Rivera V60;…
› Sistemas flexibles LED: son un tipo de solución altamente creativa, maleable y adaptable donde predominan las tiras de LED, las tiras de Neón LED, o superficies en tela/alfombra SMD LED.
Algunos modelos son CineFLEX 100W - Bi-Color; SWIT BI-COLOR SMD 100W - S-2610; WECO LED Flexible – serie BNX;…
Esta clasificación nos permite mostrar perfectamente las soluciones existentes para obtener una iluminación más adecuada a la hora de trabajar con cámaras de vídeo en las grabaciones broadcast, siendo las antorchas LED y las antorchas panel LED las más utilizadas.
ANTORCHA PANEL LED GODOX ES45 E-SPORT
ANTORCHA PANEL LED FALCON EYES POCKETLITE F7 RGB
Vamos a conocer las prestaciones y especificaciones más destacadas con el fin de tener un mejor criterio cuando tengamos que compararlos en el momento de su compra o alquiler:
1. Fuente luminosa: el LED (acrónimo del concepto inglés Light-Emitting Diode) es el gran triunfador en la actualidad y es conveniente conocer el tipo de fabricación de LED
instalado. El número de LED y el diseño de la carcasa de los dispositivos nos ofrecen distintos ángulos de luz (angle beam) permitiendo desde una luz puntual y concentrada, propia de las antorchas LED, hasta una luz más abierta y diáfana como es la que nos facilitan las antorchas Panel LED, los Mini Panel LED o aros/anillos LED.
2. Potencia luminosa: este dato o especificación técnica es uno de los más importantes a la hora de elegir el modelo del accesorio, dado que viene determinado por el número de LED que incluya y/o por la potencia resultante de cada uno de ellos. Se expresa en Vatios (20w, 45w…).
3. Gama cromática: los LED han permitido obtener de una forma muy cómoda y asequible gamas de RGB y todas sus posibles variantes RGBW o RGBWW.
4. Temperatura de color: esta característica está plenamente instaurada en este tipo de accesorios de iluminación con un amplio rango (dependiendo
del modelo), que va desde los 2.500 a los 10.000 grados Kelvin modificados por un dial específico. Algunos fabricantes nos señalan este rango bajo la denominación de Bi-color.
5. Niveles de brillo: este dato es muy variable entre los fabricantes dado que es necesario realizar pruebas, pero los resultados son cada vez más altos. Podemos mencionar alguno: 1.950 lux (medidos a 0,5 metros y 4.300 grados Kelvin); 2.000lux (medidos a 0,5 metros y 5.600ºK) y 3.881 lux (a 1 metro y con 4.300 grados Kelvin).
6. C.R.I.: son las siglas de Color Rendering Index (Índice de Reproducción cromática). Es una unidad que mide la capacidad de una fuente de luz para reproducir los colores de objetos de manera fiel en comparación a una fuente ideal de luz, o una fuente natural como la luz del sol. Este dato se mide en valores que van desde 0 a 100, considerando el 100 el valor que más se acerca a la perfección en cuanto a la reproducción de los colores.
En la actualidad el valor CRI en este tipo de accesorio es de 96+.
7. TLCI: son las siglas de Television Lighting Consistency Index (Índice de Consistencia de Iluminación Televisiva). Es una puntuación única promediada hasta 100, que viene determinada por la respuesta de color que se obtendría al utilizar una cámara de vídeo.
Un TLCI en el rango 85-100 no necesita ninguna corrección de color, una puntuación de 70-85 necesitaría una corrección simple, y una puntuación de 50-70 necesitaría una corrección de color compleja.
En la actualidad el valor T.L.C.I. en este tipo de accesorio ya alcanza los 97+.
8. Control de la potencia de luz: sin duda, otra de las opciones que ya vienen de serie en estos accesorios. Un potenciómetro que nos permite regular (dimmer continuo) la intensidad de la fuente luminosa de 0% a 100%, es decir de estar apagado a dar la máxima potencia o full light.
9. Control de los parámetros del color: cuando el dispositivo nos permite con un dial específico o a través de navegación por menú ajustar libremente los parámetros HSI (tono, saturación e intensidad) para crear efectos de luz relacionados con el resultado del color.
10. Sistema de refrigeración: cada fabricante aplica distintas soluciones pero siempre disminuyendo sustancialmente el tamaño de los ventiladores, con disipadores de calor optimizados por giroscopio y ventiladores FOC y optimiza el flujo de aire dentro del equipo (Silent Passive Cooling). El propósito es garantizar que no haya sobrecalentamiento durante un uso prolongado del accesorio de iluminación e incluso en su máxima potencia.
11. Batería: recargables, más autonomía e integrada. En la actualidad se pueden utilizar baterías con una capacidad de 4.500 mach que pueden llegar a garantizar un uso continuo de 40 minutos en una máxima potencia de 20W, 1:20 horas funcionando con 10W y hasta 3 horas con 5W, por ejemplo. Un detalle importante es que sea un sistema de carga rápida (bajo conexión USB-C y protocolo PD - Power Delivery).
Algunos fabricantes mantienen la fuente de alimentación bajo un tipo de batería muy implantada en las propias cámaras de vídeo (alimentación mediante adaptadores DV a elegir: tipo Sony NPF, BPU, Panasonic CGA, VW, JVC BN-VF, BN-V, SSL o CANON BP, LP). E incluso, algunos posibilitan alimentar el equipo con pilas AAA o AA (tres, cuatro o seis dependiendo del modelo).
12. Tamaño, peso y portabilidad: sin duda, los distintos fabricantes optan por diseñar y desarrollar equipos muy ligeros, conocedores de dónde y para qué se van a utilizar en la grabación de vídeo broadcast. Por ejemplo, unos 200 gramos y unas medidas de 78 x 78 x 35 milímetros.
13. Sistemas de fijación: predominan los accesorios que tienen zapata de cámara, pero también es recomendable que incorporen rosca universal (1/4") de trípode de cámara de foto/ vídeo, timbal o monopié; e
incluso algunos tienen un soporte magnético en su parte trasera que permite colocarla casi en cualquier sitio imantado.
14. Vida estimada del LED: siempre dependiendo del uso y del mantenimiento del equipo nos podemos encontrar con accesorios con una vida útil de 50.000 horas.
16. Protección IP: básicamente predomina la protección IP20, pero nos encontramos con IP65 normalmente en los Mini Panel LED que permiten trabajar en exteriores.
17. Otras prestaciones: todo lo que se pueda incluir bienvenido sea, siempre considerado
15. Modificadores de luz: muy importantes para trabajar, dirigir y matizar la iluminación de cada una de las distintas soluciones arriba descritas: viseras, portafiltros, difusor, correctores de temperatura de color, palas, panel de abeja… Existen varios sistemas de sujección, desde presión hasta sistemas de rosca, pasando por los más modernos basados en sistemas magnéticos.
como un extra dentro del accesorio que compramos o alquilamos:
• Efectos de luz FX (FX creativos: SOS, televisor, bombilla parpadeante, vela, flash y fuego).
• Presets en las variaciones de intensidad del color.
• Activación del modo musical: permite además emitir luces y colores en sincronía con el ritmo de la música.
• Control inalámbrico por Bluetooth donde los principales parámetros de iluminación
se pueden configurar en una app gratuita.
• Sincronización de múltiples dispositivos para lograr más potencia y libertad creativa.
• Sumergibles.
• Funda y/o bolsa de transporte.
Dentro de las antorchas LED y minipanel LED para grabaciones de vídeo broadcast son numerosas las marcas que están ofertando soluciones, bien como equipo individual o bien en forma de kit o combo. Así, podemos destacar algunas como: ZHIYUN, CONST BROADCAST
EQUIPMENT, F&V, VIBESTA, SWIT, NANLITE, GODOX, APUTURE, CINEROID, FALCONEYES, PHOTTIX, JUPIO, FOTIMA, TECPRO, VARYTEC, AMARAN, KELVIN, ELGATO, NEEWER, BACHIMPORT, CINETUBE, CINEFLEX, NEEWER, K&F CONCEPT, ELEGIANT, VICTSING, ROTOLIGHT, DIYIFE, CROMALITE, AVTEC, DÖRR…
Este artículo nos ha permitido conocer un poco más un accesorio imprescindible que todos deberíamos tener cuando nos dedicamos a la grabación de contenido audiovisual - piezas - en el entorno broadcast vídeo/TV.
En el corto intervalo de tiempo que media entre el IBC de Ámsterdam y el BITAM Show de Madrid, publicamos un interesante contenido que describía algunas de las características más importantes del segmento de cámaras PTZ. Mi compañero Carlos Medina también enumeraba una buena serie de modelos de varios fabricantes y centraba perfectamente las razones por las que estas cámaras se han convertido en una herramienta más en los flujos de trabajo broadcast.
Continuando con nuestra labor divulgativa, hoy traemos a vuestras manos el análisis detallado del modelo más reciente y avanzado de Sony: la BRC-AM7. No se trata de un complemento ni una sucesión de ninguna otra. Es un importante avance
aprovechando todas las oportunidades que proporciona la inteligencia artificial bien integrada para crear una excelente y novedosa solución.
No se trata de un prototipo a medio plazo, es una herramienta que ya existe, funciona, se puede probar y habrá producción disponible para entregas a cliente a partir de principios de año.
La integración de funcionalidades controladas por IA, además de algunas características técnicas, hacen de esta PTZ una cámara diferente. Todo unido supondrá un significativo salto adelante en los flujos de trabajo de estos equipos.
Texto: Luis Pavía
internamente viene cargada de interesantes novedades técnicas, entre las que destaca la integración de análisis detallado basado en IA (inteligencia artificial) y su intensa aplicación a la mejora de habilidades para encuadrar.
Hace ya un par de años que Sony dio un importante salto con la cámara FR7 y sus ópticas intercambiables en el entorno PTZ, creando un importante hito en el segmento.
El salto con el que nos sorprende en esta ocasión podría pasar casi desapercibido si nos fijamos sólo en su carcasa pero, como decíamos,
Cuidado con equivocarnos. Sí, es cierto que hace tiempo que bastantes fabricantes disponen de equipos capaces de hacer el seguimiento (tracking) de un sujeto de forma autónoma. Incluso algunos con capacidad de autoframing como la propia A40 de Sony. Pero lo que hoy tenemos en nuestras manos está unos pocos pasos por delante. La gran diferencia que aporta, una auténtica innovación, es su capacidad de mantener encuadres perfectos con rangos de aire que podemos configurar.
Para ello utiliza el análisis facial con reconocimiento de individuo, de la cabeza, de los movimientos de todo el esqueleto, e incluso analiza detalles relacionados con la indumentaria de nuestro protagonista. Funcionalidad mucho más evolucionada que el mero seguimiento (tracking).
Es decir, no sólo tiene la capacidad autónoma de seguir a un sujeto, sino que incluso es capaz de reconocer a una persona concreta en un grupo y mantener el encuadre que le hayamos predeterminado (primer plano, plano medio, plano general, etc.) respetando las proporciones correctas de aire por encima y a los lados.
Adicionalmente, tiene la capacidad y velocidad de respuesta suficiente como para poder seguir, por ejemplo, a un tenista en juego desde una posición similar a la del juez de silla. Ejemplo que ha sido elegido por Sony como muestra en uno de los vídeos de presentación disponibles en su página web. Por cierto, que el resultado es impresionante.
Es importante destacar que todo el procesamiento se hace internamente en cámara, sin necesidad de
unidades externas de ninguna clase, y todas las funcionalidades vienen de serie, sin que se requieran licencias adicionales.
Desde luego que hay más novedades, como el filtro ND variable y sus enormes ventajas o las dos ranuras para grabación en tarjetas internas. Y algunas otras que ha sido necesario desarrollar para lograr este impresionante resultado, como los nuevos servomotores. Aunque simplemente por la capacidad de encuadrar correctamente ya nos atrevemos a etiquetarla como una auténtica innovación, diferente a todo lo que teníamos disponible hasta ahora.
Por otro lado, sí se conservan las características genéricas en el segmento, como la óptica fija, las salidas SDI y HDMI además de la directa de streaming, o el tipo de sensor. Aunque contar con señal en varias salidas simultáneamente sólo lo encontramos en los modelos más altos de cada gama. Así que vayamos ya con la descripción de características físicas y técnicas.
El sensor es de tipo 1 pulgada de 14 Mpíxel con tecnología Exmor
RS CMOS, capaz de resoluciones hasta UHD (3840 x 2160) en 60p que, combinado con un motor de procesamiento BIONZ XR, ofrece una alta calidad de imagen con muy bajos niveles de ruido. De hecho, el sensor tiene una resolución nativa mayor y admite un sobremuestreo de hasta 5k con resolución de hasta 5120 x 2880.
El conjunto está alojado detrás del ya conocido filtro ND variable óptico, idéntico al que ya conocemos en otras cámaras de Sony, con rango de variación continuo entre ¼ (2 f-stops) y 1/128 (7 f-stops).
La óptica de nuevo desarrollo es un zoom óptico de 20x, con distancia focal de 24 a 480mm (en equivalencia a lentes de 35mm) con capacidad de enfoque por detección de fase y de contraste, haciéndolo capaz de enfocar con precisión incluso en condiciones de luz escasa. El enfoque más próximo se logra a menos de un 1cm de la lente frontal en la posición angular, distancia que va creciendo paulatinamente hasta menos de 1m cuando alcanzamos el zoom máximo. Es decir, son distancias de enfoque cercano realmente muy cortas.
La gran diferencia que aporta, una auténtica innovación, es su capacidad de mantener encuadres perfectos con rangos de aire que podemos configurar
La luminosidad es bastante buena, comenzando en 2.8, aunque, como es de esperar en una óptica zoom de tanto alcance y en un tamaño contenido, se reduce hasta 4.5 cuando llevamos la óptica a su posición de máximo tele.
La función Clear Image, que nos permite extender digitalmente el rango máximo de zoom sin degradación perceptible en la imagen y sin recorte en el extremo angular, alcanza un 30x en resolución UHD (equivalente a un 24-720) y hasta un 40x en resolución HD (equivalente a 24-960).
Para facilitar la integración de esta cámara en los flujos de trabajo que involucren otras cámaras o distintas necesidades, es capaz de trabajar con distintas respuestas cromáticas y curvas de color que abarcan desde una ITU709 hasta las S-Cinetone o S-Log3, pasando por distintas HLG. Este aspecto la hace especialmente interesante para contar con ella en un amplísimo abanico de opciones, desde rodajes hasta directos, pasando por prácticamente todo tipo de estadios deportivos, escenarios y auditorios.
Combinando esta habilidad con las posibilidades de operación remota, se convierte en un gran complemento en todas aquellas situaciones y localizaciones en las que es muy complicado, o incluso inviable, ubicar cámaras tradicionales.
La señal de vídeo sale de la cámara en resolución UHD o HD en distintas frecuencias de cuadro a través de salidas SDI 12G y HDMI. A través de la salida SDI 3G, como es lógico, solamente tendremos señales HD. Pero a través de HDMI también podremos tener señales de 720 x 480 hasta 60p y 720 x 576 hasta 50p, facilitando la integración funcional de la cámara en instalaciones algo más antiguas mientras se va renovando el resto de equipos.
En cuanto al audio, contamos con dos conectores XLR configurables como línea/micro/micro +48v y un conector mini-jack de 3,5mm, de forma que nuestra señal de vídeo puede llevar hasta 4 canales independientes en su correspondiente audio embebido. Y, para sincronizar con otros equipos de nuestra instalación, contamos con conectores para entrada de señales de Genlock y TC (time code, código de tiempo).
En cuanto a puertos de datos, disponemos de un zócalo para conexión óptica con transceptor SFP+, aunque el transceptor será opcional según el criterio del cliente. Independientemente de él, su puerto Gigabit Ethernet nos permite disponer de la señal para hacer streaming usando protocolos RTSP, RTMP, VISCA sobre IP, SRT y NDI/HX. Este mismo puerto es el que también nos permite tener funciones de control y gestión remota.
Insistimos en que las salidas de señal AV pueden funcionar en paralelo, incluso con distintas resoluciones que configuraremos a través de menú, facilitando su operatividad en prácticamente todo tipo de situaciones y necesidades.
A través del controlador remoto RM-IP500 contamos con todas las funciones habituales de posicionamiento y color de forma manual. Y mediante el acceso software a su interfaz web podemos entrar al control exhaustivo del último parámetro desde cualquier dispositivo, como tablets u ordenadores. Pero esto en su momento, más adelante.
La alimentación también cuida la versatilidad, ya que puede ser alimentada mediante el clásico XLR-DC de 4 pines entre 11 y 17 voltios, o bien a través de PoE++ (Power over Ethernet), permitiéndonos llegar a simplificar la instalación a un único cable para todas las funciones en determinadas circunstancias.
Para terminar con las señales, también tenemos alguna novedad ya apuntada: la capacidad de grabar los contenidos en sus dos ranuras
internas, aptas indistintamente para tarjetas de memoria CFexpress tipo
A o las más comunes SDXC. Esta grabación se puede configurar en distintas variantes de formatos XAVC, HEVC y AVC, con hasta 4 canales de audio en formato LPCM de 24 bits a 48 kHz.
Entrando ya en la parte de movimiento, característica fundamental en equipos PTZ (Pan-Tilt-Zoom, giro panorámico-elevación-zoom), los nuevos motores sin escobillas ofrecen unas prestaciones sorprendentes. Por un lado, por el amplísimo margen en las velocidades disponibles, que van desde los 180º en un segundo hasta unos ínfimos 0,004º/segundo. Sí, confirmado, no es un error: cuatro milésimas de grado por segundo.
Para hacernos una idea de la magnitud de ese valor, la velocidad mínima es incluso ligeramente inferior al movimiento de las estrellas en el cielo. Para los curiosos, este movimiento de cuerpos celestes es de 15º/hora o 180º en 12 horas…
Estas velocidades están disponibles en todo el rango de actuación de ambos ejes: de 175º hacia cada lado en el movimiento horizontal, cubriendo un total de 350º,y desde -30º hasta +210º en el movimiento
vertical, cubriendo un total de 240º. Esto significa que tendremos cubierto con seguridad todo el campo visible en cualquier posición que se instale, tanto trípode como techo.
Pero si el rango de velocidades es impresionante, con extremos sorprendentes, no lo es menos la suavidad y el silencio de cualquiera de sus movimientos. El nivel de sonoridad declarado es NC25. La suavidad hace que el movimiento sea tremendamente fluido y agradable. Además de nada intrusivo. Podríamos ponerla junto a una orquesta sin molestar.
El silencio era tal que, para llevarlo al límite, llegamos a poner la cámara sobre una mesa de madera, pegar el oído a la mesa sin ver la cámara, en el silencio de la noche, y pedir que alguien moviese la cámara y el zoom a cualquier velocidad. Tres personas distintas, una de ellas con un oído especialmente fino, fuimos incapaces de saber cuándo se estaba moviendo. Sólo se percibía el tenue murmullo del ventilador.
Estas impresionantes prestaciones no conllevan un conjunto ni voluminoso ni pesado. Al contrario, el tamaño es ligeramente inferior a 17 x 23 x 19cm, con un peso de sólo 3,7kg. Se suministra con un par de
roscas para montar directamente en trípode, además del habitual soporte para anclar a techo.
El diseño, de líneas sencillas y acabado en colores negro mate o blanco neutro, hace que se pueda montar discretamente en cualquier lugar sin llamar especialmente la atención. Sus dos indicadores tally paralelos son de gran tamaño en los extremos redondeados de los brazos del cuerpo móvil, facilitando su clara visibilidad en cualquier ángulo de operación. La función tally también soporta el protocolo TSL y sus cuatro colores dan información ampliada del modo de funcionamiento de una forma muy eficaz. Por ejemplo, el azul nos indica que están activadas y en operación las funciones de análisis IA.
Entrando ya en el funcionamiento, hay que considerar que hemos destacado mucho la habilidad del autoframing por lo novedosa, pero no hay que perder de vista que contamos con otra significativa serie de automatismos como un excelente autofocus con reconocimiento facial, que puede trabajar de forma independiente del autoframing, o de forma combinada, potenciando aún más las posibilidades creativas del equipo. Es capaz de trabajar con distintas respuestas cromáticas y curvas de color que abarcan desde una ITU709 hasta las S-Cinetone o S-Log3, pasando por distintas HLG
También contamos con automatismos para el control de exposición, que incluyen el filtro ND variable como parámetro manejable, facilitando que mantengamos coherencia en la narrativa visual, aun cuando haya cambios importantes en los niveles de iluminación de nuestra escena.
En cuanto a la ganancia, en nuestras pruebas valoramos que hasta unos 5dBs son admisibles en producciones broadcast sin generar ruido perceptible.
Para empezar a trabajar, una vez alimentada, sólo necesitaremos conocer su dirección IP para acceder a su manejo desde el controlador remoto clásico, del estilo del RM-IP500, pudiendo hacer con ella lo mismo que haríamos con cualquier otra cámara PTZ: movimientos manuales, memorias de posiciones, trayectorias de movimiento, ajustes de iris, zoom, foco, colorimetría, etc. Al igual que es posible, mediante la misma conexión de red, controlar todos los parámetros de imagen desde un controlador RCP.
Resulta altamente compatible gracias a sus múltiples protocolos de control, que incluyen VISCA sobre IP, CGI, S700PTP, RS422, PTP-IP y TSL tally. De esta forma, es fácil integrarla en creación de entornos virtuales ya que podrá intercambiar información de posicionamiento en tiempo real con los equipos de generación de imagen.
Aunque para extraer todo su potencial en realidad no necesitaríamos de ningún controlador clásico, ya que nos ofrece todas las
funcionalidades de su software a través del acceso a su interfaz web. Para ello, simplemente necesitamos cualquier dispositivo con un navegador capaz de apuntar a una dirección IP dentro del mismo segmento de red, pudiendo realizarse el acceso desde prácticamente todos los sistemas operativos: Windows, Mac, iOS y Android.
Por cierto que, hablando de protocolos y antes de entrar en el menú, no hay que pasar por alto el protocolo Free-D que también incorpora. Esta funcionalidad permite el intercambio de datos y la interacción directa con los sistemas de creación de contenidos virtuales como los de Brainstorm, Unreal Engine o Vizrt, entre otros. Gracias a ello su integración en las producciones tanto con VR (realidad virtual) como con AR (realidad aumentada) resulta sencilla y muy eficiente.
Esta tecnología es la que nos permite integrar de forma creíble y coherente escenarios, situaciones y personajes reales con otros generados por ordenador, tanto en estudios de rodaje, platós de tv, conciertos, deportes, etc…
Entrando ahora ya sí en el menú, una vez validados con usuario y contraseña, en esta interfaz tenemos no sólo toda la configuración y todos los controles, sino que también contamos con el monitor de imagen que nos ofrece una réplica exacta del visor, con funciones táctiles para seleccionar el punto de enfoque o el sujeto para seguimiento, etc. Es decir, que podríamos estar operando nuestra cámara incluso desde una ubicación remota. Muy remota.
Sólo en la primera conexión es posible que se nos pida validación o confirmación de algún parámetro de cámara, como la contraseña de administrador o la fecha/hora, y tendremos ocasión de elegir nuestro idioma preferido de entre una larga serie de idiomas disponibles, que por supuesto incluye el español.
La interfaz web divide inicialmente la pantalla en cinco áreas con funciones claramente diferenciadas: una estrecha barra de selección en la parte superior, cuya zona central contiene las 4 pestañas para las distintas funciones principales: operación en directo, ajustes de autoframing, reproducción de contenidos grabados y ajustes de configuración. Las áreas laterales e inferior de este panel principal cambiarán, o desaparecerán, en función del módulo activo.
En esta misma barra superior encontramos el botón de encendido/ apagado remoto de la cámara a la izquierda y, a la derecha, las alarmas y el botón de bloqueo de todo el panel para evitar acciones accidentales.
Activando el primer módulo, de operación en directo, la mayor parte del espacio estará ocupado por el visor de cámara, con el panel de presets a la izquierda, abajo las indicaciones y el acceso a los principales parámetros como ganancia, obturador, iris, nd, escena y balance de blancos. A la derecha encontramos el menú principal dividido en tres secciones para acceder a todos y cada uno de los elementos de configuración.
En la parte superior de este panel derecho encontramos los botones de REC y AFR (autoframing). Inmediatamente por debajo, las capacidades relacionadas con ajustes de cámara, AF, audio, wi-fi, etc. Y abajo, las relacionadas con las funciones de movimiento PTZ. Cada una de ellas tiene una pequeña barra de menú superior con una colección de iconos para ir abriendo los distintos subpaneles que contienen, en los que no vamos a entrar a detallar por no extendernos en exceso.
En el segundo módulo, ajustes PTZ para autoframing, encontramos las opciones para determinar todos los detalles. Como los ajustes de detección, el ajuste de encuadre en las tres posiciones principales: primer plano, plano medio y plano general. También los relacionados con la velocidad de respuesta y operación, y uno especialmente interesante: la posición de partida.
Cuando estamos operando con la cámara, lógicamente podemos establecer a qué sujeto deseamos hacerle el seguimiento. Pero incluso esto se puede automatizar, estableciendo una posición de partida de forma que la persona que entre y permanezca En cuanto a la ganancia, en nuestras pruebas valoramos que hasta unos 5dBs son admisibles en producciones broadcast sin generar ruido perceptible
en esa posición unos segundos quedará registrada como protagonista, haciéndose su seguimiento a partir de ese momento.
Saltando ya al tercer módulo principal, el de reproducción de contenidos grabados, no sólo encontramos las funciones habituales de reproducción, con selección de soporte y acceso a los clips, sino que también disponemos de acceso directo a algunas funciones del visor. Y, lo que es más importante, en la parte inferior derecha encontramos los botones para acceder y manejar el menú interno de la cámara como si la tuviésemos en la mano.
Esta gran ventaja conlleva un pequeño inconveniente y es que, para saber lo que estamos haciendo, debemos tener activada la sobreimpresión del menú en imagen, haciendo que esta funcionalidad no sea recomendable durante una grabación o un directo.
Pero todo esto no debe preocuparnos lo más mínimo porque, en cualquier caso, todas estas mismas opciones del menú de cámara están accesibles en el cuarto módulo de la interfaz. Desde ahí tenemos acceso
a todas las funciones del menú interno de la cámara y podremos cambiar cualquier parámetro sin interferir en las señales que puedan estar eventualmente emitiéndose.
El menú interno es muy similar al que encontramos en la mayoría de equipos de Sony, muy extenso e intimidante para algunos y una delicia por el enorme control que permite, para otros. Recordemos que siempre tenemos la opción del menú “usuario”, donde simplemente agrupamos las opciones habituales y necesarias para el trabajo que tengamos entre manos. Así, sin tener que navegar entre opciones, tendremos reunidas y fácilmente accesibles todas las que hayamos seleccionado y sólo esas.
Con algunos ajustes debemos ser especialmente cuidadosos, ya que cualquier persona con la dirección, el usuario y la contraseña, podría acceder a la cámara. Para ello es posible crear usuarios con accesos limitados, como en cualquier otro dispositivo de red. Esto nos permite facilitar el acceso a un grupo restringido de funciones o características, de forma que minimizamos riesgos y errores por parte de operadores menos experimentados.
También en la configuración de red es posible establecer una serie de servidores FTP de destino para nuestros contenidos. De esta forma será muy fácil y rápido cambiar el destino, sin necesidad de estar lidiando con usuarios y contraseñas entre una producción y otra.
Uno de los ajustes que sólo encontraremos en este tipo de cámara es el relacionado con las configuraciones de las funciones PTZ. Estas nos permiten configurar no sólo velocidades de movimiento, sino también límites en los ángulos de forma que nunca nos perdamos apuntando a paredes si la cámara está, por ejemplo, cerca de una esquina.
Entrando ya en la parte de operación pura y experiencia de usuario, a pesar de la enorme cantidad de elementos que tenemos bajo nuestro control, toda la operativa es bastante sencilla, incluso para quienes puedan operar por primera vez con un equipo de estas características.
Puede resultar un poco sorprendente estar sentado en un sillón y ver cómo con un simple clic en la pantalla de nuestra tablet la cámara se dedica a seguir a nuestro protagonista de forma precisa e incansable. Y, si bien es cierto que el sillón puede estar a cientos o miles de kilómetros, en un directo o un rodaje importante aún nos seguiremos sintiendo mejor en el set.
Para controlar el funcionamiento, especialmente en las situaciones en las que el sujeto sale de escena o se pierde, tenemos varias posibilidades: un temporizador de espera para facilitar que nuestro protagonista vuelva
a entrar o volver a una posición de partida predefinida. En esta posición, podremos seleccionar un nuevo protagonista o bien se podrá configurar para que sea seleccionado automáticamente.
El autoframing ha funcionado muy bien, siguiendo sin problemas a la persona determinada. Buscando límites hemos ido bajando iluminación hasta comprometer el resultado. Y sí, hemos conseguido hacer que se perdiera. Pero con un nivel de iluminación tan pobre que las imágenes habrían sido inutilizables.
En definitiva, el avance del autoframing con IA supone un nuevo hito del que estamos convencidos que hará avanzar la producción audiovisual, abriendo nuevos e interesantes ámbitos de actuación. Combinándola con las funcionalidades visuales como la calidad de imagen, el ND variable o los distintos espacios de color, la capacidad de integración en entornos broadcast con su operativa común y las de integración con VR y AR gracias al protocolo Free-D, así como las mecánicas gracias sus nuevos servomotores y su capacidad
de respuesta, resulta en un conjunto versátil, fiable y muy potente que la convierte en una nueva y poderosa herramienta para crear nuevos contenidos. Esos que todos estamos ansiosos por ver y disfrutar.
Finalmente, antes de terminar, es importante hacer una aclaración en cuanto a las posibilidades del análisis de IA en el seguimiento de sujetos: los resultados que ofrece gracias a esta característica son sobresalientes, pero sólo funciona con humanos. Al menos de momento. Estamos convencidos de que, al igual que las cámaras de fotos o de vídeo que inicialmente sólo reconocían personas y ahora son capaces de reconocer incluso ojos en multitud de especies animales, es muy probable que, en un futuro nada lejano y con las correspondientes actualizaciones, todas estas facultades se puedan ampliar.
Mientras tanto, vayamos preparándonos para sacar el máximo partido de todo lo que hoy ya tenemos a nuestro alcance, sin perder de vista que esto mismo era ciencia ficción hace muy poquito tiempo.