Page 1

SEPTEMBRE - OCTOBRE - NOVEMBRE 2017 I NUMÉRO 8 I 12€

LEARNING LAB LES NOUVEAUX OUTILS


I ÉDITO I

SEPTEMBRE - OCTOBRE - NOVEMBRE I NUMÉRO 8 I 12€ www.sonovision.com

Éditeur et Directeur de la publication Stéphan Faudeux stephan@mediakwest.com

Rédactrice en chef Nathalie Klimberg nathalie@mediakwest.com

Sortez vos ordis, c’est la rentrée !

Équipe de rédacteurs Alice Boivineau, Gwenaël Cadoret, Stephan Faudeux, Loïc Gagnant, Antoine Gruber, Annik Hémery, Nathalie Klimberg, Pierre-Antoine Taufour

Chaque rentrée scolaire, les médias presse, tv, radio proposent des sujets sur l’augmentation ou la baisse des fournitures scolaires, sur les licences et innovations à la mode pour les cartables ou les cahiers. Ainsi, cette année, le stylo plume n’a plus la cote, remplacé par les stylos ou

Direction Artistique

feutres effaçables par friction, et la rature ou le gros « V » pour cacher une faute seraient

Tania Decousser

condamnés à disparaître… Quant à la tablette, symbole ultime de l’innovation, elle peine

Relecture

toujours à s’imposer, obligeant collégiens et lycéens, dans leur grande majorité, à soulever

Christian Bisanti

chaque jour des kilos de livres, à l’instar de body-builders qui manipulent leurs haltères dans

Régie publicitaire

dans l’enseignement primaire et secondaire !

Zoé Collignon zoe@genum.fr

une salle de sport. Si elle envahit notre quotidien, la digitalisation reste pourtant encore timide

Au stade des études supérieures, la situation est hybride : le papier est encore bien présent,

Société éditrice

mais le digital prend toutefois sérieusement ses marques… Aujourd’hui les Mooc se multiplient

Sonovision est édité par Génération Numérique

et deviennent un élément de communication différentiel pour attirer les étudiants (Collège

Siège social : 55 rue Henri Barbusse, 92190 Meudon RCS Nanterre B 802 762 054 N° Siret : 80276205400012

de France, Sciences Po, HEC…). Des Learning-labs émergent ça et là, exploitant des solutions collaboratives qui rivalisent d’innovation. La vidéo, maillon important de cet enseignement « hybride », sollicite notamment des outils de captation automatisés, des plates-formes de

CPPAP : 0117 K 79737

diffusion ouvertes. Le dossier que nous vous proposons sur le sujet dans ce numéro fera aussi

Dépôt légal : septembre 2017

l’objet d’un focus lors de la prochaine édition du Satis – Salon des technologies des images et

ISSN : 2490-6697

Service abonnement Georges Coste : georges@genum.fr / 01 77 45 24 00

Flashage et Impression Imprimerie Corlet Z.I. Maximilien Vox

du son – qui a rejoint désormais de notre écosystème d’information. Toutes les forces vives de Génération Numérique travaillent actuellement sur l’édition 2017 de ce rendez-vous qui se tiendra du 8 au 9 novembre. Pour en connaître les détails, je vous invite à lire dans ce magasine l’article : En 2017, le Forum Screen4All et le Satis fusionnent ! Nous préparons également notre premier hors série Sonovision – un ouvrage inédit dont le

BP 86, 14110 Condé-sur-Noireau

titre résume à lui seul l’envergure de la mission : Comment réussir sa salle de réunion ! Il s’agira

Routage CEVA (399 530 831)

d’un guide pratique de 100 pages qui permettra de découvrir les matériels, services, produits innovants, les entreprises présentes sur l’intégration A/V pour réaliser une salle de conférence, une salle de réunion connectée et digitale. Nous concevons ce hors-série comme un outil indispensable pour créer ou sous-traiter la réalisation de sa salle de réunion, de l’huddle room

Pour contacter la rédaction contact@sonovision.com / 01 77 62 75 00 Les indications de marques et adresses qui figurent

à la salle de conseil d’administration… Une rentrée bien chargée, en somme, on aime ça !

dans les pages rédactionnelles sont fournies à titre informatif, sans aucun but publicitaire. Toute reproduction de textes, photos, logos publiés dans ce numéro est rigoureusement interdite sans l’accord express de l’éditeur. Crédits photos © DR sauf : - Couverture : © Adobe Stock / vectorfusionart - Pages 10 - 11 : © Jordi Play © Violaine Fouillouse © Paolo Sapio - Pages 16 - 17 : © ANSTIA © PA Taufour © Université d’Angers © Service Communication Paris 1 Panthéon-Sorbonne © Barco - Pages 18 - 20 : © CRÉA – Université Rennes 2 © Ubicast © CRÉA – Université Rennes 2 © Omnilive © ICAP – Université Lyon 1 © Inwicast - Page 21 : © Université Lille 1 © Université de Rouen - Pages 22 - 23 © France Télévisions, Camera Lucida - Pages 24 - 26 : © Black Euphoria et Bachibouzouk © Moskito © 44 Screens © Magnificat Films-Indigènes Productions © Narrative © Lato Sensu © Arte - Page 28 : © Black Euphoria - Pages 30 - 33 : © Mazedia et MG Design © Anaka/La Cité du Vin/ Casson Mann © Historial Jeanne d’Arc © Videmus © 44 Screens © MG Design © Anaka/La Cité du Vin/Casson Mann © SmartApps - Page 36 : © Emmanuelle Jaïs / Post Logic

Nathalie Klimberg Rédactrice en chef

www.sonovision.com Sonovision sonovisionmag www.sonovision.com

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

1


I SOMMAIRE I

SOMMAIRE LES NEWS

10 MAISON-MUSÉE

Barcelone : la Casa de les Punxes

4 Les brèves 7 Agenda

COMMUNAUTÉ

8 En 2017, le Forum Screen4All et le Satis fusionnent !

UNIVERS

10 Barcelone : la Casa de les Punxes, maison-musée 100 % digitale 12 La Cinéscénie du Puy du Fou : 40 années d’une épopée technique

DOSSIER

22 ENNEMI

La guerre vue par ceux qui la font

14 Les nouveaux outils audiovisuels des universités

CONTENU

22 Ennemi : la guerre vue par ceux qui la font 24 Sunny Side 2017 à l’heure de la VR 28 Le Cube, VR mobile

TECHNIQUE

24 À L’HEURE DE LA VR

30 Immersion et interactivité : les deux défis du musée 34 La production et la diffusion live légère 38 Axient Digital, le dernier éco-système haut de gamme de microphones sans fil de Shure 40 Lifesize et le cloud 42 Vitrines holographiques, « L’effet wahou » 44 Mercury, réunions tout-en-un 46 Le Web Presenter de Blackmagic

Sunny Side 2017

30 DÉFIS

Immersion et interactivité : les deux défis du musée

42 EFFET WAHOU Vitrines holographiques

2

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

14 DOSSIER

Les nouveaux outils audiovisuels des universités


Diffusez toutes vos sources vidéo SDI et HDMI professionnelles en haute résolution sur Internet ! Le Blackmagic Web Presenter convertit les signaux SDI et HDMI en signaux webcam USB 720p afin de diffuser des images de qualité sur les logiciels et les plates-formes de diffusion, telles que Skype, YouTube Live ou encore Facebook Live ! Il comporte des entrées 12G-SDI, HDMI, micro XLR et audio HiFi. De plus, il intègre un système de down-conversion de qualité Teranex et peut servir de mélangeur en direct à deux entrées lorsque vous l’utilisez avec un Teranex Mini Smart Panel en option.

Blackmagic Web Presenter 425 €*

Appareil équipé d’un Teranex Mini Smart Panel en option, à partir de 75 €*.

En savoir plus

www.blackmagicdesign.com/fr

*Le prix de vente conseillé est hors taxes.


LES NEWS

PLEIN LES YEUX 4

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


LES NEWS Une solution de captation Live 360 ° chez Panasonic

HELO v1.1 : Streamer, encoder, enregistrer…

Panasonic a dévoilé, sur le NAB, le prototype d’une solution de captation de direct 360 ° qui devrait être disponible à la vente cet automne. La tête de caméra AW-360C10 et son boîtier AW-360B10 produisent des vidéos 360 degrés 4K (3840 × 1920) / 30p non compressées dans un format équirectangulaire 2 :1 avec le stitching automatisé des quatre images générées par la tête de caméra. L’unité centrale peut uniformiser automatiquement la balance des blancs et l’exposition des quatre caméras qui composent la tête ; elle compense également les aberrations de stitching en détectant automatiquement les objets à la jonction et en recalculant en continu des points d’assemblage. Le système, qui s’installe très facilement, peut éventuellement être contrôlé via un iPad dans un environnement wifi ; c’est sa faible latence qui rend la transmission vidéo en temps réel possible.

HELO est un boîtier AJA capable d’encoder, diffuser en continu sur IP et enregistrer en H.264 sur des cartes SD, un stockage USB ou encore un stockage réseau. Doté d’une connectivité SDI et HDMI il peut encoder jusqu’au format 1080p60. Dévoilé sur le NAB 2016, ce couteau suisse des flux de production live, rencontre un succès que les mises à jour de sa version 1.1 devraient renforcer. Parmi les nouveautés d’HELO v1.1 : • un planificateur d’enregistrement et de diffusion qui peut être programmé via l’import de fichiers ICS ou une synchronisation avec des calendriers externes tels que Google Calendar ; • un enregistrement redondant simultané d’un fichier sur deux destinations multimédia ; • une augmentation de la durée du fichier d’enregistrement portée à 360 minutes pour les flux TS ; • une prise en charge jusqu’à 10 flux RTSP ; • une reconnexion automatique et reprise après la déconnexion en continu ; • une prise en charge étendue des réseaux de diffusion de contenu (CDN)

Réalité virtuelle, nouvel eldorado ? *

Le firmware AJA Video Systems v1.1 pour HELO est disponible en téléchargement gratuit sur le site web AJA.

Si 25 % des consommateurs regardent des vidéos en réalité virtuelle une fois par mois, 69 % ne l’ont jamais fait. Près de la moitié (45 %) des personnes interrogées comptent regarder plus de vidéos de divertissement dans ce format, 38 % privilégieront des vidéos touristiques et 34 % opteront pour des contenus sur la nature et la science.

*Les nouvelles tendances vidéo - Étude AOL mai 2017

Prix du boîtier : 1 380 € HT

La caméra 360 ° de Datavideo entre en action !

Filmer la terre vue de l’espace, en 4K, avec un appareil de série…

La première caméra de streaming 360 en temps réel de Datavideo tient dans la paume de la main ! Cet outil de captation compact dispose de quatre ensembles de capteurs Full HD et lentilles. La CC-360 offre une résolution 4K à 30 images par seconde et, en mode image fixe, elle peut capturer des images jusqu’à une résolution de 6K. La Datavideo CC-360 peut être pilotée via une tablette iOS ou Android. Les images de cette caméra seront diffusées sur un serveur RTSP ou enregistrées localement sur une mémoire MicroSD. Elle intègre une batterie pour faciliter son fonctionnement à distance. La CC-360 propose différents modes d’enregistrement, dont le time lapse. Cette caméra est présentée pour la première fois sur stand de Datavideo à l’IBC.

Cet été, Sony a publié une série de vidéos en 4K (QFHD 3840 × 2160) en provenance de l’espace et enregistrées par un appareil α7S II. C’est la première fois que la Station Spatiale Internationale (ISS) utilise un boîtier de série pour capturer des vidéos en 4K à l’extérieur de la capsule. À la suite de divers tests, l’α7S a été sélectionné pour sa fiabilité et son aptitude à résister à l’environnement impitoyable de l’espace extra-atmosphérique, y compris l’absence de pression, le rayonnement cosmique et les fluctuations de température. Les images de ces vidéos et photos montrent notamment les îles japonaises vues de cet espace… Ci-dessus, un cliché photo issu de ces prises de vues.

Le pied Nitrotech de Manfrotto : l’essayer c’est l’adopter !

Le premier modèle de la gamme de pied Nitrotech a fait sensation lors de sa présentation sur le NAB au printemps dernier. Il faut dire qu’avec ce pied, les prises de vues panoramiques et les mouvements de bascule deviennent presqu’un jeu d’enfant… Nous l’avons testé ! Sa rotule vidéo associe les fonctionnalités de l’ensemble de la gamme Manfrotto à un mécanisme à piston Nitrogen, unique et innovant, qui permet d’assurer un contrebalancement continu et des mouvements parfaitement homogènes, sans à-coups. Cette rotule supporte une charge maximale de 8 kg arrimée en toute sécurité. La rotule vidéo Nitrotech N8 intègre un système de contrepoids précis et continu conçu pour une large gamme de caméras et son pas de vis, au standard 3/8”, est compatible avec une grande variété de supports (trépied, slider, crosse ou grue). Cette rotule dispose également d’un connecteur Easy Link 3/8” doté d’une fonction antirotation qui autorise la connection à un moniteur externe ou d’autres accessoires. La Nitrotech N8 accepte 8 kg de charge fixée en toute sécurité. Une déclinaison N12 qui supportera une charge de 12 kilos, devait arriver d’ici la fin de l’année. Prix : 500 € la tête seule et de 1 100 à 1 500 € avec un kit trépied en fibre de carbone ou aluminium.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

5


LES NEWS La 4K 4Charity Fun Run de retour

Depuis 2014, Elemental organise, sur IBC et le NAB, la 4K4 Charity Fun Run, une course caritative de 4 km (2,49 miles) dont les bénéfices sont redistribués à des associations. Le prochain rendez-vous se déroule samedi 16 septembre à Amsterdam dans le cadre d’IBC 2017. Les fonds recueillis iront à l’association caritative Heifer International, qui contribue au développement d’une agriculture et d’un commerce durables dans des zones de grande pauvreté, et à Stichting NewTechKids, une association basée à Amsterdam dédiée au développement de l’enseignement des sciences informatiques pour les enfants scolarisés âgés de quatre à douze ans. Depuis sa création, l’évènement a recueilli plus de 450 000 dollars et a attiré près de 4 000 participants. Parmi les sponsors de la 4K 4Charity Fun Run d’IBC 2017, on peut citer Aspera, Elemental, ABOX42, Dolby Laboratories, Verimatrix, Brightcove, Conviva, Irdeto, Vizrt, ChyronHego ou encore SVG Europe. Plus d’informations sur le site www.4K4Charity.com

Participez à la remise des Trophées Satis 2017 ! Votez pour les produits et services que vous jugez les plus innovants entre le 17 octobre et le 6 novembre 2017. Depuis sept ans, les Trophées mettent en lumière les produits et services innovants présentés par les exposants du Satis (Salon de technologies des images & du son) dans quatre catégories : Production & Tournage, Postproduction, Diffusion & Distribution, Services. Pour voter et découvrir les lauréats, qui seront dévoilés le 7 novembre, rendez-vous sur le site Internet du magazine Mediakwest, et vous pourrez assister à la remise des Trophées Satis 2017 lors de la nocturne du Salon, le 8 novembre ! Le Satis 2017, « L’innovation au service de la création ! » Rendez-vous les 8 & 9 novembre 2017 aux Docks de Paris, SaintDenis. Entrée gratuite pour les professionnels de la filière. Tout le détail du programme et inscriptions visiteurs sur www.satis-expo.com

6

EOS C200 : Canon sécurise la mise au point des vidéos tournées en 4K Parmi les produits exposé par Canon sur l’IBC 2017, les visiteurs peuvent notamment découvrir tout un environnement professionnel 4K/UHD/50P et en particulier l’EOS C200 qui représente le modèle d’entrée dans la gamme EOS Cinema. Parfaitement adapté aux petites équipes de production et aux réalisateurs qui travaillent en autonome, l’EOS C200 est la première caméra EOS Cinema intégrant le format révolutionnaire 2 Cinema Raw light1. La performance de son système AF est notamment garant d’une précision et d’une fiabilité indispensables pour tous les tournages en 4K… Durant une même séquence, l’AF CMOS à double pixel permet de passer d’un sujet à un autre tout en souplesse, tandis que la fonction d’assistance à la mise au point manuelle et la détection de visages avec ses options « Priorité aux visages » et « Visage uniquement » offrent un contrôle du point qui assure la réussite du tournage.

Tout le confort d’un environnement NDI avec la caméra PTZ NDIHX-PTZ1 et le Connect Spark

Vidéo, audio, commandes, tally et alimentation via un seul câble Ethernet… Vous en rêviez ? Newtek l’a fait : connectez votre caméra à n’importe quel port Ethernet et C’EST PARTI ! Votre caméra devient désormais une source pour tous les systèmes et logiciels compatibles NDI sur votre réseau avec ce seul câble… Cette caméra, équipée d’un zoom optique 20, est dotée de sorties vidéo 3G-SDI ou HDMI et prend en charge des résolutions HD jusqu’à 1080p, 60 fps. PTZ Camera NDIHX-PTZ1, prix public conseillé 2 899 € HT.

En cette rentrée, NewTek dévoile aussi Connect Spark en version HDMI et en version SDI. Ce nouveau convertisseur, qui peut bien évidemment être couplé à la caméra PTZ, a été conçu pour fonctionner avec toutes les applications et systèmes compatibles NDI. Il permet d’intégrer un flux vidéo – HDMI ou SDI, sans fil – instantanément à votre réseau, en HD -1080p/60 fps et peut gérer un enregistrement direct sur des cartes SD ou USB. Connectez votre sortie vidéo à NewTek Connect Spark, elle se transformera instantanément en source. Ainsi caméras, ordinateurs portables pourront diffuser en direct leur flux via Google Hangouts, GoToMeeting™, Skype, WebEx… Prix publics conseillés de Connect Spark : HDMI 599 € HT - SDI : 899 € HT.

Bowers & Wilkins lance Architect Frame, une solution audio adaptée aux écrans plats Bowers & Wilkins propose un nouveau concept pour un son audio haut de gamme adapté aux écrans plats actuels du marché. Les enceintes Architect Frame, intégrées de manière design, offrent une configuration stéréo en 3.0 ou 3.1 jusqu’au système surround, perfectionnant ainsi l’expérience audio/vidéo. Le système optimise l’acoustique grâce à des renforts intérieurs et à l’inertie du cadre en bois, limitant ainsi les résonnances. Un caisson de basse pourra être ajouté au-dessus de l’écran plat et permettre une immersion encore plus complète. L’installation peut se personnaliser jusqu’au point où l’utilisateur peut choisir son coloris et son tissu… Enfin, grâce à sa faible épaisseur, seulement 17 cm, le dispositif peut s’adapter aux tailles standard des écrans plats (55, 65 et 75 pouces) pour plus d’homogénéité. Prix public conseillé : 6 500 € TTC (cadre et enceintes inclus)

Allure lance sa plate-forme d’affichage dynamique en Europe Allure, filiale de Christie et leader du marché de l’activation d’environnements et d’expériences, a présenté sa nouvelle plate-forme avancée d’automatisation d’affichage dynamique orientée « data driven » au salon CineEurope 2017. Cette plate-forme logicielle permet aux exploitants, commerçants et restaurateurs d’orienter le comportement des consommateurs et donc d’augmenter significativement les ventes en adaptant et en modifiant automatiquement contenus et messages numériques en temps réel, ceci en fonction de paramètres. La plate-forme logicielle Allure peut prendre en compte de multiples facteurs tels que les niveaux de stock, les ventes de billets, la démographie ou encore la météorologie. Ajoutées à son offre de services clés en main, les solutions d’affichage dynamique et les intégrations d’Allure permettront notamment aux exploitants du monde entier d’identifier et d’influencer le comportement des consommateurs tout en améliorant l’expérience client.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


LES NEWS

2 017 AS D N E G A À VOS RNABLES NTOU O C N I S E POUR L TRÉE ! N E R A L DE

8 - 9 NOVEMBRE 2017 DOCKS DE PARIS, SAINT-DENIS – FRANCE

Un rendez-vous sous le signe de l’innovation au service de la création

14 -19 SEPTEMBRE 2017 AMSTERDAM – PAYS-BAS

Le plus grand salon professionnel européen des technologies de l’audiovisuel fête son cinquantième anniversaire !

2017 Pour cette cinquantième édition, le RAI, centre des congrès d’Amsterdam, accueille plus de 1 700 exposants. Le rendez-vous proposera donc un panorama des plus complets des solutions et services consacrés à la création, la production et la livraison de contenus vidéo sur les marchés média, entertainment… À l’occasion de cette nouvelle édition, IBC attend plus de 55 000 professionnels qui, outre l’exposition, profiteront du retour d’expérience de plus de 400 intervenants internationaux au travers des 90 sessions de conférences et keynotes… Les conférences se déroulent du 14 au 18 septembre, l’exposition du 15 au 19 septembre.

Le Satis, salon des nouveautés produits et services – image, son et IT – convie la communauté audiovisuelle francophone de la télévision, de l’événementiel, du cinéma, de la communication et de l’intégration à se retrouver pendant deux jours pour s’informer et échanger autour de conférences et d’espaces d’exposition sous l’égide de la thématique « L’innovation au service de la création ». Pour lui donner une impulsion et répondre aux attentes du public et des exposants, Génération Numérique*, qui a repris le Salon en mars 2017, fusionne le rendez-vous avec Screen4All, forum des technologies innovantes pour le film, la télévision et les nouveaux médias. Screen4All, qui devient le « Lab » du Satis, se focalise cette année sur trois problématiques : les réalités mixtes (réalités virtuelles et réalités augmentées), l’e-Sport et l’intelligence artificielle au service des médias… Avec, en outre, la seconde édition d’un rendez-vous de réalité virtuelle international consacré à la création : le 360 Film Festival. Le Satis/Screen4All se déroulera les 8 et 9 novembre prochains sur le site des Docks de Paris. * Rendez-vous page 8 pour plus de détails www.satis-expo.com

www.ibc.org

21 - 22 NOVEMBRE 2017 DOCKS DE PARIS, SAINT-DENIS – FRANCE

La technique au service de l’artistique Plus de 140 sociétés représentant les principaux domaines des techniques du spectacle présenteront leur savoir-faire dans les univers de la machinerie, l’éclairage, l’audio, le scénique, les tissus, les tribunes, les fauteuils et gradins, ainsi que la sécurité et la formation. Le Salon, qui se déploie sur trois halls, se développe sur deux axes avec : - JTSE lighting – douze boîtes noires au Dock Eiffel pour voir et tester les dernières nouveautés lumière en situation optimale. - JTSE audio training – neuf espaces au Dock Haussmann pour découvrir les plus récentes productions audio sous forme d’ateliers permanents. … Ainsi qu’un Laboratoire Arts & Technologies en partenariat avec le Stereolux de Nantes sur le Dock Haussmann avec des conférences autour du devenir des technologies numériques en termes de potentiel et d’enjeux, d’usages et d’impacts sociétaux. www.jtse.fr

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

7


I COMMUNAUTÉ I SATIS I

En 2017, le Forum Screen4All et le Satis fusionnent ! En 2017, le salon Satis et le forum Screen4All, se regroupent. L’événement, unique, qui se déroulera sous l’égide du slogan « L’innovation au service de la création ! », prendra place aux Docks de Paris, lieu emblématique de la production audiovisuelle, les 8 et 9 novembre... Par Nathalie Klimberg 2017 sera une édition de transition pour le Satis et Screen4All ; les deux événements complémentaires seront réunis sur le même site. En effet, Génération Numérique, qui organise le forum Screen4All depuis cinq ans a, au printemps dernier, racheté le Satis – Salon des technologies de l’image et du son – à Reed Expositions France… « Le Satis restera la vitrine privilégiée des outils et solutions de production image et son, de la captation jusqu’à la distribution pour tous les écrans (cinéma, télévision, nouveaux écrans), en tenant compte des enjeux d’actualité tels que l’IP, de l’UHD, la démocratisation des outils…Tandis que les technologies disruptives pour le cinéma, la télévision, les nouveaux écrans resteront au cœur des thématiques de Screen4All avec des focus sur la réalité virtuelle, l’intelligence artificielle, le e-Sport », explique Stephan Faudeux, fondateur et directeur de Génération Numérique. Avec ce regroupement stratégique, sa société, qui édite les magazines Sonovision et Mediakwest, complète son écosystème d’information et de communication consacré à l’audiovisuel.

LES NOUVEAUTÉS DE LA FORMULE SATIS/SCREEN4ALL 2017

« Screen4All se positionnera comme le “Lab” du Satis. L’événement global aura pour “baseline” : “l’innovation au service de la création”. Nous avons, en effet, l’ambition de susciter l’intérêt de davantage de producteurs de contenus, de créatifs et d’éveiller la curiosité des jeunes générations, car la démocratisation des outils peut et doit profiter à tout le monde ! Pour y parvenir, nous souhaitons notamment “réenchanter” le salon, donner envie aux uns et aux autres de s’y rendre, d’y revenir… Nous avons quelques pistes, mais il est encore un peu tôt pour en parler ! » commente Stephan Faudeux avant de poursuivre : « Tout ce qui est (ou sera) au cœur de nos métiers et qui nécessite un apprentissage, une connaissance, a sa place au Satis-Screen4All, que l’on parle de production de diffusion ou de création ! Concernant les conférences, nous aurons une cinquantaine de rendez-vous déployés sur cinq espaces – tables rondes, keynotes, making of – qui permettront d’envisager les évolutions de nos métiers. Nous parlerons autant du HDR, que de comment filmer avec un smartphone, des technologies de stockage, du making of d’un film d’animation… Nous approfondirons par ailleurs des thématiques que nous avions commencé a traiter sur Screen4All l’année dernière : la réalité virtuelle, la réalité augmentée, l’intelligence artificielle. L’idée des conférences est de permettre à chacun de gagner en connaissances. Pour mener à bien

8

Un programme de conférences et d’ateliers pour décrypter les tendances et les innovations.

SATIS 2017 Dates : 8 et 9 novembre Lieu : Docks de Paris - La Plaine SaintDenis Transports en commun : Métro ligne 12 (arrêt Front Populaire) Facilités : Station Autolib et Vélib, RER, tramway… et parkings gratuits !

cette mission, nous convions un panel de plus de 200 experts français et internationaux… Et ces conférences sont gratuites, il faut donc en profiter ! »

TROIS HALLS ET 6 000 M2 D’EXPOSITION BRUTE

Le Satis/Screen4All se déployera sur trois halls qui offriront, au total, plus de 6 000 m2 d’exposition brute. On y retrouvera l’ensemble de la chaîne de valeurs de l’audiovisuel : constructeurs, éditeurs et distributeurs ; solutions matérielles et logicielles ; offres de service en termes de production, postproduction, diffusion. « Nous accueillerons de très belles marques venues de nouveaux secteurs comme le cloud, le streaming, la réalité virtuelle ou l’intelligence artificielle. Nous avons aussi prévu une place pour les startups dans un espace, appelé “Village”… Vous y découvrirez peut être le Google ou le Netflix de demain ! » s’enthousiasme Stéphan Faudeux. L’évènement offrira également un théâtre mutualisé où les exposants proposeront des démonstrations dans un espace ouvert. « L’idée est d’apporter un service premium, tant aux exposants qu’aux visiteurs, pour faire de cet événement une réussite », complète l’organisateur ».

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

La Réalité Virtuelle, la Réalité Augmentée, l’Intelligence Artificielle seront parmi les thèmes privilégiés.

Les temps fort du Satis/Screen4All Le 8 novembre, première journée du salon, se terminera par une nocturne accueillant plusieurs remises de prix.

« Les Trophées du Satis honorent les exposants qui ont les produits, solutions et services les plus innovants et qui sont mis en compétition, en amont, au sein de trois catégories. Cette année, il y aura une nouveauté : ces Trophées du Satis seront décernés conjointement à la remise des prix du 360 Film Festival dont nous célébrerons la deuxième édition. Ce festival international, temps fort de Screen4All, propose une compétition de contenus en VR/360 qui, l’année dernière, avait accueilli plus de 80 expériences pour sa première édition. Ce rendez-vous, que nous souhaitons convivial, marque notre volonté d’une ouverture de plus en plus orientée vers la création de contenus »


Vidéo Streaming et enregistrement vidéo haute qualité simultanés

Matrox Monarch HD Contrôlez vous-même la puissance du Matrox Monarch HD avec SDK. Le Matrox Monarch HD, qui a reçu plusieurs récompenses lors de salons internationaux, a été conçu pour les spécialistes d’événements ou les diffuseurs, qui ont besoin de diffuser simultanément du contenu live en streaming vidéo, et d’enregistrer en qualité « Master » la vidéo, pour un montage en post-production. Monarch HD est maintenant disponible avec un SDK (Kit de Développement Logiciel) qui rend facile à intégrer sa haute qualité de streaming vidéo dans vos applications tournant sous plateformes PC, Mac, périphériques mobiles, ou systèmes d’automation. IBC: Hall 7- Stand B.29 www.matrox.com/monarchhd/Sonovision

Matrox est une marque déposée et Matrox Monarch HD est une marque commerciale de Matrox Electronic Systems Ltd. Toutes les autres sociétés et produits sont des marques commerciales ou marques déposées de leurs détenteurs respectifs.


I UNIVERS I MAISON-MUSÉE I

Barcelone : la Casa de les Punxes, maison-musée 100 % digitale Un siècle après sa construction, la Casa de les Punxes, totem architectural de Barcelone, est ouverte au public depuis un an. Mais plutôt que d’offrir une muséographie « classique », les propriétaires ont misé sur une expérience, visuelle et sonore, originale. Par Gwenaël Cadoret C’était l’un des derniers trésors secrets de Barcelone. Plus d’un siècle après son inauguration (1905), la Casa de les Punxes (maison des pointes) a déjà attiré 60 000 visiteurs en neuf mois. Un succès logique : depuis 40 ans, ce « totem » de l’avenue Diagonal était reconnu monument historique… tout en restant inaccessible. De quoi susciter une grande attente du public ! Pensé par l’architecte catalan Josep Puig i Cadafalch, la « Casa Terrades » (son nom d’origine) est singulière, mêlant le modernisme catalan de la fin XIXe et l’esprit « wagnérien » des châteaux allemands. « À l’instar des châteaux de Disney, on peut y voir l’inspiration du château de Neuschwanstein, dans les Alpes bavaroises », souligne Eudald Tomasa, spécialiste catalan de la muséographie. L’homme connaît bien l’édifice : c’est son entreprise, Transversal, qui a été chargée d’y concevoir une stratégie touristique et sa muséographie. Un projet à 3 millions d’euros, voulu par le nouveau propriétaire, le groupe immobilier Texna, pour redynamiser le site. « L’idée était de proposer une expérience im-

L’Optima 6

au cœur de l’expérience Si l’expérience est aussi immersive, c’est grâce au système d’audioguides Optima 6 de RSF. « Le principe, c’est que le lecteur vidéo incrémente un timecode, et synchronise la piste sonore de l’Optima avec l’image, explique Serge Fernandez, gérant de RSF. Le Fade in/ Fade out, totalement configurable, permet de basculer avec fluidité de la musique d’ambiance vers la piste. » L’intérêt : chacun entend le son dans sa langue, sans déranger son voisin. « C’est fondamental dans l’expérience, note Eudald Tomasa. Cela permet d’optimiser les ressources, car il n’y a pas besoin de créer des circuits par langue. Et en plus, cela solutionne les difficultés acoustiques entre les salles. » Le plus : le casque Freesound de RSF ne touchant pas les oreilles, le gestionnaire évite les questions d’hygiène des coussinets. « Il y a une petite perte de son, mais cela reste correct, analyse Eudald Tomasa. Avec les audioguides qui touchent les oreilles, le public a tendance à se fatiguer, et à les retirer. Or ici l’expérience se vit presque totalement par les audioguides. Il fallait trouver un compromis pour que le public les conserve. »

10

La visite s’appuie sur un moyen-métrage tourné spécialement en Catalogne. Chaque plan a été réfléchi selon l’effet de projection voulu. © Jordi Play

mersive, moderne, amusante, et agréable, détaille Montse Giménez, directrice marketing de la Casa. L’expertise du groupe Transversal correspondait à ces objectifs. »

REPARTIR DE ZÉRO

Basée en Catalogne, Transversal est en effet reconnue pour ses idées innovantes en matière d’expérience touristique (voir encadré) : « Quand on nous sollicite, c’est pour obtenir quelque chose de différent, confirme Eudald Tomasa, directeur de Transversal. Générer une expérience singulière et attractive. » Il était donc exclu de créer un musée classique. « La muséographie conventionnelle, présenter des vitrines, une scénographie de meubles totalement artificielle, ce n’est pas notre façon de voir les choses. Nous savons par expérience que cela ne génère pas une attractivité suffisante pour attirer le public. » Car à Barcelone, la concurrence touristique est très importante. « Pour exister, un nouveau projet doit se différencier. » Pour une fois, il a fallu partir d’une page blanche : « contrairement à ses façades ostentatoires, le bâtiment était très sobre à l’intérieur, raconte Eudald Tomasa. Une simple visite de l’espace n’aurait eu aucun sens : il n’y avait pas grand chose à montrer ! Des salles blanches, vides, quelques colonnes… » Un défi séduisant pour les équipes de Transversal. « De ce problème, on a fait une vertu, ajoute Eudald Tomasa. C’était l’occasion de créer un espace totalement nouveau, rompre avec les modèles conventionnels de visites des maisons-musées. »

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

Quelle histoire raconter ? « Nous avons proposé de faire quelque chose, pas tant sur le bâtiment lui-même, mais sur un patrimoine immatériel, poursuit le directeur de Transversal. Nous nous sommes appuyés sur la grande mosaïque de Sant Jordi (Saint-George) de la façade. » Car la légende de Sant Jordi est une tradition culturelle importante en Catalogne. « Aucun lieu n’était dédié à ce sujet. On y a vu une opportunité. »

UNE VISITE AUTOMATISÉE

Transversal a donc imaginé « une expérience sensorielle » basée sur le son et les projections d’images. Coiffé d’un audioguide, le spectateur déambule dans un parcours réparti sur 500 mètres carrés au premier étage. Ce qui interpelle, c’est que la visite est entièrement automatisée : pilotées par des capteurs infrarouges, les portes s’ouvrent et se referment, invitant les spectateurs à changer de pièce pour découvrir la suite de l’histoire. L’éclairage se module seul au fil du parcours et des projections. « Ce système automatique renforce la singularité de l’expérience, estime Montsé Giménez. Il contribue à maintenir la curiosité, le mystère. » « C’est aussi un moyen de canaliser les flux de visiteurs, complète Eudald Tomasa. Les salles sont petites, il était donc impossible d’accueillir plus d’une dizaine de personnes. Un parcours automatisé permet d’intensifier au maximum le flux des visites. » Pas de temps perdu : avant le départ, les petits groupes sont formés, face à un compte à rebours. Et pour patienter, le public peut


I MAISON-MUSÉE I UNIVERS I

La maison et ses fameuses pointes « wagnériennes ». © Violaine Fouillouse

Dès la file d’attente, un jeu interactif, basé sur la détection des ombres, met le spectateur dans l’ambiance. © Paolo Sapio

jouer avec une projection interactive au sol : un bassin en réalité augmentée, où poissons et feuilles mortes réagissent avec le public, grâce à la détection des ombres par infrarouge. Dès que le temps est écoulé, les portes s’ouvrent, et le parcours démarre. « On gère ainsi les groupes de personnes comme des petits “wagons” qui avancent et vivent progressivement l’expérience intégrale, confie Eudald Tomasa. L’automatisme permet que des visites parallèles se déroulent dans les différentes salles. »

PLUSIEURS EXPÉRIENCES EN UNE

Dans les pièces, dix projecteurs Epson (EB – 66370, EB – 66770WU, EB – 570…) diffusent un film original tourné pour l’occasion, et adapté au jeu d’écrans. Car chaque pièce offre une expérience visuelle différente : image qui déborde sur le sol, cachée dans les murs… La dernière pièce est la plus impressionnante : des miroirs multiplient l’image à l’infini, formant une immense sphère. « Cela donne une autre perspective ! On a imaginé des techniques suggestives pour susciter l’attention du public, le surprendre. On ne parle pas seulement d’une projection vidéo, mais d’entrer d’une certaine manière dans l’image. Ce n’est pas un simple film que l’on pourrait regarder à la maison. » Cette première étape de 40 minutes se conclut par une salle d’interprétation du mythe de Sant Jordi (diffusion de vidéos et jeux sur tables interactives). Ensuite, le spectateur est invité à monter sur le toit. C’est le début de la seconde expérience : la découverte des six tours iconiques du bâtiment. Après la légende, place à la réalité : le toit est un véritable musée sur l’architecte et le modernisme catalan. La tour

Dans la dernière salle, un jeu de miroirs multiplie l’image en un globe infini. Le rendu est spectaculaire, et offre une expérience visuelle assez inédite. © Paolo Sapio

principale, sur deux étages, est ainsi dédiée au travail de Josep Puig i Cadafalch, avec panneaux et documentaires vidéo. Les autres tours offrent des expériences plus singulières : un jeu de lumière orchestré par des projecteurs gobos sur fond de musique pour évoquer l’influence wagnérienne, une projection centrale mappée sur le plafond pour comprendre les détails architecturaux, des boîtes magiques où découvrir par le toucher les matériaux employés, une pyramide holographique pour saisir le processus

Transversal, spécialiste de la muséographie moderne Son nom n’est pas forcément très connu en France. Mais, depuis 25 ans, le groupe Transversal est l’un des principaux acteurs de la muséographie et de la stratégie touristique, en Catalogne. Spécialisé dans les nouvelles technologies, il multiplie les projets, en Espagne et à l’étranger : incrustation vidéo au sein du monastère de Món San Benet, au nord de Barcelone, visite automatisée du Musée Maritime et projections sur le toit de la Pedrera, à Barcelone… Actuellement, l’équipe planche sur de « très grands projets audiovisuels », en Arabie saoudite et en Argentine.

de construction… « Nous voulions multiplier les sensations, susciter un effet de surprise », justifie Eudald Tomasa. Au final, le projet offre un panorama large des technologies digitales et réussit son objectif : séduire un large public. « L’idée était de rendre la culture, l’histoire, plus accessibles, assure Montse Giménez. Les éléments visuels, les effets sonores, attirent les jeunes, mais aussi les familles, car cela touche les enfants. Les visiteurs sont surpris par le côté technologique, mais apprécient son caractère original. » Surtout, les gestionnaires se satisfont d’un élément : le lieu touche en majorité un public local, dans une ville inondée de touristes. Et l’espace s’adapte également aux événements privés, avec la possibilité de projeter les images de son choix. « Ce nouveau concept de visite, c’est le futur, juge Eudald Tomasa. Tous nos projets vont dans cette direction. De plus en plus, ce que l’on va demander à la muséographie, c’est de générer un impact. »

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

11


I UNIVERS I ÉPOPÉE I

La Cinéscénie du Puy du Fou : 40 années d’une épopée technique En 2017, le Puy du Fou fête ses 40 ans. L’occasion de parcourir les coulisses techniques d’un des plus grands spectacles permanents du monde. Par Alice Boivineau

La Cinéscénie raconte le destin symbolique de la famille Maupillier, du Moyen-Âge à la Seconde Guerre mondiale.

Le 13 juin 1977, Philippe de Villiers découvre le château du Puy du Fou, enfoui sous les ronces et les orties. Quarante ans plus tard, le Puy du Fou est salué comme une réussite mondiale avec plus de 2,2 millions de visiteurs chaque année. Au fil des années, la Cinéscénie, le spectacle nocturne originel, est devenu une superproduction. Et côté technique, l’artillerie lourde est sortie. Nicolas de Villiers, président du Puy du Fou depuis 2004, est un passionné de spectacle qui s’implique dans toutes les créations du parc, jusqu’aux choix technologiques. Il nous a confié certains ingrédients techniques de la recette, pourtant secrète, de la Cinéscénie. Pour lui, une seule devise : la technique au service de l’émotion.

IMMERGER LE PUBLIC AVEC L’AUDIO

Nicolas De Villiers, Président du Puy du Fou depuis 2004.

12

Nicolas de Villiers n’hésite pas à présenter Christian Heil, fondateur de L-Acoustics, comme un « génie ». Il lui a confié, au fil des années, la sonorisation de la Cinéscénie et de tous les spectacles du Grand Parc. « Avec des enceintes au volume très concentré, il a réussi à garantir un niveau élevé de qualité

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

sonore sur toute la longueur d’ondes », admire le président. Ainsi qu’il soit à 100 ou 150 mètres, le spectateur a la sensation d’être à la même distance de l’action. Une cinquantaine d’enceintes K1 et K2 assurent un son très directif et ciblé sur la tribune des spectateurs. La précision est d’autant plus grande, grâce à une diffusion en 7.5.1. (sept points de sons de face, cinq en arrière et un point de basses). L’orchestration, enregistrée en 256 pistes, est ensuite diffusée en douze pistes audio pour une immersion totale, équivalente, selon Nicolas de Villiers, à certaines des plus belles installations, comme celle de la salle Pleyel. Une sensation unique d’être au cœur de l’orchestre.

ÉMOUVOIR LE SPECTATEUR GRÂCE À LA LUMIÈRE ET AU VIDÉO MAPPING

L’immense scène à ciel ouvert du spectacle nocturne nécessite une habile mise en lumières. Cette tâche minutieuse a été confiée depuis plusieurs années au light designer belge Koert Vermeulen. Il a repris entièrement le plan de feu avec les équipes du spectacle vendéen. C’est désormais plus de 2 500 projecteurs qui sont dissimulés. 80 % sont


I ÉPOPÉE I UNIVERS I

Le château du Puy du Fou s’anime grâce au vidéo mapping 3D.

Les drones donnent une nouvelle dimension avec ici avec des bougies géantes et lumineuses qui semblent flotter dans les airs.

La console audio servant à l’enregistrement de l’orchestration de la Cinéscénie.

La Cinéscénie du Puy du Fou en chiffres

1h40 de spectacle 3 800 comédiens bénévoles Une scène de 23 hectares 13 200 spectateurs par représentation 370 000 spectateurs par an 130 cavaliers 80 techniciens 28 000 costumes 150 jets d’eau 850 pièces d’artifices 8 500 000 € de chiffre d’affaires en 2016

fabriqués sur mesure pour correspondre aux exigences uniques du Puy du Fou. La précision est exemplaire pour pouvoir projeter le bon éclairage dans le timing à 50 centimètres près sur une scène de 23 hectares. Bien entendu, la plupart sont en technologie Led. Le système, totalement automatisé, se joue en harmonie avec le vidéo mapping 3D. Cette

technique « permet de souligner et d’habiller les décors de manière à créer des surprises et des sentiments différents en fonction de l’histoire racontée au moment même », apprécie Nicolas de Villiers. C’est donc désormais un élément de mise en scène important. Le mapping est joué sur le château, l’ensemble des décors ainsi que sur le plan d’eau. Vingt-cinq projecteurs Christie K20 et dix projecteurs Christie K30 (30 000 lumens) sont utilisés. En 2017, la Cinéscénie se dote d’un nouveau décor monumental de 70 mètres de long et de 15 mètres de haut représentant un rempart surmonté par un village médiéval.

ÉTONNER PAR L’INNOVATION

Depuis 2016, une flotte de drones autonomes capables de porter des éléments de décors lumineux donne une autre dimension au spectacle, celle de la hauteur. Si les drones sont « invisibles », les éléments de décors, tels que des bougies géantes ou des danseuses, semblent voler dans le ciel étoilé. « Cela crée toute une poésie qui cache une haute technologie », s’émeut le président. En partenariat avec la société nantaise Pixiel, les équipes du Puy du Fou ont donné naissance à vingt drones capables de présenter, de jour comme

de nuit, une chorégraphie aérienne en vol synchronisé devant un public. Les appareils sont homologués par une administration aérienne d’État (la DGAC). Baptisés Neopters, ils ont nécessité un investissement de 3 millions d’euros. Les drones s’élèvent à 60 mètres de hauteur et peuvent emporter des décors pesant jusqu’à 2 kg par appareil. En grand passionné, Nicolas de Villiers s’émerveille : « Nous vivons dans une époque incroyable où, à l’échelle d’une vie d’homme, nous voyons des nouvelles technologies significatives s’installer quasiment tous les ans. » De quoi surprendre encore les spectateurs du Puy du Fou pendant de longues années.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

13


I DOSSIER I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I

À l’occasion de la rentrée scolaire, Sonovision a souhaité donner un coup de projecteur sur l’usage de l’audiovisuel dans les universités . Après la vague des Mooc et de l’e-learning, les enseignements en mode « présentiel » font l’objet d’un regain d’intérêt grâce au renfort d’outils interactifs et collaboratifs dans le cadre des Learning Labs. Pour les alimenter en séquences vidéos, les outils de captation se développent dans de multiples configurations ; les plates-formes de diffusion et de VOS étendent leurs fonctionnalités. Dossier réalisé par Pierre-Antoine Taufour

LEARNING LABS, ENREGISTREURS DE COURS ET PLATES-FORMES DE VOD

LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS

Le raz-de-marée des ordinateurs portables et autres terminaux BYOD dans les amphithéâtres pousse à modifier les méthodes pédagogiques des universités.

14

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I DOSSIER I

L’enseignement supérieur public en France est organisé autour de 70 universités, sans compter les grandes écoles et autres instituts spécialisés. Depuis la loi Edgar Faure de novembre 1968, amendée à de nombreuses reprises depuis, elles jouissent d’une relative autonomie pour s’organiser et s’associer selon des critères pédagogiques ou géographiques. Leurs activités audiovisuelles sont organisées depuis de nombreuses années autour de services transversaux, à part le cas des départements ou UFR chargés de la formation à l’audiovisuel. Leurs activités et leurs tailles sont à l’image de la diversité des universités avec, selon les situations, des services conséquents de plusieurs dizaines de personnes gérant des parcs d’équipements importants, et d’autres avec une activité plus réduite, en fonction du soutien de l’institution et de l’engagement des responsables.

L’AUDIOVISUEL SE FOND DANS LES TICE

Avec le passage au numérique, la généralisation d’Internet et l’émergence de nouveaux modes de communication, ces services audiovisuels se retrouvent à la croisée des chemins, entre les services informatiques et les équipes pédagogiques en charge des TICE. Ce sigle, très répandu dans le monde de l’éducation, signifie : Technologies de l’information et de la communication pour l’enseignement. Dans certaines universités, le service audiovisuel reste centré sur la production et la diffusion de contenus d’images et de sons dans les modes d’écriture et d’expression classiques. Dans d’autres cas, le service s’est ouvert aux contenus multimédias et accueille les spécialistes des TICE, qui deviennent un département intégré à l’audiovisuel. À l’inverse, en d’autres situations, ce sont les TICE qui sont devenus prédominants, l’audiovisuel n’étant plus qu’une composante de toute la palette des outils numériques pour transmettre un savoir. Toutes ces variations se combinent ensuite, avec ou sans intégration, à la DSI (Direction des services informatiques) de l’université, exprimée souvent sous le sigle des services numériques. Le développement de l’enseignement à distance (e-lear-

ning) et l’organisation de formation en ligne sous forme de Mooc (Massive open online course) ont ajouté une nouvelle couche à ce millefeuille organisationnel. Il en découle une floraison de sigles, de services et de départements parmi lesquels il n’est pas toujours aisé de repérer qui fait quoi et avec qui. Pour faciliter les échanges de contenus avec les professeurs et le suivi de la scolarité des étudiants, toutes les universités ont mis en place des ENT (Espace numérique de travail). Ces outils, même s’ils ne sont pas à proprement parler des vecteurs de contenus audiovisuels, fonctionnent de concert avec des outils dédiés à la diffusion ou à la création de contenus multimédias, entre autres pour l’authentification et la gestion des échanges.

UNE MULTITUDE DE SITES D’INFORMATION

Au niveau national, on retrouve cette diversité d’organismes et de plates-formes d’information, souvent à spectre large, mais qui couvrent le champ des TICE, de l’audiovisuel et du numérique. Le ministère de l’Enseignement supérieur a mis en place un site d’information intitulé Sup-Numérique qui relate les expériences et

services pédagogiques basés sur le numérique et les TICE. Esup-portail est un consortium fondé par cinq universités au départ, et qui regroupe aujourd’hui 70 établissements. Il promeut les outils open source pour la gestion des ENT et offre un annuaire d’applications, entre autres POD, plate-forme de diffusion vidéo, évoqué dans la partie diffusion de ce dossier. Dans le domaine de l’enseignement à distance, FUN-Mooc (FUN pour France Universités Numériques) recense l’ensemble des cours à distance mis en ligne par les universités et établissements d’enseignement français. Les universités numériques thématiques (au nombre de huit, axées chacune sur les grands domaines de connaissances) ont pour objectif de produire des ressources pédagogiques de qualité et de les mutualiser, afin de favoriser le développement des TICE. Enfin, il faut également citer les activités et le site d’information de l’ANSTIA (Association nationale des services TICE et audiovisuels de l’enseignement supérieur). Elle diffuse, à travers son blog et son forum, divers contenus et informations autour des TICE et de l’audiovisuel.

De l’amphithéâtre au « Learning Lab » L’amphithéâtre reste le lieu emblématique des facultés où sont dispensés une majorité de cours magistraux. L’équipement classique audiovisuel comprend une sonorisation et un vidéo-projecteur pour afficher les « slides » de la présentation diffusée par le professeur. Ce dispositif est devenu tellement classique qu’à l’Université de Rennes 2, Christian Allio, directeur du Créa, le service audiovisuel central, a fait équiper la trentaine d’amphithéâtres et 300 salles de travaux dirigés, soit environ 80 % des locaux d’enseignement. Il constate que l’équipement systématique renforce le taux d’utilisation des salles de cours : « Les salles équipées en audiovisuel sont utilisées entre 1 000 et 1 200 heures par année universitaire, alors que celles sans équipement voient leur taux d’usage stagner à 350/400 heures. » La demande croît sans cesse et il faut passer à un équipement systématique de l’ensemble des salles d’enseignement. Chaque année, son service équipe 20 à 25 salles nouvelles et renouvelle aussi l’équipement des locaux déjà pourvus, entre autres pour passer au HDMI. Il procède aussi au remplacement des vidéoprojecteurs à lampes par des modèles à laser avec une maintenance plus légère. Pour la simplifier, il a choisi un fabricant unique pour l’ensemble du parc : Epson. Les petites salles sont équipées d’un modèle courte focale

avec fonction de TBI. En cas de panne, l’un des cinq techniciens de l’équipe doit pouvoir intervenir très vite. Le système de supervision déployé sur l’ensemble du campus est une aide appréciable pour assister les utilisateurs. Chaque système de vidéoprojection est complété par un mini automate en simplifiant et unifiant les panneaux. Christian Allio constate que la connaissance et la maîtrise des outils s’améliorent au fil des années, car les étudiants et les professeurs appréhendent mieux les logiques de fonctionnement.

RENDRE SON AMPHITHÉÂTRE INTERACTIF

Un nouvel outil interactif fait son apparition dans les amphithéâtres : le vote électronique. Jusqu’à présent ce mode de consultation exigeait un équipement dédié, mais comme les étudiants viennent quasiment tous en cours avec leurs smartphones, des professeurs se disent : « autant exploiter ce terminal de manière active pendant notre cours plutôt que les laisser s’évader en pianotant sur les réseaux sociaux. » Plusieurs services sont

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

15


I DOSSIER I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I

Le logiciel Votar détecte la position des feuilles de vote brandies par les participants et indique immédiatement le pourcentage respectif de leurs choix. © ANSTIA

proposés sur le web. Le principe consiste à préparer à l’avance un vote ou un questionnaire de type QCM. Un lien d’accès avec un code est proposé en retour. Avec leurs terminaux, les étudiants se connectent sur le service avec le code d’accès et choisissent leurs réponses. Plusieurs modalités de vote ou de questionnaire sont proposées au moment de la conception du questionnaire. Parmi les systèmes disponibles, on peut citer : Socrative, Toreply ou Kahoot. Une mention particulière pour Votar fonctionnant avec un simple smartphone sous Android. Les participants reçoivent une feuille A4 avec quatre carrés de couleurs imprimés au recto. Au verso, sont inscrites les quatre lettres A, B, C et D correspondant aux choix de vote et à une orientation de la feuille. Au moment du vote, ils orientent le recto vers le professeur, dans la position de leur choix. Puis, le professeur prend une photo de l’auditoire avec son smartphone. Le logiciel Votar analyse la photo, détecte l’orientation de la feuille et affiche immédiatement les résultats de la consultation.

LA CLASSE INVERSÉE

L’usage de ce type d’outils interactifs a pour ambition de rendre les étudiants plus actifs lors d’un cours magistral. Avec la généralisation des outils BYOD (Bring Your Own Device) cette ambition s’inscrit dans une démarche plus large intitulée « classe inversée ». Jusqu’à un présent, la démarche d’apprentissage se déroule en deux temps : le cours magistral durant lequel le professeur transmet ses connaissances ; puis, l’étudiant, une fois rentré chez lui, effectue son travail personnel (exercices ou rédaction d’un document) en reprenant ses notes. Avec le concept de classe inversée, des pédagogues ont proposé d’inverser les deux phases. Débuter le module d’enseignement par une phase de travail personnel en consultant des documents écrits ou multimédias pour acquérir les connaissances de base. La généralisation du numérique et des accès Internet facilite grandement la distribution préalable des documents pédagogiques. Ensuite, les étudiants participent au cours qui abandonne son côté magistral pour s’organiser autour de travaux et d’exercices menés collectivement avec l’aide de l’enseignant, et d’exposés complémentaires sur les points du cours mal assimilés. Ces activités sont plus efficaces lorsqu’elles se déroulent en petits groupes. Des locaux de plus petite taille comme des salles de travaux dirigés sont mieux adaptés. En les équipant d’outils de diffusion audiovisuelle et de

16

Dans les salles de cours de l’Université Rennes 2, le clavier du mini-automate unifie les commandes de la vidéoprojection, y compris avec des matériels différents. © PA Taufour

systèmes numériques interactifs, des professeurs assistés par des équipes d’ingénierie pédagogique spécialisés dans les TICE ont fait évoluer ces salles vers des espaces de travail collaboratif et interactif, désignés aussi sous le concept de « Learning Lab » pour faire plus tendance !

L’EXPLOSION DES LEARNING LABS

De 2000 à 2012, le développement d’Internet et des outils informatiques ont poussé les établissements d’enseignement supérieur et de formation continue à évoluer d’un enseignement en mode présentiel sur place vers des espaces virtuels et une transmission des connaissances à distance. D’où le lancement de cours sous forme de Mooc et autres systèmes d’elearning. Après un engouement autour de ces méthodes innovantes, on constate un retour de balancier avec la tendance à réunir physiquement les étudiants autour de travaux menés en commun, assortis d’échanges en petits groupes pour enrichir la démarche pédagogique. D’où la multiplication de ces Learning Labs qui associent un lieu de rencontre avec tous les outils numériques de consultation et d’échanges. Il s’agit d’une tendance forte, encore en phase expérimentale, mais de nombreux établissements s’équipent de Learning Labs, et pas seulement dans le secteur universitaire. La plateforme d’innovation Iram, de l’université Jean Monnet de Saint-Etienne, et l’alliance Science & Business (École centrale de Lyon et EMLyon Business School) ont créé le LearningLab Network, une plate-forme d’information et d’échanges qui regroupe 63 membres autour de la création de ces nouveaux espaces d’enseignement. Parmi ceux-ci, des universités, des IUT, des grandes écoles et des services formation de grandes entreprises. Les Learning Labs sont agencés autour de deux concepts : réunir dans un lieu de formation tous les outils numériques de consultation, d’échanges et de communication, aménager le local avec des équipements et des mobiliers flexibles facilitant de multiples configurations de travail.

UN LIEU MODULAIRE D’ÉCHANGES ET DE TRANSMISSION DE CONNAISSANCES Parmi les membres du LeraningLab Network, l’université d’Angers, qui a mis en place en début d’année deux salles configurées en learning lab, dont le Lab’UA affecté à l’enseignement des langues et l’autre pour les formations de santé. D’une surface de 95 mètres

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

carrés, elles sont aménagées pour accueillir chacune sept groupes de sept étudiants. Chaque groupe travaille de manière autonome dans une cellule équipée d’un moniteur LCD de 43 pouces raccordé à une unité Via Connect de Kramer. Celle-ci permet d’afficher jusqu’à quatre images venant des micro-ordinateurs ou tablettes des étudiants réunis autour de l’écran et reliés en wifi. Toutes les unités Via Connect sont raccordées entre elles pour le travail collaboratif et le partage de documents entre tous les participants et le professeur. Via leur micro-ordinateur, ils ont également accès à leur espace numérique de travail pour lire ou enregistrer leurs propres contenus. Chaque cellule est aussi équipée d’un tableau blanc traditionnel à roulettes. La salle dispose également de deux TBI, diffusant sur un tableau blanc de très grande taille, et d’un système de visioconférence Cisco. Le professeur dispose d’une unité mobile pour diffuser ses propres documents, qu’il peut renvoyer vers les TBI et vers les écrans des sept cellules, ou bien sélectionner comme source à diffuser l’un des portables des étudiants. Dominique Duquenne, directrice adjointe à la Direction du développement du numérique, a participé à la conception des deux salles d’e-learning ; elle justifie le choix du système Via Connect : « le système de diffusion de Kramer a été choisi pour sa souplesse à gérer les échanges entre les postes de diffusion. Il faut également penser aux besoins futurs pour faire travailler deux salles en parallèle. » L’objectif de ces deux nouvelles salles est de tester de nouvelles pratiques pédagogiques et de faciliter le travail de groupes. Au cours d’une même séance, les enseignants sont amenés à mettre en œuvre plusieurs modes de travail et pouvoir agencer la salle comme ils le souhaitent. Dominique Duquenne insiste sur ces aménagements mobiliers : « Une majorité des mobiliers sont équipés de roulettes permettant changer la disposition de la salle. Le poste de l’enseignant est également mobile. Autre détail pour faciliter le rangement, une couleur a été affectée à chaque cellule et aux dossiers des chaises, y compris sur la page d’accueil du Via Connect. » Benoît Roques, directeur adjoint de la DSIUN et responsable du service des usages numériques à l’Université Paris 1 Panthéon-Sorbonne, a participé à la mise en place du PMF Lab (PMF pour Pierre Mendès-France, nom du centre universitaire où il est implanté). Il précise immédiatement: « Il ne faut pas confondre le PMF Lab avec un Fab Lab. Ceux-ci


I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I DOSSIER I

Au Lab’UA de l’université d’Angers, les aménagements mobiles à roulettes facilitent la recomposition de l’espace selon les types d’activité. © Université d’Angers

aménagés de manière conviviale, avec une grande table de travail au centre, des écrans de travail collaboratif tout autour, reliés grâce à un système Via de Kramer, un box de captation sur fond vert, l’ensemble étant relié aux réseaux de l’université et à Internet. Les étudiants pourront disposer de prêts d’équipements pour des tournages à l’extérieur ou pour la préparation de spectacles, et recevront l’aide de professionnels pour les projets d’envergure. Le Fac Lab ouvrira ses portes lors du premier semestre de l’année 2017-2018.

LE WECONNECT DE BARCO

La visioconférence est l’un des outils de base des Learning Labs, comme ici au PMF Lab de l’Université Paris 1 Panthéon-Sorbonne. © Service Communication Paris 1 Panthéon-Sorbonne

sont destinés à la fabrication de prototypes avec du découpage ou des imprimantes 3D. Le Learning Lab est plus orienté vers l’académique et a pour objectif de faire évoluer les pratiques pédagogiques en faisant passer l’étudiant d’un statut passif à celui d’actif en s’appuyant sur toute la palette des outils numériques et interactifs. » Le PMF Lab de l’Université Paris Panthéon-Sorbonne est aménagé selon des principes similaires à celui d’Angers. Benoît Roques remarque : « Un vidéo-projecteur unique au plafond structure complètement l’agencement et l’usage de la salle. Il faut au contraire démultiplier les écrans sur les murs, raccordés à plusieurs sources. » La salle est équipée des quatre écrans Samsung 55 pouces reliés à des ClickShare Barco, d’un vidéoprojecteur Laser NEC, d’un TBI Promothean de 70 pouces et d’un système de visioconférence Cisco avec deux écrans 55 pouces. Le département d’archéologie utilise régulièrement le PMF Lab. Pour organiser des visites virtuelles de chantiers de fouilles, une station de réalité virtuelle a été installée. La salle dispose également d’une imprimante 3D. Cette salle, dite de créativité par ses fondateurs, est complétée par d’autres salles de réunion connectées et d’un plateau audiovisuel dédié à l’enregistrement de modules de cours.

LE FAC LAB DE L’UNIVERSITÉ DE TOURS

Dans le cadre du projet New Teach, l’université François-Rabelais, à Tours, a lancé une consultation pour créer quatre salles qui vont au-delà du concept de Learning Lab. Selon les propos de Jean-Philippe Letourneur, responsable du pôle Audiovisuel à la Direction de la production numérique et multimédia, « Le

projet consiste en la création de quatre salles ou plutôt d’espaces de création. On propose aux étudiants la possibilité de produire pour leurs pairs. La production universitaire est trop organisée selon les schémas classiques d’écriture. La réalisation des contenus doit passer par les étudiants et ainsi faire passer leur vision du monde. » Au cours de leur cursus, ils doivent réaliser différents travaux audiovisuels ou multimédias, intégrés dans leur évaluation. Le Fac Lab les aidera à les mettre en forme avec une palette complète de moyens d’expression, tournages vidéo, reportages audio, mais aussi la photo, le painting, et jusqu’au spectacle vivant. Les quatre espaces du Fac Lab seront implantés en centre ville pour être en terrain neutre, sans être rattachés à une composante universitaire ou un département. Jean-Philippe Letourneur et ses collègues ont imaginé des espaces ouverts

Barco, plus connu pour ses vidéoprojecteurs, s’intéresse depuis plusieurs années au marché éducatif. Il y a plus de deux ans, le constructeur avait présenté une interface de présentation collaborative, le NRC-200. C’est une sorte de ClickShare renforcé avec des fonctions de sélection et de modération destinées au professeur. Barco a étendu son système et présente maintenant sous le nom de weConnect une architecture complète de diffusion et de travail collaboratif à l’échelle d’un campus universitaire. À partir de leurs terminaux BYOD, les professeurs et les étudiants peuvent consulter des contenus diffusés sur place ou à distance, envoyer celui de leurs tablettes ou de leurs PC vers les écrans de la salle sous le contrôle de l’enseignant, poser des questions au professeur, participer à des votes ou répondre à des quizz. Toutes ces fonctions s’appuient sur l’architecture wifi du campus et sont gérées par un serveur central localisé au service informatique de la faculté ou dans le cloud. Le système est proposé avec plusieurs niveaux de fonctionnalités, selon les types de salles à desservir et la taille du public concerné. Le campus de Courtrai de l’Université de Louvain en Belgique néerlandophone, désigné plus simplement sous l’abréviation Kulak, s’est équipé d’un système weConnect de Barco. Le système a été déployé en collaboration avec Televic, qui apporte son savoir-faire pour la gestion des contenus multimédias et des salles de classe. Le projet fait l’objet de plusieurs évaluations par les équipes de recherche de l’université, à la fois sur les aspects technologiques, pédagogiques, psychologiques et médicaux.

Dans l’une des salles de travail collaboratif et interactif du campus de Courtrai de l’université de Louvain, installée par Barco et Televic. © Barco

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

17


I DOSSIER I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I

Les outils pour enregistrer les cours La mise en ligne de nombreuses formations à distance, à travers la création de Mooc, où la pédagogie basée sur la classe inversée pousse les formateurs à créer une multitude de documents dont énormément de vidéos. La diffusion de contenus pédagogiques sous cette forme est plébiscitée par les étudiants, leur offrant le moyen de retravailler chez eux les cours qu’ils suivent. Elle pallie également les contraintes liées à la taille des amphithéâtres (cf. les premières années des cursus médicaux) et à la répétition de cours sur plusieurs sites dispersés géographiquement. L’enregistrement vidéo de cours ou de modules de formation devient l’une des activités majeures des services audiovisuels ou de ceux chargés des TICE. Depuis de nombreuses années, les services audiovisuels ont assuré la réalisation de nombreux reportages, documentaires ou témoignages recueillis auprès d’intervenants prestigieux, avec pour objectif des films de qualité destinés à une large diffusion. À l’époque où les moyens techniques restaient peu accessibles, ces tournages étaient assurés par une équipe du service audiovisuel composée classiquement d’un réalisateur/journaliste, d’un opérateur image et d’un preneur de son qui accompagnaient le professeur ou l’équipe pédagogique à l’initiative du projet. Ces derniers assurant la caution scientifique du contenu et l’équipe technique effectuant un travail de construction et de mise en forme audiovisuelle du contenu. Le tournage est effectué en mode monocaméra avec des outils de montage virtuel, selon des procédures traditionnelles. De nombreux services audiovisuels continuent à produire des documents selon cette méthode et une procédure qui a fait ses preuves aussi bien à l’université que dans la production indépendante. Face à la croissance exponentielle de la demande de documents pédagogiques, il était impossible de généraliser ce mode de réalisation à la fois pour des questions budgétaires, mais aussi de moyens techniques et humains.

LE TOURNAGE MULTICAMÉRAS

Pour enregistrer des colloques ou des conférences avec des intervenants de renom, les services audiovisuels se sont dotés d’équipements de captation multicaméras. Ces matériels sont installés, soit à demeure dans des amphithéâtres avec des caméras PTZ sur tourelle, soit organisés sous forme de régies mobiles installées dans l’espace où se déroule l’évènement. Les universités de Rennes, d’Angers ou de Nantes, parmi d’autres, effectuent régulièrement aussi des enregistrements de spectacles ou d’évènements culturels dans leurs villes respectives. L’université de Tours s’est ainsi dotée de cinq régies mobiles semi-fixes, câblées en 12G/SDI avec du matériel Blackmagic. Pour éviter de transporter toute la régie à chaque enregistrement, le CREA de l’université de Rennes 2 a déployé un précâblage en fibres optiques monomodes entre tous les amphis et le service audiovisuel de manière

18

À l’Université de Rennes 2, la régie vidéo dans les locaux du CRÉA fonctionne en remote-production pour l’enregistrement des cours dans les amphithéâtres. © CRÉA – Université Rennes 2

à travailler en remote-production. Il suffit à l’équipe technique de déplacer un rack d’interconnexion auquel sont raccordées les caméras PTZ et la sonorisation de l’amphi. Le mixage des sources et l’enregistrement est réalisé par l’équipe technique depuis la régie fixe de production installée au service audiovisuel. Il exploite selon les cas un système de transport Mediornet de Riedel ou un jeu d’interfaces optiques étudié sur mesure et fabriqué par Fougerolle. Le CREA avait déjà l’habitude d’exploiter des transmissions sur fibres optiques puisqu’il réalise régulièrement des directs depuis l’Opéra de Rennes ou des évènements de musique actuelle grâce au réseau optique FOR qui dessert toute la métropole rennaise. Selon les situations et les universités, le dispositif de captation multicam est adapté en taille et en équipe technique selon de l’enjeu de l’enregistrement. Pour la captation d’un cours récurrent, une seule caméra sera exploitée avec l’incrustation en PIP du Powerpoint utilisé par le professeur comme trame de son cours. La demande d’enregistrement des cours magistraux a été initiée par les facultés de médecine. En première année, le nombre d’étudiants dépasse largement les capacités d’accueil des amphithéâtres, lesquels peuvent contenir au maximum 500 places. Il a fallu trouver des solutions pour dédoubler (voire plus) les cours magistraux. Par exemple, le cours est retransmis en direct dans un second amphi à proximité, comme à Tours, avec la

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

transmission simultanée de plusieurs signaux en streaming, pour offrir une configuration d’affichage identique à celle de l’amphithéâtre principal (un vidéoprojecteur pour les slides et un second pour l’image du professeur). Dans d’autres situations, comme à Angers ou à Rouen, la retransmission en live est destinée à des sites distants. Les responsables en profitent alors pour enregistrer le cours et le rediffuser en différé pour les absents via le service de VOD. Ce large développement des enregistrements pour les cours de médecine ont donné des idées à d’autres composantes ou UFR des universités. La demande augmente sans cesse. Les moyens en personnel des services audiovisuels ne sont pas extensibles et les équipes techniques ne sont pas toujours désireuses d’assurer ces tâches fort répétitives.

LES ENREGISTREURS DE COURS

Les professeurs utilisent de manière régulière une présentation de type Powerpoint pour illustrer leur propos. Pour répondre à ce besoin d’enregistrement associé à une PréAO, des constructeurs innovants ont créé un nouveau type d’outils, les enregistreurs de cours. Ils associent un mini mélangeur vidéo simplifié à deux entrées – une pour la caméra et une pour le micro-ordinateur –, un système d’enregistrement audio/vidéo et un encodeur de streaming pour la diffusion live en IP. Ils effectuent un mixage simplifié avec, soit passage en cut d’une source à l’autre, soit un


I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I DOSSIER I

Les chercheurs du MIT ont constaté qu’il fallait au moins quatre points de vue pour aider à la compréhension d’un cours ou d’une conférence.

La station portable d’enregistrement de cours d’Ubicast. © Ubicast

Le rack mobile sert d’interface entre les équipements de capture et le réseau de fibres optiques desservant les amphithéâtres de l’Université de Rennes 2.

© CRÉA – Université Rennes 2

L’outil de capture Omnilive diffuse les quatre sources d’images en simul-tané sur un navigateur standard. © Omnilive

effet PIP associant l’image du professeur et le contenu du Powerpoint. Plusieurs systèmes sont proposés par des constructeurs d’origine américaine qui associent l’outil de captation à des serveurs de diffusion intégrés à leurs offres. Outre le coût du service assez élevé, les universités françaises sont assez réticentes à un stockage des contenus hors de France et ces offres sont assez fermées d’un point de vue technique. D’autre part, elles disposent de moyens et

d’infrastructures informatiques sur lesquelles elles peuvent s’appuyer pour exploiter ce type de services. Ces offres n’ont pas rencontré de succès en France, ce qui a permis à des startups françaises de développer des outils originaux en s’adaptant aux spécificités locales. Deux sociétés sont très présentes sur ce marché, Inwicast et Ubicast. Un troisième acteur est apparu plus récemment, Omnilive. L’université François-Rabelais à Tours exploite plusieurs systèmes de captation

automatisée Inwicast Box. Jean-Philippe Letourneur, à la direction de la production numérique et multimédia du Pôle Audiovisuel détaille son fonctionnement : « Au début de son cours, le professeur se connecte sur le système, avec son identifiant et son mot de passe. Il démarre l’enregistrement avec un simple bouton Rec/Stop. Il est filmé par une caméra en fond de salle. Le système capte le flux vidéo et indexe les changements de diapos de la PréAO. » Tout le système fonctionne en local, mais dès la fin de l’enregistrement, il peut publier immédiatement son cours sur la plate-forme de diffusion. De son côté, Olivier Lefebvre, ingénieur techno pédagogique au Service des usagers du numérique à l’université de Rouen-Normandie a aussi été confronté à l’explosion de la demande pour assurer la diffusion des cours des formations de santé. L’emploi de moyens traditionnels représentait une trop grosse charge de travail pour son service. Il souhaitait également unifier et regrouper les outils de diffusion et de consultation éparpillés sur plusieurs serveurs séparés avec des technologies différentes. Après avoir examiné les différents systèmes disponibles sur le marché, il a choisi d’équiper l’université avec le système Ubicast. Olivier Lefebvre explique son choix : « Je souhaitais une solution homogène couvrant les besoins de la captation jusqu’à la diffusion et la mise en ligne sans aucune intervention technique. Le système d’Ubicast couvre l’ensemble du processus. Il reste ouvert vers l’extérieur grâce à l’ajout d’API spécifiques et s’intègre donc dans le système d’information de l’université. » Comme pour l’outil d’Inwicast, le professeur s’identifie, choisit l’un des presets de réglages (cadrage, type de micro…) et démarre l’enregistrement. L’une des forces du système Ubicast réside dans l’indexation complète du contenu textuel des slides grâce à une technologie OCR (reconnaissance de caractères) et la pose de tags à chaque changement de diapositive. Cela offre un confort sans égal pour

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

19


I DOSSIER I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I

L’Université de Lyon 1 utilise le RapidMooc d’Inwicast pour enregistrer des vidéos pédagogiques comme ici avec Christophe Batier, directeur technique de l’ICAP. © ICAP – Université Lyon 1

Le système d’auto-captation RapidMooc d’Inwicast est monté sur un cha-riot pour faciliter les déplacements. © Inwicast

naviguer à l’intérieur de l’enregistrement et se caler sur un point particulier sans naviguer à l’aveugle. À la fin de l’enregistrement, le professeur choisit un profil de diffusion et le contenu est transféré vers le serveur de diffusion. L’université de Rouen a déployé seize systèmes Ubicast sur ses sept sites d’enseignement, dont onze installés à poste fixe, deux mobiles et trois pour des enregistrements en mode autocapture. Sur l’année universitaire 2016-2017, ils ont servi à la captation de 328 heures de programmes consultables par les étudiants et à la diffusion en direct de 511 heures de cours. Le service des usagers du numérique a formé une trentaine d’enseignants à son exploitation. Omnilive propose également un outil de captation et de diffusion de cours, mais avec une démarche originale de diffusion multiflux. Des études menées par le MIT ont montré que l’affichage mono-écran, même avec un dispositif multicaméras limite l’attention du spectateur ou de l’apprenant, car son attention doit se focaliser sur un cadre fixe délimité. Il subit aussi les commutations effectuées par le réalisateur qui suit sa propre logique. Les chercheurs ont constaté qu’il fallait au moins quatre points de vue pour aider à la compréhension d’un cours ou d’une conférence. En 2014, le MIT a consulté la société pour concevoir un système de transmission multiflux. Le système créé et breveté par Omnilive encode simultanément les images de quatre caméras, dont les images sont multiplexées dans un flux unique mp4. Le destinataire reçoit les quatre sources en mode PIP à droite de son écran et il choisit par un simple clic la source qu’il souhaite voir en plein écran, au gré de sa compréhension du cours et pour l’aider à reconstruire son raisonnement. Comme les quatre sources sont multiplexées dans un flux unique, la commutation est instantanée, contrairement à un système classique de streaming qui va mettre plusieurs secondes. La grande force du système développé par

20

Cyril Zajac et son équipe réside dans un encodage totalement standardisé et compatible avec tous les systèmes de streaming vidéo : serveurs, réseaux IP, et navigateurs web HTML5 avec un débit de 2 Mb/s. Aucune installation spécifique n’est requise sur le poste de consultation. Le système Omnilive est utilisé entre autres au MIT, à l’INA et à l’université Pierre et Marie-Curie.

LES SYSTÈMES D’AUTOCAPTATION

Les cours magistraux sont planifiés sur une base horaire, comme de nombreuses conférences. Leur captation aboutit à des enregistrement d’une heure au minimum, quand ce ne sont pas plusieurs heures. Et ceci avec très peu de variations dans le cadrage et la réalisation vidéo. À moins d’être passionné par le sujet, l’ennui gagne assez vite l’auditeur. L’expérience retirée de la diffusion des Mooc a montré que les modules vidéo doivent être beaucoup plus courts, de l’ordre de cinq à dix minutes, et centrés sur un thème unique. Pour créer ces modules, les outils classiques de réalisation vidéo sont tout à fait adaptés, mais exigent des moyens techniques et surtout du temps. Pour enregistrer des démonstrations de logiciels, des développeurs ont conçu des outils de screencast qui enregistrent, sous forme vidéo, toutes les actions effectuées sur l’écran de l’ordinateur. Ce principe a été repris en y ajoutant l’image du formateur capté par sa webcam. Une multitude de logiciels et d’outils sont disponibles pour capturer de manière autonome une intervention avec ou sans slides Powerpoint. Pour éviter aux enseignants d’installer des outils dédiés sur leurs machines, les plates-formes d’enregistrement de cours ou de gestion de Mooc proposent des outils d’autocaptation depuis un navigateur web. Après avoir préparé les documents d’accompagnement à afficher durant son cours, l’enseignant se connecte au service, s’enregistre via sa webcam et lance l’affichage de ses documents. Le tout est enregistré localement ou sur le serveur central.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

À la fin de l’enregistrement, il peut effectuer une lecture de validation, raccourcir ou éliminer des parties insatisfaisantes et, selon les versions, indexer les contenus, ajouter des annotations, des sous-titres, des liens externes et même des éléments de Rich Media. Pour répondre à toutes les situations d’enregistrements autonomes, Inwicast et Ubicast proposent des versions portables de leurs enregistreurs de cours. Par ailleurs, ils ont développé, sur leurs serveurs de diffusion, des portails d’autocaptation accessibles depuis un navigateur web. Ainsi, un enseignant peut enregistrer son cours depuis n’importe quel lieu sans matériel ni logiciel spécifique. Benoît Roques constate, comme beaucoup d’utilisateurs, le côté statique de la mise en forme de ce type de documents. Dans le cadre du PMF Lab de l’Université Paris 1 Panthéon Sorbonne, décrit plus haut, il a installé un plateau dédié à l’enregistrement de cours en mode individuel. Mais il souhaite aller au-delà en rendant le contenu plus dynamique, avec des annotations ou des éléments graphiques ajoutés à la volée sans exploiter des outils d’incrustation complexes. Il teste des systèmes basés sur des tablettes tactiles offrant au professeur le moyen d’animer simplement en direct les éléments graphiques affichés au cours de son intervention. Pour éviter cet affichage en double fenêtre PIP, Inwicast a lancé RapidMooc, un système complet associant un enregistreur de cours portable et un fond vert. Les slides de la présentation sont diffusées en mode plein écran en permanence et le professeur est incrusté en superposition. Le système est totalement intégré sur un chariot pour écran LCD avec la caméra PTZ fixée en haut de la colonne. D’après Fabrice Mercier, fondateur et directeur d’Inwicast, le RapidMooc rencontre un véritable succès auprès des services formation des entreprises, et supplante même les systèmes d’enregistreurs de cours.


I LES NOUVEAUX OUTILS AUDIOVISUELS DES UNIVERSITÉS I DOSSIER I

Des accès multiples pour les services de VOD universitaires Les universités produisent chaque année des milliers d’heures de contenus vidéo, sous formes de tutoriels, de cours, de conférences enregistrées et de films, sans oublier les réalisations que les étudiants doivent effectuer dans le cadre de leur cursus. Pour faciliter la consultation en ligne de toute cette production, les universités déploient une multitude de plates-formes de diffusion en VOD, mais s’appuient sur des services externes comme Canal-U ou YouTube. La dématérialisation des contenus vidéo a offert aux universités une formidable opportunité pour élargir la consultation de leur production audiovisuelle. Plutôt que de se tourner vers des services externes basés sur le cloud, elles ont privilégié leurs propres moyens pour mettre en place des platesformes de VOD. L’une des plus utilisées est la plate-forme POD, conçue et développée par l’université de Lille 1. Dorénavant, elle est maintenue et promue par le consortium Esup Portail. Nicolas Can, responsable de l’atelier de gestion vidéo dans cette université et coordinateur du projet POD à Esup Portail, définit ce service comme « une sorte de YouTube universitaire, mais où nous gardons la main sur la production des enseignants et des étudiants ». Comme sur son modèle, il n’y a pas de contrôle a priori sur la mise en ligne. POD est interconnecté au serveur d’identification de l’université et tout enseignant ou étudiant inscrit peut y déposer des contenus. Ce principe d’ouverture pour le dépôt des contenus a suscité des inquiétudes chez certains responsables. Mais d’après Nicolas Can, « il y a très peu de dérives. Tous les étudiants s’engagent sur une charte de bonne conduite générale lors de leur inscription, y compris pour ces aspects de mise en ligne. »

LA PLATE-FORME POD SUCCÈDE À AVC

La plate-forme POD dispose d’outils de recherche facilitant l’accès à un contenu précis. Les auteurs sont fortement invités à indexer de manière précise leurs documents, y compris tous les participants. Ils ont la possibilité de les enrichir avec des sous-titres, des pages web, des documents texte ou PDF, des liens URL, dont l’accès est synchronisé à celui de la vidéo, et aussi de chapitrer son déroulement. La plate-forme POD, dont la conception a démarré en 2014, remplace petit à petit le système AVC (Audio Video Cours ou Audio Video Cast) créé il a beaucoup plus longtemps par l’université de Strasbourg. Son développement a été arrêté en 2011 lorsque les moyens du service informatique ont été réorientés vers d’autres tâches plus prioritaires. Plusieurs universités sont en train de basculer leurs contenus vers d’autres plates-formes, dont POD. Les outils POD sont disponibles sous forme de logiciels open source, mais ne sont pas directement exploitables comme des logiciels édités. Chaque établissement doit le confi-

L’interface de la plateforme POD de Lille 1, avec à droite les outils de recherche multicritères, et la présentation des résultats par mots-clés. © Université Lille 1

L’interface de consultation du Mediaserver d’Ubicast avec à droite la navigation parmi les slides de la présentation, consacrée aux outils d’interactivité. © Université de Rouen

gurer et le déployer en lien avec les autres systèmes informatiques exploités sur place. Cela demande des compétences et des moyens humains. Une vingtaine d’universités ont mis en place des plates-formes de diffusion POD et une dizaine d’autres sont en train de le tester ou de le mettre en production. Les niveaux d’accès aux contenus sont paramétrables et les stratégies mises en place varient fortement d’une université à l’autre. Certaines les restreignent à un accès privé limité strictement aux enseignants et aux étudiants. D’autres, afin de valoriser leurs activités, ouvrent en partie leurs contenus au grand public. Enfin certaines s’appuient sur les Mooc pour diffuser les contenus pédagogiques et utilisent POD comme une webTV d’information culturelle sur leurs activités.

DES STRATÉGIES DE DIFFUSION FORT NOMBREUSES

En naviguant sur YouTube, on découvre qu’une multitude d’universités y ont mis en place des chaînes, tout en exploitant une plate-forme de VOD par ailleurs. Pour Nicolas Can, « ce n’est pas contradictoire. 90 % des

universités ont une chaîne YouTube. Cela répond à des besoins en termes de communication vers le grand public. POD est d’abord une plate-forme institutionnelle. » Benoît Roques de l’Université Paris 1 complète de son côté : « Nous devons choisir les modes et les supports de diffusion en adéquation avec la politique éditoriale. Une vidéo conçue pour un Mooc va dans un premier temps sur cette plate-forme dédiée. Si le document est pertinent pour le grand public, on le transfère ensuite vers Canal U, ou iTunes U et enfin YouTube. » Canal-U est la vidéothèque numérique de l’enseignement supérieur. Elle a été ouverte en 2000 et propose plus de 25 000 documents en ligne. iTunes U constitue un vecteur de diffusion encore largement consulté. Il faut également citer la vidéothèque du CNRS et les conférences universitaires diffusées sur le site de podcast de France Culture. Cette dispersion des accès nuit sans aucun doute à la consultation de cette richesse. Il serait judicieux que les instances universitaires se penchent sur la création d’un métamoteur de recherche spécifique, indexant tous ces contenus.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

21


I CONTENU I GUERRE I

Ennemi : la guerre vue par ceux qui la font Initiée par France Télévisions et Camera Lucida, l’expérience immersive et multi-utilisateurs Ennemi en réalité virtuelle de Karim Ben Khelifa, ainsi que son volet en réalité augmentée, bouleverse la manière d’aborder le journalisme. Par Annik Hémery

Pour sa première présentation au public en mai dernier à l’Institut du Monde Arabe (IMA), Ennemi n’a pas failli. Équipés de casques Oculus Rift, les spectateurs ont pu se projeter au cœur de trois conflits actuels (Israël/Palestine, Congo et Salvador) en écoutant des soldats ou miliciens répondre aux questions de Karim Ben Khelifa et expliquer les raisons de leur engagement. Et ce, pendant 50 minutes. Sans précédent, cette expérience a pris quatre années d’élaboration au photographe de guerre, qui a porté ce projet de bout en bout, et à son équipe pour mettre en place une nouvelle manière de diffuser des images de guerre et pratiquer une forme de journalisme qui devrait faire date.

AU PLUS PRÈS DES COMBATTANTS

Accompagnée par les Nouvelles Écritures de France Télévisions, la production en réalité virtuelle (production Camera Lucida) repose sur une captation documentaire de première main. L’équipe (réalisateur, assistant, chef opérateur et chef de projet VR) est revenue en effet sur les zones de conflits pour y filmer au plus près deux belligérants. La plus risquée, la rencontre avec le gang des Maras au Salvador : « Nous n’avions que deux heures pour filmer les protagonistes qui arrivaient à tour de rôle dans le mini studio que nous avions reconstitué dans un hôtel avec un fond blanc et des lumières diffuses, raconte Fabien Barati, cofondateur de Emissive, société de production de contenus immersifs. Il était hors de question de rater une prise de vue et de repartir avec des sources de mauvaise qualité. » Au Salvador comme au Congo, le procédé de prise de vues est similaire : chaque protagoniste interviewé par le réalisateur est d’abord filmé sous des angles différents par quatre appareils photo Canon, puis chaque visage est saisi en photogrammétrie et ses mouvements détectés via Faceware à partir des vidéos. Toutes ces photographies et scans vont ensuite texturer des clones 3D reconstitués et animés chez Emissive : « La crédibilité du projet reposait entre autre sur le réalisme de la représentation des combattants auxquels ont été attribués des comportements : suivre le spectateur des yeux, lui faire signe de s’avancer ou reculer si celui-ci s’approche de trop près, etc. » Prise en charge chez Emissive, la production VR suit dès lors un pipeline habituel basé sur le moteur 3D Unity. La modélisation et le rigging s’élaborent sur 3D S max (avec le plugin Cat), les textures sur ZBrush et Photoshop, et le rendu sur Substance Designer. Si les cheveux ne posent pas trop de problèmes (les combattants ayant le crâne rasé ou étant cagoulés), plusieurs shaders sont créés spécialement

22

Le réalisme des belligérants reconstitués en 3D par Emissive participe en grande partie au succès de l’expérience immersive © France Télévisions, Camera Lucida

Les combattants de Ennemi attendent que le spectateur aille à leur rencontre pour lui expliquer les raisons pour lesquelles ils se sont engagés dans la guerre. © France Télévisions, Camera Lucida

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


I GUERRE I CONTENU I

Le projet multi-utilisateurs mêle réalité virtuelle et motion capture. Chaque visiteur vit une expérience unique. © France Télévisions, Camera Lucida

Ennemi

•A  uteur-réalisateur : Karim Ben Khelifa

•C  o-producteurs : •

France Télévisions, Nouvelles Écritures, Office National du Film au Canada, DPT, INA, Emissive M  aison de production : Camera Lucida Productions (Chloé Jarry)

pour s’approcher au plus près de la réalité. De même, le lipsynch est finalisé à la main : « Le réalisateur tenait beaucoup à l’aspect journalistique de son projet et au réalisme des propos tenus par les combattants. »

EXPÉRIENCE COLLECTIVE

La confrontation ne marquerait pas autant les esprits si l’expérience en réalité virtuelle n’était que statique. Pour le réalisateur, le face-à-face avec les combattants est essentiel, lequel implique, pour les spectateurs, de se rapprocher d’eux. De cet impératif découle la mise en scène en réalité virtuelle : « Les combattants d’un même conflit arrivent dans la pièce où se tient l’utilisateur, poursuit Fabien Barati. Mais pour entendre leur point de vue, celui-ci doit se déplacer. Le même scénario se répète trois fois de suite. Pour chaque conflit évoqué, le spectateur doit changer de pièce. » Au fur et à mesure de l’élaboration du projet, l’équipe est amenée néanmoins à penser l’expérience de manière collective afin de lui donner plus d’impact. Pour sécuriser les déplacements, les participants (au nombre de 20 pour une salle de 300 mètres carrés), qui vivent tous l’expérience de manière différente, apparaissent dans les casques comme des avatars. « Cela suffit à fluidifier les déplacements, remarque Antonin Lhot, chef de projet web du département Nouvelles Écritures. Le visiteur choisit l’interlocuteur le moins entouré. » Pour résoudre toutefois le problème des câbles traînant au sol, un sac à dos (de deux kilos) a été élaboré ; il regroupe

Ennemi fait aussi l’objet d’une application mobile en réalité augmentée, à partir de la même matière documentaire et avec la même rigueur journalistique, afin d’être accessible à un plus grand nombre de spectateurs. © France Télévisions, Camera Lucida

le système de motion capture à infrarouge OptiTrack pour détecter les mouvements de la tête, la carte graphique et un processeur musclé (plus d’une heure d’autonomie). Si les premiers prototypes recouraient à des sacs à dos mis au point par Emissive, l’installation utilise aujourd’hui les VR One (MSI). Ennemi innove encore par sa dimension itinérante et sa distribution s’apparentant à celle d’un spectacle. Là encore, l’expérience serait moins forte si elle se dévoilait à partir du canapé de son salon. Après avoir été présenté à Paris, Ennemi est allé à Tel Aviv puis a passé l’été au Canada et aux USA. Dans chaque pays, la mise en scène est revue en fonction du site (et son environnement 3D est reconstruit). Mais Ennemi ne touchera véritablement

sa cible – et son message aura encore plus d’impact – lorsque l’expérience sera directement diffusée sur les zones de conflit. À cette fin, celle-ci est aussi accompagnée d’une version en réalité augmentée pour mobiles et tablettes, laquelle fait apparaître les combattants dans l’environnement du spectateur. Réalisée par le studio DPT. (Canada), l’application est téléchargeable sur Android (depuis août) et iOS 11 (à partir de septembre) : « Vu l’enjeu humaniste du projet, il est important qu’il se déploie dans l’espace public et dans des pays où le medium principal est le portable, rappelle Antonin Lhot. Contrairement à une installation en VR qui ne s’adresse qu’à un public restreint (3 000 personnes pendant 15 jours), une application en RA touche plus de monde et se fait à hauteur d’homme. »

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

23


I CONTENU I SUNNY SIDE I

Sunny Side 2017 à l’heure de la VR Les nouvelles formes de documentaire se testent au Sunny Side of the Doc (du 19 au 22 juin à La Rochelle), marché international du documentaire, qui lance PiXii (Parcours Inter– actifs d’eXpériences Immersives et Innovantes). Très prisées, les captures du réel en 360 ° VR. Par Annik Hémery Monté à l’entrée du Sunny Side, le Cube invite à expérimenter, en 360 ° et en collectif, des contenus interactifs ou conçus pour la réalité virtuelle. En accueillant les visiteurs dans cette structure légère et démontable (maximum quinze personnes), les producteurs de Black Euphoria et Bachibouzouk, à l’origine de ce nouveau dispositif de projection en forme de scène itinérante, entendent ainsi toucher des publics différents et apporter du « relief » à un contenu éditorial. Adaptés pour le Cube qui s’appuie sur la technologie de diffusion à 360 ° d’Igloo Vision (GB), les documentaires Home : Aamir (production National Theater et Surround Vision), la série Histoires d’espaces de Laurent Duret, Eldorado de Philippe Decouflé et Bruno Masi (qui fait visiter le lieu de répétition du chorégraphe), Little big whale de Fabrice Schnöller et Alexis Broca ont été diffusés... Pour sa première édition, PiXii tient aussi à rappeler la diversité des modes de diffusion (en réalité virtuelle, augmentée et immersive) qui ont cours aujourd’hui et concernent l’image documentaire. Et, au travers d’études de cas et de retours d’expériences, de favoriser les rencontres entre les producteurs de contenus VR et les porteurs de solutions technologiques pour d’éventuels partenariats. « Faute de trouver des contenus, les porteurs de dispositifs innovants sont souvent amenés, pour les valoriser, à utiliser leur propre production, remarque Stéphane Malagnac, responsable de la programmation PiXii. Au Sunny Side, les producteurs sont là. Nous avons même fait venir des acteurs de la culture digitale et représentants des lieux de médiation culturelle (office de tourisme, musée, site patrimonial, aquarium, etc.) »

Dans la scène itinérante du Cube, les productions VR diffusées dans un ratio cinéma constituent des expériences collectives © Black Euphoria et Bachibouzouk

L’installation réalisée par Moskito documente, de manière immersive et interactive, la vie des abeilles. © Moskito

LES MODES VARIÉS DE LA DIFFUSION SUR SITE

Pour exposer cette image vidéo mise en scène hors média, ont été retenus plusieurs dispositifs interactifs de médiation bien connus déjà des professionnels de la muséographie. Sous forme d’installation fixe, la grande table tactile déployée par Moskito au parc Galamé-Maison de la Nature à LoonPlage contrôle, via le déplacement d’objets tangibles, une projection sur un triple écran de documentaires sur la vie des abeilles. Empruntant pour sa part la forme (aujourd’hui très répandue) d’un parcours mobile sur tablette (via la technologie Tango de Google), la médiation en réalité augmentée, proposée par 44 Screens pour le musée de la Mer des Iles de la Madeleine, laquelle se propose de scanner en 3D et en temps réel un gigantesque squelette de cachalot, constitue un temps fort du parcours muséographique. La solution de l’immersion géolocalisée correspond à l’autre grand volet de cette

24

Le musée de la Mer et des Iles de la Madeleine dévoile ses richesses au moyen d’une application en réalité augmentée signée 44 Screens © 44 Screens

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


I SUNNY SIDE I CONTENU I

Pour la découverte de l’Abbaye aux Dames de Saintes (son histoire, mais aussi celle de la musique), Narrative propose une expérience sonore 3D immersive et innovante. © Narrative

Produit par Magnificat Films et Indigènes Productions (avec Frima au Canada), le projet de série VR Tableaux d’Histoire présente des scènes 3D figées dans lesquelles évoluent les spectateurs. © Magnificat

Films-Indigènes Productions

offre digitale. Mis à part la scène du Cube, la plupart des applications sont proposées avec un casque VR et se cantonnent à l’expérience individuelle. L’offre en documentaires VR ou vidéo 360 ° se montre suffisamment fournie pour que PiXii propose une programmation autour des thématiques du Sunny Side : Océans & Vie sauvage, Histoire, Art et Culture. Parmi ces applications, Utrillo-Valadon réalisée par Art of Corner, qui fait visiter un atelier d’artiste dans ses moindres recoins (avec un Oculus Rift ou un HTC Vive), se singularise par la qualité de sa reconstitution volumétrique obtenue via une capture photogrammétrique. Porté par Magnificat Films et Fabrice Hourlier (Indigènes Productions), le projet de série VR Tableaux d’Histoire, qui introduit des moments clés de l’histoire de France à partir de peintures figées selon le principe du « freeze motion 360 », dévoile, quant à lui, le potentiel ludo-pédagogique de telles explorations immersives. Autre découverte originale de l’histoire ou d’un patrimoine, les voyages sonores spatialisés créés par Narrative à la demande de l’Abbaye aux Dames de Saintes. L’histoire de ce lieu dédié à la musique baroque s’appréhende de manière non visuelle, mais selon un parcours sonore repéré via des balises e-beacons. À chaque station, la séquence audio déclenchée mêle récits, dialogues et musiques. De cette première expérience réalisée avec un casque HD AudioTechnica, la production a retenu des bonnes pratiques à suivre : opter pour un son 3D quand l’acoustique est complexe (salle voûtée...), enregistrer sur place et en binaural les commentaires et prévoir une signalétique physique afin de parfaire la

déambulation... Si chaque projet possède son enjeu narratif, le son spatialisé permet, mieux que l’image, d’expérimenter le réel, selon la productrice Cécile Cros. PiXii ne pouvait pas non plus passer sous silence la captivante installation interactive et sonore de Bernie Krause dévoilée lors de l’exposition Le Grand Orchestre des Animaux à la Fondation Cartier. Réalisés par Upian, ces « paysages sonores » invitant à un tour du monde des niches sonores empruntent spontanément la forme d’un orchestre avec, à gauche, les fréquences de sons émis les plus basses, et à droite, les plus élevées.

EFFERVESCENCES LOGICIELLES AUTOUR DE LA VR

Regroupées autour des porteurs de projets, des entreprises ont exposé des solutions logicielles originales autour de la VR. Concernant le storytelling, la startup luxembourgeoise Realab (Best startup à Laval Virtual 2017) a mis au point l’outil Virtelio afin d’apporter une interactivité intuitive sans recourir aux marquages habituels : « Pourquoi libérer le regard avec une vidéo 360 ° si sa découverte reste contrainte ? remarque Fred Baus, fondateur de Realab. Virtelio permet de ne pas quitter le monde de l’image et de l’immersion. » C’est en cherchant à rendre interactive une fiction VR de 13 minutes, que l’idée est née de baser l’interactivité sur les décisions inconscientes de l’utilisateur. Regarder ainsi une zone particulière de l’écran (matérialisée par un hotspot invisible) déclenche l’envoi d’une nouvelle séquence (en vidéo, 2D ou 3D), qui influera le déroulement de l’histoire. Très intuitif, le logiciel, dont l’implémentation

du son spatialisé est en cours, permet des branchements multiples et d’attribuer aux hotspots des comportements divers comme l’analyse de pourcentage (la zone de l’image la plus regardée). Distribué gratuitement, le logiciel de création VR, en béta test à l’université de Caroline du Nord, est payant dans le cadre d’une exploitation commerciale et se facture selon le nombre d’exports. Pour faire connaître Virtelio, Realab a lancé le premier concours international d’écriture de scénario interactif pour fictions à 360 °. Les résultats seront annoncés lors du festival Paris Courts Devant (14/21 novembre 2017). Acteur important du Digital Learning en France, Speedernet (Lyon) avance pour sa part l’outil de scénarisation immersive à 360 °, « Sphère », fruit d’une R&D de trois ans. Se démarquant de Wonda VR, cette solution logicielle s’adresse à une diffusion sur le WebVR et s’applique particulièrement aux scènes 3D, même si elle peut assembler aussi des vidéos à 360 ° ou des panoramiques photo. Un principe original de timeline porté sur la version 2 (prévue pour début 2018) permet d’assembler plusieurs objets et de scénariser finement l’interactivité. Les médias « enrichis » constituent dès lors un package en HTML 5 directement exploitable sur le WebVR ou jouable dans un HTC Vive. « La plupart de nos clients, qui viennent de l’industrie ou de la formation, n’ont pas besoin d’une application mobile one shot mais d’une diffusion en ligne de leur ressource VR, rapidement et pour le plus grand nombre », explique Patrick Jordikian. Pour les HCL (Hôpitaux Civils de Lyon) qui veulent mettre leurs collections (dons, matériels) à la disposition du public, Speedernet réfléchit ainsi à une application sous forme d’un musée virtuel s’élaborant à la demande. Au Sunny Side, la société lyonnaise souhaitait se rapprocher du milieu de l’audiovisuel qui la sollicite de plus en plus. Bien connue des diffuseurs et des agences publicitaires, la société Vertigo entend, quant à elle, apporter son expertise complète sur toute la chaîne de production VR : « Il ne suffit pas de déployer des drones ou des caméras 360 ° mais de réfléchir à la manière dont les outils vont nourrir le projet VR », met en garde Xavier Tessier, co-fondateur de Vertigo. Aujourd’hui, Vertigo assure de manière industrielle la captation à 360 ° en 4K stéréo (de concerts par exemple) et la postproduction au format VR (I, Philip, etc.). « Nous ne possédons pas notre propre matériel de captation, car nous préférons adapter les systèmes selon les projets, leurs conditions de tournage et surtout leurs modes de diffusion. Mais nous +++

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

25


I CONTENU I SUNNY SIDE I

Produit par Lato Sensu, Le Défi de l’aigle se découvre à la fois en 3D immersif, avec un casque Dans la collection Arte Trips, chaque œuvre analysée donne lieu à une mise en scène VR VR 360 ° ou à partir d’une plate-forme dynamique (5D). © Lato Sensu spécifique (ici, Les Ménines de Vélasquez). © Arte

arrivons toujours avec nos baies et nos outils de stitching afin de travailler les images sur place. Aujourd’hui, nous pouvons assurer des prestations de live streaming en VR. » Pour l’événementiel, le prestataire a mis au point des players maison lui permettant de gérer un parc conséquent de téléphones en simultané (compatibles avec Android). Mis en place en partenariat avec la Géode, un show room ouvert au grand public en novembre 2016 propose tout un panel d’expériences immersives croisant les genres (documentaire, fiction et film d’animation) et les dispositifs (console Playstation, HTC Vive...). L’objectif de ces ateliers, qui permettent à la Géode de reconquérir de nouveaux publics, est à la fois de démocratiser la technologie et de développer une pédagogie active autour de l’image. Parmi les expériences proposées, Le Défi de l’aigle, produit par Lato Sensu présenté en format court sur une plate-forme de cinéma dynamique. Le documentaire se découvre aussi, en version plus longue, au Muséoscope du lac de Serre-Ponçon (deux fois trente-deux places). Son déploiement a été également assuré par Vertigo qui se lance aujourd’hui dans la production VR (fiction et expérience).

LES GRANDS RÉCITS VR DES DIFFUSEURS

L’offre des diffuseurs en programmes 360° VR tend à s’étoffer même si Arte ou France Télévisions reconnaissent que la production demeure artisanale : la plupart des projets faisant appel à des développements spécifiques et ne se montrant donc guère reproductibles. Arte Creative, dont la plate-forme Arte 360 (accessible sur Google VR DayDream) a créé un appel d’air, poursuit son déploie-

ment numérique sur le documentaire, qui se découvre essentiellement en ligne : les installations sur site (musée, festival ou salles dédiées) restant minoritaires. « Il est important que nos programmes VR conçus pour iOS, Android et Samsung Gear (bientôt Oculus Rift) soient accessibles au plus grand nombre », rappelle Gilles Freissinier, directeur du développement numérique d’Arte France. Ambitieuse collection constituée autour de l’exploration en 360 ° VR de tableaux célèbres, Arte Trips, dont le premier volet portait sur La Tentation de Saint-Antoine, s’enrichit de sept nouvelles œuvres (Le Cri de Munch, Arearea de Gauguin...). Elle associe Camera Lucida, les Poissons Volants, Piw !, les Produits Frais, Cinétévé et Innerspace. Liées cette fois-ci à la programmation antenne, deux magistrales productions 360 ° VR font plonger en Polynésie française à la suite de Laurent Ballesta (Le Cinquième Rêve) au milieu du plus grand rassemblement de requins gris à la poursuite des mérous. Là encore, la chaîne de production de Requins dans la nuit de Manuel Lefevre regroupe un grand nombre de prestataires, dont Neotopy (pour la VR). Invitant également à explorer les fonds marins, le webprogramme Dolphin Man 360 ° (trois films VR coproduits avec Seppia), piloté par les équipes strasbourgeoises d’Arte, viendra en appui du documentaire franco-grec Jacques Mayol, l’homme dauphin de Lefteris Charitos. Côté fiction et jeu vidéo, le diffuseur n’est pas en reste, qui a produit le programme autonome Planète infinie, une aventure fantasmagorique de Momoko Seto (Barberousse Films et Awkeye), lequel raconte, à grand renfort de gros plans et timelapses, la Terre après l’homme. Sortie également en juin, la deu-

Altérations de Jérome Blanquet est la seconde fiction en VR produite par Arte © Arte

26

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

xième fiction VR d’Arte, Altérations de Jérome Blanquet (Okio Studios), narre la prise de contrôle des rêves d’un être humain par une intelligence artificielle. Enfin, Arte annonce pour début 2018 la sortie de son second jeu vidéo (après S.E.N.S VR), Abymes, un escape game en réalité virtuelle qui constituera le premier projet du diffuseur pour HTC Vive (production Innerspace). « Notre budget dédié au numérique ne connaît pas de hausse significative, mais la part des projets VR (quatre à cinq expériences immersives, une fiction et un à deux jeux vidéo par an) se montre plus importante que les années précédentes », souligne Gilles Freissinier. Du côté des Nouvelles Écritures chez France Télévisions, la grande affaire de 2017 reste Ennemi de Karim Ben Khelifa. Qualifiée d’« œuvre documentaire journalistique », cette production VR propulse le spectateur au cœur de trois conflits (Israël/Palestine, Congo et Salvador) et, à chaque fois, le place face à deux combattants se faisant la guerre. Le programme expérimental, qui s’appuie sur une installation en réalité virtuelle itinérante et collective (avec casque Oculus Rift), une expérience en réalité augmentée pour mobiles et tablettes et un documentaire de 52 minutes, innove à chaque étape : écriture, production, distribution et... mise en scène. « Le preshow qui introduit le sujet et le postshow (pour le debriefing) sont au moins aussi importants que l’expérience VR elle-même », prévient le chef de projet Antonin Lhot. Produit par Camera Lucida et réalisé par Emissive, le projet, fruit de quatre années de travail, a nécessité plusieurs prototypes (et de nombreux tests) avant de trouver la façon juste de mêler empathie et objectivité journalistique. Parallèlement à leur production de programmes digitaux linéaires pour Studio 4 et IRL (séries webdocu Commises d’office, DataGueule, etc.), les Nouvelles Écritures continuent à mener de front ces ambitieuses recherches narratives. Pour France 2, l’équipe de Pierre Block de Friberg a ainsi produit le thriller transmédia Libérez Émilie autour de la série Témoins (Cinétévé) : un escape game mêlant décor réel et actions virtuelles. En développement, un projet tout aussi hybride et singulier intitulé Les Passagers se situera, quant à lui, dans un vrai compartiment de train. Équipés de casques VR, les spectateurs seront priés d’entrer dans l’intimité de quatre voyageurs (production Les Produits Frais).


I CONTENU I CUBE I

Le Cube, VR mobile Déployé en avant-première, dans le cadre de PiXii pour le Sunny Side of the Doc, le Cube est un dispositif itinérant qui transforme une production VR en une expérience collective et participative. Il est porté par les sociétés de production Black Euphoria et Bachibouzouk. Rencontre avec le producteur Mathieu Rozières (Black Euphoria). Propos recueillis par Annik Hémery Sonovision : Pourquoi avoir créé, avec Laurent Duret (Bachibouzouk), cette salle VR mobile ? Mathieu Rozières : Nous voulions mettre à la disposition de l’art et de la culture une scène itinérante et innovante. Également faire venir des grands metteurs en scène et réalisateurs afin qu’ils s’approprient cet outil en créant des contenus propres. Il est important que de tels dispositifs soient créés par les producteurs de contenus. Avec le Cube, nous

renouons avec l’esprit Méliès et les premières attractions foraines... S : Vous intervenez toujours comme coproducteur des contenus diffusés ? M. R. : Nous accompagnons ces réalisateurs et adaptons leurs histoires pour le Cube. La salle, qui s’appuie sur la technologie de diffusion à 360 ° développée par Igloo Vision (GB), peut agréger toutes sortes de contenus et formats. Grâce au moteur Unity, nous visuali-

sons en temps réel la projection à l’intérieur du Cube. Concernant le Festival d’Avignon, pour lequel nous avions déjà produit en 2016 l’adaptation en VR d’Histoires d’espaces de Laurent Duret (sur les lieux de répétition des metteurs en scène), nous proposons cette année, et pour le Cube, quatre nouveaux courts-métrages à 360 ° et interactifs, dont Eldorado de Philippe Decouflé et Bruno Masi, qui fait visiter la Chaufferie, le lieu de répétition du chorégraphe à Paris. S : L’interactivité correspond aussi à un axe de développement très important... M. R. : Nous travaillons actuellement sur des outils de contrôle de l’image par le mouvement (leap lotion). L’adaptation interactive et collaborative du court-métrage La Grande Histoire d’un petit trait (réalisation Laurent Duret) permettra ainsi au public de créer des dessins, lesquels se transformeront en animations. Celles-ci influeront ensuite sur l’histoire en interagissant avec l’enfant narrateur. Pour son projet On/Off sur la réanimation en secteur médical, nous allons intégrer une performance d’acteur. Plus généralement, les dispositifs de capture émotionnelle (avec des capteurs galvaniques) ou les appareils connectés nous intéressent en agissant sur le déroulé du récit.

Black Euphoria et Bachibouzouk produisent et diffusent des contenus VR pour le Cube, une salle itinérante qui se monte en une seule journée © Black Euphoria

S : Vous distribuez aussi des productions que vous avez adaptées ? M. R. : Outre des films dédiés, notre catalogue comporte des adaptations comme Home : Aamir, un documentaire de 13 minutes en 360 ° sur le parcours d’un réfugié jusque dans la jungle de Calais (production National Theater et Surround Vision) ; Little big Whale, le court-métrage en VR de 7 minutes de Fabrice Schnöller et Alexis Broca (produit par Click Research)... S : L’avantage du Cube, sur les autres salles dédiées à la VR, réside dans sa légèreté de mise en place... M. R. : Le Cube, prévu pour accueillir une quinzaine de personnes, se présente sous la forme d’une structure cylindrique en toile tendue de sept mètres de diamètre. Nous insistons beaucoup sur la légèreté et la portabilité du dispositif qui se monte en une seule journée et dont la programmation se pilote au moyen d’un iPad. Toute l’infrastructure audiovisuelle tient dans trois flycases contenant la régie et cinq projecteurs BenQ... Nous mettrons bientôt en place un nouveau media server communiquant avec Unity.

Conçue spécifiquement pour le Cube, la pièce VR Eldorado de Philippe Découflé et Bruno Masi introduit le lieu de création et de répétition du chorégraphe. © Black Euphoria

28

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


HELO : streaming, enregistrement et transport Nouvelle génération pour les workflows de streaming H.264 HELO est le nouvel outil autonome d’enregistrement et de streaming H.264 de AJA avec des entrées sorties SDI et HDMI dans un seul appareil. Simultanément, streamez vers un CDN, encodez et enregistrez des fichiers de grande qualité en H.264 sur des cartes mémoires SD, des clés USB ou vers des stockages en réseau. HELO offre une panoplie d’options de workflows avec des entrées sorties en 3G-SDI et HDMI et la puissance de gérer des formats d’enregistrement jusqu’en 1080p. Ce petit appareil portable possède des boutons dédiés à l’enregistrement et au streaming pour les situations de direct et une interface utilisateur de type web pour des configurations faciles.

Stream

Enregistrement

Encodage

Streaming simplifié.

“Live” signifie le direct et le direct veut dire le stress.

Performances au top. Résultats hors pair.

Une connexion USB et l’interface utilisateur d’un explorateur internet fiable permettent des réglages faciles et poussés de la connexion au CDN. Lorsque vous êtes prêts pour le streaming, pressez un bouton et délivrez vos images avec des options flexibles de support.

|

En savior plus sur www.aja.com

HELO est doté d’un bouton REC dédié situé en façade de l’appareil pour des enregistrements instantanés.

HELO encode en H.264/MPEG-4 garantissant l’efficacité de la bande passante et le support avec une large gamme de types de fichiers.

Connectez une clé USB, une carte mémoire SD ou un stockage réseau formatés en NTFS 3.1 ou en FAT 32 et vous êtes prêts pour démarrer.

Éventail de compatibilités étendues: des tablettes aux smartphones et aux ordis de bureau, sans conversion.


I TECHNIQUE I DÉFIS I

Immersion et interactivité, les deux défis du musée Au service du visiteur, le numérique est en passe de devenir un outil comme un autre, à condition que le musée se dote d’une médiation sur mesure. Par Annik Hémery

Conçu par Mazedia, le parcours mobile de l’abbaye de Maillezais comporte à la fois de la réalité augmentée sur tablette et un mode cardboard immersif qui permet de voir à 360 ° une reconstitution en 3D. © Mazedia et MG Design

Les pratiques muséales vivent une mutation sans précédent avec l’arrivée du numérique qui transforme la médiation. L’offre d’outils numériques d’aide à la visite et l’expérience de visite – avant, pendant et après – se trouvent aujourd’hui au cœur des préoccupations des musées et des villes. Aux maîtres d’ouvrages, qui parfois bénéficient d’une AMO audiovisuelle et multimédia (assistance à maîtrise d’ouvrage), d’identifier les réels besoins du site, qui n’est plus limité à un espace physique, et de choisir en fonction les outils numériques parmi une offre de plus en plus étendue de dispositifs immersifs et interactifs. Ceci afin de renouveler en profondeur l’expérience de visite pour un visiteur de plus en plus actif.

30

L’OFFRE IMMERSIVE DES MUSÉES

L’audiovisuel fait depuis longtemps partie des outils de médiation des musées. Certains d’entre eux, comme le MuCEM à Marseille, le portent même au cœur de leurs collections comme patrimoine immatériel. L’offre d’une expérience de médiation véritablement immersive à base de multi-écrans (ou de projections 360 °) n’est toutefois apparue que progressivement de manière pérenne. En France, plusieurs parcours scénographiques avec immersion audiovisuelle font date. L’Historial Charles de Gaulle à Paris, qui fêtera bientôt ses dix ans, introduit magistralement l’épopée gaullienne au moyen d’un multi-écran signé Olivier L. Brunet. L’Historial Jeanne d’Arc à Rouen base tout son parcours

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

de visite sur une scénographie audiovisuelle constituée par un « film » d’une durée de 50 minutes, lequel se découvre en vidéomapping, projection sur tulle, écrans courbes ou verre, via des écrans synchronisés... La Cité du Vin à Bordeaux et le Centre international de l’Art pariétal Lascaux 4 jouent, quant à eux, à fond sur la diversité et l’ampleur des configurations immersives : salle immersive à 200 °, théâtre filmé et multi-écrans pour la première ; vidéomappings 3D sur fac-similés à échelle un, cinéma 3D et canopée d’écrans synchrones pour le second. Cette scénographie immersive, qui interpelle les scénographes, mais aussi les sociétés de production audiovisuelle, bénéficie de technologies de vidéoprojection, comme ces projec-


I DÉFIS I TECHNIQUE I

Surfaces tactiles, bornes, tables « tangibles » grand format, dispositifs recourant à des interfaces de type Kinect… Les musées jouent la carte de l’interactivité Plusieurs expériences immersives ponctuent la Cité du Vin à Bordeaux. Ici, le Tour du monde des vignobles. © Anaka/La Cité

du Vin/Casson Mann

teurs équipés d’ultra-courtes focales (projecteurs Tri-DLP Panasonic à optique détachable, projecteurs Led laser Sony avec edge blending intégré...), qui apportent beaucoup plus de flexibilité dans sa mise en place. Participent aussi au déploiement de ces projections aux calages parfois délicats, des logiciels de vidéomapping et média serveurs de plus en plus performants : Dataton Watchout V6 avec serveurs Pro multi-flux ou Watchpax 4, Modulo Player, Ultra DVP 4K mono flux de RSF (non encore commercialisé)... Reste, comme le rappelle Claire Davanture, assistante à la maîtrise d’ouvrage audiovisuelle et multimédia sur La Cité du Vin, qu’une scénographie audiovisuelle ne peut faire l’économie d’un programme muséographique en amont et que l’image ne doit pas être uniquement au service du spectaculaire, mais raconter une histoire.

Réalisé par Olivier Brunet, le « film » de Jeanne se déploie à l’Historial Jeanne d’Arc. © Historial Jeanne d’Arc

INTERACTIFS, L’EMBARRAS DU CHOIX

La plupart des musées enrichissent leurs offres pédagogiques en incluant, dans leurs expériences de visite, des dispositifs multimédia et interactifs : surfaces tactiles, bornes, tables « tangibles » grand format, dispositifs recourant à des interfaces de type Kinect... Reste à connecter – et déclencher dans la langue du visiteur – tous ces interactifs afin que la visite devienne mobile et « mémorable ». Cette interface utilisateur ou guide numérique, gérée par le même show control assurant l’automatisation de ces équipements, se sophistique de plus en plus. Outre le déclenchement des modules audiovisuels (par infrarouge ou radiofréquence), elle inclut la synchronisation labiale et la géolocalisation du visiteur (par balises ibeacons, wifi, UWB...) qui peut ainsi recevoir en temps réel de nouvelles informations et informer par là même l’exploitant de son parcours. Développé par Tonwelt, le Cdv (compagnon de voyage) de la Cité du Vin à Bordeaux, richement dotée en +++

Dans le parcours de visite à Lascaux 4, une canopée d’écrans synchrones. © Videmus

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

31


I TECHNIQUE I DÉFIS I

Conçu par 44 Screens, le parcours mobile à Paris retrace en réalité augmentée la vie de Napoléon en s’arrêtant sur les endroits qu’il a fréquentés. © 44 Screens

Fermée, la maison de Pierre Loti se parcourt en réalité virtuelle avec ou sans casque (HTC Vive). © MG Design

Indispensable à la visite de la Cité du Vin, le Compagnon de Voyage développé par Tonwelt/Comediart. © Anaka/La Cité du Vin/Casson Mann

dispositifs interactifs, est l’un des plus aboutis avec 250 points d’écoute. De même, le guide numérique de Lascaux (mis au point par Orpheo) agrège nombre de fonctions inédites de médiation, dont une « Torche ». Tous les établissements ne nécessitent pas de tels équipements. L’expérience de visite peut faire aussi l’objet d’une application à télécharger sur le smartphone ou la tablette du visiteur. Disponibles sur les stores en ligne, ces applications comportent aussi la géolocalisation et la reconnaissance d’images. C’est cette option que le Louvre, qui possède peu d’interactifs, a choisie en remplacement de ses audioguides sur Nintendo. Grâce à l’application native Louvre, ma visite (par SmartApps), qui a nécessité la mise en place de 2 000 balises BLE, le visiteur peut retrouver son chemin, localiser les œuvres et avoir accès à du contenu audio (etc.). Pour faciliter la publication de telles applications, des plates-formes web paramétrables (image, texte, son et vidéo) et administrables sont à la disposition des musées. Là encore, l’offre est abondante : SmartPublisher de SmartApps, Wezit de Mazedia...

32

Comme alternatives au téléchargement, les webapps (aux fonctionnalités plus limitées) sont utilisées. Initiée par Twelve Solutions, la solution WiVi (pour Wireless Visit), qui peut être étendue aux territoires (WiPath), comprend pour sa part le logiciel, un scénario de visite sur mesure et l’installation d’un WiFi privé sous forme de bornes.

en donnant à voir, en réalité augmentée et géolocalisée, les plages du débarquement à Arromanches. Parfois, ces parcours de visite s’accompagnent de sons et lumières, voire de vidéomappings. Comme celui de la Citadelle de Verdun qui a fait l’objet d’une découverte inédite en nacelle (Maskarade et Moving Stars).

EN PRIME, LA RÉALITÉ VIRTUELLE OU AUGMENTÉE

La réalité virtuelle (avec ou sans casque), qui autorise une immersion dans les lieux, s’invite dans cette offre de visite ou de médiation. En attente de sa réouverture, la maison Pierre Loti à Rochefort affecte ainsi une salle de projection. Équipés de lunettes 3D, les visiteurs pilotés par un guide muni d’une tablette peuvent se promener dans les différentes pièces (MG Design). Lascaux 4 dédie un espace protégé à cette visite virtuelle, qui se fait ici avec un casque Oculus Rift, tandis que son CDV inclut, à des endroits clés, des expériences en réalité augmentée : remontée dans le temps, manipulation d’objets virtuels. Certains parcours de visites « mixtes » commencent à s’affranchir de ces limitations. Ainsi le parcours à l’abbaye de Maillezais, conçu par Mazedia, a fait le choix d’intégrer, dans

Les sites touristiques sont de plus en plus nombreux aujourd’hui à proposer une découverte de leur patrimoine au moyen d’une application mobile qui superpose sur la vue existante des éléments informatifs, voire des reconstitutions 3D. La ville de Bordeaux a été l’une des premières à faire découvrir son patrimoine du XVIIIe siècle à l’aide du dispositif Imayana conçu par Axyz. Toujours en réalité augmentée, se découvrent sur iPad Perpignan, Poitiers et Avignon (Art Graphique et Patrimoine). Dès l’été 2017, Paris se parcourra avec une application 360 ° conçue par 44 Screens, laquelle pointera vers les sites napoléoniens. Cinq ans auparavant, la société (avec Biplan) s’était fait remarquer

SONOVISION I septembre - octobre - novembre 2017 I numéro 8


I DÉFIS I TECHNIQUE I

Installé sur un belvédère, le dispositif en réalité virtuelle du Chronographe à Rezé propose une immersion collective à 360 ° dans l’époque gallo-romaine. Avec MG Design, Axians et 100 Millions de Pixels. © MG Design

L’application Louvre : ma visite de SmartApps a reçu le prix du meilleur dispositif in situ lors des Rencontres Nationales Culture & Innovation du Clic. © SmartApps

son parcours mobile extérieur sur tablette, une vision virtuelle (avec un cardboard) élaborée par MG Design. Malgré cette offre qui s’étoffe de plus en plus, aucune étude approfondie sur les modalités d’usage de la réalité augmentée n’a été conduite. Lancés par Mazedia en septembre 2016 sous forme de think tank, les ateliers Wezitcamp croisent les expériences menées en France et à l’étranger, et livrent leurs conclusions en open source sur un site collaboratif : « De la manière dont le visiteur s’approprie ces techniques, nous pouvons mieux adapter notre offre aux besoins des sites ou musées et optimiser ces scénographies digitales », remarque Vincent Roirand (Mazedia). L’étude montre aussi que la réalité augmentée ne constitue pas le cœur de l’expérience de visite, mais est considérée comme un « appendice » par le musée qui l’utilise lorsqu’il veut contextualiser un propos. Si les solutions de calage multi-plates-formes pour la réalité augmentée deviennent de plus en plus fiables, la réalité virtuelle (sur casque) ne rejoindra les autres outils de médiation du musée que lorsque les équipements seront familiers aux visiteurs, ce qui présuppose qu’ils se soient stabilisés. Pour l’instant, les casques en réalité virtuelle sont utilisés au mieux de leurs spécificités : l’Oculus Rift pour visualiser des maquettes 3D complexes, le casque HTC Vive pour les déplacements avec interactions, le cardboard de Google pour sa simplicité de

mise en œuvre. Très attendus, des casques réglables comme les lunettes Epson Morevio 350 permettront enfin au jeune public de partager ces parcours en réalité virtuelle jusqu’ici interdits aux moins de 12 ans. Des prestataires contournent ces limitations en revenant à... la borne qui offre l’avantage de s’adresser à tous les publics. S’inspirant du dispositif mis en place dès 2009 par On Situ à l’abbaye de Cluny, les bornes orientables en réalité virtuelle récemment installées par Timescope sur la place de la Bastille et dans la zone transit de l’aéroport Charles-

de-Gaulle offrent des reconstitutions 3D et à 360 ° (payantes) du quartier à différentes époques ou un survol de Paris. C’est encore une borne orientable qui fait découvrir, au Chronographe à Rezé, une reconstitution en 3D du port à l’époque gallo-romaine. Développé par MG Design et 100 Millions de Pixels, le dispositif de réalité augmentée comporte des caméras situées autour du belvédère. Et surtout un écran 42 pouces qui permet enfin à l’expérience de visite d’acquérir une dimension plus collective.

La borne en réalité virtuelle mise au point par Timescope permet, en une minute, de visualiser en 3D et à 360 ° le quartier de la Bastille à différentes époques. © Damien Arlettaz

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

33


I TECHNIQUE I LIVE I

La production et la diffusion live légère Vous souhaitez faire partager à un public large vos événements, bienvenue dans le monde de la diffusion live de vos productions, bienvenue dans l’univers du streaming en perpétuel mouvement de démocratisation. Oui mais produire à partir de quoi ? et pour quel coût ? Votre car régie 4K 12 tonnes bien entendu ! ou votre smartphone. Entre les deux, les solutions sont pléthoriques. C’est tellement vrai que nous n’aurons pas la prétention de faire un « topo » ou un « résumé » de la situation, mais plutôt de vous proposer une introduction dans ce monde passionnant. Vous êtes prêt ? Allons y ! Par Loïc Gagnant

DIFFUSION

Avant que vous ne fassiez la remarque : oui, nous commençons par la fin, la diffusion ; cela nous semble indispensable pour comprendre les autres étapes. La vidéo que vous allez produire pour votre événement devra être encodée dans un format adapté à la diffusion et intégrée à un protocole réseau : le RTMP. Arrêtons-nous sur ce sigle barbare : le RTMP signifie Real Time Messaging Protocol ; c’est un protocole réseau propriétaire développé par Adobe Systems pour la diffusion de flux de données (audio, vidéo et autre) en streaming. En 2009, Adobe a publié les spécifications de ce protocole, une date pas si lointaine ! Donc vos outils de diffusion (par exemple YouTube Live) vous fourniront une adresse web (URL) RTMP, adresse débutant par rtmp://…, ainsi qu’une clé de codage pour sécuriser votre canal de diffusion (ces paramètres se trouvent dans l’onglet configuration de l’encodeur pour YouTube). Si vous êtes adepte de la simplicité maximum, YouTube Live vous permet de vous passer de logiciel d’encodage. Il vous suffira de créer un événement en direct en laissant le type sur rapide ; YouTube Live utilisera alors votre webcam sans aucune configuration de votre part. Facebook Live, une autre partie de la révolution du live. La simplicité est la première option, puisqu’il vous suffit d’un ou deux clics pour proposer directement une diffusion live depuis votre smartphone ou votre ordinateur ; avec la possibilité d’interagir via messages avec vos « viewers ». On pourra cependant toujours passer par un encodeur externe ; les informations de configuration de ce dernier (adresse RTMP et clé du flux) étant accessible dans l’onglet appareil externe (après avoir cliqué sur vidéo en direct). Sur votre application mobile il suffit encore

plus simplement de cliquer sur « votre story » pour accéder à l’interface de live et utiliser la caméra de votre appareil. La durée maximum d’un live Facebook est de quatre heures. Pour ne pas se faire distancer, twitter a intégré la fonctionnalité live en fin 2016. Twitch est une autre application de streaming, avec une cible précise et très vaste : les gamers. Des fonctionnalités ont été adaptées à la capture vidéo de l’écran informatique (pendant une partie endiablée de League of Legends) simultanément à l’intégration de votre vidéo. Périscope, bien entendu, permet une diffusion vidéo live ; c’est même la raison d’être de cette application pour iOS et Android. L’application est née d’une frustration, celle ressentie par Kayvon Beykpour à l’occasion du mouvement protestataire de 2013 au parc Gezi d’Istanbul. En se connectant à Twitter, il ne pouvait (à l’époque) accéder qu’à des informations textuelles. Il s’en est suivi, en février 2014, la création de l’application Périscope (sous le nom initial Bounty) avec Joe Bernstein. Et en 2015 son acquisition par Twitter pour un montant compris entre 50 et 100 millions de dollars américains. Avant l’arrivée de ces géants du streaming, des sociétés s’étaient spécialisées dans la fourniture d’offre de webcasting. Elles se nomment Livestream, IBM Cloud Video (anciennement Ustream), et Wowza parmi les plus importantes. Ces trois plates-formes de diffusion en direct sur Internet proposent des offres payantes, et pour Livestream des solutions logicielles et/ ou hardware de réalisation multicaméra. Les options tarifaires dépendent des choix éditoriaux et techniques (gestion de la publicité, VOD, enregistrement de flux, analyses…) et sont déclinées en tarifs mensuels ; certaines

Bouton de lancement d’un Facebook live.

34

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

Interface de Tweeter et bouton pour passer en live video.

plates-formes permettant un paiement à l’évènement en complément d’un forfait. Les tarifs s’échelonnent de 42 à 800 dollars mensuels pour Livestream, de 99 à 999 dollars pour IBM Cloud Video.

ENCODAGE, RÉALISATION MULTICAMÉRA ET HABILLAGE :

Lorsque l’on souhaite aller plus loin qu’une simple webcam, comme précisé au début de l’article, il faut encoder le signal vidéo issu de votre source vidéo (de la caméra pro jusqu’à la régie multicaméra). Plusieurs options sont proposées. Il existe des encodeurs hardware et des encodeurs logiciels, avec des versions gratuites. Cette fonctionnalité d’encodage pouvant également être intégrée aux outils de réalisation multicaméra et d’habillage, nous y reviendrons.


I LIVE I TECHNIQUE I

LES LOGICIELS D’ENCODAGE GRATUITS OU À FAIBLE COÛT :

XSplit (Windows uniquement) propose deux versions de son logiciel, XSplit Broadcaster et XSplit Gamecaster dédié au jeux vidéo. Pour la version Broadcaster XSplit propose une version personnelle gratuite et une version commerciale (de 4,17 à 8,32 dollars mensuels). En plus de l’encodage, vous disposez de fonctionnalités évoluées comme le chroma key (incrustation fond vert). FFSplit est un outil gratuit disponible sur Windows uniquement, qui présente l’avantage d’être peu gourmand en ressources matérielles ; il permet la capture et l’enregistrement de votre écran d’ordinateur et de votre webcam. Open Broadcaster, disponible pour Mac, PC et Linux est entièrement gratuit. Il permet l’enregistrement et le streaming de différents flux et médias, et cela depuis une carte d’acquisition, une webcam, un flux VLC et même la capture de votre écran d’ordinateur.

Wirecast Gear, solution matérielle de telestream avec le logiciel Wirecast.

TELESTREAM WIRECAST

Telestream est un éditeur et constructeur américain spécialiste des solutions de capture, d’encodage, et de transcodage. La marque est réputée parmi les professionnels du broadcast. L’offre que la marque nous propose pour le streaming se nomme Wirecast et se décline en version normale, en version pro et en version mobile sous le nom Wirecast Go (avec la possibilité de diffuser directement sur YouTube ou sur votre propre serveur RTMP). Offerte contre le déboursement de 495 dollars, l’application Wirecast Studio 7 est développée pour Mac et PC. Elle permet l’acquisition d’un nombre illimité d’entrées (caméras, caméras iOS, captures d’écran). Wirecast permet un encodage multiformat et la diffusion live jusqu’au format 1080p via un encodage flash et mainconcept H264 et X264, WMV ou MJpeg. Un streaming peut être préparé pour plusieurs destinations, dont 30 destinations intégrées, ou votre propre configuration de destination RTMP : Facebook Live, YouTube Live, Twitch, Microsoft Azure, DaCast, Churchstreaming.tv, Wowza. Les fonctionnalités de qualité professionnelle proposées sont nombreuses et peuvent être étendues via des plugins : captures d’écran à distance (remote desktop), ajout de délais temporels aux différentes sources (pour compenser les différences), préparation de playlists. On peut aller jusqu’à préparer des playlists, même pour des diffusions live, en choisissant et modifiant la durée de chaque plan (chaque caméra ou chaque média vidéo diffusés). Véritable régie, Wirecast permet la commutation live des flux avec ou sans effets, l’intégration de titres animés et d’animations infographiques, ainsi que la préparation de transitions.

Wirecast Go, application de streaming sur smartphone de Telestream.

La version Wirecast Pro 7 étend encore les fonctionnalités avec le support de caméras IP, l’incrustation en ChromaKey (fond vert ou fond bleu), l’utilisation de studios virtuels en 3D, la préparation de panneaux de score (pour le sport), l’enregistrement parallèle du flux vidéo diffusé en live (enregistrement ISO), la rediffusion instantanée, le support des entrées HDV, l’entrée de flux vidéo web. Dans les dernières versions de Wirecast, le support du protocole NDI a été ajouté. NDI est une norme libre de droit permettant d’échanger des sources vidéos sur tout système intégrant la technologie. Avec Wirecast on peut (dans la version pro) envoyer la sortie du programme préparé vers un « flux » NDI. On pourra alors, à partir d’un simple player, par exemple VLC via un plugin, diffuser le flux préparé par l’intermédiaire de Wirecast sur un écran. C’est parfait pour la préparation d’un streaming live pendant lequel vous avez souvent besoin de pouvoir diffuser l’évènement sur le lieu de captation (autre salle ou écran géant).On pourra également préparer un flux NDI via un premier Wirecast qui sera utilisé en source dans un second Wirecast (les entrées NDI sont également possible) ; je vous

laisse imaginer les applications ! Des plugins sont également disponibles pour les applications Adobe Creative Cloud, permettant par exemple d’utiliser le résultat de l’application Character Animator qui vous permet d’animer automatiquement et en temps réel un personnage virtuel via vos mouvements de visage (comme l’illustre la marque sur sa vidéo de présentation de l’application), ou plus simplement de diffuser la sortie d’Adobe Premiere ou Adobe After Effects.

HARDWARE DE LA SÉRIE WIRECAST

Fort de la qualité de son offre logicielle, Telestream propose des solutions matérielles sur base PC sous Windows en châssis rackable ou set-top boxes. Ces stations offrent quatre entrées physiques HDMI ou SDI auxquelles vous pouvez ajouter des sources additionnelles : caméras IP, écrans d’ordinateurs, vidéos et images fixes. Les tarifs des trois versions du Wirecast Gear (110, 210 et 220) s’échelonnent de 5 000 à 8 000 dollars. Les différences étant le type d’entrées (HDMI ou SDI), la taille du stockage, et le type du logiciel de titrage et d’animation graphique (NewBlue Titler). +++

Facebook Live, YouTube, Twitter, Periscope, Twitch, Wowza, Dacast, Livestream et Akamai, Dacast, Bambuser, Microsoft Azure... La liste reste ouverte ! SONOVISION I septembre - octobre - novembre 2017 I numéro 8

35


I TECHNIQUE I LIVE I

LIVESTREAM

La célèbre plate-forme de diffusion a débuté son activité en 2007 sous le nom Mogulus, avec une offre gratuite ; en mai 2009, elle est devenue Livestream. La plate-forme ne s’est pas contentée de son activité principale, en proposant l’ensemble des outils nécessaires à la réalisation multicaméra et à l’encodage des flux de streaming, que ce soit en versions logicielles, gratuites ou payantes, mais également en versions hardware ; c’est l’écosystème le plus complet que propose la marque. Aujourd’hui l’offre est complétée par une ingénieuse caméra, la Mévo, dont nous vous dévoilerons les principales caractéristiques d’ici quelques lignes.

LES SOLUTIONS LOGICIELLES DE LIVESTREAM

Livestream producer for mobile Développée et testée en collaboration avec le spécialiste du « base jump », Chris Douggs McDougall, l’application de diffusion live depuis smartphone de Livestream propose maintenant le support des caméras GoPro (uniquement sur iOS). Elle offre une solution de « chat ». Livestream producer Les versions Mac et PC de l’application sont gratuites. Elles permettent de diffuser en live sur la plate-forme Livestream, avec la création simultanée de plusieurs flux de diffusion. Il est possible d’utiliser votre webcam ou un matériel plus professionnel (caméra ou régie) dont le flux vidéo sera acquis via une large liste de matériels supportés parmi les solutions de Blackmagic, de Canopus d’Osprey et de Matrox. On peut ajouter à ces flux vidéos la capture d’un écran d’ordinateur. Livestream producer permet d’intégrer un player vidéo sur le site Internet de l’utilisateur et d’envoyer des notifications au public lors du lancement du live, des informations analytiques sur le public sont collectées (nombre de spectateurs, heures et durées des visionnages). Studio 4.6 Livestream propose une application plus haut de gamme payante (799 dollars ou 42 dollars par mois). Cette solution offre des entrées pour caméras, caméras pilotées et également des entrées « lecteurs médias » pour diffuser des reportages et des films vidéo, ainsi que des pistes pour des animations infographiques. Ce logiciel n’est pas limité à la diffusion sur Livestream et permet de diriger le flux réalisé vers les solutions de streaming évoquées dans cet article (et les autres !). L’outil permet la commutation live HD sans décrochage, l’affichage jusqu’à quatre écrans « multiviews », l’enregistrement des médias (ISO), et la sortie du flux vidéo.

L’OFFRE MATÉRIELLE DE LIVESTREAM

Broadcaster Pro Parmi les options pour une diffusion live, le Broadcaster Pro est un boîtier alimenté par batterie interne, convertissant toute caméra disposant d’une sortie HDMI en caméra de streaming. Le tarif est de 599 dollars. L’encodage se fait en H.264/AAC jusqu’au 1080p à 5 Mbps. La diffusion se fait soit via wifi (2,4 ou 5 GHz), via le port Ethernet, ou en utilisant un modem 4G LTE connecté en USB.

36

Régie multicaméra tout en un Livestream Studio HD550 avec fonctionnalités de streaming. © Emmanuelle Jaïs / Post Logic

On peut prévisualiser le flux sur l’application Livestream pour smartphone ou ordinateur, ou travailler en totale autonomie via le joystick et la prise casque pour contrôler le son. Studio HD31 : le mélangeur physique d’entrée de gamme Les solutions matérielles de commutation vidéo de Livestream viennent compléter l’offre logicielle « studio » et comportent donc, de base, toutes les fonctionnalités du logiciel studio 4.6. Le studio HD31 comporte trois entrées HD-SDI ou HDMI et supporte le streaming et l’encodage HD. On peut connecter deux écrans, lire deux pistes de médias (vidéos enregistrées), trois pistes de graphiques (titrages ou habillage), enregistrer 40 heures de flux vidéo, et utiliser dix pistes de caméras « remote ». Ces caméras « remote » peuvent provenir d’un autre PC ou d’un Mac, d’un flux Apple Airplay, d’une caméra Mevo (voir ci-dessous), d’un appareil iOS, d’un appareil Android, d’un Broadcaster ou d’une GoPro. On peut ainsi imaginer, lors de la réalisation d’un live de concert, augmenter ses trois sources disponibles directement connectées au mélangeur avec les flux de volontaires assistant au concert et filmant à partir de leurs smartphones. Le tarif est de 3 999 dollars. Studio HD51 Disponible en version HD (6 990 dollars) ou 4K (8 999 dollars), cette solution propose cinq entrées HDMI ou SDI et une sortie HDMI/SDI. Studio HD 550 C’est une solution tout-en-un portable, disponible également en HD (7 999 dollars) et 4K (9 999 dollars). Avec cinq entrées et une sortie HDMI/SDI et deux entrées XL, sa compacité est idéale pour une installation rapide. Elle reprend toutes les caractéristiques du logiciel studio déjà décrites. Surface Go Pour compléter ses mélangeurs, Livestream propose une surface de contrôle gérant cinq entrées, trois contrôles de pistes graphiques, une touche de départ en direct et une touche d’enregistrement. IBM Cloud Video Anciennement Ustream, IBM Cloud Vidéo est le concurrent direct de Livestream et propose donc logiquement une offre approchante. Application mobile Disponible pour iPhone, iPad et Android, cette application permet de diffuser sur Ustream via les réseaux 3G, 4G/LTE ou wifi.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

Web Broadcaster Ustream propose une application web pour diffuser directement sur sa plate-forme via une webcam, avec la possibilité d’interagir avec ses spectateurs grâce à l’intégration directe de Facebook et de Twitter, et la possibilité d’enregistrer les flux produits pour la préparation de la VOD. Ustream Producer Le logiciel est décliné en deux versions et une version bridée. Il permet une réalisation multicaméra professionnelle à partir d’un Mac ou d’un PC et un streaming HD 1080p. La version Producer Studio (299 dollars) permet le mélange multicaméra, l’incrustation fond vert (ou bleu) avec studio virtuel, l’enregistrement sur Ustream et sur votre ordinateur, l’ajout d’habillages graphiques, de vidéos et de musiques, l’insertion de « feed » twitter, la préparation de playlists et la capture d’écran. La version Pro ajoute la rediffusion instantanée (instant replay), des fonctionnalités audio évoluées et un panneau d’affichage de scores (tarif : 549 dollars). Pour le matériel, Ustream a choisi de certifier différents constructeurs plutôt que de développer ses propres solutions de mélangeurs multicaméra ou d’encodage hardware.

AUTRES SOLUTIONS MATÉRIELLES

Boîtier d’aquisition streaming compact Teradek propose le VidiU, une solution qui ressemble physiquement et au niveau des caractéristiques au Broadcaster de Livestream (tarif : 699 dollars). Deux solutions plus haut de gamme, le Cube (à partir de 1 090 dollars) et le Bond (à partir de 2 490 dollars) sont proposées ; elles offrent une construction plus qualitative et des débits augmentés (jusqu’à 15 Mbits/s pour le Cube). Une version 360 ° est également disponible, acceptant des rigs jusqu’à huit caméras ! Teradek propose également une application iOS (iPad et iPhone), Live : Air iOS Video Production Suite Vous pouvez commuter entre les différentes caméras connectées à des VidiU ou autres encodeurs Teradek, et des iPhones ou iPad utilisant l’application Live:Air Remote. Vous pouvez enrichir votre programme avec des graphiques et des vidéos préenregistrées et diffuser en live votre réalisation sur les plates-formes habituelles. Encodeur Matrox Monarch H.264 Matrox propose une série d’encodeurs simple d’utilisation pour le streaming et l’enregis-


I LIVE I TECHNIQUE I

TriCaster mini régie intégré de Newtek.

Solution de streaming live et d’encodage H.264 Teradek Cube.

Boîtier d’encodage et d’enregistrement Matrox Monarch HDX.

Régie multicaméra Newtek Tricaster Les produits tricaster de Newtek sont des régies multicaméra intégrées puissantes. Peut-être plus connus que les autres produits présentés dans ces lignes, nous nous contenterons de préciser ici que des fonctionnalités de streaming y sont nativement présentes, notamment l’intégration directe à Ustream.

Sony propose également des modèles de caméras avec fonctionnalités de streaming, telles les PXW-X70, PXW-X200 et PXW-X500. Les configurations des solutions de streaming intégrées à la caméra peuvent présenter une alternative intéressante, mais restent cependant, pour l’instant, moins complètes que les solutions externes. Pour l’anecdote, JVC avait déjà proposé, en 2002, une caméra offrant un enregistrement interne et une diffusion en streaming : la GY-DV300 et son boîtier de streaming le KADV300U (wireless web-streaming adapter kit) qui se positionnait sous la caméra (une sorte de pré-semelle).

LES CAMÉRAS

CAMERA IP

ou passer à une autre valeur de plan directement : « comme si vous aviez accès à plusieurs caméras à partir d’une seule ». Vous pouvez également laisser Mevo faire le travail pour vous. Via un mode d’autopilotage intuitif la Mevo vous propose sa propre réalisation basée sur une détection des personnes et un suivi automatique de l’action ; vous n’avez plus qu’à regarder ! Des filtres sont également inclus dans l’application pour améliorer ou customiser vos plans. Le capteur 4K de la caméra est précédé par un objectif en verre offrant un angle de vue de 150 ° et un microphone stéréo intégré. L’anneau lumineux à Led vous informe notamment sur la présence de la connexion wifi, sur la vie de la batterie. Pour la connexion au réseau, un port Ethernet est disponible ; vous pouvez vous connecter en 4G LTE via l’ajout d’un modem dédié.

trement sur carte mémoire, avec entrée en HDMI ou SDI. « Rack » d’encodage AWS Elemental Live Ce rack propose l’encodage vidéo et audio live en temps réel, notamment pour le streaming.

En commençant par la fin, nous avons déjà balayé une partie des possibilités. Les caméras professionnelles que vous utilisez quotidiennement peuvent donc être utilisées via des cartes ou boîtiers d’acquisition ou les solutions hardwares présentées. Certaines caméras proposent également des fonctionnalités de streaming intégrées pour diffuser directement sur YouTube, Facebook ou Livestream par exemple, ou l’on pourra récupérer le flux streamé pour une autre utilisation, la diffusion se faisant généralement en wifi, en réseau via RJ45 ou un adaptateur 4G/LTE. JVC propose même deux versions de sa caméra GY-HM200, la SP (pour sport) et la HW (house of worship ou maison du culte en français). Elle intègre les fonctionnalités de streaming et y ajoute la possibilité d’intégrer, via une application sur smartphone, des informations graphiques (par exemple le score pour le sport).

L’utilisation de caméras IP, notamment les caméras IP pilotables PTZ (pilotage à distance du panoramique, du tilt et du zoom), dont certaines sont très qualitatives, permet d’ajouter des flux sans nécessiter d’entrées physiques sur votre station ou en complément des entrées, parfois limitées physiquement. Laissons le mot de la fin à Livestream qui propose encore une innovation avec la Mevo : « Production vidéo pro à portée de doigts » : créé par Livestream, Mevo est un facilitateur de streaming vidéo live. La caméra pilotable via smartphone (Android et iPhone) permet également l’enregistrement vidéo HD via une carte microSD de 16 GB incluse pour partager ensuite vos vidéos via YouTube, Facebook, par e-mail et autre. On peut switcher entre différentes valeurs de plans en temps réel, directement depuis son téléphone portable ou sa tablette ; on peut également zoomer, effectuer un panoramique

Caméra JVC GY HM200 avec fonctionnalités de streaming.

CONCLUSION

Nous vous avions prévenu, nous ne pouvons ici qu’effleurer les possibilités proposées pour la production légère et la diffusion live sur Internet. Nous avons volontairement passé sous silence l’offre de Blackmagic à ce sujet, et notamment le Television Studio HD et le Web Presenter, deux outils qui doivent être sérieusement étudiés au moment de vos choix matériels ; ces deux outils ayant fait l’objet d’articles dédiés.

Caméra Mévo de Livestream.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

37


I TECHNIQUE I ÉCO-SYSTÈME I

Axient Digital, le dernier éco-système haut de gamme de microphones sans fil de Shure Ludovic Sardnal nous a accueillis à bras grands ouverts dans les locaux d’Algam Entreprises, afin de nous présenter le dernier né de la famille d’émetteurs récepteurs sans-fil très haut de gamme, l’Axient Digital, « présenté au monde » à l’occasion du NAB 2017. Par Loïc Gagnant Les exigences des productions actuelles interdisent aux professionnels de la sonorisation (voulant persévérer dans le métier) tout décrochage de transmission audio ; et cela alors même que l’environnement RF n’a jamais été autant surchargé. En cause, les émissions TV, les téléphones portables et l’ensemble des innombrables équipements sans fil utilisés aujourd’hui. Face à ce défi, Shure a déployé toutes ses forces pour mettre en œuvre des innovations et des astuces inédites.

Ludovic Sardnal présente le système Axient Digital.

FLASHBACK

Shure a fait ses premiers pas dans le monde du microphone « sans fil » au début des années 50 avec son système Vagabond 88. Fonctionnant via un câble électrique déployé selon un cercle de 65 mètres carrés (700 sq. feet) au sol ou suspendu dans les airs, permettant donc une distance émetteur/récepteur de 4,6 mètres environ ! Des expérimentations avaient déjà été menées depuis 1945 environ, notamment par l’ingénieur en aéronautique Reg Moores qui a mis en œuvre sa solution en 1949, de septembre jusqu’à la saison d’hiver, à l’occasion des représentations d’Aladdin on Ice de Tom Arnold au Brighton’s Sports Stadium. Sa solution fonctionnait parfaitement, mais Moores ne déposa pas de brevet car il utilisait illégalement la fréquence radio 76 mHz. Les frères Shure ont affirmé que leur système Vagabondétait le premier système de microphones sans fil pour les artistes : wireless microphone system for performers.

ET MAINTENANT

Aujourd’hui, la marque propose des solutions depuis l’entrée de gamme jusqu’à la nouvelle génération des systèmes sans fil Axient Digital. L’offre est même pléthorique, et il faut un peu de temps pour l’appréhender dans sa pleine mesure. Certaines gammes reprennent les noms des célèbres séries de microphones de la marque (SM et Beta), d’autres ciblent des publics précis comme les conférences audiovisuelles alors que d’autres encore associent qualité et simplicité d’utilisation (systèmes QLX-D).

LES GAMMES DE SYSTÈMES SANS FIL DE SHURE • Systèmes PG Wireless - Système d’entrée de gamme analogique complet - Récepteur simple ou double, micro main, serre-tête ou cravate)

38

• Systèmes SM Wireless - Deux sous-familles, SM Wireless Analogique et SM Wireless numérique • Systèmes Beta Wireless (en version analogique ou numérique) •Systèmes sans fil SLX Gamme introduite en 2005 incluant la fonctionnalité « audio reference companding » (qui adapte la compression due à la transmission réception analogique en fonction du niveau, afin d’éviter la remontée et le « pompage » du bruit de fond) • Systèmes FP Solutions adaptées à la vidéo avec des émetteurs et récepteurs portatifs • Solutions microflex wireless Dédiées à l’entreprise, à l’intégration et aux conférences audiovisuelles • Systèmes sans fil UHF-R Sortie en 2006. Solutions haut de gamme dédiées aux tournées et aux installations de grande envergure incluant notamment la fonction « audio reference companding » pilotage logiciel • Systèmes sans fil numérique QLX-D Solution professionnelle à mise en œuvre simplifiée (son numérique en 24 bits) • Systèmes sans fil haut de gamme ULXD pour l’installation Série introduite en 2002 Possibilité de scanner les fréquences pour trouver les canaux libres Qualité de son équivalente aux microphones à liaison filaire Possibilité de faire cohabiter jusqu’à 40 systèmes simultanément • Systèmes sans fil GLX-D Système HF numérique avancé avec manageur de fréquences GLX-D Advanced pour une gestion avancée et automatique des fréquences d’un ensemble de récepteurs

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

• Système sans fil Axient à gestion en réseau Sortie en 2012 Solution très haut de gamme de Shure / successeur de l’UHF-R Contrôle logiciel • Système sans fil Axient Digital Nouvelle évolution de la solution Axient, décrite dans cet article Je n’ai pas résister à reprendre la synthèse des atouts du système Axient Digital exprimé ainsi par Ludovic Sardnal : la fiabilité de l’UHF-R (système sans fil de référence précurseur de la gamme Axient), l’avance technologique d’Axient, et l’efficacité de la transmission numérique de l’ULX-D.

PRÉSENTATION DE L’AXIENT DIGITAL

Centralisés autour d’une plate-forme commune de récepteurs, en versions deux ou quatre canaux (AD4D Dual et AD4Q Quad), des émetteurs sont disponibles dans la série AD : émetteur ceinture AD1 ou AD1 Lemo et émetteur main AD2 et dans la série ADX (le X signifiant extended, ou étendu en français) : avec le micro main ADX2 et ADX2FD, l’émetteur ceinture ADX1 et également l’émetteur ceinture micro ADX1M. Ce dernier émetteur est le premier modèle à intégrer une antenne adaptative interne optimisant le signal lorsque l’émetteur est porté près du corps. Le micro main ADX2FD offrant, lui, la fonction « diversité de fréquence ». Lorsque le mode diversité de fréquence est activé, la source sonore est transmise sur deux fréquences indépendantes, le récepteur analyse la qualité des signaux et fournit le meilleur résultat pour éviter tout décrochage.


I ÉCO-SYSTÈME I TECHNIQUE I

peuvent être portées sur un smartphone Apple via l’application iOS ShurePlus Channels. Le manageur de spectres temps réel AXT600 permet de neutraliser les interférences RF, soit via un changement manuel de fréquence, soit par une automatisation de cette fonction. On peut préparer sur le récepteur des offsets de gain pour passer avec fluidité d’un micro scène à un micro serre-tête par exemple.

Récepteur Axient Digital AD4Q et chargeur.

CENTRE D’ÉCOUTE DES CANAUX DANTE

Une fonctionnalité s’avère très utile : « Dante Cue » permet de monitorer tous les canaux Dante de l’installation à partir de n’importe quel récepteur, et cela via une simple sélection du canal depuis la face avant. « Dante Plus » permet un monitoring haute-fidélité de tous les appareils Dante présents sur le réseau.

Gros plan sur l’arrière du récepteur Axient Digital AD4Q.

Les émetteurs de la série AD sont annoncés pour la fin de l’été et ceux de la série ADX seront disponible à partir de janvier 2018. La latence, inférieure à 2 ms, est la plus faible proposée sur des systèmes HF numériques. Pour la première fois, une bande passante de ultra large de 184 MHz est utilisée, à la différence des 80 MHz pour les précédentes générations (Axient analogique et UHF-R), et des 64 MHz de l’ULX-D. Cela permet une simplification de la gestion des plages fréquentielles des matériels HF. Les sorties audio sont complètes : Dante sur RJ45, AES, Analogiques. Ces dernières sorties symétriques transmises via des prises XLR et Jack sont isolées galvaniquement via des transformateurs de qualité. Un switch RJ45 intégré permet le contrôle logiciel et le contrôle Dante ; deux ports proposant le PoE (Power over Ethernet / alimentation sur prise RJ45). Même la recharge des batteries peut être suivie en réseau via les chargeurs pour émetteurs ADX ou pour certains accus et modules des émetteurs AD (Accus SB900A et modules SBC-AX).

LES FORCES ET NOUVEAUTÉS DE L’AXIENT DIGITAL

La qualité audio de l’Axient Digital, même dans les environnements les plus chargés (fréquentiellement parlant), provient d’une conception entièrement repensée avec les dernières avancées du domaine et des ingénieurs de Shure, dont un schéma de modulation numérique à haute performance. Une autre fonctionnalité nouvelle est la mesure de la qualité du signal sur chaque canal. La mesure du rapport signal sur bruit du signal RF est présentée sur un afficheur à cinq segments, permettant de prendre les bonnes décisions d’installation et d’avoir une visibilité immédiate des interférences potentielles. Le récepteur Quad permet d’assigner le signal issu de quatre antennes à un seul canal, avec la fonctionnalité nommée Quadversity. Cela afin d’obtenir une meilleure couverture et un signal de plus grande qualité.

Dans la série des fonctions terminant par versity, le « True Digital Diversity » s’avère une arme majeure contre les anomalies RF. En combinant deux signaux RF différents par canal, le récepteur utilise un algorithme de détermination du ratio maximal pour optimiser la qualité de la transmission.

UN ENSEMBLE D’OUTILS ET DE LOGICIELS DE CONTRÔLE À DISTANCE

Déjà proposé sur la version analogique de l’Axient, ShowLink permet le contrôle et le monitoring des émetteurs. Le point d’accès ShowLink AXT610 établit une connexion réseau sans fil 2,4 GHz entre les émetteurs et récepteurs Axient, et permet un contrôle à distance exhaustif des paramètres de tous les émetteurs. Seize émetteurs sont pris en charge par un point d’accès, des points d’accès supplémentaires pouvant être déployés si besoin ; une antenne directionnelle ShowLink est également disponible pour augmenter la portée. Pour illustrer les possibilités ouvertes grâce à cette solution, on pourra télécommander en temps réel le gain de l’émetteur d’un chanteur ou changer une fréquence de transmission en une fraction de seconde. L’alimentation du point d’accès peut se faire via PoE ou via une alimentation externe. Pour calibrer le système, l’Axient permet d’émettre un signal de test. On dispose également d’une visualisation complète du gain depuis la capsule jusqu’à la sortie du récepteur. Le logiciel de contrôle « Wireless Workbench » sert au suivi et au paramétrage du système. Il offre un contrôle total pour la coordination des fréquences et le monitoring des performances, ainsi qu’un accès au spectre fréquentiel et à une timeline d’analyse. Pour faciliter le travail et limiter le nombre de techniciens mobilisés, ces derniers peuvent se déplacer sur la scène et générer des marqueurs via les microphones : cela permettra de vérifier les caractéristiques de l’ensemble de la chaîne selon les lieux où seront utilisés les micros. Les possibilités de contrôle et de monitoring

QUALITÉ DU SON

Toutes les fonctionnalités mises en œuvre dans l’Axient Digital permettent une qualité audio véritablement digne de la qualité « transmission filaire » : réponse en fréquence plate de 20 Hz à 20 kHz, plage dynamique supérieure à 120 dB et réponse impulsionnelle ultra rapide. Ludovic Sardnal parle avec émotion de cette gamme de produits. Lorsqu’elles sont réussies, elles restent à l’affiche pendant une longue période. Nulle doute que l’Axient Digital est armé pour fournir un son de qualité sur les scènes du monde entier pendant de nombreuses et belles années, offrant un maximum de sérénité aux professionnels choisissant de faire confiance à cette vénérable marque qui fêtera son centenaire en 1925.

QUELQUES PRODUITS DE LA GAMME AXIENT DIGITAL

l’AXT600, manageur de spectre - Sous un rack d’une unité, cet appareil scanne et analyse l’ensemble du spectre UHF (470-952 MHz) en une minute environ. - Compatible avec l’Axient digital et les autres systèmes sans fil numérique pilotable par réseau de Shure. l’AD610, Diversity ShowLink Access Point - Système de contrôle temps réel lié aux émetteurs/récepteurs par une connexion réseau sans fil (jusqu’à 16 émetteurs). - Compatible avec les systèmes Axient analogiques et Axient ADX. - Ajustement des gains, des fréquences et du muting. le SRBC - Station de recharge rackable - Monitoring du SRBC via le logiciel « Shure Wireless Workbench ». - Modules adaptables pour les différentes batteries (SBC-AX pour batteries SB900A, SBM910/920/910M pour modules SB910/920/910M). Différents chargeurs dock (SBC200, SBC240, SBC800, SBC840 et SBC840M)

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

39


I TECHNIQUE I LIFESIZE I

Lifesize et le cloud Lifesize, depuis une dizaine d’années, est présent sur le marché de la collaboration vidéo. La société propose ses solutions dans le cloud, mais aussi dans l’installation de grandes salles de visioconférence. La somme des deux a du sens. Les salles avec équipements dédiés permettent de commercialiser des moyen et haut de gamme, et d’accroître le chiffre d’affaires ; les installations de conférences virtualisées touchent de nouveaux clients et renforcent la notoriété de l’entreprise. Par Stephan Faudeux Lifesize est présent sur différents segments de marché, pour toutes les entreprises, quelles que soient leurs tailles. Grâce à cette offre dématérialisée, il est possible, depuis un smartphone ou une tablette, d’établir une communication à plusieurs, que ce soit en audio, vidéo ou web conférence. Autre point fort : quelle que soit l’application, l’interface graphique est toujours la même. Cela permet de simplifier l’usage et l’administration. Autre point, la versatilité : le système est capable de dialoguer avec toutes les salles de visioconférence qui utilisent le codec H.623, mais aussi celles compatibles avec Microsoft Lync. Il suffit d’avoir un navigateur sous Google Chrome ou Internet Explorer. « Étant donné que nos clients sont dans une formule d’abonnement, il faut travailler dans la proximité ; les salles ne sont pas propriétaires avec notre technologie. Ils peuvent très bien changer de fournisseur, d’où la nécessité d’un service irréprochable. Comme nous sommes sur du cloud, nous pouvons en permanence faire des mises à jour, invisibles pour le client, mais qui ajoutent ou optimisent de nouvelles fonctionnalités. Parmi les dernières, le monitoring extérieur qui permet de voir si le système est en panne et, autre ajout, le Live Streaming. Grâce à l’innovation, nous prenons des parts de marché », indique Hugues de Bonnaventure, responsable commercial chez France Lifesize. Pour le déploiement de sa technologie cloud, Lifesize se repose sur IBM Soft Layer, qui dispose de vingt points de présence dans le monde, dont quatre en Europe. Les services cloud ou autres utilisent des périphériques et accessoires Lifesize. La société développe et fabrique ses propres solutions « matériel », que ce soit les caméras, codecs, écrans tactiles… Dans la partie caméra, la gamme Lifesize Icon comprend trois lignes (400, 600 et 800). L’un des modèles best-seller, le modèle Icon 450 est doté d’un zoom x5, d’une détection des visages et reconnaissance physique sur les personnes présentes avec un angle de 82 ° horizontal. En termes de nouveautés sur les fonctions, Lifesize pousse le collaboratif, telle l’association de la salle à un calendrier qui permet par exemple d’inviter une personne via le calendrier ; à son entrée dans la salle de visioconférence elle accepte l’invitation et apparaît automatiquement dans la conférence. La fonction Live Stream permet l’accès à des participants, leur permettant de « dialoguer» avec les personnes présentes dans les salles

40

Lifesize maitrise la fabrication de ses caméras, système audio-conférence mais aussi de la partie logicielle.

Quelques chiffres Lifesize propose du streaming avec la fonction Live Stream.

de visioconférence (jusqu’à 10 000 spectateurs). Lifesize Live Stream propose une fonctionnalité de Q&R en temps réel qui permet aux spectateurs de poser des questions depuis la page de diffusion en direct. Lifesize® Record & Share (autrefois appelé Lifesize Amplify), assure l’enregistrement en un clic à partir de n’importe quel événement ; celui-ci pourra être partagé ultérieurement avec les personnes intéressées, mais absentes, puis stocké dans une bibliothèque de vidéos. Livesize Live Stream est disponible avec l’abonnement Enterprise ou Premium.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

Le nombre de clients de Lifesize double chaque année. La structure française comprend sept personnes : trois commerciaux, une personne qui gère la base client et les leads, un ingénieur avant vente, un responsable de la satisfaction et le directeur Hugues de Bonnaventure. Parmi ses clients : BlaBlacar, qui a 60 salles de visioconférence, 500 employés disposant de la solution sur leur PC. Lifesize, auparavant détenue par Logitech, a repris son indépendance (même si Logitech détient encore 35 % du capital), le reste étant détenu majoritairement par Capital IT Invest.


Les

inscriptions sont

ouvertes !


I TECHNIQUE I HOLOGRAPHIQUES I

Vitrines holographiques, « L’effet wahou » Les vitrines holographiques associent images réelles et virtuelles afin d’accrocher immédiatement l’attention du visiteur et du passant. Découverte de cet outil visuel innovant d’aide à la vente. Par Alice Boivineau Comment faire entrer le chaland dans sa boutique ? Cette question, toutes les enseignes se la posent. Les réponses sont multiples, mais leur efficacité pas toujours démontrée. Nous avons étudié une solution intéressante : les vitrines holographiques. Rencontre avec une des entreprises leader du secteur en France : ComActive. La société exposait à l’occasion du salon Pack&Gift qui se déroulait à Paris, Porte de Versailles, fin juin.

SUBLIMER LE PRODUIT

L’objectif des vitrines holographiques c’est de magnifier le produit. Hors de question que l’animation prenne le dessus. Le produit doit rester le cœur de l’attention du spectateur. Pour Christian Le Ba, le dirigeant et fondateur de ComActive « Le principal avantage des vitrines est de mettre en valeur l’objet sans le “vampiriser” ». Elles créent une scénographie dans et autour du produit. Grâce à un jeu de miroirs et d’écrans, le produit prend vie dans un univers virtuel. Il s’habille de lumière et prend part à une histoire.

Le produit prend vie par un mapping vidéo dans et autour du produit.

L’EFFET WAHOU

L’objectif ultime est d’arriver à captiver l’attention en l’espace de quelques secondes. Et on doit avouer que c’est plutôt réussi. Le mapping vidéo est à chaque fois unique et créé spécialement pour l’objet à mettre en valeur. Les effets sont multiples. Leur limitation ne dépend quasiment que de l’imagination de ses concepteurs. Le produit est généralement mis au centre. Plus que de simples bandeaux lumineux qui passent autour, il est envisageable d’aller beaucoup plus loin. On peut même raconter une histoire via l’intégration de personnages virtuels. Ainsi, nous avons pu voir la mise en valeur d’une chaussure dont les lacets étaient attachés sous les yeux du public par deux personnages virtuels miniatures qui grimpaient sur le cuir de la basket. Autre cas de figure, pour le lancement de son nouvel album, un chanteur est également apparu sur le CD exposé. Tranquillement il s’assied sur la pochette tout en jouant à la guitare. Filmée sur fond vert, l’incrustation est particulièrement intéressante. Une autre vitrine, plus grande cette fois, exposait une bouteille de spiritueux qui prenait entièrement vie et s’intégrait à la dernière publicité de la marque d’alcool. Le film de la dernière campagne était diffusé sur un écran en arrière-plan de la vitrine et les éléments importants de la vidéo flottaient en hologramme sur le produit. Un verre apparaissait et se remplissait du précieux breuvage. Des hirondelles volaient autour. Un feu d’artifice enflammait la bouteille. Quand on vous dit que la seule limite est l’imagination…

42

Les vitrines holographiques sont un moyen de capter l’attention du chaland.

LE CRÉNEAU PRINCIPAL : LE LUXE

Cet outil d’aide à la vente est particulièrement adapté pour les entreprises du secteur du luxe. Les vitrines apportent la touche de créativité indispensable pour se démarquer dans une galerie commerciale ou lors d’un événement. Les principales zones d’exploitation des vitrines sont les espaces duty-free des aéroports internationaux ou les grands magasins, particulièrement au Moyen-Orient. Parfums et cosmétiques, les produits sont mis en exposition dans un écrin dynamique. Les plus grandes marques du secteur se jouent des capacités inédites de ces vitrines : Cartier, Chanel, Dior, Guerlain…

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

DES APPLICATIONS POUR LE MÉDICAL

En dehors des stratégies de points de vente, les vitrines sont utilisées lors d’évènementiels par de multiples organisations. Ludiques ou techniques, les hologrammes s’adaptent à toutes les demandes. Les salons médicaux sont particulièrement preneurs de cette technologie. Les marques du secteur peuvent alors exposer leurs dernières innovations relativement facilement. Le dernier système d’IRM ultra perfectionné doit être montré à l’autre bout de la planète ? Inutile de déplacer une machine complexe et fragile, les vitrines holographiques peuvent reproduire les résul-


I HOLOGRAPHIQUES I TECHNIQUE I

Christian Le Ba, fondateur et dirigeant de ComActive, exposait au salon Pack&Gift.

Des personnages virtuels interagissent directement avec le produit grâce au mapping et à l’incrustation par fond vert.

Les hélices holographiques font leur apparition sur le marché. Une nouveauté qui pourrait séduire les points de vente.

tats de l’IRM tels qu’ils sont escomptés avec la dernière machine du fabricant. Cette dernière n’est donc pas abimée par l’exposition prolongée et on peut compter sur l’économie de trajet et d’immobilisation d’un système durant plusieurs jours pour rentabiliser la vitrine.

UN CONCENTRÉ DE TECHNOLOGIE

Le principe de la vitrine holographique, c’est de projeter des images sur un miroir incliné qui va créer un effet de relief. Ce procédé déjà connu a dû être adapté afin de créer un objet utilisable en tout lieu et de manière prolongée. Deux dalles d’écrans sont positionnées au « plafond » de la vitrine. Très lumineuses, ces dalles sont spécialement fabriquées en Corée pour diffuser une image visible même en pleine lumière. Elles doivent résister à des usages pour la plupart intensifs, 24h/24 7j/7. Il est alors indispensable de faire attention à ce composant qui peut certes prendre une part importante du budget. Une vitrine peut se vendre plusieurs milliers d’euros, il est donc essentiel de pouvoir l’exploiter, y compris quand le soleil perce dans le magasin. Hors de question également de devoir l’éteindre toutes les deux heures. Sur Pack&Gift, les vitrines de ComActive faisaient face aux fenêtres du hall d’exposition de la Porte de Versailles. Nous avons pu constater qu’elles étaient toutes lumineuses et bien visibles

malgré une météo caniculaire. L’autre point indispensable du dispositif est le miroir incliné. Celui-ci subit de multiples traitements afin de laisser passer la lumière naturelle et réfléchir les images pour créer l’hologramme. Ce procédé complexe et sa recette tenue secrète sont obtenus après plusieurs années de recherche pour contrer les effets de dédoublement, les reflets, et obtenir une quasi transparence. Les niveaux d’exigence technique influent forcément sur les prix. L’hologramme de JeanLuc Mélenchon durant la dernière campagne présidentielle était par exemple réalisé grâce à un film tendu et n’était visible que si la salle était dans la pénombre, voire dans le noir complet. Un moyen certes moins onéreux, mais qui ne colle pas aux utilisations des marques dans les centres commerciaux ultra lumineux ou durant les salons professionnels.

DU SUR-MESURE

ComActive propose une cinquantaine de modèles différents. Pyramidales, sphériques, carrées, les vitrines prennent toutes formes et toutes dimensions, des plus petites aux plus grandes. Actuellement le plus imposant modèle est une vitrine rectangulaire qui dispose d’un écran d’arrière-scène de 46 pouces. Les dalles et les miroirs sont fabriqués sur mesure aux dimensions choisies. Cela laisse donc la possibilité de s’adapter au produit et à l’environnement dans lequel la vitrine sera installée.

UNE ÉCONOMIE D’ÉCHELLE

Les plus grands modèles sont généralement loués pour des mises en scène particulières, tels des lancements de produits ou l’exposition sur un stand. La rentabilité du dispositif dépend en effet souvent de son temps d’exploitation. Les prix varient en fonction des dimensions et de la complexité du mapping. Pour les plus petits modèles, la location commence à 300 euros par jour quand l’achat débute aux alentours de 6 000 euros avec le flight-case de transport.

INTERACTIONS

Au-delà de l’intérêt d’attirer l’attention, les vitrines se développent pour apporter une

ComActive est fondée et dirigée par Christian Le Ba depuis sept ans. Le siège social de la société est implanté à Montluçon. Un showroom est installé à Ivry-sur-Seine, au sud de Paris, pour permettre l’exposition des vitrines. La société réalise un chiffre d’affaires d’environ 700 000 euros par an avec une clientèle issue à 80 % du secteur du luxe, composée majoritairement d’entreprises françaises qui exportent à l’étranger.

expérience utilisateur au chaland. On imagine alors des systèmes d’interaction différenciants. La vitrine peut être construite avec un capteur de mouvement pour simuler un appareillage médical par exemple. La jambe du chaland est alors équipée de la dernière prothèse orthopédique… Une tablette numérique peut être associée à la vitrine pour que le client choisisse entre différents contenus projetés. Nous avons même pu tester une vitrine disposée sur un totem de présentation dans lequel est exposé un parfum et un diffuseur qui projette la fragrance lors du passage de la main de l’utilisateur. Il est également possible d’imaginer sortir des pastilles d’échantillon-test. Le potentiel client repart alors avec un « souvenir » sensoriel et physique de son expérience holographique. Un moyen de mémorisation marketing qui s’avère efficace.

DES NOUVEAUX USAGES

Les vitrines holographiques font des « petits ». ComActive propose ainsi à ses clients de prolonger l’expérience grâce à des mini-vitrines utilisables avec un iPhone. Un goodie sympathique et original, mais qui ne garantit pas une qualité optimale de l’hologramme. Toutefois l’objet a le mérite de décliner une campagne de manière cohérente et percutante. La société propose également des nouveaux moyens de promotion avec les hélices holographiques, sorties en juin dernier. Ces outils inédits créent un hologramme à partir d’une hélice tournant à allure constante sur laquelle des diodes Led s’allument et s’éteignent de manière à créer une image en mouvement et en relief. Nous avons pu voir différentes applications. Nous avons ainsi pu assister à la démonstration d’une canette de soda fraiche qui semble sortir du mur ou à celle d’un hamburger qui tournoie dans les airs. L’idée apparaît alléchante pour qu’une chaîne de restauration rapide s’empare de cette PLV innovante.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

43


I TECHNIQUE I TOUT-EN-UN I

Mercury, réunions tout-en-un Au moment où la salle de réunion connectée se développe à grande vitesse et devient la norme, y compris pour de petites salles, Crestron a repensé la conception de l’équipement de ces salles pour assurer l’affichage de source ordinateur et la communication externe en proposant Mercury, un tout-en-un qui permet toutes les fonctions de base, la conférence téléphonique, le Skype et l’affichage. Par Antoine Gruber

C’est un module de forme pyramidale, de 32 x 22cm, qui se pose sur la table et comprend un ensemble de micro, un hautparleur sur une face et un écran tactile de 7” en 1 280 x 720 pixels sur l’autre versant qui permet la gestion facilitée de l’ensemble. Mercury existe en deux versions. Une première version purement audioconférence, qui propose la capacité d’établir des communications en téléphone SIP et une seconde, beaucoup plus complète, qui englobe les fonctions compatibles vidéo, type Skype for business, Webex et autres formats équivalents, ainsi que le contrôle de la diffusion sur un écran LCD. La version audioconférence est au prix de 2 120 euros et la version avec les fonctions vidéo à 3 390 euros. À la base, Mercury peut être comparé à une « pieuvre d’audioconférence » comme d’autres fabricants en ont depuis longtemps. Mais il faut reconnaître que ce produit comporte beaucoup d’autres fonctions pour en faire un réel outil d’intégration AV et d’automation dans la salle de réunion. On peut dire que l’idée de Crestron a été de réunir dans un seul produit les différents éléments constitutifs d’un équipement de petite salle de réunion, ou pour la table de réunion d’un bureau de dirigeant ou de directeur, dont les audioconférences et les réunions en petit comité sont extrêmement courantes. Si l’on devait équiper une salle équivalente en produit séparé, il faudrait un petit automate, une pieuvre d’audioconférence, un ensemble micro-caméra pour Skype, une interface pour réservation de salle et un boîtier de diffusion PC et tablette sans fil. Or ces petites salles ne permettent pas une telle intégration et un tel investissement. Elles pourront donc bénéficier de ces services, grâce à Mercury, produit pré-programmé, qu’il suffit de configurer par une page web à la mise en service. Dans sa fonction d’audioconférence, Mercury se connecte sur un réseau téléphonique numérique par un IPBX. La base est équipée de quatre micros, un à chaque angle qui donne une très large couverture de la table et même tout autour de la salle. Le test d’une discussion en marchant autour de la table donne un son clair et régulier au site distant. En option, pour de très longues tables, il est possible d’ajouter jusqu’à deux micros supplémentaires. Ces micros, comme la base, comportent une commande de « mute » et un retour en voyant rouge de signalisation. Sur Mercury, la commande de « mute » est située sur toute l’arête supérieure du Mercury que des Leds rouges illuminent. Simultanément l’écran

44

L’écran tactile très lisible est d’un design graphique simple et facile à comprendre.

tactile fait apparaître un cadre rouge bien visible, pour qu’il n’y ait pas d’ambiguïté. Bien sûr, Mercury comporte un processeur audio anti-écho performant pour que le site distant ne reçoive pas le retour de son propre son qui, diffusé par le haut-parleur, est naturellement repris par les micros. Il n’est pas prévu de sortie de modulation pour envoyer le son dans un renfort sonore, cela reste l’attribution d’autres produits plus coûteux. Toujours pour faciliter la communication, il est possible de coupler un téléphone portable en bluetooth. L’intérêt est d’utiliser l’annuaire particulier de celui-ci, mais avec une captation et une diffusion audio de qualité pour un groupe de personnes. Le couplage bluetooth est libéré après une minute de non-utilisation pour éviter les incidents, si un appel entrant venait en diffusion ouverte. Troisième volet de communication, la connexion USB, qui permet de lier un ordinateur et d’effectuer une communication Skype audio ou autre, toujours avec le Mercury en interface audio. À venir dans une prochaine mise à jour, il est prévu la possibilité de remonter un annuaire d’entreprise par le réseau. Ce qui permettrait une recherche et une connexion directe sans composer les numéros. Autre fonctionnalité, il est possible de coupler le Mercury avec le système de rendez-vous d’Outlook de l’entreprise ou le système Fusion de Crestron et de réserver la salle en même

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

temps que les participants de la réunion. Dans ce cas, un message apparaît à l’écran pour annoncer la prochaine réunion et le nom des participants attendus. En version avancée ou vidéo, on retrouve toutes les fonctions précédentes, augmentées de capacités image. Dans cette version, Mercury est livré avec une petite caméra USB à positionner au dessus de l’écran plat de la salle de réunion. Le produit comporte aussi un module intégré « AirMedia » qui permet la connexion sans fil d’un ordinateur ou d’une tablette pour une diffusion de contenu audio et vidéo sur l’écran LCD de la salle de réunion. Le tout est complété par une connectique HDMI entrante pour mettre un câble sur la table et y connecter un ordinateur, et une HDMI sortante pour y connecter l’écran plat de diffusion. L’idée est d’intégrer les fonctions vidéo de base de la salle de réunion. À savoir, pouvoir afficher une image venant d’un ordinateur ou d’une tablette, pour partager une information, ou se mettre en communication avec image en mode Skype for Business, Webex, GotoMeeting, ou encore Slack. C’est donc un produit ouvert sur tous ces systèmes de communication audio-vidéo, distribués par Microsoft, Cisco, Avaya, Mitel, Shoretel ou Onsip. Dans cette application, l’utilisateur connecte son PC en USB à Mercury, qui devient donc son interface audio et vidéo pendant que le PC assure la communication. Cette fonction


I TOUT-EN-UN I TECHNIQUE I

Dans cette petite réunion, la diffusion vidéo de l’ordinateur est simplifiée avec le module AirMedia, inclus dans Mercury.

permet à votre Skype de bureau de devenir collectif dans la salle de réunion. Sur le plan du contrôle, Mercury comporte un port série, un port IR et des commandes CEC sur HDMI, ainsi qu’un capteur de présence infra-rouge, le but étant de gérer l’écran plat de la salle. Lors d’une demande vidéo, Mercury assure la mise en route de l’écran et déclenche l’arrêt après un temps de non-utilisation sans présence. La configuration, suivant le port utilisé et suivant la marque de l’écran LCD, est faite à l’installation par l’interface web de l’appareil ; il suffit de cocher les bonnes cases. Mercury nécessite tout un jeu de câbles. Il comporte deux liaisons réseau, l’une pour la communication, l’autre pouvant être reliée à un Lan séparé pour l’AirMedia par exemple, pour isoler le réseau des visiteurs du réseau société, le câble HDMI vers l’écran, le cable IR ou RS232 de commande de l’écran, l’USB pour la caméra, et l’éventuel câble d’alimentation

24 V, si l’on n’utilise pas le POE+. Cela représente tout de même un nombre de câbles non négligeable. C’est là que la partie basse de Mercury montre ses capacités de passage de câble. La base est en fait creuse et permet à l’ensemble des connexions de rester cachées ; de plus, un système de fixation des câbles assure une solidité de connexion dans le temps permettant de résister aux manipulations parfois violentes des utilisateurs. Il faudra tout de même prévoir un passage de câble dans la table pour canaliser l’ensemble des liaisons vers le sol et l’écran LCD mural. Les tables en verre, très appréciées des architectes-décorateurs, ne sont pas adaptées à ce type d’installation. Pour les entreprises ayant de nombreuses salles de réunion, le logiciel spécifique « Hydrogen » assure l’auto-découverte des produits sur le réseau et permet de configurer et mettre à jour l’ensemble des salles équipées de Mercury à partir d’un point centralisé et

de façon automatisée. Cette administration globale est un gain de temps pour les gestionnaires de parc. Ce que ne fait pas Mercury, c’est être une base d’automation ouverte, comme on pourrait l’attendre d’un produit Crestron. Mercury se veut simple et ne peut être modifié pour contrôler plus d’équipements dans la salle. Cela reste le domaine d’attribution des automates et écrans tactiles classiques qui, dans cet environnement, peuvent utiliser un processeur audio Avia qui assurera la fonction d’audioconférence de façon plus globale. Mercury est donc une nouvelle façon d’aborder la petite salle de réunion, en apportant des fonctionnalités de communication performantes pour un budget abordable et une installation simplifiée. Ce produit a reçu, dès sa sortie, un vif intérêt des services IT des grandes entreprises.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

45


I TECHNIQUE I WEB PRESENTER I

Le Web Presenter de Blackmagic C’est un petit outil de la gamme des modules Teranex Mini. Sa fonction est simple, mais bien pensée et qualitativement réalisée : transmettre le signal d’une caméra professionnelle connectée en SDI ou en HDMI, d’un microphone connecté en XLR et/ou le son d’une source connectée en RCA, vers un ordinateur (Mac ou PC) via une connexion USB. Un des principaux avantages du Web Presenter est sa simplicité de mise en œuvre ; pour cela il simule le signal d’une webcam USB et se connecte ainsi très aisément à des logiciels de communication vidéo tels que Skype ou des plates-formes de streaming comme YouTube Live, Facebook Live, Twitch.tv et Periscope. Par Loïc Gagnant

Nous avons testé ce petit boîtier, et la simplicité d’utilisation est effectivement au rendez-vous. Vous pouvez vous concentrer sur la qualité de la prise de vue et sur la réalisation de votre contenu : vous connectez votre caméra ou votre régie vidéo, votre micro et votre source sonore si besoin, et vous pouvez diffuser votre programme aussi vite que si vous utilisiez votre webcam, sans être accaparés par les complexes opérations de configuration de votre machine.

PRÉSENTATION

Les modules Teranex Mini arborent une façade de 14 cm de large pour 4,45 cm de haut (soit une unité de rack ou 1U) ; pour une profondeur de 17 cm. Pour intégrer ces modules en rack, justement, Blackmagic propose le module optionnel Teranex Mini Rack Shelf qui peut contenir jusqu’à trois appareils de la série. La façade du Web Presenter « de base » est dépouillée, six mini switches et une prise mini USB en charge des mises à jour logiciel. On peut également faire évoluer le Web Presenter en remplaçant la façade originelle par le Teranex Mini Smart Panel. L’écran LCD nous permettra alors de prévisualiser la vidéo encodée par l’appareil, la modulation de l’audio grâce au vu-mètre superposé à l’image, les informations sur le type du signal d’entrée et le nombre d’images par seconde fourni par le boîtier (détails à suivre). Mais surtout le panel transforme le Web Presenter en mini régie live à deux entrées ; vous pouvez en effet commuter entre les deux entrées HDMI et SDI sans problème de synchronisation, puisque le boîtier intègre une puissante fonction de resynchronisation qui permet de commuter proprement entre deux sources différentes, à l’unique condition que ces sources aient les mêmes cadence et résolution. C’est parfait si vous disposez d’une caméra SDI et d’une seconde connectable en HDMI. Si vos deux caméras sont en HDMI, vous pourrez passer par un mini boîtier de conversion pour un peu moins d’une centaine d’euros. Vous pouvez aussi commuter entre une caméra et un ordinateur en prenant soin ici également de faire correspondre les cadences et résolutions (par exemple sortie caméra en 1080p50 grâce à l’entrée 12G-SDI et un ordinateur configuré en 1080p50 également).

46

Le Web Presenter de Blackmagic.

À l’arrière du boîtier, deux entrées vidéo sont accompagnées chacune de leurs boucles, pour permettre d’enregistrer le signal de la caméra connectée (en SDI ou en HDMI) ou de diffuser la sortie d’un ordinateur sur un vidéoprojecteur. Pour le SDI, deux connecteurs acceptent les signaux en 12G-SDI, les deux prises HDMI étant, quant à elles, au format HDMI 2.0. Une troisième prise SDI est dédiée à la sortie générale du programme (PGM). Elle permet, parallèlement à la diffusion sur les réseaux facilité par le Web Presenter, d’enregistrer le signal ; par exemple, sur un enregistreur type Hyperdeck Studio ou Hyperdeck Studio Mini, si on souhaite homogénéiser les appareils et éventuellement les intégrer dans un rack. La boucle HDMI permettra d’envoyer en live une source informatique telle qu’un Mac ou un PC et de la diriger simultanément vers un vidéoprojecteur. Pour le son, une prise XLR commutable entre le niveau ligne et micro permet de connecter un micro ou une source audio monophonique. Deux connecteurs RCA complètent le tableau. Le nerf de la guerre de ce boîtier est la simulation d’une webcam vers l’ordinateur et le logiciel auquel il est connecté. Une prise USB 2.0 type B est en charge de l’acheminement de ce signal.

UN PEU DE TECHNIQUE

La simplicité est le maître-mot de ce produit, mais comme toujours, cela signifie que les puissantes fonctionnalités techniques sont effectuées pour vous. Le choix du format de streaming est le 720p (1280*720). Une down conversion signée

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

Teranex est donc appliquée si nécessaire aux signaux sources qui peuvent aller de la définition standard jusqu’à l’ultra HD 2160p grâce aux entrées HDMI 2.0 et 12G-SDI. Pour rappel, parmi les nombreuses marques acquises par Blackmagic, Teranex a rejoint la marque en 2011. C’est l’acquisition de cette société spécialisée dans les produits de conversion haut de gamme qui permet à Blackmagic de décliner des produits tels que le Web Presenter. Même si le débit vidéo généré par le Web Presenter est réduit (c’est une des raisons du choix du format 720p), votre connexion Internet doit proposer un flux montant minimum. Si le logiciel de streaming détecte une connexion internet trop faible, il peut envoyer au boîtier l’ordre d’abaisser la cadence d’images au 720p20, 720p15, 720p10 ou 720p5 pour conserver la liaison. Aucun driver n’est nécessaire à la connexion du presenter. En effet, les logiciels de diffusion de vidéo live sont habituellement conçus pour fonctionner avec des webcams sans configuration technique particulière. Le Web Presenter simule donc le signal d’une webcam pour offrir son signal de qualité bien supérieur grâce aux standards UVC (USB video class) et UAC (USB audio class), avec une compatibilité PC, Mac, Linux et Chromebook.

LES SOLUTIONS DE STREAMING

Les principaux sites historiques de streaming ou autrement dit de retransmission vidéo en direct sont Ustream, Livestream et Bambuser. Ces sites proposent, moyennant le règlement d’un abonnement mensuel, différentes options. Il y a quelques années, on devait choisir le nombre de spectateurs qui pouvaient se connecter simultanément ; aujourd’hui ce


I WEB PRESENTER I TECHNIQUE I

nombre est illimité. Parmi les options : la possibilité d’intégrer ou non des publicités, d’envoyer les vidéos parallèlement vers Facebook Live et YouTube Live, de gérer et de modérer des « chats » (on ne parle pas ici d’animaux !) et d’archiver les évènements diffusés. Pour envoyer vos productions vers Internet vous devez les capturer, les encoder et les diffuser via une plate-forme de live. Pour l’encodage, différentes solutions vous sont proposées, dont certaines gratuites ou associées à des sites de streaming. Livestream vous propose, parmi ses nombreuses solutions, les logiciels Producer et Studio (versions gratuite et payante). Producer est un logiciel d’encodage de flux à destination de Livestream, Studio est une véritable régie de production live vers Livestream avec jusqu’à 25 caméras, dix caméras pilotées, trois pistes graphiques, deux media players. Lorsqu’on utilise Producer ou Studio avec le Web Presenter, on dispose très rapidement d’une diffusion en streaming live avec l’encodage multiflux proposé par Livestream vers un nombre de spectateurs simultanés qui peut dépasser le million.

Arrière du Web Presenter de Blackmagic.

Connectiques à l’arrière du Web Presenter de Blackmagic.

Telestream propose également un logiciel de production live et d’encodage pour le streaming, wirecast studio. Cette solution est proche du studio de Livestream ; elle s’adresse à toutes les solutions de streaming. Le Presenter sera encore un outil facilitateur avec ce logiciel. Des produits à budget limité sont également proposés. Open Broadcaster est une solution open source d’enregistrement et de streaming live (Mac, PC, Linux). Il représente une des méthodes les plus simples et abordables (cqfd) pour aller via le Web Presenter vers YouTube Live ou Facebook Live par exemple. Xsplit broadcaster offre une version gratuite et une offre payante pour le streaming et le mélange de différentes caméras. La vidéo étant un domaine en permanente évolution sur le web, les géants de l’internet proposent tous des solutions live. Dès qu’on pense vidéo et Internet on pense YouTube. Si on ajoute live dans l’équation, on a YouTube Live. Le Web Presenter, un outil tel qu’Open Broadcaster, et vous êtes prêt à diffuser du contenu qualitatif en live à un large public. Vous pouvez également planifier des événements. C’est encore plus simple avec Facebook Live et Periscope (l’application vidéo live de Twitter), votre Web Presenter est suffisant pour remplacer qualitativement votre webcam et partir en live directement (ici pas besoin de logiciel d’encodage). Skype fonctionnera comme les deux précédents outils, mais ici pour des vidéo-conférences. Et pour les nombreux passionnés de jeu vidéo, le Web Presenter trouvera ici encore

Blackmagic Web Presenter reconnu comme une webcam dans Skype.

toute son utilité en connectant une caméra et sa console de jeu pour partager ses parties endiablées avec le monde entier. Le public de ce produit est large : streaming de conférences, webinars, présentations Skype, mais aussi streaming de spectacles et de concerts, réalisation et diffusion de tutoriels.

Blackmagic nous a également indiqué une fonctionnalité à laquelle nous n’avions pas pensé. Les broadcasters peuvent les intégrer dans leurs cars en matériel de diffusion secours au cas où la liaison satellite venait à défaillir : un Web Presenter connecté en SDI et une connexion Skype offre alors une connexion vidéo de secours rapidement déployée.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

47


I TECHNIQUE I RÉUNION I

Logitech MeetUp, la réunion haute-résolution Logitech a pensé aux nombreuses entreprises qui optent pour des bureaux en open spaces entrecoupés de petites salles de réunion. Sa solution de caméra de conférence MeetUp dédiée à cette contrainte d’espace garantit une expérience audio et vidéo haut de gamme Par Stephan Faudeux

La digitalisation des entreprises modifie en profondeur l’organisation du travail. Les salariés ont tous des ordinateurs portables, des tablettes et smartphones et ne sont plus « attachés » à un bureau. Les entreprises ont donc des open spaces d’un côté, et de l’autre des espaces dédiés pour les réunions, notamment des Huddle Room. Ces espaces compacts pour quatre à cinq personnes ne permettent pas de déployer des grands écrans ou de la vidéoprojection – néanmoins il ne faut pas faire de compromis sur la qualité des équipements. Il faut se voir et s’entendre. Logitech rebondit sur ces contraintes et propose sa caméra de conférence MeetUp spécialement étudiée pour les petites salles, avec un angle de 120 °. Ce grand angle permet aux participants de voir chaque personne assise autour de la table. Logitech a également travaillé sur la partie audio ; la caméra MeetUp possède des microphones spécialement conçus pour les petites salles. Le dispositif se branche sur un ordinateur via un port USB. « Dans notre dernier rapport State of the State sur la visioconférence en entreprise, nous avons estimé entre 30 et 50 millions le nombre de petites salles de réunion ou huddle rooms dans le monde. Nous avons également constaté qu’un prix attractif, un usage en mode self-service et une grande convivialité en termes d’utilisation, sont des critères essentiels pour l’adoption de la vidéo dans ces petites pièces », relate Andrew W. Davis, senior analyste et associé du cabinet Wainhouse Research. Logitech MeetUp est compatible avec virtuellement toutes les applications de visioconférence et services de cloud, notamment Skype for Business, les solutions collaboratives de Cisco et celles des partenaires du programme de collaboration Logitech dont Vidyo, Broadsoft, BlueJeans… MeetUp offre un champ de vision extra-large de 120 °, et la qualité optique est vraiment bonne par rapport à certains produits concurrents. La caméra est UHD et dispose de trois préréglages. Les appels vidéo peuvent se faire en trois résolutions (jusqu’à 3840 x 2160 pixels à 30 ips) ; appels vidéo en Full HD 1080p (jusqu’à 1920 x 1080 pixels à 30 ips) ; appels vidéo en HD 720p (jusqu’à 1280 x 720 pixels à 30 ips). Le son intégré de MeetUp a été optimisé pour une utilisation dans des espaces de petite envergure ; il est d’une qualité exceptionnelle grâce aux trois microphones à isolation phonique et au haut-parleur optimisé pour que chaque participant soit entendu aussi clairement qu’il est vu. Les microphones ont

48

Le Meet Up de Logitech est conçu pour les petites salles de réunion.

Meet Up offre un champ de vision de 120° et de 3 microphones.

une sensibilité de -27 dB, et une réponse en fréquence de 90 Hz à 16 kHz. La compatibilité de MeetUp avec Microsoft Cortana est certifiée pour offrir des commandes vocales très précises avec Windows 10. Lorsque la réunion a lieu dans une salle plus grande, où les participants se trouvent à plus de 2,5 mètres du microphone, Logitech propose le microphone d’extension complémentaire Logitech Expansion Mic for MeetUp (vendu séparément). MeetUp est accompagnée d’une application dédiée, ConferenceCam Soft Remote, qui transforme un smartphone ou une tablette en télécommande. Elle donne accès à la totalité des boutons de commandes existant sur la télécommande Logitech. Cette application pour Android et iOS sera disponible en téléchargement. La caméra peut être posée sur un meuble ou fixée au mur. Le tarif est au prix conseillé de 1 099 euros et le microphone Logitech Expansion Mic for MeetUp au prix de 249 euros.

SONOVISION I septembre - octobre - novembre 2017 I numéro 8

Il est possible d’ajouter un microhone supplémentaire pour les espaces plus grands.


SONOVISION#8  

COMMUNAUTÉ : En 2017 le SATIS et SCREEN4ALL fusionnent UNIVERS : Barcelone La Casa de les Punxes - La Cinéscénie du Puy du Fou DOSSIER : Le...

SONOVISION#8  

COMMUNAUTÉ : En 2017 le SATIS et SCREEN4ALL fusionnent UNIVERS : Barcelone La Casa de les Punxes - La Cinéscénie du Puy du Fou DOSSIER : Le...