Cahier De Notes Sur La Vidéo

Page 1

CAHIER DE NOTES SUR LA VIDÉO: Récapitulatif

1


1.

Apprendre la vidéo : comment choisir entre

Vitesse d'obturation et Nombre d'images par seconde Vous débutez en vidéo reflex et vous ne savez pas comment choisir la vitesse d’obturation ou la cadence de prise de vue ? Vous manquez d’informations sur différents paramètres qui conditionnent la qualité finale de vos films ? Nous avons rassemblé ici les bases de la vidéo à connaître pour vous en sortir ! Le monde de la vidéo a définitivement conquis le monde des photographes : vous êtes de plus en plus nombreux à utiliser la vidéo sur vos boîtiers, ou à ne faire que de la vidéo reflex pour des besoins bien particuliers. Mais la vidéo fait appel à des notions que les photographes n’ont pas nécessairement et les résultats ne sont pas toujours à la hauteur de vos attentes.

Si vous êtes perdu avec le Ultra HD 2160p à 60i ou 60p, les modes interlacés ou progressifs, le réglage de la vitesse ou celui de la cadence d’image, lisez la suite !

A) Qu’est-ce que le framerate en vidéo ? Lorsque vous regardez la fiche technique de votre appareil, vous pouvez y voir un critère qui s’appelle framerate (fps "frame per second"). Le framerate désigne le nombre d’images par secondes que l’appareil va enregistrer. Les valeurs courantes sont 24, 25, 30 ou encore 60 images par seconde. Le framerate peut être « progressif » ou « interlacé ». On parle alors de 2160p ou 2160i par exemple.

B) Mode « interlacé » interlace (ou balayage par entrelacement) L’intérêt de cette méthode est d’éviter un effet de papillonnement de l’image. En mode interlacé, l’écran de projection (téléviseur, ordinateur) affiche une moitié de l’image à chaque balayage. Si l’on prend l’exemple du mode 720i, l’écran va afficher les lignes 1, 3, 5, 7, 9, lors du premier balayage et les lignes 2, 4, 6, 8, … lors du balayage suivant.

2


Quelques Explications • Télévision L'image d'un téléviseur est une succession de balayages linéaires, partant du haut, et finissant en bas de l'écran. Aux débuts de la Télévision, la qualité des éléments phosphorescents du tube était médiocre. De ce fait, quand le faisceau balayait le bas de l'écran, le haut avait déjà disparu, d'où un phénomène de scintillement (flicker), ressenti fortement par l'œil humain pour 25 Hz ou 30 Hz. La solution la plus simple eût été d'accélérer la cadence de balayage, mais ceci imposait également d'augmenter la cadence des images, ce qui était coûteux en bande passante. Une solution plus astucieuse fut d'omettre une ligne sur deux dans chaque image, permettant ainsi de doubler la cadence de balayage tout en gardant une même bande passante. Ainsi, une première passe affiche toutes les lignes impaires en deux fois moins de temps que pour une image entière et une seconde passe affiche les lignes manquantes paires : c'est ce que l'on appelle l'entrelacement. On obtient bien le même nombre de lignes de balayage pour une image, et on balaye deux fois l'écran pour afficher une seule image. On désigne par le terme « trame » (« field » en anglais) une passe de balayage. Une image est donc constituée de deux trames, puisqu'il faut deux balayages pour définir l'image (« frame » en anglais).

• Caméras Les caméras, qui fonctionnent comme un « téléviseur inversé », adoptèrent-elles aussi cet entrelacement du balayage. Dans la première moitié du temps d'une image, une 1ère prise de vue définit toutes les lignes impaires, et une moitié d'image plus tard, une seconde prise de vue définit les lignes paires. Ce qu'il faut bien comprendre ici, c'est que les deux prises de vues sont distantes dans le temps (d'une moitié d'image). Et même si ces deux prises de vue sont complémentaires d'un point de vue spatial (les deux balayages se complètent dans le cadre), ces deux prises de vue n'affichent pas le même contenu ! Si un sujet se déplace dans le champ, il aura une position différente sur chacune des deux trames : on a alors un effet de zig-zag sur chaque « frame ». Ce problème est en partie résolu par un dispositif de lames cristallines biréfringentes qui « étalent » les détails en dédoublant les rayons lumineux. Il en découle une perte de définition qui confèrent aux système PAL "Phase Altération Line" et SECAM "SEquentiel de Couleur A Mémoire" une résolution verticale multipliée par 0,7 (facteur de Kell) et qui n'est plus réellement que de 400 lignes environ.

3


• Ordinateur La fréquence de rafraichissement d’un écran d'ordinateur moderne est supérieure à 50 Hz. L’effet de scintillement est diminué, certains peuvent donc travailler dans un mode différent des téléviseurs : une trame contient toutes les lignes et non pas une ligne sur deux, ce mode s’appelle « progressif ». C’est notamment le cas des écrans plats, puisqu’il n’y a plus de balayage par un faisceau électronique. Si l’on applique le signal électrique entrelacé sans modification, alors chaque trame est considérée comme une image complète (le film est considéré à 50 images par seconde au lieu de 25) et non pas comme une demi-image. En conséquence, un signal entrelacé peut ne pas apparaître net sur un écran d’ordinateur : o

o

dans le cas d’une source pellicule (cf. supra) §

lorsque la trame paire succède à la trame impaire d’une image, cela ne pose pas de problème, mais

§

lorsque la trame impaire d’une image succède à la trame paire de l’image précédente, on se retrouve avec des lignes correspondant à deux images différentes à l’écran ;

dans le cas d’une source vidéo, chaque trame est une image différente.

Lors de séquences rapides, des bandes (on parle de « peigne ») apparaissent. Ce phénomène est réduit lors des séquences lentes, car les trames paires (faisant partie de l’image suivante) sont très proches des trames impaires (faisant partie de l’image en cours). Pour avoir un rendu correct, il faut désentrelacer le flux.

4


Mode progressif ou balayage progressif En mode progressif, l’écran affiche toutes les lignes lors d’un même balayage. Cette caractéristique est liée à la capacité de l’écran à afficher dans ce mode. Les écrans de télé un peu anciens savent par exemple afficher dans les modes 720p ou 1080i.

Une vidéo entrelacée aura une précision inférieure à une vidéo progressive car les images sont affichées par trame. Le mode progressif intéresse particulièrement les cinéastes car il restitue la texture de la pellicule 35 mm.

Désentrelacement Le terme désentrelacement désigne le procédé qui consiste à transformer une vidéo entrelacée en vidéo progressive, généralement dans le but d'afficher celle-ci sur un diffuseur progressif.

En conclusion •

L'entrelacement occasionne un léger scintillement de l'image et diminue sa précision. De plus on constate un effet de peigne sur les écrans d'ordinateurs lors des scènes en mouvement. C'est pourquoi, de nombreux vidéastes cherchent à désentrelacer leurs vidéos. Cette opération peut être effectuée à l'aide d'un logiciel qui va supprimer soit les lignes impaires soit les lignes paires. Hélas, ce procédé diminue du coup la précision de l'image puisqu'on perd la moitié des lignes. L'autre solution est de filmer directement avec un caméscope en mode progressif c'est à dire qui enregistre non pas 50 trames/seconde mais 25 images pleines/seconde.

Le mode progressif accroît la précision de la vidéo puisque chaque image s'affiche d'un coup avec toutes ses lignes. On obtient une image plus précise mais qui occasionne de légères saccades lors de mouvements de caméras trop brusques. En progressif, l'image est donc moins fluide. Pour signaler le mode progressif, les techniciens ajoutent la lettre "p" après le nombre de lignes ou d'images par secondes. 5


C) Présentation des différentes cadences d’images ou fps « frames per second » ou framerate. On ne peut pas voir à plus de 24 images par secondes. Le nombre d’images par seconde (ou images à la seconde) est une unité de mesure correspondant au nombre d'images affichées en une seconde par un dispositif. Plus le nombre d'images est élevé, plus l'animation semble fluide. Framerate :

(expressed in frames per second or fps) is the frequency (rate) at which with consecutive images called frames are displayed in an animated display. Frame rate may also be called the frame frequency, and be expressed in hertz.

« The hertz (symbol: Hz) is the derived unit of frequency in the International System of Units (SI) and is defined as one cycle per second.[1] It is named for Heinrich Rudolf Hertz, the first person to provide conclusive proof of the existence of electromagnetic waves. Hertz are commonly expressed in multiples: kilohertz (103 Hz, kHz), megahertz (106 Hz, MHz), gigahertz (109Hz, GHz), and terahertz (1012 Hz, THz). »

En informatique, les termes anglais de frame(s) per second ou FPS sont couramment utilisés pour désigner le nombre d'images par seconde. Au cinéma, le nombre d'images par seconde, qui était au début de 16 ou 18 images par seconde, fut normalisé à 24. À la télévision, le système européen PAL "Phase Altération Line" (ou SÉCAM "SEquentiel de Couleur A Mémoire" en France) est de 25 images par secondes. Aux États-Unis et au Japon, la norme NTSC "National Television System Committee" est de 30 images par seconde.

Si le nombre d'images par seconde au moment de la projection est supérieur à celui du tournage, on obtient un accéléré. À l'inverse, si le nombre d'images par seconde au moment de la projection est inférieur à celui du tournage, on obtient un ralenti.

6


Quelques Explications Les standards PAL "Phase Altération Line" ou SECAM "SÉquentiel de Couleur À Mémoire" n'ont pas de rapport avec le balayage d'une image, ces standards permettent uniquement d'ajouter la couleur aux images noir et blanc à savoir. Dans les premiers temps de la télévision, seule la luminance définit l'image par un certain nombre de points horizontaux et aussi par trois facteurs de nuance de gris. Lorsque la télévision couleur a fait son apparition il a fallu que les téléviseurs n/b puissent tout de même restituer une image, le signal de luminance a été conservé et on a ajouté un signal que le téléviseur noir et blanc ne pourrait distinguer et donc ne pas afficher, même en tant que signal parasite, c'est la compatibilité ascendante ou rétro compatibilité. On a donc ajouté les deux différences de couleur R'-Y et B'-Y (le ' signifie que les signaux ont subi une correction propre à une courbe de gamma pour pallier, à l'époque, un problème de non-linéarité de restitution des tubes cathodiques) afin, qu'en combinant le tout avec la luminance, qu'on puisse extraire le vert. Ceci pour la couleur ; maintenant il fallait pouvoir transporter ces deux différences et c'est là qu'un conflit de standard a été déclaré, tous les pays n'ont pas adopté la même façon de transmettre des signaux de chrominance. •

En France SECAM (SEquentiel de Couleur A Mémoire), transmission alternée de l'information rouge et bleu.

Aux États-Unis et autres pays le NTSC "National Television System Committee" (changement de phase uniquement sur une des différences couleur) : c'est le premier système qui a été mis en place, mais il génère de la diaphotie auquel la France a répondu par le SECAM (SEquentiel de Couleur A Mémoire).

Et le reste du monde, le PAL "Phase Altération Line" (distinction des deux différences envoyées en même temps et avec des phases différentes).

Le signal de chrominance est ensuite une sous-porteuse de la luminance… Le nombre de lignes, la vitesse de balayage, le type de signal positif ou négatif à l'émission, font partie des normes suivant le pays et n'a rien à voir avec les standards de diffusion couleur (PAL "Phase Altération Line", SECAM "SEquentiel de Couleur A Mémoire", MESECAM, et NTSC "National Television System Committee"). Du fait de la capture en deux trames de 1/50 de seconde chacune. C’est le temps de pose en vidéo.

7


Pour être un peu plus plus précis, les cadences ne sont pas exactement celles que les chiffres veulent bien vous faire croire : • • • • •

Le mode 24 images/sec. gère en fait 23.976 images au lieu de 24, Le mode 25 fait bien 25 (on verra plus tard pourquoi), Le mode 30 fait exactement 29.97 i/s, Le mode 50 reste à 50, Le mode 60 gère 59.94 fps "frame per second".

Le mode 23.976 est celui qui se rapproche le plus de la cadence cinéma qui est de 24 images/sec. (la virgule en moins). Les reflex ne filment donc pas exactement à la cadence des caméras de cinéma. Le mode 25 fps "frame per second" correspond au standard PAL "Phase Altération Line" (européen) adapté aux écrans et téléviseurs qui fonctionnent sur courant 50Hz. C’est aussi le standard pour ceux qui veulent graver des DVD "Digital Versatile Disc" compatibles avec les lecteurs DVD "Digital Versatile Disc" de salon grand public. C’est le mode à privilégier si vous souhaitez faire des vidéos qui seront destinées à ce type de lecteurs. Le mode 29.97 fps "frame per second" correspond au standard NTSC (Amérique du Nord) adapté aux écrans et téléviseurs qui fonctionnent sur courant 60Hz. Évitez ce framerate si vous comptez faire un DVD "Digital Versatile Disc" au standard PAL "Phase Altération Line" destiné à l’Europe. Si vous montez des vidéos destinées à être publiées sur Youtube ou Viméo uniquement, ce framerate est tentant car il donnera un résultat plus fluide que les deux précédents. D’autre part la majorité des écrans plat d’ordinateurs ont un rafraîchissement vertical à 60hz, comme le courant américain. Le mode 50 fps "frame per second" dépend lui du standard PAL comme le 25 fps "frame per second". Vous pouvez l’utiliser si vous souhaitez créer un DVD "Digital Versatile Disc" en PAL "Phase Altération Line" et incorporer des ralentis. Dans ce cas filmez vos plans en 720p à 50p pour les monter ensuite à 50% de la vitesse native. Vous n’aurez ainsi aucune saccade ni pertes d’images. Enfin le mode 59.94p fps "frame per second" correspond au standard NTSC "National Television System Committee" qui permet de faire des ralentis à 50% pour des montages produits en 29.97 fps "frame per second".

8


Avantages/inconvénients des trois systèmes NTSC, PAL et SECAM

Distribution géographique

Cadrage vidéo

9


D) Comment choisir la vitesse d’obturation – Le shutter La vitesse d’obturation définit le temps pendant lequel chaque image est exposée lors de la prise de vue. Si vous choisissez 60, alors chaque image sera exposée pendant 1/60° de seconde. C’est le même principe que le choix du temps d’exposition en photographie. En Europe le courant alternatif est à 50Hz, ce qui signifie qu’une source lumineuse branchée sur une prise de courant alternatif produit 50 vibrations par seconde. En adaptant le framerate de votre appareil à ces 50 vibrations avec un shutter (vitesse d’obturation) réglé sur 50, vous ferez en sorte que chaque image fige 1/50ème de seconde et l’oscillation de la lumière ne sera pas visible. En augmentant la valeur d’exposition au-delà de 50 en éclairage artificiel sur courant alternatif, vous allez voir apparaître du scintillement (flicker). Plus vous augmenterez la valeur du shutter (vitesse d’obturation), plus ce scintillement (flicker) sera intense et donnera un effet désagréable – des trainées de bas en haut de l’écran généralement. Évitez donc de monter au-delà de 50 pour éviter les effets pervers. Si vous projetez aux États-Unis, vous pouvez monter à 60 car le courant alternatif fait … 60Hz. Mais si vous filmez aux USA pour projeter ensuite chez vous en France, restez sur 50. Vous suivez ? Si vous filmez à une valeur inférieure à 50 – 25 par exemple – vous n’aurez pas de scintillement (flicker) non plus car vos images vont figer deux oscillations de lumière l’une sur l’autre.

10


Filmer en basse lumière Si vous filmez au 1/25ème qui est une vitesse lente, il y a risque de flou de mouvement. Un panoramique trop rapide de gauche à droite par exemple donnera des images floues correspondant au flou de bougé en photo. Lorsque la lumière manque, la nuit ou dans des endroits sombres, il vaut mieux rester à 1/50ème quitte à utiliser un objectif plus lumineux pour éviter d’avoir à trop monter en ISO. Vous éviterez ainsi les plans de mauvaise qualité, sauf s’il s’agit de plans parfaitement fixes sur pied ou de déplacement très lents.

Filmer en haute lumière Beaucoup pensent qu’en plein jour (sans le moindre éclairage artificiel donc) il est préférable de ne PAS monter trop en shutter (vitesse d’obturation) car il y a risque de perte de fluidité : c’est faux. La lumière naturelle est produite par le soleil qui n’est pas alimenté par le courant alternatif (!) donc l’éclairage solaire ne génère pas d’effet de scintillement (flicker), même à 1/8000ème de shutter (vitesse d’obturation). Augmenter le shutter (vitesse d’obturation) à 1/4000ème de sec. ne va pas non plus réduire la durée des images dans votre vidéo : les images sont capturées par le capteur à 1/4000ème de sec. mais la durée de diffusion sera toujours de 1/25ème de seconde. La fluidité d’un film tourné ainsi en plein jour à 1/4000ème sera donc la même que celle d’un film tourné de nuit au 1/25ème de sec.

En conclusion Mémorisez ces quelques notions et faites des essais : filmez à 25fps (ou 50 si vous souhaitez faire des ralentis) et 50 de shutter (vitesse d’obturation) en éclairage artificiel. N’hésitez pas à pousser la valeur de la vitesse d’obturation pour les scènes en plein jour sans éclairage artificiel, les scènes d’action ou de sport notamment. Si vous faites des vidéos dédiées à la seule publication sur le web, préférez le standard NTSC "National Television System Committee" (30 et 60 fps) qui donnera un résultat plus fluide et ne posera aucun souci de compatibilité avec les écrans d’ordinateur.

11


2.

Les résolutions d’images vidéo analogiques et numériques

La définition d’écran, couramment appelée à tort résolution d'écran, est le nombre de points ou pixels que peut afficher un écran. La définition est le produit du nombre de points selon l’horizontale par le nombre de points selon la verticale de l’affichage.

TV CRT : TéléVision Cathode Ray Tube le sigle signifie "Tube cathodique". PC CRT : Personal Computer Cathode Ray Tube le sigle signifie "Tube cathodique". Un tube cathodique (en anglais, Cathode Ray Tube : CRT) est un tube à vide constitué d'un filament chauffé, d'électrodes en forme de lentilles trouées qui, soumises à une différence de potentiel (tension), créent un champ électrique accélérant les électrons. XO-1 LCD : The XO-1 is designed to be low-cost, small, durable, and efficient. It is shipped with a slimmed-down version of Fedora Linux and a GUI named Sugar that is intended to help young children collaborate. The XO-1 includes a video camera, a microphone, long-range Wi-Fi, and a hybrid stylus/touch pad. Liquid Crystal Display le sigle signifie "Écran à cristaux liquides". LCD : Liquid Crystal Display le sigle signifie "Écran à cristaux liquides".

PIXEL RVB RougeVertBleu ou RedGreenBlue formant l’image.

12


A) Format des images vidéo numériques et informatiques Résolutions des standards informatiques

13


14


Signification des sigles Bien que les lettres S (pour Super) et U (pour Ultra) fréquemment présentes n'aient pas de réelles significations sur la façon dont elles modifient les définitions de base, c'est le cas pour d'autres : Wide (W)

Une définition "Wide" (Large en Anglais) possède le même nombre de lignes que la définition de base mais sa largeur est augmentée afin de respecter un ratio de 16:9 ou de 16:10. Par exemple, le VGA a une définition de 640x480 et le WVGA 854×480. Hex(adecatuple) (H)

Seize fois plus de pixels que la définition de base (le nombre en hauteur et en largeur est multiplié par quatre). Ultra (U) Super (S)

Ces lettres sont souvent utilisées simultanément comme c'est le cas avec WQXGA et WHUXGA. Quad(ruple) (Q) (avant XGA)

Quatre fois plus de pixels que la définition de base (le nombre en hauteur et en largeur est multiplié par deux). Exemple : XGA et QXGA. eXtended (X) (dans XGA)

Cette lettre est souvent utilisée en remplacement du V de VGA pour indiquer une extension de la définition de base, supérieure à celle du SVGA. Plus (+) (après XGA uniquement)

Ce signe étend encore plus la définition XGA sans atteindre pour autant SXGA.

15


Half (H) (avant VGA)

Un "Half" (moitié en anglais) représente la moitié de la définition de base. Par exemple, le HVGA a moitié moins de pixels que le VGA. Cette taille d'écran est notamment utilisée par les PDA. Quarter (Q) (avant VGA)

Un "Quarter » (quart en anglais) représente un quart de la définition de base (le nombre en hauteur et en largeur est divisé par deux). Par exemple, le QVGA a quatre fois moins de pixels que le VGA.

16


Résolutions des standards vidéo

Sigle

Nom

Résolution x Définition (image)

Format

Fréquence Verticale

SECAM

(SEquentiel Couleur A Mémoire) ( image 25 Hz / trame 50 Hz )

384 x 576

1.33

50 Hz

PAL

(Phase Alternative Line) ( image 25 Hz / trame 50 Hz )

450 x 576

1.33

50 Hz

NTSC

(National Television System Comittee) (image 30 Hz / trame 60 Hz )

323 x 486

1.33

60 Hz

(Moving Picture Experts Group MPEG - 1 norme 1) PAL ( image 25 Hz / trame 50 Hz )

352 x 288

1.33

50 Hz

(Moving Picture Experts Group MPEG - 1 norme 1) NTSC (image 30 Hz / trame 60 Hz )

352 x 243

1.33

60 Hz

1.33 (pixel rectangulaire 1.06) ou 16/9 (pixel rectangulaire 1.42)

50 Hz

SD

720 x 480

1.33 (pixel rectangulaire 0.88) ou 16/9 (pixel rectangulaire 1.18)

60 Hz

SD

(Moving Picture Experts Group MPEG - 2 norme 2) SD PAL PAL ( image 25 Hz / trame 50 Hz ) (Moving Picture Experts Group MPEG - 2 norme 2) SD NTSC NTSC (image 30 Hz / trame 60 Hz )

720 x 576

CREATION 1994

CREATION 1994

MPEG - 2 HD

(Moving Picture Experts Group norme 2) 720p

1280 x 720

16/9

50 Hz / 60 HD CREATION 2000 Hz

MPEG - 2 HD

(Moving Picture Experts Group norme 2) 1080i

1920 x 1080

16/9

50 Hz / 60 FULL-HD (2K) CREATION 2006 Hz

MPEG - 4 SD NTSC

(Moving Picture Experts Group norme 4)

720 x 480

16/9 (pixel rectangulaire 1.18)

60 Hz

SD

MPEG - 4 SD PAL

(Moving Picture Experts Group

720 x 576

16/9 (pixel rectangulaire 1.42)

50 Hz

SD

CREATION 1994

CREATION 1994

17


norme 4) MPEG - 4 HD

(Moving Picture Experts Group norme 4) 720p

1280 x 720

16/9

50 Hz / 60 HD CREATION 2000 Hz

MPEG - 4 HD

(Moving Picture Experts Group norme 4) 1080i

1920 x 1080

16/9

50 Hz / 60 FULL-HD (2K) CREATION 2006 Hz

16/9

ULTRA - HAUTE 50 Hz / 60 DEFINITION Hz ULTRA-HD(4K)

HEVC

3840 x 2160

CREATION 2012

7680 x 4320

16/9

ULTRA - HAUTE 50 Hz / 60 DEFINITION Hz ULTRA-HD (8K) CREATION 2018

HEVC : Hight Efficiency Video Coding

Résolutions des formats recommandés Youtube année 2017

18


19


SD : Super Definition HD : Haute Definition

20


Résolutions des supports vidéos

DV : Digital Video

HDV : High Definition Video

21


Résolutions du Cinéma Numérique 4K Salle de cinéma

ou

Digital Cinema Initiatives ou DCI :

Groupement d'experts du cinéma visant à spécifier une architecture pour le cinéma numérique. Cette architecture vise un haut niveau de performance, de contrôle, et de robustesse. Le DCI a été créé en mars 2002, par les studios hollywoodiens.

22


B) Profondeur des couleurs

Resolution : Rec. 709 et Rec. 720 La Rec. 709 se réfère aux systèmes HDTV qui ont approximativement deux millions d'échantillons de luminance par image. La Rec. 709 a deux parties : •

La première partie codifie ce qui est désormais le système HDTV 1035i30 et 1152i25. Le système 1035i30 est désormais obsolète, dépassé par le standard 1080i et 1080p pixel carré. Le 1152i25 était utilisé dans des équipements expérimentaux en Europe et n'a jamais connu de développement commercial ;

La seconde partie codifie l'actuel et le prospectif système 1080i et 1080p avec pixels carrés. En tentant d'unifier tous les standards HDTV 1080 lignes, la partie 2 définit un format d'image commun (CIF, Common Image Format) avec des paramètres d'image indépendants de la fréquence image.

Rec. 2020 defines two resolutions of 3840 × 2160 ("4K") and 7680 × 4320 ("8K"). These resolutions have an aspect ratio of 16:9 and use square pixels.

23


Frame rate • Le Rec. 709 précise les fréq. images suivantes : 60 Hz, 50 Hz, 30 Hz, 25 Hz et 24 Hz. Les fréquences fractionnaires ayant les valeurs précédentes divisées par 1,001 sont aussi permises : 59,94 Hz, 29,97 Hz ou 23,97 Hz par exemple. •

L'acquisition initiale est possible en entrelacé ou progressif. La vidéo enregistrée en progressif par le capteur peut être transmise en images progressives ou images PsF (Progressive segmented Frame). L'acquisition en entrelacé peut être transmise en entrelacé. Dans le cas où une image progressive est transmise en PsF, la fréquence trame doit être le double de la fréquence image.

En pratique, les conditions précédentes ont pour résultat les fréquences image suivantes : o

25i, 25PsF, 25p, 50p pour les systèmes 50 Hz ;

o

23.976p, 23.976PsF, 24p, 24PsF, 29.97i, 29.97p, 29.97PsF, 30PsF, 30p, 59.94p, 60p pour les systèmes 60 Hz.

• Rec. 2020 specifies the following frame rates : 120p, 119.88p, 100p, 60p, 59.94p, 50p, 30p, 29.97p, 25p, 24p, 23.976p. Only progressive scan frame rates are allowed.

Digital representation Le codage Rec. 709 utilise un encodage partiel avec comme niveaux de référence le code 16 pour le noir et le code 235 pour le blanc dans un système de codage 8 bits (256 valeurs de 0 à 255). Rec. 2020 defines a bit depth of either 10-bits per sample or 12-bits per sample.

24


Wide Color Gamut Définit une large gamme de couleurs (WCG) comme une gamme de couleurs qui est plus large que la Rec. 709. WCG inclurait DCI-P3 et Rec. 2020. Un gamut est une palette des chrominances de couleurs affichables par un diffuseur. Il se présente comme un diagramme en « fer de cheval », où la valeur 100% correspond au spectre visible par l’œil humain. Un triangle délimité par le RGB, détermine la palette affichable. La norme Rec.709, qui correspond au gamut courant, a été conçue pour les limites des écrans cathodiques, et sait reproduire à peine 35% du spectre ! Deux palettes de « gamut élargi » seront utilisées en UHD : le DCI P3 et surtout le Rec.2020. Cette dernière sera la norme des diffuseurs haut de gamme, et se trouvera au cœur de l’image 4K et 8K. En UHD, le spectre visible de la palette passe à 76%

Rec.2020 Color Gamut

Rec.709 Color Gamut

25


26


27


En résumé • Rec. 709 Espace colorimétrique qui a été défini standardisé pour toutes les images SD et HD. Ce sont les couleurs que peuvent afficher les écrans HD TV Rec. 709. Parfois ça peut aller au-delà Moniteurs de retouche photo Adobe RGB ou du DCI (P3) comme les iMac et MacBook. Quantité de couleur que l'on peut diffuser directement. • Rec. 2020 La dalle doit afficher toutes les couleurs à l'intérieur du grand triangle orange. Nouveau standard. Espace colorimétrique que l'on va pouvoir capturer et diffuser sur des TV moniteur compatible Rec. 2020 UHD 4K et 8K. Pas de perte de données. Standard Rec. 709. Wide Gamut Rec. 2020. Pour du fichier 4K donc au rendu sélectionner Apple ProRes 4.4.4. Pour du 2K Apple ProRes 4.2.2. Choix standard Rec. 709 pour la timeline et traiter du 2K ou du 4K en FHD.

Mais qui peut le moins peut le plus donc autant traiter dans le format du rush soit 4K donc Wide Gamut Rec.2020.

28


Quelques explications ITU-R Radiocommunication : International Telecommunication Union - Recommandation pour Rec. : are the names given to set of international technical standards developed by the Radiocommunication Sector (formerly CCIR "Comité Consultatif International des Radiocommunications"). HDR sigle désignant High Dynamic Range :

L'imagerie à grande gamme dynamique (ou imagerie large-gamme) (HighDynamic-Range Imaging ou HDRI) regroupe un ensemble de techniques numériques permettant d'obtenir une grande plage dynamique dans une image. Son intérêt est de pouvoir représenter ou de mémoriser de nombreux niveaux d'intensité lumineuse dans une image. Cette technique s'effectue en permettant d'attribuer plus de valeurs à un même pixel. D'abord développée pour les images générées par ordinateur, la technique s'est ensuite adaptée à la photographie numérique. H.264 : norme H. correspondant aux Systèmes audiovisuels et multimédias du groupe JVT :

Algorithme de compression vidéo pour bas débit : H.264, ou MPEG-4 AVC (Advanced Video Coding), ou MPEG-4 Part 10, est une norme de codage vidéo développée conjointement par l'UIT-T (Q)uestion.6/(S)tudy (G)roup16 (Study period 2009/2016) Video Coding Experts Group (VCEG) ainsi que l'ISO/CEI Moving Picture Experts Group (MPEG) et est le produit d'un effort de partenariat connu sous le nom Joint Video Team (JVT) is a group of video coding experts.

La norme UIT-T "Union Internationale des Télécommunications" H.264 et la norme ISO/CEI MPEG 4 Part 10 (ISO/CEI 14496-10) sont techniquement identiques, et la technologie employée est aussi connue sous le nom AVC, pour Advanced Video Coding. Le JVT "Joint Video Team" a ensuite travaillé sur le concept d'extensibilité en élaborant une extension à la norme H.264 (annexe G) : les spécifications Scalable Video Coding (SVC), puis sur la norme HEVC (High Efficiency Video Coding).

29


Le standard inclut les six ensembles de caractéristiques suivants, qui sont appelés des profils, chacun ciblant une classe d'applications précise :

• • • • • • •

Baseline Profile (BP) : principalement pour les applications à bas coût qui utilisent peu de ressources, ce profil est très utilisé dans les applications mobiles et de visioconférence. Main Profile (MP) : à l'origine, prévu pour les applications grand public de diffusion et de stockage, ce profil a perdu de l'importance quand le profil High a été ajouté avec le même objectif. Extended Profile (XP) : prévu pour la diffusion en flux (streaming) des vidéos, ce profil a des capacités de robustesse à la perte de données et de changement de flux. High Profile (HiP) : le profil principal pour la diffusion et le stockage sur disque, en particulier pour la télévision haute définition (ce profil a été adopté pour les disques HD DVD et Blu-ray ainsi que pour la télévision numérique française haute définition). High 10 Profile (Hi10P) : ce profil va au-delà des applications grand public et s'appuie sur le profil High — ajoutant jusqu'à 10 bits de précision par pixel. High 4:2:2 Profile (Hi422P) : Le profil principal pour les applications professionnelles, il s'appuie sur le profil High 10 — ajoutant le support pour la quantification 4:2:2 jusqu'à 10 bits par pixel. High 4:4:4 Profile (Hi444P) [obsolète] : ce profil s'appuie sur le profil High 4:2:2 — ajoutant le support pour la quantification 4:4:4, jusqu'à 12 bits par pixel et en plus le support pour un mode sans perte efficace. Note : Le profil High 4:4:4 est en cours de suppression du standard en faveur d'un nouveau profil 4:4:4 en cours de développement.

30


Profils

31


CEI or IEC : Electrotechnique Internationale ou International La Commission Electrotechnical Commission (IEC) en anglais, est l'organisation internationale de normalisation chargée des domaines de l'électricité, de l’électronique, de la compatibilité électromagnétique, de la nanotechnologie et des techniques connexes. Elle est complémentaire de l'Organisation Internationale de Normalisation (ISO), qui est chargée des autres domaines.

La CEI est composée de représentants de différents organismes de normalisation nationaux. La CEI a été créée en 1906 et compte actuellement 69 pays participants. Les normes CEI sont reconnues dans plus de 100 pays. Originellement située à Londres, la Commission a rejoint ses quartiers généraux actuels de Genève en 1948. La CEI dispose de trois centres régionaux à Singapour, São Paulo et Worcester. La CEI a été l'instrument du développement et de la distribution de normes d'unités de mesure, notamment le gauss, le hertz, et le weber.

Elle contribua également à proposer un ensemble de références, le système Giorgi, qui finalement fut intégré au Système International d'unités (SI) dont l'ISO est responsable. La sensibilité ISO :

En photographie, la sensibilité ISO est la mesure de la sensibilité à la lumière des pellicules et des capteurs numériques. Elle est une donnée essentielle à la détermination d'une exposition correcte. Elle doit son nom à l'International Organization for Standardization qui publie les normes la définissant. La sensibilité des surfaces sensibles a considérablement augmenté au fil des années. En 1935, la sensibilité du premier Kodachrome était de 10 ASA (10 ISO). En argentique noir et blanc, elle est passé de 50 à 3200 ISO. Aujourd'hui, en numérique, elle peut aller jusqu'à 800000 ISO et plus.

32


Comprendre la différence entre sensibilité ISO, ASA et DIN ISO, ASA DIN sont Les normes et simples à comprendre. Savoir jongler avec ces indices permet de contourner les automatismes des appareils photo.

Ø Sensibilité ISO et DIN Dans les premiers temps de la photographie, chaque fabricant d’émulsion avait son échelle de sensibilité. Progressivement les systèmes les plus simples et les plus pratique se sont imposés. Ø Le système ou norme ASA Abréviation de American Standard Association, la norme ASA est la plus connue des amateurs et la plus simple à utiliser. Chaque fois que l’indice ASA double, la sensibilité du film double. • Exemple : 100 ASA correspond à un film de deux fois moins sensible qu’un film de 200 ASA. Dans la pratique, dans les mêmes conditions de lumière : • Le film de 200 ASA permet de faire une photo à 1/125 à f/8 ; • Le film de 100 ASA nécessite 1/60 à f/8 avec pour obtenir la même exposition Ø Le système ou norme DIN Abréviation de Deutsch Industrie Normen ou DIN Deutsches Institut für Normung. Ce système DIN semble plus complexe, pourtant, il n’en est rien et il s’avère très pratique à l’utilisation. La mesure est donnée en degrés. Chaque degré din indique une augmentation de la sensibilité de 1/3 de valeur. La sensibilité est doublée tous les trois degrés. Exemple :

• • • •

21° / 100 ASA ; 22° / 125 ASA ; 23° / 160 ASA ; 24° / 200 ASA.

33


Ø La norme ISO Abréviation de International Standard Organisation. La norme ISO se contente de regrouper les deux systèmes ASA et DIN. Par exemple : ISO 100/21°

La plupart des appareils photo modernes argentiques détectent la sensibilité de la pellicule introduite dans le boîtier automatiquement grâce au codage DX. Il n’y a aucun réglage à faire. Si vos photos sont régulièrement trop claires (cas le plus courant), si votre appareil photo ne prévoit pas un correcteur d’exposition, il est très facile de recaler votre appareil photo en changeant l’indice de sensibilité de la pellicule. Avec le système DIN, il est très simple de recaler sa cellule, au tiers de valeur près. Le même raisonnement permet de recaler la cellule d’un appareil numérique. 34


MPEG : MPEG, sigle de "Moving Picture Experts Group", est le groupe de travail SC "SubCommittees" 29/WG "Working Group" 11 du comité technique mixte JTC pour "Joint Technical Committe" 1 de l’ISO et de la CEI pour les technologies de l’information.

Ce groupe d’experts est chargé du développement de normes internationales pour la compression, la décompression, le traitement et le codage de la vidéo, de l’audio et de leur combinaison, de façon à satisfaire une large gamme d’applications.

MPEG a développé les normes suivantes : •

MPEG-1 : définie en 1988, il s'agit de la première norme audio et vidéo utilisé plus tard pour les Vidéo CD. Ce format offre une définition à l’écran de 352 x 240 pixels à 30 images par seconde ou de 352 x 288 à 25 images par seconde avec un débit d’environ 1,5 Mbit/s. Elle comprend le populaire format audio MPEG-1 partie 3 audio couche 3 (MP3).

MPEG-2 : définie en 1994, cette norme est applicable au codage de l’audio et la vidéo, ainsi que leur transport pour la télévision numérique : télévision numérique par satellite, télévision numérique par câble, télévision numérique terrestre, et (avec quelques restrictions) pour les vidéo-disques DVD ou SVCD. C’est notamment le format utilisé jusqu’à présent pour la TV sur ADSL. Les débits habituels sont de 2 à 6 Mbit/s pour la définition standard (SD), et de 15 à 20 Mbit/s pour la haute définition (HD).

MPEG-4 : définie à partir de 1999, cette norme est applicable aux bas débits (jusqu’à 2 Mbit/s), exclus de la matrice des décodeurs de MPEG-2. Permet, entre autres, de coder des objets vidéo/audio, le contenu 3D et inclut le DRM. La partie 2 de MPEG-4 (Visual) est compatible avec la partie baseline de H.263 et a connu du succès grâce à la mise en application DivX ainsi que dans les téléphones mobiles. La partie 10 appelée MPEG-4 AVC ou H.264, développée à partir de 2003, permet des gains d’un facteur 2 à 3 par rapport à MPEG-2 et a été retenue comme le successeur de celui-ci pour la TV haute définition, la TV sur ADSL et la TNT. L’extension de cette partie, appelée Scalable Video Coding (SVC) permet de proposer différents niveaux de qualité à partir d’un même flux codé.

Le H.265/HEVC définie à partir de 2013, est la norme qui succède au H264, elle permet une diminution significative de la taille des vidéos par rapport à cette dernière.

MPEG-7 : Norme de description pour la recherche du contenu multimédia.

MPEG-21 : Norme proposant une architecture pour l’interopérabilité et l’utilisation simple de tous les contenus multimédias.

MPEG-A :

tourné

vers

les

applications

multimédia.

Est

en

cours

de

standardisation.

35


Bit :

• Le mot « bit » est la contraction des mots anglais binary digit, qui signifient « chiffre binaire », avec un jeu de mot sur bit, « petit morceau ». • On en doit la popularisation à Claude Shannon ingénieur père fondateur de la théorie de l’information (théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise) qui en attribue l'invention à John Tukey (1915-2000), important statisticien américain.

36


CineForm CineForm Intermediate is a proprietary video codec developed for CineForm Inc by David Taylor, David Newman and Brian Schunck. On March 30, 2011, the company was acquired by GoPro which in particular wanted to use the 3D film capabilities of the CineForm 444 Codec for its 3D HERO System. The press release in the GoPro acquisition noted that CineForm's codec has been used in several major movies including Slumdog Millionaire and Need For Speed. The CineForm Intermediate Codec was originally designed in 2002 compressed Digital Intermediate workflows for film or television applications using HD or higher resolution media. The CineForm media is most commonly wrapped within AVI or MOV files types, using the 'CFHD' FOURCC code for all compressed media types. Current implementations support image formatting for 10-bit 4:2:2 YUV, 12-bit 4:4:4 RGB and RGBA, and 12-bit CFA Bayer filter RAW compression (as used with the Silicon Imaging SI-2K camera.). All compression is based on an integer reversible wavelet compression kernel, with non-linear quantizer to achieve higher compression. Compression data-rates typically range from 10:1 to 3.5:1, based on quality settings. There is also an uncompressed mode for RAW files.

Cinepack Cinepak is a lossy video codec developed by Peter Barrett at SuperMac Technologies, and released in 1991 with the Video Spigot, and then in 1992 as part of Apple Computer's QuickTime video suite. It was the primary video codec of early versions of QuickTime and Microsoft Video for Windows, but was later superseded by Sorenson Video, Intel Indeo, and most recently MPEG-4 Part 2 and H.264/MPEG-4 AVC. However, movies compressed with Cinepak are generally still playable in most media players.

37


C) Codeurs entropiques • CABAC Context-adaptive binary arithmetic coding ou CABAC que l'on peut traduire par codage arithmétique binaire adaptable au contexte est un type de codeur entropique utilisé dans la norme de compression vidéo H.264/AVC ainsi que dans la norme HEVC.

Il s'agit d'un codeur arithmétique dont la compression est dite sans perte.

Algorythme Le CABAC possède de nombreux modes de probabilités pour différents contextes. Tout d'abord, il convertit tous les symboles non-binaires en symboles binaires. Puis, pour chaque bit, le codeur sélectionne le modèle de probabilité le plus adapté et utilise les informations des éléments voisins pour optimiser l'estimation de la probabilité. Le codage arithmétique est ensuite appliqué pour compresser les données résultantes. Malgré sa complexité, CABAC fournit de meilleurs résultats de compression que la plupart des algorithmes d'encodage utilisés dans l'encodage vidéo ce qui fait de lui l'un des premiers avantages du schéma d'encodage de la norme H.264. En effet, son gain par rapport à CAVLC est d'environ 10 % dans des conditions similaires.

• CAVLC Le Context-adaptive variable-length coding ou CAVLC est une forme de codeur entropique à longueur variable utilisé dans la norme vidéo H.264 ou MPEG-4 AVC. Il fait partie des techniques de compression sans perte, c'est-à-dire qu'à partir du code binaire généré par le codeur, il est possible de faire l'opération inverse et de retrouver les informations d'entrée sans aucune différence.

38


D) À propos des codecs Apple ProRes Les codecs Apple ProRes combinent de manière inégalée des performances de montage multiflux en temps réel, une qualité d’image exceptionnelle et des taux de stockage réduits. Ils tirent pleinement parti du traitement multicœur et permettent de bénéficier de modes de décodage rapides en résolution réduite.

Tous les codecs Apple ProRes prennent en charge l’ensemble des formats d’image existants (notamment les formats SD, HD, 2K, 4K et 5K) en pleine résolution. Le débit de données varie en fonction du type de codec, ainsi que du contenu, de la taille et de la fréquence des images. Les codecs Apple ProRes peuvent être aux formats suivants : Apple ProRes 4444 XQ

Ce format de codec Apple ProRes permet d’obtenir une qualité optimale pour les sources d’image 4:4:4:4 (y compris pour les canaux alpha). Il présente un débit de données très élevé, permettant de préserver les détails des images à grande gamme dynamique, générées par les capteurs d’images numériques dernière génération de la meilleure qualité. Les codecs Apple ProRes 4444 XQ permettent également de conserver des gammes dynamiques bien supérieures à celle des images Rec. 709. Ces caractéristiques sont maintenues, même en cas de traitement d’effets visuels riches dans lesquels les niveaux de noir ou hautes lumières sont considérablement étirés. Tout comme le codec Apple ProRes 4444 standard, celui-ci prend en charge jusqu’12 bits d’informations par canal d’image, voire jusqu’à 16 bits pour le canal alpha. Le codec Apple ProRes 4444 XQ offre un débit de données cible d’environ 500 Mbit/s pour les sources 4:4:4 en 1 920 x 1 080 et à 29,97 ips. Le codec ProRes 4444 XQ est pris en charge sous OS X Mountain Lion 10.8 ou version ultérieure. Apple ProRes 4444

Ce format de codec Apple ProRes permet d’obtenir une qualité exceptionnelle pour les sources d’image 4:4:4:4 (y compris pour les canaux alpha). Il procure des couleurs RVBA 4:4:4:4 en haute résolution, ainsi qu’un rendu visuel fidèle. Le codec Apple ProRes 4444 constitue une solution de stockage et d’échange de composites et de graphismes animés de haute qualité, qui procure d’excellentes performances lors de la génération multiple et un canal alpha sans perte jusqu’à 16 bits. Il présente un débit de données remarquablement faible en comparaison avec le format 4:4:4 HD sans compression. Il offre en effet un débit de données cible de 330 Mbit/s pour les sources 4:4:4 en 1 920 x 1 080 et à 29,97 ips. Ce codec permet également un encodage et un décodage directs depuis ou vers les formats de pixel RVB et Y’C C . Apple ProRes 422 HQ B

R

39


Avec un débit de données plus élevé que le codec Apple ProRes 422, ce codec procure le même niveau élevé de qualité visuelle que le codec Apple ProRes 4444, mais pour des sources d’image 4:2:2. Largement adopté dans le secteur de la postproduction vidéo, le codec Apple ProRes 422 HQ permet de conserver sans perte la vidéo HD professionnelle de la meilleure qualité transmissible par un signal HD-SDI à liaison simple. Il prend en charge les sources vidéo 4:2:2 en pleine largeur à des profondeurs de pixels de 10 bits, sans aucune perte visuelle après de nombreuses opérations de décodage et de réencodage. Le débit de données cible de ce codec est d’environ 220 Mbit/s en 1 920 x 1 080 et à 29,97 ips. Apple ProRes 422

Ce codec avec compression haute qualité procure pratiquement tous les avantages du codec Apple ProRes 422 HQ, mais à 66 % du débit de données de ce dernier et avec des performances de montage multiflux en temps réel supérieures. Le débit de données cible est d’environ 147 Mbit/s en 1 920 x 1 080 et à 29,97 ips. Apple ProRes 422 LT

Ce codec offre un niveau de compression plus élevé que le codec Apple ProRes 422, ainsi que 70 % environ du débit de données de ce dernier et des dimensions de fichier inférieures de 30 %. Il est de ce fait idéal pour les environnements dans lesquels la capacité de stockage et le débit de données sont limités. Le débit de données cible est d’environ 102 Mbit/s en 1 920 x 1 080 et à 29,97 ips. Apple ProRes 422 Proxy

Offrant une compression encore plus élevée que le codec Apple ProRes 422 LT, ce codec est idéal pour les flux de production hors ligne nécessitant de faibles débits de données, mais une vidéo en pleine résolution. Le débit de données cible est d’environ 45 Mbit/s en 1 920 x 1 080 et à 29,97 ips.

Informations supplémentaires Les codecs Apple ProRes 4444 et Apple ProRes 4444 XQ sont parfaitement adaptés aux échanges de graphismes animés dans la mesure où il n’existe pratiquement aucune perte. Il s’agit également des seuls codecs Apple ProRes prenant en charge les canaux alpha.

40


E) Les différents formats de diffusion de l’image FORMAT = Rapport largeur de l’image sur hauteur de l’image. 1.33 1.37 1.5 1.66 1.77 1.85 2.35

(ou 4/3) format d’image utilisé par la télévision Format d’image cinéma (ou 3/2) format d’image utilisé en photo pellucile 24x36mm Format d’image cinéma 35mm européen (ou 16/9) format d’image télévision Format d’image cinéma PANAVISION film 35mm Format d’image cinéma CINÉMASCOPE film 70mm ou 35mm anamorphosé (21/9)

Historiquement, la télévision a été mise au point sur des écrans au format 4/3 (soit un rapport de 1,33/1). Ce format a été choisi car il était celui utilisé par le cinéma lors de la mise au point de la télévision, dans les année 1940. Depuis, le cinéma a évolué, avec des procédés tels que le cinémascope et autres Panavision basés sur l'utilisation d'un objectif anamorphoseur, les formats courants au cinéma sont le 1,85/1 et le 2,35/1. Lorsqu'il a été décidé de passer la télévision vers un format panoramique, c'est le format 16/9 qui a été choisi. Il correspond à un rapport d'image de 1,77/1, assez proche de 1,85 et reste un bon compromis entre le 1,33 (barres noires à gauche et à droite) et le 2,35 (barres noires en haut et en bas). Les puristes conservent les barres noires pour voir l'intégralité de l'image, tandis que ceux qui préfèrent profiter du plein écran utilisent le zoom du téléviseur mais perdent par conséquent une partie des bords de l'image.

Diagonale Avec un format d'écran de 4/3 : Diagonale de l'image = 5/3 x Hauteur Avec un format d'écran de 16/9 : Diagonale^2 = 337/81 x Hauteur^2 Avec un format d'écran de 21/9 : Diagonale^2 = 58/9 x Hauteur^2

FORMULES 1 POUCE = 2,54 CM Diagonale^2 = Hauteur^2 + Longueur.

41


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.