Définitions termes audiovisuels
Définition de 787 termes utilisés au quotidien dans le secteur de l'audiovisuel.
- Abréviation de résolution 1 080 lignes, balayage entrelacé. Il s’agit du format le plus couramment utilisé en haute définition. Il correspond à 1 080 lignes et 1 920 pixels par ligne, avec balayage entrelacé. Mais la mention 1080I à elle seule ne permet pas de spécifier la fréquence d’images, pouvant être 25 ou 30 Hz, selon les normes SMPTE ou UIT.
- Format d’image TV de 1 080 par 1 920 lignes, avec balayage progressif. La fréquence d’images peut être 25 et 30 Hz, comme pour le 1080I, mais également 24, 50 ou 60 Hz.
- Fréquence d’échantillonnage utilisée pour le codage numérique 601 de la vidéo SD. Cette valeur étant un multiple des fréquences des systèmes de télévision à 525 et 625 lignes, elle permet un certain niveau de compatibilité entre les systèmes numériques. La vitesse d’échantillonnage est telle que les informations de luminance les plus détaillées présentes dans les images en SD sont fidèlement reproduites, même à la fréquence la plus élevée (5,5 MHz).
Pour la plupart des normes HD, l’échantillonnage numérique de la luminance s’effectue à 74,25 MHz, soit 13,5 MHz multipliés par 5,5. - Le 16 mm est un format de pellicule cinématographique lancée par Kodak en 1923. Créé d'abord pour le cinéma amateur, mais aussi pour la prise de vue en reportage.
- 16/9e est le rapport d'image (largeur/hauteur) qui se rapproche le plus de ceux que l'on retrouve au cinéma (1.66 :1, 1.85 :1 et 2.35 :1) et qui permet de visualiser de manière optimum les films enregistrés sur un DVD au format cinéma et certaines émissions TV.
Il existe des écrans cathodiques, LCD et Plasma au format 16/9e, ainsi que des vidéoprojecteurs dont la matrice reprend ce rapport, mais on peut également en profiter sur un écran 4/3 traditionnel en perdant une partie de la surface de l'écran. - Le 17,5 mm est un format de film cinématographique d'une largeur de 17,5 mm (moitié du 35 mm standard) lancé par Pathé en 1927 sous le nom Pathé Rural. Ce système sera stoppé net en 1942.
- Il s’agit du plus petit multiple commun aux fréquences de lignes TV 525/59,94 et 625/50, soit respectivement 15,734265 kHz et 15,625 kHz. Bien que rarement évoqué, ce format a son importance puisqu’il constitue la base de toutes les fréquences d’échantillonnage de composantes numériques, pour la définition standard comme pour la haute définition.
- Média progressif 24 i/s. Le système Avid génère un média 24i en associant (désentrelaçant) deux trames vidéo pour créer une seule image complète et reconstruite. Dans le cas des transferts film à bande NTSC, Avid génère un média 24i en supprimant les trames supplémentaires ajoutées par la compensation 2:3 et en créant des images progressives.
- 24P est l'abréviation du format 24 images, balayage progressif. La plupart du temps, ce format fait référence au format d’image HD à 1080 lignes et 1920 pixels par ligne (1080x1920/24P). Cette fréquence d’images est également utilisée en définition standard à 480 et 576 lignes, avec 720 pixels par ligne. C’est souvent le cas dans le cadre d’un montage hors ligne en 24P haute définition ou pour la création de versions « Pan and Scan » recadrées après conversion en HD.
A l’instar des projecteurs cinématographiques, les écrans 24P ont généralement recours à la technique de double obturation ; chaque image est affichée deux fois ce qui permet de réduire le scintillement susceptible de se produire à cette faible fréquence d’images. - Les images sont ensuite enregistrées sur bande sous forme de deux trames (segments), l’une comprenant les lignes impaires et l’autre les lignes paires concordantes dans le temps, et Understanding HD with Avid format 720P offre l'avantage de rafraîchir l'image à une fréquence suffisamment élevée afin de reproduire les mouvements en toute fidélité.
Il est donc recommandé pour la diffusion de compétitions sportives, les ralentis sur des actions, etc. 74,25MHz Fréquence d'échantillonnage couramment utilisée pour la luminance (Y) ou pour les valeurs RVB de la vidéo HD. Equivalant à 33 x 2,25 MHz, cette fréquence fait partie de sont alors parfaitement adaptées aux enregistreurs TV.
D’un point de vue électronique, ces images sont strictement identiques à celles d’un film ou d’une transmission télé cinématographique, à la seule différence que la vitesse de l’enregistreur est de 24 images/s. Cela confère au métrage obtenu un aspect plus « cinématographique ».
Toutefois, en raison d'une fréquence d'image plus réduite, le rendu des mouvements peut comporter certains défauts. La norme UIT-R BT. 709-4 inclut également le 25 PsF et le 30PsF. - Média progressif 25 i/s. Le système Avid génère un média 25i en associant (désentrelaçant) deux trames vidéo pour ne faire qu'une seule image progressive entière et reconstruite.
- Le 2:2 pulldown est une technique permettant de copier un film d'une cadence de 25 images par seconde en un signal vidéo PAL ou SECAM à 50 trames par seconde.
- Le 2K est un format d’images numérisées à partir d’une pellicule cinématographique de 35 mm, ainsi qu’un format légèrement différent pour la projection en salle de cinéma.
En termes de production, il correspond à 1 536 lignes de 2 048 pixels chacune et à une image au format d’affichage 4 x 3. L’échantillonnage 4:4:4 RVB d’une précision logarithmique sur 10 bits permet de transmettre fidèlement la netteté et le contraste des négatifs 35 mm.
Ce format n’est pas utilisé en télévision. Il sert à la numérisation des pellicules 35 mm dans le cadre des effets spéciaux, et de plus en plus fréquemment, de l’étalonnage, du montage et de la mastérisation. Il est cependant possible de sélectionner un affichage 16:9 (1 080 x 1 920) et 4 x 3 à partir du 2K pour la distribution HD et SD à la télévision.
Enfin, ce format convient à la reconversion analogique de qualité supérieure ou à la projection directe en D-cinéma. Comme pour la pellicule, l’image d’origine ne s’affiche pas en totalité à l’écran. En projection numérique, le 2K désigne une image de 2 048 x 1 080 lignes offrant un large format d’affichage. - L'un des premiers formats de cassette vidéo composite, dans lequel le signal composite est enregistré sur une bande de largeur égale à ¾ de pouce. Utilisé pendant de nombreuses années, particulièrement dans les enregistrements en extérieurs, le format U-matic est progressivement remplacé par des systèmes plus performants et plus légers.
- Le 35 mm est un standard de pellicule photographique d'une largeur de 35 millimètres. Créé à l'origine pour le cinéma, il a été introduit par la suite en photographie argentique sous le code 135. Il reste relativement inchangé depuis son introduction en 1892 par William Dickson et Thomas Edison. Le défilement standard pour le cinéma est de quatre perforations par image, soit environ 53 images par mètre.
- Le 3:2 pulldown est une technique permettant de copier un film d'une cadence de 24 images par seconde en un signal vidéo NTSC à 30 images par seconde (60 trames par seconde).
- En matière de télévision numérique, les fréquences d’échantillonnage sont définies par des formules abrégées, qui ont, à plusieurs égards, un rapport assez éloigné avec le concept qu’elles décrivent. Ces formules numériques ne sont pas des nombres absolus, mais expriment des rapports de fréquences d’échantillonnage ; un certain effort d’interprétation est donc nécessaire pour comprendre leur signification précise. Le terme « sous-échantillonnage de la chrominance » fait référence à ces rapports de fréquence d’échantillonnage. La plupart du temps, les premiers chiffres expriment la luminance (Y) et les deux derniers la chrominance (à l’exception de 4:4:4 ou 4:4:4:4 abordés plus en détail ciaprès).
Le premier chiffre est quasi systématiquement un 4, signifiant que la luminance est échantillonnée une fois par pixel produit dans l’image. Dans quelques rares cas, une fréquence d’échantillonnage plus faible pourra être utilisée pour la luminance. C’est le cas par exemple du HDCAM, qui a généralement recours au format 3:1:1. Le terme souséchantillonnage désigne l'utilisation d'une fréquence d’échantillonnage inférieure au nombre de pixels final.
Les deux chiffres suivants correspondent aux fréquences d’échantillonnage des composantes de couleur pure numérisée de Rouge-Y et Bleu-Y, intitulées Cr et Cb. Selon le principe télévisuel exploitant les limites de perception de l’oeil humain dans le domaine de la couleur pure, les coupes permettant de réduire la quantité de données sont généralement effectuées au niveau de la chrominance plutôt qu’au niveau de la luminance. Le format d’échantillonnage le plus couramment utilisé en studio est le 4:2:2 : sur chaque ligne, la fréquence d'échantillonnage des deux composantes de couleur est deux fois moins élevée que la fréquence d'échantillonnage de luminance.
Le format 4:1:1, utilisé par certains formats DV et par le DVCAM, effectue, sur chaque ligne, un échantillonnage de Cr et Cb tous les 4 points d’échantillonnage de Y. Il permet néanmoins d’atteindre un niveau de détail de chrominance supérieur au PAL ou au NTSC. On peut également raisonner de la façon suivante : si on effectue un sous-échantillonnage horizontal de la chrominance, comme c’est le cas en 4:1:1, la même opération réalisée dans le sens vertical devrait, en toute logique, permettre une répartition plus uniforme des informations de couleur. Ainsi, au lieu d’échantillonner Cr et Cb sur la même ligne, l’échantillonnage de Cr s'effectue sur la première ligne et celui de Cb sur la deuxième. La fréquence d’échantillonnage augmente alors sur chaque ligne pour passer à une valeur Y sur deux. Ce type de procédé est appelé échantillonnage 4:2:0 (soit 4:2:0 sur une ligne et 4:0:2 sur la suivante) utiliséen MPEG-2 et dans la plupart des processus de compression JPEG. En règle générale, il est conseillé d’associer aux images un signal clé (signal alpha). Pour synthétiser, une image clé est une image complète dont on n’a gardé que les valeurs de luminance. Il est donc logique d’ajouter le chiffre 4 à la formule ; on parle alors de format 4:2:2:4.
Techniquement parlant, le 4:4:4 peut correspondre à un échantillonnage complet du RVB ou, beaucoup plus rarement, des signaux des composantes Y, Cr et Cb. Si un canal clé est associé au RVB, on parle alors de codage en 4:4:4:4. Dans certaines situations, des techniques non standard seront plus indiquées, telles que le sur-échantillonnage, qui permet une amélioration de la qualité d’image, à condition d’être traité correctement. Vous pourrez voir dans ce cas des formats de codage du type 8:8:8, correspondant à deux échantillonnages par pixel dans le cas du RVB. Ce rapport d’échantillonnage est utilisé aussi bien en SD que pour la vidéo haute définition. Même si la taille d’échantillonnage est généralement 5,5 fois supérieure, le format 4:2:2 reste le plus largement répandu en studio HD.
Pourquoi le chiffre 4 ? En toute logique, le premier chiffre devrait être un 1, qui représenterait une relation d’équivalence avec les pixels de 1:1, mais les normes télévisuelles restent largement tributaires des formats existants. En effet, au début des années soixantedix, les premières tentatives de numérisation de signaux de télévision portaient sur des formats PAL et NTSC codés. Dans un cas comme dans l’autre, la fréquence d’échantillonnage devait nécessairement être calquée sur celle de l’onde sousporteuse couleur, elle-même régie par un rapport fixe du nombre de lignes/fréquences d'images. En NTSC, la fréquence du signal de sous-porteuse équivaut à 3,579545 MHz et celle du standard PAL-I à 4,43361875 MHz.
En comparaison, l’échantillonnage des systèmes numériques équivaut généralement à 4 fois le signal de sous-porteuse NTSC ou 3 fois le signal pour le PAL, soit respectivement 14,3 et 13,3 MHz. Une nouvelle étape déterminante a ensuite été franchie avec l’apparition de la vidéo à composantes Y, B-Y et R-Y (valeur de luminance plus deux composantes de couleur pure, appelée également signal de différence de couleurs), simplifiant considérablement le traitement de toutes les opérations courantes effectuées sur les images (redimensionnement, lissage, conversions à diverses normes ou compression, entre autres). La même logique a été conservée dans le cadre du développement de la norme d’échantillonnage pour ce type de vidéo. Une certaine harmonisation entre les deux systèmes de balayage 525/60I et 625/50I utilisés dans les différents pays a également été introduite. Cette norme est connue sous le nom de norme UIT-R BT.601 pour l’échantillonnage SD. ‘601’ définit la fréquence d’échantillonnage de la luminance à 13,5 MHz (produisant 720 pixels par ligne active) et chaque signal de différence de couleurs à la moitié de cette fréquence, soit 6,75 MHz.
Et pour la petite histoire, on s’aperçut un beau jour que cette valeur de 13,5 MHz était quasiment identique aux 14,3 MHz équivalent à 4 fois le signal de sous-porteuse du NTSC. En poussant un peu plus loin le raisonnement, il aurait été facile d’établir une correspondance encore plus proche entre cette fréquence de 13,5 MHz et la multiplication par 3 du signal de sous-porteuse du standard PAL, ce qui aurait permis de simplifier largement le jargon pour le moins complexe utilisé actuellement. Voilà pourquoi ce nombre qui aurait pu être un 3 et aurait dû être un 1 est devenu par convention un 4. En haute définition, les fréquences d’échantillonnage étant 5,5 fois plus rapides que pour la SD, l’échantillonnage 4:2:2 largement répandu en studio équivaut en réalité à 74,25 MHz pour les valeurs Y et 37,125 MHz pour Cr et Cb. - Le 4K correspond à un format d’images de production de films numériques de 3 072 lignes de 4 096 pixels chacune, soit quatre fois la définition du 2K. Chaque image comportant 32 Mo de données, la lecture et le traitement de rushes 4K en temps réel requièrent une station de travail puissante, sans compter un espace disque énorme.
Malgré les défis techniques à relever, un nombre croissant de professionnels préfèrent utiliser le 4K dont l’avenir semble plus prometteur.
En outre, il est possible de créer en 4K des prises d’effets pouvant être réinsérées, en toute transparence, dans un film 2K. Les avantages indéniables du 4K en matière de coûts et d’utilisation laissent prévoir son développement en tant que format de mastérisation numérique, aux dépens du 2K. - Le 70 mm est un format de pellicule cinématographique de 70 mm de largeur en projection et de 65 mm en prise de vues. Après quelques essais sans suite dans les années 1930 il sera popularisé au cinéma à partir des années 1950.
- Abréviation du format 720 lignes, balayage progressif. Défini par le standard SMPTE 296M et inclus aux normes de télévision ATSC et DVB, ce format se caractérise par 1280 pixels par ligne, 720 lignes et 60 images par seconde balayées progressivement.
Il est majoritairement utilisé par les professionnels de la diffusion devant transmettre dans une définition 720P. Grâce à son balayage progressif de 60i/s, le format 720P offre l'avantage de rafraîchir l'image à une fréquence suffisamment élevée afin de reproduire les mouvements en toute fidélité. Il est donc recommandé pour la diffusion de compétitions sportives, les ralentis sur des actions, etc. - Fréquence d'échantillonnage couramment utilisée pour la luminance (Y) ou pour les valeurs RVB de la vidéo HD. Equivalant à 33 x 2,25 MHz, cette fréquence fait partie de la structure hiérarchique utilisée pour le SD et le HD. Elle est définie par les normes SMPTE 274M et UIT-R BT.709.
- Le 8 mm est un format de film de cinéma amateur lancé en 1932 par Kodak.
- Le 9,5 mm est un format de film d'une largeur de 9,5 mm, lancé par Pathé en 1922. La particularité de ce film réside dans ses perforations d'entraînement centrales, entre chaque image, permettant ainsi d'utiliser toute la largeur du film.
- AAC (Advanced Audio Coding). Également appelé MPEG-2 AAC ou MPEG-2 NBC, ce format s'annonce comme le successeur du MP3. Les fichiers AAC codés à un débit binaire de 96 kbit/s offrent une qualité audio légèrement meilleure que celle des MP3 codés à 128 kbit/s.
- AAF (Advanced Authoring Format). Cette norme ouverte de l’industrie de la post-production et de la création multimédia a été adoptée par de nombreuses sociétés, y compris Avid. Elle assure aux créateurs de contenu un échange plus facile de leurs médias numériques (vidéo, audio et métadonnées) d’une plate-forme ou d’une application à l’autre. Elle simplifie la gestion de projet et permet de gagner un temps précieux et de conserver les métadonnées indispensables, souvent perdues au cours des transferts.
Alors que c’est en phase de montage et de post-production que le volume de métadonnées est le plus important, l’incompatibilité des différents systèmes et applications a freiné leur interaction, interopérabilité et utilité. Le format de fichier AAF permet de transférer l’intégralité des informations entre applications conformes à cette norme.
Ainsi, les ressources audio et vidéo, les métadonnées, ainsi que les informations relatives à la manipulation et à l’assemblage du matériel (correction des couleurs, effets vidéo et coupures) sont disponibles en permanence.
Les métadonnées transmettent également des informationsd’origine relatives au timecode, au code de fabrication, à la propriété, aux montages précédents, etc. facilitant ainsi l’extraction ultérieure d’archives et le contrôle des versions. - AC3 (encodage dolby). Système de codage Dolby pouvant transporter des programmes audio de 1 à 5.1 canaux selon diverses configurations, développé pour la transmission de l’audio chez les consommateurs par une diffusion télévisuelle SD/HD numérique. Contrairement au Dolby E, cette technologie n’est pas adéquate pour des cycles de codages répétés.
- Le terme est appliqué aux spécifications dignes des standards de l'académie du cinéma (Academy of Motion Picture Arts and Sciences), telles que bande amorce académique, le format académique (pour les pellicules de film vierges), le décompte académique, etc.
- Possibilité de déplacement instantané vers un point de la vidéo, sans avoir recours à la recherche rapide.
- Tranche horaire précédant le prime time, de 19 heures à 20 heures.
- Un accessoiriste est le technicien chargé sur un tournage (ou au théâtre) de gérer les objets suggérés par le scénario, et le dépouillement définis par le metteur en scène.
- Après « Moteur », « ça tourne », « action », généralement dit par le réalisateur, va lancer le jeu des comédiens.
- Mixage des effets sonores, de la musique et des pistes audio du présentateur avec la piste audio de la bande principale du montage, généralement réalisé lors du mixage d'une production. Egalement appelé postproduction audio pour vidéo.
- 1. Automatic Display Replacement (remplacement automatique de l'affichage). Processus de lecture en boucle d'une partie spécifique de séquence et d'enregistrement automatique de plusieurs prises de vue de remplacement.
2. Remplacement automatique du dialogue dans un film. Egalement appelé doublage. - Audio Engineering Society. Principale organisation internationale des utilisateurs et producteurs de l'audio au niveau professionnel. L'AES régit un comité de standards qui supervise le travail de plusieurs sous-comités et groupes de travail représentant les divers domaines de renforcement du son.
- Audio Engineering Society/European Broadcasting Union. Organisation de normalisation qui définit une structure de signal numérique pour entrée audio professionnelle sur les systèmes de montage vidéo Avid utilisant la carte SA 4. Cette structure de signal s'utilise généralement pour introduire du son directement sur des systèmes de montage vidéo Avid via une bande audionumérique (DAT), en évitant ainsi la numérisation ou l'enregistrement sur bande vidéo.
- Audio Interchange File Format- Condensed. Format de fichier son échantillonné permettant le stockage de données audio. Ce format est utilisé principalement comme format d'échange de données, mais peut aussi l'être comme format de stockage. Le format OMFI (Open Media Framework Interchange) inclut le format AIFF-C comme format d'échange usuel pour les données audio non comprimées.
- Audio Interchange File Format- Condensed. Format de fichier son échantillonné permettant le stockage de données audio. Ce format est utilisé principalement comme format d'échange de données, mais peut aussi l'être comme format de stockage. Le format OMFI (Open Media Framework Interchange) inclut le format AIFF-C comme format d'échange usuel pour les données audio non comprimées.
- Crénelage. Effet visuel indésirable provoqué par l'insuffisance de la définition d'une image ou par un filtrage inadéquat des contours d'objets, et qui prend habituellement la forme de dentelures et de contours brisés.
- L'amorce est une bande de film perforée, collée avant la première image et après la dernière image de chaque bobine et de longueur normée. L'amorce facilite la manipulation de la bande. En photographie l'amorce est un objet ou personnage disposé en avant-plan du sujet ou de l'action principale.
- Un anaglyphe (en grec ancien : «ciselure en relief», «bas-relief», «ouvrage sculpté», composé d’ana, «du bas vers le haut» et de glyphe, «ciselure») est une image imprimée pour être vue en relief, à l’aide de deux filtres de couleurs différentes (lunettes 3D) disposés devant chacun des yeux de l’observateur.
Ce principe est fondé sur la notion de stéréoscopie qui permet à notre cerveau d’utiliser le décalage entre nos deux yeux pour percevoir le relief. Le principe est décrit en 1853 par Rollman. Charles d’Almeida fait connaître ce mode de restitution du relief à l’Académie des sciences de Paris. Louis Ducos du Hauron le perfectionne, finit de le mettre au point en 1891 (il lui donne aussi ce nom). Les anaglyphes sont alors l’objet d’une importante production destinée au tourisme, à l’enseignement, aux loisirs, à la publicité… Louis Lumière adapte le procédé au cinéma en 1936, mais le procédé y reste marginal.
Ce principe est utilisé au XXIe siècle en recherche spatiale, la NASA crée des images numériques trichromes déphasées en mode anaglyphique depuis la surface de Mars lors des missions Mars Exploration Rover et Phoenix.
Un anaglyphe est constitué de deux images superposées (appelées homologues) de couleurs complémentaires représentant la même scène mais vue de points légèrement décalés : le plus souvent la vue gauche en rouge et la vue droite en cyan. Ces images homologues ne sont donc pas identiques : le décalage (appelé parallaxe ou disparité) n’est pas le même pour tous les éléments de l’image ; il est d'autant plus grand, dans un sens ou dans l'autre, que les éléments sont situés près du plan de l'image physique, par exemple imprimée, projetée sur un écran ou affichée sur l'écran d'un ordinateur ou d'un téléviseur.
La restitution du relief est donnée en plaçant un filtre de l’une de ces deux couleurs complémentaires sur un œil et un filtre de l’autre couleur sur l’autre œil : ainsi, chaque œil ne perçoit que les éléments de l'image visibles à travers le filtre de la même couleur (si le fond de l'image est noir) ou de la couleur complémentaire (si le fond de l'image est blanc). Si deux éléments d'image gauche et droite sont vus suffisamment proches, avec un décalage seulement horizontal, le cerveau les interprétera comme représentant le même objet. Cet objet sera vu plus ou moins loin devant ou derrière le plan sur lequel l'image est physiquement formée, selon la valeur et le sens du décalage, appelé parallaxe, entre les éléments gauche et droit.
Ainsi, si le décalage est différent pour divers éléments de l’image, celui qui regarde l’image à travers des filtres aura l’impression de voir une image dont les points sont situés dans tout l'espace. On voit alors cette image en relief. - Ce terme qualifie une image dont les proportions d'origine ont été modifiées. Le processus anamorphique, ou anamorphose, s'effectue grâce à une lentille auxiliaire qui compresse l'un des axes de l'image, généralement l'axe horizontal, à un taux donné. De cette manière un format d'affichage 1,85:1 ou 2,35:1 peut être réduit horizontalement afin de produire une image au format cinématographique 1,33:1 (4:3). Lors de sa projection, le film anamorphosé passe par une autre lentille anamorphique qui étire l'image afin de lui rendre ses proportions d'origine. L'anamorphose est courante sur les écrans larges SD. En effet, elle permet d'augmenter les dimensions de l'image de près de 33 % en étirant simplement les 720 pixels qui la constituent. Ce procédé s'applique également aux lentilles de caméra et permet de tourner en 16:9 avec une simple puce CCD de 4:3.
- Opération permettant de revenir à l'état précédant immédiatement le dernier montage, ou de répéter une annulation.
- Procédé permettant de réduire le phénomène de crénelage. Grâce à ses filtres, l'anticrénelage spatial est particulièrement utile pour atténuer les contours en dents de scie des lignes diagonales ou le scintillement des zones très détaillées. Rien ne vaut cependant un meilleur échantillonnage et un traitement plus précis pour éviter le crénelage.
- Aparté (aside en anglais) est ce qu'un acteur prononce sur scène et qui est censé n'être entendu que par les spectateurs et non par les autres personnages.
- Pour visionner un montage sans le réaliser (l'enregistrer).
- Final Cut Pro 6 présente ProRes 422, le nouveau format de post-production d'Apple permettant d'obtenir une qualité HD non compressée avec des tailles de fichiers SD.
Utilisez ProRes 422 lorsque vous collaborez sur un réseau de stockage Xsan, lorsque vous travaillez avec des formats de caméra non natifs ou pour conserver une qualité optimale des composites et des travaux d'étalonnage couleur exigeants. - Le dépôt légal des films sur support photochimique a été confié au Centre National du Cinéma et de l'image animée, pour les Actualités Françaises filmées entre 1940 et 1969, elles sont déposées à l'Institut national de l'audiovisuel (INA). Les archives sont consultables à la Bibliothèque Nationale de France pour les films numérisés et à Bois-d'Arcy, dans les Yvelines pour les supports argentiques.
- ransfert sur des fichiers médias de segments pour que les utilisateurs des autres groupes de travail puissent accéder aux médias et les utiliser avant l’envoi des fichiers complets.
- L'arrière plan est le décor ou les personnages qui se trouvent derrière l'action ou derrière les comédiens sur lesquels se fait la Mise au point.
- Un artiste est un individu faisant (une) œuvre, cultivant ou maîtrisant un art, un savoir, une technique, et dont on remarque entre autres la créativité, la poésie, l'originalité de sa production, de ses actes, de ses gestes. Ses œuvres sont source d'émotions, de sentiments, de réflexion, de spiritualité ou de transcendances.
- L'American Standards Association (ASA) est l'indice de sensibilité des films, normalisé ISO.
- Toute combinaison du regroupement de plusieurs pistes. Chaque montage effectué sur une piste est également répercuté sur les pistes asservies.
- ATM (Asynchronous Transfert Mod). Le Mode de transfert asynchrone est une technologie réseau basée sur le transfert de données en paquets de taille fixe. Le paquet utilisé avec le mode asynchrone est de taille modeste comparé aux unités utilisées avec les technologies plus anciennes. La taille modeste et constante des paquets permet à l'équipement ATM d'acheminer des données audio, vidéo et informatiques sur le même réseau et de s'assurer que la ligne n'est pas mobilisée par un seul type de données. A l'heure actuelle, le mode de transfert asynchrone prend en charge des débits de 25 à 622 Mo/s (mégaoctets par seconde). Ce chiffre peut être comparé au maximum de 100 Mo/s pour Ethernet, technologie utilisée par la plupart des réseaux locaux.
- Codec audio utilisé par les lecteurs MiniDisc MDLP et les lecteurs MP3 Sony.
- Audimat (audience rating en anglais) est l'outil de mesure de l'audience de la télévision française.
- Audio désigne l'enregistrement et la reproduction du son.
- Marque déposée d'Avid Technology, Inc. Système de montage audio numérique non-linéaire qui verrouille la vidéo numérique en synchronisation avec l'audio pour le montage et l'adoucissement de l'audio.
- Audiovisuel est un terme qui désigne les techniques de communication joignant le son et l'image. En anglais : TV and radio (nom) ou audiovisual (adjectif).
Le 7 août 1974, le Premier ministre Jacques Chirac présente la réforme de l'audiovisuel. La loi prévoit le démantèlement de l'Office de la radiodiffusion-télévision française (ORTF) en 7 sociétés indépendante : 3 chaînes (Télévision Française1, Antenne2 et France-Régions3), la Société française de production (SFP), Télédiffusion de France (TDF), Radio France, et l'Institut national de l'audiovisuel (INA). Le monopole d'Etat est maintenu. La loi sera mise en application l'année suivante avec la colorisation de TF1. - Authoring : organisation des séquences vidéo dans le but de créer un CD/DVD interactif. Ces séquences sont ensuite traduites en fichiers adéquates pour être gravé sur le support
- Fonction enregistrant le travail à intervalles réguliers (dont vous spécifiez la valeur). Les sauvegardes sont placées dans le dossier Attic.
- Piste auxiliaire. Canal réservé à la connexion d'un dispositif audio ou vidéo externe, ou les deux, dans un système de montage vidéo.
- L'AVC Intra est un format de tournage HD basé sur le codec H.264. L'AVC-Intra, est un format intra frame et n'utilise donc pas de long-GOP. Chaque frame est présente et entier sans interpolation. L’AVC-Intra va avoir deux versions. L’une 50Mb/s 4:2:0 10bit qui qualitativement va venir légèrement en dessous du DVCPROHD, et une version très haut de gamme à 100Mb/s. Cette version à 100Mb/s 4:2:2 10bit est sur le même débit que le DVCPROHD mais à base d’un codec plus optimisé qui offre donc une qualité supérieure. La version AVC-Intra 50 va être intéressante sur un usage news, offrant donc une qualité HD proche du DVCPROHD mais à des débits deux fois moindres, avec beaucoup de place économisée sur les cartes P2. L’AVC-Intra 100 va être tourné vers la production haut de gamme comme la publicité ou le digital cinéma. L’AVC-Intra exploite une écriture en 1920x1080 en AVC-Intra 100 et en 1440x1080 en AVC-Intra 50. Si on prend notre caméra la plus haut de gamme en P2 aujourd’hui, la HPX-3000, cela permet donc de disposer d’une chaîne Full HD d’un bout à l’autre de la captation, avec un capteur full-HD de 2,2 Millions de pixels et une écriture Full HD en 1920x1080 en l’AVC-Intra 100. Pour rappel, sur cet aspect, pouvez-vous nous rappeler la résolution de captation du DVCPROHD ? C’est en 1440x1080. Donc comme pour d’autres formats c’est un système de pixel shifting qui lui permet de passer sur un format 16/9ème en 1920x1080. Aujourd’hui l’AVC-Intra 100 va être ce que l’on va proposer de mieux en terme qualitatif, il va venir remplacer progressivement notre D5-HD qui était relativement confidentiel en France mais qui est un format de mastering très utilisé dans le monde, et il va petit à petit être utilisé sur des productions.
- La compression d’images peut se faire selon deux méthodes : la compression intra-image (dite I-Frame), qui compresse chaque image (compression spatiale) et la compression en « Long GOP », qui compresse les images par groupes (compression spatiale + compression temporelle). Les codecs AVC-Intra et DVCPROHD utilisent une compression intra-image, alors que des codecs comme le HDV utilisent une compression en Long GOP. Le MPEG-4 AVC/H.264 utilise quant à lui les deux méthodes de compression. Lorsque le contenu d’images adjacentes est assez similaire, la compression Long GOP permet d’obtenir de bons résultats, avec l’avantage de bénéficier d’un débit faible. Cependant, il arrive fréquemment que le contenu d’images qui se suivent varie beaucoup comme par exemple, lors du tournage d’une conférence de presse avec de nombreux flashs, pendant des événements sportifs où les sujets filmés bougent très rapidement ou encore pendant la captation de concerts. De plus, en mode intra-image, le processing est effectué image par image, ce qui permet d’exploiter au mieux les processeurs multi-core de dernière génération qui permettent de travailler en parallèle sur plusieurs images simultanément. La compression intra-image est ainsi plus adaptée au montage virtuel que la compression Long GOP, dont la structure de compression rend les images dépendantes les unes des autres et rend donc plus difficile le processing. Deux fois plus efficace que le MPEG-2 ! En exploitant au mieux toutes les techniques de compression apportées par l’algorithme H.264, l’AVC-Intra est devenu deux fois plus efficace que le MPEG-2, même en utilisant uniquement la compression intra-image. Son mode de prédiction intra-image et son encodage entropique qui s’adapte de manière dynamique aux images sont les deux outils principaux qui permettent d’améliorer drastiquement l’efficacité de la compression. Mode de prédiction intra-image (« intra prediction ») Ce processus génère des images prédictives basées sur des blocs adjacents de 8x8 pixels. En sélectionnant le meilleur mode de prédiction parmi 9 modes de signaux de luminance et 4 modes de signaux de chrominance, il permet de générer des images prédictives d’une grande précision. Les données résiduelles, obtenues en soustrayant l’image prédictive de l’image originelle, sont enregistrées avec l’image prédictive. Grâce à la précision de la prédiction, les données résiduelles sont minimes et ainsi une compression importante peut être obtenue. Du fait que ce processus est appliqué l’intérieur même de l’image, la précision de la prédiction reste constante même avec des images en mouvement rapide.
- Codec Haut de gamme de Panasonic (supèrieur à l'AVC Intra à 100Mb/s en 422 10Bit), le codec AVC-Ultra proposera un débit de 200Mb/s. Ce format est avant tout dédié aux besoins particulièrs de post production DI , de projets 3D ou de réalité virtuelle ou l'AVC-Ultra permettra de travailler en HD 1080 50 / 60P en 4:2:2 10 bits. Le débit de 200Mb/s permettra de passer en 12 bits / 4:4:4 en HD et 2K 24p.
- Avid est un logiciel professionnel de montage vidéo de la société américaine Avid Technology, Inc spécialisée dans le développement d'outils informatiques de production audiovisuelle.
- Avid Video Resolution (Résolution vidéo Avid). Niveau de compression en fonction duquel le média visuel est stocké par le système Avid. Le système crée des fichiers médias avec la résolution AVR, en utilisant des algorithmes de conversion qui lui sont propres et permettent de convertir des signaux vidéo analogiques en signaux vidéo numériques.
Le format AVR a été mis au point par Avid Technology. Il est constitué de différentes méthodes de compression vidéo M-JPEG compatibles avec ses systèmes matériels ABVB non linéaires. En compression AVR, la même table de quantification (des coefficients) est appliquée à chaque image du clip vidéo lors de sa numérisation. Ceci permet de conserver une résolution M-JPEG uniforme sur l'ensemble du clip. Dans ce format, le taux de compression des données augmente en fonction de la complexité de l'image.
Par exemple, un très gros plan possèdera généralement un faible taux de compression tandis qu'un plan d'ensemble réalisé lors d'une compétition sportive sera rendu à un taux de compression élevé. Pour ne pas encombrer la bande passante des systèmes, le format AVR utilise le principe d'invalidation (aussi appelé "rollback"). Ce mode de contrôle continu du débit des données évite que ce dernier dépasse la valeur maximale prédéfinie. Il suffit donc que cette limite d'invalidation soit atteinte sur une image donnée pour que les fréquences spatiales élevées de cette image soient supprimées des images suivantes, jusqu'au retour à un débit de données raisonnable. - Axe horizontal dans un système à trois dimensions.
- Axe vertical dans un système à trois dimensions.
- Axe perpendiculaire aux axes X et Y dans un système à trois dimensions.
- Le Back light (lumière de derrière) est un éclairage à contre-jour.
- Méthode de calcul du point d'entrée par soustraction de la durée depuis un point de sortie connu, afin que, par exemple, la musique et la vidéo ou le film se terminent sur la même note.
- Réglage permettant de compenser les écarts de température de lumière en lumière artificielle (trop rouge) ou dans des conditions de lumières naturelles particulières (neige, plage - trop bleu).
- Synchronisation des appareils dans les systèmes de montage informatisés.
- Le Banc-titre est un système permettant de filmer des documents.
- Sens 1 : Morceau beaucoup plus long que large d'une matière quelconque, souvent souple. Anglais strip
Sens 2 : Toute forme allongée, étroite.
Sens 3 : Groupe de personnes, troupe. Anglais band, group
Sens 4 : Ruban magnétique destiné à l'enregistrement et la reproduction de sons et/ou d'images ou de données informatiques. Anglais (vidéo) film, (audio) tape - Longueur de film, de bande ou clip numérique placé en début de bobine ou de séquence pour faciliter le repérage et la synchronisation du matériel.
- Enregistrement ou transmission en direct d'un programme faisant intervenir plusieurs caméras et plusieurs sources d'images. Egalement connu sous le nom de director's cut dans les productions de comédies de situation.
- Différence entre la limite supérieure et inférieure de la fréquence d'une composante d'échantillon audio.
- Bande son contenant tous les éléments sonores requis (dialogues, musique et effets sonores mixés selon les proportions appropriées).
- Bande magnétique en plastique recouverte d'un revêtement métallique à base d'oxyde, utilisée pour l'enregistrement des signaux vidéo et audio.
- La Bande-annonce est le résumé de une à deux minutes d'un film projeté au cinéma avant sa sortie.
- Signal standard de test de couleur, affiché sous forme d'un motif vidéo à huit colonnes (c'est-à-dire de barres) de couleurs de largeur égale. Les barres couleur SMPTE représentent la norme courante. Vous ajustez les réglages vidéo en fonction des barres couleur de la bande vidéo source avant l’enregistrement ou la numérisation.
- Barre rectangulaire située sur le bord droit ou le bas d'une fenêtre. Le fait de cliquer ou de déplacer la barre de défilement permet à l'utilisateur de se déplacer ou d'obtenir une vue panoramique du fichier.
- Commande située dans la fenêtre de la timeline permettant d'agrandir ou de réduire la zone de la timeline centrée autour de l'indicateur de position bleu.
- Zone rectangulaire horizontale située sous les fenêtres Source, Record, Playback et Composer, et sous la fenêtre contextuelle Source contenant l'indicateur de position.
- Nom donné à un projet ou un chutier, placé en haut d'une fenêtre.
- Nombre d'oscillations électriques générées chaque seconde. Le baud était la principale unité de mesure pour la bande passante et le transfert des données, mais les bps (bits par seconde), plus précis, sont l'unité de mesure la plus utilisée actuellement.
- Marque déposée d'Apple Computer, Inc. Interface de programme d'application (API) de format d'enregistrement et de structure informatique généraux. Bento est utilisé par le format OMFI comme système de stockage et d'accès aux données des fichiers OMFI.
- Transfert télécinéma réalisé avec les réglages optimaux des contrôles d'étalonnage de la couleur, mais sans correction précise de la couleur scène par scène.
- Marques de Sony Electronics, Inc. Deux normes d'enregistrement vidéo et de composantes vidéo. Sony Betacam fut le premier système haut de gamme fonctionnant avec des cassettes permettant d'enregistrer la vidéo sur une bande magnétique de 1/2 pouce. La version SP fit son entrée sur le marché 3 ans après celle du premier Betacam ; elle présente de nombreuses améliorations, parmi lesquelles les rapports signal sur bruit, les réponses en fréquence, le nombre de canaux audio et la quantité de bande magnétique disponible sur les cassettes. SP est actuellement la seule version commercialisée.
- ype de courbe que vous pouvez utiliser pour les segments incurvés sur les formes Intraframe ou dans certains types de graphes, tels que les graphes d’incrustation. Un point de Bézier sur la courbe permet de contrôler la régularité ou la netteté de la courbe en ce point.
- Nombre maximal d'éléments binaires transmis par seconde sur une voie de transmission. On mesure ce débit binaire en bit par seconde ou en multiple de cette unité, par exemple en mégabit par seconde (Mbit/s).
- 1. Roue à moyeu central et côtés plats sur laquelle est embobinée la bande magnétique. De manière générale, un rouleau de bande est appelé bande et un rouleau de film est appelé bobine.
2. Longueur de film embobinée sur une roue ou un tube. Suivant le cas, un rouleau de pellicule peut faire référence à une bobine de film ou à une bande. - Méthode de conformation nécessitant le transfert de tous les effets multicouches sur une simple couche (y compris les fondus et fondus enchaînés standard) avant assemblage. Egalement appelée montage sur simple couche.
- 1. Méthode de conformation permettant de gérer la plupart des fondus et fondus enchaînés au moyen de deux couches d'un film afin de limiter la quantité de travail optique. Egalement appelé montage sur double couche.
2. Scènes en alternance, enregistrées sur des bandes magnétiques source ou des bobines de film différentes, pour réaliser des fondus enchaînés ou par volets et autres types de transitions. - Copie exacte du matériel original de la bobine A, ou du nouveau matériel original d'une bobine séparée, pour utilisation dans le montage de bobine A et B.
- Duplicata de la bande source originale, créé afin que les superpositions puissent être fusionnées sur une bande source unique.
- Bobine dédiée à l'enregistrement et la lecture des contretypes (prises de vue dupliquées) au moment du montage de la bande vidéo.
- Bobine de film utilisée sur un système de montage horizontal KEM. Une bobine KEM combine des prises multiples en une seule bobine (elle constitue une copie de travail et non un négatif). La longueur maximale d'une bobine KEM est d'environ 300 m (en 35 mm).
- Un Bout d'essai est une prise de vue destinée à tester un comédien, un effet, un filtre, etc.
- Le Bout-à-bout est un montage vidéo sommaire des plans, dans l'ordre du scénario et sans raccord affiné.
- Le Box-office est le nombre d'entrées en salle, classement des entrées.
- Acheminement de l'audio ou de la vidéo d'un canal ou d'une piste de la séquence vers un autre canal ou une autre piste.
- Broadcast est un verbe anglais composé par broad (autour) et cast (distribuer), signifiant «diffuser». Ce terme est essentiellement utilisé par les techniciens de télévision pour qualifier le niveau d'un équipement, d'un système de diffusion ou d'une source qui respectent les normes professionnelles («qualité broadcast»).
Par extension, le nom commun broadcasting est employé dans plusieurs secteurs d'activité. Dans le domaine de la télévision et des télécommunications, broadcasting signifie télédiffusion ou radiodiffusion. Dans le domaine de l'informatique, le broadcasting désigne une méthode de transmission de données à l'ensemble des machines d'un réseau.
Les intermittents du spectacle utilisent l'expression «être Broadcast» pour qualifier un travail soigné, propret, carré, relativement plat mais pas dénué d'une haute estime de soi. - Un Bruit de fond est un bruit parasite en fond sonore.
- Le Bullet time est un type de ralenti très détaillé réalisé grâce à une série d'appareils photo disposés autour de l'action.
- Transfert d'un programme enregistré sur une bande vidéo de qualité médiocre sur une bande de qualité supérieure (tel que le transfert d'une bande de 3/4 de pouce sur une bande de 1 pouce, ou du format S-VHS au format MII).
- « Ça tourne ! » est la réponse des équipes techniques (image et son) au « moteur » du réalisateur.
- Le Cadre est ce que voit le cadreur dans le viseur de la caméra. Suivant le format choisi pour la diffusion, le cadre de la caméra peut être supérieur au cadre diffusé. Il lui faudra alors disposer de repères pour savoir ce qui est hors-cadre. Avec les techniques numériques, il est courant de procéder à des recadrages en posproduction.
- Les Cahiers du cinéma est une revue de cinéma française créée en avril 1951 par André Bazin, Jacques Doniol-Valcroze, Joseph-Marie Lo Duca et Léonide Keigel.
- Fusion des couches d'effets destinée à créer un flux unique de vidéo numérique pour la lecture en temps réel.
- Dérouler une bande vidéo jusqu'à un emplacement prédéterminé.
- Effectuer un réglage précis des niveaux de la vidéo pour assurer une clarté maximale pendant l'enregistrement sur disque (à partir de la bande vidéo).
- Appareil de prises de vues. Anglais camera
- 1. Entrée ou sortie audio physique.
2. Combinaison d'une ou de plusieurs composantes de couleurs permettant de former une image en couleur. Une image RVB se compose des canaux de couleur rouge, vert et bleu. Lors de la correction des couleurs, il est possible de redéfinir les canaux de couleur en mélangeant les composantes de couleurs dans des proportions différentes. - Représentation 8 bits en échelle de gris d'une image utilisée pour créer un cache lors de l'incrustation d'images.
- Un carton, hérité du cinéma muet, est intercalé entre deux plans pour commenter ou expliquer la situation. Les génériques (de début et de fin) sont composés de cartons incrustés dans une image ou sur fond neutre (en général un fond noir) de la liste des castings artistique et technique.
- Boîtier contenant une bande magnétique et permettant l'enregistrement audio et vidéo. Synonyme vidéocassette.
- CAVBAC (Context Adaptive Binary Arithmetic Coding).
- CAVLC (Context Adaptive VLC).
- L'un des signaux de différence de couleur du système couleur des composantes de la norme vidéo NTSC.
La formule du signal est : Cb = 0,299R (rouge) – 0,587V (vert) + 0,886B (bleu) - Comité Consultatif International des Radio Communications. Organisation en grande majorité européenne, semblable à la SMPTE (Society of Motion Picture and Television Engineers) aux Etats-Unis et qui réunit les représentants des utilisateurs et des fournisseurs. Elle est maintenant désignée sous l'acronyme ITU (International Telecommunication Union).
- En France, une commission désignée par le CNC va délivrer un visa de censure qui va définir l'âge minimum des spectateurs pouvant voir le film.
- Une séquence est tournée en champ / contre-champ quand les plans, filmés par la caméra, se succèdent suivant deux axes symétriques. Par exemple, dans une séquence entre deux comédiens, chacun sera à son tour de face à la caméra, la différence d'angle ne dépassant pas les 180°.
- 1. Bobine de pellicule vierge prête à être placée dans l'appareil. Le standard courant est une charge de 1000 pieds.
2. Groupe de bobines de plusieurs caméras, filmées simultanément, partageant le même timecode, et numérotées en conséquence. - Boîtier abritant les modules de disques amovibles. Le châssis contient une prise d'alimentation électrique, des lecteurs et des connecteurs pour chacun des modules.
- Dans le domaine audiovisuel, désigne la différence colorimétrique existant entre une couleur donnée et une couleur de référence. En informatique, désigne la partie du signal vidéo relative à la couleur de l’image.
- Réglage du niveau de volume d'une piste audio réalisé en faisant « tomber » ce dernier à un niveau inférieur, plutôt que de le faire disparaître complètement.
- En production, une chute est la partie de pellicule vierge non impressionnée au tournage. En postproduction il s'agit de rushes non montés.
- Base de données dans laquelle les master-clips, les sub-clips, les effets et les séquences sont organisés pour un projet. Les chutiers offrent des fonctions de base de données permettant de simplifier l’organisation et la manipulation du matériel, en vue de l'enregistrement, de la numérisation et du montage.
- Le format d'image CIF (Common Image Format), tel qu'il est défini par l'UIT, est un format d'image commun actuellement très utilisé et destiné à simplifier les échanges d'informations au format image au niveau national et international.
- Prise audio stéréo composée de deux connecteurs blanc et rouge, appelée Cinch ou RCA. Ce type de fiche est très utilisé en hi-fi pour relier les appareils jusqu'à l'amplificateur. De nombreuses qualités de fiches et câbles de ce type sont disponibles.
- C’est le nom que Sony a donné à sa famille de produits qui font le pont entre le cinéma et la télévision haute définition (TVHD). La gamme inclut des caméscopes HDCAM, des magnétoscopes de studio, ainsi que des systèmes complets de production et de postproduction. La toute dernière série HDCAM SR fait la part belle au cinéma avec des taux de données d’enregistrement plus élevés et un accès direct aux images RVB d’origine, par opposition aux images au gamma corrigé utilisées en télévision.
- Il s’agit de l’application de la technologie DLP de Texas Instruments à la projection cinématographique. Une attention particulière a été apportée à ce format afin de produire des rapports de contraste et de luminosité élevés sur grand écran. Les Dark Chips ont joué un rôle important, en permettant de réduire de manière considérable la lumière réfléchie superficielle issue des micromiroirs numériques (DMD). Pour cela, il a fallu supprimer la propriété réfléchissante de l’ensemble des matériaux de base, à l’exception des faces des miroirs. En outre, une lampe de projection normale produit un niveau de lumière pouvant atteindre 12 ft/l sur un écran d’environ 18 mètres.
- Autrefois, de nombreux documentaires, séries et films télé étaient tournés sur pellicule. Aujourd’hui, les progrès réalisés par les technologies du numérique et de la haute définition (HD) ont mis un frein à cette tendance et le cinéma lui-même se tourne vers le format numérique. Si le tournage cinématographique s’effectue encore sur pellicule, c’est tout le processus intermédiaire qui est entré dans l’ère du numérique. Un nombre croissant de films, y compris le célèbre Sin City et les derniers épisodes de la Guerre des étoiles, sont tournés à l’aide de caméras numériques et les salles de cinéma équipées de systèmes numériques se multiplient. Le cinéma numérique possède de nombreux points en commun avec la télévision, même s’il possède ses propres normes et sa propre terminologie.
- Petit tableau d'identification tenu brièvement à la main devant la caméra au début d'une prise de vue pour en afficher les détails. Un clap électronique comporte également l'affichage du timecode provenant de l'appareil d'enregistrement du son à des fins de synchronisation.
- Le Clap tient son nom des danseurs de claquettes. C'est le son produit par une ardoise (le clap ou la « claquette ») sur laquelle est inscrit le titre du film, le numéro de la séquence, du plan et le numéro de la prise. Le clap, sert, au montage, à resynchroniser la bande image et la bande sonore tirés des rushes du tournage.
- Informations du clap enregistrées en fin de prise de vue au lieu du début, généralement enregistrées à l'envers.
- Dispositif servant de clé pour contrôler l'utilisation de logiciels sous licence. Le logiciel peut être installé sur n'importe quel système mais ne fonctionne que sur celui où la clé électronique est installée. La clé électronique se branche sur le bus Apple Desktop des systèmes Macintosh, le port USB ou sur le port parallèle (imprimante) des PC.
- Points temporels auxquels vous avez défini les valeurs des paramètres d’effets (ou dans Marquee, les valeurs de propriété d’objets). Le système utilise les valeurs définies dans les clés pour interpoler les modifications apportées aux effets et aux titres animés.
- 1. Segment de matériel source enregistré ou numérisé dans le système, comportant des points d’entrée et de sortie et référencé dans un chutier de projet. Le clip contient des pointeurs vers les fichiers médias dans lesquels les données audio et vidéo numériques réelles sont stockées.
2. Dans un enregistrement de dérushage, représentant une seule prise de vue, le clip contient des informations sur le début et la fin du timecode de la prise, le nom de la bande source et les pistes sélectionnées pour le montage.
3. Dans OMFI, classe générale d'objets de la hiérarchie de classes OMF Interchange, représentant les propriétés communes des clips source, de remplissage et attribut, des références de piste, ainsi que des clips de timecode et de code de bord. Un clip est une sous-classe d'un composant. - Mécanisme pouvant être utilisé par les applications pour enregistrer des informations supplémentaires sur une piste spéciale synchronisée aux autres pistes du groupe.
- Segment d'une séquence ne contenant aucune information vidéo ou audio. Le remplissage peut être ajouté dans la fenêtre Source (ou dans la fenêtre contextuelle), puis monté dans la séquence.
- L'un des blocs de construction de plus bas niveau dans la composition d'une séquence.
- L'un des blocs de construction de plus bas niveau dans la composition d'une séquence.
- Le Centre National du Cinéma et de l'image animé est un établissement public administratif dépendant du Ministère de la Culture, chargé de mettre en œuvre la politique de l'État dans les domaines du cinéma et des autres arts et industries de l’image animée, notamment ceux de l’audiovisuel, de la vidéo et du multimédia, dont le jeu vidéo.
- 1. Ajout de données techniques, telles que le timecode, les calages ou les informations de sous-titrage à l'enregistrement vidéo.
2. Conversion de la vidéo RVB-S en vidéo composite. - Cette méthode de compression de données recherche les motifs répétés, auxquels elle attribue un code (variable selon sa fréquence d'apparition). Ainsi, les répétitions très fréquentes posséderont un code court et celles moins fréquentes un code long. Ces codes sont attribués en fonction de la table d'Huffman. L'envoi de codes au lieu de données permet uniquement l'obtention d'une compression 2:1 sans perte. Pour cette raison, le codage Huffman est souvent associé à une compression vidéo JPEG ou MPEG.
- Motif de bandes verticales de largeur et d'espacement variables représentant des informations codées. Les codes-barres peuvent être utilisés pour coder le timecode sur le film.
- Timecode ajouté au négatif du film au moment du tournage par le biais d'un générateur de code caméra. Les numéros de code caméra sont synchronisés aux numéros de bord sur les épreuves de tournage pendant le processus de transfert télécinéma. Un lecteur de code spécial est requis pour l'affichage du code caméra.
- Système de numérotation de référence additionnel, tel que les numéros de bord, utilisé par Film Composer pour comparer les séquences numériques possédant des versions de copies de travail en progrès lors de la consultation des listes des modifications.
- Partie du timecode réservée au codage des données choisies par l'utilisateur, comme le compte de la vidéo et les numéros de Keykode.
- Procédé au cours duquel les trames supplémentaires sont ajoutées ou « compensées » pendant la conversion d’un support 24 i/s en support 30 i/s NTSC ou en bande vidéo PAL à 25 i/s. Cette conversion est un transfert télécinéma film à bande ou une conversion haute-définition (HD) 24i. Des procédures spéciales sont nécessaires lors de l’enregistrement ou de la numérisation pour éliminer les champs de compensation supplémentaires et pour obtenir un véritable montage 24 i/s (à l’heure actuelle, la vidéo PAL avec compensation n’est pas prise en charge par les systèmes Avid).
- Procédé au cours duquel les trames supplémentaires sont ajoutées ou « compensées » pendant la conversion d’un support 24 i/s en support 30 i/s NTSC ou en bande vidéo PAL à 25 i/s. Cette conversion est un transfert télécinéma film à bande ou une conversion haute-définition (HD) 24i. Des procédures spéciales sont nécessaires lors de l’enregistrement ou de la numérisation pour éliminer les champs de compensation supplémentaires et pour obtenir un véritable montage 24 i/s (à l’heure actuelle, la vidéo PAL avec compensation n’est pas prise en charge par les systèmes Avid).
- Terme standard utilisé pour désigner une séquence montée composée de plusieurs clips, dans le format OMFI. C'est en quelque sorte l'équivalent OMF d'une séquence dans un système Avid.
- Composition (Montage vertical en couches). Processus consistant à ajouter des couches de vidéo statique ou animée pour créer une scène. Il fait appel à l’incrustation et à la correction des couleurs, et requiert de nombreux outils, notamment un générateur d’effets vidéo pour le redimensionnement et le positionnement. Cette opération impliquant généralement l’ajout de nombreuses couches, il est recommandé d’utiliser des équipements non linéaires et de la vidéo non compressée afin d’éviter les pertes de génération. Les nouvelles technologies maintenant très pointues sont un élément clé de la production moderne aussi bien pour le film que pour la télévision – permettant de réduire les coûts tout en apportant de nouvelles possibilités et de nouveaux effets.
- 1. (Audio) Processus de réduction de la gamme dynamique du signal audio.
2. (Vidéo) Perte de niveau de détail dans les zones blanches ou noires de l'image vidéo due à une mauvaise séparation du niveau du signal.
3. Réduction des niveaux de détail du signal vidéo ou audio, ou les deux, afin de minimiser l'espace de stockage pendant la conversion du format analogique au format numérique Avid.
Dans la compression JPEG, par exemple, des algorithmes correspondants à des longueurs d'image variables analysent les informations contenues dans chaque image, et réalisent des réductions permettant de conserver un maximum d'informations. La compression ne supprime aucune image du matériel original. Le type et le niveau de compression dépendent du domaine d'application. Les équipements destinés au marché de la consommation (DVD, transmission, etc.) disposent d'une bande passante relativement faible et utilisent donc en principe un niveau de compression très élevé (faible débit).
Dans le domaine de la production et du montage en ligne, le niveau de compression est bien inférieur (débit plus élevé), car la qualité de l'image doit être conservée tout au long du processus d'élaboration de la bande originale. Les procédés de compression vidéo reposent tous sur le principe de suppression des informations jugées superflues, appelées détails d'image « redondants ». Cette technique s'applique aussi bien aux images fixes qu'aux métrages vidéo et cinématographique. Plusieurs procédés peuvent être utilisés simultanément.
La technologie numérique a permis le recours à des méthodes complexes, par la suite intégrées dans des puces de compression économiques produites en série. Tout d'abord, notre perception des couleurs (la chrominance) n'est pas aussi développée que pour le noir et le blanc (la luminance). La résolution couleur est donc réduite de moitié par rapport à celle de la luminance (par exemple, 4:2:2). Ce procédé s'utilise pour la télévision (NTSC, PAL et numérique). De même, la perception des détails à faible contraste est inférieure à celle des objets de plus grande taille dont le contraste est plus important. Pour ce faire, un procédé appelé DCT décompose les blocs de 8 pixels de côté des images numériques en différentes fréquences et amplitudes permettant ainsi de réduire (quantifier) les coefficients DTC (fréquences et amplitudes) et donc la quantité de données. Ce procédé intervient dans la plupart des méthodes de compression vidéo numérique utilisées à l'heure actuelle, notamment dans la compression AVR, DV, HDV, JPEG (à l'exception de JPEG2000) et les images I des formats MPEG-1, 2 et 4 et Windows Media 9. Les images sont ensuite retraitées à l'aide d'un procédé de compression exclusivement mathématique appelé codage Huffman (procédé permettant de réduire les données répétées). Les compressions MPEG-2 et plus récemment MPEG-4 ajoutent une couche de compression en analysant les modifications d'une image à l'autre grâce à l'étude des mouvements des macroblocs de 16 pixels de côté. Seules les données relatives aux mouvements (appelées vecteurs cinétiques) sont transmises. Ces vecteurs constituent des images prédictives (B et P) contenant pour une durée identique beaucoup moins de données que les images I. En comparaison, la fréquence d'envoi des images entières (images I, plus de données) à la seconde est très limitée.
La compression MPEG-2 s'utilise dans toutes les formes de transmission numérique au format DVD et HDV.
La compression MPEG-4, plus évoluée et plus efficace, est désormais utilisée pour certains services HD et sera appelée à se répandre très largement dans le cadre du développement des services de télévision nouvelle génération.
Ces différents procédés permettent d'obtenir des résultats intéressants. Toutefois, leur utilisation au niveau de la chaîne de production reste soumise à des impératifs de qualité. Plusieurs cycles de compression (compression/décompression) peuvent intervenir tout au long du processus de production et risquent donc de constituer un facteur d'erreur assez important. De plus, de nombreux procédés de compression se basent la perception humaine et peuvent se révéler inadaptés aux tâches de production, de post-production et de montage. C'est notamment le cas des processus nécessitant une qualité d'image supérieure aux limites de perception de l'oeil humain (par exemple, les tâches d'incrustation et de retouche de couleur). Le rendu après décompression peut alors laisser apparaître certains défauts. - Méthode de compression au cours de laquelle des données sont perdues, avec détérioration de la qualité de l'image. Le degré de perte dépend de l'algorithme utilisé.
- Compression inter-image Compression vidéo générant les images prédictives compressées à partir des informations de plusieurs images successives. La compression MPEG-2 avec un GOP supérieur à 1 constitue un exemple typique de compression interimage. Le flux MPEG-2 contient un mélange d'images I et d'images prédictives de type B (prédiction bidirectionnelle) et de type P (prédiction simple). Les images prédictives ne peuvent pas être décodées séparément des autres images du GOP ; c'est donc l'ensemble du GOP qui doit être décompressé. Ce système de codage offre des performances satisfaisantes pour la transmission, mais ne possède pas la flexibilité nécessaire aux opérations de montage avancées (le montage s'effectue uniquement au niveau des limites du GOP). Il nécessite également une estimation du mouvement entre chaque image. Cette opération peut s'avérer à la fois très complexe et peu fiable, et générer des artefacts de blocs au niveau de l'image.
- Compression intra-image (compression d'i). Compression vidéo effectuée sur la base des informations contenues dans une seule image vidéo. Toutes les informations permettant de recréer l'image sont donc contenues dans les données compressées correspondantes et fonctionnent indépendamment des images adjacentes. La compression vidéo intra-image facilite les tâches de montage qui peuvent s'effectuer au niveau des limites de chaque image sans nécessité de décodage ni de recodage. Les résultats obtenus suite à l'édition vidéo basée uniquement sur les images I constituent la première génération du montage. Les autres opérations (substitutions, fondus, mixages, génération d'effets vidéo de mouvement, etc.) peuvent s'effectuer au niveau du signal de bande de base. Pour cela, les données vidéo doivent dans un premier temps être décompressées.
- Méthode de compression sans perte de données. En compression vidéo, les fichiers de données sans perte sont généralement de très grande taille.
- La compression vidéo permet de réduire la quantité de données ou la largeur de bande passante utilisée pour la description des images cinématographiques. La vidéo numérique nécessite une quantité importante de données. Durant l'ère de la SD, de nombreuses méthodes de réduction du volume des données numériques ont donc été développées. La HD nécessite jusqu'à six fois plus de données à 1,2 Gbits/s et 560 Go par heure de stockage. Le besoin en compression se fait donc plus pressant que jamais.
- Procédé mathématique utilisé par le système de montage pour garantir la précision à l'image des points de montage de la version bande vidéo d'un projet cinématographique (30 i/s), lorsqu'ils sont appliqués à la version finale du film (24 i/s).
- Préparer une version complète du projet à présenter. Il peut s'agir d'une version intermédiaire de la version de travail ou du montage définitif.
- Opération consistant à effectuer des copies intégrales ou partielles de fichiers médias et à les enregistrer sur le disque. La fonction de consolidation se comporte différemment avec les master-clips, les sub-clips et les séquences.
- Tout matériel achevé, prêt à être diffusé. Le contenu est le résultat de l’application de métadonnées à une essence (télé, vidéo et audio).
- Tout matériel achevé, prêt à être diffusé. Le contenu est le résultat de l’application de métadonnées à une essence (télé, vidéo et audio).
- La Contre-plongée est un axe de prise de vue du bas vers le haut. La caméra est placée plus bas ou au pied du sujet. C'est l'inverse de la plongée.
- Dupliquer. Partie d'une source vidéo ou de film répétée (dupliquée) une ou plusieurs fois dans une séquence montée.
- Dispositif électronique, généralement informatisé, permettant au monteur de contrôler, de lire et d'enregistrer le matériel avec précision, sur divers appareils à bandes vidéo.
- Processus permettant de passer de la cadence d'images d'un film à la cadence d'images d'une vidéo.
- Convertisseur analogique-numérique. Dispositif permettant la transformation d'un signal variable en continu (analogique) en bits binaires discrets représentant les éléments numériques du signal original.
- Tirage positif du négatif du film réalisé en laboratoire.
- Copie du montage final destinée à l'examen avant création de la copie d'exploitation finale.
- Copie prête à être présentée au public. Les copies d'exploitation contiennent généralement les pistes image et son.
- Copie de film réalisée à partir du négatif original, utilisée pendant le montage pour créer une liste de conformation ou de points de montage pour l'assemblage de la séquence finale. Les copies de travail sont de manière générale bon marché et à lumière unique, et subissent une détérioration rapide due à leur manipulation intensive.
- Positif contenant à la fois le son et l'image.
- La Copie-zéro est la première copie étalonnée sortie du laboratoire. La copie-zéro peut être tirée muette ou sonore. Elle sert à valider l'étalonnage.
- Une coproduction regroupe plusieurs producteurs, pouvant être de pays différents qui participent au financement d'un film. L'un d'entre-eux est producteur délégué à la fabrication et la garantie de bonne fin.
- Autrefois, procédé de réglage chromatique visant à harmoniser les couleurs de plusieurs images ou à donner un aspect particulier à une image. En télévision, la correction des couleurs en HD et SD est devenue un procédé hautement sophistiqué pouvant inclure la retouche des couleurs secondaires, par exemple, sur des zones d’une image ou des gammes de couleurs spécifiques. Il est donc possible de changer la couleur d’une voiture dans une annonce publicitaire. En fonction des équipements, cette opération peut s’effectuer de manière interactive et en temps réel. En quelques instants, des ajustements précis permettent d’obtenir des résultats de grande qualité.
- Deuxième niveau de réglage de couleur (parmi les deux niveaux disponibles) en matière de correction de couleurs. Les corrections effectuées au niveau du programme apportent généralement une touche finale à une séquence terminée (réglage minutieux des valeurs de couleur, par exemple, pour donner plus d'éclat à un programme dramatique).
- Premier niveau de réglage de couleur (parmi les deux niveaux disponibles) en matière de correction de couleurs. Les corrections apportées au niveau de la source permettent généralement de rétablir les caractéristiques initiales des couleurs d'un clip ou d'assurer l'homogénéité des couleurs, clip par clip, de tous les clips dans une séquence.
- Correction s'appliquant à chacune des parties d'une image vidéo ou à l'ensemble des parties d'une image vidéo comprises dans une plage de luminance précise.
- Correction s'appliquant à des parties précises d'une image en fonction des valeurs de teinte et de saturation spécifiées. Ce type de correction vous donne la possibilité de remplacer les parties vertes d'une image par du jaune sans changer les autres couleurs de l'image.
- Processus consistant à retoucher les caractéristiques des couleurs du matériel vidéo, visant à obtenir une représentation plus précise et plus fidèle des couleurs et d'assurer une meilleure homogénéité des couleurs, d'un clip à l'autre d'une séquence. Ce terme fait généralement référence aux différents réglages effectués, à l'aide d'un programme, sur la totalité de la vidéo, et non pas aux retouches de couleurs individuelles au niveau des effets.
- Réglage des couleurs d'une partie d'une image vidéo identifiée au moyen d'outils de dessin.
- Couleur unie utilisée pour réaliser une incrustation
- 1. Transition instantanée entre une source vidéo et une autre.
2. Section d'une bande source ou d'une bande d'enregistrement. - En montage, effectuer une coupure dans la fin de la scène précédente, souvent par erreur. En général, couper court.
- Voir montage par chevauchement.
- Enlever un segment donné d'une séquence de montage et joindre les extrémités résultantes pour clore l'intervalle.
- « Coupez ! » est prononcé par le réalisateur pour interrompre la prise au tournage.
- Ondes sonores représentées sous forme de graphe d'intensité relative du signal audio.
- Représentation de l'audio sous forme d'échantillon d'onde.
- Un Court métrage est un film court dont la durée est en principe inférieure à 60 minutes.
- L'un des signaux de différence de couleur du système couleur des composantes de la norme vidéo NTSC.
La formule du signal est : Cr = 0.701R (rouge) – 0.587V (vert) – 0.114B (bleu) - Artefacts provoqués par un échantillonnage ou un traitement vidéo insuffisant. Conséquence de la nature pixellisée de l'image numérique, le crénelage spatial produit des contours en dents de scie sur les lignes courbes et diagonales de l'image, ainsi qu'un effet de scintillement sur les zones de détails. Ce phénomène est dû à des fréquences d'échantillonnage trop basses ou à une précision de traitement trop faible pour s'étendre aux détails. Le crénelage dit temporel se produit lorsque la vitesse de l'action est supérieure à la fréquence d'images. Un exemple classique : les roues du train qui semblent tourner en sens inverse.
- Le 30 septembre 1986, la Commission Nationale de la Communication et des Libertés (CNCL) remplace la Haute autorité. Créée en 1982, la Haute autorité veillait au respect des libertés attribuées notamment aux radios libres. La CNCL hérite de ce même rôle de régularisation de l’audiovisuel. Les membres en seront élus dès le mois de novembre et chacun provient d’un des grands groupes de l’audiovisuel. Elle sera finalement à son tour remplacée par le Conseil Supérieur de l’Audiovisuel (CSA) le 17 janvier 1989.
Le CSA délivre des autorisations d'émettre aux radios privées et aux chaînes de télévision privées, nationales, régionales ou locales, diffusées par voie hertzienne. Les services de radio et de télévision diffusés par satellite et/ou par câble ou par ADSL entrent également dans son champ de compétence.
Pour les radios et les chaînes de télévisions diffusées par voie hertzienne numérique ou analogique, la procédure d'autorisation commence par la publication, au Journal officiel, d'un appel aux candidatures. Après la conclusion d'une convention avec l'opérateur retenu, le CSA délivre des autorisations, pour une durée de cinq ans en radio, de dix ans en télévision.
Ces autorisations peuvent être reconduites par le CSA, hors appel aux candidatures, dans la limite de deux fois et pour une durée de cinq ans. Des radios et des télévisions temporaires peuvent également être autorisées par le CSA, hors appel aux candidatures, pour une durée n'excédant pas neuf mois. - Colour Separation Overlay, superposition par séparation des couleurs. Synonyme d’incrustation en chrominance.
- Séquence de trames vidéo requise pour la production d'un cycle complet de synchronisation des trames et images d'une part, et de la sous-porteuse couleur d'autre part. Le système NTSC requiert quatre trames, le système PAL en requiert huit.
- Le Cycliode est un projecteur tungstène à face ouverte et réflecteur symétrique conçu pour donner un éclairement uniforme sur un mur lorsqu'il est situé à l'aplomb de celui-ci, souvent utilisé pour éclairer des cycloramas.
- Un Cyclo est un plateau comportant une zone « sans angles » (les angles sont arrondis pour obtenir un rendu optique infini). Généralement peint de couleur neutre, il peut être blanc pour présenter des personnages « sans fond » par exemple. Le bleu ou vert servant à tourner des séquences dans lesquelles seront incrustés des fonds provenant d'autres images filmées.
- Le cyclorama est un rideau tendu semi-circulaire. Il se développe entre les murs cour, lointain et jardin. Il peut suivre une ligne courbe continue, ou n'être courbe que dans les angles lointain, cour et jardin.
- Le terme D-cinema ou Digital Cinema, qui signifie cinéma numérique, désigne l’ensemble de la chaîne de production de la scène à l’écran, mais il caractérise plus précisément la distribution et la diffusion de ressources cinématographiques par des moyens numériques.
Aucune règle absolue ne distingue le D-cinéma du E-cinéma, si ce n’est l’opinion selon laquelle les images de D-cinéma doivent être au minimum en 2K. Les formats SD et HD plus petits entrent dans la catégorie E-cinéma. Il n’en reste pas moins vrai que les projections HD impressionnent généralement le grand public. Nouvelle norme de qualité des projections cinématographiques, la diffusion numérique se caractérise par sa fixité latérale et l’absence d’éraflures ou d’éclats.
Contrairement à la pellicule, l’image numérique ne s’altère jamais et ce, quel que soit le nombre de projections. Les films numériques se distribuent sur disques ou sur réseaux, contrairement aux films 35 mm dont chaque copie, d’une valeur comprise entre 1 000 et 2 000 dollars, ne survit pas aux 200 projections. La production et la distribution des copies d’exploitation s’évaluent, pour les studios, à quelque 800 millions de dollars par an.
Le E-cinéma a pris de l’avance sur le D-cinéma et il a déjà prouvé sa viabilité comme format de support pour les principales fonctions. Il facilite la production à bas prix d’annonces publicitaires locales et offre une plus grande souplesse en matière d’ajout de contenu télévisuel. Parmi les progrès récents ayant permis l’avènement de la projection numérique, il faut compter le développement rapide de la haute résolution et les projecteurs numériques grand écran. Ces progrès s’articulent autour de trois technologies : D-ILA, DLP et SXRD. Les normes D-cinéma ont récemment fait l’objet d’une recommandation de la Digital Cinema Initiatives. - Direct-drive Image Light Amplifier (D-ILA). Cette technologie utilise une puce CMOS réfléchissante à cristaux liquides permettant de moduler la lumière d’un projecteur numérique. Dans la course aux résolutions, JVC a fini par produire une matrice 2K (2 048 x 1 536) conforme à la recommandation SMPTE DC 28.8 qui préconise une résolution de 2 000 lignes pour le cinéma numérique. La puce diagonale de 1,3 pouce contenant 3,1 millions de pixels répond numériquement au signal source. Le pas de 13,5 microns entre les pixels permet d’éliminer le bruit de bande et de produire ainsi des images claires, lumineuses et contrastées. Structure réfléchissante efficace, la technologie D-ILA permet de refléter plus de 93 % (ouverture) de la lumière des pixels.
- Format de bande numérique dédié à l’enregistrement, sur des cassettes de 19 mm (1/3 pouce), de vidéo numérique SD à composantes et non compressée, 4:2:2, 525 et 625 lignes. Lancé par Sony en 1987, ce format utilisait alors des processus haut de gamme pour lesquels la qualité multigénération nécessitait un contrôle permanent, et son prix de revient était relativement élevé. Aujourd’hui, il n’est plus très employé.
- Deux formats d'enregistrement de bande vidéo numérique conformes à la norme ITU-R 601 (CCIR-601) pour vidéo composite numérique 4:2:2 non comprimée. D5 est très similaire à D1 car, lui aussi, représente un format d'enregistrement numérique à composantes. Toutefois, la précision d'enregistrement de D1 est de 8 bits, tandis que celle de D5 est de 10 bits.
- Lancé en 1988 par Ampex, ce format permet d’enregistrer des vidéos NTSC ou PAL composites, numérisées et non compressées sur des cassettes de 19 mm (3/4 pouce). Utilisant un volume de données moindre que le D1, donc moins de bande, ce format paraissait efficace pour la rediffusion analogique. Toutefois, le signal était affecté par les restrictions d’origine du PAL et du NTSC. Il s’est avéré peu utile dans le cadre de la post-production sophistiquée. Un décodage aurait été nécessaire pour la transmission numérique. Ce format est peu employé aujourd’hui.
- Deux formats d'enregistrement de bande vidéo numérique pour vidéo composite. La différence principale existant entre D2 et D3, réside dans le fait que D2 utilise une bande vidéo numérique de 3/4 de pouce, tandis que D3 en utilise une d'1/2 de pouce.
- Proposé par Panasonic, le format D3 est similaire au format D2 : il est dédié à l’enregistrement de vidéos PAL ou NTSC composites. En revanche, le format D3 utilise des cassettes 1/2 pouce. Il présente des avantages et inconvénients identiques au D2 et, en outre, il n’est plus très employé.
- Proposé par Panasonic en 1994, ce format permet d’enregistrer des vidéos numériques à composantes, 10 bits, 4:2:2, 525 et 625 lignes. Les enregistrements sont effectués sur des cassettes, comme pour le format D3.
En tant que format de vidéo à composantes, il s’avère efficace en post-production. Plus économique que le D1, il reste largement employé aujourd’hui. Ce format peut également être utilisé pour les enregistrements HDTV via une compression de 4 ou 5:1 (voir HD-D5).
D5-HD Employé depuis longtemps pour la gravure masterisation haute définition, ce format constitue la version HD du format d’enregistrement numérique sur bande magnétique pouce de Panasonic, le D5. Il permet d’enregistrer plus de deux heures de données sur une cassette D5 standard dans divers formats vidéo : 1080/60I, 1035/60I, 1080/24P, 720/60P, 1080/50I, 1080/25P et 480/60I. - Le D5-HD permet de modifier les enregistrements 24 Hz afin de les utiliser directement dans les applications 25/50 Hz, fonctionnalité qui s’avère précieuse lors de l’adaptation de films au marché européen.
Huit canaux discrets d’audio numérique 24 bits/48 kHz permettent des mixages stéréo et 5.1. La technologie Panasonic réduit le débit de données vidéo numérique à composantes HD-SDI 4:2:2 brut, jusqu’à 1 240 Mb/s, grâce à un procédé de compression propriétaire.
Le format D5-HD permet en outre de compresser la vidéo selon un rapport de 4:1 (en mode 8 bits) ou de 5:1 (en mode 10 bits). - Le format de bande D6 utilise une cassette de type D1 de 19 mm pour enregistrer 64 minutes de données HD non compressées dans la majorité des normes TVHD.
Le débit d’enregistrement monte jusqu’à 1 020 Mb/s, avec une luminance de 10 bits et une chrominance de 8 bits. 12 canaux d’audio numérique stéréo AES/EBU sont enregistrés.
Le seul magnétoscope D6 existant est le VooDoo de Thomson, utilisé pour convertir des productions cinématographiques en cassettes vidéo. - Dans la boîte est une expression signifiant que la « prise » tournée est bonne et qu'on peut passer au tournage du plan suivant.
- DAS (Direct Attached Storage). Le DAS est un stockage à connexion directe sur le serveur (un disque dur par exemple).
- DCDM (Digital Cinema Distribution Master). Original de distribution contenant toutes les données pour une projection (images, sons, soustitres). A partir du DCDM, un DCP (compressé et crypté) et une clé primaire sont fabriqués.
- Fondée en 2002 par un groupe de grands studios hollywoodiens, Digital Cinema Initiatives a établi une norme ouverte garantissant un haut niveau de performances techniques, de fiabilité et de contrôle de qualité en matière de cinéma numérique. Achevée en 2005, cette norme est actuellement mise en application par plusieurs fabricants. Parmi ses nombreuses recommandations, notamment sur la sécurité, la norme préconise l’utilisation des formats d’image 2K et 4K, ainsi que la compression JPEG 2000.
- DCP (Digital Cinema Package). Copie numérique d’exploitation. Jeux de fichiers compressés et cryptés envoyé aux salles.
- Discrete Cosine Transform (transformation en cosinus discrets). Cette opération constitue la première étape de nombreux procédés de compression vidéo numérique, notamment la compression JPEG, MPEG-2 et MPEG-4. Elle consiste à convertir les blocs de 8 pixels de côté des images pour les retranscrire sous forme de fréquences et d'amplitudes. Les données obtenues ne sont pas forcément réduites. En revanche, une fois traitées, les informations deviennent compressibles. Plus la fréquence augmente, moins les détails de faible amplitude sont visibles. Les coefficients sont progressivement réduits, souvent jusqu'à atteindre une valeur nulle, de manière à correspondre à la taille de fichier requise par image (débit constant) ou au niveau de qualité souhaité. Ce processus de réduction, connu sous le nom de quantification, effectue la compression des données. Pour les applications d'enregistrement magnétique, la taille de fichier est fixe et le procédé de compression doit pouvoir occuper l'espace disponible sans dépasser le seuil limite. Ceci explique pourquoi le taux de compression ne constitue pas en soi une indication suffisante pour déterminer la qualité de l'image. La transformation DCT intervient au sein d'une image et constitue par conséquent une compression intra-image (image I). Ce type d'opération s'inscrit dans le procédé de compression le plus utilisé à l'heure actuelle dans le secteur télévisuel.
- Le débit et la quantité de données transmisses durant un espace de temps. Généralement exprimé dans le monde IT/Audiovisuel en Mbits/sec ou Mo/sec. / Mega bits par seconde, ou en Méga octets par seconde ( 1Mo = 8Mbits). Largeur/Width pixels x Hauteur pixel x Pixel Byte Size (8bit/10bits/16bits, etc...) x Cadence-Frame rate (24,25,50,etc...) / 1024² = Débit en MB/sec ou Mo/sec MB/sec = Mo/sec / les Mbits/sec sont par contre différents des MB/sec (1MB ou 1Mo est équivalent à 8Mbits)
- Méthode de repérage d'une image particulière d'un groupe, identifiée par le numéro de bord sur un morceau de film. Le décalage d'image + 12 désigne, par exemple, la douzième image à partir de celle repérée par le code de bord.
- Unité de mesure du niveau de volume audio.
- Un décodeur est un appareil permettant de décoder des signaux de télévision cryptés.
- Point de référence du signal vidéo, le point le plus noir de l'image visible.
- Créer des master-clips plus courts à partir du matériel monté et inclus dans la séquence uniquement.
- Démagnétiser (effacer) tout le matériel enregistré sur une bande magnétique vidéo, une bande audio ou l'écran d'un moniteur couleur.
- Dernière image du clip d'un film ou d'un segment de vidéo.
- Liste d'informations relatives à une bobine de film ou à une série de bande vidéo, généralement organisées par ordre chronologique.
- Consigner des informations au sujet du média dans des chutiers au début du processus de montage. Cette opération peut être effectuée de façon automatique ou manuelle.
- Désinformer est l'action de diffuser dans les médias des informations donnant une image erronée ou mensongère de la réalité.
- Positionnement des têtes vidéo pendant la lecture d'une bande afin de reproduire le meilleur signal possible. Le réglage de la détection de trajectoire se fait sur l’appareil avant l'enregistrement ou la numérisation.
- Perturbation horizontale de l'image au niveau d'un point de montage, généralement causée par des réglages incorrects de la synchronisation dans le système de montage.
- DI (Digital Intermediate, intermédiaire). Le DI représente l’alternative numérique au processus photochimique traditionnel, qui produit les internégatifs de la copie d’exploitation d’un film à l’aide du négatif original de la caméra. Ce processus a toujours exigé de nombreuses étapes d’étalonnage colorimétrique afin d’harmoniser les prises pour la copie d’exploitation finale. Pour cette raison, les multiples atouts du DI font de plus en plus l’unanimité.
Selon le système employé, le DI peut être instantané, interactif et projeté sur grand écran. Il peut aussi inclure du son.
Enfin, il permet de modifier à volonté l’étalonnage de l’internégatif numérique étalonné et monté, avant la copie numérique finale. Ainsi, l’étalonnage peut s’effectuer sur le matériel monté, déjà doté de toutes les prises d’effets. Il est également possible de produire des bobines entièrement étalonnées, au lieu d’appliquer des finitions lors de la fabrication des copies d’exploitation La première étape du traitement DI consiste à numériser la pellicule 35 mm.
Le 2K et l’échantillonnage logarithmique sur 10 bits RVB (4:4:4) utilisés permettent généralement de numériser dans les moindres détails les zones de lumière et d’ombre de la pellicule et ainsi de conserver la netteté et le contraste d’origine. La latitude de contraste offre plus de liberté au moment de réaliser l’étalonnage ultérieur. La numérisation du métrage, qui peut se révéler onéreuse, n’est pas requise pour les prises réalisées avec une caméra numérique. - Emission radiophonique ou télévisée différée (ou prerecorded en anglais) signifie qu'elle est diffusée après son enregistrement.
- Diffuser (broadcast en anglais) signifie transmettre par la radio ou la télévision . Par exemple, une émission est diffusée à la radio.
- Lancé en 1993, le Digital Betacam numérique, ou Digibeta, a remplacé les formats Betacam analogiques. Plus économique que le format D1, il assure une bonne qualité audio et vidéo et permet d’enregistrer jusqu’à 124 minutes de données. La vidéo numérique SD 4:2:2 à composantes 720 x 576 ou 720 x 480 est compressée par DCT pour obtenir un débit de données de 90 Mb/s (compression d’environ 2:1) et 4 canaux d’audio 48 kHz PCM non compressé.
- Une émission en direct (live broadcasting en anglais) signifie qu'elle est diffusée instantanément, sans avoir été préenregistrée.
- Equipement d'entrée/sortie utilisé pour envoyer des signaux de données ou d'informations depuis et vers un ordinateur de montage.
- Support utilisé pour le stockage des données dans un format reconnu par l'ordinateur.
- Disque de secours d'un système RAID. Ce disque est intégré à une grappe RAID en cas de défaillance d'un disque actif.
- Disque magnétique d'enregistrement des données intégré de façon permanente à une unité de lecture.
- Acronyme de Digital Light Processing, traitement de la lumière numérique. Cette technologie de projection numérique de Texas Instruments Inc. s’appuie sur l’utilisation de micromiroirs numériques (DMD) et s’applique aussi bien à la télévision (HD compris) qu’au cinéma (voir Cinéma DLP ci-dessous). Les puces DMD intègrent une matrice de miroirs microscopiques, orientables de +/- 10 degrés, réfléchissant ou non la lumière de la lampe à travers la lentille du système de projection. Doté d’un temps de réponse d’environ 10 microsecondes, ces miroirs font varier très rapidement la réflexion de la lumière à travers la lentille, créant ainsi des niveaux de gris.
En vidéo, chaque champ est sous-divisé en intervalles temporels (temps de bit). Ainsi, pour de la vidéo 8 bits, ce sont 256 niveaux de gris qui sont produits. Un prétraitement adapté permet de projeter directement des images numérisées. Obtenue par microfabrication, la matrice est créée à partir d’un circuit intégré SRAM CMOS traditionnel.
Pour la vidéo SD, les matrices comportent quelque 442 368 miroirs et 768 x 576 pixels.
Pour les projections HD et D-cinéma, l’utilisation de DMD 1 280 x 1 024 semble la plus répandue. L’opinion partagée est que la qualité obtenue est aussi bonne que celle de la projection analogique. Si toute l’attention se porte sur les puces DMD, il ne faut pas oublier pour autant la technologie qu’elles renferment, notamment le “degamma”, procédé consistant à supprimer la correction gamma du signal afin de s’adapter à la linéarité de l’affichage DMD. Habituellement, une table de conversion LUT (Look Up Table) permet de convertir des plages données de valeurs de signal. - Dolby Digital™:(AC3). Système de codage Dolby pouvant transporter des programmes audio de 1 à 5.1 canaux selon diverses configurations, développé pour la transmission de l’audio chez les consommateurs par une diffusion télévisuelle SD/HD numérique. Contrairement au Dolby E, cette technologie n’est pas adéquate pour des cycles de codages répétés.
- Dolby E™. Système de codage Dolby optimisé pour la distribution d’audio en multicanaux sur deux canaux, à l’intérieur d’infrastructures professionnelles de production. Ce procédé n’entraîne pas de dégradation significative de la qualité audio même après plusieurs cycles de codage.
- Dolby® Surround, Pro Logic™. Technologie de Dolby qui combine quatre canaux audio en un signal codé matricé sur deux canaux audio Lt/Rt, permettant de fournir de l’audio en multicanaux aux téléspectateurs ayant accès uniquement à une distribution stéréo. Des systèmes grand public munis d’un décodeur Pro Logic permettent de restituer les quatre canaux. En tout temps, le signal Lt/Rt peut être écouté comme un signal stéréo conventionnel.
- Données médias créées par enregistrement ou numérisation depuis une source physique. Un échantillon est une unité de données que peut mesurer le dispositif d'enregistrement ou de numérisation. Les applications peuvent lire les données d'échantillon numériques depuis des fichiers sur le disque.
- Données provenant d'une source média. Les données média peuvent être :
1. des données analogiques : images de film, audio de bande Nagra, ou vidéo et audio de bande vidéo.
2. des données numériques : données qui ont été enregistrées ou numérisées sur disque, telles que des données d’images vidéo et des échantillons audio, ou données créées sous forme numérique, telles que des graphiques de titres, des enregistrements sur bande audionumérique ou des images d’animation. - Dossiers contenant des sauvegardes de vos fichiers ou de vos chutiers. A chaque enregistrement du travail ou à chaque sauvegarde automatique par le système, des copies de vos fichiers ou de vos chutiers sont placées dans le dossier Attic, jusqu'à ce que ce dernier atteigne la limite spécifiée. Les copies figurant dans le dossier Attic possèdent l'extension de fichier .bak et un numéro est ajouté à leur nom. Vous pouvez modifier le nombre des fichiers de sauvegarde d'un projet (l'augmenter ou le diminuer) dans la boîte de dialogue Bin Settings.
- Dossier contenant vos projets.
- Dossier contenant les fichiers de prise en charge du protocole HIIP (Host Image Independence Protocol).
- 1. En production vidéo, copie de l'audio ou de la vidéo d'une bande sur une autre.
2. En production cinématographique, remplacement des dialogues sur une piste son. - Pièce de théâtre retransmise à la télévision ou à la radio.
- Solution vedette de montage et d’effets d’Avid Technology pour les résolutions HD et film. Lancée en septembre 2000, elle se fonde sur la fameuse version 4 du code DS (Digital Studio). Entièrement basée sur des composants logiciels, à l’exception des opérations d’E/S, la version d’origine ne disposait pas de l’accélération matérielle.
Désormais, le matériel Nitris DNA comble cette lacune en tirant profit des progrès constants réalisés en matière de vitesse de traitement des processeurs. Le système est pris en charge par la plupart des fabricants de composants et n’est pas dépendant de la résolution. L’importation transparente des fichiers d’effets OMF multicouches à partir de produits tels que Avid Media Composer ou Pro Tools de Digidesign permet d’établir un lien efficace entre les opérations offline et online. - Nom du format de cassette numérique (Digital Tape Format) de Sony offrant une capacité de stockage de données élevée (jusqu’à 200 Go) sur des cartouches d’un demi pouce. Ce format est souvent utilisé pour stocker de la vidéo numérique (HD par exemple) et la mettre à la disposition des clients sur un réseau de post-production.
- DTV (Digital Television), ou télévision numérique, désigne de façon générale les formats numériques SD et HD.
- Copie de deuxième génération de l'original d'une séquence utilisée pour réaliser des copies de distribution ou de prévisualisation supplémentaires, protégeant ainsi l'original d'une utilisation excessive.
- Intervalle de temps (exprimé en heures, minutes et secondes ou en pieds et images) pendant lequel se déroule un effet particulier ou un extrait vidéo ou audio.
- Vidéo numérique transférée via un équipement conforme à la norme IEEE 1394. Cet équipement est parfois appelé FireWire ou i.LINK. Lancé en 1996, le format DV (CEI 61834) définit à la fois le codec (système de compression vidéo) et le format de bande du premier format de bande numérique SD destiné aux utilisations semi-professionnelles et au grand public. Il assure notamment la compression intra-image pour les montages simples, présente une interface IEEE 1394 pour les transferts vers les systèmes de montage non linéaires et offre une meilleure qualité vidéo que les formats analogiques destinés au grand public. DVCPRO et DVCAM constituent des variantes de ce format. Par ailleurs, le HDV doit beaucoup au DV, notamment la bande MiniDV. En revanche, seul le HDV utilise la compression MPEG-2.
- DVC est un format de compression utilisé pour les équipements DV conformes à la norme CEI 61834. Basé sur le format DCT, il garantit une compression spatiale (intra-image) au format 5:1 et permet de rendre les échantillonnages vidéo 8 bits (720 x 480 NTSC 4:1:1 ou 720 x 576 PAL 4:2:0) à un débit de données de 25 Mb/s. La compression DVC s'utilise en DV, DVCAM, Digital8 et DVCPRO (avec PAL 4:1:1). Ses résultats de compression sont particulièrement bons lorsqu'on lui applique simultanément plusieurs quantificateurs. Dans ce cas, il sélectionne systématiquement le débit le plus proche du débit optimal pour l'enregistrement sur bande (25 Mb/s).
- Proposé par Sony, le DVCAM est une variante de la norme DV destinée aux professionnels. Les cassettes et le procédé de compression de ce format sont identiques au DV et au MiniDV. Cependant, comme la bande est 50 pour cent fois plus rapide, les risques d’erreurs et de pertes sont minimisés.
- anasonic a créé la gamme DVCPRO dédiée aux applications professionnelles de la technologie DV d’origine. Également appelé DVCPRO 25, DVCPRO est identique au format DV pour l’enregistrement. Celui-ci s’effectue selon un débit de 25 Mb/s. Ce format présente deux pistes audio de 16 bits et 48 kHz, tandis que la vidéo est échantillonnée selon un rapport de 4:1:1 pour les versions 576/50I et 480/60I. Le DVCPRO présente une structure hiérarchique qui double le débit de données. La version supérieure est DVCPRO 50 : un débit de 50 Mb/s à partir de la bande permet de réduire la compression vidéo, tandis que l’échantillonnage 4:2:2 assure la qualité d’image supérieure requise par les studios de production. Quatre pistes audio de 16 bits/48 kHz sont disponibles.
- Ce format constitue la version HD de la technologie d’enregistrement numérique DVCPRO de Panasonic.
Les formats DV et DVCPRO enregistrent à 25 Mb/s ;
Le format DVCPRO 50 enregistre à 50 Mb/s et le DVCPRO HD à 100 Mb/s.
Tous se basent sur un procédé de compression numérique DCT intra-image DVC et une cassette vidéo DV de 6,35 mm (1/4 pouce). Pour ce qui est du format d’enregistrement, l’échantillonnage vidéo est de 4:2:2/8 bits. Les formats 1080I et 720P sont pris en charge. Ce format présente huit canaux audio 16 bits/48 kHz. En raison du débit d’enregistrement des données, il faut utiliser une compression vidéo considérable pour ramener les données audio et vidéo à environ 1 Gb/s. Le format annoncé par le constructeur est une compression vidéo à 6.7:1.
Les caméscopes DVCPRO HD proposent notamment la fonctionnalité VariCam. Celle-ci permet d’appliquer des fréquences d’image progressives variables, pour le tournage d’images allant de 4 à 60 Hz par incréments d’une image. - Générateur d'effets numériques.
- EBU (European Broadcasting Union). Equivalent de la SMPTE pour l'Europe. Organisation de normalisation des formats du film et de la télévision où seuls les utilisateurs (non les revendeurs) sont consultés.
- Mesure de la valeur d’un signal analogique à intervalles réguliers au cours de l'enregistrement ou de la numérisation. Ces mesures (échantillons) sont utilisées pour construire une représentation numérique du signal.
- Echantillonnage simultané des informations en luminance et en chrominance. Il assure la symétrie du temps relatif de chaque composante et évite toute dérive temporelle. L'échantillonnage de mêmes coordonnées spatiales est le plus courant, mais il existe également un échantillonnage interstitiel générant des échantillons de chrominance entre les échantillons de luminance.
- arrangement employé dans le cadre de la numérisation des films, l’échantillonnage sur 10 bits décrit l’image en 210 ou 1 024 nombres distincts ou niveaux de luminosité sur une échelle logarithmique, par opposition à l’échelle linéaire utilisée en télévision.
Cela permet de souligner une différence essentielle entre le tournage cinéma et télé.
Au cinéma, le négatif permet de saisir autant de détails que possible dans une vaste plage de luminosité comprenant jusqu’à 11 grades différents, soit l’équivalent d’un rapport de contraste supérieur à 2000:1. La caméra peut ainsi filmer des objets en plein soleil ou dans la pénombre. Cela offre plus de liberté au moment de l’étalonnage et du réglage, avant de sélectionner le type de gamme de contraste de la copie d’exploitation qui, malgré ses limitations, doit rendre tout son effet en salle.
En télévision, une représentation exacte des images est toujours disponible. Par conséquent, les réglages et les choix s’effectuent en direct, au cours du tournage. En d’autres termes, les téléspectateurs voient plus ou moins ce que la caméra enregistre. L’image à l’écran est de bonne qualité, même si l’enregistrement ne présente que 8 grades de luminosité, soit un rapport de contraste de 256:1. Ainsi, une image télé et un négatif contiennent des informations très différentes. Si 10 bits (linéaire) sont plus que suffisants pour ajuster en douceur les niveaux de contraste de l’image télé, environ 13 bits (linéaire) sont requis, en revanche, pour le négatif. Toutefois, les plus petites différences de luminosité ne pouvant être détectées que dans les zones sombres, il convient d’attribuer aux zones peu éclairées un plus grand nombre de niveaux numériques. - Le vocabulaire courant utilisé pour le cadrage d’un plan s’applique tout autant aux acteurs qu’aux objets. Le gros plan d’un téléphone ou le très gros plan de la fente d’un monnayeur en sont des exemples. Un réalisateur diversifie souvent, au tournage, la valeur de ses plans pour avoir du choix au moment du montage et pouvoir affirmer ses intentions esthétiques et/ou symboliques. Voici les plans les plus souvents utilisés :
- Plan général/plan d’ensemble (une personne dans un paysage)
- Plan moyen (une personne), Plan américain (une personne coupée à mi-cuisse)
- Plan rapproché épaule (une personne coupée à l'épaule)
- Gros plan (visage)
- Très gros plan (les yeux) - Un écouteur est un appareil qui transmet du son. En anglais earpiece (téléphonique) ou headphones (casque).
- Procédure d'effets spéciaux dans laquelle le sujet photographié est placé devant un fond bleu ou vert uniformément éclairé.
Une nouvelle image de fond peut être substituée au bleu ou au vert lors du tournage ou de la postproduction, à l'aide de l'incrustation en chrominance.
Le tournage sur écran ou fond bleu permet de découper et d’incruster des objets sur des arrière-plans différents. L’image de fond doit être entièrement bleue et les éléments de premier plan à incruster ne doivent pas contenir de bleu, pour faciliter la dérivation du signal d’incrustation destiné à la découpe des objets. Il est également important de prendre en compte le remplissage couleur des bords des objets.
Par exemple, si l’objet est placé dans une forêt, il sera plus judicieux d’utiliser un fond vert. Grâce aux procédés actuels de correction et de traitement des couleurs, les professionnels disposent d’un plus vaste choix de couleurs et peuvent désormais améliorer les prises médiocres.
Malgré tout, la phase de post-production peut se révéler plus laborieuse. La précision du signal d’incrustation dérivé des prises sur fond bleu dépend de la résolution et de l’exactitude des informations chromatiques. Contrairement aux équipements SD qui, comme le fameux Betacam numérique ou le DVCPRO 50, peuvent enregistrer de la vidéo échantillonnée en 4:2:2 à un taux de compression 2:1 ou 3:1, la plupart des appareils HD proposent une qualité inférieure avec des caméscopes 100-140 Mb/s, où la faible bande passante de chrominance peut limiter l’efficacité de l’incrustation HD. Le HDCAM SR fait figure d’exception. En effet, il permet un échantillonnage à 440 Mb/s sur 10 bits avec un échantillonnage 4:2:2 (voire 4:4:4) et une compression sans perte. - Effet vidéo spécial divisant l'affichage en deux images séparées par une ligne de volet horizontale ou verticale.
- Procédure d'effets spéciaux dans laquelle le sujet photographié est placé devant un fond bleu ou vert uniformément éclairé. Une nouvelle image de fond peut être substituée au bleu ou au vert lors du tournage ou de la postproduction, à l'aide de l'incrustation en chrominance.
- Acronyme de Edit Decision List, liste des décisions de montage. Ce sont les informations qui décrivent comment les plans doivent être montés, par exemple pour passer du offline au online, ou quelles opérations ont eu lieu lors du processus de montage. Conçues avant l’avènement du montage non linéaire, les EDL n’ont pas su s’adapter aux progrès apparus dans le domaine du numérique (générateurs d’effets vidéo, incrustation, correction des couleurs, etc.). Pourtant, leur utilisation en tant que méthode de communication des principales décisions de montage (coupures, fondus, effets de volet, ralentis, etc.) n’a pas connu le déclin prévisible. Les formats les plus usités sont le CMX 3400 et le CMX 3600. Plus récemment, de nouvelles initiatives (AAF et OMF) ont répondu aux besoins actuels de la production. Par exemple, la norme OMF permet le transfert de toutes les données décisionnelles entre les opérations offline et online.
- Equilibrage des diverses fréquences d'un son pour le rendre harmonieux, en atténuant ou en accentuant des fréquences spécifiques.
- Association des industries de l'électronique (Electronic Industries Association) aux Etats-Unis. La plus grande organisation commerciale couvrant les domaines de la télévision et de l'audio. EIA publie un très vaste catalogue de normes ; les normes les plus importantes pour les industries de la télévision et de l'audio étant celles développées par son service de pièces détachées et son Consumer Electronics Group.
- Electroacoustique est la technique de la production, de l'enregistrement et de la reproduction des sons par des moyens électriques.
- Un électrophone (record player en anglais) est un appareil électrique qui reproduit des sons enregistrés à partir de disques.
- Une enceinte (speaker en anglais) est un haut-parleur.
- Le processus d’encodage entropique adaptatif utilisé dans le MPEG-4 AVC/H.264 utilise le CAVLC (Context Adaptive VLC) et le CAVBAC (Context Adaptive Binary Arithmetic Coding) qui sont tous deux capables de s’adapter de manière dynamique au contexte. Le MPEG-2 utilise quant à lui une table de compression fixe lors du codage VLC, ce qui ne permet pas d’obtenir une compression efficace avec certains types d’images. A l’inverse, avec l’encodage adaptatif, la compression s’adapte de manière dynamique aux images et de ce fait on bénéficie toujours d’une compression efficace.
- Selon les lois de la physique, l’énergie cinétique est l’énergie d’un corps en mouvement. Dans le domaine du cinéma, l’énergie cinétique s’applique au mouvement de la caméra. Celle-ci peut être déplacée de multiples façons, et chaque mouvement exprimer une intention particulière. Parmi les appareils les plus fréquemment utilisés pour faire des mouvements de caméra, il y a le chariot de travelling, le Steadicam, la caméra portée, la grue, la Louma. Les secousses qui résultent d’une prise de vue à la caméra portée dynamisent une scène. Les séquences dont le mouvement doit être ample et régulier sont tournées avec un Steadicam. Les grues, Louma et autres chariots de travelling permettent des mouvements de caméra également réguliers mais limités par la structure des appareils. Il existe toutes sortes de moyens originaux de déplacer la caméra, comme de la fixer sur un chariot de montagnes russes, de l’attacher à une balançoire, un manège, ou à tout autre objet qui peut être mis en mouvement.
Par exemple, Peckinpah utilise la caméra portée dans Les Chiens de paille.
Dans Rosemary’s Baby, l’héroïne est filmée en caméra portée alors qu’elle lutte pour s’échapper.
Dans Le Bon, la Brute et le Truand, la caméra se met à tourner rapidement au moment où un personnage cherche l’or caché dans un cimetière.
La séquence de chasse de La Planète des singes est tournée en caméra portée.
Aussi importante qu’elle puisse être, l’énergie cinétique ne fait pas tout. Dans la plupart des plans du Parrain, la caméra est quasiment statique, mais cette absence d’effet de mouvement ne nuit absolument pas à la puissance dramatique du film. - Pour supprimer des images sélectionnées d'une séquence en laissant du noir ou du silence à leur place.
- Forme courante d'enregistrement magnétique au cours duquel le signal de l'onde enregistré conserve la forme du signal de l'onde originale. Toutes les séquences sur bande vidéo sont analogiques. Lors de l'enregistrement ou de la numérisation (par transfert télécinéma), la vidéo est convertie du format analogique au format numérique.
- Enregistrement immédiat de toutes les pistes audio, vidéo, timecode et de contrôle sur un appareil d'enregistrement magnétique. L'enregistrement brut crée des ruptures dans le timecode ou la piste de contrôle existant sur la bande, il est par conséquent souvent réalisé sur une bande vierge lorsqu'un montage n'est pas nécessaire ou en cas d'urgence.
- Enregistrement de plusieurs prises de dialogue ou d'effets sonores.
- Processus automatisé d'enregistrement sur disque (enregistrement numérique) de groupes de clips, de séquences, ou les deux.
- Méthode d'enregistrement au cours de laquelle le signal enregistré est codé sur la bande sous forme d'impulsions, puis décodé lors de la lecture.
- Convertir un signal audio et vidéo analogique en signal numérique.
- Méthode d'organisation des lignes de balayage des images sous forme de deux trames (ou plus) entrelacées par image. La plupart des télévisions utilisent un entrelacement à 2:1 : les trames de lignes impaires (1, 3, 5, etc.) sont suivies de trames de lignes paires (2, 4, 6, etc.), ce qui permet de doubler la fréquence de rafraîchissement vertical. En effet, le nombre de trames entrelacées correspond au double du nombre d'images entières. Cette méthode garantit une meilleure interprétation du mouvement et une limitation du phénomène de scintillement sans augmenter le nombre d'images entières ni la fréquence de bande passante du signal. L'inconvénient de ce type d'organisation se situe toutefois au niveau de la résolution verticale et du traitement de l'image.
- Entrelacé ou progressif: il s'agit là de deux modes de balayage de l'écran du tube à rayons cathodiques utilisé pour l'affichage de l'image. Dans un cas (le progressif), chaque image est reconstituée au moyen d'un spot décrivant une suite simple de lignes, qui commence en haut et à gauche de l'écran pour s'achever en bas et à droite avant de revenir, évidemment, à son point de départ. Il n'y a pas d'impératif sur la parité du nombre de lignes (ce nombre peut être choisi pair ou impair) Dans l'autre (l'entrelacé), le spot descend deux fois plus vite et le nombre de lignes constituant l'image doit être impair. Une première trame débute encore en haut et à gauche de l'écran mais pour s'achever, cette fois, en bas et au milieu tandis que pour la suivante, le spot repart du même milieu mais en haut de l'écran pour terminer son parcours, cette fois, en bas et à droite. Deux petits dessins (animés) pour mieux comprendre ? Progressif: Entrelacé: Pour ces deux exemples, l'image est composée d'un nombre identique de lignes et affichée un nombre égal de fois par seconde. La quantité d'informations à transmettre est donc la même. En tenant compte de la rémanence de l'écran, on peut constater que l'affichage entrelacé atténue la perception de défilement sur l'écran. Tous les systèmes de télévision analogique actuels pratiquent le balayage entrelacé de l'image, pour des raisons de compromis technico-économique concernant l'acheminement hertzien (dit plus simplement: pour réduire autant que possible l'occupation des bandes de fréquences ) L'affichage sur écran informatique, par contre, est progressif.
- Tirages ou transferts vidéo de matériel filmique récemment tourné, préparé rapidement afin que l'équipe de production puisse visualiser et évaluer le tournage de la veille avant de poursuivre. Egalement appelées rushes, notamment au Royaume-Uni.
- Ajustement des niveaux relatifs des signaux de couleurs, afin de produire une image ou un effet de la meilleure qualité possible.
- Variation affectant la relation stable existant entre les informations de l'image, les informations de couleurs et l'impulsion de synchronisation vidéo au cours du processus de lecture par le magnétoscope.
- Espace couvert par un système colorimétrique. Exemples : RVB, YCrCb, TSL (Teinte, Saturation et Luminance) pour la vidéo, CMJN pour l'impression et XYZ pour le cinéma. Un nouvel espace colorimétrique peut s'avérer nécessaire lorsque vous changez de média, de plate-forme ou l'applications. Opérez avec précaution, car tout changement suppose un traitement d'image complexe. Notez également que des changements répétés risquent de provoquer une dérive des couleurs. Par ailleurs, sachez qu'après avoir converti un espace YCrCb en RVB, ce dernier nécessitera davantage de bits pour maintenir le niveau de la plage dynamique. Par exemple, si l'affichage vidéo d'un espace colorimétrique YcrCb est de 8 bits par composante, celui de l'espace colorimétrique RVB après conversion devra être de 10 bits.
- Espacement entre les caractères de texte tels que les titres.
- En télévision, désigne le matériel essentiel qui apparaît sur l’écran et sort des hauts-parleurs, vidéo, audio et texte. Il s’agit des éléments enregistrés qui peuvent être incorporés par montage, mixage ou composition d’effets au produit fini (contenu).
- L’étalonnage colorimétrique, également appelé correction colorimétrique, consiste à régler la couleur d’un plan enregistré. Cette opération impliquant des ajustements d’une extrême précision requiert des compétences très poussées. Il n’est généralement pas nécessaire d’étalonner les prises enregistrées en télévision, car toutes les caméras du programme télé sont harmonisées.
Cependant, si le tournage a lieu sur plusieurs jours avec des caméras isolées ou si le montage implique le mélange de plusieurs sources, l’étalonnage permet de donner la même apparence de couleurs aux différentes prises. L’étalonnage primaire est appliqué à l’ensemble de l’image. L’étalonnage secondaire permet d’ajuster la couleur d’une zone spécifique de l’image, telle qu’un objet, ou d’affecter une gamme de couleurs précise (modifier le vert des feuilles en nuances automnales pour changer la saison, par exemple). La définition de la zone à modifier implique une incrustation. - Procédure de sélection des valeurs de la couleur et de la densité d'un film avant son tirage.
- Numéro affecté par le système de montage à chaque montage réalisé. L'événement définit une action ou une séquence d'actions réalisée par l'ordinateur en un seul passage sur la bande d'enregistrement dans la plupart des systèmes de montage informatisés.
- Augmentation de la capacité d'un système RAID sans reconfiguration complète du système.
- L'utilisation du balayage entrelacé (par opposition au balayage progressif) n'entraîne aucune répercussion au niveau de la résolution des images fixes. Toutefois, si l'un des éléments de l'image subit un quelconque déplacement, le facteur d'entrelacement entraîne une diminution de la résolution, qui peut alors atteindre une valeur inférieure ou égale à 0,7. Cette diminution est liée au décalage temporel entre les deux trames entrelacées. Lors du mouvement, les détails apparaissent en dents de scie, ligne par ligne, et il en résulte un léger lissage global de la résolution verticale.
- Basculement d'une machine vers une autre en cas de défaillance, applicable aux clusters de serveur comme aux contrôleurs RAID redondants.
- Federal Communications Commission. Conseil d'administration américain de la radio et de la télévision.
- Bruit ou grincement aigu provoqué lorsque le son d'un haut-parleur est capté par un microphone situé à proximité et réamplifié. Egalement causé par le retour dans le circuit d'enregistrement du son en sortie d'un magnétophone.
- Fenêtre répertoriant les informations système actuelles et les fonctions effectuées récemment. Elle contient également des informations au sujet d'éléments particuliers du montage, tels que les prises de vue de la séquence ou les clips sélectionnés dans les chutiers.
- Fenêtre auxiliaire servant à visualiser et à marquer les clips et les séquences.
- Le standard Fibre Channel définit une interface de transmission de données à haute vitesse qui peut être utilisée pour connecter des stations de travail, des ordinateurs, des mémoires de masse et de systèmes de visualisation. Le standard s'applique au transfert à haute vitesse d'un volume important d'informations. Il décharge les concepteurs de systèmes de l'utilisation de canaux et réseaux en les remplaçant par un seul protocole permettant la connexion d'ordinateurs entre eux (réseau) et la connexion de périphériques aux ordinateurs (canaux). Les ports Fibre Channel (FC) peuvent être reliés en point à point, en boucle ou en commutateur. Dans une connexion point à point les ports sont appelés N_Port. Dans une connexion en boucle on les nommes NL_Port. Un commutateur ou switch est appelé Tissus ou Fabric, les ports qui y sont connectés sont appelés F_Ports. On peut utiliser soit des supports optiques soit des supports électriques à une vitesse de 133 Mb/s à 4,4 Gb/s sur une distance allant jusqu'à 10 Km Fibre Channel permet de transporter de nombreux protocoles comme le trafic IP et SCSI.
- Fichiers contenant les données audio et vidéo numériques comprimées nécessaires à la lecture des clips et des séquences Avid.
- Pellicule de film vierge perforée sur les deux bords.
- Pellicule de film vierge perforée sur un seul bord.
- La perforation triple s'effectue via une fenêtre d'exposition modifiée qui permet de créer un format d'image de trois perforations de haut au lieu des quatre perforations habituelles. Le rouleau de film dure donc 25 % plus longtemps. Le format à trois perforations convient particulièrement aux programmes filmés par plusieurs caméras car les 25 % de négatif vierge supplémentaire sont comme une caméra additionnelle.
- Affichage des clips répondant à des critères bien définis dans un chutier.
- Le bus IEEE 1394 suit à peu près la même structure que le bus USB, si ce n’est qu’il utilise un câble composé de six fils (deux paires pour les données et pour l’horloge, et deux fils pour l’alimentation électrique) lui permettant d’obtenir un débit de 800 Mb/s (il devrait atteindre prochainement 1.6 Gb/s, voire 3.2 Gb/s dans le futur).
Ainsi, les deux fils dédiés à une horloge montrent la différence majeure qui existe entre le bus USB et le bus IEEE 1394, c'est-à-dire la possibilité de fonctionner selon deux modes de transfert :
1. le mode de transfert asynchrone : le mode de transfert asynchrone est basé sur une transmission de paquets à intervalles de temps variables. Cela signifie que l’hôte envoie un paquet de données et attend de recevoir un accusé de réception du périphérique. Si l’hôte reçoit un accusé de réception, il envoie le paquet de données suivant, sinon le paquet est à nouveau réexpédié au bout d'un temps d’attente.
2. le mode isochrone : le mode de transfert isochrone permet l’envoi de paquets de données de taille fixe à intervalle de temps régulier. Un noeud, appelé Cycle Master est chargé d'envoyer un paquet de synchronisation toutes les 125 microsecondes. Les échanges étant simplifiés, les vitesses de transfert sont plus élevées. - Le fisheye est un objectif photographique de très courte focale ne couvrant pas toujours le format de prise de vues et formant dans ce cas une image ronde.
- Un Flash (newsflash en anglais) est une brève séquence à la télévision ou la radio.
- Fire Wire ou IEEE 1394
- Il s'agit des sons figurant en arrière-plan ajoutés lors de l'adoucissement de l'audio afin d'accroître le réalisme.
- 1. Transition vidéo ou audio dans laquelle l'image d'une source devient de moins en moins nette au fur et à mesure que l'image d'une seconde source la remplace. Un fondu audio est également appelé une transition musicale.
2. Fondu réalisé à partir d'une vidéo couleur jusqu'au noir intégral ou à partir d'un son intégral jusqu'à son absence totale, ou vice versa. - Transition audio dans laquelle le son sortant devient progressivement moins audible tandis que le son entrant l'est de plus en plus.
- Méthode de montage simultané de deux scènes l'une à la suite de l'autre ; également appelée une coupe.
- Transition sous forme de volet entre sources vidéo, dans laquelle une marge ou bordure se déplace en travers de l'écran, effaçant l'image d'une scène pour la remplacer par une autre.
- Rapport numérique entre la largeur d'affichage d'une zone et sa hauteur. Dans le domaine de la vidéo et de la télévision, le rapport largeur/hauteur standard est 4:3, lequel peut être réduit à 1,33:1 ou simplement 1,33. Le rapport largeur/hauteur du format vidéo HDTV est 16:9. Pour les films, les rapports largeur/hauteur incluent : 1,33:1, 1,85:1 et 2,35:1.
- Rapport largeur/hauteur d'une image. Les images HD utilisent un format d'affichage 16:9, également exprimé sous la forme 1,77:1, permettant d'augmenter d'un tiers le format télévisuel 4:3 (1,33:1). Il est supposé produire des images plus spectaculaires, avec un champ visuel plus large qui permet d'attirer davantage l'attention du téléspectateur. Le format d'affichage d'une image exprimé en pixels représente le rapport largeur/hauteur d'un pixel. Comme la plupart des applications informatiques, la haute définition utilise des pixels carrés, contrairement au SD. La diffusion en SD d'images au format 4:3 et 16:9 (écrans larges) s'avère plus complexe, puisque le nombre de lignes et de pixels des écrans SD reste le même. Veillez donc ne pas altérer les formes de l'image en modifiant avec prudence le format d'affichage en pixels lors du passage d'un système à un autre. Les deux formats (4:3 et 16:9) étant utilisés pour l'image et pour l'affichage, faites preuve de discernement au moment d'associer l'image avec l'écran. Les images HD, et de plus en plus d'images SD, sont tournées en 16:9 alors que la plupart des écrans SD possèdent encore un format d'affichage 4:3. Ces écrans étant encore très répandus, il est donc recommandé d'afficher vos productions HD au format 4:3 letterbox, c'est-à-dire, de centrer l'image au format 4:3.
- Format de bande vidéo créé par Panasonic pour concurrencer le Betacam de Sony. MII est une extension du format grand public VHS qui, tout comme Sony Betacam, est une extension de la technologie vidéo Betamax destinée au grand public.
- Le format 1080/24P est parfois désigné sous l'appellation « format universel » pour la télévision. En effet, il peut être converti dans tous les autres formats et sa conversion produit des résultats de haute qualité dans tous les cas.
- Le format 1080/24P est parfois désigné sous l'appellation « format universel » pour la télévision. En effet, il peut être converti dans tous les autres formats et sa conversion produit des résultats de haute qualité dans tous les cas.
- 1. (Vidéo) Affichage graphique représentant le motif électronique du signal vidéo. Il est utilisé pour régler le décollement du niveau de noir et le gain à l'aide d'une référence stable, telle que les barres couleur. La forme d'onde Avid utilise un affichage à ligne unique.
2. (Audio) Représentation visuelle des variations de fréquence. - Fréquence des unités d'échantillons.
- 1. Mesure de la quantité de blanc d'une image vidéo.
2. Niveaux ou volumes audio. - Mesure de la valeur centrale dans la plage de luminance d'une image. La valeur gamma permet de contrôler les proportions des zones claires et foncées d'une image au cours du réglage des couleurs.
Appelé également point gris, le gamma décrit la différence entre la courbe de transfert de luminosité des périphériques de source vidéo, tels que les capteurs CCD des caméras, et la réponse des périphériques d’affichage, généralement les tubes cathodiques.
La correction gamma est habituellement appliquée aux signaux R, V et B de la vidéo source dans le cadre du traitement interne des caméras. Elle est nécessaire pour rendre le signal vidéo imperméable au bruit atmosphérique lors des transmissions analogiques “en liaison aérienne par onde”.
En outre, l’utilisation plus récente de nouveaux systèmes d’affichage, tels que les écrans plasma, LCD et DLP, dotés de technologies et gammas très différents, exige également ce type de correction pour satisfaire leur caractéristiques de transfert. Par exemple, la technologie DLP se base sur les DMD, périphériques constitués de millions de micro miroirs à modulation temporelle. La quantité de lumière qu’ils réfléchissent sur l’écran est fonction de la durée de service en activité.
Ainsi, les systèmes DLP programment le gamma d’affichage pour tout niveau de luminance donné en réglant la durée d’exposition à partir d’une table de conversion (LUT). Les composants ou couleurs corrigés sont accompagnés d’une prime, par exemple : R´, G´, B´ et Y´, Cr´, Cb´. La plupart des entrées de ce glossaire se référant au signal corrigé en gamma, les primes n’ont pas été incluses pour faciliter la lecture. - Gamme dynamique est un terme audio définissant la gamme de volumes comprise entre les niveaux sonores les plus bas et les plus élevés que peut produire une source, sans faire apparaître de distorsion.
- Effet vidéo permettant d'immobiliser l'action en cours. Les gels d’images peuvent être créés au moment de l'enregistrement, de la numérisation ou au cours de la session de montage. Les compositions peuvent générer cet effet en utilisant un objet de répétition de piste, pouvant spécifier l'affichage d'une image unique pour une période donnée.
- Dispositif électronique ou combinaison de périphériques informatique et logiciel, produisant des lettres et des nombres pouvant être superposés comme titres sur la source vidéo.
- Appareil électronique émettant un signal indiqué comme noir pur lorsqu'il est enregistré sur bande vidéo.
- Nombre d'enregistrement des données. Les données originales enregistrées sur bande sont dites de première génération. Une copie de cet original représente une bande de deuxième génération et ainsi de suite. Chaque génération révèle des signes de détérioration progressive de la qualité de l'image. Avec les copies numériques, la qualité n'est pas affectée ou très peu.
- Le générique recense l'ensemble des personnes physiques ou morales qui ont participé à la création d'une œuvre cinématographique et présente leurs noms au début ou à la fin du film.
- La girafe est un support de micro ou d'accessoire muni d'un déport de grande longueur utilisé en particulier en studio de doublage son.
- Group Of Pictures (Groupe d'images) est un terme utilisé notamment dans la compression vidéo MPEG-2 et MPEG- 4. Il correspond au nombre d'images intercalées entre deux images I intégrales : les images intermédiaires sont des images prédictives (de type B et P).
Le « GOP long » désigne en principe le codage MPEG-2 et 4. Pour la transmission, le GOP atteint souvent une demi-seconde, 13 ou 15 images (25 ou 30 images par seconde), ce qui permet d'obtenir le taux de compression requis. Le montage MPEG avec GOP long constitue une opération délicate, dans la mesure où la précision dépend de la longueur du GOP. Pour contourner le problème, les images doivent être retraitées, généralement à l'aide d'un décodeur.
Le format HDV utilise la compression MPEG-2 avec un GOP de 6 images (format HDV1 ) ou de 15 images (format HDV2) permettant un montage basé sur des intervalles de 1/4 ou 1/2 seconde.
Un GOP de 1 correspond à une vidéo « image I uniquement » modifiable à chaque image sans nécessité de traitement supplémentaire.
Les applications studio de la compression MPEG-2 utilisent des GOP extrêmement réduits, de l'ordre de 2 pour le Betacam SX et de 1 pour l’IMX (image I uniquement, sans image prédictive), ce qui permet de simplifier le montage au niveau de chaque image. D'autres formats comme les DV, DVCPRO HD, HDCAM ou D5-HD n'utilisent pas la compression MPEG mais se basent également sur un découpage en image I uniquement. - Gros plan.
- Graphe X, Y représentant les valeurs des couleurs d'entrée sur l'axe horizontal et les valeurs des couleurs de sortie sur l'axe vertical. Il permet de changer la relation entre les valeurs des couleurs d'entrée et de sortie à partir de l'outil de correction des couleurs.
- Alternative à la double boucle Fibre Channel, cette technologie repose sur une topologie réseau en maillage, avec des commutateurs de taille réduite et des modules, ou lames, de stockage qui intègrent non seulement des disques, mais aussi un micro-ordinateur avec des connexions réseau. • Chaque lame possède ainsi un premier niveau de gestion de fichiers et peut communiquer avec l’ensemble. Les données ne transitent plus par deux commutateurs centraux redondants et une multitude de chemins sont envisageables. Le système est organisé pour qu’il y ait systématiquement plusieurs accès aux données, actifs simultanément, garantissant ainsi l’existence d’un chemin en cas de défaillance matérielle - réseau ou stockage – et ce, sans reconfiguration du système. Grâce à l’intelligence embarquée dans les lames, le système s’auto régule en permanence, équilibrant la charge pour optimiser les performances, et les maintenir en cas de défaillance. • Autre atout, cette architecture est facile à déployer et ne connaît pas de limite théorique : les nouveaux éléments de stockage s’intègrent au fur et à mesure dans le maillage réseau, et les données sont automatiquement redistribuées sur l’ensemble sans interruption du système A chaque ajout, les performances sont améliorées.
- Graphical user interface (Interface utilisateur graphique). Image graphique affichée à l'écran et contenant la représentation des boutons, des glissières et des cadrans servant à contrôler le processus de montage.
- H.264 (ou MPEG-4 AVC) est une norme de codage video développée conjointement par l'UIT-T Q.6/SG16 Video Coding Experts Group (VCEG) ainsi que l'ISO/CEI Moving Picture Experts Group (MPEG) et est le produit d'un effort de partenariat connu sous le nom Joint Video Team (JVT).
La norme UIT-T H.264 et la norme ISO/CEI MPEG-4 Part 10 (ISO/CEI 14496-10) sont techniquement identiques, et la technologie employée est aussi connue sous le nom AVC (Advanced Video Coding). Dans le cadre de MPEG, le nom AVC a été choisi par analogie avec le codec audio AAC MPEG-2 part 7 qui avait été nommé ainsi pour le différencier du codec audio MPEG-2 part 3. La norme est habituellement appelé H.264/AVC (ou AVC/H.264 ou H.264/MPEG-4 AVC ou MPEG-4/H.264 AVC) pour souligner l'héritage commun.
Le nom H.26L, rappelant son lien avec l'UIT-T est nettement moins commun mais toujours utilisé. De temps en temps, il est aussi appelé « le codec JVT », en référence à l'organisation JVT qui l'a développé. Il existe un précédent dans l'élaboration d'une norme de codage vidéo commune entre MPEG et l'UIT-T avec MPEG-2 et H.262 qui sont identiques. Cependant, ce codec a été développé dans le cadre de MPEG, l'UIT-T se contentant de l'adopter ensuite et de l'éditer en son sein.
Les deux principaux candidats à la prochaine génération de format de DVD HD, incluent le "H.264/AVC High Profile" en tant que caractéristique obligatoire des lecteurs avec notamment :
- Le format HD-DVD du DVD Forum
- Le format Blu-ray Disc de la Blu-Ray Disc Association (BDA) H.264 qui utilise les toutes dernières innovations de la technologie de compression vidéo pour fournir une incroyable qualité vidéo à partir d'un nombre minimum de données. Ceci signifie que vous pouvez véhiculer de la vidéo d'une netteté parfaite dans des fichiers de beaucoup plus petite taille, ce qui permet d'économiser de la bande passante et de réduire les coûts de stockage par rapport aux anciennes générations de codecs vidéo.
H.264 fournit la même qualité que le MPEG-2 pour un débit de données inférieur d'un tiers ou de moitié, tout en fournissant une résolution jusqu'à quatre fois supérieure à celle de la norme MPEG-4 Part 2 pour un débit de données identique. H.264 fait preuve de la meilleure efficacité en matière de compression pour un large éventail d'applications : diffusion, DVD, visioconférence, vidéo à la demande, streaming ou messagerie multimédia. Fidèle à sa conception avancée, H.264 fournit une excellent qualité dans différents formats, de la 3G à la HD, entre autres. Que vous ayez besoin de contenus vidéo de haute qualité pour votre téléphone mobile, iChat, Internet, une diffusion ou une transmission par satellite, H.264 fournit des performances exceptionnelles à des débits de données extrêmement faibles. L'incroyable efficacité du codec H.264 fait entrer davantage d'utilisateurs dans l'ère de la haute définition, vous permettant de profiter de la qualité HD sur les ordinateurs actuels. Avec H.264, un Apple Cinema HD Display et un Power Mac G5 biprocesseur, vous pouvez transformer votre bureau en véritable salle de cinéma personnelle et profiter d'images comme vous n'en avez jamais vues. Déjà reconnu comme faisant partie intégrante de la norme MPEG-4 Part 10 et du tout dernier standard de visioconférence d'ITU-T, H.264 est désormais obligatoire pour les spécifications HD-DVD et Blu-ray (les deux formats des DVD haute définition) et homologué dans les dernières versions des normes DVB (Digital Video Broadcasters) et 3GPP (3rd Generation Partnership Project). De nombreuses sociétés de diffusion, de câble, de visioconférence et d'électronique grand public considèrent H.264 comme le codec de référence pour leurs nouveaux produits et services. Cette adoption par une grande variété de standards ouverts signifie que n'importe quelle société au monde peut créer des périphériques (téléphones mobiles, décodeurs, lecteurs DVD, etc.) qui fonctionneront sans encombre avec QuickTime 7. - Se dit d'un système ayant un maximum de composant redondant.
- Télévision Haute Définition. Selon la définition publiée aux Etats-Unis par l'ATSC (Advanced Television Systems Committee) et d'autres organismes, l'appellation HD désigne tout format télévisuel possédant une résolution horizontale et verticale environ deux fois supérieure à celle de la télévision classique (format NTSC analogique, 486 lignes visibles), un rapport hauteur/largeur 16:9 et une fréquence d'images supérieure ou égale à 24 images par seconde.
Dans la pratique, cette définition s'avère moins stricte. En effet, l'appellation HD s'utilise également pour désigner le format 720 lignes x 1 280 pixels par ligne à balayage progressif. La meilleure résolution verticale obtenue avec le balayage progressif justifie en partie l'appellation HD de ce format.
Outre les considérations liées au format, la distinction entre télévision HD et SD se situe également au niveau du système colorimétrique. Fait assez rare pour être signalé, la norme établie en la matière est acceptée par l'ensemble des organismes au niveau international. Le format d'image 1 080 x 1 920 utilisé en HD se rapproche de la résolution 2K utilisée pour l'élaboration des films. On observe dès lors une réduction de la frontière entre télévision et cinéma. Cette frontière se réduit d'autant plus si l'on utilise une fenêtre 16:9 de la résolution 2K : la différence de taille devient alors à peine perceptible.
De manière générale, tout format affichant au minimum une définition supérieure ou égale à deux fois celle de la SD sur les axes H et V peut être qualifié de haute définition. Suite au débat sur les formats disponibles pour les futurs producteurs et stations de télévision HD, la reconnaissance du format vidéo 1080-HD à fréquence d'images variable en tant que format vidéo standard par l'UIT a permis de clarifier la situation. Les stations de télévision bénéficient d'une certaine latitude quant au choix du format. Si nécessaire, la conversion du format vidéo standard doit néanmoins pouvoir s'effectuer de manière systématique et produire un résultat de haute qualité.
Après de nombreux essais, tests, consortiums sans aboutissement d'une norme uniformément ratifiée, Sony décide de sortir et imposer le format HDCam en 1997. Son atout majeur réside dans la conception d'un caméscope donnant ainsi de la portabilité à la Haute Définition : jusqu'alors, le signal devait être enregistré sur un ou plusieurs magnétoscopes séparés de la caméra. Pour exemple, la chaîne Japonaise NHK, pionnière de la Haute Définition, devait utiliser en France pour son bureau local, deux magnétoscopes D1 en parallèle ; le premier enregistrait la trame du haut, le second, celle du bas ! Il a été à l'origine développé pour le tournage de Star Wars : épisode II - L'Attaque des clones à la demande de George Lucas puis utilisé pour le tournage de film tels que Vidocq. Son grand frère, de plus en plus utilisé au cinéma est le HDCam SR, laissant ainsi son cadet à la vidéo. - En règle générale, la télévision utilise la vidéo à composantes 4:2:2 (Y,Cr,Cb). Le RVB 4:4:4 permet d’obtenir une qualité légèrement supérieure. De nombreuses caméras cinéma numériques offrent ce format de sortie adapté à l’échantillonnage aussi bien linéaire que logarithmique. La taille d’image HDTV 1 080 x 1 920 est proche de celle projetée en 2K. On peut donc considérer le HD RVB comme un croisement entre un format télé et cinéma, qui d’une part, tire profit des équipements TV rapides et économiques et d’autre part, garantit une qualité à la hauteur de la projection analogique (celluloïde).
- Proposé par Sony, c’est la version caméscope HD du fameux Betacam numérique. Apparu en 1997 à des prix quasi équivalents à ceux du DigiBeta, il s’imposa alors comme format haute définition le plus abordable du marché. Depuis, la gamme s’est étendue et certains produits sont proposés à des prix encore plus compétitifs. Le HDCAM définit un format d’enregistrement sur bande ? pouce. Il existe par ailleurs toute une gamme de lecteurs et enregistreurs de studio, ainsi que des options pour la conversion en SD.
Dans le caméscope, la partie caméra comprend des capteurs CCD de 2,1 millions de pixels et 2/3 pouce pour la capture d’images 1 080 x 1 920. Compatibles avec les produits Betacam numérique et les lentilles HD acceptées, ses lentilles permettent d’obtenir des images d’une qualité exceptionnelle. L’enregistreur permet d’enregistrer jusqu’à 40 minutes sur une petite cassette. Ainsi, l’outil est adapté à des données issues de diverspour une grande variété de programmes, notamment les tournages en extérieur. Une procédure, comprenant notamment la compression intraimage 4.4:1, permet de ramener le débit de données vidéo de bande de base à 140 Mb/s. Le format prend en charge quatre canaux d’audio AES/EBU et la fréquence d’enregistrement globale sur bande est de 185 Mb/s. Le HDCAM échantillonne efficacement la vidéo selon un rapport de 3:1:1 et une résolution horizontale souséchantillonnée à 1 440 pixels.
Il répond aux besoins de la haute définition, mais il n’est pas fait pour être utilisé avec la technologie Blue Screen. La norme HDCAM prend en charge les formats vidéo de 1 080 x 1 920 pixels à une cadence de 24, 25 et 30 images/s pour les images progressives et 50 et 60 Hz pour les images entrelacées. Les vidéos tournées au format 24P peuvent être visualisées dans des environnements 50 Hz ou 60 Hz. En outre, la lecture vidéo à différentes fréquences d’image permet d’accélérer et de ralentir l’action. - Le HDCAM SR permet d’enregistrer des vidéos RVB 4:4:4 ainsi que des vidéos HD 4:2:2 à composantes selon un débit de données net de 440 Mb/s.
Ce format emploie une légère compression MPEG-4 Studio Profile (ISO/CEI 14496- 2:2001-1) garantie « sans perte visuelle ». Les données sont enregistrées sur des cassettes 1/2 pouce.
Studio Profile répond aux besoins de la haute résolution. Utilisant exclusivement des images I, il présente des facilités incroyables pour le montage. Adaptez-le à vos besoins en choisissant le nombre de pixels (SD ou HD), la résolution (10 bits ou 12 bits) et la résolution couleur (à composantes ou RVB).
Il est idéal pour le montage et l’enregistrement HD haut de gamme, ainsi qu’en tant que format de masterisation pour l’échantillonnage.
Aujourd’hui, le HDCAM SR constitue sans doute le système d’enregistrement HD sur bande de la plus haute qualité. Les enregistreurs à débit supérieur requièrent normalement l’utilisation de disques durs ou de mémoire flash. Outre le mode SQ (à 440 Mb/s), le HDCAM SR propose le mode HQ pour des enregistrements à 880 Mb/s, ce qui permet d’appliquer une compression RVB 4:4:4 plus faible ou sur deux canaux 4:2:2. - High Definition Television (Télévision haute définition). Image vidéo numérique dont la résolution est au moins deux fois celle des systèmes NTSC ou PAL. Le rapport largeur/hauteur HDTV est 16:9 (le rapport largeur/hauteur Analog TV est 4:3).
- Le HDV (High Definition Video) est le premier format vidéo haute définition (par opposition à la vidéo simple définition telle celle de la télévision) pour camescopes grand public. Le format HDV a été créé par quatre compagnies : Canon Inc., Sharp Corporation, Sony Corporation, et Victor Company of Japan, Limited (JVC). Ce partenariat date de Septembre 2003. Ces compagnies ont été rejoint depuis par d'autres telles que Apple ou Pinnacle.
Le HDV constitue un système économique de tournage et d’enregistrement HD. Il définit les formats vidéo, un procédé de compression et utilise l’enregistrement DV ainsi que les cassettes DV classiques ou MiniDV. Le HDV est disponible aux normes HDV1 et HDV2.
Cependant, contrairement au DV, celles-ci utilisent la compression MPEG-2 avec un GOP long pour réduire la vidéo HD aux dimensions au même débit que le DV. Les deux normes appliquent l’échantillonnage couleur 4:2:0/8 bits. Les deux canaux audio 16 bits/48 Hz sont compressés (4:1) via MPEG-1 (couche Layer II) à 384 Kb/s.
HDV1 est un format de balayage progressif 1280x720 appliquant des fréquences d’image de 60, 50, 30 et 25 Hz.
Le format ProHD de JVC propose en outre une fréquence d’images de 24 Hz. La fréquence d’échantillonnage de la luminance est de 74,25 MHz.
La compression vidéo MPEG- 2 avec un GOP de 6 images assure un débit de données d’enregistrement de 19 Mb/s. Dans cette norme, une cassette MiniDV de 63 minutes enregistre 63 minutes de HDV et la répartition des données critiques sur toutes les pistes enregistrées permet de minimiser les pertes. HDV2 est un format de balayage entrelacé 1440x1080 appliquant une fréquence d’image de 60 ou 50 Hz. Le débit de données est de 25 Mb/s après application de la compression MPEG-2 avec un GOP de 15 images. Même si le nombre de pixels n’est pas conforme au rapport classique de 16:9 pixel/ligne, les images, elles, respectent ce rapport. Ainsi, la fréquence d’échantillonnage de la luminance est de 55,7 MHz et les pixels, étirés au lieu d’être carrés, présentent un format d’affichage de 1.33:1. - Unité SI de fréquence correspondant à un cycle par seconde.
- Image à contraste élevé (high contrast) utilisée pour créer des effets Matte Key (incrustations d'après découpe extérieure).
- Acronyme de Host Image Independent Protocol. Marque déposée d'Avid Technology, Inc. Le protocole HIIP permet au système Avid d'importer et d'exporter des fichiers sous différents formats standard. Egalement appelé Image Independence.
- Graphe utilisé, lors de la correction des couleurs, pour représenter la distribution des pixels dans une image en fonction de leur luminosité. Il permet de voir comment l'image est formée en terme de luminance relative.
- Connexion ou déconnexion d'un composant "à chaud", sans arrêt du système.
- Désigne une machine (serveur ou station de travail) sur laquelle le stockage va se connecter.
- HSRP (Hot Standby Router Protocol). Protocole propriétaire Cisco qui permettant une redondance des accès/continuité de service. De ce protocole est dérivé VRRP (Virtual Router Redundancy Protocol), normalisé et utilisé chez la plupart des autres constructeurs (Nokia, Alcatel..) En pratique, HSRP permet qu’un routeur de secours (ou spare) prenne immédiatement, de façon transparente, le relais dès qu’un problème physique apparaît. Chaque routeur utilisant le protocole HSRP appartient à un groupe HSRP. Dans le groupe, un routeur sera élu comme ayant une priorité plus élevée. Il sera considéré comme routeur « actif » du groupe (les autres routeurs étant en "stanby").
Périodiquement, les routeurs échangent des messages « Hello » pour s'assurer que les routeurs du groupe sont encore online. Si le routeur actif principal/nominal devient inaccessible, ou si le lien le reliant tombe, un autre routeur sera élu en remplacement : celui qui a la deuxième priorité la plus élevée. Tous les messages entre les routeurs sont échangés en utilisant l'adressemulticastUDP sur le port 1985. 224.0.0.2 (qui correspond à tous les routeurs du lien local) via Le routeur ayant la priorité la plus élevée comportera une adresse IP virtuelle ainsi qu'une adresse MAC adresse virtuelle (0000.0c07.ac0A). Ces deux paramètres s'ajoutant à la configuration classique du routeur.
Lorsque le routeur actif du groupe devient injoignable, un autre routeur prend le relais et récupère ainsi l'adresse IP virtuelle et l'adresse MAC virtuelle. Exemple : Soient deux routeurs (A et B) utilisant le protocole HSRP pour fournir une tolérance aux pannes. Le routeur A utilisera l'adresse IP 192.168.0.1 avec un masque de réseau de 255.255.255.0 ; le routeur B utilisera l'adresse IP 192.168.0.2 avec un masque de réseau ayant pour valeur 255.255.255.0. Nous allons définir le routeur A comme le routeur ayant la priorité la plus élevée puis ajouter le routeur B au groupe. Enfin, nous allons dire que l'adresse IP 192.168.0.3 (masque 255.255.255.0) sera l'adresse IP virtuelle. - Images par seconde. Mesure du débit d'images dans un film ou une vidéo
NTSC = 30 i/s
PAL = 25 i/s
SECAM = 25 i/s
Film = 24 i/s). - Image vidéo intégrale. Une image contient deux trames vidéo, balayées à la vitesse NTSC d'approximativement 30 i/s ou à la vitesse PAL de 25 i/s.
- Partie de l'image affichée par l'écran. Sur les systèmes à 525 et 625 lignes, par exemple, l'image active n'est respectivement constituée que de 487 et 575 lignes. De même, la durée totale est de 63,5 Ìs pour un système à 525 lignes et de 64 Ìs pour un système à 625 lignes, mais seulement 52 à 53.3Ìs contiennent réellement de l'information. Le signal continu utilise cet intervalle de temps supplémentaire pour revenir au début de la première ligne du haut de l'image et redémarrer le balayage.
Les formats SD échantillonnés numériquement contiennent 576 lignes et 720 pixels par ligne (système à 625 lignes) ou 480 lignes et 720 pixels par ligne (système à 525 lignes) mais toute l'information ne tient que dans 702 pixels. 720 pixels équivalent à 53,3 Ìs. L'échantillonnage du signal s'effectue lors de l'effacement du signal analogique (blanking). Il démarre juste avant l'extrémité gauche de l'image active et se termine après le retour au niveau de blanking du signal.
Ainsi, les limites gauche et droite de l'image numérisée sont incluses dans la ligne de balayage numérique. Ce mécanisme permet d'obtenir une continuité entre le signal invisible (blanking) et l'image active. Les systèmes HD sont généralement caractérisés par leur nombre de lignes actives. Un système à 1 080 lignes, par exemple, possède 1 080 lignes de vidéo active, chacune composée de 1 920 échantillons. Pour adapter ce système à une connexion analogique, il suffit de l'associer à une image plus grande, de type 1 125 lignes. - L'IMAX (Image MAXimum) est un format de pellicule créé par l'IMAX Corporation, au Canada, qui a la capacité d'exposer des images d'une plus grande taille et d'une meilleure résolution que les pellicules conventionnelles. Un écran standard IMAX mesure 22 mètres de long et 16 mètres de haut, le plus grand se trouvant à Sydney avec 35,73 sur 29,42 mètres.
- Impulsion superposée au signal de la piste de contrôle. Les impulsions d'images sont utilisées pour identifier les emplacements de la piste vidéo contenant des impulsions synchrones verticales.
- Impulsions contrôlant le balayage vertical champ par champ de l'image vidéo par le faisceau d'électrons.
- Il s'agit du Timecode visible superposé de façon permanente (gravé) sur la source vidéo, habituellement sous forme de chiffres blancs dans un rectangle noir. Le timecode incrusté est utilisé normalement pour le suivi du timecode au cours des aperçus ou du montage maquette. Une bande vidéo contenant une incrustation est également appelée copie incrustée ou copie fenêtre.
Il s'agit aussi du terme général désignant le processus qui consiste à placer un élément ou une partie d’une image sur une autre image (du texte sur de la vidéo par exemple). Cette technique est très utilisée au journal TV par exemple.
Version vidéo du cache en film, l’incrustation implique des opérations en direct faisant appel à des outils interactifs. Cette procédure s’effectue en deux temps : le signal d’incrustation est d’abord dérivé, puis réappliqué pour produire le résultat escompté. En haute définition, il est impératif que les résultats soient convaincants et précis. Le recours croissant à la composition exige d’excellentes compétences en incrustation pour que les éléments incorporés (décors, objets, acteurs) s’intègrent harmonieusement à l’image d’origine. L’introduction de la technologie numérique et du montage non linéaire online a participé à l’essor rapide des outils d’incrustation.
Si les ressources utilisées ont été créées électroniquement (graphiques ou illustrations, par exemple), le signal d’incrustation est fourni avec la vidéo. Sinon, il existe des moyens élaborés pour le dériver. Habituellement, les objets sont photographiés sur un écran bleu ou vert, dont la couleur définit le signal d’incrustation. En réalité, la couleur d’incrustation déborde sur l’objet et des techniques de détourage doivent être appliquées. Les contours de l’élément incrusté exigent généralement un travail minutieux. Un soin particulier doit en effet être apporté afin d’adoucir les contours entre l’objet et l’arrière-plan et de rendre les contours plus naturels à l’aide de fondus.
Des techniques plus poussées permettent d’incruster des éléments translucides tels que la fumée, le brouillard et le verre. Elles utilisent souvent un procédé de mélange non additif qui équilibre la luminance du premier plan et celle de l’arrière-plan. Ces nouvelles techniques d’incrustation numérique ont considérablement contribué à l’essor du cinéma numérique. Leur efficacité a révolutionné le monde de la production, la simplification des prises et la diminution des tournages en extérieur ayant permis de réduire considérablement les coûts.
Dans les systèmes numériques, l’incrustation correspond à un signal de bande passante complète (comme Y, luminance) et est souvent stockée avec sa vidéo de premier plan. Les systèmes non linéaires sur disque permettent de stocker et de lire l’ensemble vidéo + incrustation en une seule opération, sinon cela nécessiterait deux magnétoscopes. - Méthode de combinaison d'images ou de parties d'images provenant de deux sources différentes, en remplaçant la couleur unie d'une source par une image de la seconde source. Processus de dérivation et d’utilisation d’un signal d’incrustation formé à partir de zones d’une couleur donnée appartenant à une image (généralement le bleu, parfois le vert).
- Combiner une image sélectionnée dans une source avec celle d'une autre source.
- Ligne bleue verticale se déplaçant dans la barre de position et dans la timeline pour indiquer l'emplacement de l'image affichée dans la fenêtre.
- Indicatif (ou theme tune en anglais) est une petite musique annonçant le début d'une émission de radio ou de télévision.
- Un ingénieur du son enregistre ou mixe des programmes sonores ou musicaux.
- Configuration du programme de montage de l'ordinateur aux conditions d'exploitation appropriées au début de la session de montage.
- Interconnexion du matériel compatible d'un équipement audio ou vidéo sans conversion du signal au format analogique.
- Un intermittent du spectacle est en France un artiste ou technicien qui travaille par intermittence (alternance de périodes d'emploi et de chômage) pour des entreprises du spectacle vivant, du cinéma, et de l'audiovisuel et qui a le droit de bénéficier des allocations chômages suivants des critères de nombres d'heures travaillées et de métiers exercés. Il y avait 105 826 allocataires en 2009.
- Période pendant laquelle l'image de l'écran de télévision disparaît tandis que le faisceau d'électrons retourne (retour du spot) du balayage d'un champ de vidéo pour commencer à balayer le suivant. L'intervalle de suppression images est parfois utilisé pour insérer du timecode, la syntonisation couleur automatique ou des informations dans le signal vidéo.
- Unité de mesure de l'échelle de la forme d'onde vidéo servant au calcul des niveaux vidéo, définie à l'origine par l'Institute of Radio Engineers (IRE). L'échelle est divisée en 140 unités IRE, 100 unités au-dessus de la ligne de référence et 40 unités au-dessous.
- Défini et maintenu par le groupe IETF (Internet Engineering Task Force), le protocole de stockage standard iSCSI offre les avantages d'un réseau de stockage (SAN) en termes de consolidation, d'évolutivité et de gestion, sans présenter le manque de convivialité, la complexité et les frais inhérents aux interconnexions SAN classiques. Egalement connu sous le nom d'Internet SCSI, le protocole iSCSI encapsule les commandes de stockage de niveau bloc SCSI dans des paquets Ethernet destinés à être transmis sur des réseaux IP, ce qui permet aux entreprises de créer des SAN abordables à partir d'infrastructures Ethernet classiques et standards.
Un SAN iSCSI peut constituer un choix idéal pour les entreprises souhaitant passer d'un stockage à connexion directe à un stockage réseau. Les réseaux de stockage iSCSI utilisent les mêmes commandes SCSI de niveau bloc que le stockage à connexion directe traditionnel. Ils sont tout à fait compatibles avec les logiciels serveur existants (systèmes de fichiers, bases de données ou applications). De même, comme l'iSCSI fonctionne sur des réseaux IP omniprésents classiques, il est inutile de déployer une nouvelle infrastructure réseau ou de former du personnel pour exploiter les avantages des SAN.
Contrairement au stockage à connexion directe, les solutions de stockage iSCSI vous permettent de partager les ressources de stockage sur plusieurs serveurs, d'augmenter facilement la capacité de stockage sans avoir à quitter des applications stratégiques et de consolider vos processus et opérations de protection des données. Vous améliorez ainsi la disponibilité des données tout en réduisant considérablement les coûts administratifs. Sous sa forme la plus simple, une solution de SAN iSCSI (IP SAN) est constituée de serveurs équipés soit de cartes réseaux Gigabit Ethernet standards et d'un « initiateur » logiciel iSCSI; soit de cartes bus host iSCSI et d'un logiciel pilote. Les cartes sont connectées via un commutateur Ethernet à un système de stockage iSCSI standard par des câbles Ethernet standards. Le pool de stockage réseau se présente pour chaque serveur comme un stockage de disque local dédié.
Le protocole iSCSI est doté d'options de sécurité appropriées qui permettent la création de SAN sur une gamme étendue de topologies réseau, depuis les sous-réseaux IP jusqu'aux réseaux locaux (LAN), étendus (WAN) départementaux ou de centres de données. Les solutions SAN iSCSI constituent un choix idéal pour la consolidation du stockage dans des environnements serveurs économiques dotés de l'architecture Intel®. Elles sont particulièrement intéressantes dans les centres de données départementaux, régionaux ou distants pour lesquels les solutions Fibre Channel ne se sont pas avérées rentables jusqu'à ce jour. L'iSCSI offre également aux centres de données d'entreprise des solutions abordables de stockage secondaire ou de protection des données. Les déploiements actuels de liSCSI couvrent un large éventail de secteurs et d'environnements informatiques. - Isolation reel (bobine d'isolement). Dans une production à plusieurs caméras, la bobine source de l'enregistrement séparé (isolé) d'une caméra unique, accompagnée des enregistrements simultanés des autres caméras et d'une ligne de mélange en circuit.
- Norme correspondant à la vidéo numérique à composantes, publiée par l'International Telecommunication Union sous la dénomination ITU-R BT.601-5 (auparavant CCIR -601). Cette norme définit la vidéo numérique à composante étant donné qu'elle est dérivée des systèmes NTSC et PAL. Elle constitue également la base des formats HDTV.
- interface universelle. Les IU permettent à l'ordinateur de contrôler divers composants à distance, dans les systèmes de montage informatisés.
- Just a Bunch Of Disk. Disques durs chaînés sans niveau de RAID particulier.
- JPEG File Interchange Format. Format de fichier contenant des données d'images codées JPEG pouvant être partagées entre diverses applications.
Les résolutions JFIF permettent de stocker les données selon un débit constant, par exemple, le format JFIF 300 utilise 300 Ko pour chaque image qu'il stocke. Les résolutions JFIF sont conformes au format d'échange ISO-JPEG et à la norme ITU-R 601. Le format JFIF (JPEG File Interchange Format) est une méthode de compression utilisée sur les systèmes Avid non linéaires basés sur la technologie Meridien. Il applique le même débit de données aux clips numérisés, quelle que soit leur complexité, afin de garantir une qualité de résolution constante. Chaque résolution JFIF se définit par un débit de données cible et une table de quantification.
Lors de la numérisation, la table de quantification s'applique à l'échelle linéaire afin d'aligner le débit de données actuel sur le débit cible. Bien que les débits de données appliqués soient sensiblement les mêmes, la souplesse du format JFIF permet généralement d'obtenir une image compressée de meilleure qualité qu'en compression AVR. - Ce système de codage avancé propose la même compression spatiale des images que le format JPEG, mais s'adapte à bien d'autres applications, des appareils numériques portables aux logiciels professionnels (scientifiques ou industriels). Mieux que le recours à la traditionnelle compression DCT, ce format utilise une technologie de pointe aussi appelée compression par ondelettes.
Plus gourmande que le format MPEG, la compression JPEG 2000 était considérée, jusqu'à très récemment, comme une technologie trop coûteuse pour le secteur audiovisuel. Mais l'arrivée sur le marché de nouvelles puces, plus économiques, devrait populariser ce format. Dans les secteurs audiovisuel et cinématographique qui utilisent les technologies numériques, sa qualité d'image exceptionnelle annonce l'ère du JPEG 2000.
Recommandée pour le D-cinéma, cette compression HD a déjà été adoptée par Grass Valley, qui l'a récemment intégrée à sa nouvelle gamme de caméra Infinity. Grâce à son analyse circulaire, zone par zone, la compression JPEG 2000 évite la génération d'artefacts en blocs. Un léger bémol est à noter concernant une certaine tendance à la dégradation des zones complexes, ce qui constitue toutefois un problème beaucoup moins flagrant. Néanmoins, la technologie JPEG 2000 est évolutive et progresse à mesure que le nombre de bits augmente. De fait, elle offre déjà une qualité d'image sans perte visible en HD et Dcinéma à haut débit (200 ou 300 Mb/s) et permet d'extraire les tailles d'images codées différentes sans recours au décodage. - KDM (Key Delivery Message). Clé permettant la lecture d’un film pour une salle spécifiée, et durant une période donnée.
- Marque d'Eastman Kodak Company. Système de numérotation de film d'Eastman Kodak permettant d'inscrire des informations optiques d'identification de la pellicule et de la vidéo sur le bord du film pendant sa fabrication.
- 1. (Vidéo) Espace à respecter entre la tête d'un personnage et le haut de l'image lors de la composition d'un clip.
2. (Audio) Quantité d'amplification du gain disponible avant l'apparition d'effets de distorsion. - Transfert d'une piste audio finale sur la bande vidéo du montage.
- Instrument technique qui permet de traduire en sons et/ou en images des signaux enregistrés sur un support mécanique, magnétique ou optique.
- Procédé ou caractéristique d’un système de montage permettant de passer facilement de la lecture à la recherche lente ou rapide d’une vidéo.
- Technologie permettant aux utilisateurs de visualiser un clip vidéo ou un film sur Internet tandis que la vidéo est copiée sur l'ordinateur.
- Processus consistant à régler les valeurs de couleur dans un programme final de façon à ce qu'elles soient conformes aux standards de diffusion en terme de luminance, signal composite ou gamme RVB.
- Procédé de réglage des pixels adjacents de couleurs différentes, visant à donner l'illusion d'une troisième couleur ; ceci a pour effet de simuler l'affichage de couleurs n'appartenant pas à la palette de couleurs actuelles.
- Filtre d'application de l'anticrénelage aux graphiques créés dans l'outil Title.
- Série de listes de sortie contenant les spécifications utilisées pour décrire la copie de travail du film ou le négatif.
- Sous-liste de clips dupliqués de film nécessitant des tirages ou des copies de négatifs supplémentaires pour la finition du film.
- Liste d'instructions produite par Film Composer et utilisée pour retrouver et comparer les différences entre deux versions d'une séquence numérique. Une liste des modifications est utilisée pour mettre à jour un travail de coupure d'une copie avec de nouvelles modifications et révisions.
- Lo/Ro (Left Only / Right Only). Se dit d’un signal stéréo conventionnel.
- Répartition dynamique de charge de travail (sur 2 contrôleurs RAID, sur 1 cluster).
- Données enregistrées par les équipements concernant leur fonctionnement, et les atteintes éventuelles à la sécurité.
- Une Louma est une grue de prise de vues à laquelle est fixée une caméra, film ou vidéo, munie d'un système de contrôle à distance. Ce dispositif a été mis au point par deux Français, Jean-Marie Lavalou et Alain Masseron, d'où le nom, composé à partir des patronymes LavaLOU et MAsseron. La Louma fut la première grue permettant de télécommander la caméra depuis le sol. Louma est une marque déposée. Munie d'un bras rigide modulaire, de 90 centimètres à 9,70 mètres de long à partir du point de pivot, la louma permet des mouvements de caméra très variés. L'opérateur contrôle le cadre sur un moniteur vidéo, à partir d'une régie dotée de manivelles, comme une tête classique. Dans le même mouvement, l'axe optique peut aller d'une hauteur de 15 cm à plus de 8 mètres ; ce débattement vertical est augmenté si la Louma est installée en surplomb.
La Louma est entièrement démontable. La tête est équilibrée dans tous les axes (rotation autour de l'axe optique, panoramique vertical et horizontal) autour du centre d'inertie de la masse qu'elle forme avec la caméra. L'effort mécanique des moteurs étant ainsi réduit, cela apporte une grande fluidité aux mouvements. Par ailleurs, le bras (flèche) de la grue lui-même est équilibré autour de son centre d'inertie, de manière à ce qu'il reste immobile quelle que soit sa position. De ce fait, la Louma est une grue dont le chef-machiniste peut lâcher le bras quelle que soit sa position, sans qu'il cherche à revenir à sa position d'équilibre. Ce bras équilibré dans toutes ses positions permet au chef-machiniste une grande aisance dans l'exécution des mouvements, et une économie en termes d'effort physique.
La Louma dispose également d'un dispositif d'aide au cadre. Appelé SmartPan, inventé par Nicolas Pollacchi et Andy Romanoff, réglable selon la sensibilité de l'opérateur, il compense automatiquement le panoramique de la tête caméra en sens inverse de celui du bras de la grue. Cela permet au cadreur d'éviter de mouliner de la main droite pendant un panoramique de grande ampleur ; mais il reste totalement maître de son cadre, qu'il peut modifier à tout moment pendant le mouvement d'appareil. Seule la Louma dispose d'une telle aide au cadre. Elle fut développée dans le cadre de l' Établissement Cinématographique et Photographique des Armées, pour résoudre un problème de travelling dans un sous-marin ; certaines parties étaient en bois.
Les créateurs continuèrent de travailler sur la caméra, et c'est Polanski qui lui fait confiance avec le long plan du générique du film Le Locataire (film) (1976). Les créateurs, souhaitant montrer leur invention à Steven Spielberg, l'installèrent sur le toit de son hôtel au cours du Festival de Cannes. Par la suite, Pascal Aubier (Le Chant du départ), et Wim Wenders (L'Ami américain) l'utiliseront également. Elle fait son apparition dans les fictions télévisées, puis dans les retransmissions de concerts notamment. Connue dans le monde entier, la Louma a obtenu un Oscar technique en 2005, ce qui est exceptionnel pour une machine inventée trente ans auparavant. - La nouvelle génération (Louma 2) est une grue téléscopique de 9,75 m. Son mécanisme permet de modifier la longueur de la flèche pendant l'opération, ce qui permet, par exemple, de transformer le mouvement de rotation en véritable travelling (frontal, arrière ou latéral), dont tous les paramètres (hauteur caméra, places d'arrivée et de départ, vitesse...) sont modifiables à volonté.
Elle bénéficie d'une assistance informatique qui aide le cadreur et le machiniste à accomplir des mouvements de caméra complexes (modification automatique de la longueur de la flèche en compensation de l'arc de la grue pour réaliser un travelling droit).
Elle dispose aussi du système « Back Pan », qui est une compensation automatique de la tête caméra lors du débattement du bras. La Louma 2 possède sa propre tête 2 ou 3 axes, commandée par manivelles, mais elle peut aussi être équipée d'autres têtes. - LS (Long shot). Plan d'ensemble.
- Lt/Rt (Left Total / Right Total). Se dit d’un signal stéréo matricé Dolby®Surround ou Dolby® Pro Logic II™.
- Transfert télécinéma ou tirage réalisé avec un réglage unique des valeurs de correction de la couleur. La lumière unique représente le type de transfert le plus facile, le plus rapide et le moins onéreux.
- Auguste Lumière (Auguste Marie Louis Nicolas Lumière, né le 19 octobre 1862 à Besançon et mort le 10 avril 1954 à Paris 7ème) et Louis Lumière (Louis Jean Lumière, né le 5 octobre 1864 à Besançon et mort le 6 juin 1948 à Bandol dans le Var) sont deux ingénieurs français qui ont joué un rôle primordial dans l'histoire du cinéma et de la photographie.
Ils sont souvent désignés comme les frères Lumière. Les frères Lumière ont déposé plus de 170 brevets, essentiellement dans le domaine de la photographie. Ils sont à l'origine de la commercialisation des plaques photographiques instantanées en 1881. La vente de ces plaques dites Plaques Étiquettes-Bleues fera leur fortune. Ils sont à l'origine du cinématographe qui lance définitivement l'industrie du cinéma en 1895.
Ils sont à l'origine de l'obtention de la couleur sur plaque photographique en 1907. Cette plaque, dite « autochrome », était considérée par Louis Lumière comme sa plus prestigieuse invention, celle à laquelle il consacra plus de dix années de sa vie. Le premier film tourné par Louis Lumière est Sortie d'usine plus connu aujourd'hui sous le nom de La Sortie des Usines Lumière. Il a été tourné à Lyon, rue Saint-Victor (aujourd'hui rue du Premier-Film, où se trouve l'Institut Lumière) le 19 mars 1895.
La première représentation privée du cinématographe Lumière eu lieu à Paris le 22 mars 1895 dans les locaux de la Société d'Encouragement pour l'Industrie Nationale. Dans la foulée, Louis Lumière tourne en été 1895 le célèbre Jardinier qui deviendra plus tard L'Arroseur arrosé. C'est le film le plus célèbre des frères Lumière. En attendant la première séance publique, on montre le Cinématographe à de nombreux scientifiques. Le succès est toujours considérable.
Le 11 juin pour le Congrès de photographes à Lyon, le 11 juillet à Paris, à la Revue générale des sciences, le 10 novembre devant l’Association belge de photographes, le 16 novembre dans l’Amphithéâtre de la Sorbonne… La première projection publique des Lumière a lieu le 28 décembre 1895 au Salon indien du Grand Café, boulevard des Capucines à Paris. La séance est présentée par Antoine Lumière devant trente-trois spectateurs. Charles Moisson, le constructeur de l’appareil sera le chef mécanicien et supervisera la projection. Le prix de la séance sera fixé à 1 Franc. - Transfert télécinéma ou tirage réalisé avec un réglage unique des valeurs de correction de la couleur. La lumière unique représente le type de transfert le plus facile, le plus rapide et le moins onéreux.
- Le format M-JPEG (Motion JPEG) est une compression JPEG destinée aux images en mouvement. Afin de s'adapter au mieux à chaque image, cette compression peut être définie en fonction du volume de données (débit de données constant) ou de la qualité d'image (qualité constante).
- Equivalent du format JPEG 2000 pour les images en mouvement.
- Bloc de 16 pixels de côté, composé de quatre blocs DCT adjacents. Les macroblocs permettent de générer les vecteurs cinétiques utilisés dans le codage MPEG-2. La plupart des codeurs utilisent une technique de correspondance afin de déterminer l'emplacement de destination des blocs et ainsi générer les vecteurs cinétiques permettant de décrire le déplacement.
Ce procédé permet généralement d'obtenir de très bons résultats mais connaît également ses limites, observables notamment lors de fondus lents vers le noir, où les erreurs de placement de bloc apparaissent clairement. D'autres techniques, comme la corrélation des phases, permettent d'obtenir une meilleure interprétation des mouvements. - Appareil d'enregistrement de bande audio. Dispositif d'enregistrement et de reproduction du son sur bande magnétique.
- Appareil d'enregistrement de vidéos. Magnétoscope utilisant les formats de bande vidéo de qualité commerciale, tels que VHS, Betamax et Hi8.
- Appareil d'enregistrement de bande vidéo.
- Format de magnétoscope utilisant des bandes vidéo de 3/4 de pouce.
- Le format 1080/24P possède des propriétés de conversion d'une définition et d'une efficacité optimales vers l'ensemble des principaux formats télévisuels. Les résultats obtenus après conversion sont toujours de haute qualité. Une bande maître montée dans ce format est parfois désignée sous l'appellation « maître universel ».
- Procédé de montage vidéo dans lequel un ou plusieurs appareils (les esclaves) sont réglés pour reproduire les actions d'un autre appareil (le maître).
- Le maquilleur (ou maquilleuse), est apparu au départ dans le domaine du cinéma pour le maquillage des acteurs. Aujourd'hui, la maquilleuse peut exercer aussi bien au cinéma, qu'au théâtre, à la télévision et est incontournable dans les défilés et photos de mode. Son rôle est d'aider à la création du personnage, par exemple, vieillir ou enlaidir. Les maquilleurs se font surtout connaitre grâce aux films fantastiques dans le domaine des effets spéciaux.
- Matériel situé au-delà des points d'entrée et de sortie du clip dans une séquence. Le système Avid crée des marges lorsque vous décomposez ou consolidez le matériel. Les fonctions de décomposition et de consolidation permettent de créer des master-clips représentant des versions abrégées de celles d'origine. Les marges sont utilisées pour les fondus enchaînés et les retouches avec les nouveaux master-clips plus courts.
- 1. Procédé utilisé pour entrer les timecodes de début et de fin d'un clip destiné à être monté dans une séquence.
2. Procédé de marquage ou de dérushage des numéros du timecode pour définir des clips pendant une session de dérushage, d’enregistrement ou de numérisation. - Bordure placée, dans un film, sur une image de format 3:4 pour recréer l'aspect d'un autre format, tel que l'écran large.
- Dans le chutier, il s'agit de l'objet média faisant référence aux fichiers médias enregistrés ou numérisés à partir d'une bande ou d'autres sources.
- Procédure permettant de créer une liste de conformation de film à partir d'un projet vidéo contenant 30 images/seconde et utilisant le film comme matériel source.
- Effet vidéo constitué de trois composantes : la vidéo de fond, de premier plan et la transparence ou canal alpha (noir et blanc ou échelle de gris) permettant de surimprimer une partie de l'image sur l'autre.
- La vidéo, l'audio, les graphiques et les effets calculés pouvant être combinés pour former une séquence ou une présentation.
- amme vedette des systèmes non linéaires d’Avid. Elle propose pléthore den combinaisons de plates-formes matérielles, cartes vidéo et boîtiers externes, à la fois pour Mac et PC. Standard de facto du montage offline et online, Media Composer compte des dizaines de milliers d’utilisateurs dans le monde et participe à la plupart des productions pour la télévision et le cinéma.
- Effet calculé enregistré dans un fichier et référencé par une composition ou une séquence. Les applications peuvent prétraiter des effets qu'elles ne peuvent pas créer pendant la lecture.
- Médias constitués d'images uniques, chacune d'elles étant numérisée dans le sens vertical à chaque passage.
- Un million de cycles par seconde.
- Un réalisateur peut choisir entre plusieurs types de pellicule. Chaque type possède des caractéristiques physiques et chimiques qui vont déterminer le rendu de l’image. Il existe également un grand nombre de formats : le 8 mm (réservé, jusqu’à l’arrivée du caméscope, à un usage privé), le 16 mm (utilisé pour le documentaire et les films à petit budget), et le 35 mm (format standard des films de fiction). On peut également y inclure la vidéo, depuis que de nombreux réalisateurs ont fait l’expérience de mélanger images vidéo et images argentiques, voire de réaliser entièrement des films en vidéo.
Il existe encore d’autres formats, destinés aux très grandes salles de cinéma, mais ils font appel à des moyens beaucoup trop lourds pour entrer dans le cadre d’une production courante. Plus la taille de la pellicule est grande, meilleure est sa définition. En mélangeant différents formats et en jouant sur la diversité des textures qu’ils proposent, le réalisateur peut créer des effets réellement intéressants. De nombreux films d’Oliver Stone jouent avec ce mélange des formats.
Drugstore Cowboys inclut des séquences de films familiaux réalisés en 8 mm. Dans The Game, le 16 mm est utilisé pour appeler, sous forme de flash-back, l’enfance du personnage. - Les métadonnées sont des informations concernant les données de base. L’essence, c’est-à-dire la vidéo et l’audio, n’est pas grand-chose sans les informations relatives au montage et aux droits.
Sur le long terme, les métadonnées permettent également de tirer un meilleur parti des archives. Elles fournissent des informations sur le lieu, la date/l’heure (timecode) et la méthode employée pour une prise, ainsi que sur le détenteur des droits, le procédé utilisé ou à utiliser lors des phases de post-production et de montage, et enfin sur la destination suivante. Associées au format audio AES/EBU, les métadonnées décrivent la fréquence d’échantillonnage.
En AC3, elles facilitent la gestion des basses fréquences et la création de mixages stéréo. Contrairement aux essences vidéo et audio, les métadonnées sont souvent perdues pendant le processus de production. Avid, à travers le format OMF et l’association AAF, a beaucoup oeuvré pourrésoudre ce problème dans le cadre du montage et de la postproduction. - Appareil servant à transformer les vibrations sonores en impulsions électriques. Il sert à enregistrer et à amplifier le son.
- Micro miniature que l'on peut fixer aux vêtements.
- Ancien terme pour micro.
- Musical Instrument Digital Interface. Protocole permettant à l'utilisateur de contrôler un équipement musical électronique à partir d'un PC.
- Chaîne hi-fi miniaturisée.
- Ensemble d'images géométriques projetées par un écran de télévision et servant à régler l'appareil.
- Autre dénomination du RAID 1
- On peut considérer la mise au point comme une technique naturelle de prise de vue. En effet, nos yeux font le point chaque fois que nous regardons, dans un champ de vision donné, des objets situés à des distances différentes. Nous pouvons fixer notre regard soit sur un objet très rapproché, soit sur un autre très éloigné.
Mais parce que nous ne pouvons fixer les deux objets en même temps, nos yeux sont obligés de faire successivement la mise au point pour compenser la différence de distance. Il est rare, tout au long de la réalisation d’une scène, de pouvoir garder uniformément le même «point» : à un moment ou à un autre, la mise au point s’avère nécessaire.
Lorsque la caméra est en mouvement, un membre de l’équipe technique, appelé «pointeur», ajuste le point en fonction de ce qui est filmé. Pour se faire une idée de cette technique, il suffit de fixer son regard sur des objets situés à des profondeurs de champ différentes. - Transfert et montage de matériel pour réaliser une séquence complète, comprenant entre autres : décompte, mires de test, barres et tonalité, titres, génériques, logos, espace publicitaire, etc.
- 1. Transition d'une source vidéo à une autre dans un mélangeur.
2. Produit d'une session d'enregistrement au cours de laquelle des pistes son séparées sont combinées à l'aide d'une table de mixage en son mono ou stéréo. - Procédé permettant à l'utilisateur de combiner plusieurs pistes audio en une seule.
- Mélanger plusieurs signaux (sonores ou visuels) sur un seul support. Anglais to mix
- Méthode linéaire d'assemblage de la vidéo après montage. En mode A, le système réalise les montages dans l'ordre dans lequel ils apparaissent sur le master. Il s'arrête à chaque fois que l'EDL (liste de points de montage) sollicite une bobine qui n'est pas présente sur l'appareil.
- Méthode d'assemblage non-séquentielle ou en échiquier. La liste de points de montage (EDL) est ordonnée en fonction des numéros de bande source. Le système de montage réalise tous les montages à partir des bandes présentes dans les appareils, en laissant des espaces vides qui seront complétés avec le matériel des bobines suivantes.
- Méthode d'assemblage non séquentielle dans laquelle la liste de points de montage (EDL) est établie en fonction du numéro de la bande source et du timecode source croissant.
- Liste de points de montage (EDL) en mode A dans laquelle tous les effets (fondus, fondus par volets, superpositions graphiques) sont réalisés à la fin.
- Liste de points de montage (EDL) en mode C dans laquelle tous les effets (fondus enchaînés, fondus par volets et superpositions graphiques) sont réalisés à la fin.
- Enregistrement avec le timecode LTC d’événements en direct, de spectacles multicaméra et de matériel vidéo provenant de routeurs. Permet d’enregistrer sur le système NewsCutter à partir de plusieurs sources externes en même temps que leur enregistrement sur bande.
- Méthode d'assemblage déterminant l'ordre dans lequel le contrôleur de montage lit la liste de points de montage (EDL) et assemble la bande finale. Il existe cinq types de mode source : mode A, mode B, mode C, mode D et mode E.
- Forme de modulation permettant de transmettre des informations sonores à distance. Anglais frequency modulation
- 1. (Vidéo) Tube cathodique et circuits associés d'une image, sans sections tuner ou audio. Le moniteur permet l'affichage de médias source, de clips et de séquences. Dans les produits Avid, les moniteurs virtuels s'affichent à l'écran dans lequel vous pouvez monter des médias source, des clips et des séquences.
2. (Audio) Pour contrôler des pistes et des canaux audio spécifiques, ou autre nom qualifiant les haut-parleurs rendant le son audible. - Procédé de transmission d'un signal sonore par un seul canal.
- Le montage est la sélection et l'assemblage de différentes séquences visuelles et/ou sonores (pour un film, une émission radio, etc.). Le montage se traduit en anglais par "editing". La langue française désigne par le même terme montage trois opérations distinctes sur le matériau «brut» du tournage : une opération matérielle (on coupe et on colle la pellicule), une opération stylistique (on écrit le film en composant le sens et le rythme de l’oeuvre cinématographique avec les images, le son, les plans, les raccords, les séquences) et enfin, une opération sémiologique (deux plans successifs créent des rapports conceptuels et symboliques).
Dans cette dernière acception, le meilleur commentaire sur le montage est donné par Sergueï Eisenstein, un des pères du cinéma moderne. Selon lui, même si le montage fait partie de l’activité cinématographique, son essence est à rechercher dans la littérature, dans la musique, dans l’art. Cette définition ouvre à une conception plus large du montage, considéré comme assemblage «d’éléments» affectant la vue et l’ouïe qui donne naissance à quelque chose de nouveau. La mise en rapport de deux plans n’est pas la simple addition des sens dont ils sont porteurs, mais leur multiplication.
Parce que le montage est un aspect très important du film, il peut lui porter préjudice s’il n’est pas fait correctement. Le grand critique de films André Bazin soutient que l’absence de montage peut être bénéfique à certains types de films, et permettre une perception plus réaliste du temps et de l’espace de l’histoire. Dans un film sans montage, un réalisateur ne pourra pas couper les plans pour cacher ses maladresses et ses erreurs. C’est ce qu’André Bazin appelle le «cinéma de la transparence». - Montage dans lequel la dernière image du clip précédent est en synchronisation avec la première image du clip suivant, afin que ce dernier soit une extension de celui qui le précède.
- Assemblage d'une séquence vidéo finale dans laquelle les scènes sont reliées sans physiquement coller bout à bout la bande. Le montage électronique nécessite l'utilisation d'au moins deux appareils : un pour la lecture et l'autre pour l'enregistrement.
- Principe de base selon lequel un processus de montage ne nécessite que trois points entre les parties source et enregistrement pour calculer automatiquement le quatrième point et terminer le montage.
- La sélection et le montage des prises de vue film et vidéo s’effectuent désormais à l’aide de systèmes de montage non linéaires. L’avènement d’équipements numériques performants et du montage non linéaire est à l’origine de l’essor de la post-production. La correction en postproduction est souvent plus économique qu’un nouveau tournage plateau.
- Montage final utilisant les bandes de montage et la liste de points de montage (EDL) pour créer un programme final prêt à la distribution ; généralement associé aux montages et effets numériques informatisés de qualité supérieure.
- Technique de montage sur bande obligeant l'utilisateur à assembler un programme du premier au dernier plan. Le moindre changement implique le réenregistrement complet de toutes les séquences en aval. La façon dont vous insérez le matériel vidéo dépend de la nature même du support utilisé (bande vidéo analogique, par exemple).
- Montage préliminaire ou bout-à-bout (premier montage) produisant une EDL (liste de points de montage).
- Technique de montage évitant d'assembler un programme du premier au dernier plan. La nature du support utilisé et le processus de manipulation du support n'imposent aucune contrainte particulière quant à l'ordre physique des éléments matériels. Cette technique s’emploie aussi bien lors du montage traditionnel de film ou du montage par insertion que lors de l’enregistrement ou de la numérisation d’images vidéo. Vous pouvez effectuer des modifications au début, au milieu ou à la fin de la séquence.
- Montage où tous les signaux existant sur une bande (le cas échéant) sont remplacés par de nouveaux signaux. Le montage par assemblage permet d'ajouter, de manière séquentielle, de nouvelles informations sur une bande et de créer une piste de contrôle lors du montage. Le montage est effectué de façon linéaire et ajouté à la fin des éléments précédemment enregistrés.
- Montage dans lequel des points d'entrée et de sortie différents sont attribués aux signaux audio et vidéo, afin que le montage se déroule avec un signal précédent l'autre. Cette façon de procéder n'a aucune incidence sur la synchronisation audio et vidéo. On parle également de coupe L, de montage par délai ou de montage par recouvrement.
- Voir montage par chevauchement.
- Montage électronique au cours duquel la piste de contrôle n'est pas remplacée pendant la procédure de montage. Le nouveau segment est inséré dans le matériel sous forme de programme déjà enregistré sur la bande vidéo.
- Montage électronique au cours duquel la piste de contrôle n'est pas remplacée pendant la procédure de montage. Le nouveau segment est inséré dans le matériel sous forme de programme déjà enregistré sur la bande vidéo.
- Montage dans lequel un segment de la séquence est écrasé ou remplacé par les données source de durée correspondante.
- Montage instable sur le plan électronique, tel que celui réalisé à l'aide de la commande pause d'un appareil ou en utilisant un appareil à système d'asservissement sans cabestan.
- Bien que le montage son ne soit pas, à proprement parler, une technique visuelle, nous ne devons pas oublier que le cinéma, lui, est un art audiovisuel. Le son est indissociable de l’écriture cinématographique. Que l’on pense à ce que serait La Guerre des étoiles sans la musique ! Le film perdrait beaucoup de son caractère grandiose. Si vous enlevez la bande son souvent très expressive d’un film d’horreur, il y a fort à parier qu’il perdra de sa capacité d’épouvante. Il faut du temps pour que la musique donne l’ambiance d’une scène, mais les sons que le public ne remarque pas sont encore plus puissants et subtils.
Il est fréquent, en cours de montage, de rajouter des sons pour donner plus de relief au film, comme des chants d’oiseau, des ronflements de moteurs de voiture, ou encore le bruit de l’eau qui coule. Employée dans de nombreux films, la voix off est un aspect particulier du montage son. Ce n’est que le doublage d’une voix, celle d’un personnage ou d’un narrateur, qui court sur les images.
Il y a, dans Le Parrain, un exemple intéressant de la puissance expressive du son. Alors que Michael Corleone prépare l’assassinat de ses premières victimes, le bruit effréné d’un train nous parvient en fondu puis s’estompe, symbolisant le flux et le reflux de ses émotions. Comme il se rend à un dîner pour commettre le meurtre, le bruit du train revient submerger la scène. Observez, dans n’importe quel film incluant de la musique, la façon dont elle modèle l’ambiance.
Dans Le Lauréat, le volume de la musique baisse au moment où la voiture de Ben tombe en panne d’essence. Dans de nombreux films d’épouvante, des effets de son grandiloquents viennent appuyer les moments de surprise et d’horreur.
Les Affranchis est en partie raconté par la voix off de Ray Liotta.
Dans Duel, les pensées du héros sont exprimées en voix off.
Une voix off court sur tout le début de Citizen Kane. - Voir bobine A et B.
- Voir convertisseur A/N.
- Montage de durée nulle utilisé comme référence pendant les montages de transition (fondus enchaînés, fondus par volets, etc.) sur les systèmes de montage informatisés.
- Le Morphing est un effet permettant la transition imperceptible d'une image à une autre. Il a été popularisé par le clip Black and White de Michael Jackson utilisé dans la Pub et cinéma.
- MOS (Mit Out Sprechen). De l'expression pseudo-allemande, "Mit Out Sprechen" signifiant "sans parler". Terme utilisé pour la prise de vue sans son.
- « Moteur ! » est un terme traditionnel utilisé pour demander que la caméra et le son tournent. La réponse usuelle est « ça tourne » suivi de « action » pour donner le signal aux comédiens qu'ils peuvent commencer à jouer.
- Les mouvements d’appareil permettent de réaliser des prises de vues singulières et intéressantes. Les grues et les Louma sont les appareils les plus fréquemment utilisés. Ils peuvent être équipés d’une plate-forme sur laquelle on peut se tenir. La caméra est fixée au bout d’un «bras» mécanique articulé sur un pivot, ce qui offre au réalisateur une grande liberté d’action et lui permet d’imprimer à la caméra des mouvements majestueux et saisissants. Il existe de nombreux autres appareils, chacun produisant un mouvement particulier qui influe, d’une certaine façon, sur la signification d’un plan ou d’une séquence.
- MPEG-2 Norme ISO/CEI 13818-1. Ce système de compression vidéo a été initialement conçu pour transmettre les signaux audio et vidéo numériques à des taux de compression très élevés. Il s'agit actuellement du format de référence utilisé dans la plupart des transmissions DTV mondiales.
Il est également très répandu dans les créations de DVD, de projets SD et HD et dans une multitude d'applications nécessitant des taux de compression vidéo élevés. De nombreuses combinaisons sont possibles afin de répondre aux exigences de chaque application. A noter cependant que toutes ces combinaisons seraient impossibles sans la phase préalable de décodage en vidéo de bande de base, suivie de celle de recodage.
Délibérément asymétrique, le format MPEG-2 est beaucoup plus simple à décoder qu'à coder. C'est pourquoi les prix sont si bas pour les consommateurs et si élevés pour les diffuseurs. Ce codage s'effectue en deux temps. Sensiblement similaire à la compression JPEG, la première phase du codage consiste à compresser les données au format DCT intraframe (images I) puis à leur appliquer un facteur de quantification afin de réduire leur volume. Au cours de la seconde phase, une compression inter-image permet de calculer le mouvement des macroblocs et de remplacer ces informations par plusieurs images I successives, afin de former un GOP.
Le mouvement est ainsi transcrit en vecteurs cinétiques, chacun indiquant une direction et une distance. Le volume de données de tous les vecteurs additionnés est considérablement réduit par rapport à celui requis par les images I.
NB : le calcul des vecteurs cinétiques n'est pas une science exacte. La qualité d'image peut varier considérablement selon le type de compresseur MPEG. Cependant, en raison du caractère déterministe de la décompression, tous les décodeurs fonctionneront de la même façon.
Le processus de codage passe obligatoirement en revue plusieurs images à la fois, ce qui entraîne des retards considérables. De la même façon, le rendu des images est retardé au niveau du décodeur. Dans le cas des transmissions, ce retard peut atteindre une seconde.
De plus, le format MPEG-2 est parfois utilisé sur des circuits de diffusion dits « de contribution », provoquant un retard caractéristique. Lors d'un reportage en direct, par exemple, il se traduit par un décalage entre la question posée en studio et la réponse du journaliste sur le terrain. L’utilisation de taux de compression très élevés est essentielle à la transmission de données vidéo et audio HD dans de bonnes conditions.
A titre indicatif, le matériel HD 10 bits non compressé requiert une vitesse de transfert de 1 244Mb/s. Il s'agit ici de données 10 bits échantillonnées à la norme 4:2:2. Dans le cas de données 8 bits échantillonnées à 4:2:0, la transmission des données doit être de 746 Mb/s. Néanmoins, les canaux de transmission ATSC (19,2 Mb/s) ou DVB (20 Mb/s, variable selon la largeur du canal, notamment) requièrent une compression approximativement supérieure ou égale à 40:1. - La norme MPEG-4 (ISO/CEI 14496) est un format de compression développé par le même groupe d'experts MPEG, actuellement utilisé dans de nombreuses applications.
En production audiovisuelle, il est essentiellement lié à la compression vidéo. Les formats MPEG-4 Part 10, AVC (Advanced Video Coding) et H.264 se rapportent tous au même système de compression. Le système en question se base également sur la compression DCT utilisée par le codage MPEG-2. Il permet ainsi de produire des codecs plus efficaces, par le biais de techniques inter-image et intra-image.
Plus complexe que le codage MPEG-2, le codage MPEG-4 garantit cependant des compressions de données pouvant atteindre 30 % environ, et parfois davantage.
Les nouvelles générations de services télévisuels sont conçues pour diffuser en MPEG-4, en particulier pour le matériel HD, plus exigeant en ressource de bande passante. Ce nouveau format permet donc d'obtenir une meilleure qualité d'image ou de rendre davantage de canaux sur une même bande passante. La compression MPEG-4 est parfois assimilée au codage WM 9, même s'il s'agit de deux formats différents. - Se dit d'un RAID fonctionnant indépendamment du système.
- Production ou scène filmée et enregistrée simultanément par plusieurs caméras.
- Bande magnétique ou magnétoscope capable d'enregistrer plusieurs pistes simultanément.
- Dispositif permettant la diffusion d'émissions de plusieurs studios différents sur un seul canal de communication. Anglais multiplex system
- MXF (Material eXchange Format). Standardisé par la spécification SMPTE 377M, le format MXF (Material eXchange Format) a le soutien du Pro-MPEG Forum. Conçu pour l’échange de ressources entre serveurs de fichiers, bandes continues et archives numériques, il contient habituellement une séquence complète, qui peut comprendre une séquence de clips et des segments de programmes.Dérivé du modèle de données AAF, il s’intègre parfaitement à ses fichiers et permet ainsi de rapprocher les transferts sur bande et sur fichier. Il facilite le passage des ressources de la phase de post-production basée sur les fichiers AAF à la phase de lecture en transit sur les réseaux standard. Cette configuration permet d’élargir les chemins d’accès aux métadonnées et aux essences, de sorte que les deux formats passent ensemble de la phase de création de contenu à la phase de diffusion. Le corps MXF renferme le contenu (vidéo non compressée, DV, MPEG, par exemple) accompagné d’une séquence entrelacée d’images, chacune avec son audio et ses données essencielles, plus les métadonnées liées à l’image.
- MXF (Material eXchange Format). Format transitoire de copie numérique d’exploitation.
- NAB (National Association of Broadcasters). Association nationale des industriels de la radio et de la télévision.
- Marque d'appareil d'enregistrement audio largement répandue dans les industries de la production et de la postproduction de films.
- Les produits NAS (Network Attached Storage) sont des serveurs de fichiers dédiés. Cela consiste en une "Boite Noire" sans clavier, ni souris, ni écran qui s'administre à distance avec un navigateur WEB standard. Le système d'exploitation est un système simplifié et optimisé pour la gestion des fichiers uniquement, ce qui permet : d'être plus rapide, et d'avoir un système d'exploitation plus réactif et plus stable dédié à une seule tache. Ce système est compatible aux différents environnements que l'on trouve sur le marché aujourd'hui (Tout dépend des systèmes NAS). Le paramétrage du système est simplifié grâce à une interface web et est configurable à distance.
- La Translation d'Adresses Réseau (NAT) est une méthode permettant de connecter plusieurs ordinateurs à Internet (ou tout autre réseau IP) en utilisant une seule adresse IP. Ca permet aux particuliers et aux petites entreprises de connecter leur réseau à Internet de façon économique et efficace.
- 1. Elément de film dont les zones sombres et claires sont inversées par rapport à la scène originale ; l'opposé d'un positif.
2. Pellicule vierge conçue pour saisir une image sous la forme d'un négatif. - Pellicule vierge utilisée par la caméra pour filmer une scène.
- Mesure quantitative d'un signal vidéo ou audio. Un niveau bas caractérise les parties sombres en vidéo et les passages doux ou plus calmes en audio ; à l'opposé, un niveau élevé désigne une image vidéo plus vive ou un signal audio plus fort. Le niveau du signal audio est directement proportionnel au volume du son reproduit.
- Signal vidéo ne contenant pas les composantes de luminance ou de chrominance (à l'exception du signal de chrominance), mais contenant tous les autres éléments du signal vidéo. Le noir codé est le signal de référence couramment utilisé pour l'étalonnage des échantillons audio et vidéo.
- Signal vidéo ne contenant pas les composantes de luminance ou de chrominance (à l'exception du signal de chrominance), mais contenant tous les autres éléments du signal vidéo. Le noir codé est le signal de référence couramment utilisé pour l'étalonnage des échantillons audio et vidéo.
- Terme utilisé pour décrire les normes télévisuelles. Ces normes se présentent sous une forme globalement explicite. Toutefois, les fréquences de balayage vertical continuent de prêter à confusion. Par exemple, la norme 1080/60I implique une fréquence de 60 trames entrelacées par seconde pour un total de 30 images. La norme 1080/30P correspond donc à une fréquence de 30 images par seconde soumises à un balayage de type progressif. En principe, le dernier chiffre indique toujours le nombre de rafraîchissements verticaux par seconde. Toutefois, le tableau 3 (ci-dessous) utilise une méthode différente. Il définit les fréquences d'images (nombres d'images complètes), puis le type d'image (entrelacée ou progressive). Dans ce tableau, le code de fréquence d'images 5 équivaut à 30 Hz, ce qui correspond à 30 rafraîchissements verticaux pour des images progressives et à 60 rafraîchissements verticaux pour des images entrelacées. Attention !
- Relatif à l'accès aléatoire et la manipulation instantanés de n'importe quelle image de matériel sur n'importe quelle piste et dans n'importe quelle couche d'une séquence de montage.
- Norme internationale matérielle et logicielle destinée au transport des données à 100, 200 ou 300 mégabits par seconde (Mb/s).
- NTFS (New Technology File System). Système de fichiers utilisé sur les ordinateurs Windows (WIN NT, 2000, XP, etc.) permettant d'ajouter des paramètres de droits / securité sur chaque dossier ou fichier.
- National Television Standards Committee. Groupe ayant mis au point le système de transmission de la télévision couleur utilisé aux Etats-Unis, affichant 525 lignes d'informations scannées à la fréquence de 30 i/s approximativement.
- La nuit américaine est une technique cinématographique qui permet, grâce à une sous-exposition de la pellicule et/ou à l'utilisation d'un filtre, de tourner de jour des scènes, généralement en extérieur, censées se dérouler diégétiquement la nuit.
- Numérique regroupe l'ensemble des techniques de traitement informatique des images et des sons, par opposition à analogique (magnétique) ou traditionnel (photochimique).
- Processus automatisé d'enregistrement sur disque (enregistrement numérique) de groupes de clips, de séquences, ou les deux.
- Convertir des signaux vidéo et audio analogiques au format de signal numérique comprimé Avid.
- 1. Numéros originaux d'identification de l'image appliqués à la pellicule par les fabricants de film. Les numéros de bord sont utilisés pour la conformation par le monteur de négatifs. Les listes de conformation et les listes des modifications de Film Composer font référence aux numéros de bord.
2. Numéros séquentiels imprimés mécaniquement ou par exposition optique sur le bord d'une bande de film, afin d'aider à retrouver les copies de travail correspondant aux négatifs. - Noir-Vidéo-Noir. Mode de prévisualisation affichant du noir, la vidéo venant d'être insérée, puis de nouveau du noir.
- Le choix des objectifs joue un rôle important dans l’atmosphère, la qualité et le rendu final du film. La distance focale, ou focale, d’un objectif désigne la distance qui sépare le foyer (lieu où l’image se forme avec netteté) du centre de l’objectif. C’est elle qui détermine la portion d’espace que l’objectif embrasse. Ainsi, une focale large ouvre le champ, mais déforme les objets du premier plan ; cette déformation peut servir les intentions du réalisateur, par exemple s’il cherche à donner une note psychédélique à son film. Plus la focale est large, plus la déformation est grande.
Le fish-eye est une des focales les plus larges qui existent. Une distance focale courte implique un grand angulaire et une focale longue un téléobjectif. Les téléobjectifs permettent de filmer de loin. En compressant les perspectives, ils rapprochent les éléments filmés les uns des autres. Les scènes de cascades ressortent bien mieux quand elles sont filmées de cette façon, car les cascadeurs paraissent plus proches des explosions ou des voitures lancées à leur poursuite qu’ils ne le sont réellement.
Les objectifs jouent également avec la perception que nous avons de la vitesse. À travers un téléobjectif, des acteurs marchant perpendiculairement à la caméra sembleront se déplacer rapidement ; l’effet sera le même avec un grand angulaire s’ils marchent en direction de la caméra. - Acronyme de Original Camera Negative. De part sa conception, le négatif original de la caméra, ou OCN, propose une vaste gamme de contraste. Il doit cependant être manipulé avec soin pour éviter d’être endommagé. Pour réaliser un programme, vous pouvez passer par traitement DI en numérisant l’OCN ou utiliser la chaîne intermédiaire photochimique en copiant l’OCN afin d’obtenir un interpositif.
- En audiovisuel, offline caractérise les éléments non disponibles pour l'ordinateur (fichiers médias ou disques autonomes, par exemple). Off-line se dit aussi d'un service hors connexion au réseau (indirect), hors ligne.
- Ombre se prolongeant de manière uniforme à partir des bords d'un titre ou d'une forme, pour leur conférer un aspect tridimensionnel.
- Ombre décalée par rapport au titre ou à la forme pour donner une impression de représentation spatiale.
- OMF (Open Media Framework). Format de fichier non tributaire du type de plate-forme. Il permet de transférer des médias numériques (vidéo, audio, graphisme, animation) tout en y ajoutant des informations de traitements.
- Open Media Framework Interchange. Format standard pour l’échange de données de médias numériques entre des plates-formes hétérogènes.
Ce format est conçu pour englober toutes les données qu'exige l'échange de divers médias numériques : audio, vidéo, graphiques et images fixes, de même que les règles de combinaison et de présentation de ces médias.
Ce format contient les règles d'identification de l'origine du média numérique et peut englober les données de médias numériques comprimées ou non. - Procédure de gestion des listes de points de montage consistant à ajuster les durées de tous les montages à la suite d'un montage de longueur modifiée.
- Point de référence pour la mesure des sections de données échantillonnées enregistrées ou numérisées. La valeur d'objet média de fichier correspondant au point de début dans le média est exprimée en fonction de l'origine.
Bien que les mêmes données d’échantillons puissent être renumérisées ou réenregistrées et que des données d’échantillons supplémentaires puissent être ajoutées, l’origine reste la même afin que les clips source des compositions qui y font référence restent valides. - Revêtement métallique recouvrant un film magnétique ou une bande vidéo, magnétisé pendant l'enregistrement.
- Système d’enregistrement stable proposé par Panasonic pour l’enregistrement de vidéos DV, DVCPRO et DVCPRO HD sur mémoire flash.
La norme P2 assure meilleures vitesse et fiabilité des que l’enregistrements sur bande cependant, elle ne permet pas d’effectuer des enregistrements aussi longs et son prix de revient reste élevé.
Actuellement, les cartes P2 permettent de stocker jusqu’à 8 Go de données, soit environ 40 minutes en DV, 20 minutes en DVCPRO 50 ou 10 minutes en DVCPRO HD. Toutefois, grâce aux fonctionnalités d’enregistrement en boucle et d’accès aléatoire, cet espace est mieux optimisé que la longueur de bande équivalente.
Le processus peut inclure une sélection automatique de plans et un vidage ultra-rapide des données vers un emplacement de disque dur, à des fins de montage, le tout directement à partir de la caméra. - PAL (Phase Alternating Line). Norme de la télévision couleur utilisée dans de nombreux pays. Le système PAL utilise 625 lignes d'informations scannées à la fréquence de 25 i/s.
- Les normes PAL et NTSC n'existent pas en HD. Elles n'existent pas non plus dans la télévision numérique SD nouvelle génération (en dépit d'une conversion initiale dans les premiers formats d'enregistrement magnétique numérique). La norme PAL signifie Phase Alternating Line littéralement « ligne d'alternance de phase ») et constitue un système analogique de codage colorimétrique extrêmement répandu. La norme NTSC (National Television Standards Committee) désigne également un système analogique.
L'utilisation des termes PAL et NTSC pour faire référence aux fréquences d'images et aux formats vidéo plus ou moins liés à la technologie analogique constitue une source de confusion mais reste toutefois d'actualité. Le terme 1080 PAL peut donc désigner le format 1080/50I. - Emplacement central pour tous les boutons sélectionnables par l'utilisateur que vous pouvez mapper sur différentes fonctions pour des raisons pratiques. La palette des commandes contient des boutons sélectionnables par l'utilisateur qui permettent d'exécuter un large éventail de commandes à l'aide d'un simple clic de la souris.
- Palette chromatique est une gamme de couleurs disponibles dans un système d'imagerie. Les luminophores rouge, bleu et vert des écrans de télévision et les dispositifs de sélection de couleur RVB à couplage de charge ou les puces CMOS des caméras définissent les limites d'affichage des couleurs.
Ces limites sont désignées par le terme « palette chromatique ». De nombreux procédés interviennent entre la capture d'image sur caméra et la visualisation sur écran. La plupart de ces procédés se basent sur le format vidéo composante 4:2:2.
Toutefois, certaines combinaisons de valeur de composantes ne correspondent à aucune valeur RVB valide (par exemple, les combinaisons où Y est associé à une valeur nulle). Les équipements générant des images directement dans l'espace colorimétrique composante (comme certains engins graphiques) peuvent produire des images dépassants les limites de l'espace colorimétrique RVB et les limites imposées par les normes PAL et NTSC.
Ce type de situation peut entraîner une surcharge des équipements, notamment des transmetteurs, parfois équipés d'une fonction de désactivation automatique visant à prévenir tout risque d'endommagement. Certains équipements permettent de visualiser les zones de couleur dépassant les limites de palette chromatique de manière à les retoucher avant l'apparition des problèmes. - Partie du signal vidéo composite qui commence avec l'annonce des informations de l'image et se termine avec le bord d'attaque de la synchro. horizontale.
- Dans le panoramique horizontal, la caméra pivote sur son axe horizontal de la gauche vers la droite ou de la droite vers la gauche. Pour vous faire une idée de ce qu’est un panoramique horizontal, il vous suffit de rester bien droit et de tourner la tête de gauche à droite ou de droite à gauche. Le panoramique horizontal est communément utilisé pour découvrir un très large panorama qui n’entre pas dans le cadre fixe de la caméra (un paysage, par exemple). Il permet également de suivre des personnages ou des véhicules en mouvement ; c’est ce qu’on appelle «recadrer un plan».
- Dans le panoramique vertical, la caméra pivote sur son axe vertical. Quand la caméra «panoramique» verticalement, elle filme de haut en bas ou de bas en haut. Pour se faire une idée du panoramique vertical, il suffit de rester bien droit et de pivoter la tête de haut en bas ou de bas en haut. Le panoramique vertical est fréquemment utilisé pour filmer des bâtiments élevés, une cathédrale ou un immeuble de bureaux par exemple. Tout comme le panoramique horizontal, cette technique permet de suivre des personnages ou de recadrer un plan.
- Film ou bande enroulé sur une bobine dont la fin se trouve à l'intérieur près du moyeu et le début à l'extérieur.
- Film ou bande enroulé sur une bobine dont le début se trouve à l'intérieur près du moyeu et la fin à l'extérieur.
- Pellicule de film vierge à laquelle a été ajoutée une bande étroite de matériel d'enregistrement magnétique pour l'enregistrement d'une piste son.
- Niveau de performance mesuré en nombre d'opération d'entrée / sortie (I/O) par secondes.
- La télévision est appelée le petit écran en opposition au cinéma appelé le grand écran.
- Dans un projet basé sur un transfert 24 i/s à 30 i/s NTSC, image vidéo de début du master-clip : A, B, X, C ou D. La phase de compensation représente la relation entre la compensation et le timecode. Egalement appelée image de pullin.
- Phase horizontale. Intervalle d'espacement horizontal utilisé pour synchroniser deux ou plusieurs signaux vidéo.
- Phase de la sous-porteuse. Méthode utilisée pour calibrer la portion de la giclée de signaux de couleur d'un signal vidéo composite.
- Phase de la sous-porteuse sur phase horizontale. Rapport des phases entre la giclée de signaux de couleur et le point de référence d'un signal vidéo. Elle est utilisée pour synchroniser deux ou plusieurs signaux vidéo.
- Le phénakistiscope est un jouet optique donnant l'illusion du mouvement fondé sur la persistance rétinienne. Il a été inventé par le Belge Joseph Plateau en 1832. Le phénakistiscope comporte un disque en carton, percé de dix à douze fentes, sur lequel un mouvement est décomposé en une séquence d'images fixes, et un manche permettant son maintien pendant sa rotation. Pour percevoir le mouvement, le spectateur se place en face d'un miroir et positionne ses yeux au niveau des fentes du disque, du côté opposé aux dessins. Il fait ensuite tourner le carton. Les fentes servent d'obturateur en ne laissant apparaître l'image reflétée dans le miroir qu'un très court instant. L'œil ne voit donc que des images fixées par la persistance rétinienne, les unes après les autres, ce qui reconstitue le mouvement lorsque le disque tourne à une vitesse suffisante.
- Numéros d'identification des images utilisés pour conformer une copie de travail. Les listes de conformation et les listes des modifications de Film Composer font référence aux numéros de piétage.
- Outil de prélèvement de la couleur d'une image écran afin de l'utiliser pour le texte ou les graphiques.
- Le piqué est la définition, la netteté d'une image.
- 1. Partie de la bande sur laquelle est enregistré le signal. Egalement appelée un canal.
2. Partie son d'un programme vidéo.
3. Région d'un clip ou d'une séquence sur laquelle est placé l'audio ou la vidéo.
4. Canal de lecture représenté dans une séquence sous forme de piste vidéo ou audio. Les pistes sont composées d'un ou plusieurs segments reliés par des transitions. - Partie de l'enregistrement vidéo utilisée pour contrôler le déplacement longitudinal de la bande au cours de la lecture. La piste de contrôle équivaut aux perforations d'entraînement électroniques de la bande vidéo.
- Désignation commune d'une piste son simple contenant de la musique et des effets sonores mais pas de dialogue.
- Piste son enregistrée sur film d'enregistrement magnétique du son.
- Eléments d'un effet créé en combinant deux ou plusieurs couches d'une façon particulière, en nichant, par exemple, une piste en tant que couche à l'intérieur d'une autre couche.
- Pixels carrés Les pixels carrés désignent un format d'affichage dans lequel les pixels décrivent une zone carrée de l'image affichée. Ce type de format caractérise notamment les normes de diffusion HD dans lesquelles les formats d'image décrivent la longueur de ligne (nombre de pixels par ligne) et le nombre de lignes, pour un rapport exact de 16:9 (qui correspond également aux proportions d'affichage des images). Certains types de pixels utilisés dans le cadre du format HD ne sont pas carrés.
Le format HDCAM, très répandu à l'heure actuelle, sous-échantillonne les lignes HD de 1 920 pixels et réduit ainsi la luminance à 1 440 échantillons. Il s'agit là d'une fonction réservée au fonctionnement interne de l'enregistreur : les données entrantes et sortantes sont en effet constituées de pixels carrés.Sur le même principe, le format 1080I HDV(2) se base également sur une luminance à 1 440 échantillons par ligne.
Globalement, la pixellisation des images générées par ordinateur repose sur le format carré, ce qui n'est pas le cas des images de télévision HD numérique. Ce facteur est par conséquent déterminant lors des transferts de données entre différentes applications ou du traitement de la proportion des images (préservation des formes circulaires).Voir aussi : Anamorphique, Format d'affichage - Prise de vue servant de scène de base, dans laquelle tous les plans de coupe et les gros plans sont insérés au moment du montage. Il s'agit généralement d'un plan d'ensemble dans lequel tous les personnages et l'action de la scène sont visibles.
- Effet produit par un équilibreur à plateau dont la courbe de réponse atteint un « plateau » aux extrémités du spectre audio pour une plage donnée du spectre de fréquence (fréquence haute ou basse, par exemple). En égalisation audio, les réglages effectués sur le plateau affectent toutes les fréquences de la plage de la courbe de réponse.
- Commande disponible dans la console Avid Software.
- Déformation d'un son.
- Une plongée est un plan réalisé du haut vers le bas, la caméra est placée au-dessus d'un axe horizontal, elle plonge vers le sujet (inverse de contre-plongée).
- Ligne se prolongeant à partir d’un point de contrôle qui détermine la direction d’une courbe de Bézier. Chaque point de contrôle possède deux poignées de direction. Ces deux poignées affectent la manière dont la courbe passe à travers le point de contrôle. Une des poignées détermine la manière dont la courbe apparaît avant le point de contrôle tandis que l’autre poignée détermine la manière dont la courbe apparaît après le point de contrôle.
- Ligne se prolongeant à partir d’un point de contrôle qui détermine la direction d’une courbe de Bézier. Chaque point de contrôle possède deux poignées de direction. Ces deux poignées affectent la manière dont la courbe passe à travers le point de contrôle. Une des poignées détermine la manière dont la courbe apparaît avant le point de contrôle tandis que l’autre poignée détermine la manière dont la courbe apparaît après le point de contrôle.
- Emplacement sur la courbe de Bézier qui contrôle sa direction. Chaque point de contrôle possède deux poignées de direction qui peuvent dépasser.
- En égalisation audio, point à partir duquel la courbe paramétrique d’un plateau donné recommence à tendre vers zéro.
- Point final d'un montage, ou marque sur un clip indiquant un point de transition. Egalement appelé marque de sortie.
- Voir la définition de Gamma.
- Valeur de luminance dans une image vidéo définie par rapport au noir de référence lors du réglage des couleurs. Comparez-le au white point (point blanc).
- Points d'entrée et de sortie dans la timeline.
- Période de temps prédéterminée pendant une prévisualisation lorsque la lecture d'un clip se poursuit au-delà du point de sortie avant l'arrêt ou le rembobinage.
- Résultat d'une composition spécifiant la lecture d'un média au niveau des clips de remplissage présents dans chaque piste.
- Plate-forme amovible pour placer les projecteurs et la caméra. Au cinéma, il s'agit d'un partie du décor où les acteurs peuvent évoluer.
- Le praxinoscope fut la première invention d'Émile Reynaud en 1876. Brevetée en 1877, il s'agissait d'un jouet optique donnant l'illusion du mouvement. Le praxinoscope améliore le zootrope de William George Horner dont il emprunte le principe de la bande de douze dessins décomposant un mouvement cyclique.
Comme dans le zootrope, cette bande interchangeable est disposée à l'intérieur d'un tambour qui tourne autour d'un axe servant accessoirement de pied. Mais dans le praxinoscope, Émile Reynaud a ajouté à l'intérieur du tambour un cylindre à facettes sur lequel sont disposés douze petits miroirs.
Cette « cage de miroirs » (Émile Reynaud emploie l’expression « cage de glaces » dans son brevet1) tourne en même temps que le tambour et la bande à animer. Chacun des miroirs reflète l’un des douze dessins de la bande (celui qui lui fait face). Si chaque miroir est placé exactement à mi distance entre le dessin qu’il reflète et l’axe général de rotation, la réflexion de ce dessin se produit exactement sur ledit axe, de sorte qu'au cours de la rotation de l’appareil les images réfléchies des douze images de la bande se substituent les unes aux autres sans quitter le centre de l’appareil. - Phase de la postproduction audio au cours de laquelle la musique, les effets sonores, le remplacement du dialogue et les pistes annonces sont ajoutés à la multipiste principale avant le mixage final.
- Processus de rembobinage des bandes vidéo jusqu’à un point de repère prédéterminé (6 secondes, par exemple) afin que les bandes soient stabilisées et à la vitesse appropriée lorsqu’elles atteignent le point de montage sélectionné (au moment de l’enregistrement ou de la numérisation du matériel source d’un magnétoscope).
- Première image du clip d'un film ou d'un segment de vidéo.
- A la télévision, tranche horaire correspondant à la plus grande écoute.
- Prise du tournage d'un film repérable pour utilisation ou tirage par un nombre encerclé sur la feuille de rapport image.
- Prise n'étant pas sélectionnée pour être incluse dans le produit final.
- Pro Logic II™ : Technologie de Dolby qui combine cinq canaux audio en un signal codé matricé sur deux canaux Lt/Rt.
- Le producteur finance ou coordonne les financements d'un film et contrôle les dépenses par rapport au budget. De plus, il aide le réalisateur lors de l'écriture du scénario, du choix des acteurs, des lieux de tournage, de l'équipe et sera l'interlocuteur privilégié en cas de problèmes ou conflits. Il a donc aussi bien un rôle artistique que financier.
- Le producteur délégué (en Europe) est le responsable juridique et financier d'un film, notamment vis-à-vis des autres investisseurs. C'est un métier spécifique aux productions d'œuvres audiovisuelles (cinéma, télévision, radio, publicité) et multimédia (jeux vidéo, éditions interactives). Le producteur délégué est souvent à l’initiative du projet et, en télévision, celui qui permet qu'un projet devienne bon à diffuser.
- le producteur exécutif (en Europe) est mandaté par le producteur délégué pour prendre en charge le tournage d'un film, sans être détenteur de droits de production de ce film, à la différence du producteur délégué. Il encadre la production, joue un rôle de gestionnaire mais n'endosse pas la responsabilité, qui est laissée à son mandant, le producteur délégué.
Le producteur exécutif assure concrètement la fabrication du film ou du programme, dans le cadre du budget arrêté. À ce titre, il engage les équipes et établit les contrats conformes au droit du travail et aux conventions collectives. Il réunit des moyens techniques en faisant appel à des prestataires techniques et est présent sur le tournage. Il assure le suivi de la fabrication du programme et contrôle le budget et les délais. - Action de produire un film ou un spectacle (production en anglais).
- La production cinématographique numérique désigne le tournage de films à l’aide de caméras électroniques. A cet effet, un certain nombre de caméras ont été conçues comme alternative au 35 mm : Viper de Thomson, la gamme CineAlta de Sony et DVCPRO HD de Panasonic. Elles produisent des formats HD, s’exécutent en mode 24i, filment dans une gamme de contraste plus vaste que les caméras de télévision et n’utilisent pas les courbes de correction gamma TV.
Origin de Dalsa et D20 d’ARRI permettent d’obtenir de plus grandes images au format Dcinéma, respectivement de 4K et 3 018 x 2 200 de pixels actifs. La caméra D20 présente également des fréquences d’images comprises entre 1 et 60 images/seconde. Bien que ces caméras constituent une alternative aux caméras 35 mm, toute autre caméra vidéo peut être utilisée dans le cadre de la production cinématographique numérique. - Produire (produce en anglais) est l'action d'assurer le financement et l'organisation matérielle d'une oeuvre.
- La programmation consiste à planifier la date de la sortie publique d'un film, le nombre de copies à « tirer » en fonction du nombre de salles prévues. L'opération est délicate, elle consiste à répartir le nombre de films à diffuser dans un nombre de salles donné.
- Prévoir un film ou une émission dans une grille de programmes audiovisuels.
- Séquence de balayage d'image. Le balayage vertical s'effectue de la première à la dernière ligne en une seule passe. La TVHD utilise plusieurs fréquences d'image verticales progressives (rafraîchissement).
La fréquence 24 Hz est très utilisée en raison de sa compatibilité avec le format cinématographique et de sa facilité de conversion vers l'ensemble des formats télévisuels utilisés à l'échelle mondiale.
Les fréquences 25 et 30 Hz correspondent aux fréquences d'image SD existantes (celles-ci utilisent toutefois le balayage entrelacé). Les fréquences 50 et 60 Hz sont également prises en charge. Toutefois, en raison des restrictions de bande passante, elles sont limitées en termes de taille d'image (par exemple, 720/60P et 720/50P). A l'heure actuelle, le balayage progressif s'utilise énormément dans le secteur de la production d'écrans d'ordinateur et d'écrans de téléviseur nouvelle génération. La stabilité des images progressives facilite la perception des détails. Ce type d'image facilite également la tâche des concepteurs (aucune difficulté liée aux différences entre les deux trames d'image). L'inconvénient du balayage progressif se situe toutefois au niveau de la fréquence de rafraîchissement vertical.
A des fréquences de 24, 25 et 30 Hz, fréquences pouvant être utilisées en télévision HD avec les formats 1080 lignes, le phénomène de scintillement risque par conséquent de devenir important. Pour éviter ce phénomène, chaque image doit être traitée de manière à s'afficher deux fois (procédé comparable à la double obturation des projecteurs cinématographiques). Une faible fréquence de rafraîchissement risque également d'entraîner un problème de fluidité du mouvement (phénomène de bégaiement) lors d'une scène d'action ou lors de plans panoramiques. Grâce au double rafraîchissement vertical par image, le balayage entrelacé possède un avantage dans ce domaine. - Dans le cas du progressif, chaque image est reconstituée au moyen d'un spot décrivant une suite simple de lignes, qui commence en haut et à gauche de l'écran pour s'achever en bas et à droite avant de revenir, évidemment, à son point de départ. Il n'y a pas d'impératif sur la parité du nombre de lignes.
Dans le cas de l'entrelacé, le spot descend deux fois plus vite et le nombre de lignes constituant l'image doit être impair. Une première trame débute encore en haut et à gauche de l'écran mais pour s'achever, cette fois, en bas et au milieu tandis que pour la suivante, le spot repart du même milieu mais en haut de l'écran pour terminer son parcours, cette fois, en bas et à droite.
Tous les systèmes de télévision analogique actuels pratiquent le balayage entrelacé de l'image, pour des raisons de compromis technico-économique concernant l'acheminement hertzien (afin de réduire l'occupation des bandes de fréquences) L'affichage sur écran informatique est progressif. - ProHD est la version JVC du mode d’enregistrement HDV 720p. Il offre un balayage progressif supplémentaire à 24 images (24P), non applicable au format 1080 lignes. C’est le format idéal pour créer des vidéos présentant l’aspect des productions cinématographiques, des films ou dans le cadre du D-cinéma.
En effet, il permet d’éviter le processus de désentrelacement dont les résultats ne sont jamais impeccables. Outre le balayage 24 images, ProHD utilise des formats de compression et de débit identiques à ceux du HDV.
Le format ProHD permet aujourd'hui d'enregistrer sur carte SDHC au format QuickTime (.mov) pour Final Cut Pro™, et optionnellement sur media SxS compatible avec le format XDCAM EX™ de SONY. L'enregistrement au format natif d'un système de montage non linéaire élimine l'étape de numérisation, accélérant ainsi le flux de production, avancée sans précédent pour JVC et l'industrie audiovisuelle. Comme le permettaient déjà les camescope de Panasonic (P2) ou Sony (SxS, Xdcam, etc.).
La gamme ProHD enregistre nativement au format QuickTime. Les clips vidéo sont transférés directement des cartes SDHC vers la fenêtre de montage du logiciel Final Cut Pro™. Il n’y a plus de transcodage ni de conversion de format, d’où un gain de temps et d’espace disque. Du fait qu'il n'y ait pas de ré-encodage, la qualité d’image d’origine est conservée. La caméra peut accueillir 2 cartes, amenant ainsi sa capacité de stockage jusqu'à 64Go – soit plus de 6 heures d'enregistrement continu en HD. Le caméscope enregistre automatiquement sur la deuxième carte quand la première est pleine. Quand la deuxième carte est pleine, en fonction de la configuration des menus, l'enregistrement bascule à nouveau sur la première carte, autorisant ainsi une captation illimitée.
Les cartes SDHC sont économiques, fiables et leur concept d'enregistrement génère une baisse de consommation énergétique de 20%, comparé à un système sur bande ou sur disque dur. Le coût par minute d'une mémoire SDHC est comparable à celui d'une bande magnétique. Cela en fait de facto le premier système d'archivage sur mémoire. Avec l'adaptateur optionnel KA-MR100G fixé à l'arrière du GY-HM700 ou de certains camescopes de la gamme ProHD, il devient possible d'enregistrer au format MP4 des fichiers XDCAM EX de SONY™ sur cartes SxS, voir également sur les cartes SDHC.
Cette solution procure ainsi 2 copies de la captation, assurant une sécurité sans précédent des prises de vues. L'encodage propriétaire MPEG2 de JVC fournit des flux compréssés jusqu'à 35Mbits/s. Le GY-HM700 délivre des images dans toutes les résolutions HD, à savoir 1920x1080, 1440x1080 et 1280x720. - Présentation des programmes de film et de vidéo ou de la vidéo préliminaire.
- Périphérique de données utilisé pour organiser le travail effectué sur un programme ou une série de programmes. Les chutiers, les arrêts et les réglages sont organisés dans la fenêtre Project. Les chutiers de projet contiennent tous vos clips, séquences, effets et pointeurs de fichiers médias.
- Ecran sur lequel défile le texte que doit lire un présentateur de télévision.
- Copie (double) d'une bande principale, généralement créée immédiatement après l'enregistrement du master. Elle sert de copie de sauvegarde dans le cas où le master viendrait à être endommagé.
- Terme propre à Avid formé par l'association de Pulldown (compensation) et IN point (point d'entrée). Le pullin est la colonne dans laquelle l’utilisateur établit la phase de compensation du timecode de début comme A, B, X, C ou D. L’utilisateur peut modifier ce champ avant et après l’enregistrement ou la numérisation.
- Terme propre à Avid formé par l'association de Pulldown (compensation) et OUT point (point de sortie). Il s'agit de la colonne dans laquelle l'utilisateur établit la relation de compensation au point de synchronisation du point de sortie (timecode de fin) comme étant A, B, C ou D. Ce champ ne peut pas être modifié par l'utilisateur et est calculé par le système en fonction du pullin et de la durée du clip.
- Enregistrement et reproduction des sons utilisant quatre canaux.
- 1. La quantification se rapporte à l'échantillonnage : il s'agit du nombre de bits utilisés pour réaliser l'échantillonnage numérique d'un signal. En vidéo, la norme 8 bits est très répandue au niveau des produits grand public comme le DV. La vidéo HD utilise également la norme 8 bits. Le format 8 bits peut définir 28 soit 256 nombres ou niveaux assignés à des niveaux de luminosité d'image pour la conversion numérique d'enregistrements vidéo analogiques.
Pour une meilleure précision et une meilleure gestion des différents niveaux de traitement post-production, les applications vidéo de studio utilisent généralement un échantillonnage à 10 bits, générant ainsi 1 024 niveaux.
En principe, la distribution des niveaux entre les zones de lumière et les zones sombres s'effectue de manière linéaire (continue).
Toutefois, dans le cas de la numérisation de films négatifs précédant l'intégration dans la chaîne intermédiaire numérique, la distribution s'effectue souvent sous forme logarithmique de manière à resserrer progressivement les niveaux vers les zones les plus sombres de l'image. En effet, les films négatifs comportent de nombreuses informations de contraste sur la scène d'origine, et les niveaux situés dans les zones sombres ou ombragées sont plus importants et plus visibles que ceux situés dans les zones de lumière. L'échantillonnage logarithmique redistribue les niveaux numériques disponibles en conséquence (d'où l'échantillonnage logarithmique sur 10 bits). Ce procédé est considéré aussi efficace que la quantification linéaire sur 13 bits. NB : la quantification possède un autre sens.
2. La quantification désigne le procédé utilisé pour la réduction des données vidéo contenues dans une image I dans le cadre des méthodes de compression DCT (par exemple, AVC, JPEG, MPEG-2 et MPEG-4).
La quantification intervenant lors du procédé DCT permet de réduire de manière sélective les coefficients DCT correspondant aux éléments les moins visibles de l'image (fréquences les plus élevées et amplitudes les plus faibles). La réduction de nombreux éléments à une valeur nulle permet de réduire la quantité de données de manière significative.
L'utilisation d'un niveau de quantification constant produit un résultat de qualité homogène avec un débit de donnée variable selon la quantité de détails des images. Il est également possible d'utiliser un niveau de quantification variable. Ce procédé entraîne alors un débit de données constant mais des images de qualité variable. La quantification variable s'utilise lorsque les données doivent correspondre à une taille de stockage ou à un canal définis (par exemple, lors d'un enregistrement magnétique ou de l'utilisation d'un canal de transmission). L'objectif est alors de se rapprocher du seuil de capacité de stockage, sans le dépasser.
La capacité à atteindre cet objectif constitue l'un des critères d'évaluation de l'efficacité des procédés de compression DCT. - Un raccord est la cohérence de cadre entre deux plans successifs.
- Poste radiophonique. Anglais radio
- Personne qui émet et reçoit des émissions radiophoniques.
- Appareil qui combine un récepteur radiophonique et un lecteur de cassettes.
- Emettre à la radio. Anglais to broadcast
- Action de radiodiffuser.
- Détermination de la position d'un émetteur radioélectrique.
- Radio.
- Reportage diffusé à la radio.
- Appareil qui combine une radio et un réveil. Anglais radio alarm, clock radio
- Diffusé à la radio et à la télévision. Synonyme radiodiffusé Anglais broadcast on both television and radio
- RAID (Redundant Array of Independent Disks). Normes de dispositif de stockage tolérant les défaillances et permettant la réparation du système si un lecteur ne fonctionne pas correctement. Egalement utilisé pour augmenter le débit des données enregistrées. Un groupe de recherche de l'université Californienne de BERKELEY a défini sept niveaux de RAID. Chaque niveau correspond à la manière dont les données sont stockées sur les différents disques (un compromis entre coût, sécurité et vitesse). La compréhension de ces niveaux est importante car chaque niveau est optimisé pour une utilisation différente.
- En mode RAID 0, la donnée à stocker est répartie sur différents disques synchronisés. Aucune information de redondance n'est stockée, ce qui en résulte une vitesse de transfert importante. Néanmoins, la moindre panne de disque entraîne la perte irrémédiable de données. Le nombre minimum de disques requis, pour ce mode est de 2. Ce niveau de RAID est aussi appelé mode " STRIPING".
- En mode RAID 1, la donnée est intégralement dupliquée d'un disque sur un autre, d'où une redondance importante en cas de panne d'un disque. Néanmoins ce mode n'admet pas le " HOT SWAP " des disques. Les performances sont supérieures à un disque seul mais le coût du Méga octet est très élevé.
Généralement ce mode est réalisé directement par le système d'exploitation de la machine " hôte " ou serveur, entraînant ainsi une charge non négligeable de la CPU. Ce mode requiert au minimum 2 disques et est communément appelé " MIRRORING " lorsqu'il est réalisé sur le même canal SCSI, et " DUPLEXING " lorsque 2 canaux SCSI sont utilisés. - En mode RAID 2, chaque bit du mot de la donnée est stocké sur un ou plusieurs disques de données et le système génère et stocke sur un ou plusieurs disques ECC un code de correction d'erreur selon l'algorithme de Hamming. L'avantage de ce système est un taux de transfert possible très élevé et une correction d'erreur à la volée sans dégradation des performances. Néanmoins ce système à 'un coût élevé par rapport aux performances obtenues. D'autre part, aujourd'hui tous les périphériques SCSI possèdent en interne leur propre gestion de correction d'erreur. De ce fait le RAID 2 n'est pratiquement plus utilisé.
- En mode RAID 3, la donnée a stocker est répartie (STRIPED) en octet sur différents disques synchronisés de données. Le système génère et stocke une parité sur un seul disque de parité. Il en résulte des taux de transfert très importants en lecture mais aussi en écriture. La panne d'un disque de données a très peu d'impact sur la performance et le nombre minimum de disques pour l'utilisation de ce niveau 3 est de 3. La complexité du contrôleur est moyenne en mode RAID 3.
Néanmoins, il est très difficile de le réaliser uniquement par logiciel. En réalité, très peu de constructeurs implémentent un réel RAID niveau 3. En général la taille minimum d'une information stockée est de la taille d'un secteur typiquement 512 octets. - En mode RAID 4, un bloc entier de données est stocké sur un seul disque. Le système génère et stocke une parité de plusieurs blocs provenant de différents disques de données sur un seul disque de parité. Les taux de transferts sont très importants en lecture de larges fichiers mais ce mode est peu performant en écriture. D'autre part, du fait du partage de la parité sur des blocs entiers de données, la reconstruction des données peut s'avérer difficile en cas de panne d'un disque.
La panne d'un disque a un impact moyen sur les performances du système. Dans ce mode, les disques de données sont indépendants et ne sont pas lus en parallèle sauf dans le cas où les données proviennent de disques différents. La taille d'un bloc peut varier en fonction de la taille d'un secteur et plusieurs Méga octets suivant le contrôleur utilisé. Le coût du méga octets est relativement faible en mode 4. - En mode RAID 5, les informations sont stockées de manière similaire au mode 4, par contre la parité est générée et stockée de façon distribuée sur les disques de données. Les performances sont importantes pour la lecture de larges fichiers, bonnes pour la lecture de petits fichiers et en mode écriture. D'autre part, du fait du partage distribué de la parité sur des blocs entiers de données, la reconstruction des données peut s'avérer difficile en cas de panne d'un disque.
La panne d'un disque a un impact moyen sur les performances du système. Dans ce mode, les disques de données sont indépendants et ne sont pas lus en parallèle sauf dans le cas où les données proviennent de disques différents. La taille d'un bloc peut varier en fonction de la taille d'un secteur et plusieurs Méga octets suivant le contrôleur utilisé.3 Le coût du Méga octet est relativement faible en mode 5. Ce mode requiert au minimum 3 disques. - Le mode RAID 6 est similaire au mode 5 mais utilise plusieurs disques de parité. De ce fait, le mode 6 admet de perdre plus d'un disque de données et de continuer à fonctionner en mode dégradé.
- En mode RAID 7, les informations à stocker sont réparties sur plusieurs disques de données avec un ou plusieurs disques de parité. Le mode 7 met en jeu une carte microprocesseur fonctionnant sous un noyau temps-réel qui contrôle toutes les opérations des canaux SCSI hôtes et des disques, le calcul de la parité, la gestion du cache ainsi que la surveillance des disques. Tous les transferts sont en mode asynchrone ce qui accroît de 1,5 à 6 fois les performances en écriture par rapport aux autres niveaux RAID. Ce mode supporte la perte de plusieurs disques suivant le nombre de disques de parité assignés, et d'autre part peut supporter théoriquement 12 canaux hôtes et 48 disques connectés.
La plupart des contrôleurs de RAID 7 peuvent être paramètrés et administrés sur une liaison Ethernet à travers un agent SNMP. Certains constructeurs de contrôleur RAID propose des combinaisons de plusieurs niveaux de RAID, en voici quelques exemples :
RAID 5+1ou RAID niveau 1+0 : Combinaison du mode 0 (" STRIPING ") et du mode 1 (" MIRRORING "). Ce mode à l'avantage de combiner les performances avec la sécurité.
RAID niveau 53 : Combinaison du mode 0 (" STRIPING ") et du mode 3. Ce mode accroît davantage encore la combinaison des performances avec la sécurité. - Rapport entre un signal désiré et un signal parasite.
- Endommagement de la bande vidéo par froissement ou pliage.
- Le réalisateur (Director en anglais) est à la fois patron, chef d’équipe, créateur, gestionnaire et technicien.
Le réalisateur de films de fiction pour le cinéma est un véritable chef d’orchestre et son travail commence bien avant le tournage, par la mise au point du scénario et son découpage en plans, précisant tous les détails concernant les décors, l’image et le son. Un projet qui doit se plier autant aux contraintes financières de la production que répondre à ses propres envies créatrices.
Ensuite, le réalisateur doit mettre en place les castings, les repérages, choisir le matériel et l’équipe de techniciens. Au moment du tournage, il doit faire face à des impératifs aussi différents que diriger les acteurs, coordonner le travail des techniciens, établir des plannings, tenir les délais, désamorcer les conflits, affronter les imprévus inévitables.
Son travail ne s’arrête pas là : le montage est en effet un moment clé de l’activité créatrice du réalisateur. C’est grâce à lui que les images brutes s’organisent en un film à part entière, avec ses qualités plastiques, son rythme et sa valeur artistique. Autant d’activités qui, bien sûr, s’effectuent en étroite collaboration avec les techniciens, du chef opérateur à l’ingénieur du son, en passant par le cadreur, le monteur ou la scripte.
En dehors du cinéma, la liberté laissée au réalisateur est beaucoup moins importante. Si vous réalisez des téléfilms, par exemple, vous êtes employé par une chaîne qui apporte le scénario, le budget et décide des conditions de production. En tant que réalisateur de plateau, votre activité consiste à concevoir et à mener à bien une émission de télévision, en respectant des critères bien précis. Pour les documentaires, vous travaillez sur du réel, avec ses faits objectifs et ses contraintes. Quant aux films d’entreprise, ce sont des films de commande, dont le seul objectif est de faire passer un message publicitaire. - Mise en scène d'un film ou d'une émission.
- Produire un film ou une émission. Anglais to produce
- Redéfinition des limites de l'image, généralement en supprimant électroniquement une partie du haut, du bas ou des côtés droit ou gauche de l'image.
- Appareil qui reçoit des ondes ou des signaux électriques et les transforme en sons ou en images. Anglais receiver
- Déplacement avant ou arrière image par image.
- Visualisation de la vidéo à une vitesse supérieure à la normale.
- Recherche dans l'audio à diverses vitesses tout en écoutant la variation de la fréquence du son.
- 1. Montage dans lequel la vidéo existante, l'audio ou les deux à la fois sont remplacées par le nouveau matériel.
2. Montage au cours duquel le matériel déjà présent sur la piste vidéo ou audio est allongé par l'ajout de nouveau matériel inséré en tout point de la séquence. - Action de rediffuser quelque chose ou émission rediffusée à l'écran. Anglais repeat
- Procédé employé pour la lecture des données d'une piste par une autre piste. La piste de référence indique le clip source dans la piste référencée.
- Hautes lumières provoquées par la réflexion de la lumière sur un objet dans une image. La réflexion spéculaire n'est pas la méthode de base utilisée pour définir le véritable point blanc d'une image.
- En cinéma et télévision, le régisseur est le responsable de l'organisation matérielle et logistique d'un tournage en collaboration directe avec le directeur de production. Il participe au repérage des décors et lieux afin d'y permettre le tournage. Il est responsable des autorisations de tournage auprès de particuliers, des autorités (mairie, préfecture de police, DDT, etc.), l'organisation des accès et le stationnement des véhicules techniques (camion machinerie, éclairage, régie, loges, cantine, ...), l'organisation du transport et de l'hébergement, etc. Pendant le tournage, il doit assurer la coordination de diverses opérations prévues au plan de travail et autres plannings.
Il doit donc organiser les transports (de comédiens, d'intervenants, etc.), la prise en charge et les rendus de matériels, et de manière générale régler les problèmes pratiques. Avec le 1er assistant réalisateur, il supervise chaque jour la feuille de service pour le lendemain. - Retransmettre une émission par le biais d'un satellite ou d'un relais hertzien.
- Nouvelle version d'un film ou d'un sujet déjà abordé. Anglais remake
- Renamemediafiles (nothing) est une commande disponible dans la console Avid Software.
- Marque ajoutée à une image sélectionnée pour désigner un emplacement particulier dans la séquence. Des commentaires créés par l'utilisateur peuvent être ajoutés au niveau des repères.
- Lire une séquence dans la timeline de la prélecture à la postlecture.
- Lire une séquence de la timeline de la position actuelle jusqu'à la postlecture.
- Lire une séquence de la timeline de la prélecture jusqu'à la position actuelle.
- Sortie d'une séquence, généralement enregistrée sur bande.
- Quantité et niveau de détail d'une image vidéo, mesurés le long des axes vertical et horizontal. Généralement, le nombre de points ou de lignes disponibles contenus dans les dimensions horizontale et verticale de l'image. Correspond également au nombre de valeurs de couleurs ou de niveaux de gris pouvant être ajoutées, généralement indiqué en bits, tel que 8 bits ou 24 bits. L'unité point par pouce (ppp) est parfois attribuée à la résolution, bien que sa définition correcte soit la densité de l'écran.
- Procédé d'ajustement des transitions d'une séquence depuis la timeline.
- Le début et la fin des images du clip changent, car seul le contenu du clip est modifié. Les images précédant et suivant le clip ne sont pas affectées.
- Les images sortantes (côté A) et entrantes (côté B) sont modifiées puisque le clip reste fixe alors que les données vidéo qui l’entourent sont retouchées.
- Diffuser une émission. Anglais to broadcast
- Emission diffusée. Anglais broadcast
- RF (RadioFréquence). Zone à haute fréquence du spectre électromagnétique utilisée pour la transmission des signaux de télévision et de radio.
- Voir WAVE.
- Removable magnetic disk (disque magnétique amovible). Les RMAG sont utilisés avec un châssis ; chacun pouvant contenir deux modules de disque amovible.
- Nuancier de forme circulaire permettant de sélectionner des valeurs de teinte et de saturation différentes selon que vous déplacez le réticule sur la circonférence ou le rayon, respectivement. La roue chromatique permet de contrôler le niveau de teinte et de retoucher les couleurs secondaires à partir de l'outil de correction des couleurs.
- Spécification émise par l'Electronic Industries Association concernant les équipements vidéo servant à la diffusion NTSC. RS-170A spécifie la synchronisation des analyses et des suppressions nécessaires au décodage des signaux chromatiques.
- Interface standard de l'Electronic Industries Association relative à la connexion des périphériques série. Elle porte généralement le nom de la norme d'origine : RS-232, et prend en charge deux types de connecteurs : un connecteur de type D à 25 broches et un connecteur de type D à 9 broches. La longueur de ligne maximale autorisée dans le cadre de la spécification est d'environ 15 mètres.
- Interface standard de l’Electronic Industries Association relative à la connexion des périphériques série. RS-422 est la version améliorée de la norme RS-232C. Elle permet des débits de transfert des données plus élevés et une longueur de ligne pouvant atteindre 1200 m.
- Prises de vue faites avant le montage d'une émission télévisée ou d'un film.
- Les rushes constituent l'ensemble des documents originaux (bobines de film, bandes sons, cassettes vidéo) produits au tournage et issus de la caméra et/ou de l'appareil d'enregistrement sonore. Une partie seulement de ces documents originaux sera utilisée au montage et en postproduction.
- RVB (Rouge, Vert et Bleu). Dans les systèmes informatiques, couleurs primaires additives utilisées pour créer toutes les autres couleurs affichées à l'écran. Les caméras, les équipements télé cinématographiques et la plupart des équipements informatiques produisent des images comprises dans cet espace colorimétrique.
Dans le cadre d'un échantillonnage numérique, les trois couleurs sont prélevées de manière uniforme au niveau de bande passante le plus élevé. Les images 4:4:4 sont donc susceptibles de constituer une meilleure base de travail pour les opérations d'incrustation chromatiques avancées. En contrepartie, elles occupent un espace de données 1,5 fois plus important que les images 4:2:2.
En outre, aucun dispositif d'enregistrement magnétique n'est en mesure de traiter les images 4:4:4 ; celles-ci doivent donc être stockées sur un enregistreur de données ou sur disque.
Enfin, aucune technique télévisuelle ne permet de relier ces images. Les opérations de constitution de réseaux d'image doivent donc s'effectuer à l'aide des technologies informatiques. Les images 4:4:4 s'utilisent en principe uniquement pour les tâches de post-production. La distribution des produits finis s'effectue généralement au format 4:2:2. - SAN (Storage Area Network). Le système de fichier se trouve dans un serveur qui répond aux requêtes des clients, mais contrairement au NAS, les clients ont un accès direct à l’ensemble du stockage et les données elles mêmes ne transitent donc pas par le serveur. Il n’y a donc plus de goulot d’étranglement et pour répondre à l’augmentation des besoins, tant en capacité de stockage qu’en bande passante, il suffit d’augmenter le nombre de disques.
Les clients peuvent être connectés en Ethernet, économique mais limité en débit, ou en Fibre Channel, plus coûteux mais offrant une bande passante plus élevée. Du fait de ses propriétés et performances, c’est généralement la technologie de double boucle Fibre Channel qui est préférée en architecture SAN pour les applications vidéo réclamant des très hauts débits. Cependant le nombre de ports maximum étant de 127, la capacité totale est limitée en fonction de la taille des disques utilisés (1 disque = 1 port). - Mesure de la chrominance. La saturation est la densité de couleur du signal vidéo.
- Copie d'un fichier ou d'une disquette placée dans un autre endroit dans le cas où le fichier ou la disquette viendrait à être corrompu.
- SECAM (Séquentiel Couleur A Mémoire). Norme de la télévision couleur développée en France et utilisée dans toute l'Europe.
- SEG (Special Effects Generator). Générateur d'effets spéciaux : Section d'un mélangeur capable de réaliser des volets de motifs variés.
- Section d'une piste ou d'un clip dans une séquence de la timeline qui peut être montée.
- Voir arrachements de bande.
- Méthode de sélection d'une piste dans un groupe, seule la piste sélectionnée est lue. Un sélecteur de piste peut, par exemple, indiquer laquelle des quatre vues possibles d'une scène doit être lue.
- L’image peut, au cinéma, se trouver chargée de valeurs et de sens différents en fonction de la forme même de son expression. Elle peut tirer vers l’imaginaire, le symbole, la métaphore, ou encore avoir un simple rôle d’illustration et rehausser l’émotion d’une scène sans dialogue. De violentes images d’archives peuvent par exemple s’insérer dans une conversation ayant trait à la guerre.
De même, le plan d’une fleur peut signifier la paix ou l’amour, et celui d’un pistolet, la guerre. À cet égard, les images dont on peut jouer sur le sens premier, par exemple celle d’une belle fleur, mais vénéneuse, restent les plus intéressantes.
Parmi tous les films de David Lynch, qui jouent abondamment avec l’imaginaire, signalons plus particulièrement Lost Highway. Marathon Man utilise à plusieurs reprises les images symboliques d’un coureur de marathon.
Dans Apocalypse Now, l’image hyperbolique des pales d’un hélicoptère se substitue à celle d’un ventilateur de plafond.
Dans La Maison du docteur Edwardes, l’imaginaire prend la forme d’une séquence de rêve, inspirée par les peintures de Salvador Dali.
Dans Le Cuirassé Potemkine, les images des marins pendus au mat ont évidemment valeur de symbole. L’Échelle de Jacob est truffé d’illustrations également cauchemardesques.
Dans M. le Maudit, la balle de l’enfant qui sort du bois en roulant n’est rien moins que l’image de sa mort. - Composition après montage qui comporte souvent des clips audio et vidéo et des effets calculés connectés par des transitions appliquées. Le système Avid propose une timeline représentant, de façon graphique, la séquence montée.
- Série télévisée.
- Téléfilm découpé en plusieurs épisodes.
- Commande disponible dans la console Avid Software
- Système international d'unités. Equivalent français de l'International System of Units. Il correspond plus ou moins au système métrique.
- Signal de fréquence audio constant enregistré au début d'une bande à zéro unité de volume (0 VU) destiné à servir de référence ultérieurement. Enregistré généralement en conjonction avec les barres couleur.
- Signal de synchronisation de la couleur inclus comme élément de l'ensemble du signal vidéo composite. En comparaison avec le signal de la sous-porteuse couleur, le signal de référence de la couleur détermine la teinte de l'image vidéo.
- Espace vierge (noir) des pistes audio d'une timeline ne contenant aucun matériel audio.
- Silence est un terme prononcé au début du tournage d'un plan, précédant « Moteur », « ça tourne », « action ».
- SMPTE (Society of Motion Picture and Television Engineers). L'une des principales organisations de normalisation dans l'industrie du film et de la vidéo.
- Fonction de sauvegarde logicielle de "cliché instantané".
- Une Société pour le Financement de l'Industrie Cinématographique et Audiovisuelle (SOFICA) est une société de droit français de capital-investissement spécialisé dans les œuvres cinématographiques ou audiovisuelles bénéficiant d'avantages fiscaux. Les SOFICA sont des sociétés anonymes de droit français ayant pour activité exclusive le financement en capital d'œuvres cinématographiques ou audiovisuelles agréées par le ministère français de la culture. Elles ont été créées par la loi française du 11 juillet 1985.
- Enregistrement du son sur bande vidéo ou audio sans une image d'accompagnement.
- Marque d'Avid Technology, Inc. Format de fichier audio utilisé pour l'importation et l'exportation de pistes audio numériques.
- Dans un système d'échantillonnage numérique, le souséchantillonnage désigne le procédé de réduction du nombre d'échantillons prélevés sur un signal analogique par rapport au nombre de pixels disponibles dans l'image numérique. De manière générale, le sous-échantillonnage permet de réduire la quantité de données utilisées pour former une image. Dans le système d'échantillonnage 4:2:2 utilisé en vidéo de qualité studio, chaque échantillon de luminance correspond à un pixel (représenté par le chiffre 4).
En revanche, la fréquence d'échantillonnage des deux signaux de chrominance est réduite de moitié (un échantillon pour deux pixels). Ce procédé est appelé sous-échantillonnage de chrominance, terme fréquemment utilisé pour désigner les rapports d'échantillonnage en général (par exemple, 4:2:2, 4:1:1, etc.). - En matière de télévision numérique, les fréquences d’échantillonnage sont définies par des formules abrégées, qui ont, à plusieurs égards, un rapport assez éloigné avec le concept qu’elles décrivent. Ces formules numériques ne sont pas des nombres absolus, mais expriment des rapports de fréquences d’échantillonnage ; un certain effort d’interprétation est donc nécessaire pour comprendre leur signification précise. Le terme « sous-échantillonnage de la chrominance » fait référence à ces rapports de fréquence d’échantillonnage.
La plupart du temps, les premiers chiffres expriment la luminance (Y) et les deux derniers la chrominance (à l’exception de 4:4:4 ou 4:4:4:4 abordés plus en détail ciaprès). Le premier chiffre est quasi systématiquement un 4, signifiant que la luminance est échantillonnée une fois par pixel produit dans l’image.
Dans quelques rares cas, une fréquence d’échantillonnage plus faible pourra être utilisée pour la luminance. C’est le cas par exemple du HDCAM, qui a généralement recours au format 3:1:1. Le terme souséchantillonnage désigne l'utilisation d'une fréquence d’échantillonnage inférieure au nombre de pixels final.
Les deux chiffres suivants correspondent aux fréquences d’échantillonnage des composantes de couleur pure numérisée de Rouge-Y et Bleu-Y, intitulées Cr et Cb. Selon le principe télévisuel exploitant les limites de perception de l’oeil humain dans le domaine de la couleur pure, les coupes permettant de réduire la quantité de données sont généralement effectuées au niveau de la chrominance plutôt qu’au niveau de la luminance. Le format d’échantillonnage le plus couramment utilisé en studio est le 4:2:2 : sur chaque ligne, la fréquence d'échantillonnage des deux composantes de couleur est deux fois moins élevée que la fréquence d'échantillonnage de luminance. - Onde sinusoïdale utilisée comme signal de référence de couleurs.
- Les sous-titres sont les textes projetés en bas de l'écran et comportant généralement les dialogues du film traduits dans une langue différente de la langue entendue.
- STP (Spanning Tree Protocol). Protocole réseau permettant une topologie réseau sans boucle dans les LAN avec pont. Il est défini dans la norme IEEE 802.1D. Les réseaux doivent avoir un unique chemin entre deux points, cela s'appelle une topologie sans boucle. En effet, la présence de boucle génère des tempêtes de diffusion (broadcast storm en anglais) qui paralysent le réseau. Cependant, un bon réseau doit aussi inclure une redondance des matériels pour fournir un chemin alternatif en cas de panne.
L'algorithme de « spanning tree minimum » garantit l'unicité du chemin entre deux points du réseau en affectant un port dédié (root port), celui qui a le chemin le plus court vers le root bridge, à chaque segment du LAN (domaine de collision). Élection des root ports : Un root port est un port qui sera utilisé pour transmettre les données (par opposition à un port bloqué). Chaque commutateur doit avoir un seul root port. L'élection d'un root port est effectuée d'après les champs path cost et port ID d'un paquet BPDU. En cas d'égalité, c'est le port ayant le port ID le plus faible qui sera élu. Un port bloqué peut émettre et recevoir des paquets BPDU.
Les autres ports d'un commutateur sont des designated ports, ce sont eux qui transmettent les paquets BPDU. Élection des root ports : Les BID et autres informations du protocole spanning tree sont transportés dans des unités de trames de données spéciales nommées BPDU (Bridge Protocol Data Units). Les BPDU sont échangées régulièrement (toutes les deux secondes) et permettent aux commutateurs de garder une trace des changements sur le réseau afin d'activer ou de désactiver les ports requis. Quand un commutateur ou un pont est raccordé au réseau, il commence par envoyer des BPDU afin de déterminer la topologie du réseau, avant de pouvoir commencer à transférer des données. - Technique particulière de suivi des mouvements utilisée pour éliminer les mouvements indésirables (déplacement d'une caméra, par exemple) dans un clip. Le processus consiste à repérer un objet fixe par essence dans le clip et à repositionner chaque image ou trame vidéo de façon à ce que l'objet reste stationnaire.
- Commande disponible dans la console Avid Software
- Un storyboard est un outil de travail sous forme de bande dessinée (traditionnellement des croquis) illustrant un scénario. Le but est de spécifier et de prévoir les axes de caméra, les raccords entre les plans, l’ensemble des plans et mouvements de caméra, les indications sonores et le déplacement des acteurs. Le storyboard permet d'avoir une vue d'ensemble d'une production et de gagner du temps au moment du tournage.
- Autre dénomination du RAID 0.
- 1. Partie montée d'un clip. Un sub-clip peut être lié dans une séquence, par toute variation des débuts de clips, des fins de clips et des points d'entrée et de sortie.
2. Un sub-clip est créé en définissant des points d'entrée et de sortie dans un clip, puis en enregistrant les images situées entre ces points. Le sub-clip ne contient pas de pointeurs vers les fichiers médias. Il fait référence au master-clip, qui lui contient les pointeurs vers les fichiers médias. - Subsys monpane debug (nothing) est une commande disponible dans la console Avid Software.
- Structure associée à une zone d'intérêt spécifique et contenant un ensemble de points de données au cours d'une opération de suivi des mouvements. Vous pouvez recourir à plusieurs suiveurs sur le même clip pour définir un mouvement complexe.
- Processus permettant d'obtenir des informations de position servant à décrire un objet en mouvement dans un clip (déplacement d'un véhicule, par exemple). Ces données permettent de contrôler le mouvement des effets.
- Terme utilisé par Avid pour désigner un morceau après montage. Un sujet est créé par montage de plusieurs clips et de séquences.
- Pellicule de film 16 mm produite pour un format spécial avec zone agrandie de l'image. Le super-16 est conçu pour être copié sur film 35 mm en vue de sa commercialisation.
- Acronyme de Silicon X-tal Reflective Display (X-tal étant l’abréviation de cristal), SXRD désigne la technologie d’affichage de Sony adaptée à la projection numérique. Elle doit sa notoriété au fait qu’elle a été à l’origine de la première taille 4K (4 096 x2 160 pixels) viable incorporée aux projecteurs Sony SXRD. Cet affichage à cristaux liquides réfléchissant a également été conçu pour améliorer le contraste, accélérer la fréquence d’images jusqu’à 200 i/s, réduire le maculage et allonger la durée de service.
- Dispositif permettant à une source vidéo asynchrone, telle qu'un satellite ou une alimentation par micro-ondes, d'être utilisée dans un environnement vidéo chronométré en saisissant des images entières.
- 1. Procédé de synchronisation d'un générateur de timecode secondaire au timecode principal sélectionné.
2. Impulsions contenues dans un signal vidéo composite destinées à fournir une référence de synchronisation pour l'échantillonnage du signal. Désigne également un signal indépendant pouvant alimenter divers équipements.
3. Son enregistré sur une bande son séparée mais synchronisé simultanément à la prise de vue filmique ou de bande vidéo. - Le synopsis est un résumé du scénario qui décrit les grandes lignes de l'histoire et qui permet de se faire une idée globale du thème, de l'histoire et de l'évolution des personnages.
- Tout système de film pour lequel l'image et le son sont enregistrés sur des médias séparés. Le système double bande nécessite la resynchronisation de l'image et du son au stade de la postproduction.
- Voir décollement du niveau de noir.
- Taux de compression Il s’agit du rapport données (vidéo ou audio) non compressées sur données compressées. Ce taux ne définit pas la qualité audio ou vidéo obtenue après compression, qui dépend également des performances du système utilisé. Dans le cadre d'applications de studio, la compression se situe normalement entre 2:1 et 7:1 pour la SD (formats d'enregistrement magnétique D1 et D5 non compressés également disponibles).
Pour la HD, la compression se situe à l'heure actuelle entre 6:1 et 14:1 (suivant les formats d'enregistrement magnétique) et utilise exclusivement des images I. Pour la diffusion, les valeurs dépendent de l'utilisation de la bande passante disponible. Le taux se situe aux alentours de 40:1 pour la SD et autour de 50 ou 60:1 pour la HD (suivant le format utilisé). Pour augmenter le taux de compression, les procédés de transmission se basent sur les images I et les images prédictives.
Le format HDV permet d'enregistrer des données sur bande à 19-25 Mbits/s, un débit comparable à la transmission HD à un taux de compression d'environ 40:1, suivant la norme utilisée. Le débit de transmission et des enregistreurs vidéo est généralement constant ; les images d'origine pouvant contenir une quantité de détail hétérogène, la qualité des images compressées peut varier.
Les DVD utilisent en revanche souvent un débit variable pour une qualité uniforme. Les taux de compression varient donc en fonction des exigences du matériel et produisent un résultat homogène. Ceci explique en partie la qualité du rendu des DVD, même à débit relativement faible (environ 4 Mbit/s). - TBC (Time-Base Corrector). Correcteur de base de temps, dispositif électronique qui améliore la stabilité des signaux vidéo en corrigeant les erreurs de datation inhérentes aux appareils mécaniques d'enregistrement de bande vidéo.
- Commande disponible dans la console Avid Software.
- Attribut de perception des couleurs. Le rouge, le vert et le bleu constituent le modèle de couleurs utilisé, en proportions variables, pour créer toutes les couleurs affichées en vidéo et sur les écrans d'ordinateur. Appelée également phase couleur.
- Abréviation de télévision ou téléviseur.
- Télé-réalité (oureal TV en anglais) est une émission de télévision présentant la vie quotidienne de personnes sélectionnées.
- Réalisateur d'émissions de télévision.
- Dispositif permettant de transférer des images de film cinématographique sur bande vidéo.
- Outil permettant le contrôle d'un appareil grâce à des fonctions standard, telles que la recherche rapide, la lecture, l'avance rapide, le rembobinage, l'arrêt et l'éjection.
- Film réalisé pour la télévision.
- Télégénique désigne une image qui passe bien à la télévision. On dit par exemple d'une personne qu'elle est télégénique.
- Personne qui regarde la télévision. Anglais television viewer
- Transmis par télévision. Anglais televised
- En Télécommunications, il s'agit de la transmission à distance de sons et d'images. Il s'agit aussi du récepteur appelé téléviseur ou TV. La télévision représente aussi l'organisme qui diffuse des émissions par télévison.
- Temps réel auquel l'événement se produit.
- Partie du timecode SMPTE indiquant la fin de chaque image et la direction du défilement de la bande.
- Texte se déplaçant horizontalement, tel que les tickers de scores en sport et des films qui s’affichent en bas de l’écran de télévision.
- Texte se déplaçant verticalement. Un des exemples de texte déroulant sont les remerciements à la fin des films et des émissions de télévision.
- Gros plan très rapproché.
- Un timecode est une référence temporelle, utilisée dans les domaines du son et de l'image, pour la synchronisation et le marquage de matériaux enregistrés. Le timecode (TC) s'exprime en heures, minutes, secondes et images (00:00:00:00).
Il est enregistré parallèlement à chaque son et à chaque image. Développé à l'origine aux États-Unis pour la télévision à l'époque du noir et blanc, il est utilisé pour la vidéo (cinéma également) que pour le son. - Timecode audio ou LTC (Longitudinal TimeCode) est enregistré sur une piste audio.
- Type de timecode SMPTE conçu pour correspondre exactement au temps réel. Deux trames de code sont omises chaque minute à la minute, à l'exception de la dixième minute, afin de corriger le fait que le cycle de trames se déroule à la vitesse de 29,97 i/s et non pas à celle de 30 i/s exactement. Le timecode drop-frame est enregistré avec des points virgules séparant les chiffres, comme suit : 1;00;10;02.
- Timecode correspondant approximativement à l'heure du jour (de l'horloge).
- Format de timecode SMPTE accompagnant continuellement la vidéo NTSC à la vitesse de 30 i/s sans délaisser d'images pour compenser la véritable vitesse de la vidéo NTSC de 29,97 i/s. Par conséquent, le timecode non-drop-frame ne coïncide pas avec le temps réel. Deux points séparent les chiffres du timecode non drop-frame à l'enregistrement, comme suit : 1:00:10:02.
- Système de numérotation d'images développé par la SMPTE (Society of Motion Picture and Television Engineers), utilisé principalement pour l'identification et le montage électroniques de programmes vidéo. Il attribue un numéro à chaque image vidéo, définissant le nombre d'heures, de minutes, de secondes écoulées et le nombre d'images.
- Représentation graphique de chaque modification apportée à une séquence.
- Les matériaux produisant de bons résultats suite à l'application d'un procédé de compression sont qualifiés de "tolérants à la compression". Ce facteur peut s'avérer important lors de la transmission impliquant une bande passante de données très limitée et des taux de compression élevés. Les métrages comportant d'importantes zones de couleur uniforme, peu de détail et peu de mouvement (par exemple, les dessins animés, les gros plans et certaines pièces de théâtre) tolèrent en général très bien les procédés de compression.
La compression MPEG-2 se base sur les détails spatiaux et sur les mouvements des images. L'augmentation considérable de ces deux facteurs risque d'affecter la qualité finale de l'image. C'est le cas notamment pour les sports rapides (par exemple, le football). Les images de faible qualité peuvent révéler une faible tolérance à la compression. Les parasites sonores sont interprétés comme des mouvements par les encodeurs MPEG-2 et MPEG-4 et génèrent des informations occupant l'espace nécessaire aux données utiles.
Les conversions de fréquence d'images de faible qualité entraînant des sautes d'image peuvent également fausser l'interprétation des mouvements, augmentant également la quantité de données superflues au détriment des détails spatiaux pertinents. De tels parasites constituent par ailleurs un facteur d'erreur d'interprétation des mouvements, qui peut se traduire par un blocage de l'image. Pour éviter ce type de problème, la chaîne de production doit reposer sur des équipements de qualité. Le choix du format vidéo peut également s'avérer déterminant. Par exemple, les mouvements sont moins nombreux avec 25 images balayées en mode progressif qu'avec 50 trames entrelacées, ce qui facilite les opérations de compression. Le taux de réussite peut ainsi augmenter de 15 à 20%. - Le tournage (shooting en anglais) est l'action de tourner un film, de filmer les scènes. Le tournage s'appuie traditionnellement sur un storyboard.
- La moitié des lignes de balayage d'une image vidéo entrelacée. Dans la plupart des systèmes, les lignes à numéros impairs forment une trame et celles à numéros pairs forment la seconde. La vidéo NTSC contient approximativement 60 trames (30 images) par seconde, et la vidéo PAL en contient 50 (25 images) par seconde.
- Application Avid prévue pour transférer des médias d'un groupe de travail à un autre. Un réseau Fibre Channel relie les systèmes Avid et l'application TransferManager à l'environnement Avid Unity MediaNet.
- Une transition est un moyen de passer d’un plan à un autre.
La transition la plus simple est le cut (coupe franche). Selon le montage, le cut sera peu perçu par le public ou au contraire marquera de brusques ellipses dans l’espace et dans le temps.
La transition par un fondu est très employée comme le fondu enchaîné dont le principe est la superposition d'une nouvelle image sur une plus ancienne, intensifiant progressivement la nouvelle image jusqu’à ce que l’ancienne disparaisse produisant ainsi une transition douce.
La transition par fondu simple permet de passer lentement d’une couleur à une image, ou l’inverse. Le fondu se fait couramment au noir. Un fondu au blanc, par exemple, provoque une transition que l’on peut qualifier d’explosive. On associera plus aisément des images de sang à un fondu au rouge, et celles de l’océan à un fondu au bleu.
Certains effets de transition permettent de passer d’un plan à un autre de façon particulière comme par exemple, les pages tournantes, les volets simples, les volets au noir et le morphing. - 1. Source vidéo ne comportant aucune image.
2. Source spéciale utilisée pour réaliser des fondus en ouverture et en fermeture ou pour effectuer d'autres effets. - Lecture en boucle utilisée en mode de retouche. Vous pouvez modifier la durée de la prélecture, de la postlecture et des pauses depuis la boîte de dialogue Trim Settings.
- Dans un travelling (travelling, tracking, tracking shot en anglais), la caméra se déplace horizontalement dans l’espace. Dans sa dynamique, cette technique est comparable à une personne se déplaçant sur un plateau en mouvement (un fauteuil roulant, par exemple).
Les travellings peuvent, se faire au moyen d’un chariot ou avec un plateau posé sur des roues et que l’on déplace le long de rails. Les rails permettent d’éviter un mouvement de caméra irrégulier et tremblotant, en particulier sur les terrains accidentés.
Le Steadicam s’utilise aussi pour réaliser des travellings sans l’effet heurté qui, d’ordinaire résulte des plans de la caméra portée. A l’image, il donne l’impression que la caméra «flotte» dans l’air. Toutefois, si l’opérateur de prise de vue utilise un bras anti-vibratoire, les plans de caméra portée peuvent rivaliser de souplesse avec ceux réalisés au moyen d’un chariot de travelling. - Organisation des clips dans une colonne de chutier par ordre alphabétique ou numérique, en fonction de la colonne sélectionnée par l'utilisateur.
- Pellicule de film magnétique contenant trois bandes de revêtement magnétique métallique.
- Réduction du nombre de bits utilisés pour la description d'une valeur. La troncation se pratique au quotidien. En effet, on pourra dire 1 000 au lieu de 1 024 ou encore, lorsqu'il s'agit d'argent, omettre les centimes pour mentionner uniquement les valeurs entières.
La troncation s'utilise également dans les systèmes vidéo numériques. Lorsqu'elle est effectuée à bon escient, la troncation n'entraîne aucune altération de l'image. Dans le cas contraire, elle risque d'affecter la qualité vidéo. Décimale : 186 x 203 = 37758 Binaire : 10111010 x 11001011 = 1001001101111110
En arithmétique binaire, la multiplication, très courante dans le domaine du traitement vidéo (par exemple, lors du mixage d'images), génère un résultat dont la longueur équivaut à la somme des deux nombres. Ainsi, la multiplication de deux valeurs vidéo de 8 bits génère un résultat de 16 bits. Cette longueur augmente à chaque nouveau traitement. Certains équipements ont la capacité de traiter ce type de données. Toutefois, le résultat devra en définitive être tronqué afin de pouvoir être exploité par d'autres dispositifs.
Dans le cas de systèmes HD, il peut s'agir d'une interface HD-SDI 10 bits ou d'un encodeur MPEG-2 8 bits. Dans cet exemple, si l'on décide de tronquer le résultat en supprimant les huit derniers bits, la valeur est réduite de 01111110, soit 126. En fonction du contenu vidéo et des traitements ultérieurs susceptibles d'aggraver l'erreur, cette troncation peut ou non avoir des répercussions. Généralement, ce type d'altération se traduit par un effet de bande sur les zones unies (sans détail) peu lumineuses. Ce type de parasite peut notamment affecter les images générées par ordinateur.
Le choix de l'emplacement de troncation lors de la manipulation des équipements détermine la qualité de conception et ne doit provoquer aucun défaut visible, même après plusieurs traitements. Pour ce qui est des manipulations externes, la connexion de dispositifs 10 bits et 8 bits nécessite une attention particulière. La troncation intelligente est appelée "arrondissage". - Prise de vue réalisée spécifiquement pour être intégrée à un plan avec effets spéciaux composite.
- Effets spéciaux créés dans un laboratoire de films par un processus appelé tirage de bobine A et B. Ce procédé fait intervenir une manipulation spécifique du négatif du film pour créer un négatif contenant l'effet. Les trucages optiques les plus couramment utilisés dans les montages sont les fondus, les fondus enchaînés et les surimpressions.
- Tube à vide dans lequel un faisceau d'électrons, émis par une cathode, vient frapper un écran et produisent une image.
- Un tuner est un récepteur radio.
- Unité centrale. La partie la plus informatique d'un ordinateur qui interprète et exécute les instructions.
- Ultrahigh frequency. Un des signaux de télévision destiné à la diffusion aux Etats-Unis selon les normes FCC. Sa fréquence est située entre les très hautes fréquences (VHF) et les super-hautes fréquences (SHF).
- Unité de mesure utilisée lors de l'enregistrement ou de la numérisation des données médias depuis une source physique, telle qu’une bande vidéo. Les données médias contiennent leur propre fréquence d'échantillonnage et la taille en octets de chaque échantillon.
- Marque déposée de Videomedia, Inc. Protocole industriel standard pour le contrôle des appareils vidéo. Le réseau V-LAN permet à une application de contrôler et de synchroniser tous les magnétoscopes, mélangeurs, lecteurs DAT, tables de mixage et effets vidéo numériques.
- Données réelles associées à une propriété particulière dans un objet OMF Interchange.
- Mesure, exprimée en pourcentage, de la probabilité pour le système de repérer l'élément recherché lors d'une opération de suivi des mouvements. Lors de ce type d'opération, Avid Symphony calcule une valeur confidentielle pour chaque point de repère créé.
- VC-1 est une spécification de codec vidéo en cours de normalisation par la SMPTE (SMPTE 421M) et mise en oeuvre par Microsoft dans son profil avancé WMV 9 AD.
- Subdivision du spectre de couleurs complet définie par des valeurs de teinte et de saturation. La correction de couleurs secondaire utilise des vecteurs pour déterminer les zones spécifiques de l'image nécessitant des ajustements.
- Utilisés dans les systèmes de compression MPEG-2 et MPEG-4, les vecteurs cinétiques décrivent la direction et la distance parcourue par les macroblocs (16 pixels de côté) entre les images. L'envoi des informations de mouvement implique une quantité de données inférieure à l'envoi d'une image I et permet donc de limiter le flux de données vidéo.
- Affichage graphique représentant le motif électronique de la partie couleur d'un signal vidéo. Il est utilisé pour régler la saturation des couleurs et la teinte à l'aide d'une référence de couleur stable, telle que les barres couleur. La fenêtre Avid Vectorscope utilise un affichage à ligne unique.
- Dans le domaine de la diffusion, il s'agit d'un système dans lequel le générateur de synchro interne d'un appareil (une caméra, par exemple) se verrouille et se synchronise d'après un signal entrant.
- Very high frequency. Un des signaux de télévision destiné à la diffusion aux Etats-Unis selon les normes FCC. Sa fréquence est située entre les hautes fréquences (HF) et les ultra-hautes fréquences (UHF).
- Système vidéo grand public (Video Home System). Format de cassette vidéo de 1/2 de pouce développé par JVC, destiné au marché commercial et industriel.
- Une vidéo est une partie visuelle d'une séquence de film.
Une vidéo défini aussi toutes les télévisions autres que celle par télédiffusion. - Définition de la structure du signal vidéo dans laquelle les signaux de couleur et de luminance sont conservés séparément en utilisant la méthode de soustraction des couleurs Y (luminance), Cb (le bleu moins la luminance) et Cr (le rouge moins la luminance), le vert étant dérivé par combinaison. Les deux autres formats à composantes sont texte déroulant et YUV.
- La plupart des téléviseurs numériques classiques prennent en charge la vidéo composante, c'est-à-dire un mélange de luminance (Y) et de couleur pure basée sur la différence de couleur des signaux R-Y et B-Y (analogique) ou Cr et Cb (numérique). Ces composantes sont dérivées du RVB proposé par les appareils d'imagerie ou de télécinéma, les caméras, les ordinateurs, etc.
- Signal vidéo dans lequel les composantes de luminance et de chrominance sont combinées (codées) comme dans les formats PAL, NTSC ou SECAM.
- Le standard de haute définition utilisé en europe est 1080i 25. Le standard se définit donc en trois termes :
1. le nombre de lignes en HD (720 ou 1080), en SD (480 ou 576).
2. La nature de l'image : P (progressive), i (interlaced = entrelacé) et PSF ( image segmentée progressive), on utilise essentiellement le P et le i.
3. le nombre d'images par seconde (la cadence) : 23.98, 24, 25, 29.97, 30, 50, 59.94, 60. - Signal vidéo ne contenant pas d'impulsion de synchronisation horizontale et verticale.
- Flux de données vidéo enregistrées ou numérisées qui n'est pas traité par un programme de compression des données. Le signal vidéo demeure non comprimé à chaque étape du processus : entrée, stockage et sortie. La vidéo non comprimée est conforme à la norme ITU-R 601.
- Système vidéo numérique décrit dans la documentation technique ITU-R -601 (CCIR 601). 4:2:2 correspond au format de la fréquence d'échantillonnage des trois composantes du signal vidéo : la luminance et les deux canaux de la couleur.
- Marque d'Avid Technology, Inc. Marque de composants matériels qui synchronisent les entrées, les sorties et les conversions de signaux, sélectionne les cadences d'images audio et la compensation des images vidéo.
- La cassette vidéo aussi appelée vidéocassette est un document magnétique qui peut être visionné à l'aide d'un magnétoscope. Elle contient un film vidéo. Le plus souvent elle contient deux bobines de bande magnétique l'une contenant la bande au départ et l'autre servant à enrouler la bande déjà lue. Pour la lecture ou l'enregistrement, la bande est enroulée autour d'un tambour rotatif qui comporte les têtes de lectures. Les pistes sont enregistrées sur le modèle hélicoïdal, c’est-à-dire en tranches obliques sur la bande.
Le plus souvent, une tranche correspond à une image, ou trame du film vidéo. L'enregistrement peut être analogique (FM), ou numérique ; il existe plusieurs formats de cassette vidéo : U-matic, Betacam, Betamax, VCR, VCR-LP, SV, V2000, VHS, VHS-C, S-VHS, S-VHS-C, Video 8, Hi-8. - Cassette contenant une bande magnétique sur laquelle est enregistré un film vidéo.
- Court-métrage relatif à une chanson.
- Boutique où l'on vend et loue des DVD enregistrés.
- Disque sur lequel de la vidéo a été enregistrée.
- Appareil qui permet de conserver et de copier un document vidéo.
- La Vidéographie (videography en anglais) est une technique permettant de transmettre de la vidéo.
- Appareil qui permet de lire des disques vidéo.
- Appareil qui projette des images vidéo.
- Une Vidéothèque (video library en anglais) est une collection de cassettes vidéo ou lieu où l'on stocke et consulte des cassettes vidéo.
- Transmission d'un programme par la vidéo.
- Examiner un film ou des diapositives d'un point de vue professionnel.
- Appareil permettant de visionner un film ou des diapositives.
- VITC (Vertical Interval TimeCode). Timecode inséré dans l'intervalle de suppression images. Comparez-le au LTC.
- Point auquel une bande vidéo a atteint une vitesse stable, tous les systèmes d'asservissement sont verrouillés et le temps de prélecture est suffisamment long pour permettre le montage, l’enregistrement ou la numérisation.
- Mesure du nombre d'unités pouvant être montées par seconde dans un morceau de données médias, dans les compositions (par exemple, 30 i/s pour NTSC, 25 i/s pour PAL et 24 i/s pour les films).
- Effet accélérant ou ralentissant la présentation de média sur une piste.
- VLAN (Virtual Local Area Network). Un réseau virtuel, communément appelé VLAN (pour Virtual LAN), est un réseau informatique logique indépendant. De nombreux VLAN peuvent coexister sur un même commutateur réseau (switch). L'intérêt d'un VLAN est multiple. La Segmentation : réduire la taille d'un domaine de broadcast. La flexibilité permet de travailler au niveau 2 (couche liaison) (Adresse MAC) ou au niveau 3 (IP). Les VLAN fonctionnent au niveau de la couche 2 du modèle OSI.
Toutefois, un VLAN est souvent configuré pour se connecter directement à un réseau IP, ce qui donne l'impression de travailler plutôt au niveau de la couche 3. Les VLAN peuvent aussi se baser sur les ports physiques des commutateurs (attention à ne pas confondre les ports "physiques" avec les ports "logiques" du protocole) (en anglais : "port-based" ) ce qui correspond au niveau 1 du modèle OSI et non au numéro de port du niveau 4 (par exemple : le port 80 en TCP qui "pointe" vers le service HTTP). La sécurité permet de créer un ensemble logique isolé pour améliorer la sécurité.
Le seul moyen pour communiquer entre des machines appartenant à des VLAN différents est alors de passer par un routeur. Pour que les VLAN soient propagés sur différents commutateurs à partir d'un seul lien physique via "trunk", l'organisme IEEE (qui s'occupe également de la normalisation d'Ethernet et du Wi-Fi) a développé la norme 802.1Q. IEEE 802.1Q (qui succède à ISL) est aujourd'hui le protocole prédominant. Dans le contexte de VLAN, le terme "trunk" indique un lien de réseau supportant des VLAN multiples entre 2 commutateurs ou entre un commutateur et un routeur, cela fonctionne en utilisant un protocole adapté. En effet pour tenir compte des raccordements multiples sur un lien, les trames d'un VLAN doivent être identifiées avec un protocole commun. - Marque déposée de Videomedia, Inc. Série de contrôleurs permettant de contrôler et de synchroniser l'équipement vidéo professionnel pour l'animation, le montage vidéo, la télévision haute définition et la télédiffusion.
- VNV (Vidéo-Noir-Vidéo). Mode de prévisualisation affichant une scène enregistrée au préalable, un segment noir puis de nouveau la scène précédemment enregistrée.
- Effet de fondu par volet d'une image à une autre dont la transition est floue et diffuse.
- Volume unit meter. Instrument de mesure des niveaux sonores.
- VVV (Vidéo-Vidéo-Vidéo). Mode d'aperçu affichant une scène enregistrée au préalable, la nouvelle vidéo insérée, puis de nouveau la scène enregistrée précédemment.
- Valeur de luminance dans une image vidéo définie par rapport au blanc de référence lors du réglage des couleurs.
- Wipe est un terme anglais signifiant « essuyer » qui désigne une transition entre deux plans, appelée en français un volet. Une barre traverse l'écran, changeant au passage une image en une autre.
- Le format Windows Media Video 9 est un système de compression audio et vidéo (codec) développé par Microsoft. Souvent assimilé à la norme MPEG-4 AVC, ce système semble légèrement plus performant, dans la mesure où il garantit des débits de données plus bas.
En outre, il est supposé posséder un processus plus simple et s'adapter particulièrement aux créations de contenu de type DVD HD. - XDCAM est le caméscope Sony qui utilise des supports Professional Disc. Il permet d’enregistrer le format Sony MPEG IMX (compatible avec MXF).
Ce format MPEG-2 8 bits utilisant des images I (uniquement) à 50, 40 ou 30 Mb/s assure une qualité Digital Betacam numérique avec des débits de données exceptionnels. Les débits autorisent respectivement 45, 57 et 68 minutes d’enregistrement.
Avec certains modèles, vous pouvez également enregistrer le format DVCAM 8 bits avec une compression de 5:1 et un rapport d’échantillonnage de 4:1:1 pour le système 480/60I (NTSC) et de 4:2:0 pour le système 576/50I (PAL). Avec En DVCAM, le temps d’enregistrement est de 85 minutes. - Sony a commercialisé un caméscope de poing PMW-EX1 avec 3 capteurs CMOS 1/2" Full HD, optique grand angle Fujinon 14x avec 3 bagues de diaph, zoom et mise au point ainsi qu’un large viseur et écran couleur LCD 16 :9 avec affichage des vignettes comme dans le XDCAM. Audio en XLR. Sorties IEEE ou USB en standard. Le stockage des images s'effecte sur des cartes PC Express nommées SxS (se prononce S by S). La caméra dispose de deux slots. Ce support PC Express, au format carte mémoire se retrouve déjà sur les nouveaux MacBook Pro Apple. Ce support est plus compact que le PCMCIA, est annoncé avec une vitesse de transfert de 800Mbps avec une très faible consommation d’énergie. Elles sont aujourd’hui disponibles en carte de 8 et 16 Go, pour 50 à 70 minutes au maximum 16Go).
Deux choix de codecs de compression sont possibles : HQ Mode : MPEG-2 Long Gop MP@HL en 4 :2 :0, 35Mbits/s VBR en 1920x1080 ou 1280x720 SP Mode : MPEG-2 Long Gop MP@H14 en 4 :2 :0, 25Mbit/s CBR en 1440x1080 (comme le HDV).
Un premier boitier lecteur/enregistreur SBAC- US10 en USB est disponible ainsi qu'un lecteur plus haut de gamme XDCAM EX. Il inclu des sorties HDMI, HD-SDI, Composantes HD/SD et S-Vidéo et Composite SD. Le support de report et de stockage mis en avant par Sony est le DVD HD du XDCAM. Sony propose à la vente des bundles caméscope, portable VAIO et l’utilitaire Clip Browser. Un produit positionné face au P2 de Panasonic. - Le format XDCAM HD 420 de Sony enregistre la vidéo HD 1080I 4:2:0 selon les débits de données 18, 25 et 35 Mb/s sur supports Professional Disc (Blu-Ray). Constant, le débit de 25 Mb/s permet le transfert vidéo en HDV. Les deux autres débits sont variables. Vous pouvez effectuer des enregistrements de 2 heures avec le débit de 18 Mb/s, des enregistrements de 90 et 60 minutes avec les deux autres débits. Il est possible d’utiliser plusieurs débits de données sur un même disque. De même que le format HDV, le XDCAM HD applique la compression MPEG-2 avec un GOP long.
- Le Format XDCAM HD 422 est le modèle haut de gamme de la ligne XDCAM. Une qualité d'image HD remarquable, un débit de 50 Mb/s, des capteurs 2/3 pouces à résolution 1920x1080, une conversion A/N sur 14 bits et un enregistrement 4:2:2 renforceront l'attrait du Professional Disc pour la production de documentaires et feuilletons télévisés mais également pour les programmes de divertissement grand public nécessitant une image de grande qualité.
L'acquisition sur Professional Disc et l'utilisation de vignettes et de Proxy permettent une diffusion rapide d'informations et des applications en direct où la vitesse de production est une condition essentielle. - Le Xénon est un gaz utilisé dans certaines lampes de forte puissance, dont le spectre est proche de la lumière du jour. Le Xénon est utilisé sur les projecteurs des salles d'exploitation et sur les projecteurs de poursuite de forte puissance, en spectacle vivant et productions cinématographiques.
- Signal de luminance du système couleur à composantes de la norme vidéo NTSC. Le signal est composé des proportions suivantes de rouge, vert et bleu : 0,299R + 0,587V + 0,114B
- Luminance et signaux de différence de couleur du système couleur à composantes de la norme vidéo NTSC. Egalement appelée YCrCb.
- Format numérique de vidéo composante. Y, Cr, Cb correspond à la forme numérique de Y, R-Y, B-Y.
- La plupart des téléviseurs numériques classiques prennent en charge la vidéo composante, c'est-à-dire un mélange de luminance (Y) et de couleur pure basée sur la différence de couleur des signaux R-Y et B-Y (analogique) ou Cr et Cb (numérique). Ces composantes sont dérivées du RVB proposé par les appareils d'imagerie ou de télécinéma, les caméras, les ordinateurs, etc.
- Désignation alphabétique de la luminance, de la luminance moins le rouge et de la luminance moins le bleu. Les lettres YUV sont les signaux de différence de couleur et de luminance de la norme vidéo à composantes PAL. Egalement appelée YCrCb.
- Partie d'une image faisant l'objet d'une opération de suivi des mouvements. Appelée également zone de recherche.
- Partie d'une image faisant l'objet d'une opération de suivi des mouvements.
- Parties de l'image vidéo en principe exclues du recadrage lors de son application ou de l'introduction de titres à l'écran, compte tenu des variations de réglage des moniteurs vidéo ou des récepteurs de télévision.
La zone de sécurité action représente 90 % de la surface de l'écran mesurée depuis son centre.
La zone de sécurité titre en représente 80%. - Les objectifs zooms permettent d’ajuster graduellement la distance focale et de passer d’un plan large à un gros plan sans changer la caméra de place. Le zoom, qui désigne donc tout autant l’objectif que le mouvement lui-même, est considéré comme une technique non-naturelle, parce que nos yeux ne peuvent changer de façon différentielle leur distance focale. Dans des endroits où il n’y a pas de place pour installer des rails et un chariot, un zoom très lent peut être une alternative astucieuse au travelling. Un zoom très rapide – ou zoom vif – permet, dans un décor, d’attirer l’attention sur certains objets.
Par exemple, Dans La Couleur de l’argent, on trouve de nombreux zooms lents et rapides. Dans L’Équipée sauvage, une grande variété de zooms est utilisée : lents, rapides, courts, longs, avant et arrière. - Le zootrope est un jouet optique inventé simultanément en 1833 par William George Horner et l'autrichien Stampfer. Se fondant sur la persistance rétinienne, le zootrope permet de donner l'illusion de mouvement. Le zootrope est un tambour percé de dix à douze fentes sur sa moitié supérieure abrite à l'intérieur une bande de dessins décomposant un mouvement cyclique. Le tambour est fixé sur un axe dans sa base inférieure, ce qui permet de le faire tourner. On perçoit les mouvements des séquences animées en boucle en regardant l'intérieur du tambour à travers les fentes pendant la rotation.