lundi, 22 mai 2006 00:00

Le pré-mastering et son anticipation lors du mixage

Écrit par

image033Mémoire sur le pré mastering et son anticipation lors du mixage, par Remee.

SOMMAIRE

INTRODUCTION

I - Historique du Mastering et apparition du Pré-Mastering

A - Historique du Mastering et apparition du Pré-Mastering

A.1-Définition du Mastering

A.2- Historique

II - Les raisons de faire un Pré-Mastering

A - Les compétences requises

B - Un peu de recul

C - Les considérations techniques

III - Les outils et leurs emplois

A - Configuration globale

B - Le système d’écoute

B.1 - Pourquoi une chaîne d’écoute plate est indispensable ?

B.2 - Les pratiques d’écoutes «alternatives» au Pré-mastering

C - Le concept de l’album

D - Les traitements spectraux

E - Les traitements Dynamiques

E.1 - Compresseurs, limiteurs et expanseurs

E.2 - La Macro dynamique

F - La réduction de bruit

IV - Optimiser le processus de mixage en prévision du Pré-Mastering

A - Les Supports

B - L’usage de la compression

C - L’état d’esprit

V – Conclusion

VI – Compléments

A - Les contraintes de la gravure vinyle

B - Le Support CD-R, norme yellow book vs. norme red book

C - Principe d’étalonnage d’un magnétophone analogique

D - Les formats de fichiers audionumériques


INTRODUCTION

Le Pré-Mastering audio est une étape située après l’enregistrement et le mixage, en fin de la chaîne de production audio, c’est la dernière optimisation du projet. Néanmoins, c’est la partie du processus la moins connue tant par les professionnels que par les artistes. Le manque de connaissances à ce sujet peut amener à se poser plusieurs questions :

« Quelle est son utilité ? Pourquoi un individu appelé ingénieur de Mastering toucherait à mon travail que je considère comme étant abouti ? … »

De plus si les personnes agissant en amont de la production audio et plus particulièrement au niveau du mixage ne connaissent pas de quelle façon et dans quelle direction sera finalisé leur projet, des erreurs ne pourront être évités et les bénéfices apportés par une étape de finalisation ne seront pas optimaux.

On peut aussi déduire qu’une activité mal connue est inévitablement victime de préjugés et de fausses interprétations.

Dans ce mémoire, je porterai mon attention sur les moyens d’optimiser la transition entre le mixage et le Pré-Mastering.

En effet, lors d’une séance d’enregistrement, les techniciens concernés agissent toujours en pensant à l’étape suivante, c'est-à-dire celle du mixage. La démarche à suivre devrait être la même au moment de mixer à l’attention du Pré-Mastering. De cette façon, chacun remplit son rôle de façon optimale et le produit peut prendre toute son ampleur.

Pour ce faire il faut donc éclaircir les moyens et les logiques utilisées dans les studios de Mastering et mettre en évidence les bénéfices qu’on en retire.

Après un bref historique, pour « planter le décor », je commencerai par mettre en avant les différents avantages que l’on peut tirer du Pré-Mastering et pourquoi il est indispensable dans la chaîne de production audio. Puis j’expliquerai les moyens utilisés pour perfectionner le projet sonore en faisant un aperçu des outils[1] et de la manière dont s’en servent les ingénieurs de Mastering.

Enfin, je mettrai en évidence les efforts qui peuvent être fait dés le mixage afin de faciliter et de profiter pleinement des améliorations pouvant être apportées lors de la finalisation.

Le Pré-Mastering n’est à priori praticable que par des techniciens dotés d’une longue expérience. Le propos de ce mémoire est de découvrir et d’éclairer une activité, tout en développant les bénéfices qu’elle peut engendrer. Je prendrai aussi position sur les attitudes et les pratiques à adopter en amont de la production audio[2] pour profiter pleinement du Pré-Mastering. Le sujet choisi est le reflet de ma curiosité et de la volonté de travailler en harmonie avec les différents acteurs du milieu de la production audio.


I - Historique du Mastering et apparition du Pré-Mastering

A - Définition du Mastering :

Le Mastering c’est l’ensemble des activités se situant dans la chaîne audio, entre le mixage final de la musique sur un support intermédiaire et son inscription sur un support de distribution. Il constitue les finitions artistiques et techniques avant le pressage d’un album.

Le Mastering d’un CD est l’ultime étape avant la fabrication et la duplication du support commercial. Dans le cas du DVD audio ou du SACD le plus souvent il précède aussi l’étape d’authoring qui consiste à l’intégration de l’environnement graphique et interactif que les acheteurs attendent de ce support.

Pour être plus précis, à l’intérieur même de la pratique que l’on nomme Mastering se trouve le Pre-mastering qui comporte toutes les activités de traitements et d’édition ; le Mastering correspond en réalité au codage à la norme « Red Book » et au processus de fabrication du « Glass Master[3] » qui intervient lors de la phase du pressage industriel.

B - Historique :

Le Mastering en tant qu’activité distincte de l’enregistrement apparaît en 1948 avec l’apparition du premier magnétophone à bande commercial (l’Ampex 200).

Les premiers ingénieurs de Mastering (appelés à l’époque « transcription engineer »), devaient transformer les bandes master provenant des studios d’enregistrement en produits susceptibles de survivre au processus de gravure vinyle (Voir complément A).


Graveuse vinyle

Les premiers studios de Mastering appartenaient aux principales compagnies de disques. La fin des années soixante vit apparaître les premiers studios de Mastering indépendants. Pour se constituer une clientèle, ceux-ci commencent à proposer d’améliorer le son des bandes maîtresses. Cette pratique, appelée à l’époque « Custom Mastering », est peu à peu perçue comme une spécialité prestigieuse (aux États-Unis, 150 praticiens à peine recensés en 1978).Il ne s’agit plus seulement de parer aux limitations de la gravure analogique mais d’intervenir sur certains aspects de l’enveloppe spectrale et dynamique du produit. C’est en quelque sorte la naissance du Pré–Mastering.

Les choix précis et raffinés de la chaîne d’écoute, des hauts parleurs et de la conception acoustique des studios de Mastering, ainsi que le profil de compétence requis par les ingénieurs renforcent la frontière définie entre les studios d’enregistrement et ceux de Mastering.

L’apparition du CD en 1982 précipite le développement du studio de Mastering. Affranchies des compromis imposés par les limitations du vinyle (il n’y a plus de gravure purement mécanique à faire[4]) et les systèmes de reproduction stéréo se généralisant, toute intervention sur le signal n’est plus désormais dictée que par le soucis d’optimiser le son.

Une autre raison du maintien de l’importance du studio de Mastering est que jusqu’à la fin des années quatre-vingt-dix, il était un passage obligé entre le mixage et la fabrication, car les usines n’ont longtemps accepté pour le pressage que des médias audionumériques spécialisés avec une vérification d’erreur complexe (tel que les cassettes vidéos ¾’’ Umatic du système Sony 1630 et les cassettes 8 mm Exabyte du système DDP). Ce type de média nécessitait l’achat et l’entretien d’une machinerie onéreuse et fragile qui sort du cadre des préoccupations d’un studio d’enregistrement.

A partir de la fin des années quatre-vingt-dix les usines de pressage acceptent les CD-R, médium qui par sa qualité limité (voir complément B) est utilisé (aujourd’hui encore) par les productions à petit budget.

File written by Adobe Photoshop® 5.0
Ampex 200

Les studios de Mastering ont longtemps été des environnements exclusivement stéréo ; l’arrivée sur le marché des stations de travail audionumériques (DAW pour Digital Audio Workstation) a permis une extension des possibilités d’intervention en leur donnant accès au mixage stéréo de sources multipistes.

Depuis l’arrivée de nouveaux formats audionumériques (DVD audio/ SACD) les studios de Mastering commencent a s’équiper en surround et en technologie DSD. Néanmoins, pour le moment la tendance est de privilégier le couple stéréo principal.


II - Les raisons de faire un Pré-Mastering

La réalisation d’une œuvre aboutie nécessite forcément une étape de finition.

«Vous pouvez comparer le Mastering d’un CD au travail d’un éditeur qui prend un manuscrit et le transforme en livre. L’éditeur de livres doit à la fois comprendre la syntaxe, la grammaire, l’organisation et le style d’écriture, mais aussi les techniques de reliure, les séparations de couleurs, l’impression sous presse…»[5]

A - Les compétences requises :

En effet, les capacités requises par l’ingénieur de Mastering ne sont pas les même que celles du preneur de son ou du mixeur.

Celui-ci doit pouvoir canaliser sa concentration sur de longues durées de manière à détecter les problèmes les plus subtils, il doit aussi être capable d’identifier et de concrétiser minutieusement les problèmes présents, aussi bien dans le domaine fréquentiel que dynamique. Son expérience, sa culture et sa connaissance de la musique doivent être très développés de manière à rester cohérent avec son époque et le style de musique considéré. Il possède, en principe, une oreille très précise en ce qui concerne la notion de justesse. On se rend bien compte que toutes ces qualités se développent au moyen d’une grande expérience et d’une écoute focalisée sur le moindre détail.

L’ingénieur de Mastering est capable de fournir ce travail car il a les moyens d’être dans la configuration mentale appropriée. On remarque que sa capacité d’intervention est concentrée sur les résultats d’une écoute, et qu’elle n’est pas distribuée sur divers centres d’intérêts.

En amont de la production, le contexte mental n’est pas du tout le même :

- Lors de l’enregistrement, le preneur de son doit tenir compte de l’acoustique des cabines, connaître les caractéristiques des microphones (afin d’en justifier le choix) et savoir judicieusement les placer. Il doit aussi maîtriser le matériel afin de ne pas être freiné par des contraintes techniques, gérer l’ambiance avec les musiciens et les mettre dans les conditions psychologiques pour donner le meilleur d’eux-mêmes….

- Lors du mixage, le mixeur doit être capable de faire une combinaison des amplitudes et des timbres, de gérer la dynamique et l’équilibre spectral. Il doit aussi être judicieux et créatif dans le choix des effets et maîtriser tout son environnement technique, en gardant à l’esprit une image à jour du routing et des périphériques. Bien entendu, le producteur attend beaucoup de lui. L’ingénieur de mixage doit donc répondre à ses demandes, tout en continuant à maîtriser la cohérence technique et artistique du projet (encore de la psychologie)…

Il est bien évident que ceci n’est qu’un aperçu des préoccupations qui incombent aux ingénieurs du son, que ce soit pendant la séance d’enregistrement ou pendant la séance de mixage. On comprend aisément que le contexte technique, humain et artistique égare forcément l’attention qui devrait être apportée au son dans sa globalité ; c’est à cet instant que l’ingénieur de Mastering prend le relais.

B - Un peu de recul !

A l’issue des séances de prise de son, l’ingénieur est dans un état de saturation à l’égard du projet…

Il a écouté à de nombreuses reprises et enregistré le son de toutes les sources, et ceci pour chacune des composantes du projet. Un investissement émotionnel important est inévitable pour faire un bon compromis entre la cohérence technique et artistique. Les considérations subjectives et l’idée que se font les musiciens de la sonorité qu’ils désirent pour leur instrument, rentrent en conflit avec les prochaines sources à enregistrer et l’environnement acoustique. En conséquence, certaines erreurs de jugement apparaissent forcément.

On fait généralement appel pour le mixage à un autre ingénieur. On profite donc de sa fraîcheur vis-à-vis du projet et d’un point de vue différent (La réalisation de cette étape dans un autre studio élargit encore les possibilités).

Ce dernier recherche la meilleure combinaison des pistes enregistrées, de manière à retranscrire l’œuvre de façon optimale. Les heures d’écoutes et les traitements indépendants de chaque piste rendent l’opération de mixage tout aussi éprouvante que l’enregistrement. De plus le luxe de changer et de comparer les titres est rarement accordé, la fatigue auditive s’installe… Selon l’heure à laquelle est mixé tel ou tel morceau, l’oreille est plus ou moins fraîche. En définitive, l’album manquera d’homogénéité, chaque composante de l’album possédera ses caractéristiques acoustiques et parfois des différences frappantes.

On peut comprendre que les deux principales étapes qui précédent le Pré-Mastering, nécessitent un investissement tel, qu’elles ne permettent pas d’éviter certaines erreurs.

L’ingénieur de Mastering est la première personne à considérer le projet dans sa globalité. Il dispose donc d’un recul qui lui permet de pouvoir poser un jugement sur tout les aspects sonores du produit ; il est le seul à pouvoir bénéficier de cette fraîcheur de point de vue. La vision unique dont il profite lui permet de se détacher des erreurs commises tout au long du projet.

C - Les considérations techniques :

Bien entendu, le Mastering ne doit pas être effectué dans le même studio que la prise de son et le mixage. L’environnement technique n’est pas du tout le même, tout repose sur la fiabilité de l’écoute et des outils de traitements.

Un studio d’enregistrement ou de mixage ne peut focaliser tous ses investissements dans la chaîne de reproduction. Les besoins matériels sont beaucoup plus diversifiés. A contrario, le studio de Mastering dispose d’une acoustique parfaitement contrôlée et transparente chose qui semble impossible dans un studio de mixage qui est rempli d’un équipement encombrant.

L’écoute en studio n’est donc pas totalement fiable, certaines erreurs dues à la courbe de réponse du studio s’accumulent. De ce fait, le résultat est le fruit d’un compromis.

C’est lors du Pré-Mastering que ces erreurs seront détectées, la qualité de reproduction sonore agit comme une loupe et permet de déceler les moindres détails du projet. Tout est mis en œuvre pour mettre encore plus en valeur les meilleurs mixages. Les morceaux sont manipulés par une personne expérimentée qui les enchaînera et les révélera sous leur meilleur jour. L’ingénieur de Mastering fera en sorte que l’ensemble soit cohérent et homogène. Il est le seul à posséder les outils pour repérer et supprimer tous les bruits résiduels. De plus il est le mieux placé pour résoudre les défauts de l’équilibre en fréquences et en dynamique. Il possède aussi le savoir faire pour des choix pertinents sur les fade in / fade out, son expérience peut être très intéressante pour le choix de l’ordre des morceaux.

La plupart des traitements utilisés en Pré-Mastering nécessitent des fonctions spécifiques (donc une utilisation spécifique) et chacun des composants doit être de très haute qualité. Certains des appareils présents dans les studios de Mastering ne sont pas présents dans les studios d’enregistrement ou de mixage (car ils sont inutiles à cette étape de la production ou nécessitent un investissement disproportionné par rapport aux priorités). De plus, l’ingénieur de Pré-Mastering sera en mesure de donner à l’usine de pressage un support normalisé et optimisé pour la commercialisation du produit.

Les raisons de faire un Pré-Mastering sont donc nombreuses et le rendent indispensable pour obtenir une production de qualité. Les contingences techniques, matériels et humaines en font une étape incontournable et toute aussi importante que les précédentes.


III - Les outils et leurs emplois

A - Configuration globale :

Aujourd’hui, l’architecture d’un studio de Mastering est souvent centralisée autour une station de travail audionumérique (DAW). Les deux références dans ce domaine sont SADIE (sur PC) et SONIC SOLUTION (sur Mac). L’une comme l’autre gèrent la technologie DSD[6] (direct stream digital), format propre à l’encodage du SACD. Elles offrent un environnement multipiste, et régissent des fréquences d’échantillonnages en LPCM (Linear Pulse Code Modulation[7]) montant jusqu'à 192 KHZ avec une résolution de 24 bits (traitements internes en 64 bits -virgule flottante).

Ces plateformes de travail numériques permettent une conformation précise à la norme Red Book et offre une très bonne ergonomie de montage.

Les supports reçus au studio de Mastering passent à un moment ou à un autre[8] sur le disque dur de la DAW. Selon le choix de l’ingénieur, cette acquisition est réalisée après qu’aient été effectués les traitements, ou en début de séance. Par exemple pour un DAT dont la qualité sonore décroît proportionnellement au nombre de lectures et de rembobinages, il est plus sage d’en faire l’acquisition puis d’effectuer l’optimisation à partir du signal lu sur le disque dur.

Le signal audio peut être envoyé aux traitements par le biais de Patchs numériques et analogiques. Il est donc distribué du disque dur ou du support d’origine aux périphériques et à toutes les configurations possibles.

Le choix d’utiliser des traitements analogiques ou numériques est propre à la situation et au résultat désiré. En fin de séance, le mixage « masterisé » ainsi que conforme à la norme Red Book, sera reporté sur une cassette DDP (8 mm, Exabyte) qui est le support standard à envoyé à l’usine de pressage. Lors de ce report, une réduction en 16 bits 44,1 kHz est effectuée à l’aide de programmes de Dithering complexes. En effet pour améliorer la précision des traitements, l’acquisition est souvent faite en 24 bits.

Dans tout les cas, si l’usine reçoit un autre support, il sera transféré sur une cassette DDP car le lecteur est standardisé dans le rack du « Laser Beam Recorder » (LBR), qui sert à graver le Glass master.

Le monitoring est conçu autour d’une table de mixage (souvent deux ou 4 pistes) ou de modules qui permettent de choisir l’écoute désirée, d’activer des inserts ou de passer d’un réglage de traitement à un autre. Bien sûr, le circuit de monitoring est conçu[9] avec des composants de très hautes qualités qu’il serait impensable d’offrir à une console de mixage ou d’enregistrement à cause du nombre de tranches beaucoup plus imposant. Le tout est accompagné de tous les appareils indispensables tels que le Vu mètre, le crête mètre et l’analyseur de phase…


Module de monitoring Manley - spécialisé Mastering.

- L’architecture d’un studio de Mastering permet donc une bonne ergonomie d’écoute et d’acheminement du signal, et offre à l’ingénieur les moyens pour répondre à ses exigences, ainsi qu’à ses choix aussi bien techniquement nécessaires que personnels -

B Le système d’écoute :


Enceintes Klinger Favre audio.

Le seul outil efficace pour détecter et évaluer les défauts d’une oeuvre sonore est l’oreille. C’est pourquoi les studios de Mastering se doivent d’avoir une chaîne d’écoute la plus fidèle possible.

Au sein du studio de Mastering le Noise Critérium doit être inférieur à 30 dB A ; Il ne doit pas y avoir d’obstacles importants entre les enceintes et l’auditeur, et les sources de diffraction doivent être minimisées.

Les enceintes et l’auditeur sont disposés dans une zone libre de réflexion. C’est-à-dire que le son réfléchi est perçu au moins 20 ms après le son direct et au moins 15 décibels plus bas. Les dimensions de la pièce (nécessairement grande) sont calculées de façon à permettre le développement des basses fréquences sans modes propres (utilisation de diffuseurs et de résonateurs spécialisés) ; les enceintes doivent être placées de façon à être assez éloignées des parois, pour éviter les fréquences de résonances causées par un effet de proximité.

Les enceintes de monitoring bénéficient d’une bande passante très large, d’une réponse en fréquence la plus plate possible[10] ainsi que d’une excellente réponse aux transitoires. La plupart des petits systèmes de monitoring écrasent les crêtes et ne permettent pas de juger de la vraie dynamique du son, c’est pourquoi un Headroom important est indispensable sur des écoutes de Mastering.

Evidemment, pour répondre à toutes ces exigences, l’installation électrique est effectué par un professionnel et le studio de Mastering est soumis à une étude acoustique sérieuse.

L’utilisation de subwoofers est essentielle, ceux-ci permettront de reproduire les infra basses afin de vérifier le véritable contenu dans le bas du spectre et de repérer des bruits qui seraient indétectables si la chaîne d’écoute ne reproduisait pas la partie très basse du spectre (des pops sur la voix, les vibrations d’un microphone…). Tous ces parasites, inaudibles sur des systèmes ordinaires, font travailler la membrane inutilement et peuvent causer un «flou» sur la bande passante retransmise par les enceintes. Le système est parfaitement calibré pour ne pas fausser les jugements émis ; si les subwoofers sont trop forts, le mixage semblera finalement faible en basses fréquences et inversement. On peut alors s’assurer que le morceau aura un bon rendu même sur des systèmes qui descendent bas en fréquence.

On remarque ici que les studios d’enregistrement doivent répartir leurs investissements dans une gamme beaucoup plus variée d’équipement et ne peuvent donc pas accorder toute leur attention aux critères cités ci-dessus. De plus une installation acoustique destinée à l’enregistrement comporte plusieurs cabines prévues pour des sources spécifiques (Batteries, voix…) et prend en compte l’isolation de toutes ces salles entre elles. Sur cet aspect, le studio de Mastering peut se concentrer sur l’unique salle de contrôle et focaliser ses efforts sur la neutralité de son acoustique. Il est d’ailleurs très difficile pour un studio de prise de son de s’affranchir des réflections provoqués par la table de mixage. Ce problème ne se pose pas dans un studio de Mastering ou le matériel, peu encombrant, peut être disposé de manière à ne pas interagir avec la réponse acoustique.

B.1 - Pourquoi une chaîne d’écoute plate est elle indispensable ?

L’ingénieur de Mastering a besoin de détecter les problèmes les plus subtils et de quantifier les erreurs d’un produit ; il a donc besoin d’une écoute extrêmement précise car son intervention a pour but de concrétiser dans la pratique les aboutissements d’une écoute pointue.

Après l’étape de Pré-Mastering on attend que la pièce sonore soit satisfaisante sur la plupart des écoutes « grand public ».

Exemple : Supposons qu’au mixage, le système d’écoute subit un creux vers 250 hertz, l’ingénieur de mixage ajoutera systématiquement quelques décibels aux alentours de ces fréquences. En conséquence, le mixage sonnera mal sur tous les systèmes sauf ceux qui présentent les mêmes défauts que celui utilisé au mixage.

Au niveau du Pré-mastering, qui lui sera effectué avec une écoute fidèle de très haute qualité, on retirera quelques décibels aux alentours de 250 hertz ; le produit sonnera correctement sur tous les systèmes, à l’exception de ceux qui ont les mêmes problèmes que celui du studio de mixage. Néanmoins, comme les auditeurs qui possèdent un système présentant cette défaillance constateront la même déficience sur tous les produits qu’ils écoutent, ils n’attribueront pas d’erreur particulière à ce produit.

Cet exemple montre que même si aucun consommateur (ou presque) ne fera l’expérience d’une écoute plate et dans des conditions optimales, le Pré-Mastering doit être effectué avec un monitoring de très haute qualité pour être adapté au plus grand nombre de systèmes d’écoute.

B.2 - Les moyens « alternatifs » au Pré-mastering :

Certaines pratiques sont censées permettre d’éviter l’étape de Pré-Mastering. Il est important de comprendre pourquoi ces modes de fonctionnements doivent être exclus. Voici quelques exemples des moyens utilisés:

- Écouter le mixage dans différents environnements qui correspondent aux conditions d’écoute de « monsieur tout le monde », notamment dans les voitures, le salon des amis ou la chambre du petit frère… Cette pratique ne permet pas de tirer de bonnes conclusions car la mémoire auditive est une mémoire à court terme, une synthèse ne peut donc pas être faite. Les déficiences pouvant être généralisées à la presque totalité des systèmes d’écoutes de «Monsieur et Madame X» sont les suivantes : la réponse aux extrémités du spectre, un manque de puissance de réserve (Headroom) et la faiblesse de réponse aux transitoires.

Néanmoins le plus gros défaut rencontré sur ce type de matériel, est la non linéarité de la courbe de réponse en fréquence, et plus particulièrement sur ce point, les défauts sont propres à chaque modèle. Il n’est donc pas possible de tirer de conclusion généralisée à tous les systèmes.

- Faire le Pré-Mastering dans le lieu même de la production : dans ce cas il y a de grandes chances d’aggraver la situation, en effet la personne qui procédera de cette façon compensera une troisième fois les déficiences de l’écoute qui a servi à l’enregistrement et au mixage.

- L’utilisation de near field monitor : leur utilisation minimise les effets de l’acoustique de la pièce sans vraiment la rendre transparente. En admettant que les écoutes choisies soient fiables, le problème des basses fréquences resurgit et l’utilisation d’un subwoofer, qui est indispensable à leur reproduction, fera à nouveau ressortir l’acoustique de la pièce.- « L ‘ami Mastering » : cela consiste à soumettre le Pré-Mastering à une personne qui n’a pas les compétences requises et qui ne procède pas à cette étape dans un environnement adéquat (matériel, acoustique…). Il fera donc apparaître de nouvelles erreurs sur la pièce sonore.

- L’écoute au casque : la transmission acoustique n’étant pas la même qu’avec des enceintes, le transfert entre les deux modes d’écoutes sera inefficace surtout au niveau de la stéréo ; de plus le problème des basses fréquences n’est pas résolu par le casque.

En résumé, il semble exclu de trouver des solutions efficaces alternatives au Pré-Mastering ; il en va de même quant à la tentative de réaliser une moyenne des systèmes de qualité « consommateur ». Le seul Pré- Mastering valable s’effectue dans un local approprié et isolé, avec un système d’écoute de très haute qualité qui bénéficie d’une courbe de réponse plate.

C - Le concept de l’album : Parfois les musiciens ont déjà une idée de l’ordre dans lequel ils désirent agencer les titres. Néanmoins, la plupart du temps ils ont besoin de l’aide d’une personne expérimentée pour accomplir cette tâche. La façon dont les chansons sont espacées et enchaînées est très importante pour produire un bon album.

L’ingénieur de Mastering assemble l’album comme un puzzle pour stimuler le plus possible les émotions de l’auditeur. Il sait comment gérer les transitions pour que l’impact soit maximum. On se rend bien compte que la première chanson doit avoir un effet positif et attractif sur l’auditeur, de manière à le mettre dans des dispositions d’esprit qui lui donne envie de continuer son écoute. L’important étant de créer un point culminant et d’amener une fin logique (souvent le dernier titre est intime et laisse l’auditeur relaxé). L’idéal est que la fin vienne d’elle-même, rien de pire qu’un album dénué de chute et qui reste en suspend.

L’espace entre les chansons ne doit sembler ni trop long ni trop surprenant de rapidité. Habituellement, après un « fade out », l’enchaînement sera court car un auditeur dans sa voiture ou dans une pièce bruyante n’entendra pas la fin du fade. Chaque intervalle entre les titres peut être différent car il dépend de l’ambiance crée à ce moment-là et de l’effet voulu. Les stations de travail audionumériques permettent d’essayer facilement toutes les combinaisons et de faire le meilleur choix.

Pour que les enchaînements soient harmonieux, il est souvent nécessaire d’avoir recours à l’édition.

L’édition la plus courante est le fade in/out, ceux-ci permettent d’amener ou de terminer progressivement une chanson. Par exemple si un morceau doux commence trop abruptement, l’ambiance de la pièce dans laquelle jouent les musiciens peut surprendre. Dans ce cas il suffit de faire un fade in pour amener progressivement la sensation d’espace.

Parfois, au contraire il faut allonger la fin. Eliminer des bruits distrayants, qui malheureusement sont présents au moment de la décroissance de l’ambiance, sera choquant pour l’oreille. La solution est d’envoyer la fin de la musique dans une réverbération soigneusement choisie et de l’enregistrer. A l’aide d’un cross fade, il ne restera plus qu’à l’enchaîner correctement avec la fin originale.

Pour des styles acoustiques comme la musique classique, la présence d’une impression d’espace est essentielle entre les plages de l’album. Il est important que l’ingénieur au Pré-Mastering puisse disposer d’échantillons de l’ambiance prise dans le lieu de l’enregistrement.

Son travail consiste aussi à faire en sorte que les niveaux relatifs entre le début d’un titre et la fin d’un autre reste dans le contexte de l’album, dans certaines situations, il peut aussi s’en servir pour créer l’impact recherché.

D - Les traitements spectraux :

L’égalisation est l’outil le plus utilisé : elle permet de combler les défauts causés par les faiblesses de l’écoute des studios précédents. En cas de besoin, elle donne aussi accès à la sculpture d’un profil fréquentiel plus agréable. Il est possible de mettre en valeur certaines sections avantageuses du spectre ou au contraire d’en réduire d’autre moins flatteuses.

Le matériel peut être de type analogique ou numérique, toujours de très haute qualité, souvent en version Mastering, c’est-à-dire avec des potentiomètres crantés pour permettre de répéter des réglages précis. Le déplacement de phase de ces égalisateurs est réduit à son minimum ; la précision dans les choix de la fréquence centrale et de l’amplitude de correction est optimale.


Egalisateur analogique LANGEVIN Pultec EQ-P1A

Tous les égalisateurs, qu’ils soient numériques ou analogiques entraînent une distorsion de phase qui varie selon les réglages et les fréquences. Récemment un type de filtre numérique appelé Symmetric FIR[11] Filter est apparu. Celui-ci, malgré les réglages, introduit sur tout le spectre un déphasage constant. Il peut donc éliminer le délai induit et accorder un respect total au son. Bien sûr, les correcteurs analogiques haut de gamme peuvent donner une couleur agréable à un mixage, le choix est à faire selon les situations rencontrés.

Les techniques d’égalisation au sein du Studio de Mastering sont totalement différentes de celles qui sont utilisées en mixage ou en prise de son. En effet lors du Pré- Mastering chaque utilisation d’un traitement spectral s’applique à la totalité du mixage. Enlever quelques dB à une certaine fréquence peut en faire ressortir d’autres qui sont peut être indésirables. Par exemple Il est possible, si la basse à besoin d’une égalisation, qu’une fois appliqué le traitement soit efficace pour cette dernière, mais nuise à la grosse-caisse par la même occasion…


Egalisateur numérique Weiss EQ1-MK2

- Voici les principaux types d’égalisation que l’on trouve en studio de Mastering :

Le correcteur paramétrique est le plus prisé en Pré-Mastering ; il autorise le choix de la fréquence centrale, de la largeur de bande et du niveau d’augmentation ou d’atténuation. Son utilisation permet d’opérer « chirurgicalement » pour résoudre certains problèmes (comme par exemple une résonance). C’est le seul à pouvoir être si précis grâce à son réglage de largeur de bande appelé facteur « Q ». Plus ce facteur est haut, plus la portion du spectre touchée autour de la fréquence centrale est étroite.

Le choix du « Q » dépend de la situation. A L’oreille, une égalisation faite sur une bande large sera moins choquante. L’utilisation d’une largeur de bande très étroite sera nécessaire pour éliminer une résonance, une fréquence gênante ou même agir sur une seule note. Un facteur « Q » élevé est aussi très efficace pour égaliser un instrument sans nuire à un autre. Par exemple une égalisation classique faite sur la basse pour la rendre plus puissante agira peut être aussi sur la résonance de la grosse caisse ; réduire la largeur de bande jusqu'à ce que la grosse caisse ne soit plus affectée évitera ce problème. Par ailleurs, le paramétrique est d’une aide précieuse pour trouver une fréquence de résonance. La méthode, également utilisée en mixage, est de fixer le « Q » au maximum, monter le gain et balayer les fréquences jusqu'à arriver sur la fréquence gênante. Une fois « l’intrus » identifié, il suffit de trouver l’atténuation et la largeur de bande adéquates.

Les correcteurs de type shelved (plateforme) servent à amplifier ou atténuer toutes les fréquences basses ou hautes, avant ou après une fréquence fixée. Les réglages disponibles sont donc le gain, la fréquence et la pente en dB par octave. Lorsque le niveau de« boost » ou de « cut » fixé est atteint, la courbe se stabilise ; en quelque sorte une limite d’atténuation ou d’amplification est établie. Certains shelved possèdent aussi un réglage du facteur « Q » ; il correspond à la raideur de la pente pour arriver à la fréquence de coupure à -3 dB. Le shelve peut jouer un rôle important car il permet de réduire ou d’augmenter plus ou moins progressivement une catégorie de fréquences dans les extrémités du spectre.

Le Baxandall est proche du Shelf à l’exception qu’il ne se finit pas en forme de plateau mais continue à atténuer ou à amplifier. L’action du Baxandall est croissante de manière assez douce, et correspond mieux aux désirs de l’oreille qu’un Shelf standard.

Le filtre coupe haut ou coupe bas élimine tout signal dans le haut ou dans le bas du spectre à partir de la fréquence désirée, si besoin avec une pente très raide. Il est employé parfois en Pré-Mastering pour éliminer des bruits dans les très basses fréquences si elles n’ont pas pu être contrôlées lors des étapes précédentes, ou dans les hautes fréquences pour éviter du souffle. Néanmoins l’oreille étant plus sensible au souffle vers les 3 kHz, d’autres moyens qui seront explicités ultérieurement sont mieux adaptés pour en venir à bout.

Il est essentiel de ne jamais oublier que le traitement d’une catégorie de fréquences interagit toujours avec une autre.

- Majorer les extrêmes aigus peut faire paraître le bas médium moins puissant.

- En retirant des basses fréquences, des fréquences plus hautes qui étaient auparavant masquées réapparaissent ; au contraire ajouter des basses peut faire sembler les aigues faibles.

- Rendre le son d’un instrument plus « chaud » peu réduire sa présence…

Il convient de ne pas monopoliser sa concentration sur un seul élément et de toujours réétudier l’effet que peuvent avoir les traitements sur d’autres sources que celle qui est observée.

Pour être le plus complet possible d’autres paramètres rentrent en ligne de compte. En général l’égalisation s’applique sur les deux canaux par soucis de garder une image stéréo harmonieuse. Néanmoins, s’il est nécessaire de modifier la Ride qui par exemple se trouve à gauche, pourquoi devrait-on faire subir au Charley qui est à droite et au saxophone qui est au milieu une correction dont ils n’ont pas besoin ? Dans ce cas il est judicieux de n’appliquer le traitement que sur le canal gauche. Il en va de même si un instrument fait un solo, mais que celui-ci ne ressort pas assez. Par exemple dans le cas d’une guitare qui est localisé à gauche, il serait plus adapté de faire l’égalisation sur le canal de gauche, uniquement au moment où l’instrument fait le solo et seulement sur les fréquences qui renforcent soit les fondamentales soit les harmoniques de celui-ci (dans certain cas, on peut renforcer les deux à condition de le faire avec habileté pour ne pas dénaturer le signal).

Les traitements dynamiques peuvent aussi avoir un effet sur le contenu en fréquence. Dans la prochaine partie, nous allons faire une présentation globale de la logique d’utilisation des traitements dynamiques en Pré-Mastering.

E - Les traitements dynamiques :

La dynamique se divise en deux catégories :

- Les écarts de niveau entre les différentes parties du morceau (appelée macro dynamique).

- Les transitoires qui crées l’expression rythmique de la musique (appelée micro dynamique)[12]

La première catégorie citée, se contrôle de manière plus appropriée en faisant du « gain riding » (suivie de niveau manuel). Les processeurs comme les compresseurs et les expanseurs sont plus particulièrement adaptés à la micro dynamique.

E.1 - Compresseurs, limiteurs et expanseurs :

Les plus courants sont les compresseurs abaisseurs. Ils atténuent le signal lorsque celui-ci dépasse un certain seuil. Leur utilisation amène une modification volontaire du signal, bien manipulés ils peuvent apporter un plus considérable à un enregistrement.


Compresseur/limiteur analogique Manley

Les intonations rythmiques de la musique peuvent être perdues si le signal est compressé de manière inadéquate. Par contre, bien utilisée, la compression peut créer des accentuations différentes et plus variées sur la musique, tout en diminuant celles qui sont prédominantes. Une réduction trop importante de la dynamique ramène tous les éléments au même plan ; il en résulte une perte de profondeur et de sensation d’espace.

Si le réglage d’attaque est trop court, il nuira à l’impact crée par les percussives, si le release (relâchement) est trop long, le retour au niveau original du signal sous le seuil sera trop lent…

L’ingénieur de Mastering doit donc effectuer les réglages avec parcimonie et ne se fier qu’à ses oreilles. Le but est de placer le seuil entre les niveaux les plus hauts et les niveaux moyens afin d’obtenir une alternance entre signal compressé et non compressé.


Processeur de dynamique Weiss DS1 MK2
Le processeur de dynamique DS1 MK2 est un des rare à utiliser deux réglages de release simultanément. L’utilisateur fixe une constante de temps (par exemple 70 ms), au-dessus de la valeur choisis, le signal subira un release lent (sons tenus) et au dessous un release rapide (transitoires). En conséquence, la compression est bien plus naturelle.

Le limiteur est conçu pour travailler sur des constantes de temps très courtes, il permet de gagner du niveau subjectif en écrêtant les transitoires inaudibles. Pour ce faire, l’attaque doit être très rapide et le release relativement court. Il faut savoir que plus le release est court plus le risque de distorsion est pris. Avec un réglage de release court, l’appareil (compresseur ou limiteur) essayera de suivre les signaux distincts que comporte le mixage au lieu de considérer l’enveloppe globale de la musique. Les seuls limiteurs efficaces avec un release très court intègrent un auto release ; la valeur de release s’adapte, elle augmente lorsque la durée de limitation est supérieure à quelques millisecondes. Un limiteur n’est pas fait pour travailler sur le niveau RMS (moyen) de la musique. Sa conception le destine à travailler sur des constantes de temps courtes. Bien sûr l’idéal est de ne pas utiliser de limiteur. Dans certains cas, à l’aide de la station de travail audionumérique, il est possible d’éditer des réductions de gain sur des transitoires très brèves (quelques samples).

Le choix de la compression multi bandes peut être judicieux dans plusieurs cas. Voici quelques exemples :

- Si l’on veut agir sur le couple basse/grosse caisse sans moduler d’autres éléments.

- Si l’on veut donner du punch aux accents des sons continus tout en préservant les transitoires qui se trouvent principalement dans les aigues.

- Si l’on veut contrôler des sibilantes (généralement entre deux et huit KHz), on se servira d’une bande de fréquence très étroite.

Lorsque les instruments ont besoin d’être modifiés à tous les niveaux, alors il faut utiliser l’égalisation. La compression multi bandes intervient dans le cas ou l’on désir modifier des parties du spectre à un niveau spécifique. Néanmoins, pour ne pas dégrader le signal, il ne faut pas utiliser plus de deux bandes. Au-delà les déplacements de phase deviennent gênants et l’effet perd plus naturel.

File written by Adobe Photoshop® 5.0
Plug-in C4 de WAVES, processeur paramétrique multi bandes

L’expansion est un autre procédé utilisé en Pré-Mastering. Il permet d’abaisser les niveaux faibles mais aussi d’accentuer les niveaux forts et d’exagérer les transitoires. Il peut redonner de l’impact à des percussives trop étouffées. Contrairement aux compresseurs, son action est dirigée vers le mouvement naturel de la musique. Utilisé avec un limiteur, il faut alors vérifier que la limitation ne soit appliquée qu’aux transitoires inaudibles et n’annule pas l’effet de l’expansion.

A l’aide d’une station de travail audionumérique, il est possible de changer la micro dynamique en faisant de l’édition manuelle. Les logiciels actuels permettent de travailler sur de très petites valeurs de temps. Il est donc envisageable de modifier l’enveloppe de certains signaux sans l’usage d’un processeur de dynamique.

E.2 - La Macro dynamique :

Un morceau avec trop peu de mouvement sera ennuyeux, fatiguant et ne reproduira pas forcément l’émotion voulue par les musiciens. Pour apprécier au maximum un passage énergique, rien de tel que de l’opposer à un autre beaucoup plus calme et inversement.

D’autre part, trop de dynamique tue l’effet plaisant qu’elle peut apporter. Il faut savoir que l’environnement classique d’écoute des consommateurs ne permet pas d’apprécier des écarts trop importants. Certains détails de niveaux beaucoup plus bas en volume risqueraient de passer inaperçus. Réaliser une écoute en ajoutant les bruits inhérents à l’environnement de la vie réel, serait un moyen de connaître les limites à ne pas dépasser.

Il est donc primordial de contrôler la macro dynamique et de savoir juger quels sont les modifications à apporter.

Les changements de niveau peuvent être effectués entre les titres ou à l’intérieur même d’un morceau.

Le but étant de créer des contrastes pour améliorer l’impact de la musique. Les variations de niveau entre les différentes parties doivent être amenées de manière musicale et donc très progressivement. Le suivi à la main est moins agressif que les compresseurs ou expanseurs et évite de subir les effets intrinsèques à l’électronique de ces appareils. L’objectif est de suivre les mouvements dictés par le jeu des musiciens, donc de les exagérer si le morceau a besoin de gagner en émotions, ou de les réduire si les écarts manquent de cohérence.

Il est aussi possible de jouer sur l’espace avant un morceau pour que l’oreille, après s’être habituée au silence, soit surprise par l’entrée en puissance de la musique. L’impact ou la cohérence peuvent également être optimisés en jouant sur les niveaux de début et de fin des différentes compositions.

Une façon très répandue de travailler consiste à traiter d’abord le passage le plus intense du titre. Une fois satisfait du travail réalisé, l’attention peut être dirigé vers les parties plus calmes. Cette méthode permet d’éviter de trop augmenter les passages les plus soutenus et de les traiter excessivement.

Pour conclure la partie consacrée aux traitements dynamiques, on peut affirmer que leur utilisation nécessite du savoir faire et une extrême précision. Dans le cas contraire « le remède est pire que la maladie »… Il va sans dire que depuis les années 90, certains styles de musiques commerciales sont victime d’une quête de volume qui est néfaste pour la qualité sonore et pour le confort d’écoute. Lorsqu’un ingénieur de Mastering travaille sur un projet de ce type, cette « guerre du volume » le contraint à faire des compromis lors du traitement de la dynamique. Les limites étant désormais atteintes, nous sommes maintenant en droit d’espérer un retour à une dynamique plus naturelle, espoir soutenu par l’arrivée du SACD, qui, pour des contraintes d’espace et d’encodage informatique, ne permettra pas un niveau sonore trop important (un peu comme à l’époque du vinyle…).

File written by Adobe Photoshop® 5.2

F - La réduction de bruit :

Parfois une simple égalisation est suffisante. Par exemple, une basse qui introduit un morceau subit un souffle, ce souffle sera masqué lors de l’entrée des autres instruments. Dans ce cas, un filtre aux alentours de 3 à 5 kHz[13], activé seulement pendant l’introduction, sera probablement adapté. Bien sûr les harmoniques de la basse seront quand même affectées, il faut donc évaluer les conséquences avant d’effectuer le bon choix.

En utilisant un logiciel, il est possible d’éliminer des pops excessifs sur la voix. La solution sera d’automatiser un filtre coupe bas (souvent sous 100 Hz) qui agira seulement sur l’instant très court ou l’on entend le pop. De cette façon, le filtre appliqué peut être transparent pour l’oreille.

Dans le cas d’une compression excessive à l’enregistrement qui aurait rendu gênant le bruit de fond des appareils électroniques, l'emploi d’un expanseur multi bandes (vers le bas) peut être efficace. Centrée aux alentours de 3-5 KHz, une atténuation de quelques dB avec un release et une attaque appropriée permettra de rendre le souffle imperceptible. Dans tous les cas, il n’est pas nécessaire d’éliminer complètement le souffle, car il est rendu imperceptible avec une simple atténuation. L’oreille a la propriété de pouvoir séparer automatiquement la musique du bruit de fond, de plus le risque qu’un bruit en cache un autre n’est jamais écarté.

Si l’usage de procédés simples comme l’expansion et l’égalisation n’est pas efficace, d’autres moyens dédiés à la réduction de bruit existent.

Sonic solutions No Noise est un système permettant l’insertion de nombreux filtres qui travaillent en très haute résolution, sur des bandes de fréquences très étroites. Après avoir fait une analyse FFT du bruit de fond il est capable de savoir quels sont les filtres utiles à insérer. Dans le cas ou il est possible de prélever un échantillon du bruit, certains systèmes comme Backdrop ou Cedar font une analyse de cette empreinte et sont capables de l’éliminer sans altérer le reste du signal audio. Il existe aussi des systèmes dédiés pour chaque type de bruits, comme les clics, les craquements, les buzz, le souffle, les bruits réguliers ou aléatoires. Chacun a besoin d’un algorithme bien spécifique.


CEDAR pour SADIE

Tous ces systèmes nécessitent des ressources DSP importantes. Par exemple un « decracker » est en fait un declicker qui détecte et fait une interpolation de toutes les composantes du « crack », l’opération est donc lourde…

Les bons systèmes de Pré-Mastering tel que Sonic solution et Sadie possèdent les outils nécessaires pour éliminer manuellement différentes sortes de bruits. En sélectionnant la partie gênante, Ils permettent de suturer par interpolation la forme d’onde récalcitrante, et même de remplir des trous très brefs, de manière inaudible.

Conclusion

Pour conclure cet aperçu des principaux outils dont dispose un studio de Mastering on peut affirmer qu’ils diffèrent plus par leur utilisation que par les machines elles mêmes. En effet, lors des traitements au Pré-Mastering, l’enveloppe globale du signal doit être prise en compte et non chaque source ou groupe de sources individuellement. Le but de l’optimisation n’est pas de « remixer » mais de réparer certaines erreurs et de polir l’ensemble de l’œuvre pour la faire accéder à son meilleur niveau. Bien sûr « la matière première » doit être issue d’une bonne prise de son et d’un bon mixage ; dans le cas contraire le Pré-Mastering ne sera qu’une session de rattrapage pour rendre le projet « moins pire » voir acceptable.

CREATOR: gd-jpeg v1.0 (using IJG JPEG v62), quality = 85
L'emploi des outils à pour ambition de rendre l'ensemble homogène, de pousser au maximum les qualités et l'émotion de la musique et de faire en sorte que le produit soit correct dans la plupart des environnements d'écoute


IV - Optimiser le processus de mixage en prévision du Pré-Mastering

Le Pré-Mastering étant la dernière optimisation technique et artistique du projet, une des préoccupations des ingénieurs du son travaillant en amont de la production, devrait être de préparer et réaliser leur travail en tenant compte de cette phase, de façon à profiter pleinement des bénéfices que le Pré-Mastering peut apporter.

A - Les Supports :

Les supports acceptés par le studio de Mastering sont nombreux. Voici les plus utilisés dans le milieu professionnel :

- La bande analogique un quart / un demi pouce.

- Le DAT (digital audio tape).

- le CD-R /le DVD Rom/ le Disque dur.

Selon le format sur lequel le mixage final est couché, certaines précautions sont à prendre.

La bande analogique :

Lors de la lecture au studio de Mastering, l’ingénieur doit étalonner son magnétophone pour relire la bande dans les mêmes conditions qu’a l’enregistrement. Les informations nécessaires pour qu’elle puisse être relu dans les conditions optimales sont : la vitesse de défilement, la valeur de référence du flux magnétique (en nw/M) , le type de correction (NAB, CCIR…), le format (1/4 de pouce ou ½ pouce) et la largeur de l’entrefer (2, 4, 6 micromètres).

L’étalonnage (voir complément D) nécessite aussi que des Reel tones soient enregistrés au début de la bande (en général des fréquences de 100 Hz, 1KHz, 10 KHz et 16 KHz). Bien entendu le niveau auquel les Reel tones ont été enregistrés doit être indiqué. Pour laisser le champ libre à la personne effectuant le Pré Mastering, il est important de laisser des amorces de quelques secondes entre les morceaux et en début de bande. Dans le cas de l’utilisation d’un réducteur de souffle Dolby[14], un « dolby tone » doit être mis sur la bande pour permettre de savoir à quel niveau il a été utilisé.

Au moment de coucher le mixage il est important de faire plusieurs copies de sécurité. Chaque génération de copies nuisant à la qualité sonore, la bande envoyée au Pré-Mastering devra donc être une des répliques originales.

Le DAT :

Pour comprendre les précautions à prendre avec le DAT, il est utile de connaître son principe de fonctionnement et ses défauts.

Les débuts du DAT remontent à 1987. À l’origine, le DAT a été conçu pour le grand public. À l’époque où le graveur de CD n’existait pas, il permettait de faire des copies de qualité CD. Le DAT est un appareil à tête rotative qui permet l’accès rapide aux plages. Il bobine à 200 fois sa vitesse nominale. Il gère les fréquences d’échantillonnage de 44,1 et 48 KHz et une résolution de 16 bits. Pour pouvoir trouver l’ID des plages, les têtes sont en contact permanent avec la bande pendant les phases de défilement rapide.

L’usure des bandes est donc très importante et la qualité sonore diminue proportionnellement aux nombres de lectures et de bobinages rapides.Le tambour qui entraîne la bande tourne à 2000 tours par minute et la bande avance de 8, 15 millimètres par seconde. Toute la largeur de la bande est réservée aux pistes de données, sauf deux pistes analogiques longitudinales optionnelles qui servent aussi de marge de sécurité.

Les concepteurs ont cherché, vu l’orientation grand public du produit à obtenir le plus de densité d’informations numériques (176 kilobits par millimètre carré) pour ne pas augmenter la taille de la cassette. Cette densité rend le DAT sujet à de nombreuses erreurs au sein des blocs numériques.

Il est donc évident que le DAT n’est pas le support idéal, néanmoins il est largement répandu dans le milieu de l‘audio professionnel et à l’avantage d’être peu coûteux.

La méthode à suivre pour se préserver des défauts du DAT est de coucher le mixage sur le DAT vierge, de le rembobiner et de l’envoyer au studio de Mastering sans le relire. La tentative de faire un assemblage dans l’ordre des titres est à exclure, il est plus judicieux de laisser cette tâche à l’ingénieur de Pré-Mastering qui pourra le faire très facilement.

Il est conseillé de mettre un START ID qui servira de repérage avant chaque plage. De même une amorce d’environ 2 minutes doit se trouver au début de la bande car c’est à cet endroit que la bande sera abîmée en cas de mauvaises conditions. Le DAT doit être mis en enregistrement au moins dix secondes avant le début de chaque morceau, cela évitera d’éventuelles erreurs de codage, qui seraient dues au temps d’accrochage dont à besoin le DAT pour se synchroniser. Avant d’envoyer la cassette, il faut s’assurer d’avoir une copie (faite en sortie de console : 1ère génération).

CD-R / DVD-ROM et disque dur :

Il est possibles d’envoyer au Pré-Mastering les fichiers audio sous forme de données informatiques, sur un CD-R, un DVD-ROM ou stockées dans un disque dur. La norme Red Book utilisée pour graver les CD-audio, est susceptible de subir un nombre d’erreurs beaucoup plus important que la norme Yellow Book utilisée pour stocker des données informatiques (voir complément B).

Le choix du CD de données est donc plus judicieux pour envoyer au Studio de Mastering[15]. Certaines précautions sont à prendre pour organiser et optimiser la qualité du support.

Les formats de fichiers audio conseillés sont l’AIFF, le WAV, le BWF et le SDII. En effet, ces formats ne subissent pas de compression de données informatiques et sont standards dans le domaine de l’audio. La compatibilité entre les stations de travail audionumérique est donc optimisée.

Pour permettre un bon repérage, les fichiers doivent être titrés correctement, les numéros de plage proposés, peuvent être indiqués en deux chiffres au début du nom de chaque fichier. L’utilisation d’un CD vierge de haute qualité diminue les risques d’endommager les données.

La notification sur le disque doit se faire avec un marqueur à pointe douce et sur les emplacements prévus à cet effet (surface protégée). Dans le cas contraire une dégradation des données peut se produir. Pour une meilleur compatibilité entre les plates-formes numériques (particulièrement entre PC et MACINTOSH), les caractère spéciaux sont à éviter (les tirés, les slashs, les accents, les parenthèses…).

Dans le cas ou l’enregistrement et le mixage se font en 24 bits, le meilleur moyen d’optimiser la qualité est de ne pas faire de réduction en 16 bits. Le plus souvent, l’acquisition faite au Pré-Mastering est en 24 bits. Livrer des données directement en 24 bits évitera une conversion, donc sera forcément bénéfique à la qualité du son. De plus, faire la réduction en 16 bits / 44,1KHz à la fin de l’étape de Pré-Mastering permet de profiter des algorithmes de Dithering haut de gamme, qui font partie du matériel requis par un studio de Mastering, et de tous les bénéfices de la haute résolution.

Le stockage des pistes sur disque dur pour l’archivage de la musique n’est pas fiable. En effet, le disque dur étant un support fragile, en tout cas pas assez robuste pour qu’on soit sûr de pouvoir le relire dans dix ans. De plus si le mixage est gardé sous forme d’une session de tel ou tel logiciel, rien ne garantit que dans dix ans, la session soit compatible avec les nouvelles versions du logiciel, ou même, que celui-ci existe encore. Son comportement imprévisible et sa relative fragilité ne permet pas non plus de prendre le risque qu’on l’emploi pour la sauvegarde de la réduction stéréo (ou multi-canal 5.1 voir plus) du mixage final. Dans le milieu de l’informatique tout change vite : les formats, les connecteurs, les principes de fonctionnement… L’incertitude sur la pérennité d’un tel média lui confère un rôle bien particulier, qui n’est pas celui de porter l’œuvre tout au long de son voyage dans le temps.

Pour s’assurer de pouvoir remanier à n’importe quel moment la matière première de l’enregistrement et « remasteriser » la pièce sonore, une copie des pistes sur bande analogique ou numérique est la seule garantie. En effet, si elle est conservée dans de bonnes conditions, la bande est aujourd’hui le support sonore le plus fiable. Si le média utilisé pour le Pré-Mastering est un disque dur, il faut au minimum faire une copie du mixage stéréo sur DAT et selon les moyens dont on dispose, un report de toutes les pistes sur un magnétophone à bande analogique ou numérique haut de gamme.

Pour éviter une perte de temps inutile, il est important de joindre au support les renseignements utiles pour faciliter le travail de Pré-Mastering.

Les informations primordiales à ne pas oublier

Artistes/groupe.

Non de l’album.

Label d’enregistrement + adresses et numéro de téléphone.

Ingénieur du son et assistant (+contact).

Producteur (+contact).

Date de remise au Pré-Mastering.

Ensuite doivent apparaître le nom et la durée de chaque titre, accompagnés des suggestions pour le Pré-Mastering. La direction que l’on souhaite prendre et l’idée qu’on se fait des optimisations envisageables doivent être communiquées. Si certains détails originaux sont intentionnellement gardés au début ou à la fin d’un morceau, il faut les signaler dans les commentaires pour qu’ils ne soient pas supprimés lors de l’édition.

- En complément de toutes ces informations, il faut ajouter celles qui sont propres au support utilisé :

Pour les bandes analogiques :

- Numéro de bobine- Format de bande (1/2‘’ – 1/4‘’)

- Standard d’égalisation (NAB, CCIR)

- Vitesse de défilement (76 cm/sec – 38 cm/sec)

- Niveau de référence en nano Weber (320 nwb/M – 270 nwb/M…)

- Les fréquences de test, leurs emplacements sur la bande et le niveau auquel elles ont été enregistrées (….. FR en début / fin de bande à 0 VU)

- L’utilisation ou non d’un système de réduction de bruit (si un réducteur de bruit est utilisé à l’enregistrement, il doit aussi l’être à la lecture)

Pour les supports numériques :

- Fréquence d’échantillonnage

- Résolution

- Format de fichier et mode de gravure. (WAV – ISO…)

- Numéro du disque dur ou du CD-R

Par sécurité, en plus d’inscrire ces informations sur un support papier, elles peuvent aussi être enregistrées dans un fichier texte. De cette façon, aucun risque de les perdre !

B - L’usage de la compression :

La compression atténue les mouvements de la musique et appauvrit le contenu en transitoires. Parfois cet effet est souhaitable, mais il est très facile d’en « faire trop ». Si la compression est mal ou trop utilisée, la musique manque de respirations et l’écoute devient fatigante.

Il est important de connaître le son naturel des instruments. Avant d’utiliser les traitements dynamiques la meilleure chose à faire est de mixer sans aucun compresseur. Cette démarche permet de découvrir dans quel but cet appareil a été crée. De ce fait, il deviendra donc naturellement un outil pour résoudre des problèmes qui ne peuvent être résolus par des mouvements de faders. Avant de modifier le signal, il faut apprendre à connaître la dynamique et l’impact naturel des instruments de musique. Moins de compression offre un son plus ouvert et plus musical.

A chaque mixage, il faut se méfier des idées préconçues. Même si neuf fois sur dix la basse à besoin de compression, effectuer cette compression de façon systématique est une mauvaise habitude. Chaque traitement doit être appliqué si cela est justifié, après avoir effectué une écoute attentive du son de l’instrument, et non par automatisme. Faire une comparaison entre le signal modifié et le signal original est parfois surprenant (comparaison A/B), seule l’oreille peut juger.

Certaines questions doivent se poser : « Est-ce que le son prend de l’ampleur ? Suis je en train de perfectionner la sonorité originale de l’instrument ou de créer un nouveau son ? Est ce que le son de la prise nécessite vraiment des modifications ?… »

La compression est utilisée pour que les différentes sources prennent une place appropriée dans le mixage. Après avoir inséré des traitements dynamiques sur les instruments, pour faire un bilan du résultat obtenu, il suffit de les « bypasser » un par un. Si certains détails rythmiques ou certaines subtilités ont disparu, il faut revoir à la baisse les compresseurs utilisés ou modifier les réglages éventuellement trop radicaux.

Commencer à mixer sur l’apogée du morceau est un moyen de ne pas aller contre la dynamique naturelle de la musique. Une fois que les réglages sont satisfaisants et que l’impact voulu est obtenu, le travail peut se faire sur les passages plus doux. De cette façon, le risque de compression excessive est amoindri. Si le niveau subjectif semble trop bas, ce n’est pas un problème car l’ingénieur au Pré-Mastering pourra l’augmenter avec beaucoup moins de dégâts qu’on pourrais le faire au mixage. Ainsi, les possibilités qui s’ouvriront à lui seront beaucoup plus importantes que s’il reçoit un mixage sans profondeur et présentant des pics d’intensités écrasés.

Les compresseurs intégrés au bus L /R de certaines consoles de mixages ne sont pas adaptés pour faire un traitement sur l’enveloppe globale de la musique. En cas d’utilisation, il faut prendre soin de fixer une attaque et un release très long et de très peu compresser. Au moment d’envoyer le mixage au Pré-Mastering, il est primordial de faire parvenir la version avec le bus L-R traité et la version avec le bus L-R non traité. Cette démarche laissera libre choix à l’ingénieur de Mastering et le projet n’aboutira pas dans une impasse. Par ailleurs, les modifications qu’il apportera seront placées dans le contexte de l’album, et serons différentes pour chaque morceau. Les décisions de ce type sont donc à prendre au moment du Pré Mastering, pour une optimisation finale de chaque morceau par rapport à l’œuvre entière.

En photographie, il est toujours préférable de travailler à partir des négatifs. Il en est de même pour le son. Le projet envoyé au Pré-Mastering doit être un clone du mixage et non une version compressée, qui ne permettra pas d’en tirer le meilleur.

De même, tous les titres doivent être envoyés non édités. Le montage et la réalisation des Fades seront faits au Pré Mastering. Il est aussi conseillé d’avoir des échantillons sonores de quelques secondes des locaux dans lesquels l’enregistrement à été effectué. Grâce à cette marge de manœuvre, l’ingénieur de Mastering aura la possibilité de créer des ambiances entre les morceaux, de résoudre tous les problèmes de bruits parasites et d’enchaîner les titres de la meilleure façon possible.

C - L’état d’esprit :

À l’origine, le monde de la production audio est régi par certaines règles. Chacun possède un rôle et les acteurs de chaque domaine travaillent de façon complémentaire, avec l’objectif d’offrir à l’œuvre les meilleurs conditions pour exprimer les émotions et les sensations qu’elle peut procurer.

Première étape : la prise de son ; chaque instrument, ou groupe d’instruments de musique est capturé de la manière la plus naturelle et transparente possible. Certaines décisions artistiques sont tout de même prises pour aller en direction de la sonorité désirée.

Deuxième étape : le mixage ; une balance des timbres et des niveaux est faite, chaque instrument prend sa place de façon adaptée. Les différents plans sonores sont renforcés ainsi que la profondeur et l’ampleur du son.

Troisième étape : le Pré-Mastering ; le son est considéré dans sa globalité et dans le contexte de l’album. Cette vision du projet permet d’y apporter les finitions utiles et de donner encore plus d’impact à l’œuvre. Ce maillon précède directement le pressage et la commercialisation de l’œuvre.

Aujourd’hui certains problèmes de cohérence apparaissent entre les différents domaines.

À l’enregistrement, les traitements ne sont parfois pas appliqués de manière strictement technique. Le son est déjà modifié et ferme la porte à certaines possibilités ultérieures. Dans ce cas, la matière première n’est pas adaptée, les choix laissés pour la suite sont moins nombreux. Au contraire, il arrive que le son enregistré ne soit pas convaincant et l’on entend dire : « c’est pas grave, on arrangera ça pendant le mix ! »

Au mixage, certains problèmes sont repoussés à l’étape suivante ; l’ingénieur qui n’arrive pas à se satisfaire de sa balance, laisse des défauts. Son travail n’est donc pas achevé, mais le problème est repoussé à plus tard… au Pré-Mastering. Il est aussi possible que l’ingénieur de mixage en fasse trop et empiète sur le travail de Pré-Mastering. Par exemple, en compressant le bus L-R, en réduisant excessivement la dynamique des signaux ou en éditant les fins et débuts de titre.

Arrivé au Pré-Mastering, si les tâches de chacun n’ont pas été respectées, on doit réparer les défauts du mixage, (ce qui n’est d’ailleurs pas toujours possible). On oublie donc les raisons même pour lesquelles le Pré-Mastering existe et, au lieu d’optimiser la sonorité de l’album, un temps considérable est perdu à essayer de compenser des erreurs qui auraient pu être évités lors des phases antérieures.

Bien entendu le schéma ci-dessus est le plus catastrophique que l’on puisse envisager. Néanmoins, il existe. Si chacun repousse ses responsabilités à plus tard, le résultat final sera forcément le fruit de multiples compromis et n’atteindra pas la qualité espérée. En procédant de la sorte, dans quelques années, le Pré-Mastering sera effectué dans l’usine de pressage…

De plus, paradoxalement, chacun empiète sur le travail de l’autre. Si les deux erreurs sont cumulées, au niveau du Pré-Mastering, l’ingénieur doit réparer les erreurs des étapes précédentes. Et pour ne rien arranger, il n’a pas la possibilité de faire correctement son travail car il a été commencé par une autre personne !

Cette vision pessimiste permet de mettre en valeur les choses à faire et surtout celles qui sont à ne pas faire. L’important au mixage est d’obtenir un bon résultat. Il faut que le son respire, que l’on distingue chaque élément et que la musique prenne toute son ampleur. Au final, on doit tout simplement pouvoir être fier de son travail.

Chaque acteur de la production audio doit comprendre, que le travail qu’il effectue est dicté par une évolution logique. Les techniciens de chaque domaine apportent leur pierre à l’édifice. Des intérêts communs étant en jeu, il est important d’effectuer un travail de collaboration.


V – CONCLUSION

Le Mastering était à l’origine un moyen de pouvoir procéder dans de bonnes conditions à la gravure vinyle. Avec l’arrivée des formats numériques, il à donnée naissance au Pré-Mastering, qui ouvre la possibilité d’effectuer les finitions de la pièce sonore. Son rôle est parfois sous-estimé et tend à être substitué par certaines pratiques, qui ne sont pas adaptées à l’objectif que l’on doit atteindre.

Aussi bien l’emploi des outils que les performances humaines permettent d’affirmer que la pratique du Pré-Mastering est une activité à part entière. Elle est tout aussi importante que les étapes qui lui sont antérieures et doit contribuer à sortir un produit fini tout à fait exceptionnel.

Les principaux éléments sur lesquels le Pré-Mastering diffère de la prise de son et du mixage sont :

- Le recul et la fraîcheur de jugement

- Une vision de l’album dans son contexte

- Le système d’écoute et l’acoustique d’une fidélité optimale

- Les outils moins nombreux mais sans compromis sur la qualité sonore

- Le traitement de l’enveloppe globale de la musique (utilisation totalement différente des outils de travail)

Toutes ces remarques amènent naturellement à penser que l’ingénieur de mixage doit se soucier de savoir précisément en quoi consiste le Pré-Mastering, pour pouvoir confier, dans les meilleures conditions possibles, le travail qu’il a réalisé. La connaissance qu’il aura des principaux tenants et aboutissants du Pré-Mastering lui permettra de connaître les limites qu’il doit fixer à son propre travail. Il évaluera ainsi les opérations à réaliser et celles à éviter, pour que le projet sonore profite de la totalité des capacités techniques et artistiques des différents intervenants du processus de production.


VI - Compléments

A - Les contraintes de la gravure vinyle :

En réalité on grave le master, appelé acétate. Celui-ci servira à la duplication des vinyles. Le processus de gravure vinyle est soumis à plusieurs contraintes :

- l’impossibilité de graver des informations qui présentent un déphasage trop important.

En effet, le déplacement horizontal de la tête de gravure inscrit les informations mono (L+R) et le déplacement vertical les informations de phase (L- R). La combinaison des deux donne un signal stéréo matricé. Le mouvement vertical est limité par l’épaisseur du disque. Si l’information de phase est de 180 degrés, la force qui actionne la tête n’agit que verticalement et crée un trou dans l’acétate.

- La durée du disque est conditionnée par le contenu en fréquences et par le niveau.

La largeur du sillon est proportionnelle à l’énergie. Dans le cas des basses fréquences l’énergie est importante, le sillon est donc large, pour les hautes fréquences l’énergie est faible, le sillon sera donc fin. Grâce au filtre RIAA qui est appliqué au moment de la gravure, ainsi que le filtre inverse au moment de la lecture, la largeur du sillon est relativement constante donc lisible par une tête de lecture.

Malgré le filtre RIAA, si le contenu en basse fréquence est «boosté» la tête de gravure risque de traverser le pas de gravure (espace entre deux sillons). On estime que, sous 125 Hz, une augmentation de 6 dB divise la durée par deux. D’ailleurs, lors de la gravure, un circuit d’asservissement est utilisé. Il sert à anticiper les excès de niveau dans les basses fréquences, de façon à ce que la machine adapte la trajectoire du sillon pour augmenter le pas de gravure au moment voulu. Ce circuit permet la gravure de ces basses fréquences mais n’empêche pas la perte de surface donc de durée du disque.

Filtre RIAA

De façon plus générale, la durée du master vinyle est réduite de façon inversement proportionnelle au niveau global des titres à graver. Plus le niveau est important, plus le sillon sera large, le déplacement latéral limite donc la durée du programme musical.

- Les hautes fréquences sont limitées par la vitesse maximale du bloc de gravure.Les très hautes fréquences peuvent poser problème surtout sur les transitoires, les instruments comme le Charley ou les sons z, ch., Ss… Ces problèmes apparaissent surtout lorsque l’accélération entre les fréquences est trop importante. Sur un contenu percussif, riche en hautes fréquences, il est indispensable de contrôler les sibilantes, la vitesse des transitoires et de filtrer le haut du spectre.

On comprend mieux le rôle des « transcription engineer » ainsi que les contraintes à prendre en compte pour la gravure vinyle.

B - Le support CD-R, norme yellow book vs. norme red book:

Comme précisé plus haut dans la partie I.B-, aujourd’hui les usines de pressage acceptent les CD-R audio, utilisés parfois par les productions à petit budget.

Développée en 1980 par Sony et Philips, la norme Red Book décrit le format physique d'un CD et l'encodage des CD audio (notés parfois CD-DA pour Compact Disc - Digital Audio). Elle définit ainsi une fréquence d'échantillonnage de 44.1 KHz et une résolution de 16 bits en stéréo pour l'enregistrement des données audio.

Cette norme se base aussi sur l’intégration des codes PQ. Ils servent à faire des repères sur chaque titre du CD ; il y a un index de début et un index de fin de piste même si les morceaux sont enchaînés. L’index de fin permet principalement de connaître la durée du titre. Chaque index a un offset de quelques millisecondes, ainsi le lecteur CD peut se positionner légèrement avant le début du morceau, afin de ne pas rogner le début du titre lorsqu’il en commencera la lecture.

La gravure à la norme Red Book induit un grand nombre d’erreurs au sein des blocs numériques ; ce taux d’erreur augmente avec la vitesse de gravure. Le protocole de gravure d’un CD-R audio permet jusqu’à 3% d’erreurs, c'est-à-dire 220 par seconde (!!!!). On considéré qu’un CD de haute qualité présente un taux d’erreurs allant de 20 à 30 erreurs par seconde. La comparaison est effrayante…

La norme Yellow Book date de 1984, elle décrit le format physique des CD de données (CD-ROM pour Compact Disc - Read Only Memory). La gravure à la norme Yellow Book peut se faire à la vitesse maximale permise par le graveur (et par le CD-R) sans porter préjudice aux données inscrites. Au moment de graver, cette norme intègre une vérification des données Bit pour Bit.

Le codage de correction d’erreur est donc beaucoup plus fiable en mode CD ROM qu’en mode CD audio, les répercussions sur le signal sont donc inévitables et il faudra les prendre en compte.

C - Principe d’étalonnage d’un magnétophone analogique :

L’étalonnage d’un Magnétophone sert à garantir la transparence du signal au moment de son enregistrement et de sa lecture. Voici, dans ce complément, un aperçu des réglages à effectuer.

Après une étape de nettoyage et de démagnétisation, on effectue un premier réglage électromécanique. À l’aide d’une bande étalon. La fréquence de 1KHz sert à régler le positionnement de la tête de lecture par rapport à la bande. On cherche à obtenir l’amplitude la plus importante et des signaux en phase (visualisés avec un oscilloscope).

On utilise un générateur basses fréquences pour calibrer le VU - mètre. Il envoie une fréquence de 1 KHz à 1,23v, le signal est mesuré en entrée (input) du magnétophone et permet de faire correspondre le 0 VU à +4 dBu (norme professionnelle).

Ensuite on règle le niveau de lecture (mode Repro). Cette fois on lit du 1 KHz sur la bande étalon[16] et on règle l’amplificateur de Repro jusqu’à lire 0 sur le VU - mètre. Afin de vérifier le reste de la bande passante, l’opération est répétée avec 10 KHz et 100 Hz ce qui permet d’ajuster les filtres de maintien (égalisation dans le haut et dans le bas du spectre). Pour finir l’étalonnage de reproduction du signal, on effectue une recette. Cela consiste à vérifier le niveau sur un panel de fréquences représentatives de la bande passante. Si les résultats ne fluctuent pas au-delà de –3/+3dB, on peut être satisfait.

La tête de lecture étant réglée, on peut passer au niveau d’enregistrement. Après avoir fait un ajustement rapide de l’ampli de Rec (en enregistrant une fréquence de 1 Khz à 1,23v sur une bande vierge), on effectue le réglage du BIAS[17]. Puis, le signal ayant changé, on refait un étalonnage précis du niveau d’enregistrement. L’amplificateur et les filtres de maintien sont ajustés pour avoir 0 VU avec 1 KHz, 100 Hz et 10 KHz à 1,23v.Pour finir on fait une recette en enregistrant des fréquences de 60 Hz à 20 KHz sur la bande vierge. Comme pour la lecture, si les résultats ne fluctuent pas au-delà de –3/+3dB, on peut être satisfait.

A la lecture d’une bande dans un studio différent de celui qui a servit à son enregistrement, un étalonnage doit être fait pour relire les signaux dans les conditions d’origines. De ce fait, si les renseignements ne sont pas envoyés avec la bande au studio de Pré-Mastering, les conditions de lecture ne seront pas optimales et une perte de temps considérable sera inévitable.

D - Les formats de fichiers audionumériques :

Les quatre principaux types de fichier utilisés en audio professionnel sont presque un standard. Ils garantissent l’intégrité du signal car ils ne subissent pas de compression de données et leur utilisation, largement répandue, diminue les risques d’incompatibilité.

- AIFF : audio interchange file formatFormat natif Macintosh. Il supporte les résolutions allant de 8 à 32 bits (bien sûr la plupart des fichiers sont en 16 ou en 24 bits) ainsi que les fréquences d’échantillonnage allant jusqu'à 192 KHz. L’extension standard sur PC est .aif.

- WAVE : Natif de PC, développé par Microsoft. Il utilise une extension standard qui est .wav. Comme l’AIFF, il supporte un grand nombre de résolutions et de fréquences d’échantillonnage. Certains fichiers WAVEs subissent un codage qui a pour conséquence une légère réduction de la taille des mots numériques (Compression psycho-acoustique). Il est bien entendu conseillé d’envoyer au Pré-Mastering des fichiers WAVEs encodés en PCM linéaire.

- SDII : sound designer IIFormat natif de Digidesign à l’origine prévu pour une utilisation sur Macintosh il est aujourd’hui utilisé également sur PC. Il faut savoir que la station de travail audionumérique SADIE est victime d’un « bug » avec les fichiers SDII ; il ne peut les archiver. Si le Pré-Mastering doit être effectué sur SADIE, ne pas utiliser le SDII évitera une perte de temps due à la conversion dans un autre format.

- BWF : broadcast wave format Il est basé sur le format WAVE et utilise la même extension. Les informations[18] « extra – audio » qu’il contient sont celles jugées nécessaires pour les applications broadcast. L’EBU[19] l’a intégré pour qu’il soit un standard au niveau de l’échange des fichiers. Il existe en codage linéaire et non linéaire. Comme pour le WAVE, le plus adapté est d’envoyer au studio de Mastering un codage linéaire. Tous ces formats peuvent être de type stéréophonique entrelacé (interleaved), double monophonique ou tout simplement monophonique. En plus d’être plus simple à classer, les fichiers entrelacés facilitent l’accès au disque dur car ils ne se trouvent qu’à un seul emplacement. L’utilisation de fichiers qui subissent la compression de données, comme le Mpeg-layer3 (MP3) est totalement impensable. Car afin d’être le moins lourd possible, ce type de formats sacrifie la qualité du son. Pour faire une comparaison, « un Pré-Mastering fait sur du MP3 serait aussi aberrant que de faire la décoration intérieure d’une maison en ruine ! »


Références bibliographiques.

KATZ, Bob. Mastering audio (Focal press, 2002)

 

 

GONDOLFI, Alain. Techniques audio appliquées au mixage cinéma (Dunod, 2002)

 

 

RUMSEY, Francis & McCORNICK, Tim. Son et enregistrement (Eyrolles, 3e édition, 2002)

 

 

BESSON, René. Sono et prise de son (Dunod, 3e édition, 2000) BASSAL, Dominique. La pratique du Mastering en électroacoustique (2002)

 

Références Internet

http://fr.audiofanzine.com

http://www.sourcemastering.com

http://www.actis-studios.com/index.htm

http://mastering.altho-audio.com

http://www.espace-cubase.org/page.php?page=mastering

http://perso.wanadoo.fr/malko.pouchin/index.htm

http://www.masterdigital.com/24bit/cdmastering.html

http://www.digitalsunspot.com

http://www.worldmediagroup.com/DigitalMastering.html

http://aes.harmony-central.com/111AES/Content/SADiE/PR/Super-Audio-CD-Editor.html

http://www.delamusic.com

http://www.johnvestman.com

http://www.dkmastering.com

http://www.manleylabs.com/Manley_mastering.html

http://www.airshowmastering.com

Entrevue

Jean Christophe BEAUDON, ingénieur de Mastering des studios TRANSLAB (12-14 bd de l’hôpital, 75005 Paris).

Remerciements…

- Jean Christophe BEAUDON, pour avoir partagé avec moi son savoir faire.

- Les professeurs et intervenants de l’institut SAE de Paris : Jean Philippe BOISSON, Christophe DUBLEUMORTIER, Olivier DUC, François FESTY, Fabien FOUBERT, Alain GANDOLFI, Pierre-Yves GUYOMARD, Richard METTENS, Sébastien MARCHADIER, Florian (de Cat Concept) ; pour leur enseignement sans lequel ce mémoire n’aurait pas pu être réalisé.

- Ele Airam Asiul, François Marotta, Gisèle Belle, pour leur présence et leurs précieux conseils…


[1] Ce mémoire ne traitera que de manière succincte de la mise en forme à la norme Red book et du procédé de pressage industriel ; les spécificité engendrées par les nouveaux supports tels que le SACD ou le DVD audio ne seront pas traitées en détails.
[2] Puisque c’est à cette place que j’envisage d’exercer.
[3] Le Glass master est un support en verre recouvert d'une pellicule photosensible sur laquelle le laser grave les données. Par procédé galvanique on fait une empreinte de ce disque qui devient le « stamper » à partir duquel on effectue le pressage des CD.
[4] Le glass master est fabriqué à partir d’un signal audionumérique sur bande ou cassette.
[5] Citation de Bob KATZ
[6] Echantillonnage de 2,8224 MHz qui offre une bande passante allant du courant continu à 100 KHZ et une dynamique de 120 dB.
[7] La technologie LPCM est celle utilisé dans tous les systèmes audionumériques, sauf pour le SACD, qui lui utilise la technologie DSD, totalement différente.
[8] Le choix de convertisseurs A/D et D/A de haute qualité s’impose.
[9] Souvent réalisé sur commande par des constructeurs tel que Manley ou Neumann.
[10] Dans les conditions actuelles, une réponse en fréquence plate subit tout de même des irrégularité atteignant +3/-3 décibels.
[11] FIR (finite impulse response ) ne peut être réalisé qu’à partir de matériel numérique, à opposer au IIR (infinite impulse response) qui se trouve dans tous les appareils analogiques et dans la plupart des appareils numériques classiques.
[12] Les termes macro dynamique et micro dynamique sont tirés du vocabulaire de Bob Katz.
[13] La gamme de fréquence de 3 à 5 KHz est celle ou l’oreille est la plus sensible au souffle.
[14] Le Dolby A et le Dolby SR qui fonctionnent sur un principe de compression/expansion sont utiles pour réduire le souffle des copies analogiques. Ils sont moins utilisés aujourd’hui avec l’avènement des machines numériques qui ne ramènent pas de souffle au fur à mesure des copies.
[15] Si en dépit des risques encourus le choix se porte sur le CD-audio, graver à la vitesse minimale autorisée par le graveur sera un moyen de réduire le taux d’erreur.
[16] La bande étalon est achetée selon la vitesse de défilement, le standard d’égalisation et la largeur d ’entrefer. Elle sert de référence car son enregistrement a été effectué en laboratoire dans les conditions idéales.
[17] BIAS : Offset appliquer au signal pour travailler dans la portion linéaire de la courbe de transfert de la bande.
[18] Contrairement au BWF, le Wave et l’AIFF contiennent un grand nombre d’informations relatives au fichier. Dans le cas du BWF ces informations sont réduites au strict minimum.

[19] European broadcast union.

Par Remee (Rémi Marotta).


Discussions sur cet Article dans le Forum...

Lu 21529 fois