Mac Music  |  Pc Music  |  440Software  |  440Forums  |  440tv  |  Zicos
Partager cette page
Bienvenue visiteur
Nos Partenaires

La pratique du Mastering - 2 : Moyens, fonctions et logique

28 mars 2005 - par Dominique Bassal
Seconde partie de l'article de Dominique Bassal sur "La Pratique du Mastering en Electroacoustique", dans laquelle l'auteur aborde "Moyens, fonctions et logique sous-jacente".
Objectifs de cette section
    Objectifs de cette section :

    - présenter au lecteur l'outillage et les techniques d'optimisation audio des studios de mastering ;

    - faire connaître au lecteur les raisons de base justifiant, au-delà des objections basées sur les abus ou sur des positions théoriques spectaculaires, le recours habituel au mastering.
L'écoute - Les systèmes
    Dès le tout début de l'ère du vinyle, les ingénieurs de mastering sont confrontés à deux écueils majeurs :

    - la quantité et la variété des signaux résistants à la gravure ;

    - l'absence presque complète d'instruments de détection et de mesure de ces signaux récalcitrants.

    En fait, le seul outil dont on dispose alors pour détecter et évaluer les éventuels fauteurs de troubles est tout simplement…l'oreille humaine, qui ne peut évidemment rendre ces services que dans la mesure où elle entend correctement le signal qui est sur la bande. C'est ce qui oblige les studios à chercher à améliorer par tous les moyens chacun des éléments impliqués dans les systèmes d'écoute :

    - les têtes de lecture des magnétophones sont souvent remplacées par des versions plus performantes - montant jusqu'à 25-30 kHz - commandées à des firmes spécialisées ;

    - l'essentiel du circuit de reproduction des magnétophones est périodiquement remplacé par une électronique intégrant les composantes les plus performantes, au fur et à mesure de leur disponibilité ;

    - les consoles - souvent fabriquées sur place - utilisent une qualité d'électronique qu'il serait impensable d'offrir sur les consoles multipistes ;

    - les haut-parleurs sont, à juste titre, considérés comme vitaux pour une obtenir une reproduction le plus fidèle possible : certains studios contemporains n'ont pas hésité à acquérir des systèmes valant plus de 90 000$US la paire…

    - l'environnement acoustique est également critique, et là aussi une quantité d'efforts et d'argent est souvent consentie.

    Tous ces systèmes sont considérés comme moins critiques par les studios d'enregistrement, qui doivent par ailleurs étaler leurs investissements sur une gamme plus variée d'équipements. Ainsi, au niveau des travaux d'optimisation acoustique, une installation destinée à l'enregistrement doit prendre en compte les besoins de plusieurs salles spécialisées, prévues pour des sources différentes - batterie, voix, piano, etc. - sans compter l'isolation de ces diverses salles entre elles, là où un studio de mastering peut concentrer ses efforts sur la neutralité de la réponse acoustique de la seule salle de contrôle.
Performances humaines
    Au cours de sa période initiale de développement, on l'a vu dans la section précédente, le custom mastering devient une spécialisation bien distincte. Pour le comprendre, considérons un instant les qualités et les connaissances essentiellement nécessaires à un bon preneur de son de studio :

    - connaître les particularités acoustiques de la salle où a lieu l'enregistrement, et être en mesure d'anticiper l'interaction entre l'instrument à enregistrer et ces particularités acoustiques ;

    - avoir une connaissance détaillée du comportement des microphones disponibles ;

    - être en mesure d'interagir sans heurts avec les musiciens, et entretenir une ambiance de travail agréable ;

    - maintenir une structure de gain optimale tout au long du chemin emprunté par le signal.

    Peu d'éléments ici qui puissent être retenus pour la « confection » d'un ingénieur de mastering. Examinons à présent ce que l'on pourrait demander avant tout à un mixeur compétent :

    - être en mesure de conserver une image mentale toujours à jour de l'ensemble de la configuration console / traitements externes - le patch - et pouvoir modifier à tout moment cette configuration, sans erreur ;

    - posséder un sens du goût assuré, et dans un grand nombre de cas, du goût du jour ;

    - être en mesure d'identifier le ou les instruments à mettre en valeur, de même que ce qu'il vaudrait mieux entendre moins clairement ;

    - savoir déterminer rapidement, c'est-à-dire avant que la fatigue ne s'installe, une combinaison des niveaux et des timbres qui rende le mieux justice aux pistes enregistrées.

    Encore là, on voit mal ce qui pourrait, dans cette liste, se révéler utile à l'ingénieur de mastering. Inhérentes au travail des ingénieurs impliqués dans la prise de son et le mixage, se trouvent des contingences techniques, esthétiques et humaines qui sont plutôt de nature à les distraire de la vigilance qu'il conviendrait également d'apporter aux caractéristiques plus globales du flux sonore, considéré en quelque sorte pour lui-même. Vigilance qui devient dès lors la responsabilité de l'ingénieur de mastering. Celui-ci doit, avant tout, démontrer une capacité d'attention concentrée dans la durée, lui permettant de détecter les problèmes les plus subtils, mais il doit aussi pouvoir quantifier sans erreur ces problèmes, qu'il s'agisse d'une fréquence problématique ou d'une courbe d'amplitude à contrôler. Il doit aussi disposer d'une mémoire acoustique à long terme, de manière à demeurer cohérent avec le type de profil audio couramment pratiqué dans le style de musique considéré.

    On le voit, toutes ces qualités ne peuvent s'épanouir qu'autour d'une configuration mentale bien précise, centrée avant tout sur la capacité de cristalliser dans la pratique les résultats d'une écoute pointue et hautement contrôlée.
Capacités d'intervention
    Ces facteurs objectifs - matériels et humains - se combinent entre eux pour aboutir à la situation suivante : le niveau général de la qualité d'écoute, dans les studios de mastering, conserve toujours nécessairement quelques longueurs d'avance par rapport à celui des studios d'enregistrement. Ainsi l'ingénieur de mastering est en mesure non seulement de percevoir, mais aussi de subodorer, voire d'anticiper, des caractéristiques allant des plus infimes détails aux tendances fréquentielles les plus générales, caractéristiques qui sont demeurées inaudibles ou tout simplement opaques au preneur de son et à l'ingénieur de mixage.

    Qu'entend donc exactement l'ingénieur de mastering, qui aurait échappé aux professionnels l'ayant précédé sur un projet donné ? Il ne connaît généralement pas le projet, et n'a jamais entendu la musique : il dispose donc déjà d'un recul, d'une fraîcheur de point de vue appréciable par rapport à ceux qui l'ont précédé. Et contrairement à ceux qui ont eu à enregistrer les pistes, une à une ou par groupe, ou au mixeur qui a eu à juger de l'interaction de ces pistes l'une avec l'autre, il est le premier à pouvoir appréhender le produit comme un tout, à pouvoir poser un jugement inclusif, englobant tous les aspects sonores du produit. Plus spécifiquement encore, il entend :

    - les déficiences des systèmes d'écoute des studios de prise de son et de mixage, reflétés à l'endroit ou à l'envers sur le signal ; Exemple : un ingénieur de mixage, confronté par exemple à un trou dans l'écoute de -6dB centré autour de 80Hz, réagira en ajoutant systématiquement quelques dB à 80 Hz aux pistes ayant du contenu dans ces fréquences. Ou à l'inverse, puisqu'il entend déjà peu de choses dans cette région, il décidera de la « nettoyer » complètement par un filtrage radical.

    - il entend également les erreurs dûes à des habitudes acoustiques prises tout au long d'un projet et qui ont tendance à devenir autant d'ornières creusées par une accoutumance progressive. Il est très difficile, pour ceux qui y sont exposés tout au long d'un projet, d'en sortir ; Exemple : le preneur de son capte les toutes premières pistes d'un projet avec un léger excédent de hautes fréquences. Tout au long des pistes suivantes, il se voit obligé, pour maintenir une cohésion, à enregistrer avec de plus en plus de brillance, qu'il entend de moins en moins. Plus tard, alerté par des manifestations de fatigue auditive, il pourra aussi tomber dans l'excès inverse, en filtrant désormais systématiquement tout ce qui se rapproche des fréquences en cause.

    - il entend même à quoi le mènera, une fois qu'il aura remédié à ces problèmes, l'optimisation plus poussée que le son, désormais ouvert, lui permettra ;

    - il confronte également le résultat projeté de toutes ces manipulations avec ce qu'il connaît de la sonorité de produits similaires, pas tant pour plagier - ce qui est en fait extrêmement difficile à faire - mais pour tenter de pousser le produit vers les limites de ce qu'il sait d'expérience qu'il est possible de réaliser dans ce style de sonorité.

    Avec le temps, certains ingénieurs de mastering développent même des performances d'écoute encore plus impressionnantes. Ils en viennent pas exemple à connaître les forces et les faiblesses des principaux studios et ingénieurs dont ils reçoivent régulièrement le travail. Ils deviennent également en mesure d'anticiper l'impact qu'auront sur le résultat de leur travail les compresseurs et enjoliveurs sonores de tel ou tel diffuseur. Cette capacité devait donner naissance à la vogue des radio mix, dance mix et autres pressages optimisés spécialement pour des véhicules de diffusion bien précis. Les coûts élevés qu'entraînait ce type de raffinement ont confiné cette pratique aux productions les plus commerciales, qui ont toutes succombé à la guerre du volume. Celle-ci a provoqué à son tour une uniformisation des processus d'optimisation, suivie d'une non moindre uniformisation des chaînes de traitement audio des diffuseurs, et les pressages à vocation spécialisée sont devenus peu à peu caducs.
L'optimisation - Les outils



    Au cœur de l'appareillage des studios de mastering se retrouve la console, de petites dimensions. La version analogique est le plus souvent fabriquée maison (un seul fournisseur, Manley, les fabrique, sur commande seulement), et regroupait jusqu'à récemment la presque totalité des modules de traitement du signal. Ces modules (Neuman, Telefunken, etc.), sous la forme de cartes insérables avec contrôles sur la face avant, sont des produits spécialement conçus pour les studios de mastering : leurs potentiomètres, tous crantés, permettent la répétitivité des traitements.

    De nos jours, ces systèmes intégrés cèdent peu à peu le pas devant des ensembles moins homogènes, formés de consoles audionumériques modulaires - ci-dessus, le modèle Daniel Weiss - de stations de travail et d'ensembles logiciels, complétés par des boîtiers externes (Manley, Avalon, GML, Weiss, EAR, t.c. electronic, etc) offrant un ou plusieurs traitements regroupés, analogiques ou audionumériques. Ces appareils sont souvent les versions « mastering » - encore une fois avec potentiomètres crantés - d'équipements haut de gamme que l'on retrouvera aussi dans les studios d'enregistrement. Qu'ils se présentent sous forme d'insérables, de modules optionnels ou d'unités séparées, les traitements de base sont en fait peu nombreux :

    - filtres passifs et égalisateurs paramétriques à fréquences fixes, dont le coût élevé est justifié par un déplacement de phase réduit au strict minimum et par une précision extrême dans les indications de fréquence centre et d'amplitude de correction ;

    - compresseurs, limiteurs et expandeurs, tout aussi précis et performants, mais dont l'action ne devient décelable qu'avec les réglages les plus extrêmes ;

    - dé-esseurs, à la fois plus transparents et plus efficaces que leurs contreparties « studio » . Pas aussi incontournables que du temps de la gravure vinyle, ils demeurent néanmoins le seul outil disponible pour le contrôle des sibilantes.

    Moins employés, mais toujours disponibles dans les panoplies offertes par les studios de mastering, se retrouvent les appareils suivants :

    - unités de réverbération, surtout utilisées pour masquer les transitions maladroites ou les coupures incongrues qui échappent encore occasionnellement aux ingénieurs de mixage ;

    - simulateurs d'acoustique, auxquels on fait appel pour aplanir des différences d'ambiance générale d'une pièce à l'autre ;

    - boîtiers d'effets spéciaux, plus largement utilisés du temps des dance mix, mais encore sollicités de temps à autre.

    L'outillage est complété par une collection de lecteurs / enregistreurs de tous formats : magnétique (Studer, Ampex, Tim de Paravicini.), DAT 16 et 24 bits (Panasonic, Sony, Tascam, etc), multipiste à cassettes (aux formats Adat : Fostex, Alesis, etc. et Hi8 : Sony, Tascam, etc) et magnéto-optique (Genex, Otari, Akaï, Studer, etc.). Mentionnons également une variété de convertisseurs A-N et N-A, de générateurs de bruit dither et de convertisseurs de fréquence d'échantillonnage (Weiss, Prism, dCS, Pacific Microsonics, Apogee, etc), et enfin tous les appareils nécessaires aux transferts vers les média acceptés par les manufacturiers, déjà mentionnés.

Les méthodes
    Les méthodes de travail en mastering varient énormément d'un ingénieur à l'autre, et même d'un projet à l'autre. Il serait vain de tenter ici de schématiser tout cela en un processus. Une simple présentation sous forme de liste non structurée donnera déjà une idée de l'abondance des possibilités :

    - certains ingénieurs commencent par essayer de trouver la combinaison de lecteurs et / ou de convertisseurs qui convienne le mieux au produit ; il arrive même - rarement - que ce subtil procédé soit considéré comme suffisant ;

    - l'égalisation demeure l'outil par excellence. Utilisée pour compenser les faiblesses de l'écoute des studios précédents, et / ou les défaillances d'attention des ingénieurs précédents, elle aplanit les bosses irritantes et comble les trous injustifiés. Des corrections de l'ordre de 9 - 12 dB, sur des plages fréquentielles très larges ne sont pas rares ici ;

    - quant cela est possible, l'égalisation intervient encore pour sculpter un profil fréquentiel plus agréable, pour mettre en valeur ou pour masquer certaines portions du spectre audio. À cette étape, les interventions peuvent être plus fines : 1 ou même 1/2 dB suffisent souvent pour obtenir l'effet voulu ;

    - encore au chapitre de l'égalisation, mentionnons le relèvement des fréquences extrêmes, encore une fois souvent rendu nécessaire par des déficiences d'écoute dans les studios en amont ;

    - le contrôle de la dynamique est également vital. Dès lors qu'il ne s'agit pas de concourir pour la première place au royaume de l'onde carrée, un monde de possibilités s'ouvre. Avec un maniement compétent des seuls réglages des temps d'attaque et de retour, des seuils d'intervention et des rapports de compression, on peut :

    - choisir de mettre en valeur les transitoires en les « isolant » des sons plus longs ;
    - contribuer à « discipliner » un paysage dynamique erratique et distrayant ;
    - ramener au jour des ambiances trop ténues, menacées d'étouffement ;
    - obtenir une foule d'autres résultats moins réductibles à une description littéraire, mais qui font définitivement partie de l'expérience auditive courante d'une majorité de consommateurs de musique.


    - l'expandeur est un instrument plus subtil, tantôt utilisé pour conférer de l'envergure à un mixage trop timide, tantôt pour accentuer le contraste musique / silence. De plus en plus souvent, on aura aussi recours à l'expandeur pour tenter de redonner un peu de souffle à un mixage trop écrasé, victime d'un réalisateur qui ne pouvait attendre l'étape du mastering pour se sécuriser quant à la place de son produit sur le podium des olympiques du hurlement audio ;

    - la combinaison compresseur / expandeur peut sembler paradoxale, mais en variant les réglages de temps respectifs des deux fonctions, on peut obtenir une mouvance de l'amplitude, une manière de respiration interne capable d'adoucir des ambiances trop figées. Dans le cas des mixages affectés d'un bruit de fond tapi juste sous le seuil d'audibilité, ce couple devient essentiel pour empêcher la compression de porter le bruit de fond au-delà de ce seuil.

    - le limiteur remplit, en mastering, un rôle essentiel, presque toujours confié à un appareil dédié, presque toujours audionumérique. Il faut savoir que, bien que leur définition varie de ce qu'est exactement un dépassement en audionumérique en terme du nombre d'échantillons successifs à 0dB, les installations de pressage rejettent immanquablement tout produit qui y contrevient ;

    - le séquençage - pacing - demeure la fonction la plus traditionnelle du mastering. Il se décompose en plusieurs tâches :

    - déterminer l'ordre d'exécution des pièces sur le produit final ;

    - décider des temps d'attente à insérer entre les pièces ;

    - nettoyer les débuts et les fins, souvent bâclés lors de sessions de mixage trop…enthousiastes ;

    - d'une manière générale, veiller à ce que l'écoute du projet entier soit une expérience agréable et cohérente. On ne doit pas ici hésiter à retoucher l'égalisation d'une pièce correcte en elle-même, mais qui s'insère mal dans le profil fréquentiel de l'ensemble. Mêmes remarques pour ce qui est du volume perçu et de l'espace acoustique d'ensemble.
L'argumentation - Extranéité
    À l'image de toute entreprise artistique réalisée collectivement, l'enregistrement d'un projet musical représente un investissement émotionnel souvent épuisant. Certains musiciens, par exemple, ont une conception souvent… emphatique de la sonorité qu'ils souhaitent conférer à leur instrument, conception qui, lorsqu'elle prévaut, pose rapidement des problèmes d'interaction acoustique avec les prochains éléments à enregistrer. D'inévitables tractations ont lieu, des considérations extra musicales prennent le devant de la scène, et les erreurs de jugement s'accumulent. L'intensité de l'expérience, encore alourdie par l'écoute répétée - des dizaines de fois - de chacune des pièces du projet, fait en sorte que l'ingénieur chargé de la prise de son se retrouve en général, à l'issue de cette étape, dans un état de saturation avancée à l'égard du projet. On recourt alors, pour le mixage, à un second ingénieur, totalement étranger au projet, spécifiquement pour profiter de sa fraîcheur de point de vue. Se transporter dans un autre studio est également judicieux : autres outils, autre acoustique, autres possibilités.

    Mais le mixage est une opération tout aussi éprouvante, et tout aussi aléatoire. Quiconque a eu l'occasion d'écouter un échantillon suffisant de mixages non masterisés sait bien quelle variété extraordinaire de sonorités bizarres et incongrues ce type de bande peut contenir. Pourquoi, ou mieux en quoi sont-elles bizarres et incongrues, ces sonorités ? Parce que, déformées par un ou plusieurs systèmes d'écoute défectueux successifs, comprimées dans des ornières acoustiques ressemblant à autant de cercles vicieux, elles ne correspondent plus que de très loin au projet artistique tel que conçu initialement par ses créateurs. En fait, elles ne correspondent à la volonté de personne : elles sont un produit non-humain, à consommer en l'état par les seuls amateurs de vacuité artistique, lesquels devaient autrefois se contenter d'un arsenal d'incompétences expressives limité aux instruments mal accordés, notes escamotées, voix détimbrées, rythmes erratiques, arrangements inexistants et autres harmonisations infantiles.

    Or, dans la lignée des performances prétendant-être-volontairement-déficientes, il manquait aux esprits entreprenants de découvrir qu'une dénaturation totale de la sonorité peut aussi masquer l'absence de talent artistique, en se faisant passer pour une intention complexe et provocatrice. Et là où des consommateurs sans goût rechercheront cyniquement des produits musicaux reflétant leur identité, on trouvera également des personnalités histrioniques se bâtissant des carrières originales à leur en fournir. Et ces créneaux-là n'ont vraiment aucun intérêt à faire appel au mastering…

    Cela dit, dans la mesure où la teneur artistique d'un projet vaut la peine d'être reproduite fidèlement, le mastering se situe dans le droit fil de la logique de pertinence de l'extranéité. Prenant le relais d'un preneur de son aux ressources épuisées, l'ingénieur de mixage recherche la combinaison de réglages qui communiquera le mieux l'énergie propre des pistes enregistrées. À son tour, avec des oreilles fraîches, l'ingénieur de mastering percevra immédiatement les nuisances acoustiques qui empêchent cet équilibre d'être entendu, et se chargera d'en débarrasser le produit final. Ajoutons à cela la spécificité des tâches à accomplir, et la spécialisation des outils et des compétences requis pour accomplir cette tâche, et l'on comprendra pourquoi le mastering est considéré comme une étape tout aussi critique que l'enregistrement, le mixage et la fabrication.
Prétentions abusives
    Quelques rares ingénieurs de mastering ont décrit leur activité comme une passerelle entre les environnements d'écoute professionnels et les conditions de diffusion moyennes qu'expérimentent les consommateurs. Ambiguë et démagogique, cette façon de présenter les choses contient le germe d'un malentendu important. En effet, s'il est possible, comme nous l'avons expliqué dans la première section, d'anticiper ce que le compresseur multibande de marque ABCD, partie intégrante de l'équipement de mise en onde de la station EFGH-FM, aura comme effet sur un mixage, prédire comment le tout « sonnera » dans le salon de Mr. et Mme Tremblay est une toute autre affaire. Les systèmes de son « domestiques » n'ont en fait en commun qu'un ensemble de faiblesses par rapport aux installations professionnelles : placés tant bien que mal dans des pièces aux niveaux de bruit élevés et à l'acoustique intrusive, ils affichent tous une déficience de la réponse dans les fréquences extrêmes, un manque de puissance de réserve et une lenteur de réponse des transitoires. Cela dit, leur défaut le plus lourd de conséquences reste une coloration accentuée de leur courbe de réponse en fréquence et là, les similitudes stoppent tout net ! Sur la quantité, la forme et la répartition de tous ces trous et de toutes ces bosses, il y a autant de variables que de marques et de modèles de lecteurs, d'amplificateurs et de haut-parleurs, sans compter les combinaisons possibles entre tous ces éléments ! Les courbes de réponse en fréquences des 5 haut-parleurs le démontrent :






    Ces courbes appellent quelques remarques :

    - assez inexplicablement, il a été impossible d'obtenir le moindre tracé de performance de haut-parleurs de petite ou de moyenne gamme ; les lignes tourmentées affichées là se réfèrent donc toutes à des modèles déjà bien au-dessus de la portée de toutes les bourses ;

    - les deux courbes en haut de page se rapportent au même produit : à gauche, les performances enregistrées en laboratoire, à droite, le tracé publié par le fabricant…

    - même en restreignant la lecture des résultats à une étendue « désuète » de 50Hz à 10kHz, on n'obtient nulle part un écart maximal de moins de 10dB ; inutile de dire que les spécifications des brochures étaient toutes beaucoup plus euphoriques…

    On le voit : il n'existe aucune correspondance, aucun point commun entre les errements fréquentiels de tous ces haut-parleurs, et on ne peut donc deviser de traitement palliatif applicable à tous. Un ingénieur de mastering qui égaliserait pour compenser la dérive d'un modèle aggraverait les problèmes de l'autre, voire du même placé dans un autre environnement, comme le montrent les deux courbes du haut-parleur D.

Écoutes « alternatives »
    Cette démonstration détruit dans son sillage quelques autres préjugés tenaces, concernant des systèmes ou des pratiques d'écoute censés permettre de sauter l'étape du mastering :

    - les shit box : bien qu'ils soient largement inutilisés, et pour cause, dans les salles de mastering, ils demeurent encore bien ancrés dans la tradition des studios d'enregistrement. Yamaha NS-10M, ProAc et autres Auratone sont censés présenter des courbes de réponse en fréquences « représentatives » des haut-parleurs de niveau consommateur, ce qui relève, on le comprend maintenant, de la pure superstition. Quelles informations applicables les ingénieurs peuvent-ils bien espérer glaner de ce fameux aller-retour entre les haut-parleurs principaux et les shit box, voilà une énigme qui a toujours dépassé les ressources imaginatives de l'auteur. Leur unique utilité serait de rassurer - tout en les trompant de manière éhontée - les producteurs et les musiciens inexpérimentés, dépaysés par une toute première exposition à une écoute professionnelle ;

    - l'opération tournée des salons est une variante particulièrement laborieuse de la même idée. Elle consiste à aller écouter le mixage dans une série d'environnements « réels », en général les salons et autos d'amis et de connaissances. Un véritable enfer, d'une profonde inutilité : la mémoire auditive, reconnue pour son court terme, ne peut tirer aucune conclusion synthétique de cette exposition à des écoutes toutes aussi différemment erronées que semblablement déprimantes ;

    - largement pratiqué en électroacoustique, comme on le verra dans la section suivante, l'auto-mastering consiste à tenter, sur les lieux même de la production, de faire son propre mastering. Il n'y a, dans cette situation, pas la moindre condition permettant d'espérer autre chose qu'un aggravation de la situation : totalement privé de recul, le producteur a ici toutes les chances de compenser une troisième fois pour les mêmes erreurs d'écoute qu'à la prise de son et au mixage ;

    - également un favori en production indépendante, l'ami-mastering, pratiqué dans une installation analogue à la sienne, par soi-même ou par un pair, soumet un mixage effectué sur une écoute colorée à un traitement non-professionnel dicté par une écoute différemment colorée. Les avantages par rapport à l'auto-mastering sont question d'inclination : préfère-t-on enfoncer les mêmes clous, ou créer des problèmes ailleurs dans le spectre fréquentiel ? C'est selon…

    - le recours aux haut-parleurs à champ rapproché (near field monitors) minimise dans une certaine mesure l'interaction intrusive de la pièce, qui demeure néanmoins, dans un local non traité acoustiquement, à un niveau trop élevé pour permettre un travail de mastering non compensatoire. Et même si l'on assume que les moniteur choisis sont en eux-mêmes fiables (!), le problème des basses fréquences, extrêmement crucial, n'est pas pour autant résolu : on est tenu de recourir à un subwoofer, lequel nous remet devant le problème de l'acoustique de la pièce…

    - les écouteurs, même de très haute qualité, posent encore plus de problèmes. Opérant sur une mode acoustique extrêmement différent de celui des haut-parleurs, ils ne permettent aucun transfert fiable vers ces derniers, surtout au niveau de l'espace stéréo. Ils ne règlent pas non plus le problème des sous-graves, et leur niveau typique d'utilisation, de 110dB, est dangereux pour l'oreille. On ne peut s'y exposer plus d'une demi heure par jour sans risquer une perte d'audition permanente.

    Nous avons décrit des systèmes tentant de produire, en dehors du circuit des salles de mastering, une émulation efficace des écoutes de niveau consommateur. Il nous reste à aborder deux types de tentatives plus professionnelles, réalisées cette fois-ci dans des salles de mastering, et même dans des studios d'enregistrement conventionnels :

    - les courbes spéciales : plutôt que d'aller « vérifier » chaque mixage en situation de consommation, on a pensé qu'il serait plus pratique de tenter de reproduire un environnement moyen à l'aide d'une courbe d'égalisation appliquée directement aux moniteurs principaux. Un douloureux processus du type essai erreur, destiné à mettre au point pareille courbe, n'a apporté que des améliorations discutables dans un petit nombre de cas, et de très nets reculs dans toutes les autres situations. Encore un échec cuisant, à cause bien sûr du principe de base, mais aussi des inconvénients spécifiques reliés au fait de travailler sur des moniteurs égalisés : problèmes de phase, nature changeante de la réponse globale, lenteur des transitoires, etc.

    - l'acoustique en diffusion (1) prétend atteindre trois objectifs : elle élargit considérablement le sweet-spot, elle se sert des réflexions des murs pour corriger naturellement les faiblesses des haut-parleurs, et elle se rapproche du niveau de réverbération prévalant dans la salle d'écoute moyenne. Ambitieuse, cette conception acoustique se révèle extrêmement complexe à réussir. Seul le premier objectif est pleinement atteint. Les réflexions des murs se refusent obstinément à se colorer de manière appropriée, tandis que la variété des conditions de réverbération demeure réfractaire à toute schématisation.


    ---------------------
    Contrairement à la focalisation, qui est la technique courante consistant à diriger les haut-parleurs vers un point central, pour minimiser l'intervention acoustique de la salle, la diffusion, avec ses moniteurs dirigés parallèlement aux murs latéraux, tente de se servir de ces réflections.
Conclusion : possibilités et limites
    L'accumulation de toutes ces expériences et de tous ces échecs nous mène directement à la vision contemporaine du mastering, qui exclut à la fois toutes les variantes de l'idée de réaliser une moyenne des écoutes de niveau consommateur, et tous les raccourcis possibles pour obtenir une écoute de référence :

    Le seul mastering efficace se pratique sur une écoute plate (1), qui n'est elle-même réalisable que dans un local aux dimensions appropriées, traité acoustiquement et parfaitement isolé. On y installe une amplification de très haute qualité, développant au minimum 1000 watts par canal, reliée à de véritables haut-parleurs de référence. Un système d'analyse de réponse acoustique de niveau professionnel, manipulé par un acousticien de métier, est ensuite utilisé pour visualiser la performance finale, et pour entreprendre les correctifs jugés nécessaires.


    Dans les conditions actuelles, « plate » représente quand même un écart final à l'écoute de 2-3dB dans la courbe de réponse en fréquence. Il y a encore là une source d'erreurs possibles dans le processus d'optimisation.

    Le travail d'optimisation primaire, c'est-à-dire destiné à l'écoute chez le consommateur, se fait sur la base exclusive des informations données par cette écoute, sans compromis, compensation mentale, sans ajouts ni retraits préventifs. Les versions secondaires, destinées à d'autres véhicules de diffusion, sont dérivées à partir de là, et présentent des restrictions dont la pertinence ne peut être garantie que par une très longue expérience.

    - « Mais alors… », demandera l'esprit frondeur, convaincu de nous avoir enfermé dans un piège complexe (et cette prétention est trahie par un sourcil levé dans une expression de fausse jovialité), « …à quoi peut servir l'optimisation sur une écoute plate, puisque nul consommateur n'en fera jamais l'expérience ? ». Et il ajoute, dévoilant son ingénuité (mais nous la connaissions, elle était déjà criante hier, lors de la cérémonie du Blajh-potiron-blin-blin) :

    - « Chaque système impose ses erreurs propres, qui annulent la plupart des corrections effectuées ! » La séquence exemple qui suit, transposable à une grande variété de problèmes, apporte la réponse :

    1. l'écoute sur laquelle un produit XYZ a été mixé présente un trou à 200Hz. Le mixeur a systématiquement accentué cette fréquence sur les pistes offrant du contenu dans cette région ;

    2. non masterisé, ce mixage sonne boueux et boursouflé dans tous les systèmes, à l'exception de ceux qui présentent exactement la même déficience que celui utilisé par le mixeur, qui sont agréables, et de ceux qui ont déjà une bosse à 200Hz, qui sont franchement catastrophiques ;

    3. l'ingénieur de mastering entend un excédent autour de 200Hz : il compense en retranchant quelques décibels à cette fréquence ;

    4. ainsi masterisé, ce produit est agréable dans tous les systèmes, à l'exception de ceux qui ont l'un ou l'autre problème à 200Hz. Mais ce problème se reflète déjà dans tous les produits qu'écoutent les propriétaires de ces systèmes : ils n'imputeront donc pas de faute particulière à ce produit. Il y a une deuxième exception, et elle est ironique : sur l'écoute ayant servi au mixage, la version masterisée est moins agréable…et le mixeur, s'il est inexpérimenté, en déduira que l'ingénieur de mastering est un incompétent !!!

    De ce qui précède, l'on peut facilement déduire une liste de lois de l'optimisation, résumant ses possibilités et limites :

    - les bénéfices de l'optimisation ne sont intégralement exportables que vers d'autres écoutes de référence ;
    - elle améliore néanmoins, à différents degrés, la situation globale dans la grande majorité des situations d'écoute ;
    - plus transparente est l'écoute, meilleur est le rendement de l'optimisation ;
    - il y aura toujours des systèmes ou des régions fréquentielles où son action sera nulle ou même négative ;
A propos de l'auteur: Dominique Bassal
Compositeur de musique électroacoustique / studio de mastering / sound design
L'avis des membres
Pas encore membre?
Devenez membre! C'est rapide, gratuit et cela vous permet de poster vos annonces, vos news, des questions dans les forums, de changer vos réglages d'affichage...
Contribuez
PcMusic est VOTRE site.Participez à son évolution...
Cette section de PcMusic est entretenue par Nantho et l'équipe des traducteurs. N'hésitez pas à lui proposer vos articles.
05:02 CEST - © PcMusic 1997-2017