Mac Music  |  Pc Music  |  440Software  |  440Forums  |  440tv  |  Zicos
Partager cette page
Bienvenue visiteur
Nos Partenaires

Au delà de la stéréo 3 - l'acoustique virtuelle.

1 janv. 1995 - par Franck ERNOULD
Pour ce troisième et dernier volet de notre série d'articles "Au-delà de la stéréo", nous abordons une discipline de haut vol au nom bien sérieux : l'acoustique virtuelle. Ici, de puissant outils informatiques simulent en temps réel le comportement d'environnement acoustiques. Tout un savoir-faire en passe de connaître des applications "grand public".

L'acoustique virtuelle (dans le sens de "locaux n'existant pas dans la réalité") ne s'est pas faite en un jour ! Les acousticiens ont commencé par modéliser des salles. Ils y ont ensuite placé une, puis plusieurs sources sonores imaginaires, en envisageant un, puis plusieurs points d'écoute... à partir desquels reconstituer éventuellement des déplacements. Mais pour "s'y croire" vraiment, il restait quelques menus aspects purement perceptifs à prendre en compte. Ces problèmes sont aujourd'hui à peu près résolus, et si les solutions proposées ont encore un aspect "usine à gaz", il est probable, d'ici une dizaine d'années, que l'acoustique virtuelle soit à peu près partout.
Au delà du reél
    Les réverbérations de studio possèdent toutes des programmes Room, Hall, Stadium, déclinés en différentes tailles : Small, Medium, Large... Rien de surprenant à cela. L'analogie avec un vrai local est très parlante, et en jouant par exemple sur des paramètres tels que le "volume" d'une salle ou son "HF Damp" (amortissement des fréquences élevées), qu'on trouve sur une 480 Lexicon, au hasard, on arrive à obtenir des pièces vivantes : au son de "bois", ou au contraire extrêmement réfléchissantes, etc. Cette approche est intuitive, mais ne se soucie pas d'exactitude dans les valeurs, c'est-à-dire d'une correspondance rigoureuse avec une réalité. On s'inspire de la réalité, mais on ne la recrée pas vraiment. Un peu comme avec les films d'images de synthèse : ce n'est qu'après un certain temps qu'on s'est préoccupé de "réalisme", le public s'étant contenté au départ de mouvements imparfaitement rendus.
    L'acoustique des salles réelles, elle, est une science : un local se résume à plusieurs centaines de surfaces &emdash on parle de facettes &emdash et de coefficients d'absorption. En faisant intervenir ces données, mais aussi des notions de caractéristiques de réflexions (différentes pour les graves et les aigus), de sources miroir, etc., l'acousticien, pour différentes fréquences, sait calculer des temps de réverbération, des facteurs d'intelligibilité, des niveaux sonores en un tel ou tel point, en fonction de l'emplacement de sources spécifiques, et bien d'autres paramètres purement utilitaires imposés par le cahier de charges d'un local, qu'il soit salle de concert, hall de gare, stade, etc.Des formules souvent complexes à manier, et des heures de calcul en perspective pour un maillage suffisamment subtil.
Les premiers pas
    Voici cent ans, passer de la théorie à la simulation n'était pas une mince affaire. On construisait des profils réduits de la salle, qu'on immergeait dans de l'eau et sur lesquels on observait comment se propageaient les ondes planes générées par un petit vibreur agitait la surface du liquide. Autre possibilité : une maquette en volume, au 1/20è par exemple, bombardée par des sons "à l'échelle", c'est-à-dire de fréquence vingt fois plus élevées qu'en réalité &emdash autant dire des ultra-sons, que l'air absorbe hélas avec avidité ! On travaillait dans de l'azote, en scrutant comme on pouvait le comportement de notre maquette... Autant dire que l'arrivée de l'ordinateur fut la bienvenue ! Les calculs étaient à portée de processeur, les outils de dessins et de modélisation également : l'acoustique virtuelle était née !
    Cette discipline récente permet de manipuler des salles à l'écran, de modifier des surfaces, des matériaux... Instantanément ou presque (nous sommes passés de plusieurs heures voici dix ans, à quelques dizaines de secondes aujourd'hui !), la machine applique des algorithmes et fournit les résultats. On peut donc déceler des problèmes, essayer d'autres approches en toute liberté, et ne se lancer dans les travaux "réels" qu'à coup sûr, en connaissance de cause. Les architectes ont beaucoup apprécié cette facilité, quoiqu'entre les résultats théoriques, publiés sous forme de tableaux, d'histogrammes et de courbes, et les valeurs effectivement mesurées après achèvement des travaux, subsistent parfois quelques écarts dus aux imperfections des modèles, notamment en-dessous de 500 Hz. Toutefois, les grandes tendances restent valables...
Voir c'est bien, écouter c'est mieux !
    Rapidement, une seconde étape fut franchie. Ce qu'on modélise, pourquoi ne pas l'entendre ? Si pour parler du son, les termes sont très variés, lorsqu'on écoute, en revanche, tout le monde tombe d'accord ! En mettant en oeuvre des modèles d'acoustique géométrique, rien n'empêche d'émuler les trajets des ondes sonores dans la salle modélisée (avec leurs différents rebonds, diffusions et absorptions sur telle ou telle matière...), d'en déduire par calcul sa réponse impulsionnelle puis, par convolution, de recréer le son qu'on y "entendrait". Plusieurs logiciels exploitent cette approche : le CATT Acoustics, par exemple, mais aussi le Bose Auditioner II, sans doute le plus connu. Plutôt orienté sono, ce système n'est pas vendu, mais mis en oeuvre par le constructeur en collaboration avec des prestataires de service. Basé sur une technologie développée par l'Australien Lake DSP (dont les activités, suite à cette commande providentielle, sont passées à la vitesse supérieure au début des années 90), le programme assure d'une part la modélisation avec le Modeler, qui tourne sous Mac OS (on rentre les caractéristiques d'une salle et des haut-paleurs/sources sonores en présence, aidé par des bibliothèques très complètes de matériaux/modèles d'enceinte ), et de l'autre l'écoute, avec l'Auditioner (ensemble ampli + enceintes + DSP relié au Mac via Ethernet).
    Après calculs, Modeler livre une vue indiquant les différents niveaux sonores prévisibles, une liste de valeurs, ainsi qu'un fichier recréant la réponse impulsionnelle de la salle modélisée. Ce fichier est communiqué à l'Auditioner, à qui il suffit alors de transmettre des signaux pour qu'il nous les fasse entendre comme s'ils étaient émis dans la salle en question. Pour éviter tout "brouillage" au niveau des calculs, les sons virtuellement diffusés devront être le plus neutre possible : musique enregistrée en chambre sourde ou voix prise en promixité. Sinon, leur réverbération, en s'ajoutant à celle de l'espace simulé, provoquerait une certaine confusion !
    L'écoute s'effectue obligatoirement sur du matériel Bose dérivé des célèbres enceintes Acoustimass et conçu à cet effet. Ses tolérances sont draconiennes : 0,1 dB de différence de réponse entre les deux haut-parleurs. L'auditeur vient poser sa tête sur un repose-menton, l'angle et la distance des satellites sont fixes également. D'où une position d'écoute identique pour tous. On a alors l'impression d'entendre le son diffusé dans la salle - très spectaculaire sur une patinoire virtuelle, par exemple ! Les résultats sonores sont étonnants, et la simulation de la salle particulièrement crédible.
Et encore...
    L'Auditioner II impose un dispositif d'écoute. Pourquoi ? Parce que, pour écouter des recréations acoustiques, le choix du type d'écoute doit être pris en compte dans les algorithmes d'auralisation. Selon qu'on écoute au casque ou avec des enceintes, les calculs de "mise en forme" de l'audio ne sont pas les mêmes, mais changent si on veut une écoute binaurale (casque) ou transaurale (enceintes) - voir encadré.
    D'autres systèmes de modélisation/écoute permettent de choisir son type d'écoute : CATT Acoustics, par exemple (commercialisé en France par Euphonia), qui tourne sur un Pentium moyen (cf. copies écran). Outre la modélisation, il propose un module "auralisation" compatible avec nombre de cartes audio de bonne qualité. Cette notion de qualité est primordiale. En effet, les cent premières réflexions caractérisent subjectivement la qualité d'une réverbération, et il importe de les recréer le plus fidèlement possible pour pouvoir affiner la signature sonore d'une salle de concert, par exemple.
    Vous voulez plus pointu ? Lake DSP a ce qu'il vous faut en magasin avec ses "gros systèmes" dédiés acoustique virtuelle comme la station Huron. Elle fonctionne sous Windows NT avec un PC musclé équipé de cartes ISA nécessaires à la "motorisation" de logiciels très professionnels comme Convolver, MultiScape (simulation de pièces, avec effets de passage à une autre, portes, murs...), Headscape (recréation, au casque, d'environnements acoustiques) ou AniScape (animation de sources sonores). Animation ? Mais oui, il est grand temps de parler de mouvement !
De place en place
    Créer une ambiance de salle, c'est bien ; permettre à l'auditeur de se déplacer dans ladite salle et d'entendre les variations de champ acoustique, exactement comme dans la réalité, est beaucoup plus spectaculaire ! Si la puissance DSP est au rendez-vous, le logiciel peut "enchaîner" les points d'écoute en lissant les variations pour, au prix de quelques concessions mathématiques, simuler le déplacement du son. Aussitôt dit, aussitôt programmé ! Oui mais voilà : lors des premières tentatives d'écoutes au casque (dispositif choisi pour une "qualité d'immersion" supérieure), ce ne fut pas franchement probant. L'auditeur restait "extérieur" au son recréé... Rien d'étonnant à cela : si l'oeil apprend facilement à se laisser leurrer par un effet de perspective (voyez la facilité avec laquelle le spectateur s'immerge dans un film, représentation 2D s'il en est), l'oreille ne se laisse pas faire ! Elle est beaucoup plus "sauvage", on l'éduque moins facilement... et notre cerveau tient beaucoup à la concordance des informations recueillies par ses différents capteurs : yeux, oreilles... sans oublier les centres de l'équilibrent, qui logent dans ces dernières.
    Bref, il fallait se remettre à l'ouvrage pour affiner la perception. Quoi de mieux, en l'occcurrence, que d'appeler les psycho-acousticiens à la rescousse ? Ces derniers sont arrivés avec dans leur besace d'intéressants concepts d'écoute binaurale/écoute transaurale et de fonction de transfert de la tête notamment (cf. encadré "La tête du client"). Nanti de ces précieuses informations, nos amis informaticiens sont retournés à leurs lignes de code pour tenir compte de la morphologie de chacun. Quelques filtres bien pensés, quelques modifications de phase, on remet le casque... et la sensation d'immersion totale n'est toujours pas au rendez-vous. Enfer et damnation ! C'est qu'il fallait encore prendre en compte un autre aspect : le non-couplage dynamique de la réponse du casque avec la position de la tête.
Immersion...
    Eh oui, dans la réalité, nous bougeons sans arrêt la tête sans nous en apercevoir, insensiblement, mais ces micro-changements se reflètent dans la réponse perçue par les oreilles, via un feedback instantané. Malheureusement, l'écoute au casque "bloque" complètement cet aspect des choses. Du coup, le cerveau réagit en envoyant l'image sonore "dans" la tête, au milieu des deux oreilles. Conclusion : si le casque ne suit pas dynamiquement la tête qui bouge, au mieux le son reste "à l'intérieur" et l'on n'y croit pas, au pire, les migraines ou le mal de mer son au rendez-vous...
    Aux grands maux les grands remèdes : intégrer au système d'écoute un capteur de mouvements. Certains dispositifs électro-magnétiques déjà intégrés à large échelle dans des caméscopes pourvus de dispositifs anti-tremblé de l'image font, semblent-il, parfaitement l'affaire.
    Conclusion : long est le chemin pour s'immerger dans un "bain sonore" : recréation fine, prise en compte de la morphologie de la tête de chacun, détecteur de mouvements... Rêvons du jour où le casque dont se coiffera l'amateur de jeux vidéo recréera image et son 3D en temps réel, en intégrant tous les paramètres possibles et imaginables : le retour sur terre sera difficile ! L'expérience d'immersion dans un monde sonore virtuel est absolument frappante : on s'y croit vraiment. Rien à voir avec la mono "dirigée" de la plupart des mixages 5.1.
Le Spatialisateur
    Depuis le début de cet article, nous sommes restés fidèles à une approche "déterministe". On peut dire que les acoustiques sont définies de façon moyennement conviviales : des maths, toujours des maths ! De quoi rebuter plus d'un amateur. Cet aspect ne pouvait échapper aux chercheurs français de l'IRCAM (Institut de Recherche et de Coordination Acoustique et Musique), fortement intéressés par l'intégration d'espace sonore dans des partitions musicales, mais soumis à un réel problème d'interface : comment proposer à un compositeur de se colleter avec des milliers de facettes ?
    Le Spatialisateur ("Spat" pour les intimes), logiciel développé depuis le début des années 90 sous la houlette de Jean-Marc Jot et Olivier Warusfel, en collaboration avec France Télécom et Espaces Nouveaux, est d'une utilisation très souple. L'idée consiste à pouvoir reconstruire une scène sonore en manipulant à la fois la localisation et l'effet de salle tout en s'appuyant essentiellement sur des critères moins abstraits : "plus près", "plus d'ambiance", "plus d'enveloppement", "le violon joue dos tourné"... Autrement dit, beaucoup plus instinctif, compréhensible et gratifiant pour un musicien qu'une approche physique où l'on définit un espace virtuel dans lequel on place des haut-parleurs ou des sources et qui se prête assez mal aux tâtonnements... En parallèle, un travail de fond a été mené sur la décomposition de champs réverbérés en plusieurs phases (réflexions précoces, champs intermédiaires, réflexions tardives) gérées dictinctement. Objet de brevets, cette innovation débouche sur des recréations très réalistes impossibles à obtenir avec des effets hardware traditionnels.
En pratique
    Spat offre plusieurs niveaux d'interface : on peut accéder au coeur des paramètres de bas niveau de l'effet de salle, dans la fenêtre Room, où l'on retrouve un peu les commandes traditionnelles d'une réverbération artificielle : équilibre son original/son réverbéré (curseur Direct), par exemple, qu'on utilise pour donner une impression de distance, de profondeur dans un mix. La principale fenêtre d'exploitation (SpaT_Oper) dispose de curseurs aux intitulés compréhensibles par tous, qui commandent eux-mêmes simultanément des combinaisons de paramètres de "bas niveau". Ainsi, les paramètres Source Presence et Room Presence sont bien évidemment liés à la notion de "distance" évoquée précédemment, mais un cran plus loin : le son présent garde une certaine vie (quelques réflexions précoces maintenues), et à l'inverse un son éloigné continue d'évoluer là où avec une réverbe traditionnelle on aurait un flou perçu de manière identique sur le tiers inférieur de la course du curseur Direct. La décomposition des différentes phases du champ réverbéré selon Spat prouve ainsi sa validité.
    Une interface de niveau supérieur permet de promener les sources sonores dans un cercle, en tenant compte de l'effet de directivité des dites source (locuteur qui tourne le dos, par exemple), ou de leur directivité (ce qui augmente l'effet de salle).
    Cela dit, pour un compositeur, ce qui est intéressant n'est pas tant "figer" une scène sonore que de pouvoir se déplacer dans cet espace : aller vers la basse, la batterie, le violon... Au niveau de l'interactivité, Spat est fort bien lotti : l'ensemble de ses paramètres &emdash tout ce qu'on fait à l'écran avec la souris en temps réel, autrement dit &emdash, peut être piloté en Midi et donc enregistré sur le séquenceur de son choix... Rien de plus direct et facile pour un compositeur !
Restitution à la carte
    Autre aspect primordial du Spatializer : il sépare le côté "recréation" de l'aspect "restitution". Autrement dit, tout ce qu'élabore le compositeur l'est dans un format "indéfini", le résultat pouvant être encodé à volonté en stéréo, transaural, binaural, Dolby Stereo, 2, 4, 6, 8 ou 12 haut-parleurs sans rien devoir modifier. Le logiciel qui se débrouillera selon les critères perceptifs demandés, pour restituer le plus précisément possible les spatialisations sur le système mis à sa disposition.
    Olivier Warusfel nous a fait faire le tour du propriétaire d'une configuration "restreinte" du Spatialisateur : un Mac G3 300 MHz, une carte audio Korg 1212, deux enceintes coaxiales Tannoy PBM8. Le résultat est très intéressant ! Les visiteurs de l'exposition "Le Son", à La Villette, ont eu droit à une démonstration avec une dizaines d'enceintes à la sortie. Spat tourne aussi avec les logiciels jMAX/FTS sur plate-forme Silicon Graphics ou PC Linux. Une déclinaison sous forme de plug-in Pro-Tools TDM est en prévision.
    Lake DSP propose lui aussi un logiciel assez voisin dans le principe, l'Audio Display Tools. Il tourne bien sûr sur station Huron, et permet de gérer les déplacements d'un maximum de 32 sources dans un environnement graphique 3D assez intuitif.
Quelques exemples pratiques
    "Tout cela est bien joli, mais à part les simulations d'architectes et la musique électro-acoustique, quoi sert donc l'Acoustique Virtuelle ?" nous direz-vous. A plein de choses ! Toutes ces techniques débarquent dans le monde des ingénieurs du son. AInsi, un constructeur comme Studer incorpore à ses produits (la grosse console numérique D950, en l'occurence) des algorithmes issus d'études d'acoustique virtuelle. But de la manoeuvre : "promener" un son dans un local un peu plus finement qu'avec un simple panpot, fût-il joystick motorisé. Dommage que l'aspect "écoute" ne soit pris en compte que pour des mixes au format Surround... Lorsque le Spatialiseur sera commercialisé en plug-in TDM, de nombreux ingénieurs et musiciens risquent de craquer !
    Tous les ans, nous assistons aux Journées d'Etude d'Acoustique Virtuelle, organisées par l'infatigable Bruno Suner, de la société Euphonia. Lors des conférences, les exemples pratiques abondent ! Chez Renault, une étude poussée des particularités et propriétés acoustiques de l'habitacle des véhicules aide à corriger "physiquement", puis "électroniquement" les défauts, en programmant en amont l'autoradio de première monte de façon à compenser tel creux ou telle bosse dans la courbe de réponse, ou en jouant sur les emplacements des HP. Dans les gares, les grands locaux, on peut accroître l'intelligibilité des messages diffusés en jouant sur les signaux envoyés aux enceintes : "télécommander" leur directivité, en quelque sorte. En vidéoconférence, on représente une table de réunion virtuelle. Autant dire que le son doit suivre, "coller à l'image". Or, quand deux personnes parlent en même temps sur un même canal de transmission, c'est la pagaille : on ne comprend plus rien ! Replacer ces intervenants dans un environnement spatial crédible permet à l'oreille de se raccrocher aux processus d'écoute intelligente, de recréer le "cône de présence". Sans compter qu'une bonne spatialisation ajoute énormément au confort d'écoute.
    Enfin, imaginons une application au cinéma, où les mixeurs se donnent souvent un mal de chien pour faire "raccorder" avec le direct le son de certaines phrases refaites en studio pour des raisons de qualité audio ou d'intelligibilité. Il suffirait de "prendre la signature sonore" du lieu de tournage, puis, ayant réengistré les phrases dans un studio le plus amorti possible, de convoluer des deux signaux. Immédiat, facile, et à quelques corrections de timbre près dues au changement de micro, bien malin qui entendra le "raccord" !
Et encore d'autres !
    Dans les tours de contrôle, les écrans des radars sont parfois encombrés. Un signal d'alerte spatialisé prévenant de l'approche d'un nouvel avion attirera immédiatement l'attention du contrôleur aérien sur le bon "spot" à l'écran. L'alerte est plus vivement ressentie par un signal auditif que par un signal visuel. Pas la peine ici de recréer un champ acoustique sophistiqué, mais simplement une spatialisation suffisante pour hiérarchiser les six ou huit avions suivis simultanément.
    Des tentatives sont en cours pour donner aux non-voyants un équivalent audio, en termes de reliefs et de reconnaissance de formes, d'un environnement physique qu'ils ne peuvent plus percevoir visuellement. Avec un casque et des "rayons sonores", ils arrivent à se faire une idée de la pièce où ils se trouvent.
    Parallèlement à la synthèse de milieux sonores inouïs, les recherches menées en acoustique virtuelle envisagent aussi comment capter le plus simplement possible des informations sonores de spatialisation (micros genre Soundfield SPS422, par exemple). Un exemple d'application est fourni par le CEA : lors du démantèlement des centrales nucléaires, des robots vont travailler dans des zones irradiées où l'homme ne peut accéder. Leur pilotage s'effectue pour l'instant par une interface essentiellement visuelle, exploitant les informations fournies par des caméras télécommandées. Cette interface montre cependant ses limites dans le cas banal d'une perte d'outil, qu'il est parfois très long de retrouver en orientant les caméras au hasard. Les ingénieurs du CEA souhaitent introduire la perception acoustique dans l'interface de commande. Correctement capté et transmis à l'opérateur dans un casque développé pour les applications d'acoustique virtuelle, le son permettrait de savoir instantanément où chercher l'outil perdu, en distance comme en position...
    Enfin, lien entre le son multicanaux et l'acoustique virtuelle, Dolby et Lake DSP viennent de collaborer dans un projet appelé Dolby Headphone, dont les premiers bénéficiaires sont, depuis le 1er Mai, les passagers "classe affaires" de la compagnie aérienne Singapore Airlines. Chaque voyageur avait déjà droit à son téléphone et à son écran vidéo avec choix du film projeté (eh oui, ils savent vivre, ces hommes d'affaires !). Dolby a acquis auprès de Lake DSP la licence permettant de reproduire dans des casques standard le son 5.1. Un traitement du signal distinct selon les avions où a lieu la projection permet d'augmenter encore l'impression sonore en tenant compte, par compression et égalisation ciblées, de l'empreinte sonore de l'ambiance : celle d'un 747, d'un A340... La (première) classe, quoi ! Dolby Headphones sera bientôt déclinée dans le grand public, vidéo et micro-informatique notamment. Pour l'anecdote, les compagnies aériennes paient à Dolby une redevance... au vol !
Des casques Surround
    Ce marché de la "transposition" (on ne peut plus guère parler de "réduction") au casque d'environnement multicanaux en s'inspirant du rendu de vraies salles de cinéma s'annonce très porteur. Mais, après tout, c'est Sennheiser, avec le Lucas, puis AKG, avec son Hearo, qui avaient défriché le terrain : ces casques sans fils alliés à une base munie d'un décodeur et d'un DSP spécialisé, faisaient intervenir des algorithmes tout droit venus de l'acoustique virtuelle pour "faire tenir" les quatre canaux d'un mixage Dolby Surround dans deux oreillettes seulement &endash le Lucas permet même de choisir sa place dans la salle ! Lake déclinera les principes du Dolby Headphones dans le secteur du lecteur DVD avec son système Personal Surround, basé sur un chip maison. Les bonnes idées sont décidément dans l'air : Sony vient de présenter le MDR-DS5000 (voir encadré), surnommé Digital Surround Headphone System - un concurrent direct du Personal Surround, donc. Comme par hasard, sa brochure publicitaire parle de HRTF, d'écoute binaurale, de premières réflexions... Vous savez à présent à quoi tout cela correspond !
    Enfin, nous l'avons dit, un des créateurs du Spatialisateur, Jean-Marc Jot, est parti chez E-mu/Creative Labs. En collaboration avec l'IRCAM, toutes les techniques acquises par le Spatialisateur sont en cours d'adaptation au monde des jeux. La phase de recherche et de développement touche à sa fin, la commercialisation ne saurait tarder... Voilà de la concurrence pour QSound, Aureal et les autres, dont les approches "3D" ne se sont jusqu'ici pas souciées d'inclure de vrais effets de salle &endash mais il paraît que la situation va changer d'ici peu... Vous voyez : l'acoustique virtuelle, ça sert à quelque chose ! A quand un film d'images de synthèse, par exemple, tirant enfin parti de toutes les ressources de ce nouveau domaine sonore, au lieu de rester "scotché" au mixage Surround...
Notes
    Des facettes au son

    Comment passer d'une modélisation physique fine, effectuée au départ pour appliquer des formules acoustiques simples, à un phénomène audible ? Rien d'impossible pour un mathématicien nourri aux transformées de Fourier... Sans rentrer dans le détail, l'ordinateur utilise les données physiques dont il dispose pour calculer une certaine "image sonore" de la salle, valable pour un point donné. En faisant subir à un son le plus neutre possible (enregistré en chambre sourde, ou sortant d'un synthé par exemple) une opération mathématique appelée "produit de convolution" avec la réponse impulsionnelle de la salle (son "image sonore" de tout à l'heure), et en restituant le résultat sous forme de modulation sonore, opération à la portée de n'importe quel DSP bien programmé, on aura l'impression que le son, au départ neutre, résonne vraiment dans ce local qui n'existe pas ! Pour mémoire, c'est selon ce principe que fonctionne la révolutionnaire réverbération Sony DRE-S777, prototype avancé vu au SATIS l'an dernier. C'est via son lecteur de CD-ROM qu'on introduit des réponses de salles prélevées un peu partout dans le monde, au Japon et ailleurs...

    Transaural/Binaural

    Comment faire entendre une acoustique virtuelle ? Obligatoirement au casque, pourrait-on croire, pour s'affranchir de la réponse de la pièce dans laquelle on écoute. Chaque oreille ne reçoit que le son calculé pour elle, et l'auditeur "baigne" dans l'espace recréé. Dite binaurale, l'écoute au casque n'est toutefois pas la seule possible... On peut aussi, en étant malin, recréer des ambiances crédibles avec sa voisine l'écoute transaurale &emdash avec deux haut-parleurs, si vous préférez. Problème : une certaine diaphonie est inévitable. C'en est fini de la confidentialité gauche/gauche-droite/droite, l'oreille droite recevant toujours une partie de ce qu'émet l'enceinte gauche et inversement. D'où brouillage de nos informations acoustiques si finement recréées. Une solution consiste, envisageable pour un point d'écoute précis, à calculer ce qu'aurait perçu l'oreille non concernée, puis à soustraire ce signal "à la source". C'est ce qu'on appelle annulation des trajets croisés.
    Pour une chaîne hifi, devant laquelle on n'occupe pas toujours forcément la même place, ce dispositif "valable en un seul point" est un peu draconien. en revanche, l'ordinateur personnel se prête fort bien à une écoute de type transaural : devant son écran, la tête occupe toujours la même position, reste à peu près fixe et au milieu des enceintes : la zone d'écoute optimale ! Cela dit, même hors de cette sweetspot, les principes d'écoute transaurale restent "en gros" valables, tout ne disparaît pas dans un magma déspatialisé : même si les localisations sont moins précises, la spatialisation du mixage reste, en gros, respectée.
    Comme on le voit, les deux types d'écoute sont très différents : c'est pourquoi nombre de logiciels d'acoustique virtuelle permettent de choisir un format binaural ou transaural pour écouter le fruit de leurs calculs.

    La tete du client

    Même si nous ne nous en apercevons pas, les sons qui nous parviennent subissent un filtrage dû à l'effet de masque de notre tête, aux formes géométriques de nos pavillons auditifs, au conduit qui mène au tympan... Ce phénomène, qui influe non sur le contenu spectral et sur les phases, s'intitule HRTF, pour Head-Related Transfer Function. Bref, notre ordinateur aura beau calculer une superbe ambiance de salle, l'auditeur, au casque, n'y croira pas ! Que faire ? Modéliser l'oreille et les déformations qu'elle inflige aux ondes sonores ! Il faut donc en passer par une sorte de "prise d'empreinte" des organes &emdash auditifs, cela s'entend &emdash de chaque auditeur, et en déduire un fichier dont se serviront les logiciels de simulation. Comme s'ils n'avaient pas déjà assez à faire ! Complexe, fastidieux ? Pour le moins... Irréalisable ? Non : les scanners 3D existent &emdash nous les avons rencontré &emdash, leur prix baissera, et rien n'interdit d'imaginer qu'un jour, on propose à l'acquéreur d'un ensemble casque/DSP de prendre gratuitement le cliché de sa tête. Autre approche : en étudier un certain nombre (de têtes) pour en déduire un modèle "moyen" auquel apporter des aménagements selon la morphologie de chaque individu.

    Sony MDR-DS5000

    Sony, dont la réputation en matière de casques avec ou sans fil n'est plus à faire, vient d'entrer dans le domaine des "casques Surround" de belle manière avec le MDR-DS5000, qui accepte des flux Dolby AC-3, en 5.1 donc ! Le compagnon rêvé d'un lecteur de DVD-Video : il suffit de le brancher sur la sortie numérique d'icelui pour savourer la bande son dans d'excellentes conditions, sans devoir acheter de gros ampli Home Theater ni loger cinq enceintes identiques plus un caisson de graves dans son séjour. Voilà qui fait passer un prix qui peut sembler un peu élevé (3490 F).
    A un niveau plus technique, le casque est à structure ouverte, la distance de réception est de 10 mètres, l'angle de réception de 90°, les piles rechargeables fournies donnent environ 30 heures d'autonomie, la bande passante du casque s'étend de 12 Hz à 24 kHz, et l'embase où se trouve le DSP est munie d'une prise casque ordinaire avec réglage de niveau !



    Remerciements à Bruno Suner, Vincent Puig et Olivier Warusfel pour l'aide apportée à l'élaboration de cet article.

Soyez le premier à donner votre Avis
Vous devez être identifié comme membre pour pouvoir utiliser cette fonctionnalité!
Pas encore membre?
Devenez membre! C'est rapide, gratuit et cela vous permet de poster vos annonces, vos news, des questions dans les forums, de changer vos réglages d'affichage...
Contribuez
PcMusic est VOTRE site.Participez à son évolution...
Cette section de PcMusic est entretenue par Nantho et l'équipe des traducteurs. N'hésitez pas à lui proposer vos articles.
04:37 CEST - © PcMusic 1997-2017