la fraude de la composition multicanal
Lors de la création d’une pièce électroacoustique vouée à être jouée en concert sur acousmonium, deux solutions nous sont généralement présentées. La première est de composer une pièce en stéréophonie qui sera ensuite spatialisée grâce à la console de diffusion. La seconde est de composer l’espace en studio en écrivant une pièce multicanal, souvent une octophonie, qui sera retransmise en concert sur une couronne octophonique de huit haut-parleurs.
Un ou une compositrice novice et soucieuse de l’espace pourrait être tentée de composer en multicanal. Le schéma de pensée est simple à suivre : je n’ai pas d’expérience dans l’interprétation sur acousmonium, je ferais mieux de composer l’espace en studio pour me faciliter la tâche lors du concert. Seulement, il s’agit en réalité d’une assez mauvaise idée, car l’espace ne se réduit pas à l’emplacement des objets sonores, il est en vérité bien plus complexe et subtil que ce qu’on l’on pourrait imaginer au premier abord.
la maitrise et l’abstraction de l’emplacement des sons
flou sémantique de l’espace
L’espace est une composante toute aussi centrale à la musique qu’est le temps. L’idée qu’un son porte une identité spatiale — dérivée de l’acoustique de son lieu de création, ou de remédiation, qu’il soit loin ou proche — nous paraît très naturel (Terugi, 2019). On parle d’ailleurs de sons lointains, intimes, caverneux, naturels, réverbérés, voire cosmiques, même s’il s’agit ici d’espaces plus imaginaires que concrets.
La musique a longtemps été créée pour des lieux précis, en fonction du contexte. On pourrait dire que l’acoustique d’un lieu fait partie de l’Aura telle que décrite par Walter Benjamin : sortir une œuvre de son acoustique d’origine pour la transposer vers une autre acoustique éloigne l’œuvre de sa portée originale. On l’entend aujourd’hui par exemple dans la grande différence entre l’écoute d’une symphonie enregistrée sur CD et l’écoute en concert : le CD ne retransmet pas toutes les sensations de l’air de la salle qui vibre et résonne au rythme des milliers de sons réfractés par toutes les surfaces complexes et les personnes présentes. Mais cette observation pourrait peut-être aussi s’appliquer à des musiques plus anciennes, plus archétypales ? Que serait par exemple le chant grégorien sans l’apport de la réverbération d’église ? Ou encore des possibles chants rituels préhistoriques sans la puissance d’une caverne pour les amplifier ?
Mais bien sûr, toutes ces descriptions du lien entre l’espace et la musique sont profondément imprécises, floues et nébuleuses. Elles sont encore beaucoup débatues dans les milieux universitaires dans l’esthétique et la musicologie (Gruodyté, 1998). Mais j’ai l’intime conviction que parler d’espace ou de temps dans la musique demande une telle abstraction, car il s’agit de sujets de fond qui touchent tous les aspects de celle-ci. Mais dans une société régie par la raison, le besoin de précision, de science et de structure, ce flou est inacceptable.
l’espace comme paramètre indiscrétisable
Une note est une unité discrète. Les tons, demi-tons, quarts de tons… strient l’ensemble des fréquences en balises repérables et reproductibles par différents instrumentistes, avec une marge d’erreur acceptable. Chaque note possède aussi une durée précise. Cette durée est elle-même une unité discrète subdivisée ou multipliée à partir d’une unité temporelle fixe qu’est celle de la battue. L’intensité de la note peut aussi être subdivisée en teintes de piano ou de forte, alors même que l’intensité est une valeur fluide. Il en va de même pour les types de jeu, les indications de timbre, d’attaque… qui peuvent être d’une complexité infinie mais qui se retrouvent bornées par des catégories, des unités reproductibles.
L’ensemble de la musique écrite s’est basée sur ce procédé de discrétisation du continu pour obtenir des unités discrètes. Ces mêmes unités discrètes peuvent être assemblées, composées entre elles pour former une musique, reproductible à ceci près par différents interprètes, dans différents lieux. C’est en cela que la musique écrite, notamment en occident, se rapproche d’un langage, et que des traités sont apparus pour donner la manière correcte de la créer, selon ses codes, selon sa syntaxe.
Au XXe siècle s’est opéré un changement de paradigme. Ces éléments quasi-langagiers permettant aux compositeurs d’arriver à leur fin, d’exprimer quelque chose, ont été soudain transformés en paramètres sur lesquels on pouvait plaquer des modèles recombinatoires. Il ne s’agissait plus d’exprimer quoi que ce soit, mais de montrer la structure d’un modèle par ces éléments. Dans un premier temps, la musique sérielle a mis en série les douze demi-tons, puis les intensités, les modes de jeux, les durées ont aussi été sérialisées dans les mouvements post-sériels.
Un dernier paramètre semblait alors à maîtriser. L’espace devait être discrétisable comme tous les autres, mais celui-ci, en soi, résiste beaucoup à ce découpage. Comment différencier l’espace d’une salle à une autre ? La taille ne donne pas toutes les indications, et qu’en est-il des espaces extérieurs ? Un espace proche de la mer mais quelle mer ? La proximité d’un océan donne-t-il la même sensation d’espace ? Comment sectionner quelque chose d’aussi vaste ?
biais visuel et approche cartésienne de l’emplacement
Pour opérer le processus de discrétisation de l’espace, il a fallu réduire fortement sa portée, le transformant en l’emplacement de la source émissive. L’idée est que tout son provient d’une source sonore qui, pour des raisons de simplicités, peut être réduit en un point émissif omnidirectionnel. Ce point peut ensuite être placé dans un espace bi ou tridimensionnel virtuel. Cette approche visuelle, influencée par la physique et les mathématiques, permet de réduire la complexité de l’espace en un ensemble de 3 valeurs continues selon le modèle cartésien : X, Y et Z. Bien qu’elle soit plus simple à appréhender, elle ne colle pas à notre vécu de l’espace sonore (Villela-Petit, 1998).
Mais ce n’est pas encore assez décomposé pour être sérialisé. Une méthode peut-être de choisir un nombre fini d’emplacements et d’assigner un nombre entier à chacun de ces endroits dans le plan ou dans le volume. Ainsi, nous pouvons dire que telle note sera à l’emplacement 2, ou 6, ou 13… qu’importe ! du moment que la série le dicte…
C’est cette discrétisation et cette paramétrisation de l’espace qui se met en place dès lors que l’on compose une pièce en multicanal. On paramètre le son pour qu’il aille à différents degrés d’intensité dans chaque haut-parleur, qui représentent une position fixe dans l’espace. C’est un choix du compositeur, l’emplacement du son est dicté par l’écriture de la musique, imaginé dans le confort de la cabine de studio. Et il sera — a priori — perçu par le public de la manière exacte voulue par le compositeur, car les dispositifs sont basés sur la même norme. Mais l’espace, aussi complexe soit-il, ne se laisse pas faire quant à sa réduction. Il pose de nombreux obstacles à sa maitrise par l’esprit et la raison.
une réalisation pratique fragile et variable
Afin de clarifier mes propos, je parle ici de composition multicanal comme une composition électroacoustique pour un nombre de canaux supérieur à deux, en général quatre ou huit, destinés à être diffusés sur le même nombre d’enceintes ayant la même disposition, sans réelle interprétation lors de la diffusion. C’est une approche qui vise à composer et écrire l’espace en studio. L’autre approche consiste plutôt à interpréter — à partir d’une composition en stéréophonie ou monophonie — une pièce et choisir en direct dans quel haut-parleur envoyer le son afin de gérer l’espace de manière empirique. Ce sont deux approches qui se retrouvent aujourd’hui dans la diffusion de pièces électroacoustiques en concert.
complexité source de variance
La multiplication des haut-parleurs nécessaires pour une diffusion multicanal engendre une multiplication des facteurs de variance au sein du système de diffusion, ce qui rend le résultat sonore et la perception d’espace imprévisible. Pour les compositeurs, cela engendre souvent une certaine déception à l’écoute de la différence entre l’espace imaginé en studio et l’espace concret de la salle.
De plus, la complexité de la diffusion multicanal (nombre de fichiers son importants, routing multipoint, matériel spécialisé…) empêche une certaine flexibilité lors de la diffusion en concert (Vande Gorne, 2012). On se retrouve avec un encodage de l’espace lourd et difficile à adapter.
Et tous ces problèmes s’amplifient plus la salle et/ou le public s’agrandit, en raison aux propriétés inhérentes au son et aux haut-parleurs de diffusion. En général, seule les diffusions en plein-air ou dans des salles dédiées spécifiquement à l’écoute de pièces électroacoustiques permettent d’éviter les différents soucis techniques que je vais développer ici.
la non-uniformité de l’image multicanal
La quasi-totalité des haut-parleurs possède ce que l’on appelle un cône d’émission : il s’agit d’un volume d’air se déployant depuis la membrane et selon un angle d’ouverture où la majorité de l’énergie acoustique est transmise, dans un souci d’efficacité énergétique. Ceci diffère des instruments de musiques qui se rapprochent de manière plus ou moins distordues d’un front d’onde sphérique, que l’on peut aussi qualifier d’omnidirectionnel.
Dans le cas d’une diffusion avec un seul haut-parleur, le problème est simplement résolu. Pour bien entendre, il suffit de diriger ce cône de diffusion vers le public afin qu’un maximum d’énergie soit envoyé vers les oreilles des auditeurs. Dans le cas de la stéréophonie avec deux canaux, les choses se complexifient un peu.
Pour réussir à donner l’impression que les sons viennent d’un espace fantôme situé entre les deux haut-parleurs, il faut que les auditeurs puissent avoir une énergie acoustique égale de ces deux haut-parleurs. En général, on recommande d’avoir un triangle équilatéral entre les auditeurs et les deux haut-parleurs. Plus l’audience est grande, plus il sera nécessaire d’éloigner les haut-parleurs entre eux mais aussi du public pour garder ce triangle équilatéral en place. Sinon, les auditeurs des premiers rangs risquent de n’entendre qu’un seul des deux haut-parleurs, donnant l’impression que le son vient d’une extrémité de la scène plutôt que du centre.
Cette problématique s’amplifie plus on cherche à diffuser un nombre de canaux élevé. La surface d’écoute convenable se resserre de plus en plus et demande à ce que les haut-parleurs soient situés de plus en plus loin de l’audience pour garder le même effet de localisation fantôme. Cependant, les salles sont souvent très limitées dans leur dimension latérale, ce qui fait qu’on se retrouve souvent à avoir des haut-parleurs très proches du public, hurlant dans les oreilles de celles et ceux qui n’ont pas eu le mot des habitués leur disant que les meilleures places d’écoutes étaient au centre…
La diffusion en multiphonie est donc souvent très éloignée des standards millimétrés que l’on retrouve dans les studios d’enregistrement, où les enceintes sont bien équidistantes entre elles et par rapport aux compositeurs, donnant un enveloppement parfait et prévisible du son… La réalité de la diffusion est souvent bien plus complexe et difficile à mettre en œuvre dans des salles réelles pour un public réel.
problèmes temporels
En plus des problèmes de volume sonore et de répartition de l’énergie dans l’espace, un autre problème se pose dans les grandes salles. Le son se propage environ à 340 m/s, selon les conditions atmosphériques, ce qui n’est pas si rapide au final… et qui peut poser des soucis pour les auditeurs qui ne seraient pas exactement au centre de toutes les enceintes.
Imaginons qu’un compositeur souhaite faire entendre deux impulsions courtes en simultané à deux endroits opposés de la salle et qu’il réussit à diffuser sa pièce dans une grande salle de concert. L’auditeur au centre — généralement le compositeur lui-même lors des diffusions acousmatiques — entendra bel et bien ces évènements en simultané vu qu’il est à une distance égale de chaque haut-parleur, précisément comme il l’a imaginé en studio.
Pour la poignée d’auditeurs qui auront réussi à avoir une place dans les 2 mètres du centre, ils entendront les évènements avec moins de 6 ms de décalage, ce qui donnera une impression de simultanéité, mais des possibles décalages de phases, et donc des modifications de timbre. Peut-être pas ce que le compositeur souhaitait…
Pour les auditeurs chanceux se trouvant dans les 3 à 10 mètres du centre, le décalage temporel sera de 10 à 30 ms, ce qui enclenche ce qu’on appelle l’effet de précédence ou effet Haas. Pour le dire simplement, il s’agit d’un effet psychoacoustique qui donne l’impression que le son vient uniquement de l’endroit où il a été entendu en premier, même si la deuxième arrivée du son est plus forte que la première. C’est un effet utile en sonorisation classique mais qui, dans ce cas, annule l’effet souhaité par le compositeur en donnant l’impression que le son ne vient que d’un seul haut-parleur…
Enfin, pour les auditeurs à plus de 10 m du centre, le décalage temporel passe au-dessus des 30 ms. C’est un tel décalage qu’un des deux sons est perçu comme un écho du premier, ruinant totalement l’effet souhaité par le compositeur. On peut ainsi voir que plus la salle est grande, plus le travail rythmique dans l’espace sera flouté pour les auditeurs excentrés, en plus des nombreux problèmes de phases qui peuvent découler de cette réalité temporelle. Et tout ça sans même que le compositeur s’en aperçoive lors de la diffusion, vu qu’il est généralement positionné au centre…
une influence de l’acoustique de diffusion
Enfin, la dernière variable dans la diffusion d’une pièce multicanal est l’acoustique de la salle. Il est très rare d’avoir des concerts dans des acoustiques neutres de salles sourdes ou quasi anéchoïques car elles sont très peu valorisantes pour la musique instrumentale qui demande un certain taux de réverbération.
Bien que ces acoustiques réverbérantes puissent permettre d’amoindrir l’incidence des problèmes cités précédemment, ils peuvent en apporter d’autres (Macé, 2012), notamment au niveau de la perception de l’espace et des mouvements. Elles ont tendance à flouter l’origine des sources sonores tant au niveau de leur position géographique ou dans le temps (Vande Gorne, 2012), ce qui fait qu’un travail très détaillé et pointilliste de l’espace en studio pourrait sonner comme de la bouillie spatio-temporelle dès lors qu’elle est jouée en concert…
Certaines enceintes peuvent être amplifiées à certains endroits à cause de nœuds de pression acoustiques, d’autres peuvent être assourdies ce qui donne l’impression qu’elles sont plus loin et, pire encore, la présence du public crée une masse extrêmement absorbante qui peut totalement déséquilibrer l’image spatiale d’une pièce entre les répétitions et le concert.
Encore une fois, ces problématiques s’appliquent à toute diffusion en salle de concert. La seule différence est qu’une composition multicanale est beaucoup moins flexible et adaptable qu’une composition en duophonie ou monophonie, ce qui fait que les résultats sont souvent assez décevants, et ils le sont d’autant plus lorsque les interprètes ne sont pas au fait des difficultés qui sont liées à ce format de pièces.
le besoin d’une normalisation stricte
Pour palier ces soucis de diffusion, notamment en salle de concert, il faudrait un certain contrôle et une certaine normalisation des moyens d’écoutes multicanales. Mais cette approche pose encore de nombreux obstacles propres à chaque type d’écoute.
écoute personnelle
Une première approche pour mieux contrôler l’écoute multicanal serait de se rapprocher d’une écoute de studio, dans le cadre d’une écoute plus personnelle. On pourrait par exemple envisager une généralisation de la quadriphonie, c’est-à-dire avec quatre haut-parleurs, ou en 5.1. Seulement, l’investissement financier nécessaire pour de tels dispositifs est prohibitif pour beaucoup d’auditeurs et demande aussi un traitement de la salle pour éviter les effets d’une acoustique non-neutre.
Une autre approche, plus accessible, est celle du rendu binaural. À l’aide d’un casque ou d’écouteurs, il est possible de tromper l’oreille sur l’origine des sons en imitant les déformations de timbre, de temps et d’amplitude perçus selon l’emplacement des sons par rapport aux oreilles dans une écoute quotidienne. On utilise pour ça des HRTF qui sont censées modéliser les transformations moyennes du son selon son origine spatiale pour tous les auditeurs. Mais cette modélisation moyenne ne tiens pas compte de la morphologie des oreilles de tous, ce qui peut casser l’effet de binauralité pour certaines personnes.
La binauralité est une méthode simple pour donner un rendu spatial complexe à partir de moyens limités, et elle est relativement compatible avec les outils disponibles car elle est encodée sur deux canaux comme la stéréophonie classique. Mais elle est limitée puisqu’elle ne donne qu’une écoute individuelle de l’espace, il est donc nécessaire de trouver des moyens plus concluants pour l’écoute collective.
écoute en lieu dédié
Pour résoudre les soucis de diffusion liés aux salles de concerts, il serait nécessaire de mettre en place des lieux dédiés à la diffusion de pièces sur support ou électroniques et d’instaurer une norme de diffusion reproductible entre plusieurs espaces, qui garantisse un rendu satisfaisant pour tout le public et reproductible entre les salles.
On retrouve ce genre de normes au cinéma avec les dispositifs 5.1 ou 7.1 qui sont standardisés entre les salles de projection. Une seule bande son peut donc être utilisée pour l’ensemble des salles et la norme garantit une reproduction fidèle entre celles-ci. Certaines normes comme le Dolby Atmos permettent d’aller encore plus loin en proposant une diffusion conforme aux normes de qualité tout en étant indépendante au système précis de diffusion : elle s’adapte au dispositif présent et rend l’audio qui est encodé sous forme de scène et d’objets mouvants dans un espace tridimensionnel virtuel.
On pourrait imaginer des salles dédiées à l’écoute de musique spatialisée, à l’image des salles de cinéma, où les auditeurs pourraient payer un ticket pour venir écouter telle ou telle pièce dans les meilleures conditions possibles, en suivant ces normes de diffusion (Macé, 2012). Plus réalistiquement, les clubs et autres salles de concerts orientées vers les musiques actuelles pourraient être équipée de systèmes de diffusion spatiale normalisés.
Mais l’écoute de musique en concert ou en club est encore beaucoup rattachée à l’idée de performativité, que ce soit par un DJ ou par de la musique créée en direct. Et les outils qu’utilisent ces artistes performateurs ne sont pas encore adaptés à une diffusion multicanal. On se restreint souvent à la monophonie ou la stéréophonie, et les dispositifs de création musicale spatialisée qui existent sont soit très onéreux, soit peu intéressants à regarder — par exemple lorsque les musiciens ont les yeux rivés sur leur ordinateur. On pourrait militer pour le développement de tels outils, mais se pose alors la question de la pertinence : est-ce que le public est réellement sensible à ces explorations de l’espace multicanal dans la musique ?
imprécisions locatives et espaces de l’écoute
la perception locative et ses limites
La théorie sur l’emplacement des sources sonores est séduisante : elle donne l’impression aux compositeurs de maîtriser une des composantes fondamentales du son par le biais d’une simplification de celle-ci, souvent appuyé par des représentations graphiques dans les logiciels de spatialisation. Mais malheureusement, la composition complexe de l’emplacement des sources n’aurait du sens que si nous pouvions le percevoir aussi précisément qu’il aurait été imaginé.
Et c’est là le souci majeur de la gestion de l’emplacement des sources : nous ne sommes pas très sensibles à l’audition de ce phénomène (Bayle et al., 1998). Par rapport à d’autres animaux, nous ne pouvons pas orienter nos oreilles dans différentes directions indépendantes pour préciser l’origine d’un son à partir des différences interaurales. À cause de la forme de nos oreilles relativement symétrique nous donne des zones d’incertitude de la localisation : par exemple, sans repères visuels, il est difficile de discerner un son grave venant de droit devant ou droit derrière nous, ou bien au-dessus et en dessous de nous.
Il est déjà difficile d’identifier l’origine d’un seul son, mais identifier la provenance de plusieurs en son simultané pose encore plus de soucis. En y réfléchissant, c’est grâce à cette imprécision de l’écoute que l’effet stéréophonique fonctionne : ne sachant pas d’où le son viens exactement, nous plaçons l’ensemble des sons à la moyenne perçue de leur emplacement, alors même qu’aucun son n’est émis à cet endroit précis.
La gestion de l’emplacement des sons est donc une de ces pratiques qui est très plaisante à maîtriser pour les compositeurs, mais qui n’a au final que peu d’incidence pour les auditeurs. Mais la notion d’espace au sens plus large reste une composante majeure de la musique, y compris au niveau phénoménologique, notamment car elle mêle de nombreux paramètres complexes pour s’exprimer.
la profondeur de champ
La diffusion radiophonique a longtemps été faite en monophonie. On y retrouvait des émissions, de la musique, mais aussi des fictions sonores. Comment faire pour avoir une narration qui ne soit pas plate ? La manière la plus simple pour ajouter du relief et une sensation d’espace est de jouer avec la profondeur. On peut ainsi mettre en place des plans sonores, à l’image des différents plans dans les arts visuels.
D’un point de vue technique, la profondeur est difficile à décrire car elle dépend de multiples facteurs : la variation de volume est évidemment un indice, mais l’allure, le niveau de diffusion, le timbre, la réverbération sont aussi des variables qui rentrent en compte. Les habitudes d’écoutes des auditeurs peuvent aussi influencer cette impression. Un murmure tout près de l’oreille peut être plus fort qu’un cri à l’autre bout de la forêt, mais on saura immédiatement lequel est le plus proche.
La monophonie peut donc être porteuse d’une sensation complexe d’espace (Bayle 2019), avec plusieurs plans, possiblement des mouvements… qui doit être travaillée. On arrive d’ailleurs parfois à des situations absurdes où certaines diffusions en multicanal sont plus plates que des diffusions en monophonie parce que cette notion de plan sonore n’a pas été travaillée.
la prévalence de l’empreinte d’acoustiques
Une autre composante de l’espace est plus importante que l’emplacement des sons : il s’agit de l’empreinte acoustique. Imaginons un claquement de main dans un studio d’enregistrement… puis dans une salle de bain, un tunnel, une forêt, un café, une usine, près de la mer ou en montagne. Tous ces sons sont des claquements de main, mais ils sont tous extrêmement différents car le lieu dans lequel ils ont été produits a laissé une empreinte sur ceux-ci.
C’est là la grande magie de la remédiation par l’enregistrement. Elle nous permet de transporter des acoustiques entières en donnant à entendre l’empreinte qu’elles ont laissées sur le son. Tout comme les enregistrements nous permettent de voyager dans le passé, en écoutant la voix de défunts par exemple, ils nous permettent aussi de voyager dans l’espace, de lieux en lieux, d’ambiances en ambiances.
Les adeptes de l’écoute réduite pourront dire que ce sont des sons totalement différents et qu’ils n’ont rien à voir entre eux. Et il y a une part de vérité dans ce prédicat. Un son inouï, qui n’a jamais été entendu, peut difficilement porter une acoustique car nous n’arriverions pas à discerner le sujet de son acoustique, le réduisant effectivement à un unique sujet englobant. Mais pour les sons qui sont inscrits dans notre culture d’écoute, individuelle ou collective, l’acoustique du lieu se révèle par l’empreinte qu’elle laisse sur le sujet. Et il s’agit pour moi d’une force du son enregistré, une sorte de pouvoir de transportation, qu’il ne faudrait pas tenter d’effacer.
l’immersion dans les sons
En revanche, la multiplication des haut-parleurs comme dans le cas de l’Acousmonium du GRM — on parle alors de multiphonie — a permis de retrouver un aspect de la musique qui s’était perdu dans les traditions occidentales : l’enveloppement par les sons.
Les actuelles salles de concert classique sont en partie dérivées des salles d’opéra où l’orchestre est monté de la fosse à la scène. Il en est resté, y compris pour les salles de musiques actuelles, un rapport très fort à la frontalité. Il y a une séparation nette entre l’artiste au devant et le public en face de lui. Lors des débuts de la sonorisation, l’évolution naturelle a été de placer des haut-parleurs en face du public, toujours dans ce rapport frontal.
Mais la musique n’a pas toujours eu ce rapport frontal, que ce soit en musique traditionnelle ou en musique folklorique. On peut par exemple citer les kiosques à musique du XIXe et XXe, scène couverte d’allure circulaire ou, de manière plus prononcée, l’orgue d’église. Pour signifier l’omniprésence de Dieu, l’architecture des églises catholiques privilégiait une très grande diffusion du son de l’orgue, qui enveloppe le public — orgue qui d’ailleurs était en grande partie hors de la vue des pratiquants… un élément précurseur de l’acousmatique ?
Le déplacement des haut-parleurs de la scène vers le public permet de retrouver cette sensation d’enveloppement par les sons. Lors de l’interprétation acousmatique, nous pouvons envoyer du son sur ces enceintes côté public, voire créer un certain mouvement de manière empirique pour envelopper le public avec notre composition, ses plans et ses empreintes acoustiques — en dosant bien pour ne pas arracher les oreilles de ceux qui se trouvent juste à côté !
L’espace est une composante essentielle à la musique et au sonore. C’est une notion qui infuse et s’exprime par beaucoup de moyens, de manière très complexe. Sa réduction en un seul paramètre maitrisable que représente l’emplacement des sons détruit sa complexité et sa finesse pour devenir un élément qui au final n’a que peu d’incidence à l’écoute.
La maitrise de l’emplacement des sons n’est pas un mal en soi. Dans les compositions multicanal, le problème est que l’espace est réduit à ce paramètre, soi-disant régi par la pensée compositionnelle. En raison de leur inertie technique, il en résulte souvent des pièces manquant de profondeur, très statiques dans leur déploiement en concert, privilégiant l’espace composé à l’espace entendu et vécu par les auditeurs.
Il reste de l’espoir cependant. Une bonne interprétation en concert est possible, mais il est nécessaire que les interprètes aient conscience des difficultés liées au déploiement des pièces multicanal. Il s’agira pour eux de prendre des décisions plus radicales et empiriques pour donner à entendre la meilleure pièce possible, quitte à s’éloigner du standard dicté par le format multicanal. Une octophonie n’est pas obligée d’être strictement limitée à une couronne de huit haut-parleurs équidistants et au niveau de sortie égal : des adaptations peuvent être nécessaire en fonction de la salle et de la pièce, pour une meilleure expérience de l’écoute.
Références :
- Bayle, François. 2019. « L’espace en question ». Dans Composing listening = Composer l’écoute, édité par François-Jacques Bonnet et Bartolomé Sanson, 105‑12. SPECTRES 1. Regnéville-sur-Mer: Shelter Press.
- Bayle, François, Eric Daubresse, Pierre-Alain Jaffrennou, François Nicolas, et Jean-Claude Risset. 1998. « L’espace et l’électroacoustique ». Dans L’espace, musique/philosophie, édité par Jean-Marc Chouvel et Makis Solomos, 373‑90. Collection Musique et musicologie. Paris: L’Harmattan.
- Gruodyté, Vita. 1998. « Sur des modèles de configuration spatiale ». Dans L’espace, musique/philosophie, édité par Jean-Marc Chouvel et Makis Solomos, 203‑10. Collection Musique et musicologie. Paris: L’Harmattan.
- Macé, Pierre-Yves. 2012. « Espaces appareillés ». Dans La spatialisation des musiques électroacoustiques, édité par Laurent Pottier, 27‑38. C.I.E.R.E.C Travaux ; Musique et musicologie 157. Saint-Étienne: Publications de l’Université de Saint-Étienne.
- Teruggi, Daniel. 2019. « Les espaces de l’esprit ». Dans SPECTRES I. Composing listening = Composer l’écoute, édité par François-Jacques Bonnet et Bartolomé Sanson, 91‑98. SPECTRES 1. Regnéville-sur-Mer: Shelter Press.
- Vande Gorne, Annette. 2012. « L’espace comme cinquième paramètre musical ». Dans La spatialisation des musiques électroacoustiques, édité par Laurent Pottier, 53‑80. C.I.E.R.E.C Travaux ; Musique et musicologie 157. Saint-Étienne: Publications de l’Université de Saint-Étienne.
- Villela-Petit, Maria. 1998. « La Phénoménalité spatio-temporelle de la musique ». Dans L’espace, musique/philosophie, édité par Jean-Marc Chouvel et Makis Solomos, 29‑40. Collection Musique et musicologie. Paris: L’Harmattan.