Mémoire de fin d'études

École Nationale Supérieure Louis Lumière Promotion 2018 Section Son

Salomé BENOIST

PRODUCTION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE PAR DÉTOURNEMENT D'EFFETS APPLIQUÉS À LA VOIX

Directeur interne : Pascal Spitz Directeur Externe : Charles Michaud Rapporteur : Jean Rouchouse REMERCIEMENTS

Un grand merci à ...

Yohan BOISGONTIER, pour avoir été mon co-producteur et un ami de bon conseil.

Aloyse LAUNAY, pour son coaching vocal et son aide sur la composition.

Benoît FLEURY, pour sa disponibilité et son soutien.

Pascal SPITZ et Charles MICHAUD, pour m'avoir soutenue en tant que directeurs de mémoire.

Caroline ROUZAUD et Philippe BENOIST pour leur appui et leur réconfort.

Et enfin, merci au Club du CDI pour sa présence quotidienne et son assistance morale.

1 RÉSUMÉ

M'interrogeant sur la portée des efets appliqués à la voix, c'est-à-dire des traitements sonores qui font fit de la transparence et altèrent la source de manière évidente, mon désir pour ce mémoire était de créer une pièce de musique électronique intégrant cette réflexion. J'y démontre que ces derniers peuvent transformer la texture et l'élocution du chant et ainsi en faire de nouveaux moyens expressifs. Les efets que j'utilise sont obtenus par détournement des modules de la suite Izotope RX, destinés principalement au nettoyage et à la réparation d'enregistrements. Le détournement est un vecteur majeur de création en musique. Par ce procédé, j'espère ainsi obtenir des matières sonores inédites à inclure dans ma composition. Néanmoins, je souhaite ancrer ma production dans la pratique populaire musicale. Ainsi, je cherche à la rendre plaisante à l'écoute et compréhensible intuitivement, sans nécessité d'intellectualisation, tout en tentant de transmettre par tous les aspects de la composition les sentiments exprimés par les paroles de ce morceau.

Réussirais-je à communiquer des émotions grâce à l'usage de ces nouveaux efets tout en proposant une pièce musicale répondant aux codes de la création actuelle ?

Mots-clés : musique électronique – voix – efets sonores – composition – détournement – Izotope RX

2 ABSTRACT

As I was questioning myself about the scope of efects applied to voice, which are sound treatments that don't bother about transparency and obviously alter the source, I desired for this Master's thesis to create a electronic music piece which integrate this reflection. I explain that they can transform the texture and the elocution of the voice into new expressive means. The efects I use are obtained by hijacking the Izotope TX plug-ins, mainly intended for cleaning and repairing records. Hijacking is a major vector in musical creation. By this process, I hope to obtain new sound materials to include in my composition. Nevertheless, I wish to anchor my production in popular musical practice. Thus, I try to make it pleasant to listen and intuitively understandable, without the need for intellectualization, while trying to convey through all aspects of the composition the feelings expressed by the lyrics of this piece.

Would I succeed in communicating emotions through these new efects while ofering a musical piece that meets the codes of the current production ?

Keywords : electronic music – voice – sound efects – composition – hijacking – Izotope RX

3 TABLE DES MATIÈRES

REMERCIEMENTS...... 1 RÉSUMÉ...... 2 ABSTRACT...... 3 TABLE DES MATIÈRES...... 4 INTRODUCTION...... 6

I. LES ENJEUX DU DÉTOURNEMENT, DES EFFETS, ET DE LEUR APPLICATION À LA VOIX..8 1) LE DÉTOURNEMENT DES OUTILS, VECTEUR DE NOUVEAUTÉ EN MUSIQUE...... 9 a – Premiers détournements technologiques, les expérimentations des musiciens savants...... 10 b – Le détournement des traitements du son, une afaire d'ingénieur du son ...... 15 c – Bricolage et sérendipité en musique électronique, l'afaire de tous...... 20 2) ANALYSER LA VOIX ET SES TRAITEMENTS...... 26 a – L'efet, renfort de la signification ...... 26 b – L'inquiétante étrangeté de la voix traitée...... 30 c – « Le grain de la voix » et la recherche d'une approche intuitive...... 35 3) INTRODUCTION DE LA VOIX DANS LA MUSIQUE ÉLECTRONIQUE PAR L'USAGE D'EFFETS...... 39 a – La représentation de l'humanoïde par l'autotune et le vocodeur...... 40 b – L'expression des sentiments par l'usage de l'efet...... 45

II. PROPOSITION D'UN NOUVEL EFFET APPLIQUÉ À LA VOIX OBTENU PAR DÉTOURNEMENT...... 52 1) LES PRÉMICES DE LA CRÉATION...... 53 a – Présentation de la suite Izotope RX...... 53 b – Essais pour l'obtention de nouvelles textures avec la suite Izotope RX...... 59 c – Les acteurs de la création...... 65 d – Le choix du thème et des paroles...... 68 2) RÉALISATION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE...... 73 a – La création de la première maquette...... 73 b – Les ajustements et le choix de la structure...... 76 c – Le travail sur la voix...... 79 d – Le mixage...... 84

4 III. CRITIQUES ET RÉFLEXIONS AUTOUR DU RÉSULTAT...... 87 1) LA MISE EN PLACE DU QUESTIONNAIRE...... 88 2) RETOURS DU PUBLIC SUR LA CRÉATION...... 90 a – Retours généraux...... 90 b – Les émotions ressenties...... 91 c – La compréhension et l'appréciation de l'efet...... 92 d – La reconnaissance des influences...... 94

CONCLUSION...... 96 BIBLIOGRAPHIE...... 100 DISCOGRAPHIE...... 102 TABLE DES ILLUSTRATIONS...... 103 ANNEXES...... 104

5 INTRODUCTION

M'interrogeant sur la portée des efets appliqués à la voix, c'est-à-dire des traitements sonores qui font fit de la transparence et altèrent la source de manière évidente, mon désir pour ce mémoire est de créer une pièce de musique électronique intégrant cette réflexion. Cette création représente un défi car je suis néophyte en la matière, mais cette expérience me permettra d'aborder sans à priori toutes les dificultés liées à ce processus. De plus, j'obtiendrai mes efets par détournement des fonctions de la suite de modules Izotope RX, destinée principalement au nettoyage et à la réparation d'enregistrements.

Le détournement est un vecteur majeur de création en musique qui a permis de nombreuses innovations autant artistiques que techniques. Par ce procédé, j'espère obtenir de nouvelles textures dont l'originalité permettrait de se soustraire des préconceptions concernant les efets les plus connus, notamment l'auto-tune et le vocodeur. Cependant, je chercherai à introduire ces matières sonores inhabituelles dans une production musicale ancrée dans la culture populaire. Ainsi, je m'eforcerai de rendre cette pièce musicale plaisante et compréhensible intuitivement, sans nécessité de l'intellectualiser. Je pense d'ailleurs que l'usage d'efets appliqués à la voix peut aider à transmettre des émotions de manière instinctive.

Ainsi, je me demande simplement ce qu'il va résulter de cette création. Réussirais-je à exprimer des émotions grâce à l'usage de ces nouveaux efets tout en proposant une pièce musicale répondant aux codes de la création

6 actuelle ?

Je commencerai donc par étudier comment le détournement des technologies permet d'innover en musique, avant de m'interroger sur les techniques d'analyse de la voix dans la musique électronique et électro- acoustique, puis d'examiner des exemples dans lesquels les efets appliqués à la voix ont permis de compenser la perte d'expression vocale de la production actuelle. Dans une seconde partie et à la lumière de ces recherches, j'expliquerai la réalisation de ma partie pratique de mémoire, de ses prémices à son aboutissement et je me questionnerai sur la réussite de ce projet en m'appuyant sur les retours du public.

7 I. LES ENJEUX DU DÉTOURNEMENT, DES EFFETS, ET DE LEUR APPLICATION À LA VOIX

8 1) LE DÉTOURNEMENT DES OUTILS : VECTEUR DE NOUVEAUTÉ EN MUSIQUE

Il est dificile d'établir une frontière fixe entre musique savante et musique populaire sans porter un jugement de valeur à l'une de ces deux approches. De plus, il n'existe pas de rupture technologique majeure entre elles, les outils électroniques étant souvent les mêmes malgré des interfaces d'utilisation diférentes. On pourrait tenter de définir la musique populaire par sa tendance à se standardiser, les compositeurs essayant de s'inscrire dans un courant musical pour être reçu par son public, et à l'inverse la musique savante comme la possibilité d'innover du tout au tout à chaque composition1. Cependant, dans les deux approches musicales, on trouve des acteurs qui n'ont cessé d'inventer de nouvelles technologies et de nouvelles manières de les utiliser, s'inspirant les uns les autres et procédant de manière similaire. En efet, beaucoup de détournements technologiques sont nés par sérendipité, soit le fait d'efectuer des découvertes par hasard, mais cela n'exclut pas que certains détournements aient été efectués consciemment dans le but de créer de nouvelles sonorités. Dans tous les cas, les musiciens et ingénieurs du son se sont servis des machines qui les entouraient pour y procéder.

Néanmoins, une manière intéressante d'aborder la distinction entre musique populaire et savante est celle de Schönberg, qui voit la diférence se

1 Bruno Bossis, La voix et la machine, Rennes, Presse universitaire de Rennes, 2005, p.233

9 situer dans l'idée de composition logique ou instinctive2. Ainsi, la musique savante serait intellectualisée à priori, chercherait à être objective et à faire avancer la recherche musicale tandis que la musique populaire serait de l'ordre de l'intuitif, on y chercherait plus volontairement un plaisir esthétique avant de s'intéresser à la signification que chaque élément en son sein pourrait porter. Le détournement, vecteur de création dans ces deux cas, répond donc à des nécessités diférentes.

a – Premiers détournements technologiques, les expérimentations des musiciens savants

Une autre diférence entre les approches savante et populaire est que les musiciens savants se sont rapidement fait construire des studios- laboratoires pour y travailler avec des scientifiques leur mettant au point des outils dédiés à leur composition, évitant les balbutiements des premiers détournements d'outils, chose qui n'a pas eu lieu pour la musique populaire. On peut citer à cet efet le studio de musique électronique de Cologne fondé en 1951, le GRMC (Groupe de Recherche Musicale Concrète) qui devient de GRM en 1958, le studio de phonologie de Milan, spécialisé en musique électroacoustique, en 1955 et l'Ircam (Institut de Recherche et Coordination Acoustique/Musique) en 1969. D'ailleurs, dès 1933, Edgard Varèse écrit à la fondation Guggenheim et aux laboratoires Bell espérant obtenir des fonds pour construire le premier studio de musique électronique. Comme pour lui, il devient indispensable aux visionnaires Karlheinz Stockhausen, Luciano 2 Arnold Schöenberg, Le style et l'idée, écrits réunis par Léonard Stein et traduits de l'anglais par Christiane de Lisle, Paris, Buchet/Chastel, 1977, p.89

10 Berio, Pierre Schaefer, Pierre Henry et Pierre Boulez de travailler dans des studios dédiés pour avoir accès aux machines nécessaires à la composition de musique électronique et électroacoustique. Cet état de fait se simplifiera avec l'évolution des ordinateurs et la possibilité de composer sur sa station de travail audionumérique personnelle, mais ils feront toujours appel à ces studios-laboratoires pour qu'ils développent des logiciels et outils dédiés.

Néanmoins, avant la construction de ces lieux de recherche, les musiciens ont du se débrouiller par eux-mêmes pour innover. Par manque de moyens, ils ont ainsi du détourné les machines qu'ils avaient à disposition. La première pièce de musique électroacoustique, Imaginary Landscape No1, est composée par John Cage en 1939 alors qu'il travaillait dans un studio de radio à Seattle. Elle est écrite pour quatre instrumentistes : un percussionniste qui joue de la cymbale chinoise (dont les bords sont recourbés), un pianiste qui gratte les cordes du piano et en éteint le son avec sa main et les deux autres joueurs qui sont assignés à des platines vinyles jouant des disques Victor Frequency Record. Ces enregistrements étaient constitués de notes constantes ou même de fréquences pures et étaient destinés à tester la bande passante des appareils. En plus de détourner ces disques, John Cage fait varier la vitesse de lecture entre trente-trois et soixante-dix-huit tours par les exécutants pour modifier la hauteur de ces sons. Dans sa composition Imaginary Landscape No3, écrite pour six percussionnistes, il ajoutera aux platines difusant des notes uniques des générateurs de fréquences, plus maniables, des buzzers (sonnettes), et une bobine de fil amplifiée attachée au bras d'un phonographe. Cette dernière technique lui avait été montrée par un bruiteur

11 radiophonique.

Ainsi, en mêlant instruments de musique et appareils électriques, John Cage fonde les bases de la musique électroacoustique. On remarque qu'il a été inspiré par son environnement, en détournant des éléments du studio où il travaillait. En 1941, John Cage tente lui aussi de fonder un centre de musique expérimentale, chose qui finalement ne sera rendue possible qu'après la guerre. La génération de fréquences sera très utilisée par la suite pour construire les premiers synthétiseurs électroniques, qui ne se limiteront plus à une simple sinusoïde et dont chaque note de la gamme est créée par un générateur. En cela, John Cage était le premier à intégrer cette technique, ou du moins cette idée, dans la musique.

Un second pionnier dans ce domaine qui a aussi mené ses expérimentations dans un studio radiophonique est Pierre Schaefer. En 1948, il est à la tête d'une petite équipe de recherche au sein de l'ORTF (Ofice de Radiodifusion-Télévision Française) et s'adonne à des enregistrements expérimentaux de bruits dans le but de créer une pièce musicale à partir de cela. Dans le livre À la recherche d'une musique concrète qui compile notamment ses journaux, il raconte comment lui vient progressivement l'idée de sa première pièce concrète Étude aux chemins de fer. Tout d'abord, il essaye d'utiliser bon nombre d'accessoires de bruitage disponibles à l'ORTF mais les trouve trop explicites. Au cours de l'enregistrement de ces éléments divers, il remarque qu'ayant coupé l'attaque d'une cloche par erreur, il n'est plus possible de reconnaître l'origine du son. C'est à ce moment qu'il décide de rester en régie plutôt

12 qu'en studio pour expérimenter ces suppressions d'attaque du son, jouant aussi à remonter leur niveau pendant leur déclin. Il se prend ainsi à rêver d'un clavier qui pour chaque touche déclencherait la lecture d'un de ces sons de cloche sachant qu'il a enregistré une note diférente par disque – inventant au passage le concept du mellotron. Abandonnant ses rêveries pour le « piano le plus général qui soit 3 », il réalise finalement qu'il vient tout de même de créer quelque chose de nouveau : « [l'invention s'est produite] quand j'ai touché le son des cloches. Séparer le son de l'attaque constituait l'acte générateur. Toute la musique concrète était contenue en germe dans cette action proprement créatrice sur la matière sonore. 4» Pierre Schaefer qui tentait jusqu'alors d'écrire de la musique par le bruit va dorénavant l'écrire par le son. La musique concrète était née, du moins en idée, et contrairement aux autres genres musicaux elle ne désigne plus le matériau sonore qui la compose mais se définit par le geste du détournement. Pierre Schaefer ajoute cependant : « Je n'ai aucun souvenir particulier de l'instant ou cette prise de son a été réalisée. La trouvaille est d'abord passée inaperçue. 5» En efet, la première coupe d'un son par Pierre Schaefer était une erreur, il va pourtant développer cette technique se mettant en tête de créer une pièce musicale pour locomotives.

Par la suite, il composera ses œuvres à l'aide de bandes magnétiques préenregistrées en jouant sur les coupes, la vitesse de lecture pour modifier la hauteur du son et la mise en boucle de certains extraits. Il va aussi inventer la technique du sillon fermé qui consiste à graver sur un disque les

3 Pierre Schaeffer,À la recherche d'une musique concrète, Paris, Éditions du Seuil, 1952, p.16 4 Pierre Schaeffer, Ibid., p.16 5 Pierre Schaeffer, Ibid., p.16

13 sillons en cercle et non en spirale ce qui permet de jouer un son indéfiniment, l'idée provenant du dernier sillon des vinyles qui boucle sur lui-même. Ces pratiques ont aujourd'hui investi largement la musique populaire sous le nom de sample (littéralement « échantillon ») et de la fonction loop (mise en boucle) intégrée comme fonction de base sur les stations de travail audionumériques. Il n'est pas rare aujourd'hui d'entendre des morceaux dont la rythmique est issue de sons concrets mis en boucle, notamment dans le genre trip-hop, juste héritage des expérimentations de Schaefer.

John Cage et Pierre Schaefer ont tout deux été des pionniers en terme de recherche musicale ayant pour point commun d'avoir détourné des machines de leur fonction pour arriver à leurs fins. Le premier commence par détourner un objet sonore, le disque de fréquence, avant de détourner le medium, la platine vinyle qui devient un instrument pour l'exécution de la pièce. Le second détourne d'abord le medium, en lançant l'enregistrement trop tard par erreur, avant de décider d'y enregistrer des sons inhabituels. Ainsi John Cage a souvent considéré comme secondaire l'utilisation de l'électronique dans sa musique, tous les sons existants étant susceptibles d'entrer dans sa composition. Dans les deux cas, leurs expériences ont fortement influencé l'évolution de la musique, même après l’avènement des musiques expérimentales et concrètes. Cependant, au-delà de la naissance de nouveaux genres musicaux et de nouveaux instruments, ce n'est pas dans la musique savante qu'on trouve le plus de tâtonnements en terme de traitements et d'efets appliqués au son, bien que leur utilisation se développe grâce aux logiciels inventés en laboratoires. Le haut-lieu du

14 détournement des technologies dans ce domaine se trouve à Londres, dans les années soixante.

b – Le détournement des traitements du son, une affaire d'ingénieur du son

En 1962, Geof Emerick intègre le studio EMI de Londres à l'âge de seize ans et assiste aux premières séances des Beatles en tant que stagiaire, aux côtés du producteur George Martin et de l'ingénieur du son Norman Smith. À cette époque, le groupe joue encore en live (en direct tous ensemble) dans le studio et ne ré-enregistre que très peu de parties à postériori. Les micros sont placés par des techniciens en blouse blanche sous les directives de l'ingénieur, qui doit suivre les règles strictes établies par la maison de disque en terme d'enregistrement. Après être passé aux postes d'assistant à l'enregistrement, de graveur de disque acétate et d'ingénieur de mastering, Geof Emerick obtient la place de Norman Smith en 1966 et enregistre Revolver, le septième album des Beatles. Dès ce premier album en tant qu'ingénieur du son, il n'hésite pas à enfreindre toutes les règles d'EMI quant à l'enregistrement et au traitement des sources. Heureusement, il sera protégé par la notoriété des Beatles qui l'encourageront dans ses expérimentations.

Ainsi, le jeune ingénieur du son âgé de seulement dix-neuf ans conçoit les bases de la prise de son et du mixage analytiques actuels. Il commence par rapprocher et multiplier le nombre de micros sur la batterie en plaçant

15 deux overheads6, un micro caisse claire et un micro grosse caisse. Il propose d'ailleurs de mettre un pull épais dans celle-ci pour la rendre plus mate, elle se diférencie alors mieux des toms et devient plus percutante. Les micros des autres instruments sont aussi placés avec plus de proximité ce qui l'oblige à compresser ses sources pour retrouver une dynamique équivalente au placement lointain des micros. Néanmoins, il poussera la compression et utilisera même des limiteurs à des fins esthétiques et pour donner la sensation que tous les instruments sont plus proches.

Grâce à ces infractions aux bonnes manières selon EMI, le son des Beatles ne ressemble déjà plus à aucun autre, mais Geof Emerick ne s'arrête pas là et détourne tout ce qui peut l'être dans le studio. Par exemple, il utilise un magnétophone pour créer un efet d'écho sur bande, le studio ne possédant pas encore de machine dédiée, en se servant de la distance entre la tête d'écriture et la tête de lecture pour créer le délai nécessaire. Cette technique est déjà utilisée depuis le début des années cinquante aux États- Unis, notamment par Les Paul ce qui lui permet de considérablement étofer le son de sa guitare. Cependant, Geof Emerick ajoute à cela le retrait de la tête d'efacement et réinjecte directement le signal de sortie du magnétophone en entrée jusqu'au point de faire saturer la bande, tandis que Les Paul ne faisait que doubler légèrement sa guitare. On entend ce son caractéristique sur la fin des couplets de Paperback Writer.

Une autre des techniques qu'il invente, mais qu'il n'utilisera que sur une seule chanson, est l'utilisation d'un haut-parleur dynamique pour

6 Couple de microphones qui se place en général au dessus de la batterie, au niveau des cymbales.

16 enregistrer les fréquences très graves de la basse. Frustré que le son de Paul McCartney ne ressemble pas tout à fait à celui des productions américaines, il évoque cette idée avec George Martin qui le prend d'abord pour un fou. Il en fait ensuite part à l'un des ingénieurs de maintenance, plus ouvert à la discussion sur ce sujet, qui lui fournira un haut-parleur avec les connectiques nécessaires pour le brancher sur une entrée micro. En efet, le principe de construction d'un haut-parleur est le même que celui d'un micro dynamique, ils consistent tous deux en l'enroulement d'une bobine autour d'un aimant fixé à une membrane. Dans un cas, la variation de courant électrique traversant la bobine fait osciller l'aimant et de ce fait la membrane pour produire du son tandis que dans le second cas, c'est l'oscillation de la membrane, et donc de l'aimant, qui produit une variation de courant dans la bobine. Cette technique de prise de son est encore utilisée aujourd'hui, notamment sur les contrebasses, pour en obtenir les sons les plus graves sans avoir besoin de les remonter artificiellement lors du mixage.

Geof Emerick expérimente aussi beaucoup de traitements sur les voix des Beatles au cours des diférents albums. Pour son premier enregistrement avec eux sur la chanson Tommorow Never Knows, John Lennon déclare qu'il veut que sa voix sonne « comme celle du Dalaï-Lama chantant en haut d'une montagne 7». Pour répondre à ce désir, il décide de faire passer la voix du chanteur dans une cabine Leslie, efet qui était jusqu'alors réservé à des claviers pour en obtenir des trémolos convaincants. Plus tard, sur l'enregistrement de I Am The Walrus, il saturera le préamplificateur de la

7 Geoff Emerick,En studio avec les Beatles (Here, There and Everywhere: My Life Recording the Music of the Beatles, 2006), Gémenos, Le mot et le reste, 2009, p.174

17 console, outrage suprême aux règles de la maison de disque, et fera chanter John dans un vulgaire micro d'ordre, celui-ci lui demandant une voix « paraissant venir de la lune 8».

Un autre procédé imaginé par l'ingénieur Ken Townsend fait son apparition sous la demande du groupe, il s'agit de l'Automatic Double Tracking (le doubleur de piste automatique). Cet appareil permet de doubler automatiquement une prise vocale en décalant cette dernière de quelques millisecondes pour éviter aux chanteurs d'avoir à chanter deux fois, ce que détestaient faire les Beatles. Néanmoins, ce procédé avait déjà été utilisé manuellement par Geof Emerick sur la piste de cuivres de Got To Get You Into My Life car il trouvait que la section n'était pas assez fournie. Le Vari- Speed (variateur de vitesse) est également inventé pour satisfaire les Beatles. Il leur arrivait déjà d'enregistrer certaines parties à demi-vitesse du défilement de la bande pour altérer le timbre d'instruments (technique développée par George Martin en doublant les solos de guitare par un piano à demi-vitesse). Dès Sgt. Pepper's Lonely Hearts Club Band, ils contrôlent entièrement ce paramètre grâce à son réglage continu ce qui leur permet par exemple de modifier le timbre de la voix de John Lennon dans les couplets de Lucy in the Sky with Diamonds, qui semble ainsi plus aigu et lui donne un air ingénu.

Il y aurait encore des dizaines d'expérimentations sonores à décrire découlant des enregistrements des Beatles dont certaines ont d'ailleurs été infructueuses et rapidement abandonnées – comme par exemple l'idée d'enregistrer une voix en plaçant un micro dans une bouteille remplie d'eau, 8 Geoff Emerick,Ibid., p.322

18 protégé par un préservatif, technique utilisée aujourd'hui dans d'autres cas mais qui à l'époque était extrêmement dangereuse étant donné que les micros étaient encore alimentés sous 240 Volts. Ce qu'on peut tout de même retenir de ces tentatives est que nombreuses ont été celles qui ont fait progressé les techniques d'enregistrement, bien qu'au moment où elles ont été réalisées, Geof Emerick mettait en péril sa carrière pour chacune d'elle tant le règlement en vigueur était rigide.

Finalement, lorsqu'il détourne une machine de sa fonction, que ce soit une console, un magnétophone ou un micro, c'est qu'il cherche une nouvelle coloration à donner au son, chose qui était dificile à l'époque car la gamme d'efets disponibles était limitée. Contrairement à Pierre Schaefer, Geof Emerick efectue tous ses détournement consciemment, pour innover mais aussi pour rendre son travail ludique. Il raconte d'ailleurs qu'il s'était fixé pour défi de ne jamais enregistrer un piano deux fois de la même manière. Toutes ses découvertes ont ouvert la voie à une plus grande liberté de prise de son et de traitements et à la spécification du mixage en fonction du style musical. En efet, on n'imagine plus aujourd'hui devoir obéir à une seule technique de prise et de traitement du son, au rendu plutôt naturel, pour enregistrer tous les genres musicaux. De la même manière, Geof Emerick s'est insurgé le premier contre ce principe, et à la vue du flot d'innovations musicales que déversaient les Beatles, il est sans doute tombé sur le groupe célèbre qui se prêtait le mieux à ses expérimentations.

Par la suite, il a été plus facile de modifier les sons pour les rapprocher d'une esthétique voulue car les technologies ont évolué en conséquence. Il

19 est même aujourd'hui possible d'obtenir des résultats sonores semblables tout en utilisant des traitements ou techniques diférentes. Pourtant, le détournement existe toujours, pour bien des raisons et bien des usages.

c – Bricolage et sérendipité en musique électronique, l'affaire de tous

Il est dificile de décrire l'arrivée du genre « électronique » dans la musique populaire tant ses origines sont multiples et sa qualification vague. Dans son Dictionnaire de la Musique, l'édition Larousse définit la musique électronique par : «Nom donné, d'une manière très générale, à toutes les musiques utilisant pour leur composition, leur réalisation ou leur exécution, des appareils électroniques (instruments, synthétiseurs, magnétophones, ordinateurs, etc.), et, dans un sens plus particulier, à la musique spécifiquement composée sur bande magnétique (on dit alors en français, plus communément, musique électroacoustique). Enfin, dans un sens restreint et localisé, cette expression désigne la musique créée exclusivement avec des sons électroniques de synthèse, à l'exclusion de toute source dite « concrète ». » En s'en tenant à la première partie de cette définition, on pourrait considérer quasiment toutes les musiques composées aujourd'hui comme étant électroniques, ce qui ne permet pas de discriminer eficacement ce à quoi on souhaite se référer. Cependant, avec la deuxième partie de cette définition, il conviendrait d'exclure bon nombre de morceaux étant pourtant réputés pour faire partie de ce genre. On peut penser notamment aux morceaux contenant de la voix ou intégrant ponctuellement

20 un instrument acoustique. En ce qui concerne son origine, plusieurs courants musicaux électroniques sont apparus un peu partout dans le monde, relevant souvent d'une culture « underground » (culture alternative), et parfois sans même s'être inspirés les uns des autres. En efet, beaucoup de ces premières productions étaient réalisées avec très peu d'argent, hors des circuits de distribution et de médiatisation habituels et ne dépassaient donc pas les frontières nationales, voire même les frontières des villes.

Cependant, une des caractéristiques communes à ces courants musicaux est l'abondance du mésusage, de l'abus et parfois même du détournement des technologies employées dans le but de renouveler la création, ou parfois même tout simplement de créer lorsque des outils dédiés sont trop chers. Par exemple, avant que des musiciens électroniques ne jouent leurs compositions, les discothèques étaient uniquement animées par des DJ's (Disc-jockeys) qui passaient les vinyles célèbres de l'époque. Soucieux que le public ne cesse de danser et que la tension monte tout au long de la nuit, les DJ's passaient des extraits de plus en plus courts, de plus en plus rapides et n'étant parfois qu'instrumentaux pour encourager l'immersion musicale des danseurs. Au début des années quatre-vingt, le DJ Frankie Knuckles devint célèbre en complétant ses platines d'une boîte à rythme bon marché pour enrichir ses disques de disco, il sera ainsi le pionnier de la House Music à Chicago. À cette époque, les boîtes à rythme n'étaient destinées qu'à figurer sur les maquettes de musiciens ou à accompagner en concert les groupes manquant d'un batteur. Leur son était très sommaire, ne ressemblant finalement que très peu à un véritable kit de batterie acoustique. Néanmoins, ces mauvaises imitations vont forger le son

21 de la musique électronique qui va se nourrir abondamment des erreurs de ses machines.

De cette même manière, le Roland TB-303, synthétiseur et séquenceur de basse, sera à l'origine du courant de l'Acid-House au milieu des années quatre-vingt. Ce dernier avait pour but d'aider les guitaristes solistes en s'accompagnant d'une ligne de basse, mais il devint rapidement obsolète tant son rendu est éloigné d'un son de basse réelle. Les compositeurs se sont ainsi emparés de cet outil quelques années après, lorsqu'il était facile d'en trouver en occasion à des prix très bas, et ont poussé la machine dans ses retranchements pour en obtenir ce son dit « acide ». En outre, la programmation des séquences était très dificile et le résultat obtenu était souvent éloigné de ce que les musiciens avaient essayé d'entrer dans la machine, d'autant plus qu'en enlevant les batteries de l'appareil trop longtemps, les séquences enregistrées avaient tendance à se modifier aléatoirement. Ces défauts ont ainsi permis aux musiciens de s'inspirer de ces aléas pour créer des lignes mélodiques inhabituelles. Finalement, le mauvais usage de cette machine a permis d'étendre ses possibilités créatrices, à priori limitées, tandis que les synthétiseurs plus complets étaient hors de prix pour ces musiciens. Les boites à rythme TR-808 et TR- 909, provenant toujours de chez Roland, subiront le même destin, de l'échec commercial à l'amour inconditionnel des musiciens électroniques. Ces deux dernières ont d'ailleurs été utilisées et abusées par une myriade de compositeurs, et ont encore une place d'honneur dans les banques des séquenceurs virtuels actuels.

22 Au-delà du mésusage des outils technologiques, on retrouve sporadiquement des exemples de détournement dans l'histoire de la musique électronique. Cependant, ils ne sont pas aussi transgressifs que chez les musiciens savants précédemment cités ou pour Geof Emerick et les éléments de son studio. Le détournement est, dans les débuts, commis par hasard et conservé s'il apporte une nouveauté sonore appréciable. Par exemple, le scratch, technique consistant à faire bouger manuellement un disque sur une platine vinyle d'avant en arrière pour en obtenir le frottement du diamant sur la surface figure pour la première fois sur l'album The Adventures of the Wheels of Steel de Grandmaster Flash en 1981 mais est découverte quelques années plus tôt par un très jeune DJ. Theodore Linvingston (qui se fera appeler par la suite Grand Wizard Theodore) raconte qu'il fut interrompu par sa mère lorsqu'il s'entrainait à mixer sur ses platines. Il arrête alors l'entrainement de la platine manuellement et frotte accidentellement l'un des disques contre le saphir, découvrant le scratch. En plus de nécessiter une action sur la platine vinyle, il est intéressant de constater que le scratch ne dépend presque pas de la musique gravée sur le disque, celui-ci devient alors un outil quelconque, prétexte à la virtuosité instrumentale que vont développer les DJ's dans les années suivantes.

D'autres détournements vont s'opérer notamment lors de l'arrivée du sampler Akai S1000 en 1988, le premier à fonctionner en 44.1 kHertz et 16 bits, qui poussera tous les anciens samplers à n'être plus utilisés que pour leur dégradation du son en huit ou douze bits, les possesseurs d'anciens modèles jouant de ce son “lo-fi” (low-fidelity, qui signifie basse fidélité) pour continuer à utiliser leur machine. Néanmoins, l'engouement pour l'abus et le

23 détournement des technologies en musique électronique va se catalyser au début des années quatre-vingt dix dans le glitch. Le « glitch » décrit littéralement une brusque augmentation de tension dans un dispositif électronique et c'est ce type de bug que va utiliser le genre musical pour créer de nouveaux sons. Seront ainsi mis à profit les sautes des lecteurs CD, la distorsion numérique, la tronque des échantillons sans compensation d'erreurs, le bruit numérique, le bruit des disques durs et plus généralement tout son généré par le mauvais fonctionnement du numérique.

Selon le musicien Kim Cascone, le glitch devrait plutôt être considéré comme une esthétique tant les productions qui en sont issues sont variées et il le qualifie de post-numérique étant donné qu'il découle de l’apparition du CD (Compact Disk, ou disque compact en français) et des stations de travail audionumériques personnelles9. Les premiers exemples de cette esthétique se trouvent dans l'utilisation de CD's préparés à l'aide de bouts d'adhésifs par Yasunao Tone en 1985 et la composition de Nicolas Collins comprenant un quator à cordes et un CD qui saute en 1992 sur l'album It Was a Dark and Stormy Night. Par la suite, le genre s'afirme avec les albums du groupe Oval composés à l'aide des deux techniques précédemment citées et la création de labels spécialisés dans le glitch, tel que Mille Plateaux en Allemagne qui sortira la première compilation du genre en 2000, Clicks_+_Cuts. Comme ce titre l'indique, le glitch fait souvent usage de sons très courts, des “clics” et des “coupes”, qui tendent à remplacer les rythmiques des boites à rythme habituelles. Ainsi, la majorité de ces morceaux ne cherche plus à donner le

9 Kim Cascone, « The Aesthetics of Failure : “Post-Digital” Tendencies in Contemporary Computer Music » (L'esthétique de la défaillance : Tendances “post-numériques” dans la musique assistée par ordinateur contemporaine), Computer Music Journal, vol. 24, n°4, Hiver 2000, p.12-18, p.13

24 son le plus “lourd” et le plus “gros” possible comme la musique électronique l'avait principalement fait jusqu'alors, mais résulte en l'utilisation minutieuse des craquements des machines, mettant en avant le détail des erreurs de calcul, des parasites que les autres musiques cherchent à efacer. Une partie de la production glitch possède donc une esthétique très intimiste, qui s'écoute aisément au casque et maintient l'attention de l'auditeur par l'évolution des sons microscopiques qui la composent tout en le plongeant vertigineusement non plus dans la machine, mais dans les données numériques elles-mêmes.

L'esthétique du glitch est toujours explorée aujourd'hui, par exemple par la lecture de fichiers non compressés d'images issues du logiciel Photoshop comme des fichiers audio. En efet, tout fichier numérique étant composé de chifres binaires, ils peuvent tous être lus comme étant un son, une image, une vidéo, un texte, rendant les possibilités de détournement infinies. C'est en cela que le genre est abyssal. Et les compositeurs s'y adonnant ne manquent ni d'idées, ni d'enthousiasme, pour tenter de détourner l'univers numérique entier qui les entoure. Cependant, ce genre reste qualifié d'expérimental et se trouve être en marge de la production actuelle. Je pense néanmoins que c'est précisément cette esthétique, « the aesthetics of failure » (l'esthétique de la défaillance) selon le musicien Kim Cascone10, qui inspire aujourd'hui l'utilisation d'efets sur la voix, tels que le vocoder ou l'autotune, traduisant ainsi la défaillance de l'interprète qu'il ne peut plus exprimer lui-même. Il convient alors de s'intéresser aux méthodes d'étude de la voix traitée pour étudier ce phénomène.

10 Kim Cascone, Ibid.

25 2) ANALYSER LA VOIX ET SES TRAITEMENTS a – L'effet, renfort de la signification

Pour conclure son ouvrage La voix et la machine, Bruno Bossis explique son intérêt pour la vocalité artificielle (le terme vocalité définissant un phénomène sonore se rapprochant de la voix sans pour autant en être) par le fait qu'elle est la seule des manifestations technologiques ancrée dans l'intime. En efet, il met en avant l'idée que la voix, contrairement aux autres instruments, implique toujours un locuteur et sa personnalité en plus d'être vecteur de texte. D'ailleurs, il émet l'idée que le traitement musical de ce texte est mis en abyme par le traitement de la voix. Ainsi, l'efet apposé à celle-ci occuperait la fonction d'un méta-texte qui se déploie parallèlement au sens porté par l'aspect traditionnel du chant tout en interagissant avec lui. Il constitue de ce fait un nouveau niveau de lecture et d'écriture de la voix chantée.

C'est une idée similaire que développe Pierre Couprie lorsqu'il cherche à établir une grille d'analyse pour la voix dans la musique électroacoustique. Il définit ainsi quatre angles d'analyse qui sont le texte (rythme, vitesse, césures...), la morphologie (hauteur, spectre, texture...), la référence (identification de l'âge et du sexe, identification de l'émotion) et les transformations opérées sur le son11. Néanmoins, il introduit la notion de distance par rapport à une source imaginaire qui s'applique à l'étude de ces paramètres. Par exemple, on évaluerait la hauteur d'une mélodie à la fois de

11 Détails en Annexe 1 : Grille d'analyse de Pierre Couprie

26 manière absolue et relative, en la situant dans le spectre et en estimant l'écart de sa transformation par rapport à la hauteur de la source non traitée qu'on s'imagine. Dans la mesure où on identifie la présence d'un efet dans le fait qu'il altère la voix, qu'il l'écarte de son apparence naturelle, les arguments de Bruno Bossis et Pierre Couprie sont semblables, l'efet ajoute dans les deux cas un niveau de lecture supplémentaire.

Cependant, lorsqu'on cherche à décrire la nature d'un efet et à l'interpréter, les critères d'analyse des transformations de la voix de Pierre Couprie ne me semblent pas tout à fait satisfaisants. Il en distingue cinq catégories : « 1) Les efets jouant sur la prolongation du son : les délais et réverbérations ; 2) Les efets jouant sur des transformations internes du spectre du son : les filtres, etc. ; 3) Les efets modifiant la place du spectre dans la gamme générale des fréquences : la transposition, les efets polyphoniques, etc. ; 4) Les efets modifiant l’enveloppe dynamique du son : gate, générateur d’enveloppe, etc. ; 5) Les efets ajoutant au son un élément qui semble extérieur : modification du grain, modulateurs, etc. » Cette classification me semble réductrice car un efet peut tout à fait agir sur plusieurs paramètres du son à la fois, il deviendra alors impossible de le décrire entièrement en le rangeant dans une catégorie. Même l'utilisation de la réverbération, bien qu'elle agisse avant tout sur la prolongation du son, peut engendrer une modification de la perception du spectre, mettant en avant certaines zones fréquentielles, ou sur la

27 dynamique en altérant l'extinction du son. En efet, cette grille se base sur les qualifications intrinsèques des modifications plutôt que sur leur action globale quant à la perception. Elle ne prend pas non plus en compte l'idée de référence ou de citation dans l'utilisation d'un efet, ces deux idées permettant de mettre en exergue l'utilisation d'un détournement. Ainsi cette méthode d'analyse travaille plus sur la structure d'un morceau que sur sa réception. Il me semble qu'elle permette principalement une interprétation de la forme, moins du contenu sensible proposé par une œuvre.

Une autre grille d'analyse est celle de Cathryn Lane qui classe les transformations vocales en dix-neuf types12. La voix traitée par un efet est explicitée par le quatorzième exemple : « 14 - Excitation phonétique : la voix est utilisée pour articuler d'autres sources de résonance, comme dans l'espace architectural d’Alvin Lucier I Am Sitting in a Room (1970) ou comme avec un synthétiseur du type Vocodeur. », les autres mettant plutôt en avant des figures de style de montage sonore ou d'organisation sémantique. Cette description fait référence uniquement au procédé, mais deux autres de ses points d'analyse peuvent s'avérer eficace pour en étudier le sens: « 1 - Dissolution de la sémantique par le biais de la transformation : la sémantique d'un mot ou d’une expression est dissoute par un efet de transformation comme la superposition, la réverbération écrasante ou écho inversé, traitement spectral, etc. par exemple Steve Reich Come Out. […] 9 - Rétention des sens : les mots sont présentés tel qu’ils ont été enregistrés, sans traitement. » En efet, lorsqu'on augmente l'intensité d'un traitement au delà d'un certain seuil, en plus d'altérer sa propension à être reconnue comme 12 Détails en Annexe 2 : Grille d'analyse de Cathryn Lane

28 humaine, la voix perd son contenu sémantique tandis que l'efet prend un nouveau sens. Il devient une texture sonore tout en imposant une césure dans le récit, parfois un point final. Il peut par exemple traduire une émotion que les mots ne sufisent plus à transmettre. Le point numéro neuf prend tout son sens lorsque la voix naturelle apparaît dans un contexte dans lequel elle aurait pu être traitée. L'idée de « rétention de sens » s'explique par la perte d'un niveau de lecture de la voix, qui sera de ce fait plus forte si cette apparition est précédée d'une voix traitée.

Ainsi, il pourra être possible d'utiliser ces grilles d'étude pour explorer les efets appliqués à la voix, mais il me semble qu'il est important de chercher aussi d'autres méthodes plus intuitives. Il n'est pas non plus fait mention dans ces textes de la possibilité de se baser sur la culture de l'auditeur pour faire passer des références dans l'efet. Par exemple, on peut utiliser un procédé figuratif consistant à rappeler le son d'un récepteur téléphonique, chose expérimentée dans le morceau Nightcall de , dont le pseudo-vocodeur n'a pas qu'un sens unique. Aussi, le traitement d'une voix peut rappeler celui d'un autre morceau préexistant, comme avec le dernier album des Daf Punk, Random Access Memories, dans lequel certains efets couplés avec des lignes mélodiques particulières s'apparentent aux utilisations du vocodeur chez Herbie Hancock, donnant à ces morceaux une touche très rétro sans pour autant tomber dans la reproduction.

En outre, on retiendra que l'efet est un moyen de raconter et d'exprimer en plus du texte chanté et je pense que cette expression est

29 d'autant plus eficace qu'elle s'adresse à l'afect. À ce propos, un des concepts de la psychanalyse se prête particulièrement bien à expliquer le trouble que peut transmettre la voix traitée.

b – L'inquiétante étrangeté de la voix traitée

À la lecture de VOICE, un livre rassemblant dix-neuf chapitres indépendants chacun écrit par un auteur diférent sur un des aspect de la voix au travers des arts et médias numériques, il est intéressant de constater que le terme le plus employé pour décrire un décalage entre la réception d'une voix enregistrée qui aurait été altérée et l'idée qu'on se fait de sa véritable nature (reprenant l'idée de distance imaginaire à la source), est celui de « uncanny ». Ce terme est la traduction du concept freudien de l'inquiétante étrangeté (Das Unheimliche en allemand), hérité du psychologue Ernst Jentsch qui l'étudie pour la première fois en 1906 et décrit ce sentiment comme « celui où l’on doute qu’un être en apparence animé ne soit vivant, et, inversement, qu’un objet sans vie ne soit en quelque sorte animé 13». Sigmund Freud reprend ce concept en 1919 et l'intègre à la théorie psychanalytique en le définissant comme le retour du semblable, du familier ou bien du double, qui provoque l'angoisse par le refoulement de cette image. Ainsi, ce malaise a lieu lorsqu'un objet du quotidien, ou un sujet, ne répond plus à sa représentation rationnelle ou n'est plus distingué comme tel. Freud prend pour exemple une anecdote où étant dans un train de nuit, il aperçoit son reflet dans une vitre y voyant

13 Sigmund Freud, L'inquiétante étrangeté (Das Unheimliche), trad. Marie Bonaparte & Mme E. Marty, Paris, Gallimard, 1933. p.10.

30 d'abord une seconde personne se tenant en face de lui dont l'apparition lui est désagréable. Ici, c'est bel et bien le double qui est refoulé. Dans le cas d'une voix traitée par des efets, on peut analyser le sentiment d'inquiétante étrangeté qu'elle dégage comme étant celui du reflet monstrueux d'une image sonore familière. Notre connaissance de la voix humaine nous intime de la (re-)connaître en tant que tel, bien qu'il nous est dificile de la ranger aux côtés des voix que l'on connait le mieux, les voix rassurantes de nos proches. Au delà de ce point critique du traitement de la voix, on constate que, dans le cas où la voix est plus abimée par l'efet ou qu'elle l'est moins, elle serait dans les deux cas bien plus rassurante. À cet efet, Gérard Grisey analysait le traitement des voix de sa pièce Les chants de l'Amour dans sa note de programme en divisant ceux-ci en quatre catégories : « L'intérêt de la voix synthétisée ne réside pas tant dans l'imitation de la voix humaine que dans les infinies possibilités de déviations de ces voix. Nous y découvrons plusieurs champs de perceptions et de réactions émotives liées aux avatars de la voix humaine : - voix chantée, bien imitée presque trop pure, sans défaut. « Quelle voix ! », - territoires mystérieux de la voix humaine mise dans des situations inouïes. « Qu'est-il arrivé à cette voix ? », - zones inquiétantes de la voix « biologique ». Quelque chose ou quelqu'un vit et respire pour produire ce son. « Quel est ce monstre ? », - zones rassurantes du son instrumental ou électronique. « Ah ! Il ne s'agit que d'une machine...» 14». Il distingue ainsi, entre la voix parfaitement pure et la voix évidemment robotique deux niveaux, la « zone inquiétante de la voix biologique » qui 14 Gérard Grisey, note de programme. Concert du 3 juin 1985.

31 s'apparente bien à l'inquiétante étrangeté et les « territoires mystérieux de la voix humaine », plus modérés. Il semble que le niveau le plus inquiétant soit celui qui fait ressortir l'organique, le vivant, d'un tapis électronique, inanimé, tandis que le second décrit plutôt une altération légère, comme si l'atteinte avait été portée à la bande enregistrée et non à la phonation directement.

On peut aussi penser à analyser la voix traitée sous l'angle de la théorie de l' « Uncanny Valley » (Vallée dérangeante), émise par le roboticien Masahiro Mori, qui s'apparente presque aux niveaux décrits précédemment. Le scientifique y émet l'hypothèse que, passé un certain seuil, la ressemblance d'un robot avec un être humain va se solder par un profond sentiment de malaise pour l'observateur, d'autant plus si le robot est animé15. Il trace ainsi une courbe du degré de familiarité d'un robot en fonction de sa ressemblance avec un être humain. Il est ainsi intéressant d'essayer d'étudier cette courbe en imaginant pour abscisse le degré d'altération de la voix par un efet, avec les pourcentages en ordre décroissant, pour en déceler les similarités et les diférences avec cette théorie.

15 Mashiro Mori, « The uncanny valley » (la vallée de l'étrange), trad. K. F. MacDorman & T. Minatc, Energy vol .7, n°4, 1970, p.33-35.

32 vallée de l'étrange Mobile Immobile Humain Marionnette de bunraku en bonne Robot humanoïde santé é t i r a i l i m

a Animal en peluche f

e d

Robot industriel é r g e D

Apparence humaine 50% 100% Cadavre Main prosthétique

Zombie

Figure 1 : Représentation schématique de la vallée de l'étrange d'après Mashiro Mori

On peut séparer ce graphique en quatre zones par analogie avec l'analyse de Gérard Grisey. Une première zone dans les plus faibles abscisses du graphique s'apparente à l'aspect robotique d'un efet. La zone suivante ressemble à l'idée de territoires mystérieux de la voix mais en mettant en avant la notion de familiarité qu'ils procurent. En efet, ici le robot s'apparente à l'humain tout en en étant facilement dissociable. À ce degré, la voix serait donc évidemment traitée mais il serait aisé de s'imaginer la voix originale derrière l'efet. Cela semble se référer par exemple à des situations ou l'efet vient en soutien de la voix et est donc superposé à une voix non traitée. La troisième zone serait la vallée dérangeante, provoquant le sentiment d'inquiétante étrangeté décrit précédemment, correspondant aux zones inquiétantes de la voix biologiques. Cependant, on peut aisément imaginer que cet efet puisse aussi se produire lorsque la voix est très dégradée, c'est la zone dont le placement sur le graphique semble correspondre le moins dans cette analogie. La quatrième zone, celle au plus

33 haut du graphique serait celle de la voix non traitée, ou très peu retouchée, le quatrième niveau de Gérard Grisey semblant se situer au delà de cette courbe lorsque la voix est magnifiée.

Par ailleurs, ce qui me paraît le plus intéressant dans cette analogie est l'idée qu'à la gradation d'un efet, ou du pourcentage total auquel on l'ajoute à la voix non traitée, on peut associer un degré de familiarité, de confort, qui n'est pas linéaire. La vallée dérangeante ou sentiment d'inquiétante étrangeté ne paraît pas pouvoir être placé à l'une des extrémités du schéma, mais est susceptible d'apparaître dans une fenêtre de valeurs des réglages, de taille incertaine. Je m'eforcerai ainsi au cours de mes expérimentations d'identifier les cas où je m'y trouverai, ou du moins l'approcherai, et d'exploiter ces zones et leurs limites car je crois qu'elles sont des plus significatives tant le sentiment qu'elles engendrent est fort et partagé. Efectivement, au delà du simple malaise, je pense qu'il est possible de faire porter à ces traitements un sens supplémentaire, audible parce que la gêne provoquée par le sentiment d'inquiétante étrangeté incite à l'écoute attentive pour déterminer la provenance de la voix et donc l'intention du locuteur. Finalement, cette utilisation de l'efet est un outil précieux car il est plus dificile aujourd'hui de transmettre une émotion par le chant en musique électronique.

34 c – « Le grain de la voix » et la recherche d'une approche intuitive

Dans un article de la revue Musique en Jeu de 1972, Roland Barthes développe son concept de « grain de la voix », qu'il traduit comme étant « le corps dans la voix qui chante 16». Pour le définir, il transpose l'opposition entre le phéno-texte et le géno-texte, concepts inventés par la philologue Julia Kristeva, au chant. Le phéno-chant se définit alors comme ce qui relève de la structure de la voix chantée, qui répond aux codes et aux usages d'une époque. Il met en évidence ce concept par la dramatisation de scènes d'opéra, surplus d'expressivité par rapport au texte, et l'exigence de l'articulation, artifice ajouté à l'élocution usuelle d'une langue. À cela, il oppose le géno-chant, « l'espace où les significations germent “du dedans de la langue et dans sa matérialité même” 17», représentant le travail de la diction de la langue au sein de la musique. Le grain de la voix réside dans cet aspect du chant, résultant de la friction du timbre chanté et de langue elle- même, et non du message. D'après lui, en évitant la redondance de la signification par le phéno-chant, le géno-chant permet d'émouvoir en jetant immédiatement le symbolique devant l'auditeur, sans médiation. Il prend pour exemple la mort de Mélissandre dans le cinquième acte de l'opéra Pelléas et Mélissandre de Claude Debussy qui se produit sans efusion dramatique de sa part et qui émeut par sa sobriété. De ce fait, qualifier le grain de la voix et la manière dont il nous apparaît ou non dans un morceau semble être une méthode intéressante pour juger de la qualité de l'interprétation d'une voix.

16 Roland Barthes, « Le Grain de la voix », Musique en Jeu, n°9, novembre 1972. 17 Roland Barthes, Ibid.

35 Dans la musique actuelle et particulièrement dans la musique électronique, beaucoup de modes d'expression de la voix ont été retirés à l'interprétation du texte. En efet, on n'utilise que très peu la variété des timbres que peut employer un chanteur ou une chanteuse, les limitant souvent à un timbre unique. De plus, le maintien d'une valeur eficace du signal élevé (aussi appelé couramment niveau moyen) requiert l'utilisation de la compression et ne permet plus aux chanteurs et chanteuses de compter sur la dynamique pour interpréter leur chant. Lorsqu'ils l'utilisent, on n'en récupèrera qu'une variation de timbre, entre une voix plutôt chuchotée comportant du soufle, et une voix forte plus pleine. Aussi, les instruments électroniques ne subissant aucune variation de leur accordage au cours d'un morceau, il est souvent nécessaire que la voix soit extrêmement juste pour chanter avec eux. Il n'est alors pas rare de recourir à un ajustage de la hauteur sur certaines notes, même pour de très bons interprètes, pour qu'ils s'intègrent mieux à la composition. Ainsi, les variations très légères de hauteur qui permettaient de colorer légèrement les notes, en assombrissant le chant lorsque la hauteur chantée est légèrement inférieure et en rendant une mélodie brillante à l'inverse, ne sont plus utilisables non plus. En outre, la musique électronique actuelle étant souvent très répétitive, la mélodie se retrouve fixée pour les couplets et refrains et on ne peut plus la faire varier pour accompagner le texte, d'autant plus qu'on répète souvent ce dernier car les paroles ne doivent pas détourner l'attention pour la musique et son appel hypnotique à la danse.

Les voix en musique électronique sont donc généralement très lisses, aspect renforcé par les techniques de mixage actuel. On va ainsi chercher à

36 éliminer tout ce qui pourrait gêner l'écoute à fort volume, efaçant la sibilance grâce au de-esser et l'agressivité par série de filtres aux facteurs de qualité élevés sur les zones fréquentielles proéminentes. On éradique ainsi une partie du timbre, et même du grain, ce qui explique la ressemblance des voix entre elles dans la production actuelle. D'après l'analyse de Roland Barthes, on pourrait dire que la musique électronique a perdu en possibilités expressives de phéno-chant, par la non-utilisation d'un large pan des techniques vocales, mais aussi en géno-chant par le lissage du mixage.

De mon point de vue, il est possible de récupérer une partie de cette expressivité vocale par l'usage d'efets. Comme ce qui a été montré précédemment, les efets qui agissent sur la perception morphologique de la voix engendrent de vives sensations. Je pense que ces traitements, étant perçus en étroite corrélation avec le contenu du chant, ne se comportent pas comme un niveau de signification supplémentaire indépendant mais bien comme une nouvelle composante du grain de la voix. Cette notion a souvent été employée pour décrire la fascination autour de l'apparition de ces efets, Roland Barthes écrivant d'ailleurs que le grain est « le compte rendu impossible d'une jouissance sonore individuelle que j'éprouve continûment en écoutant chanter 18». Ces efets vont ainsi permettre une seconde écriture de l'interprétation vocale tandis que celle-ci est en premier lieu extrêmement contrainte. Ils vont écailler son vernis, recréer l'intonation qui n'a pas pu être chantée, ou du moins la remplacer par un contenu sensible similaire. De plus, je suis intimement convaincue que l'obtention de ces efets par détournement ajoute au charme de ceux-ci, réveillant en nous un esprit ludique, un amusement pour le mésusage des objets, comme l'est le 18 Roland Barthes, Ibid.

37 plaisir d'écoute du glitch décrit précédemment. Je conçois que cette exaltation ne touche que les initiés, passionnés d'informatique ou de musique. En outre, certains musiciens et musiciennes adoptent une esthétique leur permettant une plus grande liberté dans l'interprétation vocale malgré les carcans apparents de la musique électronique.

38 3) INTRODUCTION DE LA VOIX DANS LA MUSIQUE ÉLECTRONIQUE PAR L'USAGE D'EFFETS

Dans ce chapitre, je décrirai plusieurs exemples d'utilisation de la voix traitée par des efets dans la musique électronique qui me semblent pertinents quant à l'idée du dépassement des contraintes esthétiques liées à ce genre et qui m'inspirent dans la création de ma partie pratique de mémoire. Aussi, je parlerai uniquement de morceaux dans lesquels la voix a une place centrale dans la composition. Cette liste d'exemple n'est donc pas exhaustive et je vais aussi me permettre de parler de morceaux qui touchent aux limites de la musique électronique, notamment certains relevant du trip- hop dans lesquels il n'y figure parfois quasiment que des instruments acoustiques.

Les analyses que je réalise ici visent à disséquer les procédés sonores à l'origine des sensations particulières que ces morceaux me procurent. Néanmoins, il est très probable que le sens que je donne à ces efets de style n'ait pas été théorisé par les compositeurs eux-même et que la réception des morceaux soit diférente pour chaque auditeur. En efet, cherchant d'abord à produire un plaisir esthétique, on choisit en général de garder dans une composition ce qui “sonne” sans justification supplémentaire. Cependant, je pense que l'appréciation esthétique que nous avons de certains morceaux découle directement des émotions qu'ils nous évoquent et donc est

39 intimement liée à l'eficacité des procédés choisis visant communiquer les- dits sentiments.

a – La représentation de l'humanoïde par l'autotune et le vocodeur

Dans les cas ou les musiciens et musiciennes font usage d'efets pour modifier leur voix, il est intéressant d'étudier les cas ou la transformation de leur grain soutient le sens du texte ou un certain propos esthétique. Par exemple, en France, la musicienne Marylou Mayniel alias OKLou se sert de l'auto-tune à des fins plutôt singulières. À l'origine, l'auto-tune est un programme inventé par un ancien ingénieur en sismologie en 1996, Andy Hildebrand, qui permet d'analyser puis d'ajuster la hauteur d'une voix, note par note et ce, a priori, de manière transparente. Ainsi, il est possible grâce à cette technologie de sélectionner au cours d'un enregistrement la prise vocale avec la plus belle intention même si la justesse n'en est pas parfaite. Néanmoins, cet outil a beaucoup contribué à lisser la musique actuelle, rendant chaque voix excessivement juste et empêchant de jouer légèrement sur la hauteur pour ajouter de l'intention. Cependant, l'auto-tune a subi un détournement majeur dans son utilisation à la fin des années quatre-vingt dix. En amenant deux de ses paramètres en butée, il est possible de dénaturer la voix et de faire de ce traitement un efet. Les paramètres à modifier sont le temps d'attaque du traitement qui lorsqu'il est au plus bas fait sauter la voix d'une hauteur à une autre et la variation de hauteur au sein d'une note qui lorsqu'elle est au minimum, empêche la voix d'efectuer

40 son vibrato naturel. Le premier paramètre induisant les sautes de hauteur donne un aspect qu'on pourrait qualifier de robotique et le second paramètre est responsable de la coloration métallique souvent obtenue.

L'auto-tune a souvent été utilisé par les rappeurs pour chanter la mélancolie, fragmentant leur voix à l'image de leurs émotions, faisant ainsi évoluer l'univers du rap vers des contenus plus sensibles. Toutefois, cette technique a rapidement été considérée comme un efet de mode, cet efet apparaissant parfois systématiquement dans les production des musiciens. Aussi, une partie du public se mit à faire l’amalgame entre l'utilisation de l'auto-tune pour réajuster les voix des chanteurs peu précis et son utilisation en tant qu'efet, ne réalisant pas toujours qu'il est possible de rendre ce traitement transparent. L'auto-tune devint alors le bouc-émissaire de la musique actuelle, se trouvant majoritairement cantonné au rap, et dont les musiciens semblent craindre l'utilisation de peur de s'attirer des critiques.

OKLou fait partie de la jeune génération de musiciens indépendants qui commencent à réintégrer cet efet dans leurs productions faisant fit de sa mauvaise réputation. Dans sa musique, l'auto-tune appliqué à sa voix rappelle certes des sonorités R'n'B19, mais il renforce surtout l'aspect onirique de ses compositions. Couplés à d'autres efets comme des réverbérations, des altérations de hauteur (pitch en anglais) et des délais, la voix flotte, vacille et paraît incroyablement douce malgré son aspect post- humain. En efet, la voix est altérée, mais il en résulte un son plus juste, dont

19 Le R'n'b est un genre musical né dans les années quatre-vingt qui mélange des éléments de rythm and blues, hip-hop, soul, pop et musique électronique. C'est souvent ce vers quoi tendent les rappeurs en utilisant des parties traitées par l'auto- tune

41 l'attaque est plus rapide et qui ne subit pas de vibrato involontaire, donc au- delà des possibilités de la voix humaine naturelle. Et pourtant, malgré le lissage opéré par ce traitement et le fait qu'il masque la performance vocale naturelle, l'efet charge sa voix d'afect, la transformant en l'expression d'un être humanoïde bienveillant. OKLou dira d'ailleurs très justement à propos de l'auto-tune : « On ne parle plus de “performance” vocale, on est moins attaché qu’avant à l’authenticité du timbre, au rapport “vrai” à la voix. Je pense que c’est une bonne chose, ça veut dire que les gens ont compris que la qualité d’un morceau n’est pas dans la performance mais dans la sincérité de la démarche, quelle qu’elle soit 20».

Le second efet appliqué à la voix à avoir irrigué la production musicale électronique est le vocodeur. Il est apparu dans la musique dans les années soixante-dix mais son principe est inventé en 1930 par l'ingénieur Homer Dudley des laboratoires de téléphonie Bell. Il consiste en l'analyse de la voix grâce à un filtrage multi-bande recouvrant le spectre, ce qui permet d'en extraire le profil dynamique en chacune de ces bandes, puis en l'application de ces profils à chacune des bandes spectrales correspondantes d'un son synthétisé.

20 Citation extraite de l'article « le jour où un sismologue a inventé l'Auto-Tune », par Simon Clair, sur Greenroom.fr. (26/04/16)

42 Figure 2: schéma synoptique d'un vocodeur En haut à gauche : Entrée pour la voix. En bas à gauche : Entrée pour le synthétiseur (“la porteuse”). Ainsi, les VCA (Voltage Control Amplifier, Amplificateur contrôlé en tension en français) sont alimentés par les différentes bandes filtrées du synthétiseur et contrôlés par le niveau des différentes bandes filtrées de la voix. Le spectre obtenu est ensuite reconstruit en sortie (à droite).

Cette invention avait pour but de limiter la bande passante nécessaire pour la téléphonie en conservant l'intelligibilité de la voix. En efet, le principe d''émission de la voix repose sur le filtrage du son des cordes vocales par les cavités buccales, nasales et le larynx. Ainsi, le vocodeur prend une sorte d'empreinte de ces filtres résonnants (en conservant une courbe de l'évolution de la dynamique dans chacune des bandes du spectre) et il est possible de transmettre uniquement cette empreinte, notamment via un câble téléphonique, pour synthétiser une imitation de cette voix en remplaçant le son originel des cordes vocales par un autre signal à la réception. Néanmoins, malgré son utilisation par les américains durant la seconde guerre mondiale, ce procédé ne fut pas plus développé dans la téléphonie car la voix qui en résulte est très déformée et peu agréable pour des conversations personnelles. Ainsi, cette invention a été détournée à des fins artistiques.

43 Après ses toutes premières applications par Krafwerk et Wendy Carlos dans les années soixante-dix, le vocodeur est souvent utilisé pour caractériser la voix d'un robot. Cette manière d'utiliser le vocodeur déshumanise fortement la voix, on n'entend plus un humain mais une machine qui parle, chose que définissait Gérard Grisey comme les « zones rassurantes du son instrumental ou électronique 21». On retrouve par exemple cet usage dans la discographie des Daf Punk dans des titres comme Harder, Better, Faster, Stronger produit en 2001 dans lequel un robot, ou du moins une intelligence artificielle semble échapper à sa programmation initiale en demandant aux humains de travailler plus pour la rendre plus forte. Néanmoins, je pense qu'il n'est pas très pertinent d'étudier cette utilisation particulière du vocodeur sous le spectre de notions telles que l'inquiétante étrangeté ou le grain de la voix, ces compositions jouant plus avec la notion de référence (notamment cinématographique) et d'utilisation ludique des machines. Une utilisation de cet efet se rapprochant mieux de ces concepts est ce qu'en fait Laurie Anderson dans son morceau O Superman sorti en 1982. Ici, sa voix traitée est ajoutée à sa voix naturelle. Le synthétiseur modulé par le vocodeur joue des accords, elle donne ainsi l'impression de dédoubler sa voix par ce procédé. Le texte, un poème halluciné inspiré par la crise des otages américains d'Iran et notamment par l'accident d'hélicoptère lors de la mission d'extraction des otages22, est un dialogue raconté par l'un de ses deux protagonistes. Le second personnage se présente comme la mère du premier mais il semble, notamment grâce aux derniers vers, qu'il s'agisse d'une personnification des États-Unis, représentés comme la mère patrie. Le dédoublement de la voix

21 Gérard Grisey, Ibid. 22 Paroles et traduction du morceau O Superman en Annexe 3

44 de Laurie Anderson par les harmonies du clavier et l'altération étrange de son grain lui font ainsi incarner cette entité supérieure, mi-inquiétante et mi- rassurante. En efet, le timbre de sa voix étant très abimé et en plus mise en avant par l'instrumentation minimaliste provoque un sentiment d'inquiétante étrangeté mais dans le même temps l'harmonie du morceau est simple et répétitive, la mélodie vocale est constante et la chanteuse raconte les vers d'une voix douce. On peut ainsi rapprocher cette interprétation de Laurie Anderson à la production musicale d'OKLou car elle est tout autant onirique, néanmoins elle y introduit une composante dérangeante par l'altération plus violente de sa voix. Cet ajout de matière à la voix, voire à la représentation qu'on se fait du corps de la chanteuse et l'antinomie des sensations proposées me captive.

b – L'expression des sentiments par l'usage de l'effet

L'utilisation du vocodeur qui m'inspire le plus est celle du musicien Kavinsky, alias Vincent Belorgey, qui maitrise parfaitement ce procédé dans son morceau Nightcall sorti en 2010. Sur ce titre figure un chanteur dont la voix est traitée à l'aide d'un vocodeur et la chanteuse Lovefoxx, qui semble subir bien moins de traitements en comparaison. Sa voix est magnifiée, mise en avant, lissée par le mixage, un léger délai et le fait qu'elle soit doublée et en stéréo lui donne un aspect éthéré. Au contraire, la seconde voix est très sévèrement abimée, on y entend beaucoup de bruit, il est très dificile de se représenter l'interprète. Elle est en mono et n'est pas réverbérée ni délayée ce qui met fortement en avant son timbre, et donc son grain. Cette

45 opposition entre voix “claire” et voix traitée peut être analysée par la grille de Cathryn Lane comme opérant une rétention de sens, on remarque en efet que la voix claire semble bien moins expressive que celle traitée. Ainsi, en mettant en regard ces diférences avec le texte, on assiste à l'échange entre un homme déchiré, fragmenté, comme le suggère le traitement de sa voix et une femme plus calme. Kavinsky touche ici au sommet de l'inquiétante étrangeté, la voix du chanteur provoque l'angoisse mais le rythme lent du morceau et la voix rassurante de la chanteuse pousse l'auditeur à s'interroger sur son état plutôt qu'à prendre peur. De plus, il est intéressant de voir que le ton presque érotique de la chanteuse (renforcé par le mixage qui l'a adouci) qui est régulièrement employé dans la musique actuelle pour attirer l'attention de l'auditeur est ici tout à fait justifié par le texte. En efet, celui-ci relate l'échange de deux interlocuteurs qui, s'appelant dans la nuit comme le titre l'indique, sont attirés l'un par l'autre mais ne se le disent jamais explicitement23. D'ailleurs, l'appel téléphonique signifié dès la première phrase du texte légitime d'emblée le vocodeur qui imite donc la mauvaise qualité de la réception, on sait par cela que notre point d'écoute se situe du coté de la femme.

Ainsi en quatre minutes de musique et à peine six phrases prononcées, étant répétées en boucle, c'est toute une scène de cinéma que Kavinsky met en place. On y voit une femme au téléphone, un homme semblant porter en lui beaucoup de soufrance à l'appareil, qui lui propose de l'emmener en voiture et même, métaphoriquement, de se livrer à elle par la phrase « I’m gonna show you where it's dark, but have no fear. » (Je vais te montrer où il fait sombre, mais n'aie pas peur). Elle, sans accepter sa demande, lui fait 23 Paroles et traduction du morceau Nightcall en Annexe 4

46 comprendre que quelque chose en lui l'intéresse : « There's something inside you, it's hard to explain » (il y a quelque chose en toi, c'est dificile à expliquer), et le rassure sur le fait qu'elle ne se fie pas aux rumeurs qui courent sur lui. En quelques lignes et un efet, tout est dit. Le vocodeur renforce ici l'aspect cinématographique par la référence au téléphone mais traduit aussi les émotions de l'homme, émotions qu'il n'aurait pas pu jouer dans ce morceau comme on le ferait dans un film. Cette capacité du musicien à mettre tous les éléments au service de la signification sans que cela ne soit évident de prime abord me fascine. En outre, j'apprécie beaucoup cet efet d'alternance entre les deux voix qui berce l'écoute et la concision de son propos.

Enfin, une dernière de mes inspirations en matière d'efet appliqué à la voix est le morceau Deer Stop, tiré de l'album Felt Montain de Goldfrapp sorti en 2000. La chanteuse Alison Goldfrapp délivre dans cet opus une interprétation du chant très personnelle. La plupart des mélodies sont graves, on sent qu'elle arrive parfois au plus bas de sa tessiture et elle chante souvent à un niveau très faible laissant passer beaucoup de soufle, des siflantes fortes et des bruits de bouches qui ne sont volontairement pas nettoyés des bandes enregistrées. Aussi, elle ne se refuse pas d'utiliser une large variété de timbres et même de prononciations, pouvant donner un aspect maniéré à son élocution. Elle se place ainsi à l'opposé de ce qu'on attend généralement en musique électronique en terme de traitement vocal, c'est-à-dire des voix claires, lumineuses, lisses, énergiques et à l'élocution stable et articulée. De plus, l'instrumentation de ce premier album est peu fournie en instruments électroniques, il s'apparente alors plus à du trip-hop.

47 Ce genre musical est né au début des années quatre-vingt-dix en Angleterre et désignait à l'origine les morceaux aux penchants expérimentaux mélangeant hip-hop et musique électronique, mais il s'est rapidement élargi pour contenir des éléments musicaux empruntés à des styles très variés. On y trouve généralement une rythmique lente proche du style hip-hop, une basse sourde et proéminente, des éléments mélodiques samplés (c'est-à-dire extraits d'autres enregistrements), une ambiance dite “planante24 ”, mélancolique et désenchantée, mais tous ces constituants n'y sont pas toujours présents. D'ailleurs, le trip-hop emploie souvent des codes issus du glitch, notamment dans la dégradation des textures sonores utilisées.

S'inspirant du trip-hop, c'est surtout son atmosphère particulière que Goldfrapp retranscrit dans cet album, l'interprétation vocale originale venant au renfort des instrumentations instables et hétéroclites dans l'expression de ce désarroi. Il y a alors plus qu'uniquement la voix qui transmet ce sentiment d'inquiétante étrangeté, mais c'est toute la matière sonore qui s'y consacre. De plus, le mixage de cet album s'écarte aussi de la norme puisque c'est une approche globale qui y est mise en œuvre, en dépit du traditionnel traitement analytique opéré dans la musique actuelle. Ainsi, les timbres des instruments se mélangent, se masquent, et ces phénomènes sont encouragés au mixage, notamment par l'ajout de longues réverbérations. Ils sont donc moins bien discernables et reconnaissables, ce qui accompagne un peu plus l'ambiance profondément étrange de cet

24 Il est dificile de trouver un synonyme approprié à ce terme du langage familier. Le Centre National des Ressources Textuelles et Littéraires le définit par : « Qui fait plaisir et fait perdre le contact avec la réalité ».

48 album.

L'étrange résultat sonore obtenu sur Deer Stop, l'une des seules chanson de l'album sur lesquelles la voix est transformée, semble être issu de l'utilisation de plusieurs efets simultanés mais variant au cours du morceau. Il me paraît y entendre un filtre passe bande dont la largeur et la fréquence centrale varient au cours du temps, une réverbération à ressort qui colore certains mots, faisant apparaître à un moment des bandes de fréquences aiguës peu naturelles, un filtre notch à gain positif (filtre en cloche au facteur de qualité très faible, en français) oscillant entre plusieurs fréquences notamment à la fin du morceau et peut-être même un bitcrusher (réducteur de résolution du signal), mais je n'en suis pas sûre car les artefacts qui y font penser pourraient tout aussi bien avoir été créés par les autres efets et l'intonation hésitante d'Alison Goldfrapp. Étant à la limite du chuchotement, la chanteuse laisse passer beaucoup de soufle dans sa voix ce qui, en remplissant le spectre de bruit, permet aux efets d'être fortement sollicités et donc de rendre leurs variations bien audibles. C'est une idée intéressante que je retiens pour ma partie pratique de mémoire puisque, comme je l'expliquerai par la suite, les traitements d'Izotope RX semblent créer plus d'artefacts lorsque le signal qu'ils reçoivent est fréquentiellement plus riche.

Comme dans ses autres titres dans lesquels sa voix n'est pas traitée, Alison Goldfrapp conserve aussi ses bruits de bouche qui, loin d'être indésirables dans ce cas, aident à la conservation de l'aspect humain de sa voix dans la première partie du morceau. Ils lui donnent une apparence

49 faillible mais apportent aussi une sensation de vrai, de naturel, malgré l'efet. Quant à lui, il renforce l'aspect susurré du texte en mettant successivement en évidence certaines zones fréquentielles du soufle de la chanteuse. La voix se fait ainsi très intime et touchante, Goldfrapp évoquant possiblement un rapport sexuel25. D'ailleurs, le filtre qui réduit la bande passante de sa voix peut donner l'impression qu'elle murmure son texte en collant sa bouche contre une matière absorbante, suggérant alors qu'elle récite ces vers contre le corps de son amant ou amante. Dans la seconde partie du morceau, les efets se font plus prononcés et le texte devient de moins en moins compréhensible, il se forme alors une dissolution sémantique selon le terme de Cathryn Lane. La voix n'est plus que complainte, désordre de mots mal articulés pendant l'acte, impression renforcée par l'étrange élocution de la chanteuse. L'efet fonctionne donc ici plutôt par la référence, en évoquant une transformation connue du spectre de la voix, mais aussi par métaphore en altérant la voix jusqu'à l'anéantissement de son intelligibilité comme pour signifier la dissolution des pensées de la chanteuse dans l'instant présent.

Si Alison Goldfrapp se permet autant de liberté dans l'interprétation et le traitement de sa voix, c'est parce que les choix esthétiques engagés par le reste de la musique sont tellement forts qu'elle n'a plus à se plier aux carcans de la production actuelle de l'époque. Ainsi, ses possibilités d'expression sont enrichies par ses manières relevant du phéno-chant et son atypique grain de voix et plus encore renforcées par le choix de l'efet. Bien que la première sensation que procure ces morceaux soient celle de l'inquiétante étrangeté, la voix va au delà de la simple description de ce 25 Paroles et traduction du morceau Deer Stop en Annexe 5

50 malaise et trouve les mots, ou du moins le langage, pour décrire les subtilités de l'atmosphère désenchantée du trip-hop. D'ailleurs, dans les albums plus conventionnels que sortiront Goldfrapp dans les années suivantes, le placement et le traitement de sa voix sont bien plus convenus, il y paraît en efet dificile de conserver la même interprétation vocale alors que l'instrumentation est bien plus entêtante et lumineuse.

En conclusion, que l'utilisation de l'efet soit occasionnel ou systématique chez les musiciens et musiciennes (par exemple pour OKLou), il permet d'ajouter du sens ou de le renforcer au sein de la composition. Cette opération se produit par la transformation de l'image qu'on se fait de l'interprète, soit en modifiant la perception de son physique comme pour OKLou et Laurie Anderson qui deviennent des figures post-humaines ou sur- humaines, soit en donnant des indices sur son état mental ou bien en ajoutant un contexte à la situation comme le font Kavinsky et Goldfrapp. Pour la composition de ma partie pratique de mémoire, je me focaliserai sur ce deuxième aspect car je cherche à ajouter de l'intention à l'interprétation vocale par l'efet. En outre, les voix transformées par des efets, par leur aspect synthétique, semblent pouvoir s'intégrer plus facilement aux compositions musicales.

51 II. PROPOSITION D'UN NOUVEL EFFET APPLIQUÉ À LA VOIX OBTENU PAR DÉTOURNEMENT

52 1) LES PRÉMICES DE LA CRÉATION

J'ai choisi d'utiliser la suite de modules d'extension Izotope RX pour la détourner dans une composition musicale pour plusieurs raisons. Tout d'abord, je voulais maximiser mes chances d'obtenir au moins une nouvelle texture intéressante, je souhaitais donc étudier un ensemble contenant plusieurs plug-ins (en français, modules d'extension). Cette suite a attiré mon attention lorsque j'ai eu à en user dans des cadres conventionnels pour du cinéma ou de la restauration d'enregistrements sonores. J'ai trouvé que les artéfacts que ces outils produisaient étaient très surprenants et ils ne me rappelaient rien de connu. J'ai donc voulu poussé l'expérience plus loin en les transformant en efets, d'autant plus que l'entreprise qui commercialise ce produit reste très discrète sur le fonctionnement de ces algorithmes. Ainsi, je ne peux pas deviner les failles de ces traitements à l'avance, ni savoir exactement ce que l'exagération d'un certain paramètre va engendrer quant aux artéfacts, ce qui rend cette expérience très ludique.

a – Présentation de la suite Izotope RX

Izotope RX est un logiciel permettant principalement le nettoyage de prises de son et la restauration d'enregistrements abîmés. Il fonctionne d'une part en stand alone, c'est-à-dire comme un logiciel indépendant mais propose aussi une suite de plug-ins qui permet l'utilisation de certaines de ses fonctions au sein de stations de travail audionumériques. Dans son fonctionnement autonome, la fenêtre principale permet de visualiser la

53 forme d'onde du signal mais aussi son spectrogramme, c'est à dire la représentation des fréquences contenues dans le spectre, dont le niveau est représenté par un barème de couleurs, en fonction du temps. En efet, bon nombre de ses fonctions agissent directement sur cette représentation graphique. Par exemple, il est possible de sélectionner une zone spectro- temporelle du spectrogramme et de la supprimer, retirant ainsi une certaine partie du spectre du son pendant un temps donné. On peut ensuite venir reconstruire ces zones par interpolation avec ce qui se trouve autour grâce à la fonction Spectral Repair, ce qui peut servir à enlever des bruits indésirables localisés en fréquence et en durée. Une autre fonction accessible uniquement en stand alone est le Deconstruct qui analyse le signal et sépare ses composantes tonales du bruit, sans juger du niveau de ces deux constituants. Il est ainsi possible d'ajuster indépendamment leur gain. Cet outil permet notamment de diminuer le niveau d'un bruit très fort par rapport au signal utile, ou à l'inverse d'en ajouter, comme par exemple pour augmenter le soufle dans l'enregistrement d'une flûte26 .

Izotope RX propose aussi une fonction Connect (disponible à partir de la version cinq du logiciel), qui permet d'utiliser l'entièreté du logiciel Izotope RX comme n'étant qu'un plug-in dans une station audionumérique de travail, rendant ainsi les outils précédent accessibles rapidement dans le cadre de la production musicale que je m’apprête à efectuer. Néanmoins, dans le cadre de ce mémoire, je ne me servirai pas de cette connexion possible et me focaliserai sur les modules plus simples proposés par Izotope RX. En efet, malgré l'immense potentiel créatif des fonctions telles que le Spectral Repair ou la suppression de zones au sein d'un spectrogramme qui 26 Exemple donné dans le manuel d'Izotope RX 5, p.128.

54 ne sont pas accessibles par simples modules, l'action de ces deux programmes dépend en premier lieu de la découpe à la main de zones du spectrogramme à traiter, les possibilités de création sont alors au moins aussi nombreuses qu'il y a de manières de découper le spectrogramme, soit quasi infinies. Cette méthode d'utilisation d'Izotope RX à des fins créatives mérite une étude à part entière, je ne pourrai donc pas traiter ces problématiques ici.

Travaillant avec les versions quatre et cinq de ce logiciel, il me reste huit plug-ins à explorer pour la création dont je vais d'abord décrire le fonctionnement.

Le Dialogue De-noise sert à à atténuer le bruit de fond de prises de son, particulièrement lorsqu'elles comportent de la voix, et fonctionne comme un expander-gate27 multibande. Ainsi, lorsque le niveau d'une des bandes de fréquence du signal passe en dessous du seuil donné, celle-ci est très fortement atténuée, voire coupée. On peut ainsi régler son seuil, le niveau maximal qu'il va retirer au signal par bande de fréquences, ajustable en fonction des zones du spectre grâce à la courbe de réduction. Il comporte aussi une fonction « Learn (Apprendre) » qui lui permet d'adapter son traitement par rapport au bruit du signal entrant.

Le De-noise est le module qui contient le plus grand nombre de paramètres, je ne parlerai donc que des principaux, qui sont d'ailleurs ceux qui ont été cruciaux pour l'obtention de l'efet. Ce plug-in permet normalement de détecter le contenu spectral du bruit résiduel d'un 27 « Expander » et « Gate » sont deux mots que la littérature spécialisée ne traduit pas.

55 enregistrement et de le retirer à celui-ci. Contrairement au Dialogue De- noise, il agit donc à la fois spectralement et dynamiquement car il est nécessaire que le bruit dépasse un certain seuil pour être efacé (ce qui n'est pas le cas pour la fonction Deconstruct). Tout comme le plug-in précédent, il possède une fonction « Learn », un réglage de la réduction et du seuil, mais aussi une sélection de l'algorithme (du plus rapide au plus précis) et un choix dans la nature des artéfacts, qu'ils soient plutôt fréquentiels ou dynamiques. Le curseur du seuil a une fonction un peu diférente car il permet de jauger l'amplitude entre le seuil de détection du bruit et celui du signal utile, le niveau d'entrée jouant alors un rôle complémentaire. Il semble que lorsque certaines zones du spectre dépassent le seuil du signal utile, elle ne sont plus traitées par l'algorithme, de même lorsqu'elles se trouvent sous le seuil de détection du bruit, étant alors considérées comme du bruit résiduel à conserver28. On peut moduler la niveau de la réduction du bruit en fonction du spectre en dessinant sur celui-ci une courbe de réduction. Dans les réglages avancés, la taille de la FFT (transformée de Fourrier rapide) tient aussi un rôle important. Avec une FFT très courte, soit six millisecondes au minimum, la discrimination fréquentielle est très limitée alors qu'une FFT plus longue compense ce problème mais demande des temps de calcul plus long et discrimine moins bien l'aspect temporel du signal. De plus le De- noise possède une fonction qui va m'être très utile, le “Output Noise Only (Ne faire sortir que le bruit)” qui, comme son nom l'indique, permet de 28 D'après le manuel d'utilisation du logiciel Izotope RX 5, p.109 : « Threshold : controls the amplitude separation of noise and useful signal levels. Higher threshold settings reduce more noise, but also suppress low-level signal components. Lower threshold preserves low- level signal details, but can result in noise being modulated by the signal. » (Seuil : contrôle l'amplitude de la séparation entre le bruit et le niveau de signal utile. De hautes valeurs du seuil réduisent plus de bruit, mais suppriment aussi les composantes à bas niveau du signal. De faibles valeurs de seuil préservent les composantes à bas niveau du signal, mais peuvent résulter en la conservation du bruit dans ce dernier.)

56 n'écouter que ce que l'algorithme retire au signal, ce qui normalement sert à vérifier que l'on n'enlève pas trop de signal utile par ce traitement.

La fonction De-click analyse les irrégularités d'amplitude du signal et les atténue. Elle traite ainsi les clics numériques mais aussi les interférences téléphoniques, les bruits de bouche, ou par exemple le bruit de défilement des perforations de bande optique. Ses paramètres principaux sont le choix de l'algorithme de détection (simple et à bande unique, multibande pour des clics périodiques et multibande pour des clics aléatoires), la sensibilité dans la détection de l'amplitude des clics (sensitivity), la longueur temporelle de la région autour du clic détecté à atténuer (click widening) et le biais fréquentiel pour la détection (frequency skew). Pour ce dernier paramètre, lorsque ce bais tend par exemple vers le haut du spectre, le module aura une sensibilité plus élevée aux clics qui contiennent beaucoup de fréquences aiguës, et inversement. Le réglage du type de clic n'est finalement qu'un préréglage puisqu'il dépend des autres paramètres. En outre, le De-click possède aussi une fonction “Output Clicks Only”. La fonction du De-crackle est similaire. Il est décrit comme servant à retirer des « clics proches les uns des autres et souvent plus faibles en volume [que les autres clics] qui sont décrits subjectivement comme des crépitements »29. Il possède les mêmes réglages de sensibilité de détection, de biais fréquentiel pour celle-ci et la possibilité de ne récupérer que les “crackles”, mais le choix de son algorithme se limite à un réglage de qualité de celui-ci.

29 « When an audio signal contains many clicks close together, ofen lower in volume, this is described subjectively as crackle. » D'après le manuel d'utilisation du logiciel Izotope RX5.

57 Le module Ambiance Match permet, en analysant un extrait d'une prise de son, de prendre une empreinte de son bruit de fond, et de l'appliquer à un autre enregistrement pour faire coïncider leur raccord, ou même d'en faire un fichier sonore à part entière permettant d'imiter un silence raccord qu'on n'aurait pas pu faire en tournage. Ce plug-in ne propose pas vraiment de réglage, si ce n'est le choix de l'extrait à analyser.

Le De-hum est un filtre composé de plusieurs coupe-bandes au facteur de qualité très élevé qui permettent ainsi de retirer chirurgicalement le buzz (ou ronflement en français) créé par l'alimentation électrique et ses harmoniques. Ses réglages permettent simplement de contrôler les paramètres du filtrage, c'est donc un traitement plutôt trivial qui n'opère pas d'autre transformation sur le son.

Le programme De-reverb, comme son nom l'indique, retire la réverbération des prises de son, tant les premières réflexions que les queues de réverbération, grâce à un système qui agit à la fois sur le plan dynamique (comme une gate) et fréquentiel. Il possède une fonction “Learn”, un paramètre de réduction, un contrôle du lissage des artéfacts, puis un réglage du profil de la réverbération en prenant en compte sa longueur et son allure spectrale.

Enfin, le De-clip élimine la saturation d'un signal en interpolant sa forme d'onde pour recréer ses courbes. Il l'évalue en étudiant l'énergie des échantillons sonores, ainsi lorsqu'on observe un répartition irrégulière de ces derniers et qu'ils se concentrent dans les niveaux les plus forts, cela

58 signifie généralement que le signal a subi une saturation. On peut alors régler le seuil de détection de celle-ci et la qualité de l'interpolation réparatrice.

b – Essais pour l'obtention de nouvelles textures avec la suite Izotope RX

Je vais procéder par élimination pour ne conserver que les traitements qui, d'après moi, produisent un efet intéressant. Je peux donc tout d'abord rayer de cette liste le Dialogue De-noise car toutes mes tentatives pour abîmer le son en poussant ses paramètres en butée se sont révélées infructueuses. Étonnamment, ce traitement ne provoque quasiment pas d'artéfacts. De plus il n'est pas possible d'en récupérer uniquement la partie soustraite au signal, qui aurait peut-être pu donner une texture intéressante. De toute façon, même en efectuant cette fonction manuellement en additionnant l'enregistrement et sa version traitée en hors phase, je n'obtiens pas d'artéfacts. Je retire aussi d'emblée à cette liste le De-hum car ce traitement n'est finalement qu'un filtrage, la transformation du son qu'on obtient est donc plutôt reconnaissable et peu novatrice.

Le résidu obtenu avec le module De-crackle en enclenchant l'option “Output Crackles Only” est très dificilement utilisable. Son énergie est surtout contenue dans le haut et très haut du spectre, les graves et médiums y étant très peu représentés. La voix n'y est quasiment plus reconnaissable, même en utilisant les paramètres qui provoquent la plus forte dégradation

59 du son, et donnent donc le résidu le plus fourni. On en obtient surtout les bruits de bouches, claquements de la langue et des lèvres, et une partie des consonnes dévoisées30. Ainsi, si on cherche à ajouter ce son transformé à la voix naturelle, pour obtenir un efet tout en conservant la compréhension, il en résulte surtout une élocution dont tous les bruits buccaux auraient été amplifiés et contenant beaucoup de fréquences très aiguës, ce qui est finalement très désagréable à écouter. Même en filtrant drastiquement ce signal transformé à l'aide d'un filtre passe-bas, il n'en demeure, d'après moi, pas plus utilisable. Je retire donc aussi ce plug-in de la liste des efets à explorer.

Je commence à porter plus d'intérêt à la fonction Ambiance Match. Cependant, ce module étant très eficace, dès que je lui propose de détecter un bruit de fond, ne serait-ce qu'à partir de quelques syllabes chantées, j'en obtiens de manière très réaliste l'ambiance de la salle dans laquelle j'ai enregistré. Pour tromper le logiciel et le forcer à faire des erreurs, je lui mets en entrée l'extrait sonore le plus court possible, ne comportant qu'un bout de voyelle. En efet, dès qu'une consonne est détectée, Ambiance Match comprend que la voyelle suivante que je cherche à lui faire reproduire n'est pas un dénominateur commun sur tout l'extrait, elle n'est donc pas détectée comme étant un bruit de fond. En prenant toutes ces précautions, le résultat est très intéressant. La voyelle est comme figée par la reproduction, tout comme la hauteur à laquelle elle est chantée, et ce sur la durée souhaitée puisque “l'ambiance” recréée doit pouvoir se prolonger à l'infini. Néanmoins, on ne peut pas conserver l'élocution par cet efet et donc lui

30 C'est-à-dire qui n'impliquent pas l'utilisation des cordes vocales pour leur prononciation mais uniquement du soufle. Cela explique pourquoi le résidu obtenu contient très peu de graves et beaucoup de sibilance.

60 faire porter un texte entier, il ne pourrait qu'être présent en renfort, destiné à ajouter de nouvelles textures en parallèle du texte et ne pouvant donc pas être une des composantes du grain de la voix. Aussi, la texture obtenue est très proche de ce que peut donner un plug-in comme Freeze de la suite des GRM Tools, qui efectue d'emblée cette manœuvre de détournement car il sufit d'appuyer sur le bouton “Freeze” pour figer la voyelle en direct. Ce mésusage de l'Ambiance Match n'est donc pas tout à fait novateur.

Pour ce qui est du programme De-reverb, lorsqu'on pousse ses paramètres à fond, on obtient surtout des artéfacts dynamiques : on a l'impression de faire pomper un compresseur. Néanmoins, avec la fonction “Output Reverb Only” il en résulte une matière plus originale. Sur la voix, l'altération fréquentielle va retirer en priorité dans le spectre les zones fréquentielles aux faibles niveaux, qui serait plus probablement issus de la réverbération que du son direct. Sur le spectre résiduel obtenu, il manque alors de temps en temps certaines harmoniques de la voix (car trop proéminentes pour avoir été considérées comme de la réverbération) et certaines zones fréquentielles formantiques. Ainsi, c'est la prononciation et le timbre de la voix qui sont altérés, on touche ici à une transformation significative du grain de la voix. Cependant, cette transformation reste assez légère et le point négatif de ce traitement est le fait que les attaques des notes ne peuvent jamais être considérées comme de la réverbération, il manque donc tous les débuts des mots lorsqu'on utilise la sortie “Output Reverb Only”, ce qui est dommage pour la compréhension du texte.

61 Finalement, les traitements proposés par la suite Izotope RX qui ont le plus retenu mon attention par leur résultat inhabituel mais exploitable et leur facilité à être détournés sont le De-click, le De-noise et le De-clip. Au cours des tests, je trouve que le De-click est plus intéressant lorsqu'on enclenche la fonction “Output Clicks Only”. Ainsi, on en obtient des sortes de “granules” de voix sans pour autant que cela ne ressemble à de la granulation classique. Dans cette configuration, je pousse la sensibilité de détection au maximum pour entendre assez de matière afin de reconnaître la voix. Dans ce cas, le “clic widening” va jouer sur l'impression de granulation de la voix. Plus il est bas, plus la voix sera abimée et la texture distordue, on reconnaitra moins l'aspect vocal du son et le bas du spectre sera moins audible. En efet, lorsque la découpe autour des clics est de l'ordre de la milliseconde, il devient plus dificile pour la reproduction de faire entendre le spectre en dessous de 1000Hz puisque la période des sinusoïdes dont la fréquence est inférieure sera tronquée au sein de chaque “granule” de son. En passant l'algorithme sur la détection de clics périodiques, la texture est plus fournie et régulière mais donne un aspect plus robotique à la voix alors que la détection simple est plutôt imprévisible et fonctionne mieux en renfort d'un autre son.

Je teste d'emblée le De-noise en “Output Noise Only” pour en extraire un résultat plus franc. Dans ce cas, je préfère garder le “threshold” au minimum et gérer l'altération plutôt avec le niveau d'entrée du signal. Le paramètre de réduction complète ces réglages en contrôlant la quantité de bruit à retirer en décibels. Cependant, sa limite étant celle du niveau du signal lui-même, on retrouvera ce dernier intact en “Output Noise Only” si la

62 réduction est poussée au maximum, et aucun son ne sortira s'il le curseur est au minimum, il faut donc trouver un équilibre à cette réduction qui dépend vraiment du son en entrée. Ainsi, dans l'utilisation que j'en fais, je considère que le réglage du seuil devient une sorte de “Dry/Wet” (balance entre signal traité et signal brut) de mon efet, le niveau d'entrée serait un “taux de distorsion” et le paramètre de réduction en serait le niveau d'entrée, puisque ce dernier agit aussi sur la proportion de la distorsion. D'ailleurs, ces réglages étant très sensibles quant à la teneur des artéfacts en sortie, il vaut mieux compresser très fortement le signal en entrée pour obtenir un rendu homogène.

Pour obtenir une distorsion spectrale bien évidente, je place le curseur de contrôle des artéfacts sur “musical noise” (bruit musical). La taille de la FFT joue aussi un rôle en renforçant la transformation du son lorsqu'elle est au minimum. Cependant, une FFT plus longue donne aussi des résultats intéressants plus proches de la voix naturelle. Enfin, quand on applique la fonction “Learn” au signal lui-même (devant normalement être appliquée sur un passage ne contenant que du bruit), on modifie aussi fortement le son en sortie. Sans elle, ce sont toujours les zones spectrales les plus faibles qui font réagir l'algorithme, les considérant alors comme du bruit, ce qui a tendance à colorer fortement le spectre en sortie. Il est alors important de limiter ce biais grâce à la courbe de réduction, qui module l'influence du paramètre de réduction en fonction des fréquences. En utilisant la fonction “Learn”, les artéfacts sont beaucoup plus homogènes en fréquence, bien que la voix en soit plus fortement déformée.

63 Le De-clip est le seul des trois plug-ins qui opère une véritable transformation du son et non juste une découpe fréquentielle et temporelle de celui-ci. Cette propriété du De-noise et du De-click rend d'ailleurs leur usage contre intuitif : lorsqu'on additionne plusieurs sons traités par ces modules, la transformation totale qui en résulte est plus faible que la transformation de chacune des parties ajoutées, car finalement on reconstruit le signal par ce procédé. Le De-clip ajoute donc des artéfacts qui ne sont pas contenus dans le signal d'origine, il donne notamment l'impression de diminuer la hauteur du son en entrée avec un efet de “gargouillement”. Poussé au maximum, l'élocution étant bien respectée, on dirait que la voix est émise par une technique de chant guttural utilisée principalement dans la musique métal. En l'employant avec plus de parcimonie, il déforme les formants et confère à l'interprète une apparence monstrueuse.

Ainsi, ce sont ces trois derniers modules que je vais utiliser pour composer mon morceau, malgré l'intérêt que je porte aux autres traitements de la suite Izotope RX. L'idée est aussi d'éviter la multiplication d'efets diférents au sein d'un seul morceau qui pourrait alors s'apparenter à un étalage de mes essais. Je vais néanmoins essayer de faire varier ceux-ci au cours de la composition et de les associer entre eux pour un rendu plus riche.

64 c – Les acteurs de la création

Avant tout, je cherche à ancrer le morceau que je vais composer dans des processus de création et de difusion réalistes, bien qu'il fasse l'objet d'une recherche autour du détournement d'efets. Ainsi, je décide de composer cette pièce de musique électronique avec le logiciel Ableton Live, recommandé par mes pairs pour cette tâche et je le mixerai avec Pro Tools, mon outil de travail habituel. J'enregistrerai des maquettes chez moi avec mon micro personnel (un Sennheiser MK4, micro statique à large membrane) pour vérifier la pertinence de la composition vocale mais l'enregistrement final sera réalisé dans la régie radio de l'école Louis Lumière, avec un Neumann TLM103. Une fois achevé, ce morceau sera accessible sur le site Soundcloud, qui permet la difusion de musique et autres podcasts tout aussi bien par des amateurs que par des professionnels, et sera partagé via mes réseaux de communication personnels (bouche à oreille, page Facebook, et messagerie numérique). De ce fait, ce morceau sera réalisé et difusé comme je l'aurai fait si cette première composition n'était pas destinée à répondre aux attentes d'un mémoire. D'ailleurs, pour obtenir des retours du public, je vais tenter de rendre le questionnaire que je cherche à faire remplir le moins intrusif possible en en faisant un formulaire Google Forms dont je proposerai de cliquer sur le lien seulement une fois le morceau écouté. En outre, je tiendrai compte des retours informels qui bien qu'ils puissent être biaisés si mes connaissances souhaitent m'encourager, sont les seuls retours que j'aurais obtenus naturellement.

65 J'espère que ce morceau plaira à un public large et varié car cela indiquerait que n'ai pas trop penché du coté de la musique expérimentale, en marge de la production actuelle, et que mes procédés de composition n'auront pas été trop hermétiques et auront transmis les émotions que je cherche à partager. Cela montrerait aussi qu'il est bien possible et peut être même profitable d'inclure de nouveaux efets dans la musique actuelle, j'apporterai donc une attention particulière à la réception de l'efet par le public.

Je travaillerai sur cette composition avec l'aide de Yohan Boisgontier, co-producteur sur cette création. Ainsi, c'est avec lui que je discute de la direction à prendre avant de composer et du placement de ma voix dans le morceau. Au cours de nos écoutes communes, nous nous mettons à imaginer un morceau très lent mais à la rythmique lourde et agressive, mais à l'harmonie simple permettant une grande liberté mélodique pour la voix, caractéristiques que je conserverai par la suite. Je composerai d'abord la première maquette seule puis il la commentera et la complétera pour me donner de nouvelles directions à développer pour la seconde, et ainsi de suite jusqu'au résultat final. Ce sont donc bien mes idées que je mets en musique tout en profitant des connaissances de Yohan en matière d'arrangement et de ses influences. Il apportera ainsi au morceau ses références en trap31 tandis que je composerai plutôt selon mes repères en trip-hop. Néanmoins, dès la première maquette, la direction que j'emprunte

31 Courant musical émergeant au début des années quatre-vingt dix héritant du hip-hop et popularisé par les producteurs de musique électronique qui se caractérise par l'utilisation du TR-808 pour la basse, la prédominance de fréquences très graves dans la composition, la présence répétés de doubles croches, triolets et autres divisions temporelles très courtes pour la rythmique, sans pour autant exclure un contenu lyrique et des nappes de synthétiseurs dans la composition.

66 est déjà située à l'intersection de ces courants musicaux, ce qui facilite cette hybridation.

Une seconde actrice majeure de cette composition réside en la personne d'Aloyse Launay qui me conseillera dans l'élaboration de l'harmonie mais qui surtout me donnera des cours de coaching (entraînement) vocal. Après m'avoir appris quelques exercices d'échaufement, nous travaillons rapidement sur le texte et la mélodie du morceau au cours de séances de chant intenses. La technique d'Aloyse est de me faire prendre conscience de tous les paramètres de ma voix à chaque instant, quitte à me mettre en dificulté dans un premier temps pour chanter avec émotion. Néanmoins, cela me permet ensuite de mieux la maitriser et d'être plus précise sur mes intentions, même quand je ne me soucie plus des aspects techniques. Au cours des séances, elle m'arrête donc à quasiment tous les mots pour me mettre en garde sur la prononciation, la hauteur, l'accentuation dynamique, le vibrato (souvent indésirable), la quantité de soufle, l'ouverture de ma bouche et l'ouverture du fond de mon palais. Grâce à ces cours, je me rends compte que ce que je jugeai n'être possible que par la spontanéité et l’intuition se révèle être entièrement paramétrables lorsqu'on maîtrise tous les aspects de sa voix. Je réalise ainsi que je suis bien loin d'un tel niveau de virtuosité et que malgré ma grande expérience en chorales et comédies musicales, chanter en soliste est bien plus exigeant et requiert beaucoup de travail.

Enfin, Benoît Fleury me prêtera sa station de travail audionumérique pour la fin de la production et le mixage, me permettant un grand confort de

67 travail. Aussi, étant mon colocataire, son omniprésence dans les moments où je compose en fait une oreille extérieure eficace mais néanmoins impliqué. Il m'aide alors à prendre le recul nécessaire lorsque je n'y parviens plus et met en lumière des défauts que je n'aurai pas relevé seule. En efet, la particularité de la composition que j'entreprends est que j'occupe tous les postes de la production à la fois : Je suis compositrice, arrangeuse, réalisatrice, chanteuse, mixeuse et ingénieure de mastering. Il n'y a donc quasiment aucun moment où ce projet rencontre un acteur autant impliqué que je le suis qui pourrait lui donner un peu de fraîcheur, si ce n'est Yohan dans la phase d'arrangement et de réalisation et pour l'enregistrement de la voix (nous travaillons néanmoins en binôme, il n'occupe pas seul ces postes). Cette dificulté est renforcée par mon inexpérience totale en composition. En efet, je n'ai jamais composé, arrangé ou réalisé de morceau de musique, je n'ai jamais utilisé le logiciel Ableton Live à ces fins et je n'ai jamais chanté en tant que soliste. La réalisation de cette partie pratique de mémoire est donc un véritable défi pour moi, mais constitue aussi une expérience intéressante à décrire puisque j'y rencontre tous les afres et les joies de la composition sans aucun a priori.

d – Le choix du thème et des paroles

Avant de me lancer, je ne perds pas de vue le fait que ce morceau se destine à accueillir des efets appliqués à la voix. C'est un paramètre que j'aurai du mal à prendre tout à fait en compte au cours de la composition car je découvre que j'ai beaucoup de dificultés à me projeter dans le morceau

68 fini à chaque étape, il m'est donc très dificile d'imaginer les efets avant que je ne les y intègre. Je préfère ainsi me préparer à leur arrivée dès l'écriture des paroles, que je rédige d'ailleurs dans un premier temps sans tenir compte de leur intégration rythmique dans la composition (puisqu'il m'est très dificile d'imaginer leur rendu). Je trouve la mélodie de la voix intuitivement en tentant de chanter le texte sur la musique et adapte les mots pour le faire coïncider rythmiquement.

De mes recherches efectuées précédemment, je retiens qu'ajouter un efet permet souvent d'exprimer l’indicible, il met à nu les émotions du chanteur ou de la chanteuse en les imprimant dans la matière même de la voix et non plus seulement dans le texte. Il se comporte comme une composante du grain de la voix lorsqu'il altère l'élocution et le timbre et peut créer chez l'auditeur ou l'auditrice un sentiment d'inquiétante étrangeté en modifiant la représentation morphologique de l'interprète. Aloyse m'encourage à écrire un texte sincère pour faciliter son expression par le chant, le morceau commençant déjà au moment de l'écriture à prendre une tournure plutôt mélancolique, je choisis d'écrire un texte sur l'anxiété et la dificulté du lâcher prise, sentiments très prégnants durant cette période de mémoire et de composition musicale.

Ainsi, je décris l'idée selon laquelle perdre l'état de conscience généré par l'anxiété donne l'impression de perdre en substance, le lâcher prise s'accompagne d'une perte de contrôle et de sensations qui peuvent s'avérer dificile à accepter. En somme, c'est un texte sur l'anxiété à l'idée de ne plus être anxieuse. Dans ce texte, je m'adresse au sentiment de confiance lui-

69 même, qui finit donc par m'avoir et d'une certaine manière à m'assommer. Je travaille autour du champ lexical du corps dans lequel la perte d'émotions se somatise mais aussi sur celui de la météo qui représente métaphoriquement ces dernières. Les saisons sont alors les successions d'états d'âme, la chaleur, “heat” en anglais se traduit aussi par l'idée d'ardeur des sentiments, l'orage est la colère et les pluies salées sont les larmes. L'organisation plutôt chaotique de ces idées dans le texte traduit ainsi mon état de détresse au moment du lâcher prise. Je vais donc tenter, par la composition et l'interprétation vocale, de porter ces émotions plutôt contradictoires, entre l'inéluctable délivrance de l'angoisse et la nostalgie précoce quant à cet état alerte régi par des sensations intenses. D'ailleurs, je chanterai ce texte avec une certaine forme d'apathie, soulignant l'aspect fatal de la situation et la disparation des émotions qui l'accompagne. Enfin, j'ai décidé d'écrire ces paroles en anglais bien ce ne soit pas ma langue maternelle car d'une part je me projette musicalement mieux dans cette langue. En efet, tous mes morceaux de référence sont chantés en anglais. D'autre part, j'avais peur que l'utilisation d'un efet sur la voix, lorsque ce dernier gêne la compréhension du texte, soit très perturbante pour l'auditeur si le morceau est en français. On a l'habitude de comprendre très distinctement les voix des morceaux chantés en français, qui sont d'ailleurs souvent mixées plus fort, on pardonnera donc sans doute mieux certains masquages par l'efet dans un texte en anglais.

70 Brained – Partie pratique de mémoire Paroles et leur traduction

A whisper in my chest Un murmure dans ma poitrine Stands against the clime Lutte contre le climat My seasons need some rest Mes saisons ont besoin de repos Time De temps

Breathing slows as you come back Le soufle ralentit à ton retour Thank you for filling the lack Merci de combler le manque Pouring down along your spine M'écoulant le long de ton échine I'm merging matter and divine Je fusionne la matière et le divin

No more nerves in my fingers Plus de nerfs dans mes doigts Neither blood under my lips Ni de sang sous mes lèvres Cauterized as my angers Cautérisés comme mes colères Feelings heal but have no grip Les sentiments guérissent mais n'ont pas de prises

Everything has retracted Tout s'est rétracté Everything has been contained Tout a été contenu And soon... Et bientôt...

The thought in my chest La pensée dans ma poitrine Will dry up the sore Va sécher la plaie My seasons take rest Mes saisons se reposent Time is no more Le temps n'est plus

Indolence is real L'indolence est réelle Aphasia is near L'aphasie est proche My senses congeal Mes sens coagulent But they say peace appears* Mais il disent que la paix apparaît

Everything has retracted Tout s'est rétracté Everything has been contained Tout s'est contenu Soon, I know, I will be subtracted Bientôt, je le sais, je serai soustraite From me. Once more, you got me brained À moi même. Une fois de plus, tu m'as assommée**

* Dans le morceau, « peace appears » s'entend aussi volontairement « disappear(s) ». Cette phrase signifierait alors : « Mais ils disent : “Disparais” ».

** « Brained » se traduit aussi par « cérébral ». La première partie de la phrase « You got me » souligne l'idée de se faire avoir.

71 Indolence is real L'indolence est réelle Aphasia is near L'aphasie est proche My senses congeal Mes sens coagulent But they say peace appears* Mais il disent que la paix apparaît

Everything has retracted Tout s'est rétracté Everything has been contained Tout s'est contenu Soon, I know, I will be subtracted Bientôt, je le sais, je serai soustraite From me. Once more, you got me brained À moi même. Une fois de plus, tu m'as assommée**

Heat sank into clouds La chaleur*** a plongé dans les nuages Storm choked in your shrouds L'orage s'est étranglé dans tes haubans No one ever remembers Personne ne se souviens jamais The salty rains of Novembers Des pluies salées des mois de novembre

Everything has retracted Tout s'est rétracté Everything has been contained Tout a été contenu And soon, I know, I will be subtracted Et bientôt, je le sais, je serai soustraite From me. Once more you got me brained À moi même. Une fois de plus, tu m'as assommée You got me brained Tu m'as assommée You got me brain dead Tu m'as mise en état de mort cérébrale**** You got me brained Tu m'as assommée You got me brain dead Tu m'as mise en état de mort cérébrale

*** « Heat » étant associé au champ lexical de la météo signifie « la chaleur » mais peut aussi désigner « l'ardeur des sentiments »

**** Au sens figuré et familier, « brain dead » signifie aussi « stupide ». Cela se rapproche du sens français du mot « mort » dans la phrase : « Je suis mort, je n'arrive plus à réfléchir ».

72 2) RÉALISATION D'UNE PIÈCE DE MUSIQUE ÉLECTRONIQUE a – La création de la première maquette

Je commence ma composition en plaçant une nappe du clavier Canadian Board, dont je module l'amplitude par deux LFO (Low Frequency Oscillator, oscillateur à basse fréquence en français) à la forme d'onde carrée, ce qui donne les sautes rythmiques de volume du son. Je commence par définir une première grille pour le couplet qui sera : ré mineur/mi majeur/ré mineur (premier renversement)/mi majeur. Comme j'aime beaucoup la texture discontinue de ce clavier, je me plais à laisser trainer en longueur ces nappes, ce qui finit par définir le tempo du morceau : 116 battements par minutes. Yohan me fera remarquer que bien que ma session soit calibrée sur cette valeur, le tempo perçu se situe plutôt à la moitié de celui-ci, 58bpm, ce qui est extrêmement lent. Néanmoins, j'apprécie la sensation de lourdeur que cela apporte au morceau et le conserve. Cette lenteur me permettra d'ailleurs de développer facilement quelques rythmiques ternaires, ce que je fais donc pour la caisse claire et plus tard pour la voix. J'aime l'impression de roulement et de flottement que ce mélange binaire/ternaire apporte au morceau. Je duplique ensuite le module du Canadian Board pour remplacer la forme d'onde de son générateur par une forme d'onde carré aléatoire, toujours modulé par le même LFO. Il en résultera le bruit rose à l'enveloppe discontinue qui traverse le morceau.

73 Je compose ensuite le motif de la batterie qui restera intact jusqu'à la version finale, mis à part quelques breaks ajoutés par Yohan. Cependant, il va considérablement m'aider à modifier les sons que j'ai choisis. Il commence par me faire remarquer que j'ai utilisé une grosse caisse tonale, issue d'un Roland TR808, qui rentre donc en conflit avec l'harmonie du morceau. Il me propose donc de la remplacer par un son plus précis avec plus d'impact et de faire de ma première grosse caisse la basse du morceau, en faisant évoluer sa hauteur. Il enrichit le reste du kit de batterie de sonorités trap et ajoute un son d'impact réverbéré sur le refrain. Avant son intervention, ma basse est générée par un sample de clavier analogique proposé par Ableton dont le son ne me plaît pas tout à fait et que je ne peux pas modifier puisque je n'ai pas accès à une émulation de ce clavier. Nous arrivons avec Yohan à obtenir un son similaire et modulable grâce à une émulation de synthétiseur Arturia miniV, qui sera conservé sur les refrains de la version finale.

La base mélodique qui m'a servie à composer les refrains est celle jouée à la cloche. À partir de celle-ci, j'en déduis une progression harmonique qui sera : la mineur/mi majeur/mi majeur septième de dominante/la mineur. C'est finalement une progression classique mais très eficace. Dans un premier temps, je voulais que cette mélodie soit jouée par des cordes, mais n'arrivant pas à trouver un son assez réaliste, j'essaye quelques simulations d'instruments au hasard et finis par décider que le son de cloche me plaît beaucoup. Je prolonge les instruments du couplet sur le refrain en les adaptant à l'harmonie, et c'est ainsi que j'achève une première maquette de ce morceau. À sa première écoute, Yohan constate que le

74 morceau possède déjà une couleur trap très prononcée, notamment dans l'utilisation des cloches sur le refrain car c'est une pratique assez courant dans ce style. C'est d'ailleurs surement pour cela que j'avais l'impression que cette association fonctionnait bien. Il me reproche d'être un peu frileuse sur l'utilisation de synthétiseurs plus aigus, j'ai en efet tendance à vouloir ajouter toutes mes nouvelles lignes mélodiques dans le bas. Ce n'est pas étonnant étant donné mon influence majeure qui réside en la personne de Gesaflestein. Mike Lévy, de son vrai nom, est un compositeur de musique électronique aux sonorités très sombres et à l'esthétique minimaliste. La prédominance de la basse dans ses compositions m'inspire beaucoup.

Finalement, ce que je regrette de n'avoir pas conservé de cette maquette est son minimalisme et sa clarté. Les éléments sont peu nombreux, on prête alors plus attention à leur timbre et on comprend bien la composition. Je ne m'attendais pas à ce que l'ajout de la voix, testé à partir de la troisième maquette (il y en aura quatre en tout avant que je débute le mixage), brouille autant la compréhension du reste. Cela est aussi dû aux efets que j'appliquerai dessus qui prennent beaucoup de place et à ma volonté de superposer plusieurs prises vocales sur les refrains. Après cette maquette, j'ai surtout continué à composer en surenchérissant à chaque étape, rendant le résultat très dense, mais ce n'est pas un mal non plus. Je pense que je n'osais pas retirer des éléments lorsque j'avais la sensation qu'ils fonctionnaient avec le reste, de peur de ne pas réussir à retrouver un autre son à la fonction équivalente. Un autre biais de “débutant” qui m'a poussé à charger ma composition est le peu de confiance que j'attribuais à chaque synthétiseur, craignant de me rendre compte au mixage qu'ils ne

75 s'intègrent pas du tout au reste. Cette crainte est plutôt paradoxale puisqu'étant ingénieure du son, c'est mon métier de me projeter dans de la matière imparfaite et imaginer comment la mettre en forme pour en obtenir le meilleur résultat. Pourtant, je n'y arrivais pas du tout lors de l'étape de l'arrangement. Dans un processus de production normal, le réalisateur ou la réalisatrice du titre efectue un pré-mixage de celui-ci pour avoir une idée du rendu et c'est le mixeur ou la mixeuse qui reprend la matière initiale pour rendre le mix final. Dans mon cas, je ne souhaitais pas passer par deux étapes successives de mixage sachant que l'apport principal de ce processus est le regard extérieur du mixeur ou de la mixeuse, mais c'est peut-être à cause de ce choix que j'ai eu du mal à anticiper le rendu de l'instrumentation.

b – Les ajustements et le choix de la structure

Un problème se pose lors de la construction du morceau : les couplets s'enchainent très bien avec les refrains, mais le retour des refrains aux couplets est un peu bancal, bien que l'enchainement harmonique se fasse entre deux tons voisins. Pour pallier à ça, Benoît m'encourage à utiliser un post-refrain, une ou deux mesures sur un autre accord permettant un enchainement plus naturel. Je me rends compte que la dificulté que j'ai à placer un accord avant la reprise du couplet est aussi liée à une erreur de ma part. En efet, j'ai mal programmé ma première ligne de synthétiseur Canadian Boards en oubliant de placer un ré pour l'accord de ré mineur, ce qui donne une incertitude sur la couleur de l'accord (ré mineur pour ré-fa-la

76 ou fa majeur si les notes étaient fa-la-do). Je me dis que finalement, commencer par un accord de fa majeur est plutôt intéressant, ça nuance la coloration mineure très marquée malgré les accords de mi majeur. Entre temps, Aloyse me donne quelques conseils sur l'harmonie et juge que le troisième accord de ré mineur sur mes couplets n'est pas très heureux. Compte tenu de tous ces problèmes, je fini donc par réécrire toute la grille et la transforme en fa majeur/mi majeur/mi majeur septième de dominante/la mineur. Elle s'approche donc beaucoup de la grille des refrains mais fonctionne bien mieux. En efet, l'alternance des accords de ré mineur et mi majeur ne donnait pas vraiment de moment de résolution à la grille et laissait place à peu de variation pour les instruments.

Au cours des deuxième et troisième versions de la maquette, je trouve enfin un son de synthétiseur basse qui me plaît avec le preset “Analogue Classique 1” du module Massive, dont je retouche l'enveloppe pour obtenir de longues tenues de notes. J'aime beaucoup la densité de ce son de basse et sa richesse dans les médiums, il s'associe aisément au son du TR 808 qui lui est très riche en graves et extrême graves mais reste très sourd. J'ajoute enfin un synthétiseur aigu avec le preset “Drashtail” du FM8 de Arturia, sorte d'imitation de clavecin. Ces ajouts de synthétiseurs sont laborieux car je connais très mal les plug-ins que j'emploie et les claviers qu'ils émulent. Je préfère continuer à composer de manière intuitive et éviter de lire toute la documentation les concernant, aussi pour gagner du temps, mais cela fait que n'ayant pas pu les prendre complètement en main avant de les utiliser, je suis condamnée à tester un à un les presets qu'ils proposent et à deviner l'influence de leurs réglages au fur et à mesure. Pour cette tâche, ma

77 formation en ingénierie sonore est plus que nécessaire car je comprends rapidement le trajet du signal (et même des signaux) dans les synthétiseurs modulaires et connaît déjà la plupart des intitulés des potentiomètres. Néanmoins, cette manière de procéder couplée à ma dificulté à me projeter dans le résultat final fait que j'ai tendance à conserver un son lorsqu'il me rappelle un autre morceau de musique. Par exemple, le simili-clavecin du FM8 me rappelle fortement le clavecin utilisé par Archive dans les refrains du morceau You Make Me Feel. Dans ce cas, ce son est utilisé en alternance avec le reste de l'instrumentation pour donner une sensation d'acoustique et contraster avec la composition très dense. Aussi, la ligne de basse synthétisée par le module Massive me fait penser aux claviers utilisés dans la synth-wave32, notamment dans les compositions de Carpenter Brut dans lesquelles un clavier grave, s'il est assez riche en harmonique, peut prendre une place centrale dans la composition en jouant la mélodie principale.

Finalement, j'expérimente le nœud de la création musicale populaire. On a beau vouloir chercher à innover, inventer, il n'en demeure pas moins qu'il faut que le morceau “fonctionne”, c'est-à-dire qu'il plaise au plus grand nombre, qu'il touche les auditeurs et auditrices. Néanmoins, le moment où le compositeur ou la compositrice sent que le morceau commence à évoquer quelque chose chez lui ou elle, c'est souvent parce qu'il lui fait penser à un autre titre. On se retrouve donc dans un schéma d'imitation, conscient ou non. Ainsi, moi qui craignais d'aboutir à une création trop expérimentale et éloignée de la production actuelle, je me rends compte que je n'étais pas

32 La synth-wave est un genre musical qui se popularise au début des années 2010. Ce genre est caractérisé par une forte influence de la musique des films des années 1980 qui tend à l'imitation, une prédominance des claviers analogiques dans la composition et une imagerie rétro-futuriste qui l'accompagne.

78 aussi neutre que je le pensais au début de la composition car déjà fortement influencée par mes habitudes d'écoute. Si je devais recréer un morceau, je pense que je me briderais moins et pousserais les expérimentations quitte à retirer après ce qui ne fonctionne pas. En outre, un autre frein à l'expérimentation est l'utilisation du logiciel Ableton Live qui oriente le processus de composition en facilitant la réalisation de certaines tâches et en en rendant d'autres impossibles. Il m'aurait ainsi fallu une plus grande expérience de ce logiciel pour le pousser dans ses retranchements et accéder à ses fonctions les plus complexes, tandis que dans mon cas je découvrais une à une les fonctions de base.

c – Le travail sur la voix

Pour la composition de la voix, je commence par enregistrer des morceaux de texte que j'ai déjà écrit en improvisant des lignes mélodiques et leur placement rythmique. Étonnamment, il ne m'aura fallut que deux essais pour trouver la mélodie finale. Ayant le morceau Paradise Circus de Massive Attack en tête à ce moment, je réalise que j'imite sans le faire exprès le ton de la chanteuse Hope Sandoval sur ce titre. Ainsi, je murmure presque le texte, ce que je corrigerai sur les prises vocales définitives pour éviter que la référence soit trop évidente (Yohan la décelant dès la première écoute), mais par contre je m'inspirerai du mixage de la voix de ce morceau pour les moments où ma voix n'est pas traitée. À la suite de ces premiers essais, je modifie juste quelques mots pour que la diction soit plus simple et je rajoute du texte. En efet, au début je ne chantais qu'une phrase sur deux par

79 rapport à la dernière version, ce qui donnait l'étrange impression qu'il manquait des mots. Finalement ce problème s'est résolu bien qu'à la réécoute je trouve le texte très dense et la voix un peu trop omniprésente. Néanmoins, le rythme ternaire de la voix est intéressant et contrecarre la pesanteur apportée par les efets.

Une dificulté que je n'avais pas anticipé apparaît lorsque je commence à travailler le chant avec Aloyse. J'ai écrit malgré moi une ligne mélodique très dificile à chanter sur les refrains. Elle comporte de longues tenues et il n'y a quasiment aucun moment où je peux reprendre ma respiration. De plus, j'y ai placé des mots à la prononciation périlleuse (notamment le mot « subctrated » qui m'a demandé beaucoup d'entrainement avant que j'arrive à placer correctement chacune de ses consonnes en rythme). L'exigence d'être juste sur toute la tenue des notes est renforcée par l'aspect électronique de la composition. En efet, toute l'instrumentation ayant une hauteur absolument exacte, la moindre variation de hauteur de la voix est audible et sonne tout de suite très mal. Lors de l'enregistrement, il a ainsi été très dificile de juger de la réussite des prises de voix pour le refrain puisque toutes sonnaient, à un moment ou un autre, faux. Yohan et Aloyse, présents lors de cet étape délicate, m'ont encouragée en découpant mon texte pour que j'en fasse des prises séparées et en me donnant des indications sur l'intention vocale. En efet, j'ai réalisé que l'intention dans la chant se perd beaucoup une fois enregistrée, c'est un phénomène que j'avais déjà pu observer en enregistrant des chanteurs et chanteuses qui sont pris de stupeur en écoutant leur première prise, néanmoins il n'en reste pas moins décourageant.

80 Heureusement, mes compétences en montage de voix et en manipulation du logiciel Melodyne (qui sert à réajuster la hauteur de prises de son) m'ont redonnée confiance en ma prestation une fois que tout fut traité. De cette expérience d'enregistrement de “l'autre côté de la vitre”, je retiens une extrême complexité dans le contrôle de la voix, surtout que les défauts ont tendance à être accentués à cause de l'enregistrement. Malgré plusieurs années de chant dans des choeurs, je n'avais jamais autant questionné ma pratique vocale. Si c'était à refaire, je pense que je travaillerai plus en amont en cherchant à être très précise sur chaque intention et je répéterai plus souvent avec un micro pour être plus à l'aise dans cette configuration.

Une fois la voix enregistrée, j'exporte ma quatrième et dernière maquette pour commencer mon travail sur Pro Tools et enfin ajouter des efets sur la voix. Les plug-ins de la suite Izotope RX sont très gourmands en mémoire vite et Pro Tools a rapidement tendance à arrêter la lecture ou même à se fermer lorsque j'essaye d'enchainer certaines opérations trop rapidement. C'est d'ailleurs pourquoi je n'ajoute ces efets qu'à postériori, il aurait été très dificile pour un ordinateur de supporter un enregistrement et un traitement en temps réel par Izotope RX. De plus, ces traitements engendrent aussi une latence allant parfois jusqu'à une dizaine de millier d'échantillons. Ce délai est compensé par le logiciel en lecture mais ne peut pas l'être en enregistrement, il y aurait beaucoup trop de latence dans le son pour chanter en même temps. En efet, sachant que j'enregistre en 44.1Khz, 10 000 échantillons à compenser correspondent à 227 millisecondes de latence, ce qui revient quasiment à une croche de décalage pour mon

81 morceau (la valeur exacte de la croche étant de 259ms à 116bpm).

Ainsi, j'utilise deux De-noise33 en “Output Noise Only” sur les deux premiers couplets, aux réglages diférents et en sommant leur résultat. Le premier apporte plus d'aigu, donne un efet un peu “vieille radio” en agissant presque comme un passe bande, et ajoute donc de l'intelligibilité. J'ai utilisé la fonction “Learn” sur le second, ce qui fait que le son est plus équilibré mais beaucoup plus déformé, mélanger les deux permet alors d'éviter l’incompréhension totale du texte. À cela, j'ai ajouté un De-click en “Output Clicks Only” dont l'algorithme est celui de la détection multibande de clics réguliers, il permet ainsi d'ajouter l'étrange “vibrato” qui apparaît sporadiquement.

Sur le dernier mot du premier refrain (« Soon ») et la seconde partie du deuxième refrain, j'ai ajouté à la voix naturelle un De-click en “Output Clicks Only” à l'algorithme de base, qui détecte donc des clics irréguliers sur une bande unique. La région supprimée autour du clic (clic widening) est plus faible lors de sa seconde apparition, ce qui donne l'impression d'entendre des clics de saturation sur ce passage, surtout qu'il arrive sur l'un des moments les plus intenses du morceau. Cet efet me fait beaucoup penser à la saturation numérique omniprésente dans le morceau Crown on the Ground des Sleigh Bells, présent dans la bande son du film The Bling Ring de Sofia Coppola. Ce duo se revendique du mouvement dance-punk, alliage antithétique entre l'idée de créer des musiques dansantes pour le grand public et l'énergie primaire et provocatrice du mouvement punk. Cet usage séditieux de la saturation fait controverse parmi les fans du groupe mais je le 33 Captures d'écran des réglages des modules Izotope RX en Annexe 6

82 trouve personnellement très eficace malgré la transgression immense qu'il représente pour un ingénieur du son.

Pour le troisième et dernier couplet, j'ai utilisé un De-clip aux réglages modérés pour que la voix soit encore bien compréhensible, puis j'ai poussé son réglage au maximum sur le dernier refrain en le plaçant en parallèle de la voix non traitée. J'aime beaucoup l'aspect monstrueux qu'il donne à la voix alors qu'il est placé sur le passage le plus calme du morceau, du moins pour la voix. Il me semble que la contradiction apparente entre ma voix presque chuchotée et l'inhumanité rendu par l'efet renforce l'impression d'inquiétante étrangeté sur ce passage.

Les refrains ne sont pas traités avec des modules de la suite Izotope RX car je voulais jouer sur le contraste entre voix claire et voix traitée et éviter de trop alourdir le morceau avec mes efets très denses. J'utilise néanmoins dessus des techniques de production actuelle qui colorent fortement la voix. J'ai superposé à chaque fois trois prises vocale, la principale au centre et les deux autres à volume plus bas pour créer un efet stéréo. Cela produit un léger efet de phase naturel et lisse le timbre de la voix. J'ai ensuite mis une saturation légère sur la voix centrale non pas en tant qu'efet mais pour modifier son équilibre fréquentiel. Ainsi, les aigus sont plus denses et plus présents. Pour les parties traitées par les efets, j'ai fait en sorte d'éviter le statisme en faisant varier leur intensité à plusieurs reprises, ce qui permet aussi de conserver l'attention de l'auditeur et de rendre l'écoute plus ludique.

83 d – Le mixage

Pour la voix, comme dit précédemment, je me suis inspirée du mixage de la voix du morceau Paradise Circus pour certains passages non traités, comme le début du dernier refrain et la toute fin du morceau. Ainsi, la voix n'est pas du tout réverbérée, j'ai retiré beaucoup de bas medium et j'ai ajouté des mediums et des aigus à partir de 700Hz. Pour lui donner la couleur la plus naturelle possible, je ne l'ai pas compressée non plus. Le reste de la voix a subi beaucoup de traitements, tant les refrains pour coller à la coloration de la musique actuelle que les couplets dont il fallait calmer certaines bandes fréquentielles très proéminentes. Par exemple, j'ai dû retirer quasiment dix décibels autour de 7KHz sur les extraits passés au De- clip et ajouter quelques filtres notchs sur des fréquences très aiguës (notamment 10kHz et 16KHz) sans quoi la texture aurait été inutilisable. De même, les éléments passés dans les modules De-Noise sont beaucoup retravaillés fréquentiellement. De plus, j'ai compressé très fortement les sorties des plug-ins De-Click car les clics obtenus sont de niveau très variable et ne ressortaient pas du tout lorsqu'on additionnait ce son à un autre.

Pour le reste du mixage, j'ai utilisé des techniques de compression en side-chain34 de la grosse caisse sur la basse, puis de la basse sur le synthétiseur à la ligne la plus grave. Je compresse aussi en parallèle 35 la grosse caisse, la caisse claire et la basse pour faire ressortir leur texture et

34 La compression en side-chain consiste à compresser un instrument lorsque c'est un autre instrument qui dépasse le seuil fixé. Cela permet par exemple ici de faire ressortir la grosse caisse puisque le niveau de la basse diminue au moment où le coup est joué, celle-ci dépassant le seuil du compresseur de la basse. 35 La compression en parallèle consiste à ajouter le signal compressé au signal non traité.

84 éviter d'abîmer leur attaque. Je reviens à ce moment sur l'arrangement en ajoutant une émulation de mellotron jouant des cuivres et des cordes qui traverse le morceau pour ajouter de la matière. D'ailleurs, j'utilise aussi le De-noise d'Izotope RX dessus et gère ainsi avec le niveau d'entrée la désagrégation de ce matériau. J'ajoute aussi une ligne de cordes simulée grâce au logiciel Kontakt sur la fin des refrains car je pensais faire chanter cette mélodie à des choeurs mais l'enregistrement de la voix s'étant étiré en longueur, nous n'avons pas pris le temps de le faire. De plus, dès le début de la composition, j'avais très envie d'ajouter un son de cordes mais je ne possédais pas encore ce logiciel. La possibilité de compléter l'arrangement au fil du mixage est pour le coup un luxe permit par le fait que j'y procède moi-même, c'est d'ailleurs l'un des seuls avantages que je vois à accomplir seule toutes les étapes de la création.

Par la suite, J'ai enlevé beaucoup de bas medium sur les instruments pour en ajouter ensuite par les réverbérations. Ainsi, le mix final est bien analytique sur les couplets, mais les éléments ont tendance à se mélanger un peu plus sur les refrains, les rendant plus compacts. Pour le mastering, j'ai surtout pris soin d'amener mon morceau à un niveau moyen équivalent à celui des productions actuelles grâce à un limiteur, soit environ -7dBFS. Je n'ai pas retouché à l'équilibre spectral global car il me paraissait plutôt cohérent et manquant plus que jamais de recul à cette étape, j'ai préféré ne pas risquer d'endommager mon mix par un mauvais mastering.

85 En fin de compte, la production de ce morceau a alterné entre des phases d'heureux hasard qui ont permis un déroulement rapide de certaines étapes, notamment la composition de la première maquette, le choix de la mélodie vocale et le premier placement des traitements sur la voix, et des moments de recherche d'éléments précis, plus dificile à mettre en œuvre et propices au doute. En efet, n'ayant jamais expérimenté la composition avant celà, j'ai rencontré beaucoup de dificultés pour trouver certains instruments puisque je ne connaissais pas encore bien les banques de son que j'employais. De plus, j'ai eu du mal à m'autoriser certaines expérimentations de peur que le morceau n'en devienne trop ardu, ne réalisant pas que mon intuition quant à l'eficacité du morceau allait de toute façon toujours me ramener vers des procédés conventionnels. Heureusement, il me semble que ce morceau conserve une certaine originalité dans le mélange des influences à la fois trap et trip-hop et dans l'utilisation d'un nouvel efet. Aussi, il me sera indiqué par des auditeurs que la composition et l'interprétation vocale, outre leur arrangement et leur mixage qui en font un morceau de musique électronique, contient une énergie très rock, voire relevant du métal, ce qui n'est pas étonnant car ce sont des genres musicaux que j'ai écouté durant de longues années.

86 III. CRITIQUES ET RÉFLEXIONS AUTOUR DU RÉSULTAT

87 1) LA MISE EN PLACE DU QUESTIONNAIRE

Ma partie pratique de mémoire est actuellement disponible en ligne sur le site Soundcloud à l'adresse : https://soundcloud.com/sbsilber/brained. Le morceau compte à ce jour 175 écoutes et 40 personnes ont répondu à mon questionnaire. Ce dernier, disponible en Annexe 7, est composé de douze questions et vise à évaluer à quel point mon morceau a été apprécié mais aussi ce que le public a ressenti à l'écoute de celui-ci et ce qu'il a pensé de l'utilisation de l'efet. Je demande ainsi aux individus de noter le morceau sur dix tout en ayant au préalable requis leur âge, leur fréquence d'écoute de musique électronique et leur profession (dans ce cas, musicien, ingénieur du son ou aucun des deux) pour vérifier si ces paramètres ont une quelconque influence sur la notation. Ensuite, je cherche à savoir quelles émotions ont été ressenties à l'écoute du morceau et à quoi cela était dû dans deux fenêtres de verbalisation libre. Je pense pouvoir regrouper les émotions décrites dans des catégories (par exemple, une catégorie comprendra tous les mots qui se trouvent dans le champ lexical de la tristesse : nostalgie, mélancolie...) et observer leurs relations avec les paramètres du morceau (tempo, mélodie, harmonie...) pour en extraire des corrélations. J'espère pouvoir y déceler l'idée d'inquiétante étrangeté que provoque l'efet et vérifier que les émotions que j'ai souhaité transmettre par ce morceau ont bien été reçues. Je demande aussi ce que l'efet, d'après chacun, ajoute et retire à la voix, ce qui me permettra d'évaluer leur interprétation de ces efets mais aussi leur appréciation puisque ce sont des fenêtre de verbalisation libre. Je pourrais donc voir si l'efet apporte bien du sens par

88 l'altération du grain de la voix. Enfin je rajoute deux questions dont la réponse n'est pas obligatoire dans lesquelles je propose aux auditeurs et auditrices de me dire si ce morceau leur a fait penser à un autre artiste et les laisse s'exprimer dans la dernière fenêtre sur la création. Ayant composé de manière intuitive et sans beaucoup de recul, il m'intéresse de savoir si je me suis rapprochée malgré moi d'autres compositeurs et si mes références initiales sont toujours apparentes, notamment Massive Attack, Kavinsky et Gesaflestein.

89 2) RETOURS DU PUBLIC SUR LA CRÉATION a – Retours généraux

Sur ces quarante retours, l'appréciation qui m'a été attribuée est de 7,2/10. La note la plus faible est de 3, la plus haute est de 10. La médiane est à 7 et l'écart-type vaut 1,5, ce qui est très modéré, c'est-à-dire que les notes se sont plutôt concentrées autour de la moyenne. En considérant que le morceau est bien apprécié à partir de la note de 7/10, 5 ou 6/10 pouvant signifier un avis mitigé et en dessous de cette note que les auditeurs et auditrices n'ont pas aimé, je peux afirmer que 80% ont aimé ce morceau, et 10% ne l'ont pas du tout apprécié (quatre personnes ayant donné des notes entre 3 et 4/10).

10 9 8 7 6 5 4 3 2 1 40

35

30 Figure 3 : Réponses données à la question « Que pensez-vous de ce morceau ?» sous la forme d'un diagramme empilé. 25

20

15

10

5

0 Note 90 L'âge des individus, le fait qu'ils soient ingénieur du son ou musicien et leur fréquence d'écoute de musique électronique n'ont pas d'influence significative sur la notation. Cela suggère que le morceau que j'ai composé ne s'est pas trop approché de la création expérimentale, ce qui satisfait mon idée de départ selon laquelle il est possible d'introduire de nouveaux efets sur la voix dans la production musicale grand public.

b – Les émotions ressenties

Pour étudier les émotions ressenties à l'écoute de ce titre, je les ai classées, lorsque c'était possible, selon cinq catégories. Feront partis du champ lexical de la tristesse les mots mélancolie, nostalgie, idées noires et pessimisme. Pour celui de la peur, ce seront inquiétude, stress, oppression, insécurité, incertitude existentielle, détresse, mais aussi étoufement et claustrophobie, et enfin la locution inquiétante étrangeté qui a été citée une fois telle quel. On retrouve aussi le champ lexical de l’apaisement par des notions comme la paisibilité, la zénitude, le calme et la sérénité, celui de la colère par les mots déchirement, violence et rage. Enfin, les mots qui suggèrent l'idée d'énergie sont uniquement lui-même et puissance. Selon cette classification, 70% des personnes ont évoqué un sentiment de tristesse, 35% ont décrit des émotions liées à la peur, 15% ont parlé d’apaisement, 15% d'énergie et 12,5% ont évoqué la colère. Ces pourcentages sont néanmoins à prendre avec précautions puisqu'ils découlent de mon interprétation des réponses des individus. Les mots ayant été le plus cités par ordre décroissant sont ceux de mélancolie, tristesse,

91 nostalgie puis inquiétude.

Les éléments les plus souvent cités pour justifier les émotions ressenties par ordre décroissant sont le traitement de la voix, l'arrangement (le choix des instruments, des textures), l'harmonie du morceau, la mélodie, les diférentes rythmiques, l'évolution de l'intensité puis le tempo. Il semble donc que les efet appliqués à la voix ait bien attiré l'oreille des auditeurs et auditrices, mais les sensations engendrés par le morceau sont le résultats de la composition entière. Les paroles n'ont servi qu'une seule fois de justification. Je pense que les efets et la langue choisie ont rendu compliqué leur compréhension, mais ce n'est pas un mal puisque j'ai volontairement choisi d'appliquer des efets intenses quitte à dégrader l'intelligibilité. D'après les résultats, il semble aussi que ce soit majoritairement le traitement de la voix qui ait engendré le sentiment d'inquiétude, ce qui pourrait suggérer que l'idée d'inquiétante étrangeté portée par l'efet a été perçue par le public. Néanmoins, il est dificile de confirmer cette théorie car l'interprétation de cesréponses reste très délicate.

c – La compréhension et l'appréciation de l'effet

Pour ce qui est de l'efet, un quart des individus ont souligné que l'efet ajoutait de l'émotion, notamment de la soufrance et de la détresse et renforçait le ton du discours. Il est dit qu'il apporte du sens au texte et qu'il donne l'impression que la chanteuse a plusieurs émotions en même temps. Ainsi, ces résultats vont dans le sens de mon hypothèse selon laquelle ces

92 efets agissent sur le grain de la voix et interfèrent avec le texte. Bien qu'un quart des participants dise aussi que l'efet altère l'intelligibilité du texte, il est intéressant de constater que même dans le cas où tout le texte n'est pas compris, l'efet reste vecteur de sens. Par exemple, l'une des interprétations donnée à cet efet est celle « d'un androïde qui découvre des sentiments, et qui ne sait pas comment réagir, ou alors un humain qui voit ses propres sentiments de cette manière et qui a du mal à les comprendre. »36 Cette réception du sens du morceau est finalement très proche de ce que j'ai tenté de raconter, bien que cette personne ajoute ensuite qu'elle a eu beaucoup de mal à comprendre le texte, comme quoi l'efet a finalement largement participé à la transmission du message.

L'efet a aussi été perçu comme ajoutant de l'originalité et étant le signe d'une personnalité d'artiste. Sinon, la plupart y ont vu un apport esthétique, soit en jouant sur la dualité humain-machine, soit en la considérant d'emblée comme une texture instrumentale qu'il est possible de dégrader et trafiquer. Certains ont mis en évidence que l'efet masquait le timbre de la voix mais tous n'ont pas trouvé cela gênant. Il y a néanmoins six personnes qui n'ont pas du tout aimé l'efet, certains d'entre eux pensant qu'il amène de la confusion.

36 Réponse n°39 à la question « À votre avis, qu'apporte l'ajout de l'efet sur la voix à ce morceau ?»

93 d – La reconnaissance des influences

Ce morceau a rappelé très souvent aux auditeurs et auditrices le travail de la chanteuse Björk. Efectivement, cette musicienne a beaucoup expérimenté autour de la place de la voix dans la musique électronique et trip-hop, je n'ai pas eu l'impression de m'en inspirer pendant la période de création mais avec le recul je me rend compte que j'ai beaucoup emprunté à sa démarche. Portishead et sa chanteuse Beth Gibbons ont aussi été cités trois fois, ce qui n'est pas étonnant car ils ont beaucoup été influencés par Massive Attack, l'une de mes références, Geof Barrow ayant été assistant lors de l'enregistrement de leur album Blue Lines avant de fonder Portishead. Ces deux chanteuses ont efectivement profité de beaucoup de liberté dans leur interprétation du chant car le trip-hop permet souvent de faire la part belle à l'expression vocale. Au dessus des instrumentations parfois lourdes, sombres ou violentes, la voix traduit une forme de vulnérabilité, de délicatesse, malgré l'atmosphère plombante qui règne autour. Cette tendance dans l'utilisation de la voix apparaît dès l’émergence du genre et Beth Gibbons s'en empare dès ses débuts.

En outre, deux personnes ont aussi rapproché ce morceau des compositions du groupe de heavy metal Evanescence pour la mélancolie qu'il exprime. Je pense en efet que le développement mélodique de la voix, dont les sonorités mineures sont très appuyées sur les secondes parties des refrains, peut être comparé à ce qu'on trouve généralement dans la musique métal. De plus, le De-clip utilisé à la fin qui donne l'impression que je chante de manière gutturale fait directement référence à ce type de musique.

94 Le morceau Nightcall de Kavinsky a été nommé deux fois, ainsi c'est l'une de mes références directes qui a été reconnu ici. Je pense que ce qui a permis de le reconnaître est l'alternance entre les passages traités avec efet et les refrains en voie claire qui sont mixés à l'aide des techniques actuelles. Gesafeltstein n'a été cité qu'une fois et personne n'a parlé de Goldfrapp dont je me suis beaucoup inspiré pour la voix ni de musicien de trap, bien que le morceau emprunte à cette esthétique. Pour Alison Goldfrapp, ce n'est pas étonnant car cette chanteuse est peu connue du grand public.

Ainsi, je suis satisfaite de cette création car elle a été plutôt bien reçue par le public, d'autant plus qu'il n'y a pas eu de distinction d'appréciation en fonction de l'âge, de la profession ou des habitudes d'écoute. Ainsi, mon pari consistant à intégrer un nouvel efet dans un morceau de musique grand public est réussi. Racontant dans ce morceau ma dificulté à quitter l'anxiété et ma peur du lâcher prise, bien que je ne puisse pas y échapper, je tentais d'y exprimer mon angoisse, ma détresse face à l'inéluctabilité de la situation tout en l'interprétant avec une certaine forme d'apathie sur les couplets. La majorité des gens ont senti l'idée de tristesse et d'inquiétude mais aussi de l'apaisement, de la colère et de l'énergie, je pense donc que la multiplicité des émotions que j'essayais de traduire a été plutôt bien comprise. Aussi, beaucoup d'individus ont senti que l'efet apportait un sens supplémentaire à la narration, voire supputait celui du texte lorsque ce dernier n'était pas compris, ce qui confirme mon hypothèse selon laquelle l'efet, en devenant une des composantes du grain de la voix, renforce la signification.

95 CONCLUSION

Le détournement en musique est une démarche courante et est pratiqué à la fois par les ingénieurs et ingénieures du son, mais aussi par les musiciens et musiciennes, que ce soit dans le domaine de la recherche savante ou de la pratique populaire. Il est un vecteur de création, ouvrant parfois la porte à de nouveaux genres musicaux et participe au développement des innovations techniques. C'est ainsi grâce au mésusage d'outils très divers que sont nés par exemple la musique concrète, le glitch, mais aussi le vocodeur, l'autotune et les techniques de prise de son et de mixage actuelles. Le traitement de la voix n'est donc pas en reste et dans l'idée de détourner moi-même un traitement pour en faire un efet, c'est-à- dire une transformation évidente du son, je me suis intéressée aux méthodes d'étude de la voix traitée. La sensation particulière procurée par les efets sur la voix qui m'a intéressée est celle de l'inquiétante étrangeté. Elle semble apparaître lorsqu'un efet, en dégradant la voix, transforme la représentation que nous nous faisons de l'interprète. En s'appuyant sur la définition du grain de la voix de Roland Barthes selon laquelle il est le résultat de la friction entre le timbre chanté et la langue elle-même, l'efet altérant le timbre et l'élocution deviendrait l'une de ses composantes.

Détourner un traitement sonore pour l'appliquer à la voix, c'était donc chercher à faire parler les textures, comprendre ce qu'elles évoquaient en moi pour leur faire porter un sens, une émotion, au sein d'un morceau de musique. Ce travail a donc consisté en une expérimentation ludique des modules Izotope RX et plus particulièrement des résidus de bruits qu'ils

96 retirent aux sources. Ainsi, j'ai tenté de trouver une utilisation originale à ces rebuts sonores. En composant une pièce de musique électronique à cet efet alors que je suis une néophyte en la matière, je me suis heurtée à plusieurs obstacles. Il a fallut apprendre à maitriser, ne serait-ce qu'au minimum, les nouveaux outils à ma disposition et réinventer le fonctionnement des traitements Izotope RX. Ainsi, les diférents curseurs à ma disposition sur ces modules ont fini par avoir un impact bien diférent par rapport à leur intitulé sur le son tandis que j'essayais d'en extraire toutes les déformations possibles. Pour la composition, la plus grande dificulté fut de travailler sans recul ni vision de ce que serait le résultat. J'ai eu l'impression d'avancer à l'aveugle, alternant entre des phases d'heureux hasard où tout évoluait très vite et des moments de doutes où la mise en place de certains éléments pourtant bien définis se révélait très ardue.

Ce qui m'a le plus frappée pendant cette production est la nécessité inhérente à la musique qui s'adresse à l'afect du public à devoir constamment chercher du recul en la composant. Il faut s'assurer à chaque étape de la création que le morceau touchera les auditeurs et auditrices à la première écoute alors qu'on l'a entendu des centaines de fois pendant ce processus. C'était d'autant plus dificile au moment d'ajouter les efets puisque n'ayant jamais entendu de morceau utilisant ces mêmes traitements, je ne pouvais pas m'inspirer directement de références, ce qui est en général un moyen eficace de faire fonctionner un efet ou autre choix esthétique. C'est toutefois un procédé auquel j'ai eu recours pour tous les autres aspects de la composition, parfois en ne réalisant que je m'étais

97 inspirée d'un morceau préexistant qu'après coup. Ce biais de création est sans doute partagé par d'autres musiciens et musiciennes. N'est-on pas plus souvent qu'on ne le croit dans l’imitation malgré notre recherche de l'originalité ? Finalement, mon morceau a été bien reçue par le public, 80% des participants et participantes à mon questionnaire lui ayant attribué une note de 7/10 ou plus. La multiplicité des émotions que je tentais d'y exprimer semble avoir été comprise ou du moins bien perçue. Les individus ont dit avoir ressenti à son écoute des sentiments proches de la tristesse, de l'inquiétude, de la colère, de l'énergie et de l'apaisement, certains associant parfois plusieurs notions contradictoires dans leurs réponses, alors même que beaucoup ont avoué ne pas avoir bien entendu les paroles. Ainsi, les efets appliqués à la voix ont l'air d'avoir rempli le rôle que je leur incombais car c'est la justification qui a été la plus employée pour décrire les émotions ressenties. Ils ont donc soutenu l'interprétation du texte. Néanmoins, c'est aussi la teneur de la composition qui y a participé.

Cependant, ces résultats demandent tout de même à être nuancés, six personnes sur quarante ont tout de même reconnu qu'ils n'aimaient pas ces efets sur la voix et beaucoup ont trouvé qu'ils masquaient trop son timbre. C'était un de mes partis pris dès le début de la composition mais il ne fait efectivement pas l’unanimité. Ainsi, l'appréciation de l'efet semble tout de même être liée aux gouts personnels, mes pairs qui ne l'ont pas aimé ayant quand même admis qu'ils n'avaient jamais entendu un efet comme celui-ci et qu'il était intéressant en cela.

98 En définitive, la suite Izotope RX et sûrement de nombreux autres traitements sonores encore inexplorés permettent la création de nouvelles textures surprenantes lorsqu'on les détourne de leurs fonctions et sont susceptibles d'enrichir la création musicale. Hélas, les modules que j'ai employé à cet efet demandent beaucoup de calcul et nécessitent parfois d'exporter directement les fichiers qu'on souhaite traiter pour éviter de saturer la mémoire vive de l'ordinateur. Il semble donc très compliqué de les mettre en application dès l'enregistrement ou pour des concerts. Peut-être est il possible dans ce cas d'imiter leur rendu par d'autres efets plus simples. Ainsi, même si les usages de la suite Izotope RX que je propose sont limités, j'espère au moins par ce mémoire avoir ouvert la porte à l'imagination.

99 BIBLIOGRAPHIE

Collectif, Modulations : Une histoire de la musique électronique (Modulations, A History of Electronic Music : Throbbing Words on Sounds, 2000), trad. Pauline Bruchet & Benjamin Fau, Paris, Éditions Allia, 2004.

NEUMARK, Norie, GIBSON, Ross, et VAN LEEUWEN, Theo (sous la dir. de), Voice : vocal aesthetics in digital arts and media, Cambridge, Massachusetts Institute of Technology, 2010.

EMERICK, Geoff, et MASSEY, Howard, En studio avec les Beatles (Here, There and Everywhere: My Life Recording the Music of the Beatles, 2006) trad. Philippe Paringaux, préface de Elvis Costello, Gémenos, Le mot et le reste, 2009.

LANE, Cathy, « Voices from the Past: Compositional approaches to using recorded speech », In Organised Sounds, International Journal of Music Technology, vol. 11, n°1, avril 2006, p.3-11.

MORI, Mashiro, « The uncanny valley » (la vallée de l'étrange), trad. K. F. MacDorman & T. Minatc, Energy vol .7, n°4, 1970, p.33-35.

COUPRIE, Pierre, La voix dans la musique électroacoustique : approches analytiques, Exposé présenté lors d'une journée d'étude à l'Université de Rennes, 2001

GRISEY, Gérard, note de programme. Concert du 3 juin 1985.

SCHAEFFER, Pierre, À la recherche d'une musique concrète, Paris, Éditions du Seuil, 1952.

CAGE, John, Pour les oiseaux, Entretiens avec Daniel Charles, Paris, Éditions de l'Herne, 2014

GOSSELIN, Sophie & OTTAVI, Julien, « L'électronique dans la musique, retour sur une histoire » , Volume !, vol.1, n°2, 2002, p.71-83.

GALLET, Bastien, « Techniques électroniques et art musical : son, geste, écriture », Volume !, vol.1, n°1, 2002, p.17-28.

CASCONE, Kim, « The Aesthetics of Failure : “Post-Digital” Tendencies in Contemporary Computer Music » (L'esthétique de la défaillance : Tendances “post-numériques” dans la musique assistée par ordinateur contemporaine), Computer Music Journal, vol. 24, n°4, Hiver 2000, p.12-18.

COHEN-LEVINAS, Danielle, La voix au delà du chant, Paris, Librairie philosophique J. Vrin, 2006.

100 BOSSIS, Bruno, La voix et la machine, Rennes, Presse universitaire de Rennes, 2005.

FREUD, Sigmund, L'inquiétante étrangeté (Das Unheimliche), trad. Marie Bonaparte & Mme E. Marty, Paris, Gallimard, 1933.

BARTHES, Roland, « Le Grain de la voix », Musique en Jeu, n°9, novembre 1972.

BODE, Harald, « History of Electronic Sound Modification», Journal of the Audio Engineering Society, vol. 32, n°10, octobre 1984.

MANNING, Peter, Electronic and Computer Music, New York, Oxford University Press, 2004.

KELLY, Caleb, Craked Media : The Sound of Malfunction, Cambridge, MIT Press, 2009.

CLAIR, Simon, « Le jour où un sismologue a inventé l'autotune », Greenroom, 6 avril 2016, URL : http://www.greenroom.fr/97340-le-jour-ou-un-sismologue-a-invente-lauto-tune/

BELKHADRA, Themis, « OKLou : La misogynie dans la musique ? Les vestiges d'une culture qui a fait son temps. » TRAX magazine, 14 septembre 2016, URL : http://fr.traxmag.com/interview/36523-oklou-la-misogynie-dans-la-musique-les- vestiges-d-une-culture-qui-a-fait-son-temps

101 DISCOGRAPHIE

John Cage, Imaginary Landscape No. 1, Peters, 1939, env. 9mn.

John Cage, Imaginary Landscape No. 3, Peters, 1942, env. 3mn.

Pierre Schaeffer, Étude aux Chemins de fer (Cinq études de bruit), 1948, 2mn50.

The Beatles, Paperback Writer (single), Parlophone, 1966, 2mn23.

The Beatles, Tommorow Never Knows (Revolver), Parlophone, 1966, 2mn59.

The Beatles, I Am The Walrus (single Hello/Goodbye, face B), Parlophone, 1967, 4mn37.

The Beatles, Lucy In The Sky With Diamonds (Sgt. Pepper Lonely Hearts Club Band), Parlophone, 1967, 3mn27.

Grandmaster Flash, The Adventures of Grandmaster Flash on the Wheels of Steel, Sugar Hill Records, 1981, 7mn01.

Nicolas Collins, Broken Light I, Corelli (It Was a Dark and Stormy Night), Trace Elements Records, 1992, 4mn58.

Artistes divers (compilation), Cliks_+_Cuts, Mille Plateaux, 2000, 130mn49.

Alvin Lucier, I am Sitting in a Room, 1969, env. 40mn.

Steve Reich, Come Out, 1966, 13mn.

Kavinsky feat. , Nightcall (Roadgame), Record Makers, 2010, 4mn19.

Daft Punk, Random Access Memories, Daf Life Ltd. & Columbia, 2012, 74mn24.

Gérard Grisey, Les chants de l'Amour, 1984, Rocordi, env. 45mn.

Claude Debussy, Pelléas et Mélisandre, 1902, env. 3h.

OKLou, The Rite of May, NUXXE, 2018, env. 20mn.

OKLou, Animal Crossing (Live pour les Amours Alternatives), 2015, 6mn46.

Laurie Anderson, Ô Superman (single), autoprod., 1982, 8mn21.

Daft Punk, Harder, Better, Faster, Stronger (Discovery), Virgin Records, 2001, 3mn46.

Goldfrapp, Deer Stop (Felt Mountain), Mute Records, 2000, 4mn06.

Gesafflestein, Aleph, Parlophone, 2013, 57mn33.

102 Archive, You Make Me Feel (Take My Head), Independiente, 1999, env. 43mn.

Carpenter Brut, Trilogy (compilation des EP I, II et III), No Quarter Prod, 2015, 81mn19.

Massive Attack feat. Hope Sandoval, Paradise Circus (Heligoland), autoprod., 2010, 4mn57.

Sleigh Bells, Crown on the Ground (Treats), N.E.E.T. Records, 2010, 3mn49.

Evanescence, Bring Me To Life (Fallen), Wind-Up Records, 2003, 3mn57.

Portishead (Beth Gibbons), Portishead, Go ! Discs, 1997, env. 42mn.

Björk, Medúlla, One Little Indian, 2004, 45mn40.

TABLE DES ILLUSTRATIONS

Figure 1 : Représentation schématique de la vallée de l'étrange d'après Mashiro Mori.....p.33 Figure 2: schéma synoptique d'un vocodeur...... p.43 Figure 3 : Réponses données à la question « Que pensez-vous de ce morceau ?» sous la forme d'un diagramme empilé...... p.90

103 ANNEXE 1 :

Grille d'analyse de Pierre Couprie concernant la voix dans la musique électroacoustique Extrait du chapitre II ,« Les quatre angles d'analyse », du compte-rendu de l'exposé présenté lors d’une Journée d’étude à l’Université de Rennes le 31/10/2001,La voix dans la musique électroacoustique : approches analytiques.

II.1.2. Le texte [...] Sept critères permettent d’évaluer le texte : 1) Texte : ce critère est fondé sur la compréhension du texte en évaluant letypede brassage qu’a opéré l’artiste ; 2) Rythme : permet d’évaluer les interruptions du flux textuel ; 3) Vitesse : évalue les changements de vitesse de lecture ; 4) Variation de hauteur : donne une estimation d’une transformation de la hauteur ; 5) Cadence : évalue la courbe d’intonation avant un silence ; 6) Silence et césure : évalue des silences importants en durée ; 7) Allitération : estime le lien avec le reste du matériau sonore.

II.1.3. La morphologie L’analyse morphologique permet d’étudier les composantes internes des sons. Ces différents critères nous renseignent particulièrement sur l’ensemble des modifications que le compositeur a fait subir au matériau sonore. L’évaluation se fait, comme dans le cas de l’analyse poétique présentée précédemment, par une estimation de la distance entrele son entendu et le son qui a servi de point de départ. [...] Elle regroupe 8 critères : 1) Hauteur : évalue la transposition de la voix ; 2) Spectre : permet de noter les transformations de type polyphonique par exemple ; 3) Intensité générale : intensité générale de l’échantillon sonore analysé ; 4) Couleur : estimation de la couleur du son ; 5) Texture : évaluation du grain de la voix ; 6) Panoramique : position et/ou mouvement du son ; 7) Espace : position dans un espace à 3 plans ; 8) Effet : importance de la transformation du son.

II.1.4. La référence [...] Les critères référentiels sont donc au nombre de deux : 1) Identification : homme, voix mélangées, femme, enfant, voix indéterminée ; 2) Émotion : un ensemble de qualificatifs (sérénité, calme, méditatif, intimiste, triste, mélancolique, plaintif, inquiétant, oppressant, angoissant, effrayant, pesant, obsédant, stressant, pressant, sautillant, entrainant, joie, fraicheur, humour, rayonnant, passion, tendresse, douceur).

II.1.5. Les transformations [...] Les effets peuvent être classés en cinq catégories : 1) Les effets jouant sur la prolongation du son : les délais et réverbérations ; 2) Les effets jouant sur des transformations internes du spectre du son : les filtres, etc. ; 3) Les effets modifiant la place du spectre dans la gamme générale des fréquences : la transposition, les effets polyphoniques, etc. ; 4) Les effets modifiant l’enveloppe dynamique du son : gate, générateur d’enveloppe, etc. ; 5) Les effets ajoutant au son un élément qui semble extérieur : modification du grain, modulateurs, etc.

104 ANNEXE 2.1 : Grille d'analyse de Cathryn Lane à propos des types de transformation vocale

Extrait de l'article « Voices from the Past: Compositional approaches to using recorded speech ». In Organised Sounds, International Journal of Music Technology, vol. 11, n°1, avril 2006.

1 - Dissolution of semantic meaning through processing : The semantic meaning of a word or phrase is dissolved through a processing effect such as layering, overwhelming reverberation, reversed echo, spectral processing, etc., e.g. Steve Reich Come Out.

2 - Dissolution of semantic meaning through deconstruction Words are split into their component syllables or smaller units and are used acousmatically, e.g. Lettrist sound poet Isidore Isou’s reduction of words into particles ; ultra-lettrist François Dufrêne’s crirhythms, and sections of Hidden Lives (1999) by Cathy Lane.

3 - Dissolution of semantic meaning through sonic translation or equivalence: Meaning of words or phrases are translated or transferred into a sound equivalent where the semantic meaning is not quite so apparent and which requires a different kind of understanding, e.g. Trevor Wishart Red Bird . 4 - Accumulation of meaning by sonic association: semantic meaning of words is reinforced by the additional use of other sounds relating to the text, e.g. text about the sea is complemented with ‘flowing’ or ‘undulating’ sounds.

5 - Accumulation of meaning through performance: Human expression is the focus of the work and the dramatic narrative according to the emotive aspects of the vocal usage, e.g. L. Berio Visage, many works by sound poets.

6 - Accumulation of meaning by semantic extension or elaboration: This is often achieved through processing e.g. Wisharts’s Two Women and American Triptych.

7 - Accumulation of meaning by structural association: Meaning is reinforced by the way that the text is manipulated and structurated, e.g. compositional techniques used in madrigals, Monteverdi, Ligeti, Crumb, etc.

8 - Accumulation of meaning by massing of voices or montage: Meaning is reinforced by the way that different voices come in saying either the same word or different things which built up and reinforce a total picture. This is an extremely common device, e.g. Glenn Gould’s The Idea of North.

9 - Retention of meaning: Words are presented as recorded with no apparent processing.

10 - Melodic or rhythmic extraction, translation and elaboration: The melodies or rhythms of the spoken word are extracted and taken up by other elements in the work, again this may reinforce meaning but it also may be a purely abstract device, e.g. Steve Reich’s Different Trains.

11 – Narrative content or context: A piece of music that is built around a pre-existing (ofen well-known) text, for exemple electroacoustic transformation of poetry of prose, e.g. Berio’s Thema-Omaggio a Joyce (1958), Paul Lansky’s Six Fantasies on a Poem by Thomas Campion, or even about an event, e.g. The Sinking of the Titanic by Gavin Briars.

12 - Narrative guidance: Text spoken by a lead or authoritative voice which guides the listener through the work, e.g. Hildegard Westerkamp, Kits Beach Soundwalk (1989) or Janet Cardiff The Missing Voice.

13 - Narrative suggestion: Vocal events are not foregrounded but used to indicate human presence or human activity e.g. Katharine Norman People Underground (1996).

14 - Phonetic excitation: The voice is used to articulate some other sources of resonance, e.g.architectural space as in Alvin Lucier’s I Am Sitting in a Room (1970) or synthesizer such as a vocoder.

15 - Semantic juxtaposition and permutation: Apollinaire’s Les Mamelles or the ordering and re-ordering of words in pieces such as Junk is no good baby and Brion Gysin, William S. Burroughs’ cut-ups, Cage’s use of mesostics in works as Roratorio (1979), Song Books (1970) and 63 Mesostics Re Merce Cunningham (1971). This can be asimilated to granular shynthesis.

16 - Nonsense juxtaposition and permutation including the inventing of words: A whole new language is not invented but new words are dropped into existing language. Lewis Carroll’s Jabberwocky in Through the Looking Glass. Christian Morgenstern semantically opaque Kinkajou ‘kroklolwafzi’ (around 1890) and Paul Scheerbart’s poem ‘kikakoku!’ (1897) In 1967 Henri Chopin composed Frogs of Aristophanes.

17 - New languages or metalanguages : Languages are made up out of plausibly sounding phonemes from existing languages, e.g. Kruchenkykh’s Zaum poetry, McClure’s Beast language, Paul Lansky’s Idle Chatter series.

18 - Computer- generated and synthesised speech: For example, Charles Dodge’s extensive experiments with speech and vocal synthesis as in works such as Speech Songs (1972), or material with speech-like characteristics generated by the computer, e.g. Paul Lansky’s Idle Chatter. 19 - Composing text as part of the compositional process : For example, Paul Lensky’s Now and Then (1991) and 105 Things She Carried (1995-1996). ANNEXE 2.2 : Grille d'analyse de Cathryn Lane (Traduction)

1 - Dissolution de la sémantique par le biais de la transformation : la sémantique d'un mot ou d’une expression est dissoute par un effet de transformation comme la superposition, la réverbération écrasante ou écho inversé, traitement spectral, etc. par cf. Steve Reich Come Out.

2 - Dissolution de la sémantique par le biais de la déconstruction : les mots sont séparés en syllabes ou en unités plus petites et sont utilisés d’une manière acousmatique, cf. le poète lettriste Isidore Isou dans la réduction des mots en particules, l’ultra-lettriste François Dufrêne de crirhythms, et des sections de Hidden Lives (1999) de Cathy Lane.

3 - Dissolution de la sémantique par le biais de la traduction sonore ou de l'équivalence : le sens des mots ou des phrases est traduit ou transféré dans un son sémantique équivalent où le sens n'est pas tout à fait aussi évident, et qui nécessite un autre type de compréhension, cf. Trevor WishartRed Bird.

4 - Cumul des sens par son association : la signification sémantique des mots est renforcée par le recours à d’autres sons relatifs au texte, par exemple, un texte sur la mer est complété par « écoulement » ou « ondulation » de sons.

5 - Cumul de sens par le biais de la performance : l'expression humaine est au centre du travail et de la narration dramatique selon les aspects émotifs de la voix utilisée, cf. L. Berio Visage, de nombreuses œuvres de poètes sonores.

6 - Accumulation de sens par l'extension ou la mise au point sémantique : c'est souvent grâce à la transformation, cf. WishartsTwo Women et American Triptych.

7 - Accumulation de sens par association structurale : le sens est renforcé par la manière dont le texte est manipulé et structuré, cf. techniques utilisées dans la composition des madrigaux. Monteverdi, Ligeti, Crumb, etc.

8 - Cumul de sens par l’accumulation des voix ou du montage : le sens est renforcé par la manière dont les différentes voix sont prononcées, soit le même mot ou différentes voix qui construisent et renforcent un ensemble. C'est un dispositif très commun, cf. Glenn Gould The Idea of North.

9 - Rétention des sens : les mots sont présentés tels qu’ils ont été enregistrés, sans traitement apparent.

10 - Extraction mélodique ou rythmique, translation et élaboration : les mélodies et les rythmes de la parole sont extraits et appliqués d’une façon différente dans d'autres éléments tout au long de la pièce, ce qui peut renforcer le sens, mais elle peut également être un dispositif purement abstrait, cf. Steve ReichDifferent Trains.

11 - Aspect narratif du contenu ou du contexte : un morceau de musique construit autour d'un texte préexistant (parfois bien connu), par exemple, la transformation électroacoustique de la poésie en prose, cf. Berio Thema-Omaggio a Joyce (1958), Paul Lansky Six Fantasies on a Poem by Thomas Campion, ou même sur un événement, cf. The Sinking of the Titanic par Gavin Briars.

12 – Guidage narratif : texte parlé par une voix connue ou d'autorité, qui guide l'auditeur à travers la pièce, cf. Hildegard WesterkampKits Beach Soundwalk (1989) ou Janet Cardiff The Missing Voice.

106 13 - Suggestion narrative : les événements vocaux ne sont pas mis en avant, mais servent à indiquer la présence ou l'activité humaine, cf. Katharine Norman People Underground (1996).

14 - Excitation phonétique : la voix est utilisée pour articuler d'autres sources de résonance, comme dans l'espace architectural d’Alvin Lucier I Am Sitting in a Room (1970) ou comme avec un synthétiseur du type Vocodeur.

15 - Juxtaposition et permutation sémantique : Les Mamelles d’Apollinaire ou de l’ordonnancement ou ré-ordonnancement des mots dans des pièces telles que Junk is no good baby ou les « cut-ups » de Brion Gysin et William S. Burroughs. L'utilisation par Cage de mesostics dans Roratorio (1979), Song Books (1970) et 63 Mesostics Re Merce Cunningham (1971). Cela peut être assimilé à la synthèse granulaire.

16 - Juxtaposition et permutation de mots sans signification, ou invention de mots : Un nouveau langage n’est pas inventé, mais de nouveaux mots sont inventés et insérés dans la langue déjà existante. Jabberwocky de Lewis Carroll dans Alice à travers le miroir. Christian Morgenstern Kinkajou ‘kroklolwafzi’ (autour 1890), le poème de Paul Scheerbart ‘kikakoku’ ou encore le poème sonore d’Henri Chopin Grenouilles d’Aristophane.

17 - Nouvelles langues ou métalangages : les langues sont constituées de façon plausible à partir de phonèmes déjà existants, cf. Kruchenkykh la poésie Zaum, McClure Beast Language, de Paul Lansky les séries deIdle Chatter.

18 - Synthèse de la parole générée par ordinateur : par exemple, Charles Dodge et ses expériences sur la parole et sa synthèse dans des œuvres telles que Speech Songs (1972), ou un matériau avec du discours généré par ordinateur, par exemple, Paul Lansky Idle Chatter.

19 - Composition de texte dans le cadre du processus de composition : par exemple, Paul Lensky Now and Then (1991) et Things She Carried (1995-1996)

107 ANNEXE 3 : O Superman– Laurie Anderson (1982) Paroles et leur traduction

O Superman. Ô Superman. O judge. Ô juge. O Mom and Dad. Ô maman et papa. Mom and Dad. Maman et papa. (x2) (x2)

Hi. I'm not home right now. But if you want to leave a Salut. Je suis pas chez moi maintenant. Mais si vous voulez message, just start talking at the sound of the tone. laisser un message, vous n'avez qu'à parler après le bip sonore.

Hello? This is your Mother. Allô ? C'est ta mère Are you there? Es-tu là ? Are you coming home? Viens-tu à la maison ?

Hello? Allô ? Is anybody home? Y a-t-il quelqu'un à la maison ? Well, you don't know me, but I know you. Eh bien, vous ne me connaissez pas, mais je vous connais. And I've got a message to give to you. Et j'ai un message à vous donner.

Here come the planes. Les avions arrivent. So you better get ready. Alors vous feriez mieux d'être prêts. Ready to go. Prêts à partir. You can come as you are, Vous pouvez venir tels que vous êtes, but pay as you go. Mais payez au fur et à mesure. Pay as you go. Payez au fur et à mesure.

And I said: OK. Who is this really? And the voice said: Et j'ai dit : OK. Qui est-ce vraiment ? Et la voix a dit : This is the hand, the hand that takes. C'est la main, la main qui prend. This is the hand, the hand that takes. C'est la main, la main qui prend. This is the hand, the hand that takes. C'est la main, la main qui prend.

Here come the planes. Les avions arrivent. They're American planes. Ce sont des avions américains. Made in America. Fabriqués en Amérique. Smoking or non-smoking? Fumeur ou non-fumeur ?

And the voice said: Neither snow nor rain nor gloom Et la voix a dit : Ni la neige ni la pluie ni l'obscurité of night shall stay these couriers from the swif de la nuit ne doivent empêcher ces coursiers d'efectuer completion of their appointed rounds. l'accomplissement rapide de leurs tournées.

'Cause when love is gone, Car quand l'amour s'en est allé there's always justice. Il y a toujours la justice. And when justive is gone, Et quand la justice s'en est allée there's always force. Il y a toujours la force. And when force is gone, Et quand la force s'en est allée there's always Mom. Il y a toujours maman. Hi Mom! Salut maman !

So hold me, Mom, in your long arms. Alors prends-moi, Maman, dans tes longs bras. So hold me, Mom, in your long arms. Alors prends-moi, Maman, dans tes longs bras. In your automatic arms. Dans tes bras automatiques. Your electronic arms. Tes bras électroniques. In your arms. Dans tes bras. So hold me, Mom, in your long arms. Alors prends-moi, Maman, dans tes longs bras. Your petrochemical arms. Tes bras pétrochimiques. Your military arms. Tes bras militaires. In your electronic arms Dans tes bras électroniques.

108 ANNEXE 4 : Nightcall – Kavinsky (2010) Paroles et leur traduction

I'm giving you a Nightcall Je t'appelle tard dans la nuit To tell you how I feel Pour te dire ce que je ressens I want to drive through the night Je veux t'emmener à travers la nuit Down to the hills Au pied des collines

Im gonna tell you something you Je vais te dire quelque chose que tu Don't wanna hear N'as pas envie d'entendre I gonna show you where it's dark Je vais te montrer où il fait sombre But have no fear Mais n'aie pas peur

There's something inside you Il y a quelque chose en toi It's hard to explain C'est dificile à expliquer They're talking about you boy Les autres parlent de toi, garçon But you're still the same Mais tu restes le même (x2) (x2)

Le texte entier est répété deux fois.

109 ANNEXE 5 : Deer Stop – Goldfrapp (2000) Paroles et leur traduction And I long to go Et j'ai hâte d'y aller Love started here L'amour a commencé ici Shoot your star Tire ton étoile Be a light Soit une lumière Is that Est-ce (ça)

Don't you call N'appelle pas Deer* stop bottle in a shell L'arrêt du cerf, bouteille dans une coquille Shoot your thousand stars over me Tire tes milles étoiles sur moi

Shoot your stars Tire tes étoiles Shoot your stars Tire tes étoiles To scream... (Pour) crier...

...Lust** to come ...Luxure à venir You've arrested in my... Tu t'es arrêté dans mon...

Say my name Dis mon nom Whisper it, don't ever turn Murmure-le, ne te tourne jamais I'm deliciously wired Je suis délicieusement câblée I'm falling in a cloud Je tombe dans un nuage

Don't shoot your stars […] Ne tire pas tes étoiles […] Shoot your thousand stars over Tire tes milles étoiles

Deer stop bottle in a shell L'arrêt du cerf, bouteille dans une coquille Shoot your thousand stars over Tire tes milles étoiles Say my name Dis mon nom Whisper it Murmure-le

Le texte de cette chanson n'a jamais été dévoilé par le groupe et il est difficile de le comprendre à l'écoute à cause de l'élocution d'Alison Goldfrapp et des effets appliqués à celui-ci. Il n'est donc pas sûr que la retranscription de ce texte soit exacte. De plus, je n'ai pas pu retranscrire la fin du vers « Don't shoot your stars » tant l'effet est intense sur ce passage. Les mots indiqués par des astérisques sont ceux dont je ne suis pas sûre de la compréhension.

* « Deer » peut aussi s'entendre « Dear » bien que ce mot fasse partie du titre du morceau. En efet, le groupe cultive beaucoup le mythe de l'homme-animal, il pourrait donc s'agir d'un jeu de mot. La phrase se lirait alors, ponctuation incluse, « Dear stop... Bottle in a shell (Chéri arrête... bouteille dans une coquille) », rendant son début encore plus suggestif bien que la fin du vers reste encore mystérieuse.

** « Lust » peut aussi s'entendre « Lush » qui se traduit par « luxuriant » mais aussi par « poivrot » ou par le verbe « se saouler ». Ce vers signifierait alors «poivrot à venir » ou peut-être « saoulerie à venir ». Cela donnerait un nouveau sens à la phrase précédente pouvant alors se comprendre « Dear, stop bottle, in a shell (chéri arrête la bouteille, dans une coquille) ». On peut aussi peut-être considérer « shell » comme étant la contraction de « nutshell », cette phrase signifiant alors « Chéri, en bref, arrête la bouteille ». 110 ANNEXE 6 : Captures d'écran des réglages des modules Izotope RX pour le morceau Brained

Réglages du De-noise 1 placé sur les deux premiers couplets Ce De-noise est celui qui amène l'élocution la plus naturelle mais qui comporte beaucoup d'aigus, j'ai donc réglé ces paramètres pour minimiser cet aspect. La fonction Learn n'est pas enclenchée. Les courbes de seuil du bruit et du signal utile (respectivement en jaune et orange) sont modulées par la courbe de réduction (en bleu). Le gain d'entrée est au maximum et le threshold au minimum. La valeur de réduction est choisie pour obtenir une sorte d'équilibre. La taille de la FFT est de 200ms.

111 Dans la seconde fenêtre correspondant au réglages avancés, “Smoothing” contrôle la réduction du “Musical noise” (bruit musical, ou plutôt artéfacts tonaux, ce paramètre est sélectionné avec le curseur “Artifact control”). “Synthesis” permet de synthétiser des harmoniques aiguës au signal en sortie, mais il agit aussi étrangement sur le signal retiré. “Enhancement” renforce les harmoniques naturelles du signal (et du bruit retiré). “Masking” diminue la réduction du bruit dans les zones où il est masqué grâce à un modèle psycho-acoustique. “Whitening” permet de rapprocher la courbe du seuil de bruit résiduel de celle du bruit blanc. Tous ces paramètres agissent sur le spectre du résidu que je vais obtenir, je les règle donc en conséquence. Néanmoins, la plupart de ces ajustements sont réalisé un peu au hasard car je teste les positions des curseurs au fur et à mesure et n'y touche plus lorsque la texture en sortie me plaît. Leur action sur le son est très modérée contrairement aux paramètres décrits précédemment.

Le “Knee” et “Release” jouent sur la transition entre le moment où le signal est intact et celui où le programme commence à en extraire du bruit. Un “Knee” plus élevé permet de retirer du bruit avant même que le signal ne dépasse le seuil et le “Release” définit le temps de relâche lorsque le niveau de bruit revient sous le seuil. Dans mon usage détourné, le “Release” va gérer l'extinction du son et le “Knee” va avoir une influence sur l'attaque mais aussi son contenu spectral.

112 Réglages du De-noise 2 placé sur les deux premiers couplets Ce De-noise est celui qui transforme le plus le son mais rend l'élocution dificilement audible. La fonction “Learn” est enclenchée, les gains d'entrée et de sortie sont à leur maximum, tout comme la réduction. Le “Threshold” est quasiment au plus bas. La taille de la FFT est de six millisecondes. Le “Knee” est à son maximum et le “Release” au minimum, ce qui amplifie l'étrangeté de l'élocution. Des valeurs plus élevées de “Masking” et le “Whitening” auraient rendu le son plus naturel.

113 Réglages du De-Click placé sur les deux premiers couplets L'algorithme est ici celui de la détection de clics aléatoires multibandes. Le gain d'entrée, la sensibilité et le “Click widening” sont au plus haut, le résidu obtenu est donc plutôt continu. Le biais fréquentiel augmente légèrement la détection des clics à basse fréquence, donnant un rendu plus naturel.

Réglages du De-Click placé sur le deuxième refrain L'algorithme est maintenant celui de la détection de clics aléatoires à bande simple. La sensibilité et le gain d'entrée sont à leur maximum. Le biais fréquentiel n'a plus d'influence avec ce type d'algorithme. Le “Click widening” est cette fois beaucoup plus faible, ce qui explique l'impression d'entendre de très courts clics de saturation.

114 Réglages du De-Clip placé sur le dernier couplet Le gain d'entrée est au plus haut, la détection de la saturation se produit à partir de -39 dBFS.

Réglages du De-Clip placé sur le dernier couplet Le gain d'entrée est au plus haut, la détection de la saturation se produit cette fois dès -61,5 dBFS, ce qui explique le renforcement de la dégration du son.

115 ANNEXE 7 : Questionnaire proposé au public

1. Êtes-vous ingénieur du son ? [oui/non] 2. Êtes-vous musicien ? [oui/non] 3. Quel âge avez-vous ? [fenêtre à compléter] 4. Écoutez-vous de la musique électronique ? [jamais/rarement/de temps en temps/ fréquemment] (Un lecteur permet d'écouter ma partie pratique de mémoire) 5. Que pensez vous de ce morceau ? (de 0 : "je n'ai pas du tout aimé" à 10 :"j'ai vraiment adoré") [barème de 0 à 10] 6. Quelles émotions ressentez-vous à l'écoute de ce morceau ? (Par exemple : joie, inquiétude, nostalgie, optimisme, tristesse,...) [fenêtre à compléter] 7. Pourriez-vous expliquer quel(s) élément(s) de ce morceau vous ont conduit à ressentir ces émotions ? [fenêtre à compléter] 8. À votre avis, qu'apporte l'ajout de l'efet sur la voix à ce morceau ? [fenêtre à compléter] 9. D'après vous, qu'est ce que l'ajout de l'efet sur la voix retire à ce morceau ? [fenêtre à compléter] 10. Cela vous fait-il penser à un autre morceau ou à un autre musicien ? Si oui, lequel ou lesquels ? [fenêtre à compléter] 11. Auriez-vous un dernier commentaire à faire à propos de cette création ? (ce qui vous a le plus ou le moins plu, un élément qui vous a intrigué, une remarque, une question...) [fenêtre à compléter]

116