Musique contemporaine et révolutions sonores du XXè siècle : quels liens avec le jeu vidéo ?

Cet article est une version augmentée du thread du 24/06/2018 consultable sur Twitter.

Avant d’aller plus avant sur la création de la musique de jeux, j’aimerais faire un petit détour du côté de l’histoire de la musique du XXème siècle, dont un certain pan joue un rôle trop souvent ignoré dans notre cher média. En effet, un chose à tendance à me choquer lorsqu’il est question de musique de jeu, à un niveau médiatique, mais également -certains l’ont déjà relevé- par rapport à la conception qu’en a une partie du public et des musiciens. Dès qu’il s’agit de vanter la musique de jeu, les angles d’approches sont, peu ou prou, toujours les mêmes : “Oh, vous vous souvenez des “beep-boop” rigolos et décriés de l’époque 8-bit ? Et bien aujourd’hui on en fait de la musique orchestrale, des concerts, et les compositeurs sont de vrais professionnels, aussi bons que Mozart et John Williams !”. Aujourd’hui, il est question d’expliquer en quoi cette vision est bien trop réductrice. Pour ce faire, nous aller traverser un bout de l’histoire de la musique.

Tout d’abord, mettons les choses à plat : le fait que la musique de jeu acquière ses lettres de noblesses n’est pas un problème. Bien au contraire, c’est une étape importante de l’évolution du média, et la preuve d’un amour grandissant que personne ne saurait rejeter. Mais, le “complexe classique”, comme en parle si bien Florian Agez, est une absurdité loin d’être nécessaire. Absurdité car l’on sait que la musique “classique” (ou dans la majorité des cas « sur-orchestrée ») n’est pas la seule chose de valeur ou appréciée dans le vaste monde sonore. En découle donc un problème quand on parle de musique de jeu vidéo : oui, l’orchestration fait partie de son histoire et de son extension hors des jeux, mais elle n’est pas non plus toute son histoire, ni tout son intérêt. A vrai dire, j’irai même plus loin en disant que ne parler que de cet aspect lorsqu’on aborde l’évolution de la musique de jeu et son arrivée dans les salles de concert, est un soufflet violemment jeté aux événements musicaux du XXè siècle, qui a justement été celui du dépassement de l’orchestral et de l’ouverture sonore. Nous allons donc voir aujourd’hui en quoi consistaient ces révolutions, qui sont reliées à la musique de jeu, sur le plan esthétique, et par extension archivistique. Bien sûr, l’article est loin d’être exhaustif, tant au niveau des exemples que des concepts énoncés. Mais j’espère attirer votre curiosité sur certaines questions que l’arrivée de l’enregistrement ont un peu trop vite éclipsées, alors qu’elles restent encore aujourd’hui parfaitement d’actualité.

De la musique au « bruit » : nouvelles perspectives musicales au XXème siècle

L’autre jour, en mettant de l’ordre dans mes notes, je suis tombée sur cette très belle citation du compositeur Edgard Varèse :

« Je suis sûr que le jour viendra où le compositeur, après avoir réalisé graphiquement sa partition, la verra placée automatiquement dans une machine qui en transmettra fidèlement le contenu musical à l’auditeur. Comme des fréquences et des rythmes nouveaux devront être indiqués sur la partition, notre notation actuelle sera inadéquate. La nouvelle notation sera probablement sismographique. (…) Pour nos instruments électriques encore primitifs, il est nécessaire d’abandonner la notation sur portée pour utiliser une manière d’écriture sismographique. » (Varèse in « Nouveaux instruments et nouvelles musiques”, 1936)

Elle peut ne pas sembler particulièrement impressionnante, et pourtant, en cette année 1936, et dans la bouche de ce compositeur très porté sur la modernité, ces paroles étaient particulièrement visionnaires et fondamentales. Si vous vous en souvenez, je vous ai déjà parlé, dans un précédent article, de la construction du son, et de la dominance accordée aux durées et aux hauteurs dans la notation occidentale la plus répandue (aussi appelée “proportionnelle”). Jusqu’au XXème siècle, globalement, la musique s’envisageait effectivement comme l’organisation d’une mélodie et de rythmes avec des harmonies suivant un certain nombre de règles ou d’habitudes esthétiques et mathématiques. On indiquait sur la partition les instruments à utiliser pour plus de précision, et en voiture Simone !

Cependant, en 1936 et alors que Varèse écrit ces mots, les choses ont déjà commencé à changer depuis un moment. On a déjà connu quelques révolutions avec certains compositeurs : Debussy et ses couches sonores, par exemple, défiant déjà à sa manière la notion du temps (et l’harmonie), mais aussi de la forme. Ici le Prélude à l’après-midi d’un faune (1894) :

Mais au-delà de la forme pure, on a déjà vu émerger des contestations au niveau de l’orchestre, justement, avec des compositeurs cherchant toujours plus de nouveauté, donc une libération du spectre des possibles en terme de timbres sonores. Très provocateur, connu pour son humour et son excentricité tirant parfois sur la folie, Erik Satie hérisse déjà le poil du public parisien avec ses hélices d’avion et ses sonneries de téléphone dans Parade en 1917. Si le scandale provoqué par l’oeuvre repose également sur le contexte difficile de la fin de la première guerre mondiale, il pose déjà à sa façon une grande revendication : pourquoi ne faire jouer que des « instruments » de musique ? Les objets du quotidien issus de l’ère industrielle ne peuvent-ils pas, eux aussi, faire partie de l’art sonore ? D’un autre côté, c’est Arthur Honegger qui donne sa vision des choses, quelques années après, en faisant imiter le train par l’orchestre dans Pacific 231 en 1923. Si la question de ce qu’on peut faire jouer à l’orchestre est une chose, celle de ce qu’on peut faire jouer par l’orchestre en est une autre, toute différente  :

L’utilisation de nouveaux sons est déjà une chose révolutionnaire en soi, mais elle vient , bien sûr, avec de nouveaux problèmes liés à la nature même de leurs origines non-musicales. En 1936, le monde musical a déjà connu quelques soucis de notation, notamment en Autriche, avec le Sprechgesang, voix “parlée-chantée” largement utilisée par Schönberg dans son Pierrot Lunaire (1912). Comment, en effet, noter avec précision un élément qui ne l’est volontairement pas ? Comment (d)écrire des inflexions de la voix qui ne dépendent ni de la hauteur, ni du rythme, mais plus de l’intention ?

Vers la musique à l’image et l’électroacoustique

futuristes
« Dynamisme d’un train », Luigi Russolo (1912)

Du côté italien, les bruitistes ont également fait leur chemin en revendiquant l’art contenu dans les sons complexes découlant de la révolution industrielle. On peut lire à ce titre l’Art des bruits du peintre/compositeur/inventeur Luigi Russolo (1913). Les futuristes des autres pays ont également eu leur heure de gloire. Retenons notamment le cinéaste Dziga Vertov, et son concept de “kino-pravda” (cinéma vérité), développé dans le film Enthusiasm : Symphony of Donbass (1930). Il y pousse les principes de ciné-oeil et de radio-oreille, donc de réalisme, à leur paroxysme, et va jusqu’à enregistrer de « vrais » sons d’usine pour illustrer la réalité du travail. C’est à l’époque une grande première, techniquement très difficile à réaliser : le cinéma sonorisé en est à ses balbutiements, et la plupart des salles n’ont alors pas de sons, ou, au mieux, quelques musiciens  ou un bruiteur accompagnant en direct l’image, avec des moyens matériels très variables.

 

Quand Edgard Varèse a écrit les mots que je vous citais plus tôt, nous sommes aussi peu  de temps après la première représentation de son oeuvre Ecuatorial, qui mélange des instruments traditionnels et l’un des premiers instruments électronique qui ait laissé sa trace à l’époque : le thérémine (aujourd’hui souvent remplacé par des ondes Martenot, une invention proche d’origine française). Et à ce moment, Varèse s’apprête à entrer dans une longue période de vide artistique : il faut dire que ses idées et son obsession pour les premiers remous de l’électroacoustique sont peut-être un peu trop en avance sur son temps. Ecuatorial est alors la première oeuvre à oser le mélange, et le résultat, comme d’habitude, choque :

L’abstraction du concret : une expérience pleine de ressources

En effet, si toutes ces petites nouveautés ont alors du mal à se faire une place en France, c’est parce que les expérimentations musicales n’ont pas vraiment le vent en poupe. Il faudra attendre 1948, avec la diffusion à la NRF des premières œuvres de musique concrète de Pierre Schaeffer, pour que les choses bougent. Si vous ne savez pas qui est Pierre Schaeffer, alors voici de quoi vous donner une idée de son travail, avant de parler de cette figure importante de la seconde moitié du XXème Siècle : La symphonie pour un homme seul (composée avec Pierre Henri en 1949).

beatriz
Beatriz Ferreyra

Cette oeuvre est bien sûr plutôt à prendre dans un sens expérimental qu’artistique. Mais qu’a-t-elle apporté d’incroyable ? Si vous avez tendu l’oreille, vous aurez constaté que cette musique n’est pas constituée de sons instrumentaux rythmés ou à hauteurs fixes. À vrai dire, il est même probable que vous ayez du mal à identifier un certain nombre des sons que vous avez entendus. En effet, pour créer cette oeuvre, Pierre Schaeffer et Pierre Henri ont enregistré, sur bande, divers bruits qu’ils trouvaient intéressants. Afin de transformer ces sons, de les rendre ambigus pour mieux les isoler de leur signification concrète dans le monde, les compositeurs sont passés par deux choses. Tout d’abord des petites “tricheries” techniques permettant, par exemple de créer des effets d’écho avec des plaques de métal . Mais ils ont aussi joué du montage, particulièrement soigneux, à base de découpage/recollage minutieux de la bande, laquelle pouvait alors être inversée, ou amputée de certaines parties, contenant l’attaque des sons, par exemple.

 

En quoi est-ce révolutionnaire ? Déjà, il est important de préciser qu’avant l’époque dorée des logiciels de manipulation du son, ces manœuvres n’étaient pas évidentes, et par conséquent n’avaient jamais été faites. Mais, encore plus important, il s’agit-là d’une toute nouvelle vision du son existant, décontextualisé. Si jusqu’à présent on pouvait assez simplement signaler l’utilisation d’objets en musique en écrivant, par exemple, leur nom sur une portée “ici, faire tourner une râpe à gruyère”, il devient plus difficile de décrire des sons dont les composantes naturelles sont manquantes ou altérées : un violon sans son “attaque” caractéristique à l’archet peut facilement devenir méconnaissable, et cela vaut pour tous les instruments… et sons du quotidiens. Pour identifier un son sur le plan purement acoustique, on prend en considération quatre parties dans l’enveloppe dite “ADSR” (Attack, Decay, Sustain, Release) : l’attaque, la chute jusqu’au niveau de maintien du son, qui produit alors, par exemple, un vibrato caractéristique, et enfin son extinction. Cette notion est devenue importante, notamment en informatique musicale, pour recréer des sons de synthèse plausibles en reproduisant l’essentiel de ces quatre éléments de leur « carte de visite ».

ADSR

Mais dans le cas des compositeurs de musique concrète comme Pierre Schaeffer, on cherche au contraire à briser le réalisme : techniquement, il n’est pas possible qu’un instrumentiste modifie les propriétés physiques du son de son instrument à ce point, il peut jouer sa partition à l’envers, mais pas le son !

Décontextualisation de l’enregistrement : du cinéma à la musique populaire

L’enregistrement devient alors, non plus un moyen de reproduire fidèlement le son ou d’”archiver” un événement sonore qui s’est produit, mais un mode de fabrication à part entière. Est-ce que c’est important ? Bien sûr, et cela va même devenir fondamental pour la suite. Pour le moment, j’ai peut-être l’air de juste vouloir vous enquiquiner avec des musiques expérimentales qui vous font probablement grimacer (sauf Debussy… Et Varèse… Et Honneger), mais en réalité, ces notions de bruits, de décontextualisation, et bientôt l’arrivée de l’informatique éclosent de tous les côtés… pour nous amener inexorablement au jeu vidéo (mais patience, nous n’y sommes pas encore). Pour aller  encore plus loin sur ces notions, j’ajouterai qu’elles ont totalement façonné une grande partie des musiques populaires que nous connaissons aujourd’hui. Alors certes, on connaît un peu l’histoire du bruitage au cinéma : les pastèques écrasées permettant de reproduire avec classe le bruit des entrailles ou des têtes éclatées des films d’horreur, ou encore les fameuses noix de coco moquées par les Monty Python, moyen pratique de bruiter un cheval, plus pratique que de l’enregistrer directement, à défaut d’en avoir un :

Le bruitage, typiquement, s’est donc beaucoup reposé sur le fait que le son réel d’un objet, si l’objet n’est pas vu, n’est pas toujours identifiable, et peut par extension servir à représenter un autre objet. Cette réflexion est très proche de celle de la musique concrète, mais dans l’autre sens (le son est retiré de l’objet pour servir une représentation volontairement abstraite). L’ère électronique a d’ailleurs été largement popularisée par les musiques de films, dont les compositeurs étaient alors toujours en recherche de nouveaux timbres pour décrire l’inconnu, l’imaginaire. Je vous parlais plus tôt du premier instrument électronique au son « venu d’ailleurs », le Thérémine. Pour faire un premier lien, sachez qu’il a beaucoup été utilisé au cinéma, notamment en science fiction : vous devez connaître Mars Attacks (1996, musique de Danny Elfman) :

Mais des groupes de rock ont aussi apprécié, quelques années plus tôt, les sonorités de cet instrument et l’ont utilisé. Les expériences ont toujours attiré des musiciens de tous poils, ici, les Beach Boys (Good Vibrations, 1966) :

Du sampling à toutes les sauces

Plus largement, nous l’avons vu avec ces quelques exemples, le fait même d’utiliser des sons inhabituels et de les transformer est au cœur de la musique du XXème siècle. Les gens s’exclament souvent, en voyant les images d’archive des créateurs de l’INA au travail : “Ce sont eux les premiers DJ !”. Le style vestimentaire mis à part, c’est un besoin et une expérimentation très proches qui ont menés à la naissance du scratch, plus tard généralisé sous le terme de Turntablism : la manipulation des vinyles transforme le sens initial de la musique enregistrée, et mène à l’utiliser de façon plus rythmique. (ci dessous, pierre Schaeffer et DJ Q-Bert)

Technique née d’un hasard, mais demandant une grande dextérité et un sens du rythme très développé, le DJ-ing a été popularisé dans les années 70 par des personnalités telles que DJ Kool Herk et Grandmaster Flash. Dépendant des platines et de la collection de vinyles de leur DJ, cette technique d’accompagnement est l’un des éléments fondateurs de la culture Hip-hop, avec le break, le graph et le rap, qu’elle vient souvent compléter. Tout comme la musique concrète, elle repose sur la capacité de l’enregistrement à se laisser manipuler, en y ajoutant une dimension « live » particulièrement spectaculaire. Elle transforme le son en s’appuyant sur une manipulation de son support de stockage, qu’il s’agisse d’un disque vinyl ou d’une bande magnétique.

Un autre élément très utilisé pour créer un tapis sonore sur lequel un rappeur peut poser son flow est le sampling. Cette technique consiste elle aussi en la réappropriation d’un morceau déjà existant par son découpage et sa transformation. Si son approche repose moins sur la notion de performance en direct que le Turntablism, le Beatmaking est, lui, né avec les samplers et a grandi avec l’informatique, cette dernière ayant décuplé à l’infini les possibilités de manipulation du son. Cependant, la question de la mémoire de la machine est alors devenue importante, et les limitations techniques étaient donc toutes autres. À noter que si le sampling se fait souvent en studio, il existe des “finger-drummers” impressionnants en live. Voyez ici comment Pedro le Kraken “pitche” et découpe la voix d’Aznavour pour en faire des séquences rythmiques associées à des pads qu’il va jouer directement et de façon extrêmement virtuose :

Le détournement du son enregistré va donc grandement contribuer à la construction d’identités musicales hétérogènes. Ces identités dont les origines, vous l’imaginez, deviennent a posteriori difficiles à retracer, donnent lieu à toutes les fantaisies et mélanges possibles. Dans Arc-en-ciel pour daltoniens, Nikkfurie de La Caution sample par exemple la musique du film d’animation de Hayao Miyazaki Princesse Mononoké (composée par Joe Hisaishi). Mais il va aussi utiliser des dialogues de film américains, ainsi que le bruit d’une bombe de peinture qu’on agite en guise de Hi-hat/Charleston, pour créer une rythmique unique et très identifiable.

 

Ici, je m’attarde sur la culture Hip-hop, représentative et particulièrement connue en matière de sampling. Mais en creusant un peu, il apparaît clairement que la manipulation du son est loin de se limiter à ce seul pan culturel. À vrai dire, les studios d’enregistrement traditionnels, longtemps restés fermés sur leur techniques et peu accessibles en raison de leurs tarifs, étaient également très friands de ce genre de bricolages. Un exemple très parlant se trouve bien plus tôt, dans In My Life des Beatles, de 1965. Avant de l’écouter, voici l’histoire qui se cache derrière cette chanson : on demande au producteur, John Martin, de jouer un pont dans le style de Bach pour donner du cachet au morceau. Mais il ne joue pas assez bien pour se caler sur le tempo voulu. Qu’à cela ne tienne ! On l’enregistre deux fois plus lentement, puis on accélère sa partie (vers 1:30)…

Petit souci : en accélérant la bande, on “pitche” alors le piano, qui est donc entendu une octave plus haute que dans la réalité. Son timbre est également altéré par le phénomène d’accélération, ce qui a mené les fans à se questionner pendant des années sur ce drôle d’instrument qu’on entendait au milieu du morceau : Honky-Tonk ou clavecin ?

Pour résumer…

Les nouvelles technologies sont devenues des terrains d’expérimentations, parfois à succès, parfois pas. Dans tous les cas, la richesse de la musique qui en est ressortie ne peut s’exprimer sur quelques portées, et encore moins à l’orchestre. Edgard Varèse avait raison : nous avons créé des logiciels d’analyse du son “sismographique”, représentant les hauteurs, les durées et les partiels de façon « topographique ». Ces représentations ont même permis d’aller plus loin avec la MAO. Nous y reviendrons dans un prochain article plus centré sur l’informatique musicale et son apport direct à la musique de jeu vidéo, mais je pense que vous commencez déjà à entrevoir quelques points communs possibles, avec les technologies et révolutions dont j’ai parlé tout au long de ce texte. C’est pour cela qu’il me semblait important de vous parler de ces quelques événements expérimentaux musicaux de la première moitié du XXème siècle, et de la façon dont ils se sont répercutées sur l’ensemble de la musique, qu’elle soit savante ou populaire.

Une fois les premiers pas faits, beaucoup ont voulu exploiter toutes les nouvelles possibilités ouvertes, sans distinction de genres et de cultures. Aujourd’hui, ces petites évolutions, de l’usage des “bruits” à la manipulation de sons existants pour en créer de nouveaux, sont tellement répandues, qu’on ne s’en rend même plus compte. Mais tendez l’oreille et demandez-vous d’où viennent les sons que vous aimez : la réponse ne sera sans doute pas toujours facile à trouver ! Et ce qui fait le charme et l’intérêt des musiques de jeux, vous vous en doutez, ne réside donc pas que dans leurs mélodies et leurs accords reproductibles à l’orchestre.

Un commentaire

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s