Rencontre
de la Musique
et de l'image

Musique interactive :
un enjeu vidéoludique majeur

L’interactivité. C’est dans ce mot que se joue toute la différence entre une bande originale de jeu vidéo et une partition écrite pour le cinéma ou la publicité. Mais ce terme très générique, qui n’a pas attendu l’émergence du jeu vidéo pour exister, cache des réalités très différentes. Le principe de réaction réciproque entre deux éléments, ici l’être humain et la machine, a en effet donné lieu à de nombreuses interprétations et classifications, techniques, cognitives ou sociales, encore débattues. Pour comprendre sa subtilité, il convient de se poser quelques questions fondamentales : pourquoi la bande originale d’un jeu est-elle (et parfois doit-elle) être “interactive” ? Et surtout comment s’écrit-elle ?

L’évolution sonore d’un jeu est parfois envisagée du point de vue fonctionnel plus qu’artistique. Accompagner des actions et des événements de l’univers du jeu par des sons est nécessaire pour donner de la consistance, mais aussi de la clarté. La synchronisation d’un bruitage de pistolet, d’arc ou de pas avec ce que fait le joueur est le niveau d’interaction le plus évident à détecter. Ces sons répondent à un besoin nécessaire d’offrir un retour (feedback) à celui qui tient la manette, pour lui montrer son influence concrète sur le jeu mais aussi pour l’aider à décrypter ce qu’il ne voit pas toujours sur un écran saturé d’informations (car la caméra ne nous montre pas forcément tout). Plus qu’un renfort de l’image, le son est par ailleurs parfois plus approprié pour nous faire comprendre certains éléments, de nature temporelle par exemple : dans The Legend of Zelda : Ocarina of Time (Nintendo, 1998), les actions à effectuer en un temps limité après avoir allumé certains interrupteurs sont uniquement illustrées par un tic-tac de plus en plus rapide, et non par un décompte visuel.

Autre point important, qui prête souvent à confusion : on représente facilement l’interactivité, particulièrement sonore, comme dépendante uniquement du joueur. Bien que la participation de ce dernier soit essentielle à l’existence même de la musique interactive, il n’en contrôle pas toujours les paramètres à proprement parler. L’interaction relève avant tout d’un rapport de cause à effet entre un événement, qui peut dépasser le joueur (en relevant d’une intelligence artificielle), et un son qui en découle. Cette notion d’événement est très large, et ne couvre pas que le fait d’appuyer sur un bouton pour déclencher une action. Dans certains cas, le souffle du vent ou la nature du terrain sur lequel un avatar pose le pied sont des évènements qui impactent l’environnement sonore et la musique. En d’autres termes, le son et la musique interactifs se manifestent à plusieurs degrés pour influencer la densité d’un univers et le rendre vivant. Mais quels sont-ils ?

Interactivité ou adaptativité : tout est dynamique

Pour mieux approcher le son et ses évolutions, on sépare souvent la notion d’interactivité et d’adaptativité, que certains chercheurs comme la ludomusicologue Karen Collins ont rassemblé sous le terme plus général de musique “dynamique”. Le son proprement interactif est très simple, puisqu’il s’agit de celui sur lequel le joueur a une influence directe, ou plus exactement dans lequel il s’investit pleinement, tout en ayant conscience de ce qu’il fait. Lorsque nous pressons le pavé tactile de la manette PS4 pour faire jouer différents accords à la guitare d’Ellie dans The Last of Us Part II (Naughty Dog, 2020), il s’agit bien de musique interactive, puisque chaque son est associé à un mouvement conscient avec des effets évidents (jouer de la musique). Lorsque le joueur “chante” dans Wandersong (Greg Lobanov, 2018), la roue qu’il fait tourner pour choisir les notes de son vaillant barde lui permet également d’avoir une influence directe sur son monde en provoquant diverses réactions ou réponses magiques : au-delà de la musique, un rapport de cause à effet très particulier se tisse entre le son et l’univers du jeu, qui dépasse la musicalité et fait le charme du jeu.

Mais il existe des interactions bien plus subtiles, qui vont plutôt dépendre de l’évolution du monde du jeu vu comme entité à part entière : le joueur n’a souvent que peu d’influence sur le temps qui passe, ou le temps qu’il fait. Pourtant, il est fréquent que la musique varie au fil des saisons et des jours. Des percussions peuvent par exemple se rajouter lorsqu’il déplace son avatar dans un Pokémon version Noire / Blanche (Game Freak, 2010). Selon qu’il pleuve ou qu’il neige dans la série Animal Crossing, certains instruments changent dans les morceaux : le glockenspiel illustre la neige quand le marimba symbolise la pluie, sans que le joueur ait son mot à dire. Plus subtil encore, c’est le type de terrain sur lequel il va évoluer qui va provoquer l’entrée en scène de différents fragments sonores, en partie générés par une intelligence artificielle dans Proteus (Ed Key & David Kanaga, 2013). Plus que d’interactivité, on parle alors d’adaptativité de la musique : lorsque la foudre tombe, dans A Plague Tale: Innocence (Asobo Studio, 2019), la synchronisation d’un instrument à corde avec celle-ci ne dépend pas du joueur; il n’en aura peut-être même pas conscience. La musique répond alors à des actions ou des évènements plus diffus.

La différence entre les deux peut-être très ténue : dans la série Guitar Hero, les notes que l’on joue sur une guitare factice, qui se déclenchent ou non dans le jeu selon qu’on appuie sur les bonnes touches au bon moment, sont clairement interactives. Mais la performance plus générale du groupe, qui se dégrade ouvertement lorsque l’on fait trop de couacs, et les réactions enthousiastes ou houleuses du public découlant de nos actions, ne le font pas à un même niveau. En définitive, toutes les petites règles invisibles qui régissent le jeu, croisées avec le pouvoir concret du joueur et son niveau d’attention porté au son, nous permettent de découvrir sans cesse de nouvelles choses.

Les limites de la musique interactive

La question de l’interactivité ou de l’adaptativité extrêmes de la musique dans les jeux vidéo pose aujourd’hui quelques questions. Les évolutions technologiques permettent en effet de tout programmer, au point que la musique approche parfois des canons des bandes-son de film par la précision avec laquelle elle colle à ce qui se déroule à l’écran. Certains jeux visent à s’accompagner de mélodies en perpétuel renouvellement, réagissant instantanément à ce que fait et vit le joueur. Plusieurs méthodes de création en ont découlé : elles peuvent par exemple concevoir la musique de façon horizontale (superposition de couches sonores) ou verticale (enchaînement de segments interchangeables). Face à cette complexité technique, certains se sont posés la question : fallait-il offrir une extrême granularité, autrement dit un niveau de détail et d’adaptation de plus en plus fin, au risque que les joueurs n’en retiennent parfois pas grand-chose ? Certains compositeurs, comme le britannique Gareth Coker (Ori and the Blind Forest), ont apporté un point de vue critique plein de justesse sur la musique dynamique et les questions qu’elle doit poser : “L’évolution d’un affrontement contre un boss (un ennemi majeur qu’affronte le joueur, NDLR) a-t-il une histoire à dire, au-delà de l’événement en lui-même ?”.

Pour qu’une musique de jeu fonctionne, la façon dont elle est distillée doit en effet être proportionnelle à ce qu’elle doit raconter : qu’elle soutienne la narration ou le gameplay, une musique trop fragmentée sera rarement inoubliable. A contrario,  certaines bandes-originales, sans transition raffinée et construites sur des boucles (des musiques revenant au point de départ une fois arrivée au bout, tant qu’aucune rupture particulière n’a lieu) sont tout à fait mémorables et ce, sans lasser les joueurs. Parfois, un bon morceau suffit à souligner juste ce qu’il faut. Certaines évolutions plus fragmentées auront néanmoins apporté tout autant de richesse, en provoquant une assimilation évidente d’un message particulier, et même un certain émerveillement. Dans Nier: Automata (PlatinumGames, 2017), les splendides musiques orchestrales et vocales produites par le studio de composition Monaca, mené par Keiichi Okabe, adoptent des versions “8-Bit” (inspirées des sons des anciennes puces sonores de la fin des années 1990) lorsqu’un des avatars robotiques du joueur, 9S, pénètre les défenses d’un adversaire et qu’une session de hacking s’engage. De même, dans Sound Shapes (Queasy Games, 2012), jeu de plates-formes musical unique en son genre, chaque élément du décor ou objet ramassé correspond à un son qui s’active régulièrement. La spatialisation de ceux-ci, croisés avec la progression du joueur, participent pleinement à l’expérience de jeu :  la bande-son évolue en même temps que celui qui tient la manette. Quelle que soit l’approche, l’interactivité est un moteur esthétique et artistique, bien au-delà de sa simple capacité à communiquer des émotions. Entre ressenti et information plus terre à terre, ses évolutions et ses différents niveaux d’action envoient des messages multiples qui n’ont pas fini de surprendre nos oreilles curieuses et attentives.

Par Fanny Rebillard

Photo de couverture :
The last of us : Part II / Crédit : Naughty Dog, 2020
Captured from PS4 PRO

Partager cet article

inscrivez-vous à notre newsletter

Suivez notre actualité, bla bla