Informatique musicale

Informatique musicale

Les amalgames trop fréquents entre informatique musicale, musique assistée par ordinateur, musique électronique et musique contemporaine sont source de bien des malentendus. Si l’ordinateur est devenu un outil incontournable pour les musiciens actuels, l’informatique musicale se limite pour la plupart des utilisateurs aux séquenceurs, instruments virtuels et éditeurs de partition. Les rapports riches et multiples entre ordinateur et création musicale contemporaine (et plus généralement entre informatique et musique) sont la plupart du temps dénigrés ou incompris du public. Du côté scientifique également, les idées reçues sont légion. Pour de nombreux aficionados des « sciences dures », l’informatique musicale fait référence à une poignée de chercheurs et musiciens contemporains « profitant » des technologies à leur disposition, et dont les objectifs théoriques ou esthétiques sont peu lisibles. En vérité, les préoccupations musicales ont toujours interrogé de près les ressources technologiques, et les rapports entre informatique et musique vont aujourd’hui bien au-delà d’une utilisation unilatérale et aveugle des outils. A y regarder de près, ils prennent davantage la forme d’un échange stimulant où sont régulièrement soulevées des problématiques de représentation des structures et de formalisation de la pensée. 

Musique et technologie

Les rapports entre musique et technologie ne sont pas un particularisme du XXe siècle. L’histoire de la musique occidentale est au contraire jalonnée de confrontations avec la technique, motivées tantôt par une demande musicale, tantôt par une irruption technologique. L’orgue (du grec organon : machine) est en ce sens emblématique de ces rapports complexes. Initialement perçu par le clergé comme une mécanique suspecte risquant de distraire les croyants de leur pratique religieuse, son acceptation dans les églises n’a pas été sans peine : en quoi la pratique musicale au sein du culte religieux, limitée alors au chant choral, avait-elle besoin de cette technologie infernale ? C’est qu’en musique comme dans la plupart des expériences humaines, une technologie n’est jamais adoptée par « forçage », mais uniquement si elle répond à un besoin ancien. En ce sens, la notation musicale, le tempérament égal ou encore le piano sont des « technologies »,  et par là même, des révolutions : elles modifient en profondeur pratique et pensée musicales. Le codage, à travers la partition, de la musique sous forme symbolique a permis la manipulation du matériau musical à un niveau d’abstraction plus élevé que la seule pratique instrumentale. La notion occidentale de « composition » s’est alors enrichie de nouveaux procédés (inversions, symétries, miroirs, répétitions, imitations, esquisses. . .), révélés par la représentation graphique de la musique. De façon similaire, l’instauration progressive du tempérament égal a conduit à la possibilité (voire la nécessité) d’une musique modulante, de même que le piano a apporté les nuances de dynamiques dans le jeu au clavier. Possibilité offerte d’abord, puis évolution nécessaire, un changement technologique ne survient que lorsque la pratique ou la pensée piétinent dans une impasse et ne peuvent s’en extraire avec leurs outils du moment. En même temps qu’elle comble un besoin, l’adoption d’une technologie engendre toujours un changement de paradigme. C’est sous ce double rapport de cause à effet que doit être considérée l’articulation contemporaine entre informatique et musique.

Le tournant de l’électronique

Durant la première moitié du XXe siècle, le monde musical occidental est en crise : les tentatives dodécaphoniste et sérielle, cherchant le renouveau dans une nouvelle organisation des hauteurs, n’ont pu palier l’effondrement de la tonalité. Le changement viendra avec l’arrivée de l’électronique au milieu du XXe siècle, mais pas de la manière qu’on croit. Certes, l’électronique introduit de nouvelles possibilités sonores, mais la grande nouveauté est ailleurs, dans les procédés qui lui sont propres et qui vont engendrer de nouvelles manières de composer. Les techniques de synthèse sonore d’une part, d’enregistrement sur bande d’autre part conduisent les compositeurs à penser le son comme un objet à part entière, totalement indépendant du jeu instrumental traditionnel. Louis et Bebe Barron (avec Forbidden Planet), Herbert Eimert, Karlheinz Stockhausen (avec Gesang der Jünglinge) ou encore John Cage (avec Imaginary Landscapes) seront les premiers à explorer ces potentialités. Dans le rapport d’intimité qui se crée avec le son « objectivé », les structures usuelles de l’écriture, thèmes, motifs, mélodies, contrepoints, cèdent la place aux bouclages, ralentissements, accélérations, superpositions, mixages, découpes, recombinaisons, stratifications. . . Cette pratique aura des répercussions immenses sur les musiques aussi bien électroacoustiques que mixtes ou même purement instrumentales. Par exemple, le fait de considérer l’orchestre comme un ensemble de solistes, en divisant à l’extrême les pupitres1 , est un mode d’écriture qui découle en partie de l’expérience des possibilités d’accumulations offertes par la pratique du multipiste. De même, les canons asynchrones de Steve Reich n’auraient sans doute pu être imaginés sans la possibilité de jouer simultanément un son enregistré à des vitesses et intervalles de temps différents. 

LIRE AUSSI :  Opération de Transit Import – Export

Fonctions de l’Informatique musicale

Les rapports entre musique et informatique qui nous intéressent ici sont ceux qui introduisent des pratiques et des concepts nouveaux. Entre les années 50 et 70, l’ordinateur se 1Dans sa pièce Atmosphères, György Ligeti a recours à une division totale des pupitres de cordes ; apparente micropolyphonie, totalement asservie à la texture de l’orchestre. Il en va de même, dans un tout autre registre, pour la construction tonale et contrapuntique qui rythme  substitue au magnétophone dont les possibilités en termes de maîtrise du temps et de manipulation du son concret ont été rapidement épuisées par la musique électronique et électroacoustique. L’Informatique musicale, dont le fondement est la représentation numérique des données, se scinde alors rapidement en deux grands courants de recherche : l’analyse et la synthèse numérique des sons d’une part, et la formalisation des processus musicaux d’autre part. Le second nous intéresse particulièrement, tant d’un point de vue compositionnel qu’informatique, car la question de l’articulation entre algorithmique et données musicales symboliques y est centrale. Il donnera naissance, en 1956, au célèbre quator à cordes Illiac Suite de Hiller & Isaacson, première pièce entièrement « composée » par ordinateur à partir d’un ensemble de règles tirées d’un traité d’harmonie. Les recherches en musique algorithmique (ou composition algorithmique) se poursuivront par la suite en Europe avec Pierre Barbaud, Iannis Xenakis ou encore André Riotte. Toutefois, l’idée de concevoir un programme capable de générer de la musique de manière automatique révèle rapidement ses limites : on ne pourra jamais écrire un ensemble de procédures suffisamment génériques pour anticiper les besoins de tous les compositeurs. La composition algorithmique va alors peu à peu céder le pas aux environnements de composition assistée par ordinateur (CAO), avec lesquels le compositeur interagit en tant que « programmeur » et définit ses propres procédures. Les outils de CAO sont basés sur une mise en correspondance de paradigmes de programmation avec la formalisation des structures et des processus de l’écriture musicale, et permettent d’établir une équivalence entre une « intention compositionnelle » et un calcul. A titre d’exemple, Agon & al. [AHA02] ont montré qu’on peut représenter un rythme musical sous forme d’un arbre (au sens informatique du terme), un rythme n’étant en effet rien d’autre que la division d’un intervalle de temps en sous-intervalles, chacun d’entre eux pouvant à son tour se subdiviser en durées plus petites. Comme un arbre, un rythme est donc une structure de données définissable de manière récursive. La manipulation des rythmes peut dès lors être appréhendée de manière nouvelle à l’aide d’opérations sur les arbres. Parmi les principaux paradigmes de programmation utilisés dans la conception d’environnements de CAO, les plus récurents sont la programmation par objets [Pop91], la programmation déclarative ou programmation par contraintes [RAQ+01], et surtout la programmation fonctionnelle, dont les mécanismes d’abstraction et d’application permettent d’établir une équivalence entre programmes et données. Cet aspect est fondamental en musique, où le même matériau est conçu tantôt comme un objet figé, tantôt comme une structure dont on peut dériver de nouveaux objets2 . Cette dualité entre données et processus a largement contribué au succès du langage Lisp [Ste90] dans le développement d’environnements de CAO.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *