Dictionnaire de la Musique 2005Éd. 2005
O

orchestre (suite)

Les sociétés orchestrales

On appelle aussi couramment orchestre une société orchestrale permanente, attachée à un lieu, un théâtre, une institution, comme l'Orchestre philharmonique de Berlin. Pour avoir une idée des principaux orchestres qui sont actuellement ou qui ont été en activité dans le monde, on se référera aux notices concernant les villes importantes et leur activité musicale.

ordinateur

L'utilisation de l'ordinateur en musique date à peu près de la fin des années 1950. Elle a fait un bond fulgurant dans les années 70, surtout dans le domaine de la synthèse sonore, en liaison avec l'apparition de mini-ordinateurs, dits microprocesseurs, qu'on utilise par ailleurs de plus en plus pour les fonctions les plus diverses dans la vie quotidienne. Comment la musique pourrait-elle être épargnée par une nouvelle technologie qui pénètre absolument tous les domaines de la vie humaine ?

   Plus ou moins artificiellement, on peut répartir les utilisations de l'ordinateur en musique sous trois rubriques : la musicologie, la composition, et la synthèse de sons nouveaux ­ ces deux derniers domaines communiquant étroitement.

Ordinateur et musicologie

De même qu'il est utilisé dans toutes sortes de recherches linguistiques, archéologiques, historiques, pour archiver et traiter du savoir, opérer des regroupements, des constantes, faire des statistiques, des analyses, l'ordinateur a été rapidement mis au service de la musicologie. On a essayé de s'en servir, par exemple, pour analyser les composantes statistiques du « style » d'un compositeur ou d'une tradition musicale (recherches de Fucks, Lincoln, Bowles, et, dans les pays de l'Est, de Zaripov, Havass), et, parfois, pour recomposer des « simulations » de styles musicaux (fausses musiques traditionnelles générées par l'ordinateur). Il faut préciser que l'utilisation de l'ordinateur ne garantit en rien l'« objectivité » ou la pertinence de telles analyses. L'ordinateur ne fait que traiter ce qu'on lui donne, et les critères d'analyse choisis peuvent être hautement contestables. En d'autres termes, l'intervention de l'ordinateur n'est en aucune manière une garantie scientifique ipso facto.

Ordinateur et composition

Cette direction d'utilisation est celle qui a fait couler le plus d'encre, comme si on avait pu trouver effectivement le secret pour remplacer Beethoven ou Schubert par une machine. En fait, là encore, les machines ne font que traiter des informations qu'on leur donne, délivrer des masses de chiffres au hasard, ou appliquer des lois. Une des premières, peut-être même la première recherche dans ce sens, fut celle de Lejaren Hiller et Leonard Isaacson, qui s'amusèrent, au studio de l'université de l'Illinois, aux États-Unis, à établir des programmes de composition reproduisant sous forme de contraintes les règles harmoniques et contrapuntiques traditionnelles. Ces programmes fonctionnaient plus ou moins comme des « filtres » servant à sélectionner des solutions entre les milliers de sons (codés en chiffres) générés au hasard par l'ordinateur. La Suite Illiac (1957), pour quatuor à cordes (car la « composition » ainsi créée fut transcrite en notation traditionnelle), est considérée comme la première œuvre « calculée » par ordinateur, mais c'est d'abord une œuvre de « simulation » de musique traditionnelle. D'autres démarches, qui ont voulu non seulement, comme celle-ci, analyser et reproduire le mécanisme de la composition classique, mais aussi s'essayer à exploiter l'ordinateur pour s'essayer à penser différemment l'acte de composition, furent celles de Pierre Barbaud, Frank Brown, Geneviève Klein (réunis à Paris dans le groupe BBK) et Janine Charbonnier (musique « algorithmique »), de Michel Philippot (technique de « machine imaginaire »), de Yannis Xenakis, inaugurée par celui-ci dans la série de ses « ST » : ST-4 (1959-1962), pour quatuor à cordes, ST-10, ST-48, etc. ; de Gottfried-Michael Koenig à l'institut de sonologie d'Utrecht (Projekt 1 et 2) ­ démarches tellement divergentes qu'elles pourraient rassurer ceux qui s'inquiètent d'une « uniformisation » de la musique par les machines.

Ordinateur et synthèse sonore

C'est en 1958 que Max Mathews a réalisé ses premiers essais de synthèse de sons par ordinateur, dans les laboratoires de la Bell Telephone, à Murray Hill, dans le New Jersey. Ce principe de synthèse directe de l'onde sonore consiste à faire calculer par la machine, selon un programme mis au point par les chercheurs, un nombre considérable d'informations (cinquante mille par seconde, dans certains cas) définissant les coordonnées de l'onde sonore en question ­ ces coordonnées étant transmises aux bornes d'un haut-parleur en passant obligatoirement par un appareil nommé convertisseur (« converter »), qui, dans ce sens, « convertit » les informations discontinues en un signal continu. Le convertisseur peut aussi fonctionner dans l'autre sens, celui de l'enregistrement « digital » d'un son concret, par exemple, en convertissant une onde sonore continue en informations discontinues susceptibles d'être mises en mémoire par l'ordinateur.

   Les techniques conçues par Mathews entouré de chercheurs comme Guttman, Pierce et le Français Jean-Claude Risset (qui poursuivra ses recherches en France à l'I. R. C. A. M., puis à son laboratoire de Marseille-Luminy) aboutissent à la création de plusieurs programmes, parmi lesquels Music V, qui a été le plus repris et utilisé dans le monde. Au début, on a cherché à reconstituer des sons naturels (sons de trompette, Risset), à partir d'une analyse préalable, afin de comprendre ce qui créait le timbre et la vie propre d'un son. Ces essais ont confirmé les intuitions anciennes de Pierre Schaeffer sur le rôle important joué par certains microdétails de matière, contrairement à l'opinion de ceux qui avaient voulu reconstruire tous les sons comme sommes d'harmoniques. Après quoi, on a cherché à synthétiser des sons réellement « nouveaux », ce qui pose le problème de l'inouï (illusions acoustiques, sons « impossibles », transformations « à vue », etc.). Cette direction d'utilisation de l'ordinateur est celle qui a connu le plus large développement dans les années 60 et 70, et les techniques de synthèse par modulation de fréquence inventées par John Chowning au laboratoire de Stanford, en Californie, leur ont donné un élan nouveau. Différents procédés ont ainsi vu le jour, souvent en intégrant l'acquis des recherches de Mathews et de ses collaborateurs. À côté de la synthèse « directe », dépendant des calculs lourds, on s'est préoccupé de créer des systèmes de synthèse dite « hybride », où l'ordinateur, au lieu de tout déterminer à partir de zéro, commande un synthétiseur classique analogique (programme EMS de Wiggen à Stockholm, recherches de Don Buchla et de Peter Zinovieff, programme Groove de Mathews et Moore, etc.). Cette technique hybride a l'avantage de permettre le « temps réel », c'est-à-dire une réaction immédiate, par des sons, de la machine aux ordres de l'expérimentateur, au lieu des quelques minutes, quelques heures, voire quelque jours ou quelques mois demandés parfois par l'ordinateur (surtout dans les années 60), pour effectuer son calcul et rendre son résultat ! Ce n'est pas seulement pour gagner un temps considérable, permettant un aller et retour plus rapide entre l'homme et les machines qu'on a mis au point ces techniques, c'est aussi pour retrouver un certain type d'accès aux appareils, qui reconstitue plus ou moins les conditions naturelles de production du son par des gestes, au lieu d'ordres tapés sur un clavier (système de « touches » sensibles à la variation de pression, de manches à balais, de claviers devant transmettre à la machine, sous forme d'ordres, les irrégularités vivantes du geste humain). D'autre part, on a mis au point des systèmes dits « mixtes » utilisant, pour gagner du temps et de l'espace, des sous-programmes prédéterminés, également commandés en temps réel (système VOCOM, Synclavier de Alonso, Al, et John Appleton). Il est impossible de citer tous les centres s'adonnant à ces recherches dans le monde, aux États-Unis, mais aussi au Canada (E. Regener à Montréal, Barry Truax à Vancouver), en Italie (Rampazzi), en Belgique (Küpper) et en France, où l'on peut énumérer divers centres explorant des techniques diverses, avec des équipements naturellement très disproportionnés : l'I. R. C. A. M. (David Wessel, et la machine de synthèse 4X mise au point par di Giugno), le G. R. M. (lequel développe, à côté de systèmes de synthèse en temps réel étudiés par Allouis, des techniques de manipulation, par ordinateur, de sons concrets enregistrés, mises au point par Mailliard, Geslin, etc.), le C. E. M. A. M. U., fondé par Xenakis (système U. P. I. C., où les ordres sont donnés sous forme de graphismes, ce qui met la machine à la portée immédiate de tous), le Groupe de la faculté de Vincennes et ceux qui en sont proches (Arveiller, Audoire, Englert, Battier, Dalmasso), le G. M. E. B., le G. M. E. M. (Redolfi), le Laboratoire d'informatique et d'acoustique musicale de Marseille-Luminy, attaché au C. N. R. S. et à la faculté des sciences (Risset, Arfib), l'A. C. R. O. E. de Grenoble (Cadoz), et d'autres encore, parmi lesquels des « indépendants » en nombre croissant, puisque les appareils qui permettent ces recherches sont de plus en plus accessibles.