La version de votre navigateur est obsolète. Nous vous recommandons vivement d'actualiser votre navigateur vers la dernière version.

Ecrits 2015

"L'oreille participative"

Festival "Bruit de la neige"

"Comment écrire la musique" lorsque l'instrument est amplifié, tel est le sujet principal développé ici pour formaliser et jouer des figures sonores mises en espace dans le dispositif de sonorisation.

Télécharger l'article >>

Ecrites à partir de thèmes musicaux de compositeurs célèbres, les Miniatures mettent en situation le violon électronique dans des environnements acoustiques et/ou synthétiques pré-enregistrés plus ou moins surprenants.

Télécharger le livret du CD >>

Services multimédias

DigiForm

Avant-propos

A la fin des années 1930, l'électrification instrumentale et l'amplification de la voix sont employés pour la première fois par les guitaristes et les chanteurs de jazz pour s'imposer face aux trompettes et aux trombones des grands orchestres. En enregistrant leurs premiers disques diffusés par les radios américaines, ces musiciens vont être à la base de la musique rock qui domine depuis les années 1950, tous les courants musicaux dans le monde entier. Depuis lors, les instruments électriques, l'enregistrement en studio, la diffusion par haut-parleurs et la transmission hertzienne vont sans cesse évoluer et toucher toutes les musiques.

 

Vocabulaire des Nouvelles Technologies MusicalesVocabulaire des Nouvelles Technologies Musicales

 

L'importance donnée au microphone ou au magnétophone dans le dispositif de diffusion va très rapidement créer deux types de musique: d'un côté, une musique qui se vit en direct ("live") devant le micro, de l'autre une musique enregistrée qui se projette en salle comme au cinéma à partir du support. La première privilégie l'émission instrumentale alors que la seconde favorise l'écoute. Ce pouvoir d'évocation des sons de la bande magnétique et du disque est mis en valeur dès 1948 au studio d'essai de la RTF par P. Schaeffer.

Dans les années 1960, Les Beatles puis les Pink Floyd avec Dark side of the moon (1973) vont populariser à l'échelle mondiale le groupe rock et les premiers synthétiseurs. Une lutherie électronique indépendante de la lutherie acoustique traditionnelle va se développer et s'enrichir de nombreux accès gestuels et périphériques. La création de l'interface MIDI en 1983 permet désormais un partage d'informations entre les équipements audio. Avec un instrument MIDI, le rôle du geste dans la production du son est complètement modifié. Le musicien peut ainsi jouer, pour la première fois dans l'histoire musicale, avec l'ordinateur comme partenaire virtuel et agir sur le son des autres instrumentistes avec qui il est relié.

Cette nouvelle expression musicale élargit complètement les modes de jeu connus jusqu'à présent en leur apportant des sonorités et des effets inouïs, avec des possibilités de contrôle et de traitement en temps réel des paramètres physiques.  Toutes ses possibilités de création sont à un carrefour entre les expériences des groupes rock new-wave ou d'électro-jazz, et celles des compositeurs comme L. Bério, J. Cage, M. Kagel, K. Stockhausen et d'autres qui ont renouvelé l'écriture des instruments acoustiques.

La complexité de ces partitions, les partitions graphiques à posteriori des musiques électroniques et les partitions de diffusion des musiques électro-acoustiques tout comme l'absence de partitions des musiques amplifiées confirment le bouleversement de la représentation symbolique.

Cette remise en cause de la note de musique est affirmée par P. Schaeffer dans son Traité des objets musicaux (1966) lorsqu'il formalise l'"objet sonore" avec les paramètres physiques du signal sonore. Depuis plusieurs années, l'utilisation de la bande magnétique en studio a fait découvrir la structure microscopique du son qui a aussitôt donné naissance à d'autres esthétiques.

A la suite de cette évolution, le studio personnel des années 1990 en bénéficiant des supports numériques à la place des magnétophones, des fonctionnalités incluses dans les logiciels à la place de l'hétérogénéité des périphériques permet l'apprentissage interactif de cette autre écoute et de cette autre écriture dont parlait P. Schaeffer.

La modulation électrique, omniprésente à l'écran est devenu le matériau principal du musicien. Elle atteste selon J.-C. Risset, de "l'image de cette révolution géologique, lente et irrésistible, qui modifie le paysage musical".

Aujourd'hui, on dispose  d'importantes bibliothèques de sons que l'on peut éditer, analyser, transformer ou reproduire avec des techniques de synthèse très différentes, décrites dans ce livre.

D'autre part, on découvre des phénomènes qui font mieux connaître le rayonnement de la source sonore, la propagation des vibrations, l'acoustique de la salle mais aussi le système auditif.

La limitation de notre champ auditif nous amène à repenser la valeur artistique de la scène sonore. On apprend ainsi à mettre en relief les sons émis par les instruments tout comme les images auditives créées par la chaîne stéréophonique. Les sons d'ambiance (chants d'oiseaux, pluies, bruits, etc.) sont mis en valeur pour ce qu'ils évoquent et non pour submerger délibérément l'auditeur à des niveaux de pression sans respect pour ses oreilles.

Cette justesse entre l'expression et le matériau doit nous faire prendre conscience que les technologies du son ont pris une place considérable dans les représentations en temps réel (concert, manifestation, radio, spectacle, télévision, internet) et en temps différé (cinéma, disque compact, vidéo-clip). Elles nécessitent une éducation importante vis à vis des matériels de diffusion et des musiques diffusées.

Outil de conception attendu pour gérer simultanément tous les paramètres, la station informatique intelligente multipliera sa puissance, ses informations (son, image, texte, etc.), ses capacités d'échanges et de stockage, ses interfaces et ses périphériques. A terme, l'analyse multidimensionnelle et la visualisation sur écran doivent nous procurer les outils nécessaires pour conceptualiser et réaliser des spectacles multimédias utilisant simultanément les technologies en temps réel et en temps différé.

En équipant avec des caméras et des micros les points de vue et les points d'écoute des salles de concert, on pourrait alors transmettre sur les chaînes audiovisuelles distantes les expériences les plus originales et les plus intéressantes des groupes expérimentaux. Chaque communauté de spectateurs interagissant librement avec les réseaux câblés ou avec les disques numériques figurera l'audience du spectacle interactif de l'an 2000 au détriment de la consommation du spectacle de masse.

En concevant ce vocabulaire, j'ai souhaité citer et regrouper toutes les matières qui ont un rapport direct avec la création et la représentation sonore contemporaine. Les Nouvelles Technologies Musicales incluent au sens le plus large les matériels et leur fonction, les instruments et leur utilisation, les dernières recherches et les nouveaux paramètres, les opérations de composition et les courants esthétiques. Le musicien trouvera une définition et un contexte aux noms techniques ou étrangers rencontrés dans la littérature spécialisée française ou anglo-saxonne.