Top Posters
Since Sunday
5
o
5
4
m
4
b
4
x
4
a
4
l
4
t
4
S
4
m
3
s
3
A free membership is required to access uploaded content. Login or Register.

Acoustique-2.docx

Uploaded: 6 years ago
Contributor: Zak
Category: Music Studies
Type: Other
Rating: N/A
Helpful
Unhelpful
Filename:   Acoustique-2.docx (64.35 kB)
Page Count: 1
Credit Cost: 1
Views: 166
Last Download: N/A
Transcript
ACOUSTIQUE Musicologie Ionisation : notion de bruit (sirène utilisée car glissendi pas de notes précises) John CAGE notion du hasard  Musique devient ouverte : mais notion essentielle qui reste le temps, musique a besoin de temps pour vivre. Salle anéchoïde : jamais de silence. Oeuvre silencieuse pour les interprètes mais pas pour la salle bien sûr.. Boucourechliev : système de différence qui structure le temps sous la catégorie du sonore ONDES SONORES : Perturbation locale de pression Modifier le milieu ambiant. 340m/s dans l'atmosphère  Son dans l'humidité ne se propage pas du tout de la même façon (gondoliers, Venise !) Amplitude OREILLE Tympan, Marteau, enclume, étrier, liquide, cochlée Micro = transducteur : transforme signal mécanique en signal électrique = oreille Bande passante : 20Hz-20 000Hz en deçà/au dessus : infrabasses/ultrasons Hz = période/seconde  "La sensation varie comme le logarythme de l'excitation " FECHNER Décibels : échelle non linéaire 60dB + 60dB = 63dB RUSSOLO début XXème Futuriste, idée du bruit, intonarumori, machien censées reproduire le bruit. Créer de la musique avec de sons inspirés de la ville. ECOLE FRANCAISE MUSIQUE CONCRETE SCHAEFFER : 1948 Musique Concrète : enregistrement, SON ANECDOTIQUE, bande magnétique. MANIPULER un concret sonore. Amener le concret vers l'abstrait.  FOURIER : Un phénomène périodique se décompose en une série de sinusoïdes élémentaires dont les fréquences respectives sont des multiples entiers de la composante la plus grave appellée "fondamentale". HARMONIQUES : déterminent le timbre de l'instrument (ainsi que l'attaque et l'arrêt du son : régimes transitoires) => expérience de la cloche coupée, Schaeffer enlève le son de l'attaque, on oublie que c'est une cloche (kinda hautbois) accord parfait + 7ème etc Piano préparé CAGE, idée venue par manque de moyen, tranforme les régimes transitoires, HENRY/SCHAEFFER Symphonie pour un homme seul. Nouveaux instruments. Ere électrique, Theremin. OPPOSITION DE PHASES (+1 +1 = +2 Doublement/extinction du son (+1 -1= 0) = un vibrato.  Principe très utilisé en synthèse. Invention du magnétophone à Bande AEG 1935  ECOLE ALLEMANDE MUSIQUE ELECTRONIQUE 1950 : COLOGNE Bande magnétique, invention allemande, utilisée pendant la guerre, pouvoir de la radio sur les gens, pouvoir de la qualité du son, fascination. (Le Dictateur). Son analogique (fixé sur bande magnétique).  EYMER, BEYER reprennent idée de la musique sérielle (BERG SCHONBERG WEBERN) : mathématique, en l'appliquant aux fréquences.  1ère diffusion populaire : Forbidden Planet 1956 : topos du bruit électronique dans la musique de film de science-fiction : objets sonores types. STOCKHAUSEN : Synthèse musique concrète/musique électronique ECOLE FR + ECOLE ALL = ELECTRO-ACOUSTIQUE + un nouveau paramètre : la Spatialisation "La spatialisation de la musique est aussi fondamentale au moment de l'écriture que la construction générale de l'oeuvre, que l'harmonie ou que le rythme" TALLIS : Spem in Allium pour accompagner la Reine, spatialisé. Recrée en 2001, Cardiff, hauts parleurs. REFLEXION DU SON Surface plane, angle d'incidence, angle de rélfexion => écho. Station de Solférino, Paris. Petits cubes de porcelaine blanche, son se diffuse de façon quasi instantannée, on entend plus les gens en face, que la personne à côté. Permet aux contrôleurs de communiquer facilement. REFRACTION / DIFRACTION Direction modifiée / diffusé SENANQUE : trois architectures, trois façons de chanter  SAN MARCO : deux orgues PAVILLON PHILIPS 1958, LeCorbusier : Xenakis. Concret PH + Poème électronique Varèse Vases acoustiques pour réduire la reverb ou servir de retour (Type église ou théâtres antiques) Théâtres à l'italienne + diverses architectures (Berlin, Lyon..) ________________________________ I. LE PAYSAGE SONORE/SOUNDSCAPE Janequin La Bataille 1515 Marignan : idée du "désordre", faisceaux de sons, onomatopées Définition : R.Murray SCHAEFER : The tuning o the world  Le terme s'applique aussi bien à des environnements réels qu'à des constructions abstraites tels que des compositions musicales ou des montages sur bande, en particulier lorsqu'ils sont considérées comme faisant partie du cadre de vie. Le paysage sonore est en constante évolution. Guerre 1515 / Guerre actuelle... Les environnements ruraux sont légèrement en retrait à ce niveau mais.. Contexte est fondamental pour analyser une œuvre. Photographie sonore d'un paysage qui n'existe plus. Trace sonore.  RUSSOLO Idée que notre environnement nous amène à accepter la musique contemporaine, aller au bout des possibilités d'un instrument, en créer de nouveaux : les bruiteurs : vont imiter des sons anecdotiques (paysage sonore, Réveil d'une capitale), hauteur modulable. Inspire Varèse. MOSSOLOV Fonderie d'acier  Est-ce une fin en soit, pour le compositeur de recréer un paysage sonore ? ARISTOTE : Question de la réception d'une œuvre. Plaisir = mimesis.  Distinction objet d'art/objet naturel (ce dernier évolue, contrairement à l'oeuvre qui est fixée) De plus l'objet d'art est fabriqué donc dépendant du regard de l'artiste. Supériorité, perfection de la Nature : indépendante et mouvante. Ut pictura poesis. Mais l'homme peut créer ce que la Nature ne peut réaliser : marbre/statue. Renaissance, retour à l'Antique.  XVème/XVIème/XVIIème : Théorie de l'imitation de la Nature. La musique est à même de peindre/décrire les phénomènes physiques sonores d'un environnement concret. XVIIIème : Idée de l'artiste, décrire aussi ce que l'on entend pas, ce que l'on voit # réalité. Rigueur de la Nature (jardins à la française). Il ne s'agit pas de copier mais de transfigurer les modèles, d'en capter le concept, l'essence. Imiter ce que la Nature ne dévoile pas. Ex : « lever du soleil » « ailes de Mercure ». Dévoiler la Nature véritable, au delà de la Nature apparente. Trémolo, descente de gamme : orage. C'est la nature qui donne à l'art ses modèles, proportions formes idéales de la pensée divine. DeVinci REJET DE LA MIMESIS : HEGEL Esthétique Imitation, notamment en musique ne doit pas être une fin en soi, si la fin est d'approche le plus fidèlement le modèle, il n'y a pas de création, pas de vie.  Pour créer l'on a besoin d'outil, il limite le moyen d'action. Refaire est un travail superflu, si la finalité de la création artistique était d'imiter la Nature alors l'Art serait inutile. De plus, la copie sera toujours inférieure au modèle. L'imitation s'intéresse aux apparences et non, à la vie interne, à l'essence, elle ne peut donc être qu'une caricature. Hegel ne condamne pas la mimesis, mais montre que celle-ci ne doit pas être une fin en soi. L'art doit saisir ce que la Nature ne montre pas, ou ce qu'elle montre de façon fugitive. Murray Schaefer : « L'Homme fait écho au paysage sonore dans son langage et sa vie » II.L'ENREGISTREMENT DU SON Enregistrer : transformer un signal acoustique en signal électrique Ne remet-il pas en cause la pertinence de la reproduction d'un paysage sonore en musique ? Même question soulevée par la photo au moment de son apparition : réaction d'alors : Impressionnisme, Fauvisme, puis Cubisme etc...trouver d'autres points de vue sur le monde. Rabelais Les paroles gelées, sons de bataille gelées et quand le printemps arrive ça se dégèle et revient. Proto-idée d'enregistrement ! Et Schaeffer s'en inspire pour faire les paroles dégelées. L'enregistrement sépare le son de sa source Sortir le son de son contexte. ECOUTE REDUITE : écouter un son pour ce qu'il est en faisant abstraction de sa provenance réelle ou supposée et du sens dont il peut être porteur. Transducteur acoustique => mécanique acoustique => électro-magnétique acoustique => numérique Mécanique Phonautographe 1857 Scott de Martinville Enregistre un son et celui-ci est transcris sur papier, mais ne peut être ré-écouté, par conséquent. Reproduction graphique du son. Phonographe 1877 Edison Sur rouleaux de cire et l'on peut écouter le son, les rouleaux deviennent des disques, 2 minutes de son. Gramophone 1888 Berliner Son peu propre, se raye... Electromagnétique Magnétophone 1939 Polariser grâce à un électroaimant les particules métalliques magnétiques d'un support souple en ruban, défilant à vitesse constante sur la tête. Meilleure qualité de restitution du son, précision dans le montage, on va pouvoir couper des bandes au millimètre près et les assembler (objets sonores composites). Idée de mettre à égalité son enregistré et orchestre : Varèse Déserts procède par interpolation. 1Ère œuvre mixte. Crée énormément de remous dans les consciences, scandale dans l'histoire de la Musique. Puristes disent que ce n'est pas tout à fait une musique mixte car les sons enregistrés ne se mélangent pas avec l'orchestre.  Au départ, un film devait aller avec, présentant divers déserts (sable, glace, ciel...), mais aussi désert intérieur, solitude Idée de mettre à égalité son enregistré et orchestre  : Varèse Déserts procède par interpolation. 1Ère œuvre mixte. Crée énormément de remous dans les consciences, scandale dans l'histoire de la Musique. Puristes disent que ce n'est pas tout à fait une musique mixte car les sons enregistrés ne se mélangent pas avec l'orchestre.  Au départ, un film devait aller avec, présentant divers déserts (sable, glace, ciel...), mais aussi désert intérieur, solitude. SEANCE 3 KERTESZ série nus «  distorsion  », prises devant des miroirs déformants. Représentation de la réalité. Jean-Claude RISSET «  Sud  » oeuvre de 1985, commande du ministère de la culture. Enregistrée au GRM. Idée de confronter le monde anecdotiques et le monde du son de synthèse. Outils du GRM  : filtres. (déjà utilisés à Cologne) mais améliorés. Sons de mer. Sons des calanques marseillaises. Comme en musique concrète. Placer le micro à un endroit précis c'est déjà un choix compositionnel. Mixage après décalage temporel => si on ajoute un son (>< pas de hauteur) sa copie décalée de 2ms, certaines fréquences vont être renforcées et d'autres atténuées (opp phases) Filtre en peigne  /!\ importance du micro Paysage sonore et cinéma Murray Shaffer  : Soundscape fait différence entre HI-FI (campagne) et LO-FI (ville) HI-FI  : rapport signal bruit est satisfaisant  : niveau sonore optimal, perspective, sons ne se chevauchent pas. Panoramas plus vastes. Lo-Fi  : signaux acoustiques individuels se perdent dans une surpopulation de sons distance abolie, seule reste la présence. Luc FERRARI  : sans transition lo-fi / hi-fi Superstrada n°2 1, autoroute 2, campagne 3, réflexion mains (pensée  , rappelle VARESE idée de mettre pensée en musique) => lien avec cinéma  : transitions Jacques TATI personnage M.HULOT Trafic   scène de carambolage  musique//cinéma  : temporalité sons anecdotiques renvoient image mentale individuelle # cinéma (image sont les mêmes pour tous) Musique de FERRARI  : «  cinéma pour l'oreille  » Expérience d'enlever l'image 1930  : Walter RUTTMAN  : «  week end  » (cinéma parlant a  3 ans Le chanteur de jazz  ) film car pellicule de cinéma et projeté  MAIS pas film, musique car  : diffusé à la radio, écran noir Finalement RUTTMAN monte son paysage sonore, en avance sur Pierre SCHAEFFER  : montage de son. Travail sur la perspective. Plan séquence (scène sans montage, peut durer longtemps) Marqueurs sonores  : balise par le son , sa narration. TATI  : Playtime crée décalage entre son et image. 1967. Son fondamental chez TATI. Mise en avant de plans sonores non cohérents avec image ou mise en avant du plan sonore de façon disproportionnée (proche entendu loin etc)  . Perturber nous réflexes son/image (pas couloirs,le paysage porte qui ne claque pas) Post Production sonore => recréer par le bruitage le paysage sonore de la scène Contrôle sur la matière sonore(FELLINI) Mettre sons en valeur Doublage (seules les voix changent, pas le paysage sonore) Compenser les manques des micros Bruiteurs, banques de son. Wilhelm scream  : 1951 homme croqué par alligator. Studio, homme crie. Cri archivé, Warner. 70s BURTT, soundesigner des SW va redécouvrir ce cri et  : partout T_T 1er entièrement post synchronisé  : Steamboat Willie 1928 (parodie de Buster Keaton!) Film générique  : Ennio Morricone Il était une fois dans l'ouest au début pas de musique  : bande son composée comme musique concrète MODELE  Objet d'imitation, archétype. PB  : sons qui disparaissent  : modèles qui disparaissent (métiers, animaux etc..) => paysage sonore modifié, perdu. Schafer  : idée de préservation du son, enregistrement éco-musicologie Souvenirs sonores MACHE  : Korwar pour clavecin et bande enregistrée intérêt pour la précision du son, incisif, violence de ce son si amplifié «  Il s'agit pour l'auteur de brouiller le tracé des fron idée du cantus firmus. Partie enregistrée est composéve de sons ayant en commun leur précision et rythmes transcriptibles voix => langage Xhosa, tribu en voie de disparition, percussif, clics, phonèmes  : afrique australe, clavecin + porcs en rut  Utilisation du clavecin comme percu, imbrication objet brut et instrument.. Ambiguïté  : son enregistré est instrument ou c'est la bande son qui joue  ? «  la crudité des voix animales est volontairement soulignée car le réalisme est extrême plus on est proche du fantastique  » Cours 3 : Acoustique 3                 Précédemment, dans Acoustique 2 : -        Steve Reich découvre le déphasage. -        On a écouté un truc bizarre (It’s gonna rain)   MUSIQUE REPETITIVE : - Steve Reich - Philipp Glass - Terry Riley   Répétition de motifs souvent très brefs, très courts, qui peuvent être rythmiques, ou mélodiques. L’idée est de progressivement créer des micro-transformations afin de ne pas ennuyer l’auditeur (on croit que c’est pareil mais l’oreille capte d’autres choses qui diffèrent de ce qui a été entendu).             On transforme la cellule ; transformation de la perception de cette cellule.               In C, de TERRY RILEY. Cette œuvre n’est jamais la même. Opposition à la musique sérielle, au courant américain de l’indétermination de J. Cage ; ici c’est quelque chose d’organisé.             Aspect intellectuel et conceptuel de la musique inexistant ; là on est face à la perception de l’auditeur : retour tonalité, à quelque chose de structuré.                 Soren Absalon Larsen (1871-1957), aussi un nom de chat Il découvre par hasard l’effet larsen. On a un haut parleur, relié à un micro. Quand une source rentre dans le micro, elle ressort amplifiée par le HP. Si le micro est face au haut-parleur, ça produit une boucle. Quand le micro est à proximité d’un amplificateur (émetteur d’un signal), => boucle. Elle sera retransmise au micro, qui le renverra, etc. le signal augmente progressivement, jusqu’à endommager l’amplificateur. Un jour, Steve Reich (qui va l’utiliser) décide, en trouvant un micro, de le faire tourner comme un lasso, et décide d’en faire une œuvre : Pendulum Music (1968). Ça se joue à plusieurs : chaque musicien prend un micro et s’amuse à lancer le micro autour du HP, ça fera un ensemble de signal. Jusqu’à ce qu’ils s’arrêtent ; en ralentissant le larsen est modifié. ECOUTE : Pendulum Music : les variations sont progressives ; les 4 musiciens nécessaires à la performance les lâchent et les micros ondulent comme un balancier, puis ça fait bizarre. Y a un moment où ça fait chier.   DIFFERENCE : Son analogique / numérique (son du disque, son dont les vibrations sont analogues au son originel, aux variations de pression que le son provoque. La synthèse analogique, c’est créer des sons, consiste à utiliser le signal électrique comme source principale à l’élaboration d’un son,  et non pas le calcul).   On avait vu le thérémin, les ondes Martenot.   Ainsi, on a le Trautonium, rendu célèbre par Oscar Sala, en 1930. Système de pédale qui contrôler le volume, et le son est modifié par des filtres. L’instrument est aux firmaments de la synthèse soustractive. Alfred Hitchcock l’utilisera pour Les Oiseaux (tous les sons réalisés par Sala sur ces instruments). BANDE-ANNONCE : Hitchcock, Les Oiseaux. Réalisation avec l’instrument.               1959 : Le centre de musique Columbia, de Princeton créé le RCA Mark II. Il comprend plusieurs oscillateurs. Chacune de ces machines est capable de générer des bruits blancs, roses (filtrés). Le II est à filtres, générateurs de bruits, mixeur… un véritable instrument de musique avec lequel on peut enregistrer en direct.             La 1ère musique avec ce synthétiseur : Milton Babbitt (1916-2011) : Babbit synthetiser (ECOUTE).               Max Matthews. 1957 ; il va travailler au laboratoire Bell Laboratories, d’abord dédié à la communication, qui fit naître le rayon-laser. Il va mener des travaux sur l’ordinateur, les premières machines et les 1ers sons : il créé la synthèse sonore avec ordinateur. 1958 : on entre dans le son codé, grâce à Mr. Guttman, avec Pitch variations (ECOUTE). Fin : on a un truc qui ressemble à la voix humaine (-> synthèse de la voix). L’IBM 704, le 1er ordinateur. Matthews va utiliser la thèse de Claude Shannon (1916-2001) ; les 1ers convertisseurs analogiques numériques : La fréquence d’échantillonnage doit être égale à au moins 2 fois la fréquence à échantillonner(polycop’) : 1ère chose : on prend un signal, et on le décompose en points définis.             Echantillonnage : l’ordinateur prend des points dans le son et retranscrit ces points. Si y a pas assez de points. Au moins deux fois : pour pouvoir prendre les sons graves et aigus, on x2 les échantillons ; le maximum perçu par les gens = 20.000 Hz, donc on aura 40.000 échantillons, et par sécurité on prend 44,1 Hz, le format connu de tous.             Quantification. Il se peut qu’à un moment donné, les deux points.               Echantillonneur, ou sampler, est l’instrument capable d’assigner avec une touche un son numérique. Ca enregistre des échantillons, et permet de les jouer via un clavier à hauteur du visage.               _____________________________________              CITY LIFE               Steve Reich créé City Life (1995). Il n’a rien inventé (y a des références à la vie urbaines; notamment avec des sons illustrant ceci) : déjà créé dans Un américain à Paris (Gershwin, 1er mouvement : klaxon, vie rapide, loufoque ; il insère dans son orchestre), et Le mandarin merveilleux (Bartók, qui dira : « au début, avant même le lever du rideau, je voudrais que l’introduction très courte rende l’effet d’un grand vacarme, d’un fracas épouvantable, d’une cacophonie de klaxons »)             City Life va au-delà de la vie urbaine : Steve Reich relie son expérience de la vie à ce qu’elle est politiquement, lat. politicus, soit critique, et civilis (citoyen de la cité). Politique et civisme sont étroitement liés. 1968 assassinat de Martin Luther King. City Life c’est l’évocation sociétal de la ville, et également l’évocation de la ville.             Paysage trépidant, et politique de la ville.             18 instruments, 2 échantillonneurs cachés derrière le piano. Ils vont émettre klaxon, bus, transports en commun, voix, etc.               ECOUTE : City Life (I/III). On a cinq mouvements, qui va adopter une forme en arche.             I = Choral. Il décide de pas commencer direct ; ce choral va encadrer l’œuvre, avec son contrepoint. Il termine donc l’œuvre. Distinction : le reste = imitations entre sons enr. / sons joués à l’orch, musique répétitive. Musique avec cordes, importance du silence.             III = Il est au centre de l’œuvre. Il va utiliser des slogans américains qu’il a enregistré à NY : it’s been a honeymoon, Can’t take no more -> on n’en peut plus ! Mise en musique du mouvement politique, manifestation. Paysage sonore témoin des combats de son époque. Le sampler permet de répéter autant de fois qu’on veut les sons désirés. Le son est martelé, se confond (on ne sait plus qui joue quoi ; ça transcrit la détermination des manifestants. Peu à peu les slogans se perdent, car on ne les entend plus, et c’est aussi ce qui se passe dans une manifestation.             I = recours à la vois d’un camelot (quelqu’un qui vend de la camelote) : Check it out ! (viens voir !). Steve Reich extrait du slogan le rythme, des notes : la formule va être utilisée dans une musique minimaliste pour un tissu contrapuntique. Puis variations. La musique prolonge donc le mot : elle le prend, l’insère dans le tissu orchestral, et les cellules vont se décaler et en constituer la trame.             I = Check it out ! Sons de voitures qui klaxonnent, avec un tssssskssssss (pression ?) On a un semblant d’harmonie par rapport au III.               Steve Reich considère les sons comme des instruments. Il réalise un propos à la fois musical et politique.             Conclusion : Table sonore de la ville de NY, mais aussi le mouvement, la vitesse, l’agitation (une ville comme NY bouge tout le temps, ça ne s’arrête jamais). Traduction du mouvement perpétuel, mouvement humain, mécanique. On retiendra l’engagement politique du compositeur, qui s’inscrit à la fois de son paysage sonore et de l’Histoire de son pays.               _____________________________                Comment les compositeurs s’approprient-ils du paysage sonore ?               PHONOGRAPHIE : ressemble à la photographie.               Définition : Composition électroacoustique élaborée à partir de sons anecdotiques, d’enregistrements de paysages sonores, et présentée telle quelle comme une carte postale sonore, une photographie sonore.             Son anecdotique : Son relié dans sa perception à une réalité concrète (son non-réalisé à partir d’une machine), réalité à laquelle il reste attachée.               Photographie. Les gens vont chercher à faire quelque chose de réel. Début XIX, ils veulent représenter au maximum la réalité. La photographie aura un immense succès. La diffusion de la photographie va poser la question de la représentation du réel.              Cézanne va créer La maison du pendu, où il va convoquer la couleur, un moyen de contourner la couleur et d’offrir une vision personnelle. Il connaissait la région d’Aix (ses nombreuses peintures de la Ste Victoire).             Picasso va proposer une nouvelle approche de la peinture : les demoiselles d’Avignon, et le cubisme, ses différentes facettes de la réalité. Recréer, est-ce vraiment créer ?             4’33 : c’est de la réalité sonore.               Man Ray fera une photo de nue d’une fille de dos, avec les ouïes. Les photographes vont trouver des solutions pour permettre à l’art de devenir un Art.             Il faut jouer et se jouer de la réalité (Kertesz, et sa femme étirée).                 Comment les compositeurs vont se sortir de ce bourbier ?   -        En jouant avec le paysage sonore. Un jour, Georges Bœuf (1939) contacté pour refaire la Grande Galerie du Musée National d’Histoire Naturelle. Il a fallu réaliser des choses, les contraintes que cela pouvait endurer : le temps, et la musique. Temps = réduire en 3 heures une journée sonore de 24 heures ; sachant que c’était un musée (avec galeries et tout), tout cela est relié avec des scientifiques. Ex : dans la Nature, « tel oiseau se réveille avant tel autre », et avant tel autre, etc. Réduire en 3h une journée c’est dur. La Musique, et la collecte des sons : recherche des banques de sons de films animaliers des années 70, car impossible d’avoir des financements pour aller en Afrique. Et il fallait une œuvre musicale, pas perçue comme composition, mais comme illustration. Et le lever du jour aussi, problème ! ECOUTE : Le lever du jour (Ravel). Georges Bœuf propose Le Lever du Jour. Sons enregistrés d’oiseaux, de Nature qui s’éveille, couleur chaude, tropicale (bois), puis animaux, soleil (cordes). Puis blanc, et bois, les gazelles qui galopent, impression de mouvement, que quelque chose se passe, et que tout est réveillé.   Luc Ferrari (1929-2005). Terme de « phonographie » employé la première fois chez lui. On peut parler de photographie sonore, de réaction esthétique avec Ferrari au disciple de Schaeffer. Sa 1ère idée était de ne plus reconnaître le son anecdotique (pour Schaeffer). Musique acousmatique (musique dans le noir) et écoute réduite : les deux sont refusés par Ferrari. Il est tellement réactif qu’il dit clairement ce qu’il est en train d’enregistrer (cf. journal intime) dans ses pièces Presque Rien. ECOUTE : Presque Rien n°2 (Luc Ferrari). Ici, le bruit d’oiseau a été utilisé plusieurs, alors qu’il ne l’a utilisé peut-être qu’une fois. Dans tous les cas, il parle pour dire ce qu’il entend, carrément, dans cette œuvre. ECOUTE : n°1 : Y a un âne, on se trouve dans une sorte de ferme. On est toujours guidé par un bruit de fond, un bruit de sonnette… Ferrari nous met sur la piste d’un paysage sonore, il est témoin d’un paysage sonore qu’il reconstitue à partir de bribes.    Jean-Claude RISSET (1938) C’est l’un des premiers à avoir créé le son de synthèse. C’est quelqu’un qui a travaillé sur la façon de travailler sur les paradoxes sonores, des sons qui descendent tout le temps. Il va essayer de recréer des illusions sonores, surnommées paradoxes sonores. Ainsi, ECOUTE : LITTLE BOY : Fall (1982), le même nom que la bombe atomique utilisée à Hiroshima en 1945. En 1985, on lui demande (le ministère de la musique) de réaliser un truc au GMEM. C’est une des premières fois qu’il va travailler avec du son anecdotique, mais comme il a une bonne culture, il va essayer de mettre en relation les sons anecdotiques et les sons synthétisés : il confronte le monde sonore et la synthèse sonore. Le filtre passe-bas consiste à prendre la partie grave du son. Le filtre passe-haut ‘’        ‘’      ‘’        ‘’ ‘’      aigüe du son. Le coupe-bande où on prend les extrêmes supérieurs. Le passe bande où on prend la tranche intermédiaire. ECOUTE : Calanque Marseille Veyre. Filtre 1 : filtre passe-haut. Filtre 2 : filtre coupe-bande. Filtre 3 : filtre passe-bas. Filtre 4 : filtre passe bande. Acoustique 4 :                   LMA : C’est un endroit assez protégé. Gens sympathiques, mais ils font des recherches ; une fois qu’on est rentré. LMA, Rue Joseph Aiguier.               KERTESZ (tableau). Femme nue transformée par la glace déformante.               Sud : Commande du ministère de la Culture, compositeur = Jean-Claude RISSET. Commandée au GMEM. Historique : il y a le souci d’enregistrer le son : Risset veut confronter le monde anecdotique avec la synthèse. Il va découvrir les filtres, Photoshop. Il place le micro (démarche du compositeur), et voilà.             Il va découvrir le mixage à pré-décalage temporel : si on ajoute un son et sa copie décalée de 2 demi-secondes, certaines fréquences vont être renforcées, et d’autres atténuées => Filtre en peigne (ECOUTE). Il va découvrir le filtre programmable : motif de la mer + version filtrée (ECOUTE). ECOUTE : Sud (Dialogues). Hésitations perceptibles. Complexe. Recherche avec sons anecdotiques.        NIOU CHAPTèRE : Le paysage sonore et cinéma...                Raymond Nurein-Schafer fait une distinction entre le Hi-Fi et Lo-Fi :  Hi-Fi : paysage de la campagne, chaque son peut être perçu dans lequel il cohabite. La campagne + hi-fi le jour, y a pas les hélicos, la perspective existe, y a beaucoup de choses. Lo-Fi : paysage rural, ville. Sons faibles, et sont masqués par les bruits de la ville. La ville réduit la perception ; les signaux acoustiques individuels se perdent dans une surpopulation de sons (BROUHAHA, saleté). Dans le Lo-fi.   LUC FERRARI (Superstrada). Il reçoit une commande, et sélectionne parmi des échantillons qu’il a, avec les sons anecdotiques. Ce sont des pièces radiophoniques pour la radio de Berlin. ECOUTE : Superstrada n°2. On a 3 séquences : I = autoroute. On passe sans transition à II = + campagnard. Et III = réflexion/dialogue à un autre. Pourquoi ? Qu’est-ce qui permet de faire ce genre de choses ? LE CINEMA (TADAAAAAAAAA !!!).   Cette façon de coller = assez cinématographique. On peut aussi décider de ne pas en changer     Jacques Tati (1907-0982). C’est Mr. Hulot. Il créé Trafic (1971), avec une scène de carambolage. On retrouve l’histoire de Hi-fi et Lo-fi. VISIONNAGE : scène du carambolage. Pendant toute la suite de l’accident, y a les oiseaux qui chantent. Le vioc monsieur semble chercher le son Hi-Fi… lol              Quel est le point commun entre cinéma et musique ? Ça se définit dans le temps. Le cinéma, comme la musique, nous impose une structure temporelle.               Le son anecdotique nous renvoie à des images. Nous n’avons pas tous les mêmes images.             Dans la musique de Ferrari, on l’appelle « Un Cinéma pour l’Oreille ».  Et si on garde que la musique et pas le film ? Walter Ruttmann (1887-1941), en 1930, un cinéaste, décide de faire un film qui s’appelle Week-End : IL N’A PAS D’IMAGE ! ON VOIT UN ECRAN NOIR.             C’est un film : il utilise une pellicule, donc film, et parce qu’il est PROJETE dans un cinéma.  A Berlin.             C’est de la musique : il sera diffusé à la radio.             Ruttmann est en avance sur son temps : il fait comme va faire Pierre Schaeffer, mais sur une pellicule de film. L’idée : remplacer l’image par le son ; il va les choisir par leur pouvoir évocateur. Et c’est à chacun de nous de nous faire notre propre film.   FILM : On a un bouillonnement de ménage industriel, plans très serrés. Et des plans plus longs, de repos, où on a les plans à la campagne. On a des plans très rapprochés, lourdeur, pression ; et campagne c’est bisounours à côté.               TATI fera le contraire de Ruttmann, avec Playtime, le temps des loisirs (1967) : soit on entend ce qu’on devrait pas entendre (des fois des trucs foireux), parfois surexposés, soit ce qui est proche on l’entend loin et loin est près.             Dans Playtime c’est ouf. 1. Dans un « film », on devrait voir le mec du fond arriver sonorement petit à petit. 2. Une porte qui claque qui ne claque pas. Mélange langue.             Tati va essayer de lier l’image et le son, reconnaissable grâce au personnage de Mr. Hulot, personnage emblématique. Les dialogues sont dans la quasi-totalité incompréhensibles, et le paysage sonore pas toujours en phase avec ce qu’on voit.             Le son se fait dans la post-production : on recréé, par le bruitage, son enregistrement et sa synchronisation, le paysage sonore de la scène. Le son est retravaillé en studio : on a 2 bandes : l’une où y a le paysage sonore, et l’autre où y a les voix des acteurs et actants.             Distribution, mixage (indépendance de la voix sur le paysage).                 1951 : Le Cri de Wihlem. Un moment donné un mec se fait bouffer la jambe par un alligator. On enregistre le son, il est archivé, et est utilisé plus tard.             1970’s : Benbertt, le créateur de bon nombre de sons des Star Wars, repère le cri dans les archives de la Warner. Chaque fois qu’il pourra le faire, il la placera dans ses films ; ce sera sa signature.               Le premier film ultra-post-production (musique/bruitage/dialogue) : Steamboat Willie avec Mickey Mousse (1928)                La musique dans tout ça ? Y a un film qui commence avec ce générique-là, c’est une musique d’Ennio Morricone, c’est fait comme de la musique concrète. Le son d’une éolienne.  Générique de Il était une fois dans l’ouest.             Exagération des bruits ; rapports avec l’image légèrement hors de propos. Bande son anecdotique !       L A  N O T I O N   D E   M O D E L E                  Modèle : ce qui doit servir d’objet d’imitation pour (faire) reproduire quelque chose. Aussi surnommé archétype.             Le paysage sonore nous offre une multitude de modèles. Et pour le musicien, il va s’agir, de l’écouter, d’en analyser la morphologie afin de mieux rendre compte de son processus compositionnel. Le problème : il y a des sons qui disparaissent, donc des modèles qui disparaissent (animaux qui disparaissent, donc sons aussi, et pis voilà, fruits, bananes).             D’où l’idée de Schafer qui définit l’urgence de protéger et propager ces sons. P2 : il explique que des sons disparaissent : le claquement de portes faites en certains matériaux, le son des rames de métro qui se ferment… etc.             Idem pour les paroles éphémères, les civilisations, les langues, etc.   ECOUTE : Continuum (Ligeti) (ressemble à Litige, ou à Tige-li).               TEXTE : François-Bernard MÂCHE (1935 - ). 1.      Il écrit Korwar (pour clavecin et bande électro-acoustique). Œuvre mixte : les deux se mélangent et se superposent. Ce qui intéresse Mâche, c’est la précision et lé côté incisif du clavecin. Il va l’amplifier pour avoir un volume sonore égal à la bande.       C’est un compositeur au GMEM. Dès ses premières années au sein de sa formation. Il va imiter les modèles naturels. Il s’agit, pour l’auteur, de brouiller le tracé des frontières, entre nature et culture, en mettant sur le même plan sons naturels (anecdotiques) et sons instrumentaux. Ça va mettre en évidence… des trucs (chier j’ai oublié le truc halala).       Il réutilisera la bande pour d’autres pièces, puis le clavecin, et d’autres trucs.       Bande : parties enregistrées qui ont en commun une précision, rythmique et mélodique, à une hauteur déterminée.       Samples : Voix, en langage Xhosa (une tribu en voie de disparition, happée par les villes). Langage très percussif (ex. : Les dieux sont tombés sur la tête). Oiseaux, grenouilles, pluie, et des ports en rut. Bruits animaux ! ho-o-o               Passage graduel vers des animo :DDDDDDDDD, et ambigüité entre instrument /              « La crudité des voix animales, est volontairement soulignée, car il m’est apparu que plus les réalisme est extrême, plus on est proche du fantastique. » ACOUSTIQUE       RAPPELS DU COURS    « L’étude du son musical n’a d’importance que parce que la musique est importante et que la qualité du son est importante en lui » J. Pierce « La musique est la science des sons, en tant qu’ils sont capables d’affecter agréablement l’oreille » J.J. Rousseau « Mon but a toujours été la libération du son et d’ouvrir largement à la musique tout l’univers des sons » E. Varèse Ionisation (1933), ensemble de percussions « La musique est un système de différence qui structure le temps sous la catégorie du sonore » A. Boucourechliev « La spatialisation de la musique est aussi fondamentale au moment de l’écriture que la construction générale de l’œuvre que l’harmonie ou que le rythme » K. Stockhausen   -         John Cage introduit la notion de hasard dans la musique : Imaginary Landscape -         Un son musical est un son avec une hauteur déterminée. Il est périodique. Le nombre de périodes en secondes va déterminer la hauteur du son (Hertz). Le nombre de périodes par secondes définit la fréquence. Les périodes sont toujours répétées. -         Le bruit n’est pas périodique, c’est à dire que la courbe ne se répète pas.  -         Les ondes se déplacent à une vitesse en moyenne de 340 mètres par seconde. Elle va beaucoup plus vite dans l’eau. -         L’Oreille (Schéma) possède une bande passante qui va de 20 Hertz à 20.000 Hertz. En deçà, ce sont les infrabasses, alors qu’au dessus ce sont les ultrasons. Plus l’oreille vieillit, plus la bande passante se réduit, surtout dans les aigus.  -         Le décibel mesure l’intensité sonore. Il marche selon l’échelle logarithmique. 120 décibels est le seuil de la douleur. Pour l’exemple, la même intensité multipliée par deux ajoute seulement 3 décibels. -         L’addition de deux sinusoïdes différentes propose différentes courbes, en dent de scie, ou carrée. Le moment où les deux sinusoïdes s’éloigne, c’est ce qu’on appelle l’opposition de phase, quand le signal devient nul en s’annulant. -         Au début du XXe siècle, la peinture Italienne s’intéresse au mouvement, et va le représenter. Le mouvement est une dimension majeure à cette époque où tout s’accélère. Luigi Russolo écrit L’Art des bruits. -         Pierre Schaeffer est le créateur de la musique concrète (1948 à Paris). Elle utilise des sons anecdotiques, des sons de piano préparé, etc… Plus généralement, c’est une musique qui se fabrique avec des sons déjà enregistrés. On manipule non pas une partition, mais un concret sonore. Le compositeur va tenter de mener le concret vers l’abstrait, par diverses manipulations en studio. -         Un phénomène périodique se décompose en une somme de sinusoïdes élémentaires (harmoniques) dont les fréquences respectives sont des multiples entiers de la composante la plus grave appelée fondamental. Théorème de Fourier. Ce qui va déterminer le timbre de l’instrument sont ses harmoniques et l’amplitude qu’elles dégagent.  -         Le timbre est également déterminé par les régimes transitoires du son (le début et la façon dont les harmoniques se terminent). Le bruit blanc est composé de l’ensemble des harmoniques entendues en même temps (le bruit d’un archet de violon avant la note) : Cf. L’expérience de la cloche coupée de Pierre Schaeffer : enlever l’attaque transforme le son. Le son des instruments peut être détourné autrement : le piano préparé de John Cage, que l’on retrouve dans la Symphonie pour un homme seul de Pierre Henry. -         Le XXe siècle ouvre les nouveaux instruments : Russolo et les bruiteurs, le thérémin ou encore les ondes Martenot. -         Invention du magnétophone à bande AEG (1935) -         Studio de Cologne, deuxième école en 1950 ; l’Allemagne est le premier pays à disposer de la bande magnétique. C’est la musique électronique, qui essaie de reprendre les idées de la musique sérielle (Eimert et Beyer). -         Stockhausen réalise la synthèse entre la musique concrète et la musique électronique (Le Chant des Adolescents) ; on parlera de musique électroacoustique. De plus, il met en jeu la spatialisation de la musique (Acousmonium, formation carrée, hélicoptère) -         Spatialisation déjà existante avant : Spem in allium de Thomas Tallis. Dans la réflexion du son, l’angle d’incidence est égal à l’angle de réflexion. La réfraction modifie le son, la diffraction propage le son en différents rayons. -         De Pythagore au tempérament égal.                                   ACOUSTIQUE Musicologie          SEANCE I    INTRODUCTION   Il s’agit de savoir si les compositeurs se sont intéressés au paysage sonore avant que ce dernier puisse être enregistré.   à La Bataille – Janequin Janequin souhaite imiter les bruits de la bataille, qui se rapporte à la Bataille de Marignan (1515) pour le roi François 1er. Plusieurs éléments permettent cette imitation, que ce soit dans le désordre musical général ou les différentes onomatopées.    Raymond Murray Schafer va être à l’origine du concept de paysage sonore (Soundscape). « Le terme s’applique aussi bien à des environnements réels qu’à des constructions abstraites telles que des compositions musicales ou des montages sur bande, en particulier lorsqu’ils sont considérés comme faisant partie du cadre de vie » The tunning of the world. Le paysage sonore est en constante évolution. Pour reprendre l’exemple de Janequin, les bruits d’une bataille au XVIe siècle ne sont pas les mêmes qu’au XXe siècle. D’autre part, de nouveaux sons apparaissent dans l’histoire. « La vie antique ne fut que silence, c’est au XIXe siècle seulement qu’avec l’invention des machines naquit le bruit, {…} l’art musical rechercha d’abord la pureté limpide du son {…} aujourd’hui l’art musical recherche des amalgames de sons les plus dissonants {…} la machine créé un si grand nombre de bruits variées que le son pur par sa monotonie ne suscite plus aucune émotion » Russolo. Ainsi, peut-on considérer la musique de Janequin comme une photographie sonore d’un paysage qui n’existe plus. Mais Russolo n’a pas pour objectif de reproduire le bruit de la ville, mais plutôt de s’inspirer du paysage musical. Mossolov va quant à lui tenter de retranscrire le paysage sonore du bruit industriel à l’orchestre   à Fonderie d’acier – Mossolov   Mais est-ce une fin en soi pour un compositeur de retranscrire ce qu’il entend ?  Aristote explique que le plaisir provoqué par l’écoute ou l’observation d’une œuvre est dû à sa dimension mimétique. Il va distinguer l’objet d’art et l’objet naturel. Pour la nature, il va dire que l’objet de la nature évolue avec le temps, alors qu’une œuvre d’art n’évolue pas. « L’objet d’art est dépourvu de toute tendance naturelle au changement ». La nature est autonome, l’objet d’art est fabriqué, et dépendant de celui qui va le fabriquer. La nature serait ainsi supérieure dans sa perfection à sa représentation. L’art doit tenter de s’approcher au plus de cette perfection naturelle, sans que jamais celle-ci soit atteinte. L’homme en revanche peut créer ce que la nature est incapable ou impuissante à réaliser : le marbre peut devenir une statue. Cette thèse antique va être reprise à la Renaissance, et, à partir du XVe siècle, se développe la théorie de l’imitation de la nature. La musique est à même de décrire ou de peindre les phénomènes physiques sonores d’un environnement concret. Au XVIIIe siècle, les compositeurs vont s’attacher à imiter les phénomènes acoustiques sonores comme l’orage ou la pluie. Cependant, ce que l’homme voit n’est pas obligatoirement la réalité. La musique peut aussi décrire ce que l’on entend pas, comme par exemple le lever du soleil. Ce sont des paysages sonores qui n’existent pas ; ainsi il n’est pas question d’imiter ce que les yeux montrent, il s’agit de dévoiler la nature véritable au-delà de la nature apparente. Un vocabulaire musical se développe pour désigner tel ou tel élément naturel   à Platée : Orage / Hyppolyte et Aricie : Tonnerre – J.P. Rameau   « C’est la nature qui donne à l’art ses modèles. La nature, se sont les formes, les proportions idéales de la pensée divine ». L. de Vinci.  La nature n’est donc pas la réalité, l’artiste transfigure l’idéal.   A l’inverse, Hegel, contemporain de Beethoven, considère que l’art n’a pas pour fonction première d’imiter la nature.    à Esthétique - Hegel    Si la fin est d’approcher le plus fidèlement le modèle, alors il n’y a pas de création. De plus, on a besoin pour créer de différents outils qui vont ainsi limiter l’artiste. Refaire est un travail superflu, inutile. L’art serait ainsi tout aussi inutile. D’autre part, la copie sera toujours inférieure à son modèle. L’imitation s’intéresse aux apparences et non à la vie interne et à l’essence de l’objet. Hegel ne condamne pas l’imitation de la nature, mais montre que cette imitation de la nature ne doit pas être la finalité de l’art. Si l’art imite la nature, il doit saisir ce que la nature ne montre pas, ou ce qu’elle montre d’une façon fugitive.    « L’homme fait écho au paysage sonore dans son langage et sa musique » Murray Schafer     L’ENREGISTREMENT DU SON   A partir du XIXe siècle, les premières machines à enregistrer apparaissent. Cet enregistrement ne remet-il pas en cause la pertinence de l’utilisation du paysage sonore en musique ? Quand apparaît la photographie, la même problématique se pose pour les peintres. Les peintres vont ainsi tenter de représenter la réalité autrement que ce qu’elle est.    L’enregistrement et l’écoute d’un son sont aujourd’hui des éléments communs. Bien avant que l’on puisse enregistrer le son, des idées germes. Dans Pantagruel, Rabelais gèle les paroles de ses personnages qui sont emprisonnées jusqu’à la fonte des neiges. Pierre Schaeffer s’inspire de ce texte pour écrire Les Paroles dégelées (1952). L’enregistrement sépare le son de sa source. Le son ne pouvait pas exister si l’on ne se déplaçait pas pour entendre ce son. Ainsi on capture le son et on le sort de son contexte. On l’écoute pour ce qu’il est, en faisant abstraction de sa provenance réelle ou supposée, et du sens dont il peut être porteur : c’est le principe de l’écoute réduite, principe qu’utilisera Pierre Schaeffer dans la musique concrète. L’enregistrement est une opération qui consiste à transformer un signal acoustique, une onde produite par les vibrations mécaniques, en signal électrique. L’enregistrement mécanique représente les premiers enregistrements. Le Phonautographe, inventé par Édouard-Léon Scott de Martinville en 1857. L’appareil dessine le son sur du papier, sans que le son puisse être réentendu. Thomas Edison invente en 1877 le phonographe. Avec le même principe que le premier appareil, le son va cette fois-ci pouvoir être réentendu, à moins de deux minutes. Enfin, Émile Berliner invente le Gramophone en 1888. L’enregistrement électromagnétique, sur magnétophone à partir e 1939, permet d’enregistrer le signal sur une bande magnétique en le reproduisant aussitôt, et de meilleure qualité. La bande magnétique autorise une précision dans le montage du son. On va pouvoir couper et coller précisément des bandes entre elles pour créer des objets composites (successifs), ou composés (superposés). L’enregistrement numérique est le moyen technique le plus récent.   Varèse est le premier compositeur qui va vouloir mettre à égalité l’orchestre et l’enregistrement. Déserts, œuvre mixte, procède par interpolation. On entend à la fois des sons enregistrés et des sons instrumentaux joués en direct. Cependant, à aucun moment la musique électroacoustique se mélange avec la musique d’orchestre, c’est pourquoi certains ne considèrent pas véritablement cela comme de la musique mixte ; Stockhausen prend le titre avec Kontakte, musique pour piano percussions et bande magnétique. Au départ composé en conscience filmique, cette œuvre représente plusieurs déserts, celui de sable, celui en psychologie.          SEANCE 2    Edgar Varèse (1883-1965) – Deserts (1954)   « Les Déserts dans l’esprit de l’homme » Varèse   On remarque que le titre est au pluriel. Varèse explique qu’il parle des déserts de la nature, le sable les rues vides, mais également le désert de l’être humain, la solitude. Au départ, cette œuvre devait être une musique de film. Le film n’a pas pu se faire, mais en 1994, l’ensemble moderne de Frankfort a commandé à l’artiste cinéaste Bill Viola la vidéo de la musique. On voit dans la vidéo des déserts physiques de la nature, mais également un homme respirant la solitude. C’est la traduction de la traversée du désert, solitude subie par le compositeur, assez souvent mis au banc par la société, qui n’a pas compris sa musique. Dans le sens propre, Varèse va passer 15 années au Nouveau-Mexique.    à Documentaire sur Varèse Pierre Schaeffer et le Groupe de recherche musicale du service de la recherche de l’O.R.T.F, série de petits films sur des compositeurs. Xenakis explique que Varèse ne s’insère dans aucune école du XXe siècle. « C’est un architecte du son ».    à Edgard Varèse – J. Cage   John Cage en quelques citations « Un son est un son, pour s’en rendre compte, il faut mettre un terme à l’étude de la musique ». On voit l’idée de refuser toute organisation musicale, carcan dans lequel le son ne peut pas apparaître naturellement. « - Qu’avez-vous inventé ? - La musique, pas la composition ». Composer c’est faire des choix. John Cage refuse de composer et d’organiser le discours musical en imposant des déterminations artificielles au son.  « Grâce au silence, les bruits entrent définitivement dans la musique, et non pas une sélection de certains bruits ». Le silence élargit le domaine musical, car un silence est chargé de son « J’écris pour entendre, je n’entends jamais pour écrire ensuite ce que j’entends ». Refus de l’imitation. Vivre le son. « L’intention la plus noble est d’en avoir aucune »   Pour comprendre le texte, il faut le situer dans un contexte. La première moitié du XXe siècle est le théâtre de changements rapides.  -         En 1911, la musique atonale arrive avec Schönberg.   -         En 1913, le Sacre du printemps de Stravinsky ; parution du manifeste de Russolo sur l’Art des Bruits et l’utilisation des sons périodiques.  -         1916, le groupe des six qui se réunissent autour de Jean Cocteau, et prennent en modèle Éric Satie (Darius Milhaud et la polytonalité, Honegger, Poulenc, Germaine Tailleferre, Louis Durey, Georges Auric).  -         En 1923, Schönberg pensait renouveler la musique pour cent ans avec la musique Dodécaphoniste.  -         1933, Ionisation, première pièce Occidentale pour percussions uniquement.  -         1948, la musique concrète à Paris.  -         1950, la musique électronique à Cologne. La même année, les séries intégrales avec Boulez.  -         1953, la notion de hasard avec 4,33 de John Cage.   Cage reproche à Varèse d’appartenir au passé. « Dans l’histoire, Varèse apparaît parfois comme une figure du passé, et parfois aussi comme une figure active au regard des nécessités présentes ».  La structure générale de Déserts est très rigide. -         Orchestre -         Interpolation : Sons enregistrés (Bruit d’usines) -         Orchestre -         Interpolation : Sons enregistrés (Percussion) -         Orchestre -         Interpolation : Sons enregistrés (Bruits + Sons d’instruments) -         Orchestre A aucun moment l’enregistrement et l’acoustique se mêlent. On se pose la question de savoir par conséquent si c’est la première musique mixte. En tous cas, c’est la première fois qu’un compositeur va confronter dans une même œuvre un son enregistré avec une écriture orchestrale.  Mais John Cage là aussi va critiquer son insertion d’interpolations « Son utilisation de la bande n’est pas pertinente non plus car dans déserts il essaie de faire sonner la bande comme un orchestre et vice-versa, démontrant une fois encore son manque d’intérêt pour les différences naturelles des sons et préférant leur donner à tous sa signature unificatrice ». En 1952, Varèse commence à enregistrer dans des usines aux États-Unis. Par la suite, Pierre Schaeffer va lui proposer de les réaliser dans le cadre des studios français avec l’aide de Pierre Henry.    à Écoute : Fin de l’intervention orchestre & 2e interpolation Il n’y a pas de rupture entre l’orchestre et le son enregistré ; on a une continuité dans la musique. L’idée de Varèse est de mettre sur un pied d’égalité entre les deux types de sons. On remarque l’importance que Varèse donne aux percussions. Sa musique instrumentale évolue en tant que plans opposés.    à Vidéo : Répétition de Déserts par Bruno Maderna On cherche la précision du geste instrumental, la recherche du son par l’utilisation des matériaux, la rigueur des effets musicaux. L’écriture musicale est stricte, même si elle n’est pas fondée sur le choix d’une série ou d’autres éléments formels. La composition est la recherche de ce que font les sons entre eux « Varèse définit la musique comme du son organisé ».   Varèse ne laisse que très peu d’informations sur la genèse de ses œuvres. Ce qui est important, c’est la perception de l’œuvre et non pas l’analyse intellectuelle.    à Écoute : Début de l’œuvre Une seule note, le Sol, évoluant à travers l’orchestre en matière de sonorité. (Cf. Musique sur une seule note – Celsi   à Écoute : Dernière interpolation   Après la création en 1954, il y a eu une véritable émeute, la critique l’assassine.  A la création du film en 1994, Messiaen va comprendre le public et parle de la brutalité de l’œuvre.     La notion d’Accident   Pierre Schaeffer découvre la musique concrète par accident, avec le prototype du sillon fermé, disque rayé qui diffuse la musique en boucle. Le son isolé de ce que précède et de ce qui suit créé une dimension de fascination ; il va perdre toute sa fonction musicale et sort de son contexte. La cloche coupée, deuxième expérience de Pierre Schaeffer est aussi un accident. De même, la troisième expérience, la transposition, est un accident également. Ces accidents vont être exploitées pour la recherche musicale.   Un accident aux États-Unis va générer le mouvement minimaliste, ou musique répétitive. Terry Riley et Steve Reich vont travailler sur cette idée de répétition, de microcellules. L’accident de Steve Reich est le Phasing, le déphasage. En essayant d’aligner deux boucles identiques sur bandes magnétiques et de les faire fonctionner en relation, il les mets à l’unisson et les fais se déphaser l’une par rapport à l’autre, un des deux magnétophones étant plus lent que l’autre « Il s’agit d’une forme extraordinaire de structuration musicale ». C’est une musique qui s’inscrit dans le temps.    à It’s gonna rain – Steve Reich (enregistrement d’un pasteur afro-américain sur Noé). Le Phasing est le décalage progressif de boucles sonores identiques dues à la diffusion simultanée sur plusieurs magnétophones fonctionnant à des vitesses de lecture sensiblement différentes. La synchronisation du départ, est l’unisson. Le point de départ du décalage fait sentir une légère réverbération, jusqu’à devenir complètement en canon, puis dans ce qu’on appelle le mélange complexe où la perception perd son évidence. Le chemin se refait à l’inverse jusqu’à arriver à l’unisson, la synchronisation. L’oreille se créé un rythme sur un élément particulier.       SEANCE 3    A partir de là, la musique répétitive va être mise en avant par Steve Reich, Terry Riley, Philip Glass et Lamonte young. L’idée est de réaliser des micros transformations de cellules sans que l’oreille s’en rende compte. Un mouvement perpétuel dans la succession de la répétition, en transformant la cellule génératrice de l’œuvre ; ainsi la perception de l’auditeur change. Ce mouvement est issu d’une esthétique d’opposition au sérialisme. Tout d’abord, c’est une musique tonale (In C de Terry Riley), et anti intellectuelle, puisqu’elle s’intéresse au schéma de fascination de l’auditeur. C’est une musique que l’on date à partir des années 1965.    Le physicien Larsen (1871-1957) explique le phénomène du larsen. Si on met un micro face au hautparleur, le son va tourner en boucle et gagne en intensité. Quand un micro est à proximité d’un amplificateur, il va se créer une boucle ; cette boucle va être retransmise au micro, puis au hautparleur et ainsi de suite. Le larsen dépend de beaucoup de choses entre la relation des différents objets qu’il met en péril. Steve Reich, fait tourner le micro comme un lasso et se rend compte qu’à chaque fois que le micro arrive à proximité d’un hautparleur se créé le phénomène de larsen. Il écrit ainsi Pendulum Music (1968) ; il rajoute la volonté de la table de mixage pour changer la nature sonore à chaque passage des micros qui se contrebalancent, pour ainsi créer le phénomène de déphasage.      De l’Analogique au Numérique   Le son analogique est le son de la bande enregistré, magnétique, du disque ; le son enregistré dont les vibrations (fréquences et amplitudes) sont analogues au son originel, c’est à dire aux variations de pression que le son provoque. La synthèse analogique est l’idée de créer des sons en utilisant le signal électrique comme source principale à l’élaboration d’un son, et non pas le calcul, le codage de ce signal comme le son numérique. Le Thérémin (1919) de Léon Thérémin est le seul instrument que l’on ne touche pas pour faire du son. Une main change de hauteur pour la hauteur du son, et l’autre l’intensité. Les Ondes Martenot (1928) utilise le même principe. Le Trautonium (1930) utilise un système de pédale qui vont contrôler le volume alors que le timbre va être modifié par le principe du philtre. C’est un instrument qui marche par synthèse soustractive, en partant d’un bruit blanc pour prendre un ruban sonore. Alfred Hitchcock va l’utiliser dans son film Les Oiseaux, dont le son est réalisé par Oskar Sala. En 1954, à New-York, le centre de la musique de Columbia-Princeton va créer le RCA Mark I avec plusieurs oscillateurs capables de gérer des ondes acoustique, de différents types, des bruits blancs, des bruits Roses… En 1959, le RCA Mark II propose des générateurs de bruits, des mixeurs, des filtres. La première musique pour synthétiseur est due à Milton Babbit (1916-2011) en 1964   à Ensemble pour synthétiseurs – Milton Babbit   Le Son numérique arrive avec Max Matthews (1926-2001) travaille dans le laboratoire Bell où fut notamment mis au point le rayon laser. Il travaille sur la synthèse sonore avec ordinateur (1957) en mettant au point les premières applications pour la création sonore. Les premières pièces pour ordinateur sont en 1958 avec Guttman   à Pitch variation – Guttman   L’IBM 704 est le premier convertisseur d’un son analogique à un son numérique. Claude Shannon (1916-2001) a mis au point le théorème suivant « La fréquence d’échantillonnage doit être égale à au moins 2 fois la fréquence à échantillonner ».    à DOCUMENT « La Numérisation »   Cela va permettre les premiers synthétiseurs numériques (DX7 de Yamaha par exemple) qu’utiliseront des compositeurs comme Steve Reich. On peut utiliser ce son dans un échantillonneur ou un sampler. Pour prendre l’exemple du piano, on va assigner à chaque touche du clavier un son numérique. C’est un instrument capable d’enregistrer des échantillons et de les rejouer via un clavier à la hauteur désirée en les transposant directement.    à City life (1995) – Steve Reich Steve Reich nait à New-York, ainsi dans cette œuvre on trouve des références musicales à la vie urbaine. Mais des compositeurs comme Gershwin dans « Un Américain à Paris » ont déjà expérimenté ce fait. Bartók l’utilise aussi dans son ballet « Le Mandarin merveilleux » ; « Au début, avant même le lever du rideau je voudrai que l’introduction très courte rende l’effet d’un grand vacarme d’un fracas épouvantable d’une cacophonie de klaxons » Bartók. Le point commun avec ces deux œuvres est qu’elles sont soutenues par un argument en plantant un décor. City life va au-delà de la simple évocation sonore de la ville. Steve Reich va relier dans cette œuvre son expérience de la ville à ce qu’elle est politiquement, en tant que critique par « Politicus » et citoyen « Civilicus » qui sont intrinsèquement liés. Il va être en effet contemporain de la lutte pour les droits civiques des afro-américains.  C’est l’évocation du paysage sonore de la ville en même temps qu’un témoignage du paysage politique de la ville. L’ensemble instrumental comporte 18 instruments et 2 échantillonneurs, avec des sons pris dans la ville de New-York (Klaxon, transports en commun, voix...). C’est une composition en 5 mouvements qui va adopter ce qu’on appelle une forme en arche ; elle finit comme elle commence. Elle va commencer et s’achever par un par un choral, contrairement à son style contrapuntique habituel. Ce choral va se distinguer du reste de la composition en écriture répétitive contrapuntique, répétitives, et en imitation entre les échantillonneurs et l’orchestre. De par l’écriture en arche, le troisième mouvement est au centre de l’œuvre et possède ainsi une écriture particulière.  Le troisième mouvement reprend l’idée du déphasage et va utiliser les slogans qui proviennent d’une manifestation politique des afro-américains « It’s been a honeymoon – Can’t take no more » exactement comme il avait enregistré « It’s gonna rain » mais restitués par les synthétiseurs numériques. Il va agir comme un témoin politique et s’ancre dans le réel. L’idée de répétition du slogan lors de la manifestation se confond avec l’idée musicale de la musique répétitive, en répétant le début, la fin, le mettre en boucle. Cela transcrit une idée de détermination. Ce slogan est confondu également avec les instruments. Au-delà, on remarque que les slogans se perdent, et on ne les entend plus. Le premier mouvement prend la phrase « Check it out ! » prononcé par le camelot. Il va jouer sur les valeurs musicales des bruits. Il va extraire de cette voix la substance mélodique. La formule de quelques notes génère toute l’essence de la pièce en créant des micros variations.  La musique va ainsi prolonger le mot et l’insère dans le tissu orchestral. Les échantillonneurs sont chargés de sons pris de la ville. Steve Reich exploite plus la valeur musical et rythmique plutôt que leur pouvoir évocateur, si bien que ces bruits considérés comme instruments se confondent avec l’orchestre.  On a ici un tableau sonore de la ville de New-York par l’illustration qu’est faite des bruits. Cette écriture contrapuntique décrit également l’agitation constante, le mouvement perpétuel propre à la ville.      La Phonographie    Le terme phonographie fait penser à photographie. En effet, la phonographie est une composition électroacoustique élaborée à partir de sons anecdotiques d’enregistrement de paysage sonore et présenté tel quel comme une carte postale sonore, une photographie. Un son anecdotique est un son relié dans sa perception à une réalité concrète, réalité à laquelle il reste attaché. En peinture au XIXe siècle, les artistes vont s’attacher à donner une réalité plus personnelle en tâchant de représenter le plus fidèlement possible la réalité. Cet art va être mis à mal par l’invention de la photographie. Les peintres vont par conséquent trouver d’autres moyens de représenter le réel. La couleur est déjà un moyen de donner ce que la photographie ne peut donner. Les couleurs vont transformer la réalité. Les mouvements comme l’impressionnisme et le Cubisme sont ainsi la conséquence de la photographie qui autorise une parfaite reproduction de la réalité. Picasso va représenter différentes facettes de la réalité. En musique, on peut se demander si utiliser un son anecdotique sans transformation est un acte de création. A l’image de Man ray qui va rajouter représentation sur représentation, les musiciens vont empiler son sur son ; il faut se jouer ou jouer avec la réalité. Il faut éviter de se retrouver dans la peau du touriste qui prend des photos. Là où commence le clonage de la réalité finit l’œuvre d’art.  En musique, le premier exemple est la reconstruction du paysage sonore à des fins illustratives. Georges Bœuf (1937) a reçu une commande consistant à créer le paysage sonore de la Grande Galerie du Muséum National d’Histoire Naturelle (1994). Les contraintes furent le temps et la musique. Il fallait réduire en 3 heures une journée sonore de 24 heures ; ils ont travaillé avec les scientifiques pour calquer le réalisme biologique. Par exemple, le chant d’un oiseau commence avec un autre, qui lui même se met à chanter en même temps que le suivant mais plus longtemps. C’est ainsi un temps réduit qui prenait en compte une réalité scientifique. La seconde contrainte réside en la collecte des sons. Les sons proviennent de bandes sons de films animaliers des années 1970. Enfin, il fallait faire une œuvre musicale, mais qui ne soit pas perçue comme une composition, mais comme une illustration, bien qu’on leur demande de faire de la composition plutôt que de l’illustration. Il faut enfin prendre en compte le poids du passé. On a demandé à Georges Bœuf de composer le Lever du jour, élément que des grands compositeurs comme Ravel ont déjà composé dans Daphnis et Chloé par exemple.     à Lever du jour – Georges Bœuf  On trouve une superposition de sons anecdotiques, d’orchestre, et de sons travaillés. Avec Georges Bœuf, on trouve Christian Calon qui s’est occupé de la mer, et Patrick Portella de ce qui est la terre. Cette musique était diffusée sur des hautparleurs.    La musique anecdotique est une deuxième voie. Luc Ferrari (1929-2005) est celui avec qui on a employé pour la première fois le terme phonographie. Avec ce compositeur, on peut parler d’instantané, de photographie sonore. On peut aussi parler de réaction esthétique au disciples de Pierre Schaeffer, dont la première idée était de ne plus reconnaître le son anecdotique. Pour Schaeffer, un son anecdotique est un son anti musical. Même si on part d’un son anecdotique, l’acte de composition doit le faire oublier par différents procédés musicaux tels que le rythme, la répétition ou la transposition. Il s’oppose à l’acousmatique et à l’écoute réduite qui est de faire abstraction de la provenance du son. Luc Ferrari non seulement proposera le son tel quel mais il dira la provenance de ses sons enregistrés dans Presque Rien.   à Presque Rien No.2 A – Ainsi continue la nuit dans ma tête multiple – Luc Ferrari On est dans l’intimité de celui qui enregistre, qui dit ce qu’il est en train d’enregistrer. Mais ce qu’on entend n’est peut-être pas la réalité. Il avait le souci du musicien qui consiste en l’art du temps. Il se trouve énormément de montage, pour que l’auditeur ne décroche pas.  Le bruit d’oiseau que l’on entend n’a peut-être été entendu qu’une seule fois, suite à quoi le compositeur l’a décuplé. Dans ce principe de reconstruction de paysage sonore, on trouve le Presque rien No. 1. à Presque Rien No. 1 – Le Lever du jour au bord de la mer – Luc Ferrari Il apparaît comme le témoin de son environnement sonore, sauf qu’il reconstitue le paysage avec un son de bateau qui n’était pas là à l’origine.   La troisième voie est celle de Jean-Claude Risset (1938) a été un des premiers à réaliser des sons de synthèse numérique, notamment avec le son de la trompette. Il a travaillé sur ce qu’il appelle les paradoxes sonores avec des sons qui n’arrêtent pas de descendre.    à Computer suite from Little Boy, Fall – Jean-Claude Risset Nom de la bombe atomique d’Hiroshima. On a l’impression que le son ne s’arrête pas de descendre.    Le ministère de la culture va lui demander en 1985 une commande qu’il va réaliser au GRM. C’est une des premières fois qu’il va travailler avec des sons anecdotiques : il va ainsi mettre en relation les sons anecdotiques et les sons synthétiques. Il va découvrir les effets du filtre.   à DOCUMENT – Les filtres   Le filtre « passe bas » ne prend que la partie basse du son, contrairement au filtre « passe haut ». Le filtre « coupe bande » ne prend que les parties extrêmes, contrairement au filtre « passe bande » où est pris seulement une tranche intermédiaire du son. Stockhausen avait déjà utilisé les filtres, mais ces derniers sont plus précis.     Jean Claude Risset écrit Sud en 1985, œuvre commandée par le ministère de la culture, qui devait être réalisée au GRM. Il va utiliser des sons de mers qu’il va soumettre aux filtres. Il va chercher des sons dans des endroits précis, et donner à entendre des sons que l’on ne peut pas entendre naturellement. Par exemple, tous les insectes présents dans la nature produisent un son masqué par d’autres sons plus puissants. Il va réaliser le mixage après décalage temporel. Ainsi, si on ajoute un son sans hauteur déterminée sa copie décalée de 2 demis secondes, certaines fréquences vont être renforcées, et d’autres vont être atténuées (l’opposition de phase). C’est l’effet de filtre en peigne.    à Sud, troisième mouvement – Jean-Claude Risset Cela donne un effet de métallisation des aigus. Le son de mer entendu est modifié progressivement pour arriver à quelque chose de l’ordre de la synthèse. On note aussi la présence de filtres programmables.   Dans le premier mouvement, on trouve la confrontation avec le son anecdotique et le son de synthèse. Après que chaque monde soit énoncé, ils se confrontent.       Le Paysage sonore et le cinéma   Murray Schafer va dans son ouvrage Le Paysage sonore faire une distinction entre Hi-Fi, le paysage sonore de la campagne, et Lo-Fi, le paysage sonore de la ville. Dans l’environnement Hi-fi, le rapport signal, bruit est satisfaisant : chaque son est perçu distinctement, les sons se chevauchent moins fréquemment, avec une perspective avant-arrière plan. Le calme permet d’entendre plus loin. La ville réduit les possibilités de vision. Dans un paysage sonore Lo-Fi, les signaux acoustiques individuels se perdent dans une surpopulation de son. Ainsi, seul l’enregistrement permet l’amplification du son.    à Super strada No. 2 – Luc Ferrari C’est une œuvre tirée de la succession Les anecdotiques, qui passait à la radiophonie de Berlin. On entend dans cette œuvre cette succession de ces deux types de paysages sonores. Après ces deux paysages, on arrive à quelque chose d’encore plus intime par la pensée d’une personne, la réflexion.    Le cinéma permet lui aussi de passer de façon immédiate d’une ambiance à une autre. A l’inverse, on peut tout aussi bien décider de ne pas en changer. C’est le cas de Jacques Tati (1907-1982) dans son film Trafic (1971). Dans une scène, on trouve les deux paysages sonores dans le même décor. Après un accident bruyant, la nature fait place dans le silence. Le point commun entre le cinéma et le son est qu’il a besoin du temps pour exister. Ce sont des arts du temps. Cependant, la représentation imaginée est différente en musique, alors que le cinéma propose la même image. La musique de Luc Ferrari serait ainsi un cinéma pour l’oreille.    à Extrait de Trafic   Que se passe-t-il quand on enlève l’image à un film en ne gardant que la bande sonore. C’est ce que va faire Walter Ruttman (1887-1941), cinéaste qui réalise le film Week-end en 1930, alors que le cinéma parlant existait depuis trois ans.   à DOCUMENT – Week-End   C’est un film, car il est enregistré sur de la pellicule, et non sur une bande. D’autre part, il est projeté, bien que l’écran soit noir. C’est de la musique, car c’est quelque chose qui sera diffusée par la suite à la radio. Il va faire le travail de mixage que fera Pierre Schaeffer plus tard. Cependant, les sons ne sont pas simplement décoratifs, mais il va les choisir pour leur pouvoir évocateur. Une séquence peut durer sans coupure, alors que la caméra se déplace, on peut trouver des plans larges, resserrés, tout cela par rapport au paysage sonore.   à Extrait de Week-end    C’est un montage rapide qui évoque la semaine de travail. Au début du film, on est dans la suractivité, et dès qu’on arrive dans la campagne, le temps s’étire.    Tati va à des fins comiques faire le contraire de Rutmann. Il va créer un décalage entre le son qu’on devrait entendre et l’image. En 1967 il réalise Playtime. On trouve des mises en avant de plans sonores particuliers, ou une annulation de la perspective d’un son. Ce qui doit être éloigné ne l’est pas, ce qui doit être proche ne l’est pas.   à Extrait de Playtime On entend tout près des pas qui arrivent de loin, une porte qui claque ne produit aucun bruit.    Ainsi on trouve une importance de la bande son. Les dialogues sont presque toujours incompréhensibles. La réalité sonore n’est jamais trop respectée. Tous les sons se réalisaient dans une post-production sonore. C’est l’opération qui consiste à recréer par le bruitage, avec l’enregistrement et la synchronisation avec l’image, le paysage sonore de la scène. Premièrement, cela peut être du à une volonté sonore comme Tati, ou même Fellini, mettre en relief des bruits particuliers, ou encore ajouter une doublure où le paysage sonore est conservé. Au départ, les micros assez sensibles, ne captaient pas le paysage sonore. Soit les sons sont enregistrés à part dans la nature même de la prise, soit on les créé avec des bruiteurs, soit on va les chercher dans des banques sonores. Parmi cette banque, un des cris les plus célèbres sont les cris de Wilhelm. En 1951, la Warner enregistre ce cri pour un film. En 1970 en Burt, sound designer de Star Wars va retrouver ce cri, et va l’adopter comme signature sonore, comme une petite blague. De nos jours, beaucoup de Sound designer l’utilisent un peu comme une private Joke.    Le premier film entièrement post synchronisé, en bruitage, dialogue, et musique   à SteamBoat Willie – Walt Disney (1928) Etant donné que c’est un dessin animé, il fallait rajouter toute la dimension sonore après le montage de l’image.    Enio Moriccone compose la musique du film Il était une fois dans l’Ouest. Le début du film est fait de bruits anecdotiques, d’exagération, et de recomposition du son. On peut considérer ce générique comme une œuvre de musique concrète. En conclusion, la frontière entre ce qui pourrait être la bande son d’un film et une composition phonographie peut être mince.           S5   Un modèle est ce qui sert ou doit servir d’objet d’imitation pour faire reproduire quelque chose. C’est un archétype. Dans le domaine musical, le paysage sonore nous offre une multitude de modèles. Pour le musicien, il va s’agit d’en analyser la morphologie afin de mieux en rendre compte dans son processus compositionnel. A la fois, la pluie est différente du vent, mais une pluie est différente d’une autre. Le problème est qu’il y a des sons qui disparaissent, un modèle qui disparaisse. Des bruits de métiers, des animaux, des espèces.   à DOCUMENT : Le paysage sonore – Muray Schafer Il explique dans son texte l’urgence de la sauvegarde du son par l’enregistrement, c’est ce qu’il appelle l’écomusicologie.    Le travail des compositeurs de musique électroacoustique consiste en la préservation d’un certain paysage sonore. En musique, il y a des instruments qui ont disparu, et avec eux les sonorités. Le Clavecin par exemple passe de mode à la fin du XVIIIe siècle, car il donne une image bourgeoise contraire à la révolution française, remplacée par le piano. Ce n’est qu’au XXe siècle que les compositeurs vont redécouvrir le clavecin comme de Fallà, Poulenc, ou encore Ligeti   à Continuum – Ligeti   C’est aussi cette instrument que va choisir François Bernard Mâche, auteur de l’ouvrage Musique, Mythe, nature ou les dauphin d’Arion   à DOCUMENT : Le modèle en musique – Mâche   La première œuvre écrite pour clavecin est Korvar, pour clavecin et bande électroacoustique (support enregistré). C’est une œuvre mixte. Les deux parties se répondent, se mélangent, se superposent. L’intérêt du clavecin est la précision et l’incisivité du clavecin, ainsi que la violence que cet instrument peut provoquer quand il est amplifié. C’est un compositeur au GRM, et dès ses premières années au sein de ses recherches, ses œuvres vont témoigner de son inclination pour l’imitation des modèles naturels.    à Prélude – Mâche Pièce purement électroacoustique.    « Il s’agit pour l’auteur de brouiller le tracé des frontières entre nature et culture en mettant sur le même plan sons naturels et son instrumentaux ». Cette confrontation entre la musique écrite et le son enregistré va permettre en évidence l’essence musicale portée par les sons de la nature. L’idée de Korvar est d’utiliser le son de la bande enregistrée en tant que Cantus firmus : il va l’utiliser pour d’autres œuvres, plus orchestre, percussions, etc. La partie enregistrée est composée de son caractérisée par une grande précision et la possibilité d’une transcription des sons en hauteurs et en rythmes. Les sons représentent une voix utilisant le langage xhosa d’une tribu en voie de disparition. C’est un langage très percussif composé de phonèmes (Dans le film Les Dieux sont tombés sur la tête), mais aussi des oiseaux, des grenouilles, de la pluie, ainsi que des porcs en rut. La fin de la pièce n’utilise plus de sons naturels mais essentiellement le clavecin, qui passe du bruit de l’insecte, au bruit du monstre.    à Korvar (1972) – Mâche  Un clavecin rencontre des oiseaux, une juxtaposition de sonorités qui ne peuvent se rencontrer. Utilisation du clavecin comme percussion. Imbrication entre l’objet brut et le clavecin. On ne sait plus si le son enregistré est la présence instrumentale ou non.   « La crudité des voix animales est volontairement soulignée car il m’est apparu que plus le réalise est extrême, plus on est proche du fantastique ».    à Maraé – Mâche Pièce pour six percussions amplifiées avec un support électroacoustique, constitué de bruits anecdotiques comme la mer, le vent, le feu. On retrouve l’idée de superposition entre le son enregistré et les instruments qui joue en direct.   Le modèle n’est pas une dimension reliée spécifiquement à la musique électroacoustique. Il existe le modèle mathématique, avec Xénakis qui va utiliser le principe de la probabilité pour composer ces œuvres orchestrales. Ce qui intéresse Xénakis est moins le son en lui même que la résultante mathématique, la représentation mathématique d’un phénomène physique, une abstraction qui représente la réalité. Il existe aussi le modèle concret, avec Messiaen, qui travaille avec les oiseaux comme modèle qu’il traduit musicalement. Il va réduire dans une échelle tempérée, par ses pièces pour piano, un son qui ne l’est pas obligatoirement.   à Le rouge Gorge – Messiaen      La musique spectrale   Un spectre est la photographie d’un son. Il nous donne le son des hauteurs, et les intensités de chaque harmoniques/partiels. C’est un mouvement qui apparaît dans les années 1970 en France avec les compositeurs Grisey et Murail. La musique spectrale rend sonore un modèle que l’on n’entend pas, en utilisant comme matériaux (hauteurs et intensités) les propriétés acoustiques d’un son.   En Europe, que ce soit dans les villes ou les villages, on a un aspect du paysage sonore incontournable, la cloche. Les compositeurs vont beaucoup utiliser la cloche. La cloche existe depuis le XVIIIe siècle. Les cloches de nos églises impriment par leur timbre particulier le paysage sonore des villes et des campagnes. La cloche a d’ailleurs donné naissance à la musique concrète de Pierre Schaeffer par l’expérience de la cloche coupé. Dans les 7 états sonores, le son cannelé correspond au son de cloche. Si on photographie un son de cloche, il va nous montrer la présence de son inharmonique, à savoir une quarte et une tierce mineure, qui, d’après le théorème de Fourier « Tout son périodique se décompose en une série de sinusoïdes dont les fréquences respectives sont les multiples entiers de la fréquence la plus basse appelée fondamentale », ne font pas partie du spectre harmonique. En Angleterre, la Cathédrale de Winchester possède une cloche très imposante, et est le point de départ de l’œuvre Mortuos Plango vivos voco (1980) de Jonathan Harvey (1939-2012). Le titre se réfère à ce qui est gravé sur la cloche de Winchester. « Je compte les heures qui s’enfuient, je compte les mort qui s’en vont ». C’est une composition spectrale pour voix et cloche, qui se réalise à partir du spectre de la cloche. Il va utiliser les sons des harmoniques à des fins formelles d’organisation musicale.    à Mortuos Plango vivos voco (1980) – Jonathan Harvey   Ces cloches sont si présentes dans notre paysage sonore car ces cloches sonnent souvent. Le rôle de la cloche repose en un signal sonore. Il existe trois principaux rôles de signaux. Le premier rôle est l’usage religieux en attirant et rassemblant les fidèles ou en annonçant les fêtes religieuses. En 1472, Louis XI impose l’angélus, la prière de Midi (Cf. Tableau de Millet). Où que l’on soit, on entend la cloche qui annonce cet événement journalier. Beaucoup de clochers sont pourvus de trois cloches. De même, chaque cloche ne possède pas la même note, pour qu’on puisse reconnaître, par habitude d’écoute, d’où vient le son de cloche. Pour les sons différents, des grosseurs différentes, la plus grande est la trémone, la moyenne est la métane, la petite, soit la filleule, soit la campanelle. La cloche peut avertir des évènements, comme l’orage, la peste. Elle va servir aussi pour les fêtes profanes, ou pour les décès (le glas, symbole de la mort, que l’on peut notamment entendre dans la Symphonie Fantastique de Berlioz). Quand les cloches cessent de sonner, c’est que des évènements graves se produisent. A l’époque de la peste, comme pour prévenir que la ville est morte, on interdit le son de cloche.   à DOCUMENT : Extrait de l’ouvrage : Le Paysage sonore – R. Murray Schafer   La cloche marque aussi le temps, à partir du XIVe siècle. Ce temps marqué est le profane et le religieux réunis.   à DOCUMENT : « Le Bruit du temps »   Pendant la révolution française, les églises sont saccagées, on appelle cela la descente des cloches, l’enterrement des cloches pour les protéger contre les révolutionnaires qui les fondaient pour avoir des matières premières pour l’armement.    à Années de Pèlerinage, première année (Suisse) « Les cloches de Genève » - Liszt    Ces cloches sont exploitées par les compositeurs du XXe siècle, et notamment par Luigi Nono.    à DOCUMENT : Sofferte onde serene    Une œuvre mixte. C’est une composition dans laquelle un ou plusieurs instruments acoustiques jouent avec un son enregistré. Luigi Nono habite à Venise avec les cloches de Saint-Marc. La brume de Venise change la propagation du son. Le son acoustique dans la brume se propage plus rapidement. La pièce pour piano et bande sonore évoque les cloches, sans qu’elles soient entendues. On retrouve l’idée de mélange entre les deux univers d’émission sonore.    à Sofferte onde serene (1976) – Luigi Nono La bande son est constituée uniquement de bruits de piano, comme un fond sonore au piano joué. Les cloches symbolisent une nostalgie de la vie.       L’extrême est de composer la musique en fusion avec le paysage sonore. C’est une idée d’Erik Satie. C’est ce qu’il appelle la musique d’ameublement. Il écrit un manifeste où il explique qu’elle remplace avantageusement les marches, les polkas, les tangos ; il faut exiger la musique d’ameublement en toutes circonstances. « Ne vous endormez pas sans écouter de la musique d’ameublement ou vous dormirez mal ». En 1920, Satie propose une musique dont l’objet n’est pas de l’ordre de l’écoute. Il va finalement distinguer l’œuvre d’art de la musique d’ameublement. Cette musique doit être pensée pour ne pas être écoutée.    à Carrelage phonique à Tapisserie en fer forgé C’est une musique en boucle. Mais à l’époque de Satie, les musiciens jouent cette musique, et l’auditeur est attiré par ces derniers. Le morceau est composé en fonction des situations et des évènements de l’événement   Le principe de la musique d’ameublement va être repris par le compositeur Anglais Brian Eno (1948), qu’il baptise l’ambiant music, en faisant disparaître la source d’émission (les instruments) ce qui rend l’expérience plus concevable, en la diffusant dans des lieux pour lesquels elle a été composée. Brian Eno utilise des sons de synthèse, en diffusant la musique sur haut-parleur. Aussi, il ne va pas créer de mélodie, mais écrire une musique qui s’insère dans le temps, dans une durée, et non pas dans la répétition d’une courte cellule. Il va rejoindre l’idée des minimalistes américains sur le principe de la microévolution.    à Music for airports (1979) – Brian Eno   Composer de la musique pour ne pas qu’elle soit écoutée. Brian Eno a aussi composé Unfamilian Wind où il recompose un paysage sonore de ses souvenirs, d’après les sensations d’un enfant qui découvre la nature et les sons mystérieux qui la compose   à Unfamilian Wind – Brian Eno On peut mettre cette œuvre en parallèle avec L’Enfant et les sortilèges de Ravel    à L’Enfant et les sortilèges « Ah quelle joie de te retrouver jardin » - Ravel    L’idée actuelle est une machine qui permet de composer les sons des trajets de voiture suivant la vitesse et la nature du trajet, ou de la lumière, pour recomposer le paysage sonore. Le trajet compose la musique.   à VIDEO : Road music – Peter Sinclair

Related Downloads
Explore
Post your homework questions and get free online help from our incredible volunteers
  954 People Browsing
Your Opinion