C ONSERVATORIO S TATALE DI M USICA “B. M ARCELLO ” S CUOLA DI Musica elettronica DI D ISPENSA DEL CORSO DI S TORIA DELLA MUSICA ELETTROACUSTICA 2 La voce e il computer Paolo Zavagna April 13, 2013 V ENEZIA Q UESTO DOCUMENTO , VERSIONE 0.6 DEL A PRIL 13, 2013, INTERNO ALLA SCUOLA DI Musica elettronica DEL C ONSERVATORIO S TATALE DI M USICA “B. M ARCELLO ” DI V ENEZIA , È DA CONSIDERARSI RISERVATO E NON DIVULGABILE , ED È STATO SCRITTO UTILIZZANDO 2.9 E TeXnicCenter 1.0 MikTex Listening to the voices of the World, listening to the “inner” sounds of the imaginative mode, spans a wide range of auditory phenomena. Yet all sounds are in a broad sense “voices” of things, of others, of the gods, and of myself. [. . . ] A phenomenology of sound and voice moves [. . . ] toward full significance, toward a listening to the voiced character of the sounds of the World. Don Ihde Listening and Voice ii Indice §1. Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . vii I La voce e il computer 1 1 Bell laboratories 1.1 Parlare al telefono . . . . . . . . . . . . . . §2. Ricerca ai Bell Laboratories §3. Max Mathews . . . . . . . §4. 2001 Odissea nello spazio . 3 3 3 3 5 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Voce sintetica e voce naturale 2.1 Daisy Bell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.0.1 A bycicle built for two di Max Mathews (1961) . . . . . . . . 2.2 Risset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §5. Jean-Claude Risset . . . . . . . . . . . . . . . . . . . . . . . §6. Inharmonique . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Johan Sundberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §7. Regole per la sintesi delle voce . . . . . . . . . . . . . . . . . 2.4 LPC o della codifica per predizione lineare . . . . . . . . . . . . . . . . . . . . §8. La codifica LPC . . . . . . . . . . . . . . . . . . . . . . . . . §9. Charles Dodge . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Gerald Bennet e Xavier Rodet . . . . . . . . . . . . . . . . . . . . . . . . . . §10. “Sintesi della voce cantata” . . . . . . . . . . . . . . . . . . 2.6 Michael McNabb, Dreamsong . . . . . . . . . . . . . . . . . . . . . . . . . . §11. Voci ed altri suoni . . . . . . . . . . . . . . . . . . . . . . . 2.7 FM o della modulazione di frequenza . . . . . . . . . . . . . . . . . . . . . . §12. John Chowning: biografia e percorso teorico . . . . . . . . . §13. Phoné di John Chowning . . . . . . . . . . . . . . . . . . . 2.8 Jonathan Harvey . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . §14. Cenni biografici . . . . . . . . . . . . . . . . . . . . . . . . §15. Mortuos Plango, Vivos voco . . . . . . . . . . . . . . . . . . 2.8.1 Descrizione del patch Pure Data di Miller Puckette per l’‘esecuzione’ di Mortuos plango, vivos voco [Francesco Grani, a.a. 2011-12] . . . . . §16. Il Patch mortuos.pd . . . . . . . . . . . . . . . . . . . . . . §17. Schermata principale del Patch . . . . . . . . . . . . . . . . §18. Subpatch pd startup . . . . . . . . . . . . . . . . . . . . . . §19. Subpatch pd analysis . . . . . . . . . . . . . . . . . . . . . . iii 7 7 7 7 7 8 13 13 13 13 19 20 20 21 21 23 23 23 24 24 25 27 27 27 29 30 §20. §21. §22. §23. §24. §25. 3 Subpatch pd arrays . . . Subpatch pd inputs . . . Subpatch pd messpeak . Subpatch pd box-control Subpatch pd unpacker . Subpatch pd osc-bank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Trevor Wishart 3.1 Notizie biografiche . . . . . . . . . . . . . . . . . . . §26. Biografia, riconoscimenti e poco altro 3.2 Audible Design . . . . . . . . . . . . . . . . . . . . . §27. Il frontespizio di Audible Design . . . 3.3 On Sonic Art . . . . . . . . . . . . . . . . . . . . . . §28. Utterance . . . . . . . . . . . . . . . §29. “Il repertorio umano” . . . . . . . . 3.4 La voce e il ciclo Voice . . . . . . . . . . . . . . . . . §30. Catalogo delle opere vocali . . . . . §31. Vox 5 (1986) . . . . . . . . . . . . . §32. Globalalia . . . . . . . . . . . . . . §33. Voiceprints . . . . . . . . . . . . . . §34. Encounters in the Republic of Heaven Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 32 34 35 35 . . . . . . . . . . . . . 39 39 39 40 40 40 40 42 42 42 43 45 46 47 51 iv Elenco delle figure 1.1.1 Graham Bell: era phonautograph e trascrizione parlato . . . . . . . . . . . . . (a) Ear Phonautograph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (b) Tascrizione parlato di Bell 1875 . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Strumento NOISE4 utilizzato da Risset in Inharmonique . . . . . . . . . . . (a) Diagramma strumento . . . . . . . . . . . . . . . . . . . . . . . . . . (b) Funzioni tabulate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Tabella valori formanti voce tratta da Sundberg . . . . . . . . . . . . . . . . 2.3.2 Grafico valori formanti voce tratto da Sundberg . . . . . . . . . . . . . . . . 2.4.1 Modello semplificato di predizione lineare. . . . . . . . . . . . . . . . . . . 2.4.2 Flusso del segnale durante l’analisi nella LPC. . . . . . . . . . . . . . . . . . 2.4.3 Sintesi tramite LPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (a) Italiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (b) Inglese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.4 Flusso dei dati ottenuti tramite LPC dall’analisi dei frames che compongono la parola “sit”. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.5 Due pagine da In Celebration di C. Dodge . . . . . . . . . . . . . . . . . . . (a) Pagina 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (b) Pagina 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Modi utilizzati in Dreamsong di McNabb . . . . . . . . . . . . . . . . . . . 2.6.2 Melodie utilizzate in Dreamsong di McNabb . . . . . . . . . . . . . . . . . . 2.6.3 Listato strumento SING per Dreamsong di McNabb . . . . . . . . . . . . . . 2.8.1 Parziali campana cattedrale Winchester . . . . . . . . . . . . . . . . . . . . 2.8.2 Frequenze attorno alle quali ruotano le otto sezioni del brano . . . . . . . . . 2.8.3 Schermata principale di mortuos.pd . . . . . . . . . . . . . . . . . . . . . . 2.8.4 Patcher pd startup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.5 Patcher pd analysis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.6 Patcher pd arrays. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.7 Patcher pd inputs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.8 Patcher pd messpeak. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.9 Patcher pd box-control. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.10I subpatchers pd unpacker e pd osc-bank. . . . . . . . . . . . . . . . . . . . (a) Patcher pd unpacker . . . . . . . . . . . . . . . . . . . . . . . . . . . (b) Patcher pd osc-bank . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.11Patcher voice.pd. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 . . . . . . . . . . 9 9 9 14 15 16 16 17 17 17 . . . . . . . . . . . . . . . . . . . . 18 21 21 21 22 22 23 26 27 28 30 31 31 32 33 34 35 35 35 36 3.2.1 Frontespizio Audible Design . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.4.1 Partitura diffusione Vox 5 di Wishart . . . . . . . . . . . . . . . . . . . . . . . 44 v 3.4.2 Partitura diffusione Globalalia di Wishart 1/4 3.4.3 Partitura diffusione Globalalia di Wishart 2/4 3.4.4 Partitura diffusione Globalalia di Wishart 3/4 3.4.5 Partitura diffusione Globalalia di Wishart 4/4 vi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 47 48 49 §1. Introduzione Il nucleo originario di questa dispensa è stato scritto in occasione del corso di Storia della musica elettroacustica 2 tenuto presso il Conservatorio Statale di Musica “B. Marcello” di Venezia nell’Anno Accademico 2011-2012. Il tema principale del corso è stato come la voce, in senso lato, sia stata ‘utilizzata’ dopo l’avvento delle tecnologie informatiche applicate alla musica. In seguito è stata aggiornata e arricchita di informazioni che via via sono state pubblicate o segnalate da colleghi e studenti. La voce è il modo in cui la realtà ci parla: quella naturale e quella artificiale, quella umana, animale, e quella di ogni altro elemento, autonomamente (perché emette da solo) o provocatoriamente (perché genericamente ‘sollecitato’). Se assumiamo quanto scritto in esergo1 come linea guida, dobbiamo audire ai fenomeni sonori/musicali come all’ascolto di una o più ‘voci’. Se tutti i suoni sono voci, allora i suoni sintetici prodotti con l’elaboratore sono le voci dei nuovi strumenti di ‘oggi’, che ci ‘spiegano’ le implicazioni tecnologiche del fare musica. Che la voce abbia ampliato i suoi orizzonti ci è ben chiarito dal saggio di Hazel Smith, che mette in relazione l’uso della voce con i luoghi, l’identità e la comunità, resi ancor più ‘confusi’ dalle possibilità di ibridazione offerte dalle tecnologie informatiche2 . Una voce che deve confrontarsi con ‘altri’ strumenti e con se stessa diventata ‘altro’ strumento, grazie anche a processi di analisi e di (ri)sintesi, che la immergono nel paesaggio in senso lato. 1 La citazione è tratta da Ihde, Listening and Voice, p. 147. “The Voice in Computer Music and its Relationship to Place, Identity, and Community”. 2 Smith, vii viii Parte I La voce e il computer 1 Capitolo 1 Bell laboratories 1.1 Parlare al telefono §2. Ricerca ai Bell Laboratories Dal gennaio 1922 i Bell Laboratories pubblicano una rivista, «The Bell System Technical Journal», che tratta di tutte le innovazioni sia tecnologiche sia teoriche apportate nel campo della telefonia – e affini – e della fisica, in ogni sua branca. Gli studi di acustica ed elettroacustica sono particolarmente nutriti (troviamo, fin dal primo numero, scritti di Fletcher, Carson, Crandall, Sacia). In uno di questi studi, del 1925, si fa riferimento alle sperimentazioni di Bell con l’ear phonautograph (si veda la Figura 1.1.1 (a)), di cui viene riprodotto un esempio di fonautogramma (qui in Figura 1.1.1 (b)1 ), e viene effettuata una ricerca su centosessanta registrazioni grafiche di suoni di vocali e di consonanti2 . Il suono viene ancora ‘inciso’ in maniera meccanica, sebbene la parte di trasduzione relativa al microfono, soprattutto nei laboratori in quanto sedi di strumenti di misura, fosse già da tempo utilizzata. §3. Max Mathews Max Vernon Mathews (13 novembre 1926, Columbus, Nebraska, USA - 21 aprile 2011, San Francisco, CA, USA) è stato un pioniere nel mondo della computer music3 . Mathews studia ingegneria elettronica al California Institute of Technology e al Massachusetts Institute of Technology, ricevendo un Sc. D. nel 1954. Lavorando ai Bell Labs, nel 1957 Mathews scrive MUSIC, il primo programma ampiamente utilizzato per la generazione del suono. Nel 1970, Mathews e Moore sviluppano il GROOVE (Generated Real-time Output Operations on Voltage-controlled Equipment)4 , primo sistema per la sintesi musicale completamente sviluppato per la composizione interattiva e l’esecuzione in tempo reale, utilizzando minicomputer 3C/Honeywell DDP-245 o DDP-2246 . 1 In Crandall, “The Sounds of Speech”, p. 587. ibid. 3 Informazioni tratte da http://en.wikipedia.org/wiki/Max_Mathews. 4 Si veda Mathews e Moore, “GROOVE, a program to compose, store, and edit functions of time”. 5 Nyssim Lefford, Eric D. Scheirer, and Barry L. Vercoe. “An Interview with Barry Vercoe”. Experimental Music Studio 25. Machine Listening Group, MIT Media Laboratory. 6 Bogdanov, Vladimir (2001). All music guide to electronica: the definitive guide to electronic music. Backbeat Books. 2 In 3 4 CAPITOLO 1. BELL LABORATORIES (a) Ear Phonautograph (b) Tascrizione parlato di Bell 1875 Figura 1.1.1: L’Ear Phonautograph di Graham Bell e Clarence Blake (a) e trascrizione del parlato effettuata da Graham Bell nel 1875 – due anni prima dell’invenzione del fonografo – (b). Sebbene il linguaggio MUSIC non fosse stato il primo tentativo di generare suoni con un computer (un computer australiano CSIRAC suonava già all’inizio del 1951)7 , Mathews fu il padre di generazioni di ‘strumenti’ musicali digitali. L’esecuzione della musica tramite computer nacque nel 1957 quando un IBM 704 a NYC suonò una composizione di 17 secondi realizzata dal programma Music I che avevo scritto. Timbri e note non erano interessanti, ma l’innovazione tecnica si percepisce ancora. Music I mi ha portato a Music II fino a V. Sullo stesso modello sono stati inoltre scritti Music 10, Music 360, Music 15, Csound e Cmix. Molti brani interessanti sono oggi eseguiti digitalmente. L’IBM 704 e i suoi fratelli erano macchine da studio, troppo lente per sintetizzare musica in tempo reale. Gli algoritmi di Chowning con la FM e l’arrivo di processori digitali veloci ed economici resero il tempo reale possibile e, ugualmente importante, conveniente [. . . ] A partire dal programma GROOVE nel 1970, i miei interessi si sono focalizzati sull’esecuzione dal vivo e su ciò che un computer può fare per aiutare un esecutore. Ho realizzato un controller, il Radio-Baton, e un programma, il Conductor, per fornire nuove possibilità all’interpretazione ed esecuzione di partiture tradizionali. Oltre che per i compositori contemporanei, questi sistemi si sono dimostrati interessanti anche per i solisti come un modo per eseguire accomopagnamenti orchestrali. I cantanti spesso preferiscono suonare i propri accompagnamenti. Recentemente ho aggiunto opzioni per l’improvvisazione che lo rendono semplice nella scrittura di algoritmi compositivi. These can involve precomposed sequences, random functions, and live performance gestures. Gli algoritmi sono scritti in linguaggio C. We have taught a course in this area to Stanford undergraduates for two years. Con nostra gradita sorpresa, agli studenti piace imparare e utilizzare il C. Primarily I believe 7 Si veda Doornbusch, The music of CSIRAC: Australia’s first computer music. Un breve estratto di questo testo si può leggere in http://ww2.csse.unimelb.edu.au/dept/about/csirac/music/ index.html. 1.1. PARLARE AL TELEFONO 5 it gives them a feeling of complete power to command the computer to do anything it is capable of doing8 . Nel 1961, Mathews arrangiò l’accompagnamento della canzone “Daisy Bell” per una straordinaria performance di voce umana sintetizzata al computer, utilizzando una tecnologia sviluppata da John Kelly e altri dei Bell Laboratories. Lo scrittore Arthur C. Clarke era casualmente in visita dell’amico e collega John Pierce ai Bell Labs di Murray Hill al tempo di questa notevole dimostrazione di sintesi vocale e ne fu così impressionato che in seguito disse a Stanley Kubrick di utilizzarla in 2001: A Space Odyssey, nella scena chiave in cui il computer HAL 9000 canta mentre le sue funzioni cognitive vengono disabilitate9 . Mathews diresse il Centro di Ricerca Acoustical and Behavioral ai Bell Laboratories dal 1962 al 1985, which carried out research in speech communication, visual communication, human memory and learning, programmed instruction, analysis of subjective opinions, physical acoustics, and industrial robotics. Dal 1974 al 1980 fu Scientific Advisor dell’Institute de Recherche et Coordination Acoustique/Musique (IRCAM) di Parigi, e fino al 1987 è stato Professor of Music (Research) alla Stanford University. He served as the Master of Ceremonies for the concert program of NIME-01, the inaugural conference on New Interfaces for Musical Expression. Mathews è stato membro dell’Accademia Nazionale delle Scienze, dell’Accademia Nazionale dell’Ingegneria e socio dell’American Academy of Arts and Sciences, dell’Acoustical Society of America, dell’IEEE, e dell’Audio Engineering Society. He held a Silver Medal in Musical Acoustics from the Acoustical Society of America, and the Chevalier dans l’ordre des Arts et Lettres, Republique Francaise. La parte Max del software Max/MSP è così chiamata in onore di Mathews. §4. 2001 Odissea nello spazio Nel 1997 esce un libro curato da Stork, Hal’s Legacy10 . In esso si rammentano i fondamenti scientifici di quella che era stata un’avventura fantascientifica: la stesura di un libro di Clarke, 2001: A Space Odyssey e la realizzazione del film di Kubrick che porta lo stesso titolo. In questo libro troviamo in particolare un contributo relativo al computer e alla voce: Olive, ““The Talking Computer”: Text to Speech Synthsis”. In esso viene abbozzata la storia delle ricerche riguardanti la nascita della voce sintetica, con particolare attenzione al riconoscimento del testo e alla sua sintesi vocale. La voce di HAL, mentre viene disattivato, si ispira ad uno dei primi esperimenti di voce sintetica: l’arrangiamento della celebre canzone popolare A bycicle built for two. 8 Note scritte in occasione dell’evento “Horizons in Computer Music”, 8-9 Marzo 1997, Indiana University. da http://www.bell-labs.com/news/1997/march/5/2.html. 10 Lo si può trovare in formato elettronico al seguente http://mitpress.mit.edu/e-books/ Hal/. 9 Tratto 6 CAPITOLO 1. BELL LABORATORIES Capitolo 2 Voce sintetica e voce naturale 2.1 2.1.0.1 Daisy Bell A bycicle built for two di Max Mathews (1961) La canzoncina arrangiata da Max Mathews (accompagnamento) e da John Larry Kelly Jr. e Carol Lochbaum (sintesi della voce), creata con un IBM 7094 ai Bell Laboratories, la si può ascoltare come traccia 6 di Aa. Vv. The Historical CD of Digital Sound Synthesis e fa parte di una serie di lavori predisposti come dimostrazione delle possibilità della musica sintetica, fra cui vi erano gli studi sulla voce. Non una vera e propria composizione, ma la trascrizione di un celebre brano popolare, Daisy Bell, finalizzata alla diffusione ed esemplificazione dell’allora nuovo mondo della musica digitale. Da notare che il lavoro di Kelly e Lochbaum sulla voce non si basava sul vocoder ma su un modello di analogia col tratto vocale; non su un modello spettrale bensì su un modello meccanico1 . Lo stesso brano è stato oggetto di un progetto sviluppato sul web, Bycicle Built for 2,000, in cui le voci di più di 2000 persone registrate direttamente da internet vengono assemblate per realizzare una versione ‘globale’ della canzone. Nello stesso progetto si può ascoltare una ricostruzione dell’originale per computer del 1962. 2.2 Risset §5. Jean-Claude Risset Jean-Claude Risset2 nasce a Le Puy in Francia il 18 marzo 1938. Studia composizione con André Jolivet, pianoforte con Robert Trimaille (allievo di Alfred Cortot) e fisica all’École Normale Supérieure di Parigi. Si dedica alla ricerca scientifica presso il CNRS, all’Institut Électronique Fondamentale di Pierre Grivet (1961-1971), ai Bell Laboratories nel New-Jersey (Stati Uniti), con Max Mathews e John Pierce nei periodi 1964-1965 e 1967-1969, durante i quali sviluppa lavori sulla sintesi dei suoni tramite computer e le sue applicazioni musicali (in particolare la simlazione dei suoni strumentali, le illusioni sonore e i paradossi musicali), a Orsay (1970-1971), quindi, a partire dal 1972, al Centro universitario di Marseille-Luminy, all’IRCAM (1975-1979) e infine al LMA (Laboratoire de Mécanique et d’Acoustique) del CNRS a Marseille, istituzione presso la quale rimane direttore di ricerca emerito. 1I risultati delle loro ricerche vennero pubblicati l’anno dopo la realizzazione di A bycicle built for two in Kelly e Lochbaum, “Speech synthesis” e Kelly e Lochbaum, “Speech synthesis”. 2 Notizie tratte da http://brahms.ircam.fr/jean-claude-risset. 7 8 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Il suo percorso teorico nell’ambito della ricerca musicale informatica incomincia con l’analisi e la risintesi dei suoni strumentali. Nel 1969 esce l’articolo, scritto con Max Mathews, “Analysis of instrument tones”, in cui vengono analizzati suoni di tromba. In un saggio in forma di elenco, “Nouveaux gestes musicaux: quelques points de repère historiques”, Risset ci segnala due importanti innovazioni in ambito vocale: nel 1921, i primi esperimenti di poemi fonetici di Haussmann e Schwitters (la cui Ursonate, del 1932, è un caso particolare di gesto fonetico) e nel 1977, nel brano Interphone, di Michel Decoust, i gesti vocali che vengono ‘impressi’ sul suono (ulteriori esempi di ibridazione sono Sud di Risset stesso, del 1985, e Préfixes, di Michel Levinas, del 1991). Sebbene in Sud la voce umana non venga direttamente utilizzata, l’idea di ibridazione di timbri e altezze e l’imitazione del timbro vocale sono caratteristiche che segneranno anche le opere in cui Risset sfrutta la voce dal vivo: Inharmonique, del 1977, L’autre face, del 1983 e Invisible, del 1995, tutte opere per soprano e nastro magnetico. §6. Inharmonique Esemplare dell’utilizzo di voce e suoni sintetici è il brano Inharmonique, realizzato presso l’IRCAM nel 1972, per suoni sintetizzati tramite elaboratore e soprano e dedicato a Irène Jarsky. I suoni sono stati sintetizzati con il programma Music V e la prima esecuzione ha avuto luogo il 25 aprile 1977. Il brano è suddiviso in otto sezioni3 . Un utilizzo avanzato del programma Music V prevede la possibilità da parte dell’autore di realizzare dei ‘sottoprogrammi’ (le routines PLF, PLay First), che generano eventi sonori complessi invece di scrivere, come prevede la sintassi del software, ogni singola nota. Risset fa ampio uso di questa possibilità offertagli dal programma sviluppato da Mathews, che peraltro conosceva bene, avendo egli contribuito al suo sviluppo e soprattutto alla sua divulgazione con il catalogo (si veda 2.1.0.1). La gran parte dei suoni sintetizzati sono, come il titolo rende evidente, di tipo inarmonico, non vi è cioè fra le varie componenti lo spettro un rapporto di numeri interi. In particolare possiamo ascoltare suoni di campana, la cui sintesi additiva era stata uno degli esempi del catalogo del 1969. La suddivisione formale proposta da Lorrain viene accompagnata dai rispettivi nomi di strumenti utilizzati: i. ii. iii. iv. v. vi. vii. viii. *NOISE4 (0”-50”); +VOXN1, +RVP411 (58”-1’25”); +FM8, +LB1113, +LOSLO3, +PHASE6 (3’10”-4’33”); BELHH4, HH3 (5’17”-6’10”); BELLSB (6’35”-8’12”); +BLLTX1 (9’15”-10’04”); +BLTX1, +BLTX2, +PHASE7 (12’10”-13’11”); *IR, +IRR1, *IRR3, +IRR4 (13’11”-14’00”). Possiamo vedere lo strumento NOISE4, il primo ad essere utilizzato da Risset per generare l’introduzione del brano, nella Figura 2.2.1 (a)4 . Di seguito riporto lo schema del flusso delle variabili dello strumento: 3 Per un’analisi dettagliata si veda Lorrain, Analyse de la bande magnétique de l’oeuvre de Jean-Claude Risset Inharmonique e Zattra, Studiare la computer music, pp. 282-299, che si basa gran parte sul lavoro di Lorrain. 4 Tratta da Lorrain, Analyse de la bande magnétique de l’oeuvre de Jean-Claude Risset Inharmonique. 2.2. RISSET 9 (a) Diagramma strumento (b) Funzioni tabulate Figura 2.2.1: Diagramma dello strumento NOISE4 utilizzato da Risset in Inharmonique (a) e funzioni tabulate caricate negli oscillatori (b). 10 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE DUR = 1/p3 P5 = p4 * giampFact ; Amplitude P6 = p5 ; center frequency P7 = p6 ; bandwidth V1 = 1 B5 oscili V1, DUR, 5 B4 oscili 100, DUR, 7 B4 randh V1, B4 B3 = B5 * P5 B5 = B5 * 0.2 B5 = B5 * B4 B5 = V1 + B5 B5 = P7 * B5 B3 randi B3, B5 B6 oscili P6, DUR, 8 B4 = B4 * 0.2 B4 = V1 + B4 B6 = B4 * B6 B3 oscili B3, B6, 1 outs1 B3 endin Ho evidenziato il flusso del segnale colorando alcune variabili in modo da poterne seguire il percorso all’interno dello strumento. Si noti che soltanto uno degli oscillatori – quello più in basso – utilizza una forma d’onda (nel caso specifico un’onda sinusoidale) a frequenza audio; tutti gli altri sono utilizzati come ‘inviluppatori’ le cui quattro funzioni di inviluppo sono visibili nella Figura 2.2.1 (b). Di seguito riporto lo strumento e la partitura Csound: <CsoundSynthesizer> <CsOptions> </CsOptions> <CsInstruments> ; RISSET’S INHARMONIQUE (1977) - NOISE4.ORC ; As described in Lorrain, Denis: ; "Analyse de la bande magnetique de l’oeuvre de ; Jean-Claude Risset - Inharmonique" ; in Rapports IRCAM 26/80. ; Csound version by Antonio de Sousa Dias ; [email protected] #include "header_stereo" giamp_fact = 16 ; Amplitude factor (not in the original orchestra) ; GLISSANDI DE BRUIT instr 5 2.2. RISSET iDUR = 1/p3 iP5 = p4 * giamp_fact ; Amplitude iP6 = p5 ; center frequency iP7 = p6 ; bandwidth iV1 = 1 aB5 oscili iV1, iDUR, 5 aB4 oscili 100, iDUR, 7 aB4 randh iV1, aB4 aB3 = aB5 * iP5 aB5 = aB5 * 0.2 aB5 = aB5 * aB4 aB5 = iV1 + aB5 aB5 = iP7 * aB5 aB3 randi aB3, aB5 aB6 oscili iP6, iDUR, 8 aB4 = aB4 * 0.2 aB4 = iV1 + aB4 aB6 = aB4 * aB6 aB3 oscili aB3, aB6, 1 outs1 aB3 endin instr 6 iDUR = 1/p3 iP5 = p4 * giamp_fact iP6 = p5 iP7 = p6 iV1 = 1 aB5 oscili iV1, iDUR, 5 aB4 oscili 100, iDUR, 7 aB4 randh iV1, aB4 aB3 = aB5 * iP5 aB5 = aB5 * 0.2 aB5 = aB5 * aB4 aB5 = iV1 + aB5 aB5 = iP7 * aB5 aB3 randi aB3, aB5 aB6 oscili iP6, iDUR, 8 aB4 = aB4 * 0.2 aB4 = iV1 + aB4 aB6 = aB4 * aB6 aB3 oscili aB3, aB6, 1 outs2 aB3 11 12 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE endin </CsInstruments> <CsScore> ; RISSET’S INHARMONIQUE (1977) - NOISE4.SCO ; As described in Lorrain, Denis: ; "Analyse de la bande magnetique de l’oeuvre de ; Jean-Claude Risset - Inharmonique" ; in Rapports IRCAM 26/80. ; Csound version by Antonio de Sousa Dias ; [email protected] f1 f5 80 f6 90 f7 f8 0 4096 10 1 0 512 5 0.0009765 100 1 50 .3 50 1 30 .4 20 1 20 .5 30 1 .3 132 .0009765 0 512 5 0.0009765 150 1 50 .3 30 1 20 .4 20 1 30 .5 40 1 .2 82 .0009765 0 512 7 1 150 1 50 .6 100 .6 50 .5 50 .5 30 .3 82 .3 0 512 7 1 200 1 312 .25 ;P3 P2 P4 P5 P6 P7 ; AMP CF BW i5 0 14 187.5 1318 100 i6 0 14 187.5 1108 100 i5 0 13.5 312.5 2349 200 i6 0 13.5 312.5 2093 200 i5 0 13.3 187.5 3320 200 i6 0 13.3 187.5 3321 200 i5 0 13.1 125 4186 400 i6 0 13.1 125 4186 400 i5 0 13.0 62.5 5100 500 i6 0 13.0 62.5 5100 500 i5 0 12.9 62.5 6000 600 i6 0 12.9 62.5 6000 600 i5 0 12.7 62.5 6800 600 i6 0 12.9 62.5 6999 699 i5 0 12.7 62.5 6800 600 i6 0 12.7 62.5 6800 600 2.3. JOHAN SUNDBERG 13 e </CsScore> </CsoundSynthesizer> 2.3 Johan Sundberg §7. Regole per la sintesi delle voce Johan Sundberg, nato nel 1936 a Stoccolma, musicologo ed esperto di acustica, ha dedicato la ricerca di questi ultimi anni a temi legati alla voce. Fra i testi dedicati a questo argomento ricordo The Science of the Singing Voice, che raccoglie molti anni di ricerche sulla voce cantata. Nel contesto della tematica affrontata in questa dispensa, di particolare interesse ci pare essere un articolo apparso nella raccolta Current Directions in Computer Music Research, in cui Sundberg si sofferma sulla sintesi della voce cantata per mezzo di regole5 . Il sintetizzatore utilizzato da Sundberg permette di specificare cinque formanti e cinque larghezze di banda per ogni formante, le cui due più acute sono fisse a 150 Hz. Nella tabella riportata in Figura 2.3.1 possiamo notare i valori in Hertz delle cinque formanti seguiti dai volori in Hertz delle larghezze di banda dei primi tre. Nel grafico in Figura 2.3.2, oltre all’andamento nel tempo dei valori già visti nella tabella, possiamo notare anche il valore di altri due parametri determinanti per la sintesi della voce: il rumore della glottide e quello della lingua (Figura 2.3.2, sotto). 2.4 LPC o della codifica per predizione lineare §8. La codifica LPC La codifica Linear Predictive Coding è un metodo di sintesi dei suoni tramite analisi. Deriva il nome dalla capacità di “predire” i valori dei campioni in uscita attraverso una combinazione lineare dei parametri di un filtro e dei campioni precedenti. I dati forniti dall’analisi sono modificabili, manipolabili, rendendo questa tecnica particolarmente potente a fini musicali. I valori predetti vengono confrontati con i valori reali (si veda la Figura 2.4.1, modello semplificato di funzionamento della stima del valore) e viene fatta una stima dell’errore di predizione. Il flusso semplificato dell’analisi del segnale è riportato in Figura 2.4.2. Viene effettuata un’analisi frame by frame con una media di frames che varia fra 50 e 200 al secondo; ogni frame è descritto da 24 parametri: • • • • ampiezza del residuo (RMS1) ampiezza suono originale (RMS2) rapporto tra le due ampiezze altezza 19 coefficienti per il filtro solo poli (punti di risonanza) durata del frame La sintesi avviene secondo un mdello del tratto vocale che prevede la parte di suono vocalico (‘intonato’) prodotta da un buzz e modificata da un filtro i cui parametri sono dati dai coefficienti estratti dall’analisi e la parte di suono consonantico (rumore) prodotta da un rumore bianco (si veda la Figura 2.4.3). 14 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Figura 2.3.1: Tabella dei valori dei primi cinque formanti della voce e larghezze di banda dei primi tre formanti. 2.4. LPC O DELLA CODIFICA PER PREDIZIONE LINEARE Figura 2.3.2: Grafico dei valori nel tempo dei primi cinque formanti (F1-F5, in Hz) della voce, del livello della sorgente (L5, in dB), del rumore della glottide (NG )edellalingua( NL ), dellelarghezzedibandadeiprimitre f ormanti ( B1 − B3, inHz) 15 16 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Figura 2.4.1: Modello semplificato di predizione lineare. Figura 2.4.2: Flusso del segnale durante l’analisi nella LPC. 2.4. LPC O DELLA CODIFICA PER PREDIZIONE LINEARE (a) Italiano 17 (b) Inglese Figura 2.4.3: Il flusso dei dati nel processo di sintesi per LPC. I dati ottenuti dall’analisi della parola “sit” si possono vedere nella Figura 2.4.4. Si possono notare le colonne che contengono: 1. 2. 3. 4. 5. 6. 7. fonema; numero del frame; RMS del segnale originale; RMS del segnale residuo; errore di predizione; frequenza del suono in Hz; durata del frame in secondi. Per effettuare le modifiche che si vogliono ottenere in fase di sintesi si analizza il listato dei valori di analisi frame per frame per individuare il testo. La forma generale di un comando per editare i frame è: C, I1, I2, j, E1, E2, E3 • • • • • C carattere di controllo che indica l’istruzione; I1 numero del primo frame sul quale effettuare l’operazione; I2 numero dell’ultimo frame sul quale effettuare l’operazione; j numero del parametro sul quale effettuare l’operazione; E1, E2, E3 numeri con la virgola usati dagli operatori. Ad esempio il comando T 175 196 0.2 indica l’istruzione T, Time, che assegna ai frames dal 175 al 196 la durata di 0.2 secondi6 . §9. Charles Dodge 5 Sundberg, “Synthesis of Singing by Rule”. un elenco dei comandi utilizzati da Dodge nel programma di editing per la realizzazione di In Celebration (cfr. §9) si veda Dodge, “In Celebration: the composition and its realization in synthetic speech”, pp. 69-73. 6 Per 18 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Figura 2.4.4: Flusso dei dati ottenuti tramite LPC dall’analisi dei frames che compongono la parola “sit”. 2.4. LPC O DELLA CODIFICA PER PREDIZIONE LINEARE 19 L’utilizzo della tecnica LPC è alla base di una serie di brani di Charles Dodge. Un gruppo di quattro brevi canti intitolato Speech Songs e una composizione dal titolo In Celebration. Realizzati i primi tra la fine del 1972 e il 1973 presso i Bell Telephone Laboratories e il secondo nel 1975 presso il Columbia University Center of Computing Activities e i Nevis Laboratories, sono tutti basati su poesie di Mark Strand. Il gruppo Speech Songs7 si avvale della collaborazione di Dodge con Joseph Olive, che stava sviluppando una tecnica di sintesi basata sul tracciamento dei formanti8 . Il testo delle quattro brevi poesie di Strand per Speech Songs è il seguente: When I am with you When I am with you, I am two places at once. When you are with me, you have just arrived With a suitcase which you pack With one hand and unpack with the other. He destroyed her image He destroyed her image and thus she was no longer. When he saw her in the street He knew he had seen her before, But couldn’t place himself. A man sitting in a cafeteria A man sitting in a cafeteria Had one enormous ear And one tiny one. Which was fake? The days are ahead The days are ahead 1,926,346 to 1,926,345. Later the nights will catch up.9 Il brano In Celebration, basato su una poesia del 1973 dal medesimo titolo, sfrutta le possibilità del parlato sintetico. Il testo della poesia è il seguente: You sit in a chair, touched by nothing, feeling the old self become the older self, imagining only the patience of water, the boredom of stone. You think that silence is the extra page, you think that nothing is good or bad, not even the darkness that fills the house while you sit watching it happen. You’ve seen it happen before. Your friends 7 Si veda l’articolo Dodge, “On Speech Songs”. Interessante, per una ricostruzione ‘moderna’ del primo dei quattro brani tramite Pd, l’articolo di Miller-Puckette reperibile al seguente URL: http://crca.ucsd. edu/~msp/Publications/icmc06-reprint.dir/. 8 Olive, “Automatic Formant Tracking in a Newton-Raphson Technique”. 9 Tratto da http://www.sfcmhistory.com/Spitzer/History_204/notes/Notes_ Speech_Songs_2.htm. 20 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE move past the window, their faces soiled with regret. You want to wave but cannot raise your hand. You sit in a chair. You turn to the nightshade spreading a poisonous net around the house. You taste the honey of absence. It is the same wherever you are, the same if the voice rots before the body, or the body rots before the voice. You know that desire leads only to sorrow, that sorrow leads to achievement which leads to emptiness. You know that this is different, that this is the celebration, the only celebration, that by giving yourself over to nothing, you shall be healed. You know there is joy in feeling your lungs prepare themselves for an ashen future, so you wait, you stare and you wait, and the dust settles and the miraculous hours of childhood wander in darkness10 . La poesia è divisa in due parti: l’introduzione alla prima parte, “senza speranza, disperata, statica”11 , caratterizzata dalla parola ricorrente “You”, tema unificante, prosegue con “sit in a chair” e col coro scandito dalle parole “touched by nothing” e termina con “imagining only”, un tema a tre voci molto utilizzato anche nel seguito; la seconda parte, scandita dalla ripresa del testo “You sit in a chair”, “pur continuando il tono della prima, sottolinea una certa consapevolezza”. La partitura mescola simboli della notazione tradizionale con durate cronometriche e simboli di andamenti generici del testo (si veda la Figura 2.4.5). 2.5 Gerald Bennet e Xavier Rodet §10. “Sintesi della voce cantata” In un articolo12 presente nella raccolta Current Directions in Computer Music Research, Gerald Bennett e Xavier Rodet propongono i risultati di una ricerca in corso il cui inizio risale alla fine degli anni settanta e che ha portato alla realizzazione del software CHANT per la sintesi della voce tramite formanti. Nel rapport IRCAM n.35 del 1985, Rodet, Potard e Barrière, Chant, avevano già in parte illustrato il funzionamento della sintesi FOF (Fonctions d’Onde 10 La poesia (p. 49) e la gran parte delle informazioni che seguono in questo paragrafo sono state tratte da Dodge, “In Celebration: the composition and its realization in synthetic speech”. “Tu siedi su una sedia, toccato da niente, sentendo / il vecchio te stesso diventare il più vecchio te stesso, immaginando / solo la pazienza dell’acqua, la noia della pietra. / Tu pensi che il silenzio sia la pagina in più, / tu pensi che nulla sia buono o cattivo, nemmeno / l’oscurità che riempie la casa mentre seduto lo guardi / accadere. L’hai già visto accadere. I tuoi amici / si muovono oltre la finestra, le loro facce sporche di rammarico. / Vuoi salutarli ma non puoi alzare la mano. / Tu siedi su una sedia. Ti giri verso la morella stendendo / una rete velenosa attorno la casa. Assaggi / il miele dell’assenza. È lo stesso ovunque / tu sei, lo stesso se la voce si decompone prima / del corpo, o il corpo si decompone prima della voce. / Sai che il desiderio porta solo al dolore, che il dolore / porta alla realizzazione che porta al vuoto. / Tu sai che questo è diverso, che questo / è la celebrazione, la sola celebrazione, / che col darti al nulla, / devi guarire. Sai che vi è felicità nel sentire / i polmoni prepararsi per un futuro cinereo, / così aspetti, fissi lo sguardo e aspetti, e la polvere si deposita / e le ore miracolose della fanciullezza vagano nel buio.” 11 Dodge, “In Celebration: the composition and its realization in synthetic speech”, p. 48. 12 Bennett e Rodet, “Synthesis of the singing voice”. 2.6. MICHAEL MCNABB, DREAMSONG (a) Pagina 1 21 (b) Pagina 9 Figura 2.4.5: La prima e l’ultima pagina della partitura di In Celebration di Charles Dodge. Formantiques) e le possibilità che questo tipo di sintesi aveva nell’utilizzo anche oltre la sintesi vocale. I compositori citati in questo articolo che hanno utilizzato il software sono Gerald Bennett, Conrad Cummings, Jean-Baptiste Barrière, Jonathan Harvey, Jukka Tiensuu, Harrison Birstwistle, Kaija Saariaho, Michel Tabachnik, Gerard Grisey, Alejandro Vinao, Tod Machover e Marco Stroppa. 2.6 Michael McNabb, Dreamsong §11. Voci ed altri suoni “Dreamsong è stato composto e realizzato al CCRMA (Center for Computer Research in Music and Acoustics) tra il 1977 e il 1978. L’intento di base del brano era di integrare un insieme di suoni sintetizzati con un insieme di suoni naturali registrati digitalmente in modo tale da formare un continuum di materiale sonoro disponibile.”13 . Fra i cinque materiali sonori essenziali utilizzati da McNabb vi sono 13 McNabb, “Dreamsong: The Composition”, p. 36. La gran parte delle informazioni riportate in questo paragrafo sono tratte da questo articolo. 22 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE 1. voce cantata elaborata e risintetizzata; 2. elaborazioni di parlato e di folla; gli altri materiali sono 3. modulazione di frequenza (FM) semplice; 4. FM complessa; 5. sintesi additiva. I suoni vocali cantati sono del soprano Marilyn Barber: dieci note singole tenute e un glissando. La gran parte dei materiali armonici e melodici sono tratti dai due modi visibili nella Figura 2.6.1 Figura 2.6.1: Modi utilizzati in Dreamsong da McNabb per ricavare tutte le altezze di melodie e accordi. Nella composizione vi sono due temi: uno primario (Figura 2.6.2, sopra), tratto da un sutra Zen, e uno secondario (Figura 2.6.2, sotto) Figura 2.6.2: Le due melodie utilizzate in Dreamsong da McNabb. Interessanti alcuni configurazioni ritmiche. In particolare l’uso dei ritmi derivati dal calcolo delle subottave di alcune note chiave dei modi utilizzati. “Per esempio, a 102 secondi il tono principale nel primo accordo oscillante è F, 349,23 Hz. Sei ottave sotto troviamo 5,457 Hz, che ha un periodo di 0,183 secondi. Questa è la frequenzxa con il quale l’accordo oscilla da canale a canale ed è quattro volte la frequenza delle campane sul si bemolle in sottofondo.”14 Il programma principale utilizzato è un discendente del Music V di Mathews, il MUS10, la versione di Leland Smith del MUSCMP di Tovar. Questa versione permette di specificare in linguaggio Algol alcune routine, funzioni e vettori, che alleggeriscono (come le PLF in Music V) la scrittura della partitura e permettono di gestire eventi complessi grazie alla programmazione. Possiamo vedere il listato dello strumento SING nella (Figura 2.6.3) 14 McNabb, “Dreamsong: The Composition”, pp. 36-37. 2.7. FM O DELLA MODULAZIONE DI FREQUENZA 23 Figura 2.6.3: Listato dello strumento SING, utilizzato per modellare una voce cantata in sintesi additiva per Dreamsong da McNabb. 2.7 FM o della modulazione di frequenza §12. John Chowning: biografia e percorso teorico John Chowning nasce nel 1934. Studia composizione a Parigi con Nadia Boulanger (’59’62). Nel 1964 a Stanford lavora sotto la supervisione di Max Mathews. Applica la modulazione di frequenza in banda audio (1967). Ha insegnato composizione e sintesi dei suoni a Stanford ed è stato direttore del CCRMA (Center for Computer Research and Acoustics). Il suo percorso teorico in ambito musicale vede tre tappe fondamentali: 1. la simulazione di sorgenti sonore in movimento15 ; 2. la modulazione di frequenza (d’ora in poi FM)16 ; 3. la sintesi della voce17 . La FM verrà utilizzata nei sintetizzatori commerciali della Yamaha a partire dal GS 1 e a seguire in tutta la serie aaXnn (dal TX81Z alla fortunata schiera di modelli del DX7). §13. Phoné di John Chowning John Chowning nel 1979 sviluppa la tecnica FM per la voce cantata (in particolare di soprano). Tra il dicembre 1979 e l’agosto 1980 soggiorna infatti all’IRCAM18 , dove trova Johan Sundberg19 . Il modello base che utilizza è quello di una FM complessa a tre portanti e una modulante oppure quello con tre FM semplici, la cui frequenza modulante coincide con la frequenza fondamentale (ovvero la nota cantata). I due anni successivi, trasferitosi a Stanford, vi realizza Phoné, che vedrà la prima esecuzione assoluta a Parigi fra il 17 e il 21 febbraio 15 Chowning, “The simulation of moving sound sources”. “The Synthesis of Complex Audio Spectra by Means of Frequency Modulation”. 17 Si vedano Chowning, “Synthesis of the singing voice by frequency modulation” e Chowning, “Frequency modulation synthesis of the singing voice”. 18 Gran parte delle informazioni biografiche sono tratte da Bossis, “Phoné”. 19 Si veda §7. 16 Chowning, 24 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE 1981. Fra gli stimoli che Chowning aveva ricevuto troviamo il brano Dreamsong di Michael McNabb (si veda §11) e gli studi di Rodet e Bennet sulla sitesi della voce per il progetto CHANT all’IRCAM. Da una prima analisi della voce cantata possiamo trarre alcune semplici conseguenze sulle sue caratteristiche principali: • il primo formante (per le voci femminili questo avviene sempre) coincide con la fondamentale; • 2 o 3 picchi secondari nello spettro dipendono dalla vocale e dalla fondamentale; • la frequenza dei formanti dipende dalla fondamentale; • in fase di attacco solo l’ampiezza del primo formante è significativa, mentre l’ampiezza degli altri diventa significativa nella fase quasi-stazionaria; • l’intensità delle formanti più acute al decrescere dell’intensità globale decresce più rapidamente di quella delle formanti più gravi (e viceversa); • si nota una piccola ma distinguibile variazione d’altezza anche in assenza di vibrato. In Phoné Chowning intende esplorare due estremi percettivi come polarità: brevi suoni percussivi e vocali cantate. Lo strumento FM che utilizza va da 2 a 6 portanti e 1 modulante. Carattere preponderante hanno le interpolazione timbriche e gli effetti’ per simulare la voce (vibrato, [. . . ]). Un esempio di interpolazione timbrica lo possiamo ascoltare nel passaggio da suono di campana a voce per tornare nuovamente a suono di campana realizzato tramite attacco di campana, vibrato tipicamente vocale, decadimento di campana. 2.8 Jonathan Harvey §14. Cenni biografici Nato a Warwickshire (UK) nel 1939, Jonathan Harvey viene invitato da Pierre Boulez a lavorare all’IRCAM nei primi anni ottanta, dove realizza, fra gli altri, Mortuos Plango, Vivos Voco per solo nastro, Bhakti (1982) per ensemble ed elettronica e il quartetto d’archi No.4, con live electronics. Harvey ha anche composto per altre formazioni: orchestra (Tranquil Abiding (1998), White as Jasmine (1999) e Madonna of Winter and Spring (1986) – quest’ultimo eseguito dai Berliner Philharmoniker diretti da Simon Rattle nel 2006), camera (quattro quartetti d’archi, Soleil Noir/Chitra, e Death of Light, Light of Death del 1998) e opere per strumento solista. Ha scritto svariate opere per coro senza accompagnamento ampiamente eseguite – così come una grande cantata per il BBC Proms Millennium, Mothers shall not Cry (2000). La sua opera da chiesa Passion and Resurrection (l981) è stata il soggetto di un film per la televisione BBC, ed è stato eseguito per diciassette volte di seguito. La sua opera Inquest of Love, commissionata da ENO, è stata eseguita per la prima volta under the baton di Mark Elder nel 1993 e ripresa al Theatre de la Monnaie di Brussels nel 1994. La sua terza opera, Wagner Dream (2006), commissionata dalla Nederlandse Oper e realizzata all’IRCAM, è stata eseguita la prima volta con grande successo nel 2007. Il 2008 vede la prima di Messages (per il Rundfunkchor Berlin e i Berlin Philharmoniker) e Speakings (co-commissione fra BBC Scottish Symphony Orchestra, IRCAM e Radio France); Speakings è stato il culmine della sua residenza (2005-08) con la BBC Scottish Symphony Orchestra, dalla quale sono nati anche Body Mandala (2006) e ...towards a pure land (2005). 2.8. JONATHAN HARVEY 25 È dottore onorario delle università di Southampton, Sussex, Bristol, Birmingham e Huddersfield, è membro dell’Accademia Europaea e nel 1993 è stato premiato con il prestigioso premio Britten per la composizione. Nel 2007 è stato premiato con il Premio Giga-Hertz per una vita dedicata alla musica elettronica. Ha pubblicato due libri nel 1999, rispettivamente sull’ispirazione e sulla spiritualità. Uno studio di Arnold Whittall sulla sua musica è apparso nel 1999, pubblicato da Faber & Faber (e in francese dall’IRCAM) nello stesso anno. Due anni dopo John Palmer ha pubblicato uno studio sostanziale: Jonathan Harvey’s Bhakti, Edwin Mellen Press. Michael Downes ha pubblicato un libro su due sue opere nel 2009 con l’editore Ashgate. Harvey è stato professore di musica alla Sussex University tra il 1977 e il 1993 dove è attualmente professore onorario. È stato professore di musica alla Stanford University (US) tra il 1995 e il 2000, è membro onorario del St. John’s College, Cambridge ed è stato membro dell’Istituto di Studi Avanzati di Berlino nel 200920 . §15. Mortuos Plango, Vivos voco Il brano di Jonathan Harvey Mortuos Plango, Vivos Voco21 , per nastro a otto tracce, è stato realizzato all’IRCAM nel 1980 con l’assistenza tecnica di Stanley Haynes, il quale, parlando delle tecniche di PV in un articolo del 1982, afferma che [t]he evolution of the spectra can be modified either by changing the functions or by multiplying them by modifying functions produced by oscillators within the computer instrument. This gives the possibility of beginning with a recognizably instrumental or vocal sound and gradually shifting the amplitude and frequency of each harmonic component to produce a new spectrum. The British composer Jonathan Harvey has exploited these effects in a number of pieces, creating instrumentlike tones whose harmonic components spread out in pitch and equalize in amplitude to come to rest on chords22 . Harvey utilizza il programma di analisi tramite FFT allora presente all’IRCAM, che proveniva dal pacchetto S di analisi del suono interattiva sviluppato all’Università di Stanford23 . Harvey, cinque anni dopo la composizione di Mortuos Plango, Vivos Voco, parlando del timbro e dopo aver fornito alcuni esempi di pratiche di compositori quali Boulez, Stockhausen, Ligeti, Grisey, Murail, li accomuna sostenendo che “they are all playing with the identity given to objects by virtue of their having a timbre, in order to create ambiguity”24 . Il senso di ambiguità, già accennato in “Identity and Ambiguity: The Construction and Use of Trimbral Transitions 20 Copyright: Faber Music Ltd, dicembre 2009; notizie tratte da http://www.vivosvoco.com/ biography.html. 21 Un’introduzione al brano la si può leggere in Harvey, “Mortuos Plango, Vivos Voco: A Realization at IRCAM”, dal quale sono state tratte molte delle informazioni presenti in questo paragrafo. La prima esecuzione è avvenuta il 30 novembre 1980 al Lille Festival. Per un’analisi del brano che ripercorre, con tecnologie attuali, il processo di realizzazione dei suoni tramite l’analisi delle registrazioni della campana e della voce si veda Dirks, An Analysis of Jonathan Harveys “Mortuos Plango, Vivos Voco”. Un buon esercizio di ‘ricostruzione’ informatica lo propone Miller Puckette e lo si può trovare qui http://crca.ucsd.edu/~msp/pdrp/latest/files/ doc/harvey/harvey.htm. Ad oggi, l’unica analisi di mia conoscenza che affronta il problema della distribuzione del brano nello spazio è Zattra, Studiare la computer music, pp. 243-256. Un’edizione discografica stereofonica la si può trovare in Aa. Vv. Computer Music Currents 5. Di questa ‘ricostruzione’ si può trovare una dettagliata spiegazione in 2.8.1. 22 Haynes, “The Computer as a Sound Processor: A Tutorial”, p. 14. 23 Harvey, “Mortuos Plango, Vivos Voco: A Realization at IRCAM”, p. 22. 24 Harvey, “The Mirror of Ambiguity”, pp. 178-179. 26 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE and Hybrids”, viene reso grazie a ibridazione fra timbri diversi, realizzabile tramite tecniche di phase-vocoding. Particolare importanza è stata attribuita da Harvey, per approfondire il concetto di ambiguità, allo studio dei suoni di strumenti acustici, in particolare di culture lontane da quella occidentale. In un articolo scritto a quattro mani con Jan Vanenheede mentre lavorava all’IRCAM25 , sebbene scritto nel 1985 e legato alla realizzazione del brano Bhakti (1982) per 15 esecutori e nastro quadrifonico, Harvey testimonia del suo interesse per l’“ambiguità” dei timbri strumentali, per la transizione fra un timbro e l’altro, per le possibilità di ibridazione timbrica, aspetti che lo avevano già interessato nella composizione di Mortuos plango, vivos voco. Nella risintesi dei suoni vocali viene tuttavia utilizzata una tecnica ‘granulare’ (la FOF, motore di sintesi del programma CHANT sviluppato all’IRCAM26 ). La compresenza di tecniche sia di sintesi (granulare tramite FOF) sia di sintesi per analisi (tramite filtro ad eterodina) evidenzia la diversità degli strumenti utilizzati dai compositori, e soprattutto la diversità dei parametri di controllo a loro disposizione per generare nuovi mondi sonori: da un punto di vista compositivo ragionare sui parametri della sintesi granulare o sui parametri di un banco di oscillatori significa creare suoni, strutture e processi musicali anche molto distanti fra loro. I materiali concreti utilizzati da Harvey in Mortuos Plango, Vivos voco sono due: la voce del figlio e la grande campana della cattedrale di Winchester, per la quale Harvey ha scritto molta musica corale. Il testo letto e cantato dalla voce è l’iscrizione presente sulla campana: “Horas Avolantes Numero, Mortuos Plango: Vivos ad Preces Voco”27 . La fase di analisi del suono ha occupato una buona parte del lavoro di Harvey, in quanto da essa si sono ricavate molte informazioni per la costruzione del brano, utili sia alla sintesi dei suoni sia alle relazioni formali e alle scelte strutturali. Il suono della campana, analizzato mezzo secondo dopo l’inizio del rintocco tramite FFT, riporta i valori di altezza ‘trascritti’ in notazione tradizionale riprodotti in Figura 2.8.1. 8 Figura 2.8.1: Le parziali della campana della cattedrale di Winchester ottenute da Harvey tramite FFT seguite dalla “strike note”. “Le otto sezioni del lavoro, con le loro altezze centrali, sono strutturate attorno alle parziali mostrate nella Figura 2.8.2”28 . La sintesi e il mixaggio dei suoni sono stati realizzati con la versione dell’IRCAM del Music V. La possibilità di controllare l’ampiezza di ogni singola parziale in fase di risintesi ha permesso ad Harvey di variarne il decadimento singolarmente, ad esempio aumentando la durata di quelle acute, normalmente rapide, e diminuendo la durata di quelle gravi, normalmente lente. Harvey, alcuni anni dopo, sottolinea che “instead of making all the models with FOFs as we originally intended, we finally had to use different types of synthesis for the models. So the bell, although being possible with pure FOFs is a pure additive synthesis instrument, to get a more precise 25 Vandenheede e Harvey, “Identity and Ambiguity: The Construction and Use of Trimbral Transitions and Hybrids”. 26 Si veda Rodet, Potard e Barrière, Chant. 27 “Conto le ore che volano, piango i morti: i vivi chiamo alla preghiera”. 28 Harvey, “Mortuos Plango, Vivos Voco: A Realization at IRCAM”, p. 22. 2.8. JONATHAN HARVEY 27 Figura 2.8.2: Le note/frequenze, tratte dallo spettro della campana, attorno alle quali ruotano le otto sezioni del brano. control over its time evolution”29 , proprio ciò che aveva messo in pratica in Mortuos plango, vivos voco. Un’interessante applicazione della risintesi è quella che prevede la distribuzione nello spazio ottofonico delle singole parziali ricavate dall’analisi del suono della campana, che “danno all’ascoltatore la curiosa sensazione di essere dentro la campana”30 . La suddivisione spaziale dello spettro di un suono è a mio avviso uno degli aspetti centrali nella composizione elettroacustica; di questo utilizzo ci fornisce una descrizione anche Robert Normandeau, quando afferma che “what is unique in electroacoustic music is the possibility to fragment sound spectra amongst a network of speakers. [. . . W]ith multichannel electroacoustic music, timbre can be distributed over all virtual points available in the defined space”31 . 2.8.1 Descrizione del patch Pure Data di Miller Puckette per l’‘esecuzione’ di Mortuos plango, vivos voco [Francesco Grani, a.a. 2011-12] §16. Il Patch mortuos.pd Il patch Pure Data descritto in questa sezione appartiene alla collezione di patches PD Repertory Project32 , ideata e mantenuta dal ricercatore Miller Puckette creatore anche dell’ambiente di sviluppo Pure Data e di altri linguaggi di programmazione dedicati alla creazione musicale. Scopo del PD Repertory Project – come dichiarato dall’autore nel file README.txt della collezione – è quello di “realizzare l’ambiente esecutivo di brani del repertorio classico di musica elettronica, [...] per permetterne una esecuzione più semplice [e] per poterne studiare il funzionamento [a scopo didattico]”. §17. Schermata principale del Patch In apertura è utile fornire un chiarimento: il patch33 mortuos.pd non esegue il brano Mortuos Plango, Vivos Voco di Harvey; piuttosto permette di replicare il tipo di trasformazioni che 29 Vandenheede e Harvey, “Identity and Ambiguity: The Construction and Use of Trimbral Transitions and Hybrids”, p. 100. 30 Harvey, “Mortuos Plango, Vivos Voco: A Realization at IRCAM”, p. 24. 31 Normandeau, “The visitors and the residents”, p. 62. 32 Puckette, PD Repertory Project, Version 12 2009. La collezione è scaricabile dal web ed è coperta da una licenza Standard Improved BSD License (The Linux Information Project 2005). Il pacchetto compresso per il download è raggiungibile all’indirizzo: http://crca.ucsd.edu/~msp/pdrp/latest/files/ doc/. La versione della collezione impiegata per redarre il presente documento è la numero 12, datata 24 Settembre 2009 ed è eseguita all’interno dell’ambiente Pure Data Extended (PD Extended 2004, PD Community 2003) versione 0.41.4-extended, recuperabile all’indirizzo: http://puredata.info/downloads/ pd-extended/releases 33 Il termine Patch è generalmente impiegato nel campo della musica elettronica al femminile; in questo lavoro è invece utilizzato il genere maschile, per le motivazioni che seguono: con il termine Patch (trad. toppa, rattoppo, 28 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Harvey ha impiegato per creare il proprio brano. In particolare il Patch esegue un morphing spettrale. È possibile scegliere di operare il morphing su un segnale audio in ingresso, oppure su un segnale audio preregistrato. Figura 2.8.3: Schermata principale del Patch mortuos.pd. Il patch principale è suddiviso in numerosi sottoprogrammi (subpatchers, si veda la Figura 2.8.3) all’interno dei quali vengono eseguite in modo ordinato le operazioni dell’ambiente pezza) si intende descrivere nel gergo informatico un software creato per modificare una specifica porzione del codice di un altro software di cui sia noto un problema o un errore di programmazione (Wikipedia s.d.); in questo senso la Patch va a porre una “toppa” all’interno del software malfunzionante, ed è perciò sensato l’uso del termine al femminile. Anche nel campo della pirateria informatica, Patch assume il significato femminile di toppa o pezza, perché si tratta ancora una volta di un codice atto a modificare una precisa porzione di un programma legalmente limitato, per renderlo illegalmente illimitato. Nel gergo dei linguaggi di programmazione grafici (caso tipico nella musica elettronica) tuttavia con la parola Patch si intende descrivere nel complesso l’insieme di istruzioni date all’ambiente di programmazione (ad es. Pure Data) per fargli eseguire l’insieme di operazioni volute dal programmatore. In definitiva, in questo contesto Patch non significa toppa, e non indica alcun programma ‘minore’ necessario a modificare o ad aggiustare un programma ‘maggiore’. In questo caso Patch significa Programma oppure di Algoritmo o ancora Codice sorgente o Sequenza di istruzioni, tutti termini propriamente maschili. È per questo motivo che impiegheremo a nostra volta il maschile nella redazione del presente lavoro. 2.8. JONATHAN HARVEY 29 esecutivo. Centro nevralgico delle trasformazioni sonore è il subpatch pd osc-bank, che analizzeremo nel paragrafo ad esso dedicato. All’interno della schermata principale sono presenti i vari parametri di controllo che governano la creazione dei suoni e l’impostazione dei parametri che ne determinano le caratteristiche. La prima operazione da fare, una volta avviato il patch, è cliccare sul segnale di bang collegato al patcher score-editor.pd. In questo modo vengono richiamate una serie di istruzioni all’interno del patcher sequencer.pd che permettono di eseguire un piccolo brano musicale di dimostrazione delle funzionalità del Patch. Editando i files di testo qlist1.txt e score1.txt (presenti nella sottodirectory “score”) è possibile creare la propria sequenza di istruzioni da inviare al sequencer affinché esegua un brano musicale di nostra creazione. I patchers score-editor e sequencer sono librerie comuni a tutta la collezione PD Repertory Project, perciò non verranno analizzati in dettaglio34 . Altri controlli presenti nella schermata principale sono: • Live input: selezionando o deselezionando questo toggle si sceglie se operare il morphing spettrale tra diversi istanti o zone dello spettro del segnale in input, oppure del segnale preregistrato bell.aiff ; • i controlli di volume nelle variabili loop-amp e osc-amp: rispettivamente relativi all’ampiezza del segnale letto da file e del segnale audio generato dal banco di oscillatori del Patch; • pick out partial: permette di scegliere una precisa parziale da ascoltare in “solo”; • gliss time: regola il tempo di glissando tra un set di frequenze/ampiezze del banco di oscillatori ed il successivo (potremmo chiamarlo tempo di “morphing”); • find partial staring here: questa soglia opzionale comunica al banco di oscillatori di non utilizzare tutte le frequenze al di sotto del numero impostato; • snapshot bang: messaggio da premere per “fotografare” il live input microfonico ed effettuare dunque successivamente una transizione spettrale verso di lui impostando il banco di oscillatori sulle sue parziali. §18. Subpatch pd startup Come suggerisce il nome, questo subpatch viene caricato all’avvio del patch principale mortuos.pd con il duplice compito di: 34 I patchers sequencer.pd e score-editor.pd si trovano all’interno della directory /lib della collezione PD Repertory Project . In questa stessa posizione si trovano tutti gli oggetti da considerarsi librerie, ossia strumenti utilizzati da più Patchers senza che nessuno di essi ne detenga in qualche modo la paternità. Questo genere di suddivisione di un programma in due tipi di oggetti, quelli caratteristici del programma specifico e quelli comuni a più programmi, è molto utilizzato nello sviluppo informatico. Facciamo un esempio: i programmi Gioco-a-Dadi e Gioco-a-Tombola eseguono tutti e due un’estrazione casuale ad ogni mossa del gioco, saranno perciò istruiti su un diverso set di numeri da estrarre (un numero alla volta, da 1 a 90, nel programma della Tombola, e due numeri per volta, entrambi da 1 a 6, nel programma dei Dadi), ma il meccanismo atto a generare il caso nell’estrazione sarà unico, e lo potremmo chiamare random. Random è una libreria. Chiamando ad esempio Random(1,1-90) (=“esegui una estrazione di un numro tra 1 e 90”) potremmo giocare ai dadi, mentre chiamando Random(2,1-6,1-6) (=“esegui due estrazioni, ognuna di un numero tra 1 e 6”) potremmo ad esempio giocare ai Dadi. In ogni caso Random non apparterrà a nessuno dei due software in particolare e lo posizioneremo in una directory (ad es. /lib) dove possa essere utilizzato da tutti i software che ne facciano richiesta. I Patchers score-editor.pd e sequencer.pd sono proprio librerie di questo tipo e sono impiegati da tutti i Patchers della collezione PD Repertory Project che ne abbiano bisogno, pur senza appartenere a nessuno di essi in particolare. 30 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE • avviare il motore audio DSP di Pure Data • mandare il segnale di inizializzazione init che sortisce più effetti: – all’interno di questo subpatch ordina il caricamento del file audio di default bell.aiff nella tabella di nome array5, che si trova nel patch principale (Nota: array5 misura 88203 campioni, ossia 2 secondi di audio campionato a 44100 Hz, mentre bell.aiff contiene 4 secondi di audio campionato a 44100 Hz. Viene perciò caricata in array5 solo una porzione del file audio letto); – nel subpatch pd osc-bank, in ognuno dei subpatchers voice N, attiva un messaggio di reset che imposta momentaneamente a zero il valore dell’ampiezza su cui è intonato il tale oscillatore N-esimo; ciò avviene per tutti gli oscillatori. Figura 2.8.4: Patcher pd startup. §19. Subpatch pd analysis Questo subpatch riceve il segnale di input (ossia il campione audio memorizzato nella tavola array5 oppure il segnale microfonico dal live-input) dal patch pd inputs attraverso la variabile audio input-signal e ne esegue ininterrottamente l’analisi delle parziali con lo strumento sigmund˜. Sigmund˜ è configurato in questo caso per produrre in uscita i picchi delle prime 50 sinusoidi individuate dall’analisi, ordinate in ordine descrescente di ampiezza. In uscita da sigmund˜ si ottiene dunque, ad ogni snapshot bang, una lista di 5 numeri per riga: 1. 2. 3. 4. 5. numero d’ordine della sinusoide individuata; fequenza della sinusoide; ampiezza della sinusoide; componente cosinusoidale; componente sinusoidale; Quando è inviato il messaggio snapshot bang dalla finestra principale vengono fatte passare le prime tre colonne (attraverso unpack) di ogni riga dell’output di sigmund˜ le quali si immettono ordinatamente in due tabelle come segue: • in array1 viene caricata la lista delle frequenze delle componenti sinusoidali (con numero d’ordine, frequenza, ampiezza); • in array2 viene caricata la lista delle ampiezze delle componenti sinusoidali (con numero d’ordine, frequenza, ampiezza). §20. Subpatch pd arrays 2.8. JONATHAN HARVEY 31 Figura 2.8.5: Patcher pd analysis. Figura 2.8.6: Patcher pd arrays. Questo subpatch contiene le tavole in cui sono salvate le frequenze (array1) e le ampiezze (array2) delle parziali individuate da pd analysis. La tavola array6 non è utilizzata e si può ipotizzare che sia stata inserita per caricare un eventuale secondo campione audio. §21. Subpatch pd inputs Questo subpatch dovrebbe in realtà chiamarsi pd inputs-outputs perché oltre alla lettura del segnale in ingresso dalla scheda audio gestisce anche la ricezione e somma di tutti i segnali audio inviati dal banco di oscillatori pd osc-bank, ne regola il volume finale (secondo il valore della variabile osc-amp ricevuta dalla schermata principale) e ne indirizza il segnale all’uscita dac˜. Per maggiore chiarezza le varie regioni di questo subpatch sono commentate direttamente nella Figura 2.8.9. Notiamo che la lettura della tabella array5 (un’operazione di loop-playing) contiene solo in apparenza un time-stretching: l’oscillatore phasor˜ 0.5 scorre difatti array5 da capo a fine ad 32 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Figura 2.8.7: Patcher pd inputs. una velocità di 0.5 Hz. Essendo il frammento audio contenuto in array5 campionato a 44100 Hz e la dimensione di array5 pari a ˜ 88200 campioni, operando su un DSP a 44100 Hz di clock, ne risulta una velocità di lettura pari a quella originale. §22. Subpatch pd messpeak Principalmente, questo subpatch lavora in modo conseguente al subpatch pd analysis. Quando pd analysis ha terminato di individuare le parziali, come richiestogli dall’invio di un segnale di “snapshot bang” nella finestra principale, allora un segnale snap-box è inviato a pd messpeak. A questo punto (alla ricezione di snap-box) vengono attivati i 20 subpatch dofreq ed i 20 subpatch doamp. I 20 patchers dofreq ([dofreq 0], [dofreq 1], . . . , [dofreq 19]) hanno ognuno il compito di accedere alla tabella array1 – in cui sono memorizzate le frequenze delle parziali individuate da pd analysis – e di caricarne il valore (= la frequenza) contenuto nella posizione corrispondente alla variabile ricevuta come argomento, convertendo poi ogni frequenza in un valore MIDI 2.8. JONATHAN HARVEY 33 Figura 2.8.8: Patcher pd messpeak. attraverso l’operatore ftom. Ad esempio dofreq 0 leggerà il primo valore contenuto nella tabella array1 (ad es. 327.9 Hz) e lo passerà in uscita come nota MIDI (nell’esempio 63.91). Se nella finestra principale è impostato il valore find partial staring here, questo viene trasmesso alla variabile shift1 che sposta in alto tutti i numeri d’ordine dei patchers dofreq i quali, in questo modo, leggeranno da array1 un set di frequenze posizionate dal valore scelto per la parziale più bassa in poi. Con la procedura descritta viene caricato nella variabile oscfreq un set di 20 parziali contigue tra quelle individuate dall’analisi del segnale live in ingresso. La variabile oscfreq è poi ricevuta dal subpatcher pd unpacker che provvede a suddividere il vettore in singoli valori di frequenza, assegnandone ognuno alle variabili vf1, vf2, . . . , vfN che verranno caricate poi ognuna da uno dei subpatch voice del banco di oscillatori pd osc-bank. Similarmente a quanto descritto per i patchers dofreq avviene per i patchers doamp. In questo caso uno stesso tipo di percorso ed operazioni richiama dalla tabella array2 le ampiezze delle parziali in uso per inviarle al banco di oscillatori attraverso le variabili va1, va2, . . . , vaN. In sintesi dunque il subpatch pd messpeak preleva dagli array 1 e 2 la lista di frequenze ed ampiezze su cui impostare il banco di oscillatori ed invia i valori al banco di oscillatori pd 34 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE osc-bank ed al patcher pd box-control che permette di salvare e richiamare fino a due diversi set di frequenze ed ampiezze oltre a quella attualmente in uso. Prima di raggiungere però il banco di oscillatori, i due vettori oscfreq ed oscamp, passarenno attraverso pd unpacker che li suddividerà in una serie di valori singoli con cui inizializzare ogni singola voce del banco di oscillatori. §23. Subpatch pd box-control Questo subpatch riceve la lista di valori di frequenze e di ampiezze delle parziali impiegate dal banco di oscillatori. Al click del messaggio save1 bang – nella finestra principale – viene attivato l’oggetto pack che raduna le variabili vf1, . . . , vfN e va1, . . . , vaN rispettivamente nei vettori box_f1 (vettore delle frequenze) e box_a1 (vettore delle ampiezze). Similarmente a quanto descritto per il messaggio save1 bang, cliccando il messaggio save2 bang la configurazione attuale è memorizzata in un secondo set di vettori: box_f1 e box_a2; in questo modo è possibile salvare in ogni momento fino a due set di parziali. Per richiamare uno dei due set memorizzati, è sufficiente cliccare – sempre nella finestra principale – i messaggi recall1 bang o recall2 bang. Alla pressione, ad esempio, di “recall1 bang” i vettori box_f1 e box_a1 vengono spediti alle variabili globali oscamp ed oscfreq (che sono ricevuti da pd unpacker). Figura 2.8.9: Patcher pd box-control. 2.8. JONATHAN HARVEY 35 Per praticità, i vettori box_f1, box_f2 e box_a1, box_a2 non sono collocati all’interno di pd box-control, ma direttamente nella finestra principale. In questo modo è possibile avere un feedback visivo immediato sul funzionamento delle operazioni di salvataggio. Inoltre, con un semplice colpo d’occhio, è possibile avere informazione su quale set di valori sarà richiamato nel momento in cui premeremo recall1, oppure recall2, evitando così il caricamento di set di valori non desiderati o imprevisti. §24. Subpatch pd unpacker Questo subpatch si occupa di suddividere i vettori oscfreq ed oscamp nei singoli valori in essi contenuti. I venti valori contenuti in oscfreq sono indirizzati a venti variabili numerate in modo progressivo: vf1, . . . , vf20, ed allo stesso modo i venti valori di ampiezza contenuti in oscamp sono smistati alle variabili va1, . . . , va20. Le variabili vfX e vaX sono impegate dal banco di oscillatori pd osc-bank e dal subpatcher per il salvataggio delle scene pd box-control. (a) Patcher pd unpacker (b) Patcher pd osc-bank Figura 2.8.10: I subpatchers pd unpacker e pd osc-bank. §25. Subpatch pd osc-bank All’interno di pd osc-bank sono radunati i venti oscillatori cosinusoidali [voice vf1 va1 1], [voice vf2 va2 2], . . . , [voice vf20 va20 20] intonati ognuno su una delle venti parziali armoniche del segnale live-input analizzato da pd analysis. Ogni istanza del patch voice.pd richiamata in questo modo accetta in ingresso tre variabili: • vf -i : frequenza a cui viene intonato l’oscillatore i-esimo; 36 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE • va-i : ampiezza assegnata al segnale dell’oscillatore i-esimo; • i : numero di parziale generata dall’oscillatore i-esimo. All’interno dell’i-esima istanza del patch voice.pd un oscillatore cosinusoidale viene intonato alla frequenza i-esima e scalato all’ampiezza i-esima. La descrizione dettagliata del funzionamento di voice.pd si trova direttamente in Figura 2.8.11 per una maggiore chiarezza. Quando una certa parziale (pick out partial) è impostata in “solo” dalla finestra principale, tutti gli oscillatori intonati su una parziale di numero d’ordine diverso da quella in solo, automaticamente si mutano. Ogni nuovo set di frequenze assegnato agli oscillatori viene raggiunto con un glissando tra la frequenza precedente e la nuova ed è accompagnato da un portamento lineare dell’ampiezza dal valore precedente al nuovo. Queste operazioni di glissando hanno una durata impostata nella finestra principale del Patch attraverso gliss time; nel caso in cui venga però impostato un tempo troppo breve, questo viene forzato al valore minimo di 20 ms per la transizione tra le successive ampiezze (non è invece forzato ad alcun valore minimo il tempo di transizione tra successive frequenze. Ad esempio un gliss time = 2, comporterebbe un salto istantaneo del set di frequenze, accompagnato da un glissando di 20 ms tra le ampiezze precedenti e nuove). Figura 2.8.11: Patcher voice.pd. 2.8. JONATHAN HARVEY 37 Il segnale audio di ogni oscillatore è inviato al bus audio osc-sum di cui viene poi regolato il volume globale nel patcher pd inputs che lo invia all’uscita fisica del dac˜, come abbiamo visto all’inizio dell’analisi. Considerando il risultato aggregato del banco di oscillatori pd osc-bank resteremo sorpresi dal fascino sonoro del risultato; parleremo dunque di un effetto sonoro di morphing spettrale che offre notevoli suggestioni, specialmente impiegando la voce umana come segnale di live-input. Anche deselezionando il toggle live input nella finestra principale ed operando dei morphing spettrali sul campione audio contenuto in array5 è comunque possibile rendersi conto delle potenzialità del metodo di morphing illustrato. 38 CAPITOLO 2. VOCE SINTETICA E VOCE NATURALE Capitolo 3 Trevor Wishart 3.1 Notizie biografiche §26. Biografia, riconoscimenti e poco altro Compositore, insegnante, autore di saggi, ricercatore e sviluppatore di software per la musica, Trevor Wishart nasce a Leeds, in Gran Bretagna, nel 1946. Ha studiato ad Oxford, all’Università di Nottingham e di York. Presso quest’ultima ha conseguito, nel 1973, il Dottorato in Composizione. La sua formazione avviene principalmente nell’ambito della musica tradizionale ma la sua carriera di compositore si svolge soprattutto nella produzione di musica elettronica analogica e digitale. Wishart non ha mai occupato un posto ufficiale nel mondo accademico, che fosse un’Università o un Conservatorio, prediligendo una carriera indipendente. In anni recenti ha iniziato a collaborare come professore onorario all’Università di York1 . Negli anni della formazione, tradizionale ed accademica, fu molto colpito dall’ascolto di alcuni lavori elettronici di Xenakis, Berio, Stockhausen e dei concretisti di Pierre Schaeffer. Un primo passo verso la musica elettronica avviene con l’acquisto di un modesto registratore a nastro magnetico, attraverso cui iniziò a registrare suoni industriali da utilizzare nelle sue composizioni. La sua carriera è stata valorizzata da numerosi riconoscimenti come il recente Giga-Herz Grand Prize rilasciato dallo ZKM (Zentrum für Kunst und Medientechnologie), il Golden Nica al Linz Ars Electronica, il premio Gaudeamus e l’Euphonie d’Or al Festival di Bourges. I suoi lavori sono stati commissionati da importanti istituzioni quali l’Ircam di Parigi, la Biennale di Parigi e la BBC Promenade Concerts2 . Compositore residente in Australia, Canada, Olanda, Berlino, USA, presso le università di York, Cambridge e Birmingham. Attualmente Honorary Visiting Professor presso l’Università di York e AHRB Research Fellow presso l’Università di Birmingham. Il suo libro Sounds Fun di giochi musicali educativi è stato tradotto e pubblicato in giapponese. È membro fondatore della Composer’s Guild. Nel 2010 ha partecipato come docente alla Session #14 dell’ILV (Institute for Living Voice) tenutasi a Venezia, presso la Fondazione “Giorgio Cini” e ospitata dal laboratorioarazzi, dove ha eseguito, durante un concerto in cui si esibiva anche David Moss, il suo brano Globalalia. 1 Si veda Vassilandonakis, “An Interview with Trevor Wishart”, p. 8. tratte da http://www.musicainformatica.it/argomenti/trevor_ wishart.php. 2 Informazioni 39 40 CAPITOLO 3. TREVOR WISHART 3.2 Audible Design §27. Il frontespizio di Audible Design Il frontespizio del volume di Wishart Audible Design (si veda la Figura 3.2.1) è la summa, in stile rinascimentale, di tutto il sapere a cui deve (dovrebbe) attingere il compositore contemporaneo che fa uso delle tecnologie elettroacustiche ed informatiche. Si possono notare in alto al centro sulla sinistra Max Mathews3 , pioniere dell’informatica musicale, che sovrasta le seguenti discipline: • • • • informatica; electronica; physica; arithmetica; mentre sempre in alto al centro sulla destra troviamo Pierre Schaeffer (Nancy, 14 agosto 1910 - Aix-en-Provence, 19 agosto 1995), pioniere della musica acusmatica, che sovrasta le seguenti discipline: • • • • acousmatica; psycho-acoustica; acoustica; musica; tutte che confluiscono nella grande figura di matematico Jean Baptiste Joseph Fourier (Auxerre, 21 marzo 1768 - Parigi, 16 maggio 1830). Quello che sto cercando è un modo per trasformare il materiale sonoro e fornire un risultato che sia chiaramente simile alla sorgente ma anche chiaramente diverso4 . Il primo oggetto significante da un punto di vista musicale è la forma di una serie di campioni, in particolare di un ciclo d’onda (una singola lunghezza d’onda di un suono)5 . 3.3 On Sonic Art §28. Utterance La terza e ultima parte del volume On Sonic Art di Trevor Wishart6 si intitola Utterance, termine che riveste vari significati: espressione, parola, pronuncia. In Wishart si possono ritrovare tutti questi significati, poiché in questa parte del libro egli ci parla di Espressione [Utterance] (cap. 11), Il repertorio umano (cap. 12), Oggetti fonemici (cap. 13), Flusso [stream] del linguaggio e paralinguaggio (cap. 14), Gruppo (cap. 15), inteso come insieme di singoli individui (singole individualità) che si esprimono tramite la ‘vocalità’. Inizialmente viene messa in evidenza l’‘universalità’ dell’espressione ‘vocale’, in quanto comune anche agli animali in configurazioni variamente canore, segnaletiche, espressive, comunicative. 3 Si veda §3. Wishart, Audible Design, p. 4. 5 In ibid., p. 17. 6 Wishart, On Sonic Art. 4 In 3.3. ON SONIC ART Figura 3.2.1: Frontespizio del volume di Trevor Wishart autoprodotto Audible Design. 41 42 CAPITOLO 3. TREVOR WISHART §29. “Il repertorio umano” Wishart propone una tassonomia del comportamento e delle possibilità dell’organo vocale umano. Una prima sistematizzazione l’aveva già abbozzata in un testo del 19797 e la ripropone, rivedendola e aggiornandola in seguito ad una serie di colloqui avuti con il lettrista Jean-Paul Curtay (autore, fra l’altro, di Curtay, La poésie lettriste), in On Sonic Art. L’analisi dei suoni vocali effettuata da Wishart si limita a quelli relativi al tratto vocale. Il primo elemento di distinzione avviene fra suoni “intrinsecamente di breve durata” e “suoni che possono essere sostenuti”8 “Oscillatori e altre sorgenti” • la glottide è la sorgente della normale voce umana cantata. La vibrazione della laringe produce un suono che è normalmente iterato (es. 12.1). Ad una frequenza ‘normale’ di vibrazione è percepito come un suono ad altezza definita (es. 12.2); • la trachea. Se l’aria viene emessa con molta forza dai polmoni viene prodotto un suono grave che non è originato nella laringe ma in qualche zona sottostante (es. 12.3). Questo suono è la base della voce roca di “Satchmo”. Un effetto simile si può osservare nella trachea sopra la laringe (es. 12.4). “Sebbene io non abbia un’evidenza medica diretta che questi suoni siano prodotti dove io suggerisco, essi sono evidentemente distinti dalle vibrazioni della glottide poiché è possibile combinarli con esse. Gli ess. 12.5-12.8 illustrano il suono sotto la laringe, lo stesso combinato col suono della laringe, il suono sopra la laringe e lo stesso combinato col suono della laringe”9 . • subarmonici; • l’esofago; • la lingua; • le labbra; • le guance; 3.4 La voce e il ciclo Voice §30. Catalogo delle opere vocali Quello che segue è il catalogo delle opere di Wishart in cui sono utilizzate le voci dal vivo. Fra il 1982 e il 1989 Wishart compone il Vox Cycle che comprende: • Vox 1 del 1982 e della durata di 7’, per 4 voci amplificate e nastro a 4 tracce. Prima esecuzione degli Electric Phoenix alla Biennale di Parigi, La Villette, 1984; • Vox 2 del 1984 e della durata di 12’, per 4 voci amplificate e nastro stereo. Prima esecuzione degli Electric Phoenix alla Biennale di Parigi, La Villette, 1984; • Vox 3 del 1985 e della durata di 17’; per 4 voci amplificate e nastro di sincronizzazione. Commissionato dal Sound Art at Mobius. Prima esecuzione degli Electric Phoenix, Mobius Gallery, Boston USA nel 1985; 7 Wishart, Book of Lost Voices. of intrinsecally short duration” e “sounds which can be sustained”; in Wishart, On Sonic Art, p. 263. 9 In ibid., pp. 264-265. 8 “Sounds 3.4. LA VOCE E IL CICLO VOICE 43 • Vox 4 del 1988 e della durata di 13’; per 4 voci amplificate e 4 voci su nastro, o 8 voci, e nastro (a 4 o 2 tracce). Prima esecuzione degli Electric Phoenix, all’Huddersfield Contemporary Music Festival nel 1988; • Vox 6 del 1989 e della durata di 14’; per 4 voci amplificate e nastro. Prima esecuzione degli Electric Phoenix, BBC Prom, Kensington Town Hall nel 1989. Vox 5 è per solo nastro. Altre opere: • Machine 2 (1970), durata variabile, per coro da camera e suoni di macchine ascoltati su nastro. • Anticredos (1980) 19’. Per 6 voci amplificate e utilizzo di percussioni con parsimonia. Prima esecuzione degli Singcircle presso St John’s, Smith Square nel 1980; • Birthrite (2000) per Soprano, Baritono, Basso, Tromba, Violino, Violoncello e nastro; • A Fleeting Opera per Soprano, Tenore, Basso, Tromba, Violino, Contrabbasso, in collaborazione con Max Couper. Prima esecuzione, membri della Royal Opera House e del Royal Ballet su due chiatte in movimento sul fiume Tamigi nella Central London in quanto parte del String of Pearls Festival, 2000; §31. Vox 5 (1986) Quinto di sei brani che compongono il Vox Cycle (1977-1986), Vox 5 è l’unico del ciclo interamente elettroacustico. Wishart descrive il brano, nelle sue linee generali, in un articolo del 198810 . “The sound transformations in Vox 5 were largely achieved using the Phase Vocoder”11 . La genesi di questo brano ci fornisce molte indicazioni su come e dove, nei primi anni ottanta del secolo scorso, le tecnologie a disposizione dei compositori di musica elettroacustica stessero evolvendosi. Nel 1979 Wishart, dopo aver esplorato a fondo le apparecchiature audio analogiche e cercato un modo per realizzare con esse metamorfosi sonore, si rivolge all’IRCAM di Parigi – “at that time the only facility for advanced computer-music in Europe”12 – per realizzare un brano. Durante il soggiorno di sei settimane scopre alcuni ‘strumenti’, fra i quali l’LPC (Linear Predictive Coding). A seguito di questa breve permanenza a Parigi viene invitato a realizzare le sue idee musicali ma, a causa di un rinnovamento delle apparecchiature, quando decide di riprendere il suo progetto compositivo dovrà aspettare il 1986 per poterlo mettere in opera. It was suggested to me that the CARL Phase Vocoder (Moore, Dolson) might be a better tool to use, but no-one at IRCAM at that time had inside knowledge of the workings of this program, so I took apart the data files it produced to work out for myself what was going on. I eventually developed a number of software instruments for the spectral transformation of sounds which were then used to compose Vox 5. These instruments massaged the data in the analysis files produced by the Phase Vocoder. The most significant of these were stretching the spectrum and spectral morphing - creating a seamless transition between two different sounds which are themselves in spectral motion13 . 10 Wishart, “The Composition of Vox 5”. Una segmentazione analitica del brano è proposta da Williams, “Vox 5 by Trevor Wishart”, in cui è riprodotta la ‘partitura’ per la diffusione redatta da Wishart e una partitura d’ascolto grafica redatta dall’autore dell’articolo. Un’edizione discografica è Wishart, The Vox Cycle. La prima esecuzione è avvenuta nel 1987 a Parigi all’interno dell’INA/GRM Cycle Acousmatique di Radio France. Ne esiste anche una versione quadrifonica. 11 Wishart, Sound Composition, p. 63. 12 Ibid., p. 61. 13 Wishart, Computer Sound Transformation. 44 CAPITOLO 3. TREVOR WISHART Possiamo vedere la ‘partitura’ per la diffusione redatta da Wishart in Figura 3.4.1. Figura 3.4.1: Partitura per la diffusione di Vox 5 redatta dall’autore. La novità fu dunque l’introduzione del PV, che Wishart studiò approfonditamente e con il quale realizzò parte del software convogliato in seguito nel Composer Desktop Project14 . La conoscenza approfondita dei dati ricavati dall’analisi e la possibilità di manipolarli, modificarli, controllarli a piacere rendono per Wishart il PV uno strumento di lavoro adatto alla sua poetica. Ma soltanto dopo la programmazione degli ambienti di controllo dei dati sarà per lui possibile un uso veramente creativo di uno strumento così versatile come il PV. Wishart insiste sul continuo feedback fra dati ricavati dall’analisi, ascolto, dati generati per la sintesi. Sono momenti distinti di un processo teso alla composizione. Il sistema da lui utilizzato per realizzare Vox 14 Si veda Composers Desktop Project. Per un riepilogo delle operazioni sullo spettro possibili con il CDP si veda inoltre Roads, Microsound, pp. 264-267. Sull’uso del PV da parte di Wishart si possono leggere, oltre al già citato contributo su Vox 5, i suoi Audible Design, Computer Sound Transformation e l’articolo qui presente alle pp. ??-??. 3.4. LA VOCE E IL CICLO VOICE 45 5 “was an analysis-synthesis tool. You could run analysis on its own, synthesis on its own, or analysis+synthesis. The possibility to run analysis and synthesis separately allowed me to write software to manipulate the analysis data, then to resynthesize the output”15 . La continua manipolazione dei dati e la continua verifica percettiva pongono questioni quali la tendenza alla categoricità della nostra percezione. Illustrando un esempio di morphing fra suono umano e suono animale (voce -> ronzìo di api), Wishart sottolinea che “we hear sounds either as a voice or as a sound of bees. Hence there is a moment in the transformation, no matter how smooth, where aural recognition tends to suddenly switch from ‘It’s a voice’ to ‘No, it’s a bees!”’16 . Calibrando e modificando adeguatamente i dati durante l’interpolazione fra i due spettri (quello della voce e quello del ronzìo dell’ape), Wishart ottiene l’effetto di morphing desiderato. “In the Voice -> Bees morph the initial vocal sound is spectrally transposed. In this case, however, only a part of the spectrum is transposed”17 . Nel brano Supernova questa separazione fra i due momenti di analisi e di sintesi risulta ancora più evidente, laddove i dati dell’analisi non derivano da alcun suono18 . Nel suo lavoro artigianale di liuteria elettronica, Wishart si costruisce i propri strumenti, rendendoli parte integrante del processo compositivo. §32. Globalalia La pratica di redigere partiture per la diffusione dei suoi brani è stata resa publica da Wishart nel suo libro Sound Composition. In esso, infatti, le ultime pagine sono occupate dalle “partiture di diffusione, liberamente copiabili”19 delle seguenti opere: • • • • • • • Red Bird; Tongues of Fire; Fabulous Paris; Angel; Division of Labour; Imago; Globalalia. Di quest’ultima composizione riproduco nelle pagine seguenti la partitura per la diffusione redatta da Wishart stesso20 . In questo brano “tutti i suoni utilizzati sono sillabe, editate da discorsi e selezionate da un database di oltre 8300 esempi. Globalalia, ‘the universal dance of human speech as revealed in 20 tales from everywhere, spoken in tongues’, è stato commissionato da Folkmar Hein, per il suo sessantesimo compleanno, è dedicato alla memoria di Scheherezade, morta in circostanze sospette ad Abu Ghraib nel 2004, ed è stato premiato all’Inventionen nel 2004 a Berlino. È stato composto utilizzando il software Composers Desktop Project tra il giugno del 2003 e il giugno 2004, a York e a Berlino, dove il compositore è stato Edgard Varèse Visiting Professor di Musica presso la Technical University, una specializzazione supportata dal DAAD”21 . 15 Comunicazione personale, e-mail del 4 aprile 2013. Sound Composition, p. 65. 17 The option to transpose only a part of the spectrum is a feature of the resulting CDP software. [Nota di Wishart]. In Wishart, Sound Composition, p. 65. 18 Si veda questo stesso numero alle pp. ??-??. 19 Ibid., p. 178. 20 Wishart, Sound Composition, pp. 174-177. 21 Tratto dal programma di sala del concerto tenutosi presso la Fondazione “G. Cini” di Venezia il 10 ottobre 2010. 16 Wishart, 46 CAPITOLO 3. TREVOR WISHART Figura 3.4.2: Pagina 1 della partitura per la diffusione di Globalalia redatta dall’autore. §33. Voiceprints “Sometimes, computer music composers manipulate the voice for the purposes of political intervention.”22 . È il caso della raccolta di brani Voiceprints, che possiamo trovare nel CD Wishart, Voiceprints. Le impronte vocali lasciate dalla principessa Diana e da Margareth Thatcher in Two Women o da Martin Luther King, Neil Armstrong ed Elvis Presley in American Tryptich sono testimoni di un suono ma anche del loro valore simbolico. “Two Women è stato commissionato dal DAAD ed è stato eseguito per la prima volta durante il concerto per il 50imo anniversario della musica concreta alla Parochialkirke di Berlino nel settembre 1998, utilizzando il sistema di diffusione dell’Università tecnica di Berlino. American 22 Smith, “The Voice in Computer Music and its Relationship to Place, Identity, and Community”, p. 281. 3.4. LA VOCE E IL CICLO VOICE 47 Figura 3.4.3: Pagina 2 della partitura per la diffusione di Globalalia redatta dall’autore. Tryptich è stato commissionato dal governo francese per essere eseguito al GRM nel gennaio del 2000 durante il Cycle Acousmatique presso Radio France a Parigi.”23 . §34. Encounters in the Republic of Heaven In un libretto stampato in proprio, Wishart, Encounters in the Republic of Heaven, l’autore racconta la genesi e i dettagli tecnici della nascita dell’opera. Completata nel settembre del 2010, è stata eseguita in prima mondiale al SAGE, Gateshead, il 4 maggio 201124 ed è un’opera acusmatica su 8 canali in 4 atti. Realizzata con l’ambiente software Sound Loom/CDP, utilizza le seguenti tecniche: 23 Wishart, Sound Composition, p. 99. prima italiana è avvenuta presso la sala concerti del Conservatorio Statale di Musica “B. Marcello” di Venezia, il 21 dicembre 2012. 24 La 48 CAPITOLO 3. TREVOR WISHART Figura 3.4.4: Pagina 3 della partitura per la diffusione di Globalalia redatta dall’autore. • • • • • • • • • • • • grain-extension, roughness-extension; wavesets; waveset-based loudness-enveloping; waveset omission; FOF detection; peak extration; retiming; pitch tracking of speech; pitch-contour of speech; pitch-following filter; pitch-focusing / harmonic field filter spectral subtraction, tracing, blurring, hold; 3.4. LA VOCE E IL CICLO VOICE 49 Figura 3.4.5: Pagina 4 della partitura per la diffusione di Globalalia redatta dall’autore. • time stretching / pitch shifting. “Encounters è un’esplorazione della musica inerente al parlato quotidiano. Contrariamente a Globalalia, tuttavia, lo scopo del progetto fu di cogliere le caratteristiche musicali del parlato a livello di frasi, la loro melodia e il loro ritmo e la sonorità delle voci individuali, quel qualcosa di indefinibile ma riconoscibile che ci permette di distinguere una persona da un’altra.”25 . 25 Wishart, Sound Composition, p. 131. 50 CAPITOLO 3. TREVOR WISHART Biblio- sito- discografia Aa. Vv. Composers Desktop Project. 2010. URL: http://www.composersdesktop.com/ (visitato il 19/03/2013). — Computer Music Currents 5. Computer Music Currents 5; WER 2025-2. CD. Mainz: Wergo, [1990]. — The Historical CD of Digital Sound Synthesis. Con pref. di John Pierce. Computer Music Currents 13. CD. Con libretto contenente saggi storici. Mainz: Wergo, 1995. Bennett, Gerald e Xavier Rodet. “Synthesis of the singing voice”. In: Current Directions in Computer Music Research. A cura di Max V. Mathews e John R. Pierce. Cambridge: MIT Press, 1989, 1944. Bossis, Bruno. “Phoné”. In: John Chowning. Portraits polychromes. Paris: INA, 2007, pp. 103– 105. Chowning, John. “Frequency modulation synthesis of the singing voice”. In: Current Directions in Computer Music Research. A cura di Max Mathews e John Pierce. Cambridge: MIT Press, 1989, pp. 57–63. — “Synthesis of the singing voice by frequency modulation”. In: Sound generation in winds, strings, and computers. A cura di J. Jansson e J. Sundberg. Stockholm: Royal Academy of Science, 1980, pp. 4–13. — “The simulation of moving sound sources”. In: Journal of the Audio Engineering Society 19.1 (1971), pp. 2–6. — “The Synthesis of Complex Audio Spectra by Means of Frequency Modulation”. In: Journal of the Audio Engineering Society 21.7 (set. 1973), pp. 526–534. Clarke, Arthur C. 2001: A Space Odyssey. Polaris Production, 1968. Crandall, Irving B. “The Sounds of Speech”. In: The Bell System Technical Journal 4 (ott. 1925), pp. 586–626. Curtay, Jean-Paul, cur. La poésie lettriste. Paris: Seghers, 1974. Dirks, Patricia Lynn. An Analysis of Jonathan Harveys “Mortuos Plango, Vivos Voco”. 2007. URL : http://cec.sonus.ca/econtact/9_2/dirks.html (visitato il 24/06/2012). Dodge, Charles. “On Speech Songs”. In: Current Directions in Computer Music Research. Cambridge, London: MIT Press, 1989, pp. 9–17. — “In Celebration: the composition and its realization in synthetic speech”. In: Composers and the computer. A cura di Curtis Roads. Los Altos CA: Kaufmann, 1985, pp. 47–73. Doornbusch, Paul. The music of CSIRAC: Australia’s first computer music. Common Ground Pub., 2005. Harvey, Jonathan. “Mortuos Plango, Vivos Voco: A Realization at IRCAM”. In: Computer Music Journal 5.4 (1981), pp. 22–24. — “The Mirror of Ambiguity”. In: The Language of Electroacoustic Music. A cura di Simon Emmerson. Houndmills e London: The Macmillian Press Ltd., 1986, pp. 175–190. 51 52 BIBLIO- SITO- DISCOGRAFIA Haynes, Stanley. “The Computer as a Sound Processor: A Tutorial”. In: Computer Music Journal 6.1 (1982), pp. 7–17. Ihde, Don. Listening and Voice. Phenomenologies of Sound. 2a ed. New York: State University of New York Press, 2007. Kelly, J. L. e C. C. Lochbaum. “Speech synthesis”. In: Proceedings of the Fourth International Congress on Acoustics. Copenhagen, set. 1962, pp. 1–4. — “Speech synthesis”. In: Proceedings of the Speech Communications Seminar. Speech Transmission Lab. Stockholm: Royal Institute of Technology, set. 1962. Koblin, Aaron e Massey. Daniel. Bycicle Built for 2,000. Over 2,000 human voices recorded via the internet, assembled to sing Daisy Bell. 2009. URL: http://www.bicyclebuiltfor twothousand.com/ (visitato il 11/03/2013). Lorrain, Denis. Analyse de la bande magnétique de l’oeuvre de Jean-Claude Risset Inharmonique. Rapport 26. Paris: IRCAM, 1980. Mathews, Max Vernon e F. R. Moore. “GROOVE, a program to compose, store, and edit functions of time”. In: Communications of the Association for Computing Machinery 13.12 (1970), pp. 715–721. Mathews, Max Vernon e John R. Pierce, cur. Current Directions in Computer Music Research. System Development Foundation Benchmark Series 2. Cambridge - London: MIT Press, 1989. McNabb, Michael. “Dreamsong: The Composition”. In: Computer Music Journal 5.4 (1981), pp. 36–53. Normandeau, Robert. “The visitors and the residents”. In: Musica/Tecnologia 4.4 (2010). URL: http://www.fupress.net/index.php/mt/article/view/9108. Olive, Joseph. “Automatic Formant Tracking in a Newton-Raphson Technique”. In: J. Acou. Soc. Am. 50.2 (1971), pp. 661–670. Olive, Joseph P. ““The Talking Computer”: Text to Speech Synthsis”. In: Hal’s Legacy. 2001’S Computer As Dream and Reality. A cura di David G. Stork. 3a ed. [Firts edition 1997]. Cambridge, London: Mit Press, 2000, pp. 101–129. Risset, Jean-Claude. “Nouveaux gestes musicaux: quelques points de repère historiques”. In: Les nouveaux gestes de la musique. Marseille: Parenthèses, 1999, pp. 19–33. Risset, Jean-Claude e Max Vernon Mathews. “Analysis of instrument tones”. In: Physics Today 22.2 (1969), pp. 23–30. Roads, Curtis. Microsound. Cambridge, London: The MIT Press, 2001. Rodet, Xavier, Yves Potard e Jean-Baptiste Barrière. Chant. De la synthèse de la voix a la synthèse en général. Rapport 35. Paris: IRCAM, 1985. Smith, Hazel. “The Voice in Computer Music and its Relationship to Place, Identity, and Community”. In: The Oxford Handbook of Computer Music. A cura di Roger Dean. Oxford: Oxford University Press, 2009, pp. 274–293. Stork, David G., cur. Hal’s Legacy. 2001’S Computer As Dream and Reality. 3a ed. [Firts edition 1997]. Cambridge, London: Mit Press, 2000. Sundberg, Johan. “Synthesis of Singing by Rule”. In: Current Directions in Computer Music Research. Cambridge - London: MIT Press, 1989, pp. 45–55. — The Science of the Singing Voice. Northern Illinois University Press, 1987. Vandenheede, Jan e Jonathan Harvey. “Identity and Ambiguity: The Construction and Use of Trimbral Transitions and Hybrids”. In: ICMC Proceedings. Ann Arbor, MI: MPublishing, 1985, pp. 97–102. URL: http://hdl.handle.net/2027/spo.bbp2372.1985.016. BIBLIO- SITO- DISCOGRAFIA 53 Vassilandonakis, Yiorgos. “An Interview with Trevor Wishart”. In: Computer Music Journal 33.2 (2009). Williams, Tom. “Vox 5 by Trevor Wishart. The analysis of an electroacoustic tape piece”. In: Journal of Electroacoustic Music 7 (1993), pp. 6–13. Wishart, Trevor. Audible Design. CD allegato. Orpheus the Pantomime, 1994. — Book of Lost Voices. Unpublished. York, 1979. — Computer Sound Transformation. A personal perspective from the U.K. Ott. 2000. URL: http://www.composersdesktop.com/trnsform.htm (visitato il 16/02/2012). — Encounters in the Republic of Heaven. CD allegato con il remix stereo. In proprio, 2010. — On Sonic Art. A cura di Simon Emmerson. Contemporary music studies 12. CD allegato. New York - London: Routledge, 1996. — Sound Composition. 2 CD allegati. In proprio, [2012]. — “The Composition of Vox 5”. In: Computer Music Journal 12.4 (1988), pp. 21–27. — The Vox Cycle. OPT 904. CD. s. d. — Voiceprints. EMF 029. CD. 2000. Zattra, Laura. Studiare la computer music. Definizioni, analisi, fonti. Padova: libreriauniversitaria.it, 2011.