Upload
vukhanh
View
219
Download
2
Embed Size (px)
Citation preview
Corso di Diploma Accademico
di secondo livello in discipline musicali
Musica Elettronica e Tecnologie del suono
Indeterminismo e processi improvvisativi
nell’ambito della musica elettroacustica A.A. 2015/16
Relatore
M° Luca Richelli
Tesi finale di:
Alessandro Arban
Matr. 3384
Anno Accademico 2015-2016
2
ABSTRACT 4
1. L’IMPROVVISAZIONE NELLA MUSICA ELETTROACUSTICA 6
1.1. PREMESSE 61.2. GLI ANNI ’60 E ‘70 81.3. GLI ANNI ‘80 171.4. DAGLI ANNI ’90 AD OGGI 21
2. REALIZZAZIONE DELLA PERFORMANCE 25
2.1. LIVE ELECTRONICS ED IMPROVVISAZIONE 252.2. ESTETICA DELLA PERFORMANCE: ISPIRAZIONI E STESURA FORMALE 272.3. ESECUZIONE E STRUMENTAZIONE ADOPERATA 302.4. LE SCENE 322.5. DIFFUSIONE MULTICANALE 36
3. AMBIENTE ESECUTIVO IN MAX 40
3.1. MAIN 423.2. INTERFACCIA ESECUTIVA 433.3. HARMONIZER 463.4. PITCH SHIFTER 493.5. DELAY 513.6. GRANULATORE 523.7. RIVERBERO 533.8. ANALISI SPETTRALE 543.9. SPAZIALIZZAZIONE 563.10. CONTROLLI E ROUTING ANALOGICO DEL SEGNALE 58
CONCLUSIONI 60
SVILUPPI FUTURI: AMBIENTI ESECUTIVI PER LA DIDATTICA MUSICALE 61
RINGRAZIAMENTI 62
4. APPENDICE: SCHEMI E IMPOSTAZIONI 63
4.1. SCENA I 634.2. SCENA II 664.3. SCENA III 694.4. SCENA IV 734.5. SCENA V 76
3
4.6. DISPOSIZONE DEI DIFFUSORI 79
LISTA TRACCE CD 80
BIBLIOGRAFIA 81
SITOGRAFIA 83
4
ABSTRACT
In questo lavoro di tesi sarà illustrato il percorso attraverso il quale, partendo da un’indagine storica,
sono giunto alla realizzazione di una live performance improvvisativa assieme al collega Yuri
Dimitrov.
La ricerca storica preliminare non ha la pretesa di essere esaustiva, riguardo tutto quanto è stato
sperimentato nell’ambito dell’improvvisazione musicale elettroacustica, bensì nasce con lo scopo di
trasmettere al lettore quelle che sono state le principali fonti d’ispirazione durante la stesura della
performance, tra le quali spiccano sicuramente l’opera di Franco Evangelisti e del suo “Gruppo di
Improvvisazione Nuova Consonanza” e gli studi sulla forma per momenti e sulla spazializzazione
compiuti da Karlheinz Stockhausen durante gli anni ’60 e ‘70.
Nella pratica esecutiva, infatti, il nostro lavoro tenta di riprendere il percorso tracciato dal gruppo di
Evangelisti, cercando di ampliarne le possibilità espressive attraverso gli strumenti di sintesi e il live
electronics.
Dal punto di vista della stesura formale, invece, è servito molto approfondire le strategie adoperate
da Stockhausen in molte sue opere composte nel periodo citato, caratterizzate dalla presenza di un
elemento d’indeterminazione che rende unica ogni esecuzione.
La seconda parte della tesi descriverà le scelte estetiche compiute e la costruzione formale della
performance, mentre l’ultimo capitolo servirà al lettore per ricostruirne l’ambiente esecutivo,
qualora volesse rieseguirla (oppure utilizzarlo per altri scopi).
La performance consiste di cinque momenti, caratterizzati dall’interazione tra diversi strumenti
acustici ed elettronici. Attraverso l’elaborazione in tempo reale dei suoni provenienti dagli
strumenti, si genera un dialogo fra timbri genealogicamente distanti, a livello morfologico,
semantico e spaziale. I timbri prodotti dagli strumenti acustici processati emulano quelli sintetici,
mentre il suono dei sintetizzatori è scolpito su imitazione dei suoni acustici. A livello semantico
interviene la pratica manuale degli interpreti, che con la propria gestualità pongono l’attenzione sul
dialogo tra essi e gli strumenti. La diffusione dei suoni, controllata dai dati estrapolati da un’analisi
spettrale in tempo reale, è in viva comunicazione con i musicisti; riflettendo nello spazio i loro
gesti, ne enfatizza il movimento.
5
In alcune conferenze tenute a Brema e Amburgo nel 1959, epoca in cui si scatenò la famosa
polemica sulla validità dell’opera aperta, parlai dei limiti che questa portava in sé e della
possibilità dei suoi ultimi sviluppi. Dovendo l’interprete completare nell’esecuzione gli schemi
che il compositore forniva, io dissi, sarebbe stato necessario l’avvento di un nuovo tipo di
esecutore che fosse anche compositore, in modo che potesse legare certi elementi musicali che,
in esecuzioni date da interpreti di tipo tradizionale, vengono resi schiavi da una prassi che tale
tipo di esecutore porta con sé. Auspicavo così una situazione più favorevole, ricordando il caso
della musica indiana: da più di duemila anni in India gli esecutori sono anche compositori,
essendo quella musica legata a forme momentanee. È da notare, altresì, che le opere cosiddette
“aperte” hanno limiti strumentali stabiliti dal compositore, risultandone l’opera aperta
soltanto ad alcuni strumenti o a più strumenti; dissi così che il limite di questa forma sarebbe
stata una specie di “summa” di elementi con i quali l’interprete o gli interpreti-concreatori
potessero agire all’istante senza una precisa determinazione strumentale, in modo che ne
risultasse un’opera spersonalizzata in senso tradizionale, quindi opera risultante dal concorso
di numero x di interpreti-compositori possibili.
Franco Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programma-
dépliant del III Festival di Nuova Consonanza, Roma 1965.
6
1. L’IMPROVVISAZIONE NELLA MUSICA ELETTROACUSTICA
1.1. PREMESSE
Nel 1955, il fisico e ingegnere del suono Werner Meyer Eppler fornisce una prima definizione del
termine alea, quale “procedimento il cui decorso generale è determinato, mentre le singole
componenti dipendono dal caso”1. Sebbene alcuni elementi d’indeterminazione si trovino già in
partiture di Cage e Feldman, antecedenti a tale data, soltanto a partire dagli anni ’56-’57 se ne rileva
l’assunzione da parte delle avanguardie darmstadtiane2.
La dodecafonia di Schoenberg, esposta per la prima volta dal compositore nel 19233, è il primo
forte segno di rottura con il passato, le successive generazioni di compositori cercheranno di
elaborare nuovi linguaggi personali, aventi come minimo comune denominatore l’abbandono
(parziale o totale) del sistema tonale, in favore di nuovi sistemi, costituiti alla base da una serie
numerica precedentemente determinata.
Nel 1952, a soli 29 anni dalla nascita del sistema dodecafonico, in un articolo pubblicato sulla
rivista “The Score”, Pierre Boulez dichiara4 con una certa dose di dogmatismo ingenuo (nel ’52
Boulez aveva appena 27 anni) che “Dalla penna di Schoenberg abbondano i clichés di scrittura
temibilmente stereotipi del romanticismo più ostentato e desueto[…]”.
Boulez conclude il suo articolo con un enunciato in lettere maiuscole: SCHOENBERG È MORTO.
Con lui nasce (grazie anche al contributo del suo maestro Olivier Messiaen) l’era del serialismo
integrale, tecnica compositiva che preordina uno o più parametri musicali in successioni stabilite,
chiamate serie.
Questo nuovo modo di comporre, è per Boulez l’unica via per liberare le possibilità di uno sviluppo
funzionale dell’opera che “genera ogni volta una sua gerarchia”. Come ogni moto d’innovazione, è
riduttivo stabilire con precisione un vero e proprio “iniziatore”, piuttosto è importante soffermarsi
sul percorso generale dell’arte per comprendere a fondo i sentimenti che hanno ispirato tali idee.
Sicuramente Boulez ha fatto tesoro di quanto auspicava in precedenza Webern, parlando di una
1 W. Meyer Eppler, Statistische und psychologische Klang Probleme, “Die Reihe”, pp.22-8, 1955.
2 D. Tortora, Nuova Consonanza, Trent’anni di musica contemporanea in Italia (1959-1988), LIM 1990, p. 125.
3 A.Schoenberg, Komposition mit 12 Tönen 1923.
4 P. Boulez, Note di Apprendistato, Einaudi, 1968.
4 P. Boulez, Note di Apprendistato, Einaudi, 1968.
7
musica nella quale “[…]si ha la sensazione di non essere più di fronte ad un’opera dell’uomo,
bensì della natura”5.
Parallelamente, in campo pittorico, Paul Klee afferma che “L’opera d’arte è principalmente
genesi”6, concependo essa come metafora della creazione e l’opera come “formazione della forma”.
A distanza di un decennio dal provocatorio articolo di Boulez del ’52, la crescente presenza delle
nuove tecnologie nella produzione musicale, e soprattutto nell’esecuzione live, provoca una nuova
crisi nelle accademie, la quale è il punto di partenza di questo lavoro di ricerca che si concentrerà
sulla pratica improvvisativa nell’ambito della musica elettroacustica, concludendosi con la
realizzazione di una live performance.
5 A. Webern, Verso la nuova musica. Lettera a Hildegard Jone e Josef Humplik. Milano, Bompiani, 1963.
6 P. Klee, Pädagogisches Skizzenbuch, Neue Bauhausbücher, 1925.
Gruppo di Improvvisazione Nuova Consonanza.
8
1.2. GLI ANNI ’60 E ‘70
Negli anni ’50, l’Europa ha assistito alla nascita e lo sviluppo dei primi centri di produzione
musicale elettroacustica, a Parigi (GRM), Colonia (WDR) e Milano (RAI), grazie anche al supporto
economico delle emittenti radiofoniche nazionali.
Grazie ad una maggior accessibilità economica delle nuove tecnologie, durante gli anni ’60
fioriscono nuovi centri e un maggior numero di produzioni indipendenti.
Per fornire un quadro globale di quanto accaduto in questo decennio e in quello successivo, occorre
procedere per gradi, soffermandoci sugli avvenimenti dei singoli paesi maggiormente coinvolti
nella ricerca e produzione musicale.
A circa un decennio di distanza dalla
nascita della musique concrète di Pierre
Schaeffer, la domanda che si pongono le
nuove generazioni di compositori francesi è
se sia possibile reintegrare il materiale
esterno a quello costituente la grammatica
dei suoni di Schaeffer, senza tradirne le
regole.
Boulez critica aspramente la musica
concreta definendola dilettantistica,
riscontrando un limite nella catalogazione
dei suoni di Schaeffer.
Nel frattempo le nuove tecnologie compiono un passo avanti, permettendo ora la manipolazione in
tempo reale. Ciò provoca delle fratture nel clima formalista che si è respirato nei precedenti anni:
l’obiettivo per molti ora è il contenuto, a discapito della forma che diventa mera conseguenza della
manipolazione del materiale sonoro.
Luc Ferrari, dapprima fedele seguace di Schaeffer, getta scompiglio nel GRM (Groupe de
Recherches Musicales), producendo brani che contengono i cosiddetti “campioni”, cioè suoni
continui e imprevedibili, non tollerati dalla grammatica schaefferiana.
Dopo uno scontro iniziale, Ferrari decide di lasciare il GRM per aprire un suo studio.
Con “Presque rien IA”, Ferrari conia il termine provocatorio di “musica aneddotica”. Il brano è
composto di registrazioni effettuate nel ’67 su un’isola della Dalmazia.
Figura 1.1 Pierre Schaeffer presso il GRM di Parigi.
9
La referenzialità dei suoni è in questo caso un valore aggiunto, poiché gli eventi sonori non sono
realmente imprevedibili, in quanto selezionati in precedenza da lui, nei momenti in cui la natura
“eseguiva” passaggi musicali.
Anche Bernard Parmegiani,
che si trova al GRM nel
servizio di ricerca, per un
periodo adotta un
atteggiamento informale
durante la composizione,
lasciando che siano i processi
di manipolazione a decidere la
forma finale dell’opera, che lui
non prefigura durante il lavoro.
Nella produzione di quegli
anni, è importante ricordare lo
stretto rapporto di Parmegiani
con la produzione video,
principale causa del trend
surreale dei suoi brani, spesso nati come sonorizzazioni d’immagini ma fruibili anche
separatamente.
Inoltre va menzionato la passione di Parmegiani per la musica jazz e in generale per
l’improvvisazione libera, in effetti nella produzione di quegli anni è ricorrente da parte sua l’utilizzo
di materiali provenienti da repertori “pop”.
Ne sono un chiaro esempio brani come “Ponomatopeès” del ’64, “Pop Eclectic” del ’68 o “Du pop
à l’âne” del ’69, dove Parmegiani lavora con la tecnica del collage, montando tra loro passaggi
provenienti da diversi repertori (rock, jazz, classica, elettroacustica).
Negli anni ’70 Parmegiani sceglie un ritorno alla forma, avvertendola probabilmente come
un’eredità di cui deve farsi carico. La forma per lui diventa un’idea, la proiezione mentale del
risultato finale dei processi. Con questo spirito compone l’opera del ’75 “De Natura Sonorum”,
nella quale si serve del suono di diapason come metafora della scintilla primordiale generatrice di
tutti i suoni. È importante segnalare che i suoni di sintesi presenti nell’opera sono generati
dall’utilizzo di sintetizzatori a tastiera, quindi veri e propri strumenti musicali, a differenza dei più
“austeri” oscillatori a manopola presenti negli studi di Colonia e di Milano.
Figura 1.2 Bernard Parmegiani al GRM.
10
La Germania, nel frattempo, è
diventata la vera e propria patria
dell’integralismo seriale, grazie
soprattutto all’enorme influenza
dell’Internationale Ferienkurse für
Neue Musik di Darmstadt, i corsi estivi
di composizione attraverso i quali sono
passati numerosi compositori affermati
del secondo novecento. L’avvento
della sperimentazione elettronica in
tempo reale impone una revisione della
pratica compositiva.
Il passaggio dall’universo strumentale
a quello elettronico ripropone il
problema della forma, risolto in maniera empirica, con la pratica manuale.
Stockhausen realizza “Kontakte” presso gli studi della WDR di Colonia, tra il ’58 e il ’60.
In un’intervista egli dichiara che “In the preparatory work for my composition Kontakte, I found,
for the first time, ways to bring all properties [i.e., timbre, pitch, intensity and duration] under a
single control”7.
Il titolo dell’opera si riferisce al contatto tra i suoni strumentali e quelli elettronici, ma anche ai
contatti tra i vari segmenti del brano, che il compositore chiama “momenti” (strutture con regole di
costruzione interne, indipendenti tra loro), e infine ai contatti tra i vari movimenti di
spazializzazione del suono.
Il dualismo fra “manualità” e serialità provoca una crisi in Stockhausen, che egli risolve
documentando tutti i passaggi manuali svolti in studio.
L’idea della forma per momenti si solidifica sempre di più nella mente del compositore8, che
sperimenta nelle produzioni successive nuove forme di notazione, schematiche o di cornice, che
lasciano margini di libertà all’esecutore, rendendo la percezione del tempo fluttuante.
Un brano significativo di questo periodo è sicuramente “Solo” del ’66, per strumento monodico ed
elettronica. In questo brano l’esecutore ha facoltà di scegliere l’ordine d’esecuzione delle sei
sequenze costituenti l’opera.
7 K. Stockhausen, The Concept of Unity in Electronic Music (Die Einheit der musikalischen Zeit), Perspectives of New
Music 1, n°1 (Autunno): pp.39–48, 1962.
8 K. Stockhausen, The British Lectures, Institute of Contemporary Arts, Londra, 1972.
Figura 1.3 Karlheinz Stockhausen durante una lezione a Darmstadt.
11
Anche in Italia la scena elettroacustica vive un periodo fiorente, diversi talentuosi compositori
frequentano i corsi di Darmstadt e s’interfacciano con i colleghi europei, riportando le loro
esperienze all’interno delle loro composizioni e promuovendo la nascita di varie attività
concertistiche, che hanno lo scopo di divulgare la nuova musica al popolo italiano.
Sebbene negli anni ‘60 lo studio di Fonologia della RAI di Milano sia uno dei più all’avanguardia
in quanto a strumentazione elettroacustica (ne sono chiare testimonianze le numerose produzioni di
Luciano Berio, Bruno Maderna, Luigi Nono…), la musica contemporanea in Italia vanta un’altra
scena di prestigio, costituita da giovani compositori del Meridione, come il pugliese Domenico
Guaccero, il siciliano Aldo Clementi e il romano Franco Evangelisti. Sebbene alcuni di questi
compositori producano un piccolo numero di brani elettroacustici, è evidente l’influenza delle
sonorità elettroniche nella loro ricerca timbrica, seppur attraverso l’utilizzo di strumenti tradizionali.
Nell’ambito della produzione elettronica di Aldo Clementi, il brano Collage III del ’67, ottenuto
mediante la manipolazione di brani dei Beatles9, rappresenta un esempio dell’atteggiamento
informale assunto in questo periodo dal compositore catanese, in parte dovuto alla sua vicinanza ad
artisti nel campo delle arti visive, come Achille Perilli o il gruppo Forma1.
Il volto più rilevante che questa scena musicale
può vantare è tuttavia Franco Evangelisti.
Studente di composizione a Roma, sotto la guida di
Daniele Paris, frequenta i corsi estivi di Darmstadt,
dove entra in contatto con il fisico Werner Meyer-
Eppler, affascinato dal concetto di alea nella
musica e dall’universo dell’elettronica.
“La cosiddetta forma momentanea, o
aleatoria, o mobile, o aperta, è quel
particolare tipo di forma musicale, che si è
sviluppata in questi ultimi anni, e che si
oppone con la sua speciale maniera di essere
del tutto, o in parte, “indeterminata”, allo
sviluppo della musica seriale, totalmente
determinata […]”10.
9 A. Lanza, Il secondo Novecento, vol. 12, p.135, 1991.
10 F. Evangelisti, Dalla forma momentanea ai gruppi di improvvisazione, in programma-dépliant dei concerti della
Biennale Musica, Venezia 1969; anche in Di Franco Evangelisti cit., p. 122.
Figura 1.4 Franco Evangelisti prepara il pianoforte per
un'esibizione del GINC.
12
Evangelisti mostra ben presto
una certa insofferenza nei
riguardi del serialismo integrale,
trova nella premeditazione un
limite da superare, attraverso la
sperimentazione,
l’improvvisazione.
Nel ’60 fonda, insieme ai
colleghi Aldo Clementi e
Francesco Pennisi,
l’Associazione Nuova
Consonanza, con l’intento di
diffondere la musica
contemporanea a Roma e in Italia
e, a quattro anni di distanza,
forma il Gruppo di
Improvvisazione Nuova
Consonanza (GINC).
La formazione del GINC è
composta esclusivamente da compositori-interpreti, accomunati dall’intento di sperimentare
attraverso l’improvvisazione libera nuove sonorità. Di questo gruppo fa parte per un buon periodo il
compositore Ennio Morricone, che in un’intervista11 ricorda che “La musica che facevamo era
improvvisata a partire da esercizi mirati: facevamo mesi e mesi di improvvisazione su parametri
molto precisi, ci registravamo, la sera ci riascoltavamo e ci criticavamo. Era una cosa molto
attenta”.
Il GINC si esibisce per la prima volta a Roma nel 1965 durante il III Festival di Nuova Consonanza,
con un assetto che vede Franco Evangelisti, gli americani Larry Austin, John Heineman e John
Eaton ed il tedesco Roland Kayn agli strumenti elettronici. Nelle note di programma12, Evangelisti
dichiara che “[…] Il compositore Larry Austin mi portava a conoscenza di un gruppo di esecutori-
compositori che operavano in questo senso da me auspicato fin dal 1963: il “New Music
Ensemble”. Questo gruppo, che opera in California, si può considerare il primo esistente nel
11 V. Mattioli, Roma 60. Viaggio alle radici dell'underground italiano. Parte seconda, Blow Up, Tuttle Edizioni, 2014.
12 F. Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programma-
dépliant del III Festival di Nuova Consonanza, Roma 1965.
Figura 1.5 "the feed-back" del 1970, album in cui il GINC sonda i terreni della
cultura Pop psichedelica di quegli anni.
13
sistema occidentale che lavori su schemi veramente attuali. Per la formazione di questo gruppo
“Nuova Consonanza”, il primo del genere in Europa, la presenza di Austin è stata determinante,
così altrettanto valida la cooperazione di tutti i colleghi che ne fanno parte”.
Le successive performances del GINC sono sempre più caratterizzate dall’utilizzo di strumenti
tradizionali, fatta eccezione per una breve parentesi “pop” del gruppo, che nel ’70 cambia nome in
“The Feedback”, pubblicando un omonimo album dalle sonorità rock e psichedeliche, ottenute
grazie all’utilizzo della chitarra elettrica e ricorrendo a ritmi definiti e ossessivi.
Il GINC è stato ispiratore per altre formazioni nate in Italia in quegli anni, tra le quali spiccano i
MEV (Musica Elettronica Viva), gruppo che fonde sonorità acustiche ed elettroniche, modulando
suoni reali attraverso l’utilizzo del sintetizzatore Moog. Nel ’67 i MEV prendono parte a un
concerto, accanto a John Cage, nel quale eseguono la composizione del musicista americano “Solo
for Voice 2”, modulando la voce di Carol Plantamura con il Moog.
Parallelamente, la musica estemporanea
inglese negli anni ’60 e ’70, vede nel
chitarrista Keith Rowe un’enorme fonte
d’ispirazione. Rowe inizia la sua carriera in
alcune formazioni di musica jazz, ma presto
si allontana dalla forma per ricercare un suo
linguaggio personale, influenzato dalla
passione per le arti visive e dall’estetica di
Jackson Pollock.
Nel ’65 fonda gli AMM, una formazione in
cui gli elementi, provenienti dalla scena jazz,
improvvisano assieme in maniera libera:
“Ciascun musicista rappresenterebbe un'attività autonoma che si sovrappone alle altre generando
una struttura cumulativa”13. L’ensemble incide nel 1966 “AMMMusic”, un disco d’improvvisazione
libera, dalle sonorità elettroacustiche (nell’organico della band sono inserite tre radio FM a
transistor), più vicino ai lavori di LaMonte Young che al free jazz di Ornette Coleman. Gli AMM e
Keith Rowe sono stati fondamentali nella nascita della musica psichedelica inglese, il leader
fondatore dei Pink Floyd, Syd Barrett, ha più volte dimostrato di ispirarsi a Rowe nella sua tecnica
chitarristica.
13 AMM, AMMMusic 1966: Le recensioni di Ondarock, 2010.
Figura 1.6 Keith Rowe e la sua chitarra elettrica in laboratorio.
14
Nel “Nuovo Mondo”, intanto, si
respira un’aria fresca, non
gravata dal peso della tradizione,
come invece accade da secoli nel
nostro continente.
Ciò permette a menti brillanti di
aprirsi alla sperimentazione
senza preconcetti, liberando la
creatività e il genio.
La musica contemporanea deve,
a mio avviso, gran parte della sua
evoluzione all’americano John
Cage, che con le sue idee rivoluzionarie ha stravolto il ruolo del compositore, rimuovendo la scelta
dal processo creativo. Dopo un primo periodo nel quale il compositore sperimenta l’utilizzo di
formule e proporzioni matematiche, oltre la “preparazione” del pianoforte e l’inserimento
nell’organico strumentale di vari oggetti d’uso comune, Cage inizia a interessarsi al concetto
d’indeterminazione nella musica, a causa anche del suo avvicinamento alla filosofia Zen.
Dalla seconda metà degli anni ’40, compone diversi lavori utilizzando la tecnica divinatoria dell’I
Ching abbinata ad un sistema di combinazioni numeriche assegnate ai vari parametri del suono.
Eliminando la centralità del compositore all’interno dell’opera, egli distrugge l’idea europea di
musica, e questo è possibile grazie alla sua nazionalità americana, che lo svincola dal peso della
tradizione colta.
Negli anni ’50, pioniere degli Happening, Cage si concentra sulla multimedialità, realizzando dei
veri e propri “eventi” in cui lo spettatore diventa parte attiva della performance, tessendo un forte
legame tra arte e vita. “Musicircus” del ’67 vede sul palco varie formazioni che si sovrappongono
eseguendo musiche provenienti da diversi repertori; la scelta del momento in cui ogni gruppo deve
suonare avviene tramite procedure casuali. “HPSCHD” del 1969 è un lavoro multimediale dalla
durata di circa cinque ore, in cui si uniscono sette clavicembali che eseguono degli estratti
"sorteggiati" di repertorio classico e composizioni di Cage, cinquantadue cassette di segnali generati
da calcolatori, sessantaquattro proiettori ciascuno contenente cento diapositive, quaranta pellicole.
Durante la performance, il pubblico è libero di attraversare l'auditorium, entrare ed uscire. In questo
modo l’interesse singolo e centrale sull’opera è eliminato, per fornire al fruitore una vasta gamma di
elementi.
Figura 1.7 John Cage in veste di concorrente nello show televisivo italiano
"Lascia o Raddoppia", insieme al conduttore Mike Bongiorno.
15
Nel ’65, il compositore Alvin
Lucier realizza la performance
“Music for Solo Performer”, nella
quale mette in risonanza alcune
percussioni attraverso dei
diffusori, che amplificano le onde
alfa emesse dal suo cervello
durante uno stato meditativo,
catturate in tempo reale mediante
l’utilizzo di elettrodi.
Nello stesso anno, la compositrice
Pauline Oliveros progetta e crea
l’Expanded Instrument System, un
sistema per l’elaborazione (in
principio analogica, in seguito anche digitale) del segnale del suo accordion in tempo reale, che
utilizza in esibizioni dal vivo dal carattere puramente improvvisativo.
Pauline Oliveros s’interessa in questi
anni alle modalità di miglioramento
del processo di attenzione applicato
all’ascolto musicale, conducendo
importanti studi presso l’Università
della California a San Diego. La sua
propensione all’improvvisazione è
evidente anche nei suoi lavori su
supporto, come “A Little Noise in the
System” del ’66, un unico flusso
estemporaneo eseguito al sintetizzatore
Moog, senza effettuare montaggio del
nastro. Al contrario il compositore di
Los Angeles Morton Subotnick,
preferisce selezionare il materiale registrato nel corso d’improvvisazioni, per eseguirne un
montaggio, come nel caso di “Silver Apples of the Moon” del ’67.
Figura 1.9 Pauline Oliveros ed il suo accordion.
Figura 1.8 Alvin Lucier durante l'esecuzione di "Music for solo performer".
16
Il panorama colto del ventennio compreso tra
la fine degli anni ’50 e quella degli anni ’70,
viaggia su un percorso simultaneo a quello
tracciato dalle correnti “pop” tutt’altro che
parallelo.
Le due strade s’incontrano, a volte coincidono
e si confondono tra loro. Mentre i Beatles,
omaggiando Stockhausen ed il suo “Gesang
der Jünglinge im Feuerofen”, compongono
esperimenti come “Revolution 9” del ’68, i loro
dischi vengono riprodotti ed ascoltati dai
giovani compositori che frequentano i
Ferienkurse di Darmstadt14.
Le nuove scoperte in campo tecnologico permettono l’utilizzo dello studio di registrazione come un
vero e proprio strumento musicale, di supporto alla composizione. Chi può permetterselo, acquista i
nuovi sintetizzatori e li integra nel sound della band.
I Pink Floyd sono tra i primi a inserire suoni generati elettronicamente all’interno della loro musica
psichedelica, ancora fortemente improvvisativa in questi anni.
L’interesse nell’improvvisazione è vivo anche nel mondo rock, dando vita alle nuove correnti
progressive mondiali, come la scena di
Canterbury in Inghilterra,
caratterizzata da gruppi come i Soft
Machine, o il Krautrock tedesco dei
Tangerine Dream e dei Can, i quali
membri Holger Czukay ed Irmin
Schmidt sono allievi di Stockhausen.
In Italia, gruppi come gli Area di
Demetrio Stratos (per il quale Cage
compone un mesostico) fondono le
sonorità del jazz con la
sperimentazione elettronica, il tutto
unito alla strabiliante ricerca vocale compiuta dal cantante di origini greche. La Factory di Andy
Warhol a Manhattan ospita feste ed eventi in cui si confrontano artisti provenienti da diverse 14 R. Worby, Crackle goes pop: how Stockhausen seduced the Beatles, The Guardian, 26 Dic 2015.
Figura 1.10 Syd Barrett in concerto con i Pink Floyd.
Figura 1.11 Il cantante Demetrio Stratos.
17
estrazioni, come il compositore e
polistrumentista John Cale e il
carismatico chitarrista e cantante
Lou Reed. L’uso di droghe
psichedeliche è senz’altro un
amplificatore percettivo per molti
artisti, che in questi anni
sperimentano lunghe parti
d’improvvisazione durante i loro
brani, alla ricerca di nuovi stati di
coscienza. Altri invece, come
Robert Fripp dei King Crimson,
sono mossi da una ricerca
spirituale; in questi anni esplode,
infatti, la curiosità del mondo
occidentale verso le culture
orientali.
Infine c’è chi, come Frank Zappa, è interessato ad ampliare gli orizzonti musicali e a muoversi
controcorrente, spaziando tra elementi di musica contemporanea, pop, rock, jazz ed elettronica,
uniti ad una notevole dose di irriverenza e critica sociale.
Zappa compone alcuni lavori più contemporanei ispirandosi a Edgar Varèse, il quale stima l’opera
del chitarrista italo-americano.
1.3. GLI ANNI ‘80
Sul finire degli anni ’70, la ricerca nel campo
delle nuove tecnologie applicate alla produzione
musicale permette finalmente l’utilizzo del
calcolatore in tempo reale, come assistente alla
composizione ed all’esecuzione in concerto. Nel
’77 la ditta Roland introduce sul mercato il
rivoluzionario MC-8 MicroComposer, un
sequencer dotato di microprocessore, in grado Figura 1.13 Roland MC-8 MicroComposer.
Figura 1.12 Frank Zappa dirige la Ensemble Modern durante la prima
esecuzione di "Yellow Shark", poche settimane prima della sua morte, nel
'93.
18
di modulare in tempo reale diversi parametri del suono e, grazie a una memoria RAM di 16 KB,
permette di programmare sequenze contenenti un massimo di 5200 eventi, rispetto ai precedenti
step sequencer che hanno un limite da otto a sedici note. Esso permette inoltre un utilizzo
polifonico, poiché è possibile assegnare più controlli in voltaggio d’altezza a un singolo canale.
Gli studi compiuti da John Chowning sulla sintesi FM nel precedente ventennio permettono lo
sviluppo di strumenti come il sintetizzatore DX7 di casa Yamaha, che uniti allo sviluppo dei più
economici chips digitali e microprocessori, aprono le porte alla generazione di musica elettronica in
tempo reale. I suoni elettronici devono essere fluidi e cangianti, per rimanere “freschi” all'orecchio.
Nella computer-music questa caratteristica è soggetta a un alto costo di calcolo, in termini di
numero di elementi richiesti in partitura e di quantità di lavoro interpretativo che gli strumenti
devono svolgere per realizzare questi suoni particolari15. Il calcolatore permette diverse soluzioni,
catalogabili in tre macro-categorie; la prima fra tutte è la musica generata ed eseguita dal
calcolatore.
Questa tipologia di computer-music nasce in realtà ben prima degli anni ’80. Compositori come
Iannis Xenakis o Gottfried Michael Koenig (il quale collabora in studio con numerosi compositori
tra i quali Stockhausen, in brani come “Kontakte” o “Gesang der Jünglinge im Feuerofen”),
sperimentano l’utilizzo del calcolatore per la costruzione di strutture matematiche applicate alla
generazione di partiture, eseguite in un primo momento dall’uomo, in seguito dalla macchina stessa.
Nei primi anni ’80 nasce il
protocollo MIDI, acronimo di
Musical Instrument Digital
Interface,
ad opera di due progettisti della
Sequential Circuit, Dave Smith e
Chet Wood16.
Attraverso il MIDI diventa
possibile il collegamento fisico tra
vari dispositivi, la praticità, la
leggerezza dei file e l’economicità
dei costi di produzione lo rendono
15 D. Gareth Loy, C. Roads, ed. The Music Machine: Selected Readings from Computer Music Journal. MIT Press,
p. 344, 1992.
16 D. Smith, C. Wood, The complete SCI MIDI, 1981.
Figura 1.14 Dave Smith, "padre" del protocollo MIDI.
19
tutt’ora uno standard molto diffuso nelle produzioni musicali di qualsiasi livello. Nel 1983 le
specifiche MIDI raggiungono il massimo livello, quindi sono presentate alla famosa fiera di Los
Angeles NAMM (National Association of Music Merchants), ottenendo un’immediata popolarità
che causa una momentanea divisione all’interno del comitato fondatore. Nel 1985 le divergenze si
risolvono, grazie all’IMA (International MIDI Association), che pubblica la versione 1.0 del
protocollo trasformandolo in uno standard. Il primo sintetizzatore dotato d’interfaccia MIDI è il
PROPHET 600 della SCI, anche se la versione definitiva del protocollo MIDI è implementata per la
prima volta dal DX7 Yamaha. Grazie a questo nuovo protocollo, diversi compositori lavorano alla
realizzazione di programmi che mappano gli eventi MIDI attraverso algoritmi, generando suoni
eseguibili attraverso una scheda audio. In questi anni è molto diffuso l’utilizzo di algoritmi basati
sulla geometria frattale. Nel corso degli anni nascono diversi programmi per la generazione di
melodie basate su un’enorme banca dati di frasi, utilizzati soprattutto per scopi didattici, quali
Band-in-a-Box o Impro-Visor.
Un’altra corrente musicale nata con il
calcolatore è la composizione algoritmica
assistita.
Diversi compositori legati all’ambito
della composizione algoritmica trovano
nel calcolatore un valido assistente, in
grado di compiere calcoli notevolmente
complessi in breve tempo. Partendo da
prime ricerche sulla sintesi vocale, Max
Mathews elabora il primo prototipo di
MUSIC nel ’57 17 , all’interno dei
laboratori Bell di Murray Hill, nel New
Jersey.
Dopo anni di progressi, si giunge alla prima “popolare” versione del software, MUSIC 4. James
Tenney ottiene una borsa di studio come ricercatore, il suo compito è realizzare brani elettroacustici
per verificare le prestazioni del software di Mathews. In questi anni, dopo primi esperimenti in cui
utilizza MUSIC come un sintetizzatore per la creazione di suoni nodali, Tenney è interessato al
controllo di strutture generate da fattori casuali, quindi all’automazione di processi di montaggio
mediante fogli di calcolo digitali. 17 P. Manning, Computer and Electronic Music, Oxford University Press, 1993.
Figura 1.15 Max Mathews lavora alla creazione di MUSIC, presso i
laboratori Bell.
20
Questo suo atteggiamento informale lo discosta dalla computer-music, prettamente algoritmica e
deterministica. All’interno dei laboratori Bell anche il compositore francese Jean Claude Risset
sperimenta l’utilizzo di MUSIC, interessato però alla riproduzione di suoni reali mediante tecniche
di sintesi. Essendo allievo di André Jolivet, Risset è in parte legato alla musica strumentale e alla
tradizionale scrittura su pentagramma. In questi anni c’è una forte reazione conservatrice in Francia,
emergono notevoli idiosincrasie tra la serialità e l’improvvisazione, problemi che, in una terra
“libera” come l’America, non trovano terreno fertile. In questo clima di libertà, Curtis Roads
elabora per primo l’utilizzo della sintesi granulare nel dominio digitale. Egli lavora su un linguaggio
basato su tre “dimensioni”, il punto, la linea e la nuvola. Il punto corrisponde a un singolo “grano”,
un evento isolato, la linea è formata dalla successione ravvicinata di più grani, mentre la nuvola è
un insieme caotico di grani che produce masse sonore mutevoli e fluttuanti.
L’ultima tra le tre macro-categorie menzionate è caratterizzata dall’improvvisazione del calcolatore.
In questo caso, la macchina si serve di algoritmi per creare un’improvvisazione su materiale
musicale esistente. Ciò è possibile attraverso una raffinata ricombinazione di frasi musicali estratte
da musiche esistenti, eseguite in tempo reale o pre-registrate. Per rendere credibile
l’improvvisazione, il calcolatore “apprende” algoritmi di analisi del materiale inserito, restituendo
nuove variazioni in “stile”. Questo processo differisce dalla composizione algoritmica, nella quale
manca l’aspetto dell’analisi del materiale musicale. Tale analisi è di tipo statistico, serve a
individuare ridondanze di frasi contenute nella banca dati. Una delle più note implementazioni di
questo tipo è OMax, un ambiente di programmazione sviluppato all’IRCAM di Parigi, che combina
l’utilizzo di OpenMusic e Max/MSP. Pietro
Grossi, pioniere della musica elettronica italiana,
primo tra l’altro a ottenerne la cattedra, nel 1980
inizia a utilizzare il sistema di sintesi del suono
IRMUS, progettato dall’Istituto di Ricerca sulle
Onde Elettromagnetiche del CNR di Firenze,
reduce dalla precedente esperienza del ’78 con le
apparecchiature del CNUCE (Centro Nazionale
Universitario di Calcolo Elettronico) di Pisa, con
le quali sperimenta il suo primo “…tentativo di far
suonare il calcolatore a tempo indeterminato e con procedure completamente automatiche”18.
18 P. Grossi, Intervista televisiva per il 41° Maggio Musicale Fiorentino, Firenze, 1978.
Figura 1.16 Pietro Grossi e Sergio Maltagliati.
21
1.4. DAGLI ANNI ’90 AD OGGI
Nel corso degli anni ’90, l’informatica entra a far
parte della vita quotidianità di ognuno e Internet
cambia per sempre la vita dell’uomo. Il mondo è
avvolto in una grande rete che mette in
comunicazione i popoli lontani, miscela le culture
e nutre di nuova linfa vitale la creatività e
l’ingegno. I computer diventano sempre più
piccoli, fino a divenire veri e propri oggetti di
design, da inserire nell’arredamento di casa.
L’incontrollabile flusso d’informazioni
proveniente da quello schermo permette di creare
musica nella propria stanza, importando nel
computer suoni campionati ed elettronici
provenienti dalla rete. Se, fino a poco tempo prima,
il nastro permetteva alle giovani band di effettuare delle semplici registrazioni in presa diretta, il
digitale permette di montare e rimontare il materiale a proprio piacimento. È l’era del DJ, il Disk
Jockey che muove le masse di giovani nelle
discoteche, in principio miscelando tra loro
brani su vinile, in seguito suonando in tempo
reale mediante l’utilizzo di molteplici
apparecchi. Il decennio dei ’90 si potrebbe
riassumere nella parola “Mix”: Internet è un
enorme frullatore nel quale tutto si miscela, la
musica colta si fonde con la cultura “pop”, ai
concerti si affiancano le performance, nelle
quali gli artisti mescolano più media, musica,
pittura, scultura e video-arte.
In questo calderone si ritrovano correnti
musicali molto diverse tra loro, caratterizzate da
un utilizzo molto vario delle tecnologie.
Figura 1.17 Uno dei primi Personal Computer Macintosh.
Figura 1.18 Due consolle da DJ a confronto, una
analogica anni '70 ed una digitale anni '90.
22
Il newyorkese Tod Machover, giunto a
Parigi nell’autunno del 1978, entra a far
parte dell’IRCAM, calorosamente
invitato da Pierre Boulez che lo vuole
come compositore in sede.
Dopo i primi anni trascorsi a
sperimentare il sintetizzatore digitale 4X
dell’italiano Giuseppe di Giugno
(considerato la prima stazione di lavoro
musicale interamente digitale per la
sintesi e l'analisi del suono digitale in
tempo reale), Machover alimenta il
desiderio di espandere la performance dell’esecutore, elaborando così il primo concetto di Iper-
strumento nel 1986. Trasferitosi al MIT (Massachussetts Insitute of Technology) come docente,
studia diversi modi di espandere le potenzialità esecutive di strumenti tradizionali, applicando
sensori di varia natura. Il sistema processa il suono proveniente dallo strumento in differenti modi,
secondo i gesti dell’esecutore. Machover è interessato inoltre a un fine didattico: i suoi iper-
strumenti possono aiutare le giovani leve di musicisti nel loro percorso di apprendimento.
Sempre a un americano si deve la “scoperta” del Circuit Bending.
Con il termine Circuit Bending
s’intende la manipolazione
creativa di circuiti provenienti da
varie apparecchiature elettroniche
a basso voltaggio, come pedali
per chitarra, giocattoli per
bambini e piccoli sintetizzatori
digitali. Modifiche di questo tipo,
talvolta casuali, enfatizzano la
spontaneità e l’indeterminabilità
dei suoni generati, tanto da
associare questa tecnica alla
Noise music. La paternità di tale
invenzione è generalmente
attribuita a Reed Ghazala.
Figura 1.19 Tod Machover e il suo HyperCello.
Figura 1.20 Reed Ghazala mentre sperimenta in studio.
23
Negli anni ’60 si accorge per caso
che un giocattolo a transistor,
venuto a contatto con oggetti
metallici, produce suoni “strani”.
Da allora Ghazala dedica la sua
vita alla produzione di nuovi
strumenti musicali di questo tipo.
Tra le varie forme d’arte nate in
questo decennio, meritano inoltre
particolare attenzione le
installazioni multimediali.
Tramite l’utilizzo di sensori o di
circuiti programmati, prendono
vita performances di varia natura
nelle quali è spesso protagonista il
fruitore, che interagisce in maniera più o meno significativa con l’installazione. Spesso si tratta di
opere multimediali, dove la presenza simultanea e l’interazione fra vari media, coinvolge il
pubblico per la vasta gamma d’informazioni che esso riceve, sebbene in molti preferiscano adottare
il termine multimodale, che sposta l’attenzione sui modi di fruizione piuttosto che sul media di
provenienza.
Installazioni di prestigio sono regolarmente presentate nel corso d’importanti manifestazioni presso
mostre quali la Biennale di Venezia o la Tate Modern di Londra.
Tornando in ambiti prevalentemente
musicali, è doveroso citare la
corrente Laptronica. La parola Laptronica è un
portmanteau prodotto dalla fusione
di Laptop ed Elettronica, indica
quindi la categoria di musica
prodotta più o meno in tempo reale
tramite l’utilizzo del laptop
(computer portatile). In questa
categoria rientrano differenti generi
di musica elettronica, dal Live Set
Figura 1.21 "Acqua Ferita", un'installazione dell'iracheno Azad Nanakeli,
presentata nel 2011 alla Biennale di Venezia.
Figura 1.22 Un'esibizione dei jazzisti Carl Craig, Francesco Tristano &
Moritz von Oswald.
24
dei DJ e produttori di musica “dance”, alle nuove sperimentazioni Nu Jazz, nelle quali
l’improvvisazione di tipo jazzistico si combina con l’utilizzo di sintetizzatori e portatili per
l’elaborazione in tempo reale del segnale proveniente dai vari strumenti presenti sul palco.
Tra i vari artisti che si cimentano in questo genere di musica, spicca il norvegese Bugge Wesseltoft,
che dagli anni ’90, dopo una prima fase più tradizionale, vira su sonorità elettroniche contaminate
dalla cultura pop.
Nella “Terra di Mezzo” che
separa le installazioni dalla
Laptop Music, possiamo
trovare il Live Coding.
Conosciuta anche come
“programmazione
interattiva”, la tecnica del
Live Coding consiste nella
compilazione del software in
tempo reale, durante la
performance. La maggior
parte degli ambienti di
programmazione dedicati alla
musica è costituita da
“semplici” compilatori, nati per i primi computer, aventi ridotte possibilità di calcolo. Questo
genere di approccio è in realtà molto complesso per chi non conosce il linguaggio di
programmazione, perciò alcuni software integrano gradualmente alcuni controlli in tempo reale, ad
esempio utilizzando il protocollo MIDI.
Tra gli artisti di maggior rilievo in questo genere spicca Ryoji Ikeda. Compositore eccentrico e
poliedrico, nelle sue performance unisce principalmente suoni provenienti da apparecchiature
digitali a proiezioni di visual concettuali.
In “Test Pattern” del 2008 utilizza un software da lui compilato per elaborare diverse tipologie di
files, dai quali estrapola dati per la generazione di suoni “puri” (sinusoidi e rumore bianco) o di
visual composti esclusivamente da codici a barre.
Figura 1.23 Royji Ikeda esegue il suo Test Pattern dal vivo.
25
2. REALIZZAZIONE DELLA PERFORMANCE
2.1. LIVE ELECTRONICS ED IMPROVVISAZIONE
Come naturale conclusione di un lavoro di ricerca, il musicista avverte la necessità di mettere in
pratica il suo studio, al fine di arricchire il proprio linguaggio.
Tale conclusione coincide con quella del mio percorso di studi in Conservatorio, grazie al quale ho
potuto apprendere tecniche di elaborazione e di spazializzazione del segnale audio, le quali fanno
ormai parte del mio linguaggio musicale.
Coltivo da molti anni un interesse particolare per la musica di tipo improvvisativo, sia per aspetti
musicali, sia per altri più “spirituali”.
Da sempre mi affascinano le musiche provenienti da culture extraeuropee, per via della sensazione
di libertà che si respira ascoltandole. In effetti, tali musiche sono spesso legate alla vita spirituale
dell’uomo durante le più varie celebrazioni. Nell’Europa centrale invece, l’attenzione si è sin da
subito rivolta sul ruolo centrale del compositore/genio, che padroneggia le regole del sistema
matematico-musicale al fine di comporre meravigliose opere, per divenire “immortale”.
Nel caso delle musiche tradizionali
orientali, africane, ma anche del sud
dell’Europa, spesso si ricerca, attraverso
ritmi ossessivi o lunghe improvvisazioni
modali, uno stato di trance, nel quale tutto
si fonde assieme, portando il musicista in
una condizione di “immortalità”. Tale
condizione, diversa dalla precedente
poiché basata sull’annullamento del
proprio ego, si sperimenta nell’attimo
presente, e non in un secondo momento
attraverso la memoria dei successori.
Questo punto di vista, trasforma l’idea di musica, ampliandola da una forma d’arte a un vero e
proprio linguaggio, mediante il quale poterci rapportare con le più differenti culture senza
impedimenti linguistici.
Inoltre, improvvisare impone di rivolgere l’attenzione verso l’interno, obbligandoci a guardare
dentro noi stessi impariamo a conoscerci meglio.
Figura 2.1 La Taranta in Puglia è una musica popolare dal forte
carattere improvvisativo, capace di condurre chi la balla ad uno
stato di trance.
26
Questa mia passione per l’improvvisazione è stata
nutrita di nuovi stimoli quando ha incontrato il
live electronics, quindi negli ultimi anni di studio
ho sperimentato la creazione di ambienti esecutivi
in MAX, che ampliassero la gamma timbrico-
espressiva dei miei strumenti acustici.
La ricerca timbrica è il trait d’union fra il mio
percorso e quello del collega e amico Yuri
Dimitrov, il quale ha concentrato i suoi studi sui
sintetizzatori, in particolar modo su quelli di
concezione modulare, collezionando nel tempo
alcuni moduli analogici moderni. Il suo intento
era processare in tempo reale il segnale
proveniente dai moduli e spazializzare il suono, utilizzando MAX come un modulo della sua
strumentazione.
Durante un periodo di studio è necessario suonare ed esercitarsi da soli, lo scontro con noi stessi ci
conduce a una crescita, la quale in seguito va esperita con qualcuno, poiché il dialogo favorisce un
nuovo sviluppo per il musicista. La ricerca di un collega musicista, con cui sperimentare il mio
setup, si è subito sposata con il progetto di Yuri, considerando la mia strumentazione come un
ulteriore modulo assemblabile alla sua performance.
La nostra indagine, rivolta alla ricerca di un dialogo fra timbri, genealogicamente distanti, procede
parallelamente su tre livelli: morfologico, semantico e spaziale. I timbri prodotti dagli strumenti
acustici, elaborati in tempo reale, emulano quelli sintetici generati dagli oscillatori analogici e
digitali. Allo stesso tempo, attraverso varie tecniche di sintesi e la manipolazione dell’inviluppo
d’ampiezza, il suono dei sintetizzatori è modellato su imitazione dei suoni acustici. A livello
semantico interviene la pratica manuale degli interpreti, la gestualità è da considerarsi un valore
aggiunto poiché, derivando dalla pratica strumentale, pone l’attenzione sul dialogo tra i musicisti e
quello tra loro e lo strumento. L’utilizzo di un sistema di diffusione ottofonico offre, infine, la
possibilità di allargare il campo d’indagine, donando ai suoni una posizione nello spazio e la
capacità di movimento.
Figura 2.2 Luigi Archetti ed Ernst Thoma eseguono la
performance TRANSELEC, durante il Pod’Ring Festival
di Bienna del 2003
27
2.2. ESTETICA DELLA PERFORMANCE: ISPIRAZIONI E STESURA
FORMALE
Per decidere la direzione da percorrere, da un punto di vista estetico, è stato necessario fare una
cernita di tutte le fonti d’ispirazione che hanno mosso i nostri studi individuali, ascoltando
registrazioni di repertorio e ricercando numerose interviste.
Ci ha subito colpito un’altra intervista rilasciata da Ennio Morricone19 (oltre quella già citata a pag.
12), nella quale il compositore, parlando di alcuni esercizi svolti dal GINC durante le prove, li
descrive come “esercizi che facevamo su un parametro unico. Esempio: gioco delle coppie;
risposta positiva all’intervento di un esecutore (vuol dire che a un mio intervento, rispondeva
l’intervento di un altro); oppure: risposta negativa (l’altro non rispondeva, o meglio rispondeva
con un altro linguaggio). E così via”.
Abbiamo deciso quindi di applicare strategie simili a quelle utilizzate dal gruppo di Evangelisti,
nelle varie fasi di stesura della performance.
Per la scelta della strumentazione abbiamo riascoltato e selezionato materiali registrati nel corso di
lunghe sessioni d’improvvisazione, come descritto nel paragrafo seguente.
Una volta selezionati i materiali migliori, il passaggio successivo è stato quello di costruire singoli
momenti musicali, da noi nominati “scene”, ciascuno incentrato su un particolare dialogo fra gli
strumenti acustici ed elettronici, talvolta a livello timbrico, talvolta ricercato nell’inviluppo
d’ampiezza.
Le tipologie di dialogo scelte sono tre: imitazione, contrasto e contrappunto; i processi d’imitazione
e contrasto, inoltre, possono avvenire per accumulazione o per rarefazione.
In un dialogo di tipo imitativo, gli strumenti emulano reciprocamente l’inviluppo d’ampiezza, la
fusione tra i timbri crea tessiture di suoni lunghi piuttosto che nuvole di eventi puntuali.
In un momento di contrasto invece, le risposte tra gli strumenti divergono per linguaggio musicale e
caratteristiche dell’inviluppo d’ampiezza.
Nel dialogo per contrappunto, nonostante le similitudini nell’inviluppo dei suoni, le voci
mantengono un alto grado d’indipendenza.
La scelta di strutturare la perfomance concentrandoci su brevi sezioni trova ispirazione negli studi
sulla Moment Form compiuti da Karlheinz Stockhausen (citati a pag. 10).
Come avviene per alcuni brani di Stockhausen, l’intento iniziale era quello di poter scegliere in
maniera estemporanea la successione temporale degli eventi.
19 V. Mattioli, Superonda: la storia segreta della musica italiana, Baldini&Castoldi, 2016.
28
Tuttavia, in un secondo momento abbiamo preferito definire l’ordine delle scene, in modo da
costruire una forma che procede in maniera quasi simmetrica dagli estremi verso il centro.
Tale decisione è stata dettata anche da un’esigenza temporale, dovendo eseguire la performance
durante la discussione della tesi in Conservatorio in un tempo limitato. Per la prima esecuzione
quindi, la durata totale sarà di circa dieci minuti, suddivisi in cinque scene della durata di circa due
minuti ciascuna. Nei paragrafi 2.3 e 2.4 saranno descritte le caratteristiche interne di ogni scena, con
rimandi agli esempi audio contenuti nel CD in allegato alla tesi.
Come anticipato, le scene sono disposte in maniera speculare; la terza scena funge da specchio
deformante di quanto avviene nei precedenti momenti, ripresentando le tipologie di dialogo
ascoltate in precedenza ma in direzione opposta:
• SCENA I: dialogo per imitazione, diretto verso l’accumulazione: suoni lunghi e
riverberati creano una stratificazione sempre più fitta;
• SCENA II: dialogo per contrasto, diretto verso la rarefazione: suoni brevi e impulsivi
formano nuvole di grani che lentamente si sfaldano perdendo l’attacco in favore di un tempo
di decadimento più lungo;
• SCENA III: dialogo per contrappunto: suoni sintetici e acustici dal carattere percussivo
procedono su linee indipendenti, con intersezioni rapide e irregolari;
• SCENA IV: dialogo per contrasto, diretto verso l’accumulazione: suoni lunghi emergono
da uno sfondo granulare sempre più fitto;
• SCENA V: dialogo per imitazione, diretto verso la rarefazione: suoni brevi caratterizzati
da veloci modulazioni in ampiezza e in frequenza si alternano in maniera sempre più
diradata, dissolvendosi gradualmente.
29
La tecnica esecutiva degli strumenti acustici è incentrata sull’utilizzo di metodi di produzione
sonora non convenzionali, atti a ricercare sonorità collaterali caratterizzate dalla fisionomia degli
strumenti stessi. Questa metodologia, ampliamente impiegata dal GINC, consente di ampliare
notevolmente la gamma timbrica degli strumenti, soprattutto utilizzando vari oggetti (ad esempio
corde, chiodi, bacchette…) per sollecitare lo strumento.
Per quanto riguarda la spazializzazione dei suoni, abbiamo tratto ancora una volta ispirazione da
Stockhausen; la scelta di utilizzare un sistema di diffusione multicanale riduce in maniera
considerevole di fatto ogni possibile situazione di staticità (come descritto a pag. 36), permettendo
una migliore comprensione dei dettagli nelle singole voci provenienti dal DSP, distribuite nello
spazio d'ascolto.
Lo spostamento dei suoni è regolato da un sistema di feature extraction20: i dati estrapolati dallo
spettro e dall’inviluppo d’ampiezza dei suoni controllano la direzione degli stessi attorno
all’ascoltatore. In questo modo la spazializzazione segue i gesti dei musicisti, trasformandoli in
movimento.
20 https://en.wikipedia.org/wiki/Feature_extraction
Figura 2.3 Schema formale della performance. Sullo sfondo, spettro di un’esecuzione di prova.
30
2.3. ESECUZIONE E STRUMENTAZIONE ADOPERATA
La realizzazione di questa performance ha richiesto una fase preliminare di progettazione (durata
circa un anno), durante la quale abbiamo effettuato molti campionamenti dei nostri strumenti.
Abbiamo preso ad esempio il metodo di lavoro del GINC di Evangelisti 21 , riascoltando
meticolosamente le registrazioni, appena terminata una sessione improvvisativa.
La scelta di strumenti di piccole dimensioni, unita alla ripresa microfonica, ha subito permesso
l’utilizzo di una vasta gamma timbrica, ulteriormente ampliata dalle notevoli potenzialità dei
sintetizzatori utilizzati nella prima fase di sperimentazione.
In questa fase d’ascolto, sono emersi i timbri e i momenti musicali più interessanti, caratterizzati da
un forte dialogo tra i suoni. Abbiamo quindi selezionato gli strumenti definitivi, per ottimizzare i
gesti esecutivi, i calcoli delle macchine e gli spazi d’esecuzione.
Il mio setup è costituito da
strumenti acustici quali un
glockenspiel, un’armonica
cromatica, percussioni africane
in legno e in metallo e un ukulele
hawaiiano.
Con l’utilizzo di un microfono
cardioide a condensatore e un
microfono a contatto, il suono
degli strumenti acustici è
catturato e inviato a MAX,
quindi elaborato in tempo reale e
infine diffuso.
Ciascuno strumento rientra in una diversa categoria della classificazione Hornbostel-Sachs22, il più
diffuso metodo di classificazione degli strumenti che, presentato nel 1914, comprende quattro
“famiglie”: idiofoni, membranofoni, cordofoni ed aerofoni.
21 Descritto da Morricone e riportato da Valerio Mattioli nel libro “Roma 60 - Viaggio alle radici dell'underground
italiano - Parte seconda”.
22 La classificazione Hornbostel-Sachs è stata pubblicata per la prima volta nel 1914, all’interno della Zeitschrift für
Ethnologie. Successivamente, ne è stata pubblicata una traduzione in inglese dal Galpin Society Journal, nel 1961.
Figura 2.4 Il setup da me utilizzato durante la performance.
31
Il Galpin Society Journal nel ‘37
include una quinta categoria, gli
elettrofoni, ovvero strumenti in grado
di generare un suono elettricamente.
Il mio collega utilizza due strumenti di
sintesi, ciascuno caratterizzato da una
differente concezione: il primo è un
sintetizzatore modulare analogico,
costituito da moduli di recente
concezione, il secondo un
sintetizzatore digitale virtual analog,
poiché la generazione del suono è
digitale e non con circuiti analogici.
Nonostante le differenti tecniche di sintesi utilizzate, ciò che rende distanti tra loro i due strumenti è
la presenza di una tastiera nel secondo, al contrario del modulare.
Ciò comporta un approccio gestuale e
musicale totalmente diverso, poiché nel primo
caso si è naturalmente portati ad indagare più
sul timbro che sulle altezze, lasciando che sia
lo strumento a “suonare”.
L’attenzione è quindi rivolta all’enorme
possibilità di cablaggio e quindi di
modulazioni. La presenza di una tastiera, nel
secondo caso, focalizza presto l’attenzione
sulla costruzione armonico-melodica,
riponendo nuovamente le redini nelle mani
del musicista.
Figura 2.6 Strumenti di sintesi impiegati nella performance.
Figura 2.5 Prima pagina dell'articolo di Hornbostel-Sachs del 1914 e
della traduzione inglese del 1961.
32
2.4. LE SCENE
Il lavoro preliminare di ascolto, analisi e selezione, ci ha condotto alla realizzazione di brevi
momenti musicali, caratterizzati dall’utilizzo di pochi strumenti per volta, nominati “scene”.
In queste scene abbiamo cercato di sondare nel dettaglio il maggior numero di possibilità offerte
dall’interazione fra i nostri strumenti e l’ambiente esecutivo in MAX.
Questi momenti non sono caratterizzati da una partitura precisa, esiste tuttavia un’idea comune
riguardante la direzione da seguire, con ampi margini di libertà.
Le scene sono collegabili tra loro oppure fruibili individualmente, come piccole miniature musicali.
La modularità nella performance assume perciò un valore estetico importante, poiché caratterizza
non solo le forme musicali, mutevoli e permutabili, ma anche le scelte compiute all’interno della
singola scena e soprattutto l’intero impianto tecnico-informatico, dagli strumenti all’ambiente
esecutivo. Dopo una serie di prove, abbiamo focalizzato l’attenzione su cinque delle scene
realizzate. Ciascuna scena è incentrata sull’utilizzo di strumenti rappresentativi di una categoria
della classificazione Hornbostel-Sachs, in dialogo con gli elettrofoni, tranne la quinta, dedicata alla
voce umana. In allegato alla tesi è possibile ascoltare una dimostrazione delle cinque scene in
versione stereofonica, oltre ai suoni dei singoli strumenti con e senza elaborazione.
La prima scena (traccia 01 del cd in allegato) è
dedicata agli aerofoni, quindi agli strumenti in
grado di produrre suono attraverso la
generazione di colonne d’aria.
Per questo momento musicale, utilizzo
prevalentemente un’armonica a bocca
cromatica, strumento affascinante poiché tra i
pochi nella sua categoria a essere polifonico,
nonché l’unico ad essere in grado di emettere
suoni con ambedue le direzioni dell’aria,
ovvero sia soffiando che aspirando.
Il passaggio dell’aria all’interno dei fori,
provoca la vibrazione di piccole ance metalliche, disposte su due file parallele, in modo tale che
ogni foro sia in grado di produrre due note: la direzione dell’aria sollecita una o l’altra ancia.
Figura 2.7 Il modello di armonica cromatica, prodotto da
Hohner, utilizzato nella performance.
33
Il timbro dell’armonica, processata da un harmonizer, crea una tessitura fluida e cangiante (traccia
06 del cd), nella quale s’innestano nuvole di grani sintetici e una lenta pulsazione ritmica, data da
un timbro simile a quello del
didgeridoo australiano (traccia 07),
ottenuto mediante sintesi sottrattiva.
La seconda scena, dedicata agli
strumenti idiofoni, ha come
protagonista il glockenspiel,
strumento tedesco a percussione nato
nel XVIII secolo, costituito da barre
metalliche rettangolari intonate e
disposte su due file, come la tastiera
di un pianoforte.
In questa scena, il dialogo con i
sintetizzatori, i quali attraverso
wavetables e filtri producono timbri
metallici (traccia 09), è inizialmente puntuale; gradualmente, decostruendo l’inviluppo d’ampiezza
dell’oscillatore e processando il glockenspiel con un pitch shifter e un granulatore (traccia 08), gli
interventi brevi e percussivi si sfaldano, creando tessiture fluide che ricordano quelle ottenute da
J.C.Risset nei suoi esperimenti di risintesi delle campane, contenuti nel “Catalogo introduttivo dei
Suoni Sintetizzati al Computer” del 1969.
Per la scena con i membranofoni,
abbiamo preso in esame i timbri di due
percussioni africane differenti nei
materiali di costruzione.
Il djembe è ricavato da un unico blocco di
legno duro, la pelle, di capra, è tesa da un
insieme di corde legate a due cerchi
metallici. La sua forma a calice consente
di ottenere una vasta gamma di suoni, dal
grave all’acuto.
La darabouka invece ha il corpo in
Figura 2.8 Glockenspiel Angel a 25 note.
Figura 2.9 Da sinistra, djembe ghanese e darabouka tunisina.
34
metallo, la pelle in questo caso è tesa da due cerchi uniti da un sistema di tiranti.
Ciò rende il timbro di quest’ultima notevolmente più brillante di quello del suo parente in legno, pur
mantenendo una certa varietà di suoni, a causa delle similitudini nella forma.
Il DSP, in questo caso, racchiude i processi utilizzati nelle precedenti scene. Una serie di linee di
ritardo, con tempi molto brevi e feedback elevato, genera un filtraggio a “pettine” e una coda
intonata (traccia 10).
Il dialogo con i sintetizzatori, un generatore di forme d’onda casuali
con inviluppo percussivo e un modulo di cross-synthesis che emula
la coda di risonanza di una membrana (traccia 11), è rapido, frenetico
e in costante accumulazione.
Nella quarta scena, i cordofoni sono rappresentati dall’ukulele.
Strumento hawaiiano simile al cavaquinho portoghese, le sue piccole
dimensioni rendono molto brillante l’attacco del suono e rapido il
decadimento.
Dopo vari esperimenti ho deciso di microfonare lo strumento con un
microfono a contatto, posto a un centimetro dal ponte. La particolare
microfonazione enfatizza il suono delle corde, addolcendone
l’attacco. I processi in tempo reale sono affidati al granulatore, pitch
shifter e delay (traccia 12).
Attraverso la percussione, lo sfregamento di vari oggetti sulle corde,
l’ukulele crea delle nuvole di grani sullo sfondo, mentre in primo
piano c’è il sintetizzatore, il quale produce una forma d’onda che
ricorda quella di una grande corda sfregata da un archetto (traccia
13).
L’ultima scena vede come protagonista la voce, primo strumento utilizzato dall’uomo per
comunicare con la natura e i propri simili. La combinazione fra corde vocali, emissione dell’aria e
articolazione muscolare, la rende lo strumento più duttile che esista, in grado di produrre timbri
molto vari e distanti tra loro.
Nel corso dei secoli, l’utilizzo in musica della voce è mutato, per assecondare i gusti estetici delle
epoche e le esigenze tecniche (nella musica lirica, ad esempio, si utilizza una particolare
impostazione della voce che, attraverso il sostegno e l’azione del diaframma, permette alla voce di
emergere dal suono dell’orchestra).
Figura 2.10 Ukulele soprano.
35
Nella musica occidentale si è gradualmente
formata una tecnica vocale che ha escluso, fino
al ‘900, una vasta gamma di timbri e sonorità
ottenibili mediante le cosiddette “tecniche
vocali estese” (Extended Vocal Tecniques),
accuratamente descritte da Deborah Kavasch nel
suo articolo An Introduction to Extended Vocal
Techniques: Some Compositional Aspects and
Performance Problems23. Con “Stimmung” del
1968, Stockhausen è il primo noto compositore
occidentale a riprendere tecniche di canto
armonico, molto diffuse ad esempio nelle regioni della Tuva siberiana e della Mongolia e, in forma
diversa, in altre parti del mondo (ad esempio nel canto a tenore della Sardegna). Attraverso una
modulazione della gola, della lingua e delle cavità orali, è possibile enfatizzare alcune formanti
dello spettro vocale, al fine di far emergere una componente
armonica ben distinta.
Trevor Wishart invece ha fatto dell’improvvisazione vocale al
microfono la sua peculiarità.
Registrando e selezionando materiale vocale nel corso di
lunghe improvvisazioni al microfono, Wishart processa i
suoni spesso attraverso l’utilizzo di convoluzioni spettrali e
sintesi incrociata.
Questi esempi sono stati fonte d’ispirazione per la
realizzazione di questo momento all’interno della
performance, dove la voce umana (traccia 14) dialoga con i
filtri a formanti dei sintetizzatori (traccia 15), giocando
talvolta su veloci contrappunti, talvolta su lunghe tessiture
cangianti.
23 D. Kavasch, An Introduction to Extended Vocal Techniques: Some Compositional Aspects and Performance
Problems , contenuto in Reports from the Center, vol. 1, n. 2, Center for Music Experiment, Università della California,
San Diego, 1980.
Figura 2.11 Nel canto a Tenore sardo, l'armonizzazione delle
quattro voci produce la risonanza di un'armonica comune,
creando l'illusione di una quinta voce.
Figura 2.12 Trevor Wishart.
36
2.5. DIFFUSIONE MULTICANALE
In una conferenza tenuta a
Darmstadt nel ’5824, Stockhausen
parla già allora di come sia
diventato indispensabile per la
musica elettronica aggiungere il
parametro “spazio” all’interno delle
nuove composizioni, al fine di
rimuovere la staticità derivata da
un’eccessiva omogeneità nelle
manipolazioni del materiale sonoro
in tutte le sue proprietà (altezza,
intensità, timbro).
Inoltre l’utilizzo dello spazio
aumenta l’intellegibilità dei suoni, poiché distribuendo gruppi di eventi puntuali sovrapposti, è
possibile comprendere meglio le singole voci.
L’elemento spaziale all’interno del Live Electronics non ha, tuttavia, ancora trovato una forma di
notazione universale, probabilmente perché frequentemente è il compositore stesso a curare
direttamente la regia del suono, senza contare le problematiche introdotte dall’ambiente dove
avviene l’esecuzione, spesso in
contrasto, per via delle dimensioni, con
lo spazio virtuale del brano25.
È perciò necessario, secondo Francois
Bayle26, elaborare un’interpretazione che
sia utile a organizzare lo spazio acustico
secondo le caratteristiche della sala e lo
spazio psicologico secondo le
caratteristiche dell’opera. Il musicista
24 K. Stockhausen, Musik im Raum (Musica nello Spazio), 1958, tad. It. di D. Guaccero, in La Rassegna Musicale,
32(4), 1961.
25 A. Vidolin, Suonare lo Spazio Elettroacustico, CSC – Centro di Sonologia Computazionale dell’Università di
Padova, 2001.
26 F. Bayle, Musique acousmatique : propositions... positions, Buchet/Chastel, Parigi, 1993.
Figura 2.13 Stockhausen alle prese con il suo diffusore rotante, progettato
per Kontakte nel 1959.
Figura 2.14 François Bayle e il suo acusmonium al GRM di Parigi.
37
alla consolle concepisce un’orchestrazione e un’interpretazione vivente, intervenendo sul timbro,
sulla dinamica e sul movimento dei suoni nello spazio.
È interessante notare come le diversità tra filosofia concreta e sintetica si riflettano anche
nell’utilizzo dello spazio. La musica concreta tende a sfruttare lo spazio acustico esecutivo come
elemento caratterizzante, al contrario, nella musica elettronica sintetica, il compositore progetta uno
spazio virtuale. Il primo caso vince sul secondo soprattutto per ragioni economiche e pratiche: per
godere dell’ascolto di uno spazio virtuale è necessario proiettare il suono in ambienti privi di
particolari caratteristiche acustiche, quindi vanno escluse le normali sale da concerto, i teatri e gli
auditorium. Inoltre progettare uno spazio virtuale richiede una certa competenza in merito alla
programmazione, della quale i compositori/musicisti non sempre sono in possesso.
“Suonare” lo spazio richiede una notevole capacità d’ascolto, il regista del suono è ormai una figura
importantissima e determinante per la riuscita di un concerto elettroacustico.
Per questo motivo sono nate diverse “scuole” interpretative, che studiano la disposizione dei
diffusori secondo il programma da eseguire, e i giusti routing dei segnali per riprodurre i movimenti
desiderati.
Tra molte, ho trovato interessante l’approccio strutturale utilizzato dalla compositrice belga Annette
Vande Gorne. Lei “compone” lo spazio intendendolo come un luogo d’intersezione di punti, linee e
piani. I movimenti diventano
parte della forma, e sono da lei
suddivisi in figure spaziali
(dissolvenza incrociata,
smascheramento,
accentuazione, scintillamento,
oscillazione, altalenare, onda,
rotazione, spirale e rimbalzo)27.
Volendo applicare questo tipo
di spazializzazione ai nostri
suoni, è sorta la problematica
di avere un regista del suono.
Seguendo lo spirito che ha
caratterizzato la progettazione
27 A. Vande Gorne, L’interprétation spatiale. Essai de formalisation méthodologique, rivista DEMéter, Università di
Lille, 2002.
Figura 2.15 La compositrice belga Annette Vande Gorne.
38
del DSP, ho deciso di affidare la spazializzazione a un’analisi in tempo reale dello spettro dei suoni
in ingresso.
L’analisi estrapola in tempo reale tre dati, noiseness (quantità di rumore), brightness
(concentrazione di energia spettrale nelle zone acute) e loudness (intensità sonora), i quali, una
volta riscalati, sono assegnati rispettivamente all’angolazione, all’altezza e alla distanza della
sorgente rispetto ad un punto centrale della sala: l’inviluppo spettrale dei suoni disegna il loro
movimento nello spazio.
La disposizione degli altoparlanti può assumere diverse connotazioni, in base alle esigenze e alle
disponibilità del luogo, la patch è ricalibrabile al momento, inserendo il numero dei diffusori e la
loro collocazione su coordinate polari.
L’inviluppo d’ampiezza dei suoni caratterizza molto il loro movimento nel sistema di diffusione,
producendo interessanti figure di spazializzazione, ma anche qualche piccolo problema.
Il carattere percussivo di alcuni strumenti rischia di causare dei vuoti improvvisi, seppur brevi, che
disturbano il movimento.
Durante i corsi di “Percezione uditiva dello spazio” e di “Esecuzione ed interpretazione del
repertorio elettroacustico”, si è affrontato spesso questo tipo di problema e le sue possibili
soluzioni. Parlando di Luigi Nono, il maestro Marinoni ha spiegato come il compositore veneto
utilizzasse spesso aggiungere alla spazializzazione una “amplificazione trasparente”, ovvero una
lieve diffusione dell’uscita generale in ciascun diffusore, dopo aver calibrato il sistema con un
fuoco centrale nell’ambiente d’ascolto.
Il collega Dante Tanzi, profondo conoscitore delle tecniche di regia e diffusione del suono, mi
suggeriva l’utilizzo di un “rinforzo” generale su una coppia di diffusori frontali, poiché, in effetti, i
movimenti spaziali sono percepiti maggiormente dal fronte anteriore rispetto a quello posteriore.
Infine il maestro Sapir ha più volte posto l’accento sull’importanza di un utilizzo sapiente del
riverbero, sia naturale sia artificiale. Spesso accade di dover eseguire musiche che prevedono un
utilizzo importante del riverbero, in ambienti già molto riverberanti. Trovare il giusto equilibrio non
è semplice ed implica una notevole capacità di ascolto.
Facendo tesoro dei preziosi consigli, ho trovato una soluzione che riassume ciascuna strategia. Il
riverbero del DSP è diffuso in maniera stereofonica su tutte le coppie di diffusori, coprendo quindi i
vuoti che si presentavano in precedenza, mentre l’uscita diretta di ciascuna coppia di altoparlanti è
inviata anche alla coppia stereofonica frontale, “addolcendo” la percezione dei movimenti di
spazializzazione.
39
In questo capitolo ho cercato di fornire al lettore una panoramica generale sul mio lavoro, nella
speranza di trasmettere una piccola parte del percorso che mi ha portato alla sua realizzazione.
Ho cercato di non dilungarmi troppo sugli aspetti più tecnici che riguardano la programmazione
dell’ambiente esecutivo, per mettere maggiormente in luce le ragioni che mi hanno spinto a
imboccare questo cammino, e le fonti d’ispirazione che mi hanno aiutato a percorrerlo.
Nel capitolo successivo saranno illustrati i passaggi che hanno portato alla realizzazione
dell’ambiente esecutivo in MAX, con un’attenzione particolare a ciascun modulo.
40
3. AMBIENTE ESECUTIVO IN MAX
In numerosi corsi in Conservatorio, si è frequentemente discusso con i docenti sulle svariate
modalità di programmazione degli ambienti esecutivi.
MAX è un ambiente ideale per la realizzazione di progetti artistici, poiché l'approccio nei suoi
confronti risulta abbastanza immediato anche per i non esperti di linguaggi informatici, grazie
soprattutto alla sua concezione modulare, che si sposa perfettamente con l’estetica della nostra
performance.
A differenza di ambienti più ostici, dove è richiesta la compilazione di un codice, la modularità del
linguaggio ad oggetti adoperato da MAX permette rapidamente di assemblare, modificare e
soprattutto ascoltare in tempo reale il risultato.
Tutto ciò lo rende uno strumento ideale per il controllo e la gestione del flusso audio in un live
electronics. Questa sua duttilità permette di impostare lo stile di programmazione in conformità a
quelle che sono le esigenze dell'esecutore.
Figura 3.1 Patch in esecuzione durante la performance.
41
Ad esempio, l’utilizzo di oggetti grafici
permette una maggiore accessibilità a
un utente che non abbia una particolare
familiarità con il linguaggio di
programmazione.
Per questo motivo ho deciso di
realizzare una finestra d'esecuzione,
nella quale è possibile gestire i livelli, il
routing del DSP e il lancio delle scene.
In questo modo la patch è eseguibile
anche da un interprete non pratico di
MAX, senza doversi addentrare nella
programmazione più strutturale.
Tuttavia l’interfaccia grafica comporta
un maggior dispendio di energie da
parte del processore, è quindi opportuno trovare il giusto equilibrio tra praticità e velocità di
calcolo.
Il maestro Vigani, durante i corsi di composizione, ci
ha illustrato come, programmando il DSP e la
spazializzazione attraverso liste e messaggi, sia
possibile avviare processi d'elaborazione molto
complessi, con un minimo lavoro da parte del
processore.
L'utilizzo di liste e messaggi può risultare scomodo
nel caso in cui si volessero modificare dei parametri
in maniera dinamica, mentre è l'ideale per
l'organizzazione di cue che impostino una
configurazione precisa del DSP.
L’approccio modulare, infine, permette infinite
possibilità di routing tra i vari effetti, i quali possono
essere racchiusi come astrazioni in singoli oggetti,
collegabili tra loro come se fossero moduli analogici. Questa strategia permette di ottenere un
ambiente esecutivo aperto a ogni soluzione, i moduli precostruiti possono essere ampliati, sostituiti,
invertiti o eliminati in qualsiasi momento.
Figura 3.2 Interfaccia grafica per il controllo dinamico dei livelli e delle
assegnazioni del DSP.
Figura 3.3 Liste di dati da inviare al DSP.
42
3.1. MAIN
La finestra principale della patch è
costituita esclusivamente dall'insieme
dei moduli costituenti la performance:
l'interfaccia d'esecuzione, gli effetti
(harmonizer, pitch shifter, delay,
granulatore e riverbero), l'analizzatore di
spettro e il modulo di spazializzazione.
Cliccando su ognuno di essi è possibile
aprirli, visionare la loro
programmazione e modificarne i
parametri dinamicamente.
Ciascuno dei moduli non presenta né
ingressi né uscite, poiché il flusso del
segnale audio e dei dati di controllo sono gestiti
tramite send e return e liste di messaggi.
Questa finestra è utile soprattutto nel caso in cui si
voglia suonare con l'ambiente esecutivo in maniera
libera, senza seguire le configurazioni prestabilite
dalla performance.
La presenza dell’oggetto dac~ (digital-analog
converter) consente all’utente la selezione immediata
del sistema di input/output (scheda audio, entrate e
uscite analogiche), nonché l’impostazione della
frequenza di campionamento, del numero di
quantizzazione e della dimensione della finesra di
buffer.
Per un funzionamento ottimale della patch, a
prescindere dal computer utilizzato, è preferibile
utilizzare una finestra non inferiore ai 512 campioni,
per non rischiare un sovraccarico di lavoro da parte
del processore.
Figura 3.4 Finestra principale della patch.
Figura 3.5 Digital-Analog Converter.
43
3.2. INTERFACCIA ESECUTIVA
Il modulo d’interazione con la patch è studiato per ottimizzare i controlli, al fine di gestire
dinamicamente i parametri più importanti, come i livelli d’ingresso dei segnali o il routing tra gli
effetti del DSP.
Per ogni canale è presente un VU meter,
per controllare che non avvengano
distorsioni in ingresso.
I fader sono controllabili dinamicamente
tramite un hardware MIDI collegato al PC
e precedentemente mappato.
I controlli MIDI sono assegnati a coppie di
canali, uno per i miei microfoni ed uno per
i sintetizzatori di Yuri, per ottimizzare il
numero di fader da gestire durante la
performance.
Un terzo controllo gestisce la quantità di segnale diretto da inviare alla coppia stereo dei diffusori
frontali, in modo da “correggere” gli inconvenienti percettivi dovuti alla spazializzazione (si veda il
paragrafo 2.3).
Figura 3.6 Livelli d’ingresso dei segnali audio e mandata al fronte stereofonico dell’uscita totale.
Figura 3.7 ReMOTE 25SL, il controller MIDI della Novation
utilizzato nella performance.
44
La quantità di segnale inviato al DSP è regolata da un fader per ciascun effetto; anche in questo
caso il livello è controllabile attraverso un vu meter. In questo modo è possibile gestire sul momento
eventuali problemi di dinamica, senza causare vuoti
improvvisi o clipping.
Il routing tra segnali audio ed effetti è gestito da una
matrice a quattordici colonne e diciannove righe.
Le colonne riguardano i segnali audio diretti (in
ordine dall'1 al 4 i due microfoni, i moduli e la
tastiera) e le uscite stereofoniche dei singoli effetti
(harmonizer, pitch shifter, delay, granulatore e
riverbero), mentre le righe rappresentano la
destinazione da assegnare.
Tramite l'oggetto grafico è possibile gestire
rapidamente il flusso del segnale, cliccando sui punti
di congiunzione fra righe e colonne, mentre per le
scene della performance le configurazioni sono
richiamate tramite messaggi, come si vedrà più
avanti.
In una sub-patch è contenuta invece la
programmazione vera e propria della matrice, nella
Figura 3.8 Controlli sulle mandate agli effetti.
Figura 3.9 Matrice grafica per il routing degli effetti.
45
quale il segnale passa attraverso una serie di send e return, i quali risparmiano l’utilizzo di cablaggi
intricati e poco comprensibili.
Le prime cinque uscite si collegano agli effetti del DSP tramite outlets, per poterne controllare il
livello in maniera dinamica, le quattro successive servono ad inviare i segnali diretti (non effettati)
alle uscite, mentre le altre sono inviate direttamente al sistema di spazializzazione.
Durante la performance occorre cambiare rapidamente, tra una scena e l’altra, la configurazione
della matrice, oltre ai parametri che riguardano gli effetti.
Per gestire tutti questi controlli, è
stato necessario semplificare il
tutto attraverso l’utilizzo di cue
richiamabili tramite la tastiera del
computer, poiché, essendo già
impegnati nel suonare gli
strumenti, non è possibile gestire
a dovere troppi fader.
I numeri della tastiera, dall'uno al
cinque, servono per richiamare le
configurazioni della matrice e
degli effetti di ciascuna scena. Il primo messaggio da destra inizializza gli effetti utilizzati nella
scena e azzera la matrice, il secondo e il terzo messaggio configurano il DSP con i parametri
desiderati, il quarto messaggio imposta il routing della matrice e l'ultimo assegna i parametri al
granulatore, il quale è programmato in maniera diversa dagli altri effetti.
Il tasto “invio” è assegnato all'inizializzazione dell'intero sistema, mentre il tasto “spazio” arresta la
riproduzione.
Questo sistema permette di ridurre i controlli all'essenziale, in modo tale da non dover impiegare
una terza persona alla regia del suono.
Figura 3.10 Programmazione della matrice.
Figura 3.11 Partitura contenente le liste di parametri da assegnare al DSP
durante le scene.
46
Un breve tempo di interpolazione
è assegnato alla matrice, così da
evitare clipping dovuti ad un
repentino cambio di
configurazione, che spesso può
coincidere con il decadimento
dell'inviluppo d'ampiezza generato
da effetti quali il delay o il
riverbero.
3.3. HARMONIZER
Per la costruzione del DSP ho preferito adoperare una programmazione basata sull’invio di liste
tramite messaggi, utilizzando frequentemente l’oggetto poly~, grazie al quale è possibile generare
diverse istanze dello stesso effetto, ottenendo così un notevole risparmio di CPU.
Alcuni degli effetti utilizzati nella performance sono stati realizzati dal maestro Andrea Vigani
presso l’IRCAM di Parigi, il quale me li ha forniti durante i suoi corsi di composizione.
Figura 3.12 Configurazione del DSP e del routing della matrice nella scena I.
Figura 3.13 Controlli dinamici dell'harmonizer.
47
Il primo fra questi è l’harmonizer, strumento che genera più copie del segnale in ingresso, trasposte
in altezza.
Aprendo la patch dell’effetto, si trovano i controlli dinamici dello strumento, inseriti in
un’interfaccia grafica che tuttavia non è utilizzata nel corso della performance.
L’oggetto poly~, contenuto nell’harmonizer,
richiede come argomenti un nome ed un
numero di voci, in questo caso non
modificabile dinamicamente.
Questi argomenti indicano la destinazione
(l’istanza) alla quale inviare i parametri di
controllo, attraverso le liste contenute nei
messaggi delle scene.
Il poly~ riceve da un unico inlet sia il segnale da processare, sia le liste di controllo, mentre dai due
outlet invia alla matrice il segnale stereofonico risultante dal DSP.
I parametri generali sono l'attivazione dell'effetto, il tempo massimo di delay (questo harmonizer
permette di assegnare un tempo di ritardo diverso per ciascuna voce/istanza), il feedback, il
guadagno in ingresso ed in uscita dall'effetto e il missaggio fra segnale diretto ed effettato.
Scendendo maggiormente nel dettaglio, è
possibile visionare la programmazione del
poly~, al fine di poterne comprendere meglio il
funzionamento.
L'oggetto racchiude due percorsi, uno per il
segnale ed uno per i controlli, caratterizzati da
un ricco utilizzo di sub-patch, contenenti
espressioni matematiche e minuziosi
accorgimenti utili ad evitare errori di calcolo e
clipping.
Ad esempio, il segnale audio passa attraverso
una serie di sub-patch che effettuano
un'interpolazione lineare del guadagno in
ingresso.
Figura 2.14 Oggetto poly~ contenuto nell'harmonizer.
Figura 3.15 Programmazione del poly~ dell'harmonizer.
48
In seguito il segnale è duplicato per essere
inviato al DSP vero e proprio, nonché alle uscite
dirette.
I controlli generali dell'effetto sono ricevuti e
smistati dall'oggetto route.
Essi comprendono il tempo massimo di delay e
la quantità di feedback (ciascuna voce
dell'armonizzazione può avere un tempo di
ritardo rispetto al segnale originale), il guadagno
in ingresso e in uscita, l'attivazione dell'effetto ed
il missaggio con il suono diretto.
L'armonizzazione vera e propria del segnale
audio avviene tramite un secondo poly~,
contenuto all'interno del precedente.
In questo poly~ i messaggi di controllo, sempre
gestiti da un oggetto route, assegnano all’effetto
valori sul panning, sul livello d’uscita, sulla
trasposizione, il ritardo e l’attivazione di
ciascuna voce, oltre che sulla dimensione
della finestra di buffer, registrata dall’effetto
per processare il segnale.
La trasposizione dell'altezza del segnale
originale avviene tramite un'alterazione
della velocità di lettura della finestra di
buffer, tecnica che richiama la metodologia
con la quale si otteneva questo effetto
nell'era analogica, attraverso
un'accelerazione del nastro o della velocità
del vinile.
Nonostante esistano ormai tecniche digitali
moderne, in grado di ottenere risultati
qualitativamente superiori grazie all'utilizzo
dell'analisi di Fourier, la scelta di adottare
questa metodologia si sposa meglio a livello
Figura 3.16 Interpolazione lineare del guadagno in ingresso.
Figura 3.17 Il poly~ che effettua le armonizzazioni.
49
concettuale con il resto della performance, poiché l'effetto è ottenuto tramite oscillatori sinusoidali e
a “dente di sega”, assemblati ancora una volta in maniera modulare. Inoltre, tale tipologia di
programmazione è sicuramente più “leggera”, e permette al computer di eseguire il calcolo con uno
sforzo minimo. La trasposizione si compie su centesimi di tono, mentre il delay è calcolato in
millisecondi.
3.4. PITCH SHIFTER
Il secondo effetto inserito nel routing è un frequency shifter, in altre parole un traspositore di
frequenza.
Anche in questo caso la polifonia ha quattro voci, però, a differenza dell’effetto precedente, la loro
esecuzione è simultanea, poiché non è presente il delay.
Come per l’harmonizer, è presente un’interfaccia grafica per il controllo dinamico dei parametri,
tuttavia le impostazioni riguardanti le scene sono inviate all’effetto tramite messaggi.
Anche qui la trasposizione è calibrata su centesimi di tono, inoltre ciascuna voce ha un controllo
sulla posizione nello spazio e sul livello d’ampiezza.
Figura 3.18 Interfaccia grafica del Pitch shifter.
50
Il poly~ contenente l’effetto ha una
programmazione simile a quella
dell’harmonizer, l’assenza del delay rende
più semplice la comprensione del percorso
del segnale audio e dei parametri di
controllo, che in questo caso sono il
guadagno in ingresso e in uscita, il
missaggio fra suono diretto ed effettato e
l’attivazione del traspositore.
L’audio in ingresso passa attraverso il
sistema d’interpolazione già visto
all’interno dell’harmonizer; in seguito una
copia è inviata al poly~ traspositore, mentre
un’uscita diretta è sommata al risultato
stereofonico del processo, prima di essere
inviata al sistema di analisi e diffusione.
La trasposizione avviene all’interno di un
altro poly~, stavolta per mezzo dell’oggetto freqshift~, il quale compie in sostanza una modulazione
ad anello, andando ad agire sul dominio del tempo.
In questo caso non è necessaria una
finestra di buffer, poiché la
modulazione avviene in tempo reale
sul segnale in entrata.
Questa differenza di
programmazione rende il risultato
timbricamente diverso dall’effetto
precedente, la simultaneità delle voci
fa sì che si abbia l’impressione di
ascoltare la scomposizione di un
ricco spettro nello spazio ottofonico.
Figura 3.19 poly~ del pitch shifter.
Figura 3.20 L'oggetto freqshift~ contenuto nel traspositore.
51
3.5. DELAY
Per il modulo di delay ho
apportato alcune modifiche
rispetto all’originale del maestro
Vigani, senza però alterarne il
meccanismo principale di
funzionamento.
Ho scelto di poter controllare
delle bande numeriche, all’interno
delle quali è selezionato
casualmente un valore
metronomico assegnato a una
linea di ritardo ed espresso in
millisecondi.
È possibile inoltre variare
dinamicamente il valore di
feedback generale e decidere il livello d’ampiezza e il panning di ciascuna linea.
Come nei precedenti effetti, il segnale
è interpolato e se ne può controllare il
bilanciamento dry/wet. Il feedback è
controllato nel poly~ principale,
mentre il DSP importante è sempre
contenuto in un altro poly~.
Un buffer~ registra una finestra di 512
campioni.
Attraverso questa finestra, il delay
contenuto nel secondo poly~
sovrappone due copie della stessa
linea di ritardo, attraverso l’utilizzo
dell’oggetto sah~ (sample and hold).
Figura 3.21 Controlli dinamici sui tempi delle linee di ritardo.
Figura 3.22 Il poly~ contenuto nel delay.
52
Tutto ciò serve a evitare di incorrere nell’effetto Doppler, qualora cambiasse repentinamente la
velocità del delay.
3.6. GRANULATORE
Il modulo di sintesi granulare è
costituito dall’oggetto munger~
programmato da Dan Trueman.
Gli argomenti inseriti nell’oggetto
sono la lunghezza massima del
buffer in millisecondi, il numero di
canali d’uscita e il numero massimo di polifonia.
In effetti, munger~ permette già da sé una spazializzazione multi-fonica.
Il risultato tuttavia era piuttosto caotico, rispetto a quello che cercavamo e siamo riusciti ad ottenere
con l’analizzatore di spettro, ovvero delle masse sonore di grani in movimento.
Figura 3.23 Programmazione del delay. A destra la sub-patch "p vdelay~".
Figura 3.24 Granulatore munger~.
53
Durante la performance,
le impostazioni del
granulatore sono inviate
tramite una lista, la quale
è poi smistata alle varie
caselle numeriche tramite
l’oggetto unpack.
I controlli riguardano i
range di separazione,
dimensione e altezza dei
grani, oltre all’apertura stereofonica.
L’effetto varia i propri parametri in maniera aleatoria all’interno dei suddetti range, creando una
vasta gamma di timbri, talvolta assai diversi tra loro.
Data la sua ricca espressività, è tra gli effetti più utilizzati all’interno della performance.
3.7. RIVERBERO
Il modulo di riverbero, programmato partendo da Gigaverb~ di Juhana Sadeharju, presenta sette
controlli: la dimensione della stanza, l’apertura stereofonica, un coefficiente d’attenuazione, la
durata della coda, il tempo di riverberazione, la larghezza di banda del filtro (il filtraggio serve a
emulare il naturale decadimento delle frequenze acute) e le prime riflessioni.
L’effetto è costituito dall’oggetto gen~, il quale è in grado di generare numerosi processi nativi di
elaborazione del segnale audio.
Figura 3.25 Dettagli della programmazione del granulatore.
Figura 3.26 Interfaccia grafica per il controllo del modulo di riverbero.
54
In questo caso l’oggetto gen~ contiene un
banco di quattro delay in parallelo per le
prime riflessioni, con la possibilità di
impostare anche un pre-delay.
Ciascun delay ha un corrispettivo feedback,
il risultato stereofonico passa da un nuovo
banco di tre delay in serie, per creare la
coda. L’uscita ha un controllo di
bilanciamento con il suono non processato.
Nel corso della performance, questo è
l’unico modulo ad essere controllato in
maniera dinamica, per poter equilibrare in
qualsiasi momento il riverbero artificiale
con quello naturale dello spazio
d’esecuzione.
3.8. ANALISI SPETTRALE
In questo modulo
avviene l’estrapolazione
dei parametri che
andranno a controllare
la spazializzazione.
Nell’interfaccia grafica
è presente solo un
controllo di guadagno
per ogni segnale e la
visualizzazione in tempo reale dei dati di Loudness, Brightness e Noisiness ricavati dallo spettro.
Figura 3.27 Programmazione dell'oggetto gen~ contenuto nel
riverbero.
Figura 3.28 Livelli dei segnali all'interno degli analizzatori ed estrapolazione in tempo reale
dei dati di Loudness, Brightness e Noisiness.
55
Tutto ciò avviene grazie all’oggetto analyzer~ di
Tristan Jehan, che è inoltre in grado di estrarre il pitch
(in MIDI e in Hertz, anche polifonicamente), la banda
della scala Bark (scala psicoacustica di altezze ideata da
Eberhard Zwicker28 , basata sulla suddivisione delle
frequenze udibili in bande critiche) interessata, il
transiente d’attacco, il valore generale d’ampiezza in
dB e infine i dati di frequenza e ampiezza delle singole
componenti sinusoidali.
Gli argomenti dell’analyzer~ sono la dimensione delle
finestre di buffer e della loro sovrapposizione, la
dimensione della finestra di analisi FFT (Fast Fourier
Transform), la tipologia di finestra (rettangolare,
Hanning o Hamming), il tempo di ritardo iniziale, il
numero di pitch da estrarre, quello dei picchi da rilevare
e da inviare in uscita e il formato d’uscita del valore sulla
scala Bark.
La Loudness è misurata attraverso l’energia spettrale, è
quindi un valore in dB, mentre la Brightness riporta un
valore in Hz corrispondente all’altezza del centroide
spettrale, cioè il punto medio dove si colloca la maggiore
intensità nello spettro.
La Noisiness invece è misurata sulla scala Bark, che in
questo caso, data la frequenza di campionamento a 44100
Hz, suddivide lo spettro in venticinque bande.
Questi tre dati sono campionati ogni 200 millisecondi
attraverso l’oggetto speedlim~, quindi riscalati nei range
richiesti dai tre parametri di spazializzazione ai quali sono
infine assegnati: azimuth, elevazione e distanza.
Oltre ai segnali diretti, sono soggette a questo sistema
anche le uscite stereofoniche degli effetti harmonizer, pitch
shifter, delay e granulatore. 28 E. Zwicker, The Journal of the Acoustical Society of America: Subdivision of the audible frequency range into
critical bands, ed. 2, vol. 33, p. 248, 1961.
Figura 3.29 L'analyzer~ in funzione durante la
performance.
Figura 10 Assegnazione dei valori estrapolati
dallo spettro alla spazializzazione.
56
3.9. SPAZIALIZZAZIONE
L’interfaccia di presentazione del
modulo di spazializzazione si presenta
semplice, munita di pochi controlli. Nel
grafico a sinistra è possibile seguire i
movimenti delle singole voci nello
spazio di diffusione, mentre in quello di
destra si può configurare il numero e la
posizione dei diffusori, in conformità
con lo spazio d’esecuzione.
In alto a sinistra, è possibile eseguire un
reset del sistema e modificare il tempo
d’interpolazione dei movimenti, in
modo da renderli più o meno fluidi.
All’interno di una sub-patch sono contenuti i receive~ che trasportano il segnale dalle entrate dirette
e dalle uscite stereofoniche di harmonizer, pitch shifter, delay e granulatore.
Queste entrano nell’oggetto
ambipanning~, il quale, attraverso
il sistema Ambisonics (sviluppato
da Gerzon, Barton e Fellgett negli
anni ’70 29 ), spazializza i suoni
sulla base delle coordinate ricevute
dal modulo di analisi spettrale.
Il metodo Ambisonics, inzialmente
chiamato anche perifonìa, nasce
come tecnica di ripresa e diffusione
multicanale, mirata a immergere
l’ascoltatore in uno spazio sonoro.
29 M. A. Gerzon, Periphony: With-Height Sound Reproduction, Mathematical Institute, University of Oxford, 1973.
Figura 11 Strumenti di visualizzazione e impostazione della
spazializzazione.
Figura 12 Matrice ambipanning~ per la diffusione ottofonica.
57
Il segnale è codificato vettorialmente in un
insieme di “armoniche sferiche”, quindi
decodificato nel sistema di diffusione30.
Il visualizzatore sulla sinistra dell’interfaccia
grafica mostra la posizione dell’immagine
sorgente, all’interno di un campo sferico visto
dall’alto.
L’assegnazione dei valori dello spettro alle
coordinate spaziali è stata stabilita, a seguito di
varie prove d’ascolto, in maniera arbitraria.
Il fatto che i movimenti dipendano dallo spettro,
rende la spazializzazione viva e imprevedibile.
Inoltre l’assegnazione scelta si sposa perfettamente con i caratteri dei timbri, provocando dei
movimenti decisi che evocano quelli catalogati da A. Vande Gorne.
L’aggiornamento di questi valori avviene
con un’interpolazione lineare, della quale
si può controllare la velocità.
I tre valori sono quindi racchiusi in una
lista, denominata aed (azimuth, elevation,
distance), tramite l’oggetto pak.
La lista è infine diretta all’oggetto
ambipanning~ per la decodifica e la
diffusione nel sistema, in questo caso
ottofonico.
30 A. Uncini, Audio Digitale, McGraw-Hill Education, 2006.
Figura 13 Armoniche sferiche del campo acustico.
Figura 14 Routing dei dati relativi alle coordinate spaziali.
58
3.10. CONTROLLI E ROUTING ANALOGICO DEL SEGNALE
Pochi controlli hardware interagiscono con la
patch via MIDI.
Otto fader del controller sono mappati secondo
quest’ordine:
• 1l primo fader controlla il livello
d’ingresso dei microfoni;
• Il secondo controlla il livello d’ingresso
dei sintetizzatori;
• Dal terzo al settimo troviamo i controlli
delle mandate agli effetti (in ordine harmonizer, pitch shifter, delay, granulatore e
riverbero);
• L’ultimo controlla l’uscita master diretta alla coppia stereofonica di diffusori frontali.
Le otto uscite dell’oggetto ambipanning~
sono inviate alle uscite analogiche della
scheda audio, quindi collegate a un mixer
per la regia e la diffusione del suono.
I canali sono suddivisi in coppie
stereofoniche di diffusori, partendo dal
fronte verso il retro dell’ascoltatore,
mediante l’utilizzo di panning e
assegnazione ai bus.
La somma delle otto uscite è inviata, a un
livello molto inferiore, al fronte
stereofonico, mentre il riverbero è diffuso
in egual misura su ciascuna coppia di
altoparlanti.
Figura 15 Fader per il controllo dei livelli d'ingresso dei
microfoni e dei sintetizzatori (1, 2), delle mandate agli
effetti (3, 7) e dell'uscita del fronte stereofonico (8).
Figura 16 Mixer analogico per la regia del suono.
59
Nonostante sia presente un modulo di riverbero nella patch, è possibile utilizzare un hardware
esterno, qualora se ne abbia uno a disposizione.
Durante le prove in Conservatorio abbiamo avuto la possibilità di sperimentare questa soluzione,
con un riverbero Lexicon presente in aula.
Un’uscita stereofonica ausiliare del mixer è cablata alle entrate stereofoniche del riverbero, quindi i
due outputs del modulo rientrano nei canali 9 e 10 del mixer per poi essere assegnati a tutte le
uscite, sempre a coppie stereofoniche.
Con queste brevi nozioni sul routing analogico del segnale nel sistema di diffusione, termina il
capitolo dedicato agli aspetti tecnici ed esecutivi della nostra performance.
In appendice saranno elencati i valori assegnati a ciascun modulo del DSP e alla matrice durante
l’esecuzione delle scene, in modo tale da rendere la patch ricostruibile dal lettore.
Figura 17 Uscita stereofonica ausiliare inviata al riverbero hardware e reinserita nel sistema di diffusione.
60
CONCLUSIONI
Siamo giunti alla fine di questo percorso che, attraverso un’indagine storica preliminare, ha portato
alla realizzazione di una performance improvvisativa basata sul live electronics.
Il lavoro di ricerca e la fase di sperimentazione pratica, atta alla costruzione della performance,
sono avvenuti parallelamente; le fonti storiche dalle quali abbiamo tratto ispirazione ci hanno
guidato passo dopo passo nelle scelte estetiche e nella stesura formale.
Gli intenti iniziali sono stati soddisfatti, le numerose sessioni di prova hanno portato un ottimo
livello d’interazione tra le parti, rendendo il dialogo musicale vivace e interessante.
Performances come questa accendono i riflettori sulla pratica esecutiva e le sue possibili soluzioni.
Sono tanti, infatti, gli elementi che concorrono al risultato finale, partendo dalla scelta della
strumentazione adoperata, passando per l’elaborazione in tempo reale e terminando con il sistema
di diffusione e spazializzazione. Se consideriamo le potenzialità degli strumenti adoperati, e la loro
modularità, ci rendiamo conto di avere a che fare con un vero e proprio “iper-strumento”, la cui
esecuzione può prendere le più svariate pieghe (esecuzione aleatoria, interpretazione di partiture
precise, improvvisazione, riproduzione “stand-alone”), anche mediante la variazione di materiali
sonori di base, spazi d’esecuzione e sistemi di diffusione.
Il percorso che ha portato alla realizzazione di questa tesi e della performance è stato lungo ma
avvincente. Il lavoro di coppia con il collega Yuri è servito ad arricchire le mie conoscenze,
apprendendo nuove nozioni dal punto di vista tecnico e storico, e al contempo le competenze di
musicista, estendendo il mio linguaggio improvvisativo con forme di comunicazione per me
totalmente nuove. Per quanto riguarda la mia semplice curiosità di musicista, infatti, questo lavoro è
servito a intraprendere strade da me mai percorse prima, in particolar modo grazie alla “scoperta” di
Franco Evangelisti. Tuttavia, giunti a conclusione di un lavoro del genere, spesso si avverte la
tentazione di ripartire da zero, facendo tesoro dell’esperienza maturata. Questa tentazione è uno
stimolo per proseguire su questo percorso intrapreso; È per me molto importante continuare a
sperimentare l’ambiente esecutivo, cercando di raggiungere un alto grado di estemporaneità anche
sul piano formale.
In conclusione, mi sento di affermare che lo studio dell’improvvisazione è l’unica strada che un
musicista può percorrere per raggiungere un alto grado di consapevolezza e padronanza del
materiale musicale, arrivando alla formulazione di un linguaggio fortemente personale.
61
SVILUPPI FUTURI: AMBIENTI ESECUTIVI PER LA DIDATTICA
MUSICALE
La scelta di utilizzare gli strumenti a disposizione per realizzare una performance estemporanea,
nasce sia da una personale curiosità in merito all’improvvisazione nelle sue molteplici forme che da
un’esigenza didattica, essendomi trovato per la prima volta “dall’altra parte della cattedra” rispetto
a dove siede lo studente.
In passato, da allievo, ho talvolta incontrato delle difficoltà nel corso dei miei studi musicali, spesso
dovute a metodi d’insegnamento anacronistici e poco accattivanti per un bambino di età inferiore ai
12/13 anni.
Durante una lezione presso il Conservatorio, un mio docente, parlando dei metodi didattici, accese
in me una riflessione importante riguardo al processo di apprendimento dei bambini. Egli sosteneva
che l’allievo andrebbe stimolato sin dalle prime lezioni a inventare, comporre piccole melodie
utilizzando le nozioni apprese a lezione, come avviene per l’insegnamento delle lingue.
Questo metodo, che ho sperimentato con alcuni allievi, rende lo studio più “leggero”, portando a dei
risultati importanti, poiché nel corso degli studi l’allievo sviluppa delle capacità compositive, quali
una maggiore consapevolezza armonica, oltre a quelle meramente tecniche, necessarie
esclusivamente ai fini dell’esecuzione.
Il mio collega Luca Indelli da qualche anno sperimenta un suo metodo d’insegnamento delle scale
basato sull’improvvisazione. L’allievo si esercita tecnicamente sulla diteggiatura della scala
suonando le note in un ordine libero, mentre il maestro lo accompagna con alcuni accordi. Anche in
questo caso l’allievo sviluppa una capacità importante, che spesso non è coltivata con alcuni metodi
più tradizionali: l’ascolto.
La tecnologia in questo può giocare un ruolo fondamentale, essendo una potente lama a doppio
taglio. Il computer e tutti i moderni apparecchi tecnologici possono diventare materiale didattico, ho
notato che alcuni miei allievi ad esempio, oltre ad utilizzare applicazioni quali l’accordatore o il
metronomo, registrano il loro studio con il cellulare per poi riascoltarsi oppure seguono video-
lezioni online. Talvolta però, è facile incorrere in informazioni errate o prive di fonti accertate.
Il maestro deve essere quindi il mediatore tra l’allievo e la tecnologia, guidando lo studente al
corretto utilizzo degli “strumenti”.
L’odierna accessibilità economica delle apparecchiature elettroacustiche favorisce un rinnovamento
dei metodi didattici; è indispensabile, a mio avviso, che gli allievi di qualsiasi strumento si
approccino all’utilizzo consapevole degli strumenti elettronici sin dai primi anni di studio.
62
In un corso di musica d’insieme, per bambini di età compresa tra gli otto e gli undici anni, ho
iniziato da poco a sperimentare l’utilizzo di piccoli ambienti esecutivi in MAX, notando per ora
un’accesa curiosità da parte degli allievi.
RINGRAZIAMENTI
Prima di terminare, è per me importante oltre che doveroso ringraziare il maestro Luca Richelli, per
i preziosi consigli e la sua pazienza e disponibilità.
Ringrazio i maestri Giovanni Cospito, Giorgio Klauer, Marco Marinoni, Sylviane Sapir e Andrea
Vigani, per quanto mi hanno trasmesso in questi anni di Conservatorio e per la loro dedizione
all’insegnamento.
Ringrazio i miei genitori per ogni giorno del mio cammino, per i loro sacrifici e il loro Amore.
Ringrazio nonna Lina, alla quale dedico questo lavoro, per avermi insegnato sin da bambino
l’importanza di vivere la cultura con gioia e leggerezza.
Vorrei inoltre ringraziare Yuri, per avermi accompagnato in questo percorso di tesi, offrendomi
spesso nuovi interessanti spunti di riflessione.
Infine ringrazio Elisabetta, per avermi sempre incoraggiato e sorretto.
63
4. APPENDICE: SCHEMI E IMPOSTAZIONI
Di seguito sono riportate le liste dei parametri assegnati al DSP, divise per scene.
4.1. SCENA I
Playersmixer:
• Gain in Mic 1 : 90<x<120;
• Gain in Mic2 : 0;
• Gain in Mod : 80<x<100;
• Gain in Key : 90<x<120;
• Dry Outs : 120;
• Harmonizer : 110;
• Pitch Shifter : 0;
• Delay : 100;
• Granulator : 100;
• Reverb : 100;
Matrix:
• mtx 0 0 1 20;
• mtx 0 3 1 20;
• mtx 2 3 1 20;
• mtx 2 7 1 20;
• mtx 3 4 1 20;
• mtx 3 8 1 20;
• mtx 4 2 1 20;
• mtx 4 4 1 20;
• mtx 5 2 1 20;
• mtx 5 4 1 20;
• mtx 8 4 1 20;
64
• mtx 8 13 1 20;
• mtx 9 4 1 20;
• mtx 9 14 1 20;
• mtx 10 4 1 20;
• mtx 10 15 1 20;
• mtx 11 4 1 20;
• mtx 11 16 1 20;
• mtx 12 17 1 20;
• mtx 13 18 1 20;
• dello 1 20;
Harmonizer:
• harm1 pow on;
• harm1 maxdel 8250;
• harm1 fbk 46.875;
• harm1 gain-in 127;
• harm1 gain-out 127;
• harm1 mix 100;
• harm1 1 pow on;
• harm1 1 win 50;
• harm1 1 del 375;
• harm1 1 transp 2062.5;
• harm1 1 gain 107;
• harm1 1 pan 10;
• harm1 2 pow on;
• harm1 2 win 50;
• harm1 2 del 750;
• harm1 2 transp 93.75;
• harm1 2 gain 127;
• harm1 2 pan 30;
• harm1 3 pow on;
• harm1 3 win 50;
65
• harm1 3 del 1125;
• harm1 3 transp -2250;
• harm1 3 gain 110;
• harm1 3 pan 80;
• harm1 4 pow on;
• harm1 4 win 50;
• harm1 4 del 1500;
• harm1 4 transp 46.875;
• harm1 4 gain 90;
• harm1 4 pan 110;
Delay:
• del1 pow on;
• del1 gain-in 127;
• del1 gain-out 127;
• del1 mix 100;
• del1 maxdel 9000;
• del1 fbk 93.75;
• del1 random off;
• del1 1 del 46.875;
• del1 1 gain 127;
• del1 1 pan 20;
• del1 1 pow on;
• del1 2 del 187.5;
• del1 2 gain 127;
• del1 2 pan 50;
• del1 2 pow on;
• del1 3 del 562.5;
• del1 3 gain 127;
• del1 3 pan 80;
• del1 3 pow on;
• del1 4 del 937.5;
66
• del1 4 gain 127;
• del1 4 pan 100;
• del1 4 pow on;
Granulator:
• Grain separation : 100;
• Grain rate variation : 20;
• Grain size : 1;
• Grain size variation : 20;
• Grain pitch : 2;
• Grain pitch variation : 20;
• Stereo spread : 1;
4.2. SCENA II
Playersmixer:
• Gain in Mic 1 : 90<x<120;
• Gain in Mic2 : 0;
• Gain in Mod : 0;
• Gain in Key : 90<x<120;
• Dry Outs : 100;
• Harmonizer : 0;
• Pitch Shifter : 110;
• Delay : 110;
• Granulator : 100;
• Reverb : 90;
Matrix:
• mtx 0 3 1 20;
• mtx 3 2 1 20;
67
• mtx 3 8 1 20;
• mtx 6 4 1 20;
• mtx 6 11 1 20;
• mtx 7 4 1 20;
• mtx 7 12 1 20;
• mtx 8 4 1 20;
• mtx 8 13 1 20;
• mtx 9 4 1 20;
• mtx 9 14 1 20;
• mtx 10 1 1 20;
• mtx 10 15 1 20;
• mtx 11 1 1 20;
• mtx 11 16 1 20;
• mtx 12 17 1 20;
• mtx 13 18 1 20;
• dello 1 20;
Pitch Shifter:
• shifter1 pow on;
• shifter1 gain-in 127;
• shifter1 gain-out 127;
• shifter1 mix 100;
• shifter1 1 pow on;
• shifter1 1 gain 90;
• shifter1 1 pan 30;
• shifter1 1 freq 1875;
• shifter1 2 pow on;
• shifter1 2 gain 187.5;
• shifter1 2 pan 0;
• shifter1 2 freq 100;
• shifter1 3 pow on;
• shifter1 3 gain 70;
68
• shifter1 3 pan 50;
• shifter1 3 freq -5625;
• shifter1 4 pow on;
• shifter1 4 gain 40;
• shifter1 4 pan 110;
• shifter1 4 freq -93.75;
Delay:
• del1 pow on;
• del1 gain-in 127;
• del1 gain-out 127;
• del1 mix 100;
• del1 maxdel 7875;
• del1 fbk 46.875;
• del1 random on;
• del1 1 del 46.875;
• del1 1 gain 127;
• del1 1 pan 20;
• del1 1 pow on;
• del1 2 del 187.5;
• del1 2 gain 127;
• del1 2 pan 50;
• del1 2 pow on;
• del1 3 del 562.5;
• del1 3 gain 127;
• del1 3 pan 80;
• del1 3 pow on;
• del1 4 del 937.5;
• del1 4 gain 127;
• del1 4 pan 100;
• del1 4 pow on;
69
Granulator:
• Grain separation : 400;
• Grain rate variation : 300;
• Grain size : 2000;
• Grain size variation : 500;
• Grain pitch : 2;
• Grain pitch variation : 1;
• Stereo spread : 1;
4.3. SCENA III
Playersmixer:
• Gain in Mic 1 : 90<x<120;
• Gain in Mic2 : 0;
• Gain in Mod : 90<x<120;
• Gain in Key : 0;
• Dry Outs : 80;
• Harmonizer : 100;
• Pitch Shifter : 90;
• Delay : 100;
• Granulator : 90;
• Reverb : 50;
Matrix:
• mtx 0 0 1 20;
• mtx 0 2 1 20;
• mtx 0 5 1 20;
• mtx 2 4 1 20;
• mtx 4 1 1 20;
• mtx 4 4 1 20;
70
• mtx 4 9 1 20;
• mtx 5 1 1 20;
• mtx 5 4 1 20;
• mtx 5 10 1 20;
• mtx 6 11 1 20;
• mtx 7 12 1 20;
• mtx 8 0 1 20;
• mtx 8 3 1 20;
• mtx 8 13 1 20;
• mtx 9 0 1 20;
• mtx 9 3 1 20;
• mtx 9 14 1 20;
• mtx 10 4 1 20;
• mtx 10 15 1 20;
• mtx 11 4 1 20;
• mtx 11 16 1 20;
• mtx 12 17 1 20;
• mtx 13 18 1 20;
• dello 1 20;
Harmonizer:
• harm1 pow on;
• harm1 maxdel 10000;
• harm1 fbk 80;
• harm1 gain-in 127;
• harm1 gain-out 127;
• harm1 mix 100;
• harm1 1 pow on;
• harm1 1 win 50;
• harm1 1 del 30;
• harm1 1 transp -2062.5;
• harm1 1 gain 100;
71
• harm1 1 pan 10;
• harm1 2 pow on;
• harm1 2 win 50;
• harm1 2 del 20;
• harm1 2 transp -375;
• harm1 2 gain 110;
• harm1 2 pan 30;
• harm1 3 pow on;
• harm1 3 win 50;
• harm1 3 del 50;
• harm1 3 transp -2250;
• harm1 3 gain 40;
• harm1 3 pan 80;
• harm1 4 pow on;
• harm1 4 win 50;
• harm1 4 del 80;
• harm1 4 transp -187.5;
• harm1 4 gain 60;
• harm1 4 pan 110;
Pitch Shifter:
• shifter1 pow on;
• shifter1 gain-in 127;
• shifter1 gain-out 127;
• shifter1 mix 50;
• shifter1 1 pow on;
• shifter1 1 gain 90;
• shifter1 1 pan 30;
• shifter1 1 freq 2062.5;
• shifter1 2 pow on;
• shifter1 2 gain 100;
• shifter1 2 pan 0;
72
• shifter1 2 freq 187.5;
• shifter1 3 pow on;
• shifter1 3 gain 70;
• shifter1 3 pan 50;
• shifter1 3 freq 2250;
• shifter1 4 pow on;
• shifter1 4 gain 40;
• shifter1 4 pan 110;
• shifter1 4 freq 375;
Delay:
• del1 pow on;
• del1 gain-in 127;
• del1 gain-out 127;
• del1 mix 100;
• del1 maxdel 9000;
• del1 fbk 93.75;
• del1 random on;
• del1 1 del 46.875;
• del1 1 gain 127;
• del1 1 pan 20;
• del1 1 pow on;
• del1 2 del 187.5;
• del1 2 gain 127;
• del1 2 pan 50;
• del1 2 pow on;
• del1 3 del 62.5;
• del1 3 gain 127;
• del1 3 pan 80;
• del1 3 pow on;
• del1 4 del 93.75;
• del1 4 gain 127;
73
• del1 4 pan 100;
• del1 4 pow on;
Granulator:
• Grain separation : 500;
• Grain rate variation : 157;
• Grain size : 500;
• Grain size variation : 74;
• Grain pitch : 19;
• Grain pitch variation : 36;
• Stereo spread : 1;
4.4. SCENA IV
Playersmixer:
• Gain in Mic 1 : 0;
• Gain in Mic2 : 90<x<120;
• Gain in Mod : 0;
• Gain in Key : 90<x<120;
• Dry Outs : 100;
• Harmonizer : 0;
• Pitch Shifter : 110;
• Delay : 100;
• Granulator : 100;
• Reverb : 90;
Matrix:
• mtx 1 3 1 20;
• mtx 3 1 1 20;
• mtx 3 4 1 20;
74
• mtx 3 8 1 20;
• mtx 6 4 1 20;
• mtx 7 4 1 20;
• mtx 8 4 1 20;
• mtx 8 13 1 20;
• mtx 9 4 1 20;
• mtx 9 14 1 20;
• mtx 10 2 1 20;
• mtx 10 15 1 20;
• mtx 11 2 1 20;
• mtx 11 16 1 20;
• mtx 12 17 1 20;
• mtx 13 18 1 20;
• dello 1 20;
Pitch Shifter:
• shifter1 pow on;
• shifter1 gain-in 127;
• shifter1 gain-out 127;
• shifter1 mix 50;
• shifter1 1 pow on;
• shifter1 1 gain 127;
• shifter1 1 pan 100;
• shifter1 1 freq -18.75;
• shifter1 2 pow on;
• shifter1 2 gain 127;
• shifter1 2 pan 100;
• shifter1 2 freq -4.6875;
• shifter1 3 pow on;
• shifter1 3 gain 127;
• shifter1 3 pan 80;
• shifter1 3 freq 9.375;
75
• shifter1 4 pow on;
• shifter1 4 gain 127;
• shifter1 4 pan 100;
• shifter1 4 freq 5.625;
Delay:
• del1 pow on;
• del1 gain-in 127;
• del1 gain-out 127;
• del1 mix 100;
• del1 maxdel 7875;
• del1 fbk 62.5;
• del1 random on;
• del1 1 del 46.875;
• del1 1 gain 127;
• del1 1 pan 20;
• del1 1 pow on;
• del1 2 del 187.5;
• del1 2 gain 127;
• del1 2 pan 50;
• del1 2 pow on;
• del1 3 del 56.25;
• del1 3 gain 127;
• del1 3 pan 80;
• del1 3 pow on;
• del1 4 del 93.75;
• del1 4 gain 127;
• del1 4 pan 100;
• del1 4 pow on;
76
Granulator:
• Grain separation : 400;
• Grain rate variation : 300;
• Grain size : 5000;
• Grain size variation : 500;
• Grain pitch : 1;
• Grain pitch variation : 1;
• Stereo spread : 1;
4.5. SCENA V
Playersmixer:
• Gain in Mic 1 : 90<x<120;
• Gain in Mic2 : 0;
• Gain in Mod : 0;
• Gain in Key : 90<x<120;
• Dry Outs : 100;
• Harmonizer : 0;
• Pitch Shifter : 110;
• Delay : 110;
• Granulator : 100;
• Reverb : 90;
Matrix:
• mtx 0 3 1 20;
• mtx 3 2 1 20;
• mtx 3 8 1 20;
• mtx 6 4 1 20;
• mtx 6 11 1 20;
• mtx 7 4 1 20;
77
• mtx 7 12 1 20;
• mtx 8 4 1 20;
• mtx 8 13 1 20;
• mtx 9 4 1 20;
• mtx 9 14 1 20;
• mtx 10 1 1 20;
• mtx 10 15 1 20;
• mtx 11 1 1 20;
• mtx 11 16 1 20;
• mtx 12 17 1 20;
• mtx 13 18 1 20;
• dello 1 20;
Pitch Shifter:
• shifter1 pow on;
• shifter1 gain-in 127;
• shifter1 gain-out 127;
• shifter1 mix 100;
• shifter1 1 pow on;
• shifter1 1 gain 90;
• shifter1 1 pan 30;
• shifter1 1 freq 1875;
• shifter1 2 pow on;
• shifter1 2 gain 187.5;
• shifter1 2 pan 0;
• shifter1 2 freq 100;
• shifter1 3 pow on;
• shifter1 3 gain 70;
• shifter1 3 pan 50;
• shifter1 3 freq -5625;
• shifter1 4 pow on;
• shifter1 4 gain 40;
78
• shifter1 4 pan 110;
• shifter1 4 freq -93.75;
Delay:
• del1 pow on;
• del1 gain-in 127;
• del1 gain-out 127;
• del1 mix 100;
• del1 maxdel 7875;
• del1 fbk 46.875;
• del1 random on;
• del1 1 del 46.875;
• del1 1 gain 127;
• del1 1 pan 20;
• del1 1 pow on;
• del1 2 del 187.5;
• del1 2 gain 127;
• del1 2 pan 50;
• del1 2 pow on;
• del1 3 del 562.5;
• del1 3 gain 127;
• del1 3 pan 80;
• del1 3 pow on;
• del1 4 del 937.5;
• del1 4 gain 127;
• del1 4 pan 100;
• del1 4 pow on;
Granulator:
• Grain separation : 400;
• Grain rate variation : 300;
79
• Grain size : 2000;
• Grain size variation : 500;
• Grain pitch : 2;
• Grain pitch variation : 1;
• Stereo spread : 1;
4.6. DISPOSIZONE DEI DIFFUSORI
Coppie stereofoniche di diffusori, in ordine dal fronte: S1+S2, S3+S4, S5+S6, S7+S8.
80
LISTA TRACCE CD
1. SCENA I (02:16) versione stereo;
2. SCENA II (02:00) versione stereo;
3. SCENA III (02:08) versione stereo;
4. SCENA IV (02:00) versione stereo;
5. SCENA V (02:10) versione stereo;
6. Armonica dry/wet;
7. Didgeridoo + moduli dry/wet;
8. Glockenspiel dry/wet;
9. Bell Pad dry/wet;
10. Percussioni dry/wet;
11. Moduli dry/wet;
12. Ukulele dry/wet;
13. Violoncello dry/wet;
14. Voce dry/wet;
15. Sintetizzatore LFO dry/wet.
81
BIBLIOGRAFIA
• AMM, AMMMusic 1966: Le recensioni di Ondarock, 2010;
• F. Bayle, Musique acousmatique : propositions... positions, Buchet/Chastel, Parigi, 1993;
• Pierre Boulez, Note di Apprendistato, Einaudi, 1968;
• F. Evangelisti, Dalla forma momentanea ai gruppi di improvvisazione, in programma-
dépliant dei concerti della Biennale Musica, Venezia 1969; anche in Di Franco Evangelisti
cit., p. 122;
• F. Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova
Consonanza, in programma-dépliant del III Festival di Nuova Consonanza, Roma 1965;
• D. Gareth Loy, C. Roads, ed. The Music Machine: Selected Readings from Computer Music
Journal. MIT Press, 1992;
• M. A. Gerzon, Periphony: With-Height Sound Reproduction, Mathematical Institute,
University of Oxford, 1973;
• P. Grossi, Intervista televisiva per il 41° Maggio Musicale Fiorentino, Firenze, 1978;
• E. Hornbostel, C. Sachs, Zeitschrift für Ethnologie, 1914 e Galpin Society Journal, 1961;
• D. Kavasch, An Introduction to Extended Vocal Techniques: Some Compositional Aspects
and Performance Problems, contenuto in Reports from the Center, vol. 1, n. 2, Center for
Music Experiment, Università della California, San Diego, 1980;
• P. Klee, Pädagogisches Skizzenbuch, Neue Bauhausbücher, 1925;
• A. Lanza, Il secondo Novecento, vol. 12, EDT, 1991;
82
• P. Manning, Computer and Electronic Music, Oxford University Press, 1993;
• V. Mattioli, Roma 60. Viaggio alle radici dell'underground italiano. Parte seconda, Blow
Up, Ed. Tuttle, 2014;
• V. Mattioli, Superonda: la storia segreta della musica italiana, Baldini&Castoldi, 2016;
• W. Meyer Eppler, Statistische und psychologische Klang Probleme, “Die Reihe”, 1955;
• A. Schoenberg, Komposition mit 12 Tönen, 1923;
• D. Smith, C. Wood, The complete SCI MIDI, 1981;
• K. Stockhausen, “The British Lectures”, Institute of Contemporary Arts, Londra, 1972;
• K. Stockhausen, "The Concept of Unity in Electronic Music (Die Einheit der musikalischen
Zeit)", Perspectives of New Music 1, n°1 (Autunno), 1962;
• K. Stockhausen, Musik im Raum (Musica nello Spazio), 1958, tad. It. di D. Guaccero, in La
Rassegna Musicale, 32(4), 1961;
• D. Tortora, Nuova Consonanza, Trent’anni di musica contemporanea in Italia (1959-1988),
LIM, 1990;
• A. Uncini, Audio Digitale, McGraw-Hill Education, 2006;
• A. Vande Gorne, L’interprétation spatiale. Essai de formalisation méthodologique, rivista
DEMéter, Università di Lille, 2002;
• A. Vidolin, Suonare lo Spazio Elettroacustico, CSC – Centro di Sonologia Computazionale
dell’Università di Padova, 2001;
• A. Webern, Verso la nuova musica. Lettera a Hildegard Jone e Josef Humplik. Milano,
Bompiani, 1963;
83
• R. Worby, Crackle goes pop: how Stockhausen seduced the Beatles, The Guardian, 26 Dic
2015;
• E. Zwicker, The Journal of the Acoustical Society of America: Subdivision of the audible
frequency range into critical bands, ed. 2, vol. 33, p. 248, 1961;
SITOGRAFIA
• https://en.wikipedia.org/wiki/Feature_extraction