View
216
Download
2
Category
Preview:
Citation preview
95
Capítulo 3 - Concertos eletroacústicos: as diferentes falas dosalto-falantes
O capítulo trata de diversas motivações e estratégias composicionais da música
eletroacústica do ponto de vista de sua apresentação em concerto. É proposta uma
abordagem que procura agrupar experiências tão diversas como a música
acusmática, performance instrumental com meios eletroacústicos e sistemas
interativos através de sua caracterização como diferentes “modos de falar” dos alto-
falantes.
3. Concertos eletroacústicos: as diferentes falas dos alto-falantes
96
Os alto-falantes estão disseminados por um grande número de atividades
humanas; a variedade e a versatilidade de seu uso já foram analisadas no
capítulo anterior. No entanto, acredito que uma situação de concerto oferece
condições privilegiadas para a exploração de seus diferentes usos e das
ambigüidades daí decorrentes. Para tal, contribuem também significativamente as
diferentes modalidades de reprodução / representação musicais (discutidas no
capítulo 1) que podem aí coexistir.
A produção eletroacústica voltada para concertos é tradicionalmente
dividida em três categorias: obras sonoramente pré-fixadas (tratadas no primeiro
capítulo como arts des sons fixés, também chamadas de acusmáticas); obras que
integram a performance musical tradicional aos meios eletroacústicos (mistas);
live-electronics (performance com “instrumentos” não convencionais, sejam eles
microfones, simples filtros de áudio ou sistemas digitais interativos). Embora esta
classificação só faça realmente sentido quando se pressupõe a apresentação ao
vivo dessas obras, ela mostra-se insuficiente para uma análise detalhada dos
procedimentos técnico-estéticos utilizados nessas ocasiões.
A metodologia aqui adotada baseia-se em premissas um pouco diferentes,
concentrando-se nos elementos potencialmente presentes em um concerto
eletroacústico, que são explorados de múltiplas maneiras pelos compositores em
suas apresentações públicas1: (a) os indispensáveis alto-falantes; (b) obras ou
partes pré-gravadas; (c) a performance instrumental tradicional; (d) novos
instrumentos / controladores. Na medida do possível, esses elementos são
abordados de forma a destacar suas contribuições específicas ao discurso
musical.
O texto abaixo está estruturado da seguinte forma: um breve apanhado
histórico dedicado às origens da música eletroacústica, seguido da justificativa da
escolha do concerto como tema de estudo; as seções que se seguem são
dedicadas à discussão dos diversos elementos diretamente ligados à produção
sonora presentes nesses concertos, complementadas por uma seção final que
1 Assume-se aqui que o compositor dirija a apresentação de sua obra, ou pelo menos que envie instruçõesdetalhadas sobre a apresentação.
3. Concertos eletroacústicos: as diferentes falas dos alto-falantes
97
busca generalizar a utilização desses elementos sob um termo propositalmente
vago: uma poética dos alto-falantes.
3.1. Práticas composicionais com novas tecnologias por voltade 1950
Le studio vous est largement ouvert.2
(Schaeffer a Mozart)
A partir de 1948, a composição musical passa a explorar as possibilidades
técnico-expressivas abertas pelas novas tecnologias de (re-)produção sonora e
musical. Ao se compararem essas novas modalidades de composição com as
práticas predominantes até então, podem ser notadas rupturas significativas:
relativização do aqui e agora da produção sonora, ausência ou fixação da
interpretação, uso de sons eletrônicos, uso de sons “achados”, ampliação radical
da paleta sonora, dentre outras. Mas essas rupturas não são, de fato, novidades
surgidas nesse momento histórico específico; elas já haviam sido expressas em
inúmeras práticas e idéias precursoras, várias delas tratadas no capítulo
precedente.
O que realmente singulariza as diferentes iniciativas fundadoras dessas
novas práticas composicionais, a partir do final da Segunda Guerra Mundial, é a
sua opção declarada pela música. A partir de então, uma composição musical
perde seu caráter ideal (cf. início do capítulo 1) e passa a consistir na montagem
– superposição e justaposição − de eventos sonoros ocorridos ou gerados em
diferentes locais e momentos3. Essas iniciativas estão tradicionalmente divididas
em três correntes: a da música concreta (de origem francesa – comandada por
Pierre Schaeffer), a da música eletrônica (alemã – Herbert Eimert e Karlheinz
2 SCHAEFFER, Pierre. “Mozart et les ingénieurs” (1955). In: BRUNET, Sophie (ed.) Pierre Schaeffer: de lamusique concrète à la musique même (número triplo 303–5 da Revue Musicale). Paris: Richard-Masse, 1977,p. 77. Frase de Pierre Schaeffer em uma entrevista imaginária com Mozart, em 1955, após umaapresentação dos Ballets Béjart com a – sua e de Pierre Henry - Symphonie pour um homme seul.3 Seus dois arquétipos já foram discutidos na seção 1.3 do capítulo 1: a escritura sismográfica e o filme semimagens.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
98
Stockhausen) e a vertente norte-americana (Vladimir Ussachevsky e Otto
Luening). De modo extremamente resumido, as características que as identificam
e as diferenciam entre si podem ser apontadas como sendo: (a) a captação e
manipulação de sons “achados”; (b) o controle simbólico de sons eletrônicos; (c)
transformação e mixagem em fita magnética de diferentes performances musicais
instrumentais4.
Ao lado das diferenças (que também tiveram desdobramentos importantes
no campo ideológico), encontram-se nessas vertentes características comuns,
que as diferenciam claramente da composição musical tradicional. O fato mais
marcante é o uso não convencional da aparelhagem eletroacústica: uma
gravação não é mais apenas documentação de uma execução musical, passando
a conter uma obra autônoma; assim, os alto-falantes – cumprindo a função de um
intérprete imprescindível − transmitem não uma versão, mas o próprio “tema” da
obra. Ao mesmo tempo, a obra musical perde sua idealidade, tornando-se uma
“arte dos sons fixados” (cf. seção 1.3). A noção de interpretação musical
praticamente desaparece.
A presença, nessas obras, de elementos sonoros tomados da realidade,
espécies de instantâneos sonoros tirados em momentos anteriores (“petrificações
de algo singular, irrepetível”5) suscita uma grande discussão sobre o que vem a
ser um elemento intrinsecamente musical. Esses elementos estão
tradicionalmente ligados a seu grau de abstração, às possibilidades de sua
manipulação simbólica e de representação por uma escrita (solfejo), à sua
reprodução com variações trazidas por uma interpretação: notas, durações,
intensidades, timbres instrumentais e suas combinações em estruturas mais
complexas. As referências a fenômenos acústicos diversos6 trazem implicações (e
conotações) inevitáveis para esse tipo de criação musical. Tudo aquilo que foi
4 Há ainda uma outra corrente norte-americana, que criou em 1951 o “Project of Music for Magnetic Tape”. Ogrupo congregou, dentre outros, John Cage, Morton Feldman e o casal Louis e Bebe Barron. Sua principalcontribuição, no entanto, não está associada à criação de música pré-gravada (utilizada aqui como símbolodas grandes rupturas ocorridas no processo composicional nessa época), e sim ao desenvolvimento dachamada live-electronics, com intenso uso de elementos aleatórios. Essa modalidade musical foi, na verdade,inaugurada por John Cage, ainda em 1939, com sua Imaginary Landscape no. 1.5 BOEHMER, Konrad. “Vom Un-Sinn der Analysierens” (1991). In: RUSCHKOWSKI, André (ed.). Die AnalyseElektroakustischer Musik – eine Herausförderung an die Musikwissenschaft?: wissenschaftliches Kolloquiumim Rahmen der 4. Werkstatt Elektroakusticher Musik vom 26. bis 28. April 1991 in Berlin / Deustche Sektionder Internationalen Gesellschaft für Elektroakustiche Musik (DecimE). Saarbrücken: Pfau, 1997, p. 43.6 As referências propriamente musicais já eram praticadas em outras épocas por meio de citações, porexemplo.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
99
discutido no capítulo anterior sobre a escuta mediada por alto-falantes pode se
tornar um elemento expressivo nesses novos processos composicionais.
Nas artes-relé (ou “artes do meio”, entendidas por Schaeffer como o
cinema e o rádio – ver seções 1.3 e 2.7 dos capítulos anteriores), os materiais
capturados da realidade e a “significação residual”7 que os acompanha é parte
intrínseca dos recursos criativos aplicados na construção de suas obras. Mas
mesmo antes da proposta de um solfejo dos objetos musicais, já se pode notar
uma preocupação com essa significação residual (acompanhada de uma tentativa
de sua neutralização) nos primórdios da música concreta:
Dito de outra forma: mesmo se o material dos ruídos me garantisse uma certa
margem de originalidade em relação à música, eu estaria, nos dois casos,
conduzido ao mesmo problema: tirar o material sonoro de todo o contexto,
dramático ou musical, antes de querer dar-lhe uma forma. Se eu tivesse sucesso,
haveria música concreta. Se não, não haveria mais do que trucagem e
procedimentos radiofônicos.8
Após a criação da música concreta, Schaeffer passa a se dedicar à por ele
mesmo chamada pesquisa musical. Deriva-se daí o seu famoso Traité des Objets
Musicaux, de 1966, que propõe uma tipo-morfologia dos objetos sonoros,
baseada em diferentes critérios perceptivos. Uma das teorias (aliada a uma
prática composicional) diretamente derivadas dessa pesquisa musical é a
morfologia espectral (spectromorphology), desenvolvida por Denis Smalley a
partir da década de 1980. Para ele, a morfologia espectral “concentra-se em
características intrínsecas, ou seja, é um auxílio para a descrição de eventos
sonoros e suas relações dentro de uma obra musical.”9 No entanto, além de
reconhecer que determinadas criações eletroacústicas podem ser
transcontextuais ou intercontextuais (“música na qual uma paleta muito ampla de
referências sonoras pode ser utilizada”10, também caracterizada como anedótica),
ele também afirma que mesmo as obras que exploram as características
espectro-morfológicas de seus materiais podem trazer mensagens e conexões
7 Assim se expressa TAYLOR, Timothy. Strange Sounds. New York: Routledge, 2001, p. 46.8 SCHAEFFER, Pierre. A la recherche d’une musique concrète. Paris: Seuil, 1952, pp. 46-47.9 SMALLEY, Denis. “Spectromorphology: explaining sound-shapes” (1997). Organised Sound vol. 2, no.2, p.110. Grifo do autor. Ensaio publicado originalmente em francês em 1995.10 Smalley, p. 109.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
100
extrínsecas, devido ao “mundo sonoro extremamente amplo da música
eletroacústica”11.
Outra característica relevante das práticas composicionais com novas
tecnologias iniciadas na segunda metade do século XX é a insuficiência de uma
partitura (quando existente) para a representação fiel e inteligível da obra. A
escuta interna não consegue ir muito longe frente a uma partitura de música
eletrônica, que consiste mais em instruções técnicas do que em um texto musical
a ser interpretado12. Fato curioso aconteceu com uma obra puramente eletrônica,
a primeira a contar com uma partitura: o Studie II, de Karlheinz Stockhausen. A
obra, composta em 1954, teve sua partitura editada após a finalização sonora no
estúdio da rádio de Colônia, em fita magnética.
Em 1994, estudantes da HdK [Escola Superior de Artes de Berlim] realizaram no
estúdio eletrônico local o Studie II, segundo a partitura e com técnicas digitais
mais modernas (a experiência já foi também levada a cabo em outros estúdios). O
resultado sonoro foi essencialmente diferente da conhecida gravação do estúdio
de Colônia.13
Após listar algumas justificativas para essa grande diferença, o autor
conclui que a “experiência demonstra muito bem como cada aparelho de um
estúdio tem sua ‘própria linguagem’, como o estúdio é parte de uma partitura.”14
Na própria produção musical de Stockhausen encontramos um outro
exemplo da insuficiência da partitura, em um contexto bastante diferente do
anterior. Um excerto de Dienstag aus Licht, editado separadamente como
Dienstags-Abschied, está escrito para a seguinte formação: coro, um executante
de teclados eletrônicos e música eletrônica15. A parte de teclado está escrita em
duas pautas, como é o usual da escrita para piano ou órgão, incluindo indicações
de glissandos, pedais e números para mudanças de timbre. Mas a respeito dos
11 Smalley, p. 110.12 Ver a discussão da seção 1.3.1, no primeiro capítulo.13 SUPPER, Martin. ”Elektroakustische Musik ab 1950”. In: FINSCHER, Ludwig (ed.). Die Musik in Geschichteund Gegenwart: Allgemeine Enzyklopädie der Musik (segunda - e renovada - edição). 21 volumes. Kassel,Basel, London, New York, Prag: Bärenreiter; Stuttgart, Weimar: Metzler, 1998, vol. 8, p. 1757.14 Supper, p. 1757.15 No original, elektronische Musik. Apesar de explorar a mediação composicional entre materiais dediferentes origens desde os anos 1950, Stockhausen mantém uma divisão terminológica entre músicaconcreta e música eletrônica. Hymnen (1966-67), por exemplo, tem como subtítulo música eletrônica econcreta. Ver STROH, Wolfgang Martin. Zur Soziologie der elektronischen Musik. Zürich: Amadeus, 1975, p.75.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
101
timbres a serem utilizados, a contracapa da partitura traz apenas a seguinte
informação: “a fita cassete demonstração com os timbres para os teclados
eletrônicos pode ser diretamente encomendada junto à editora Stockhausen
[segue endereço]”.16
O fato de o compositor poder lidar diretamente com o resultado sonoro de
suas idéias musicais também contribui para o declínio da notação, passando esta
a funcionar apenas como instruções para se obter determinado resultado ou como
descrições genéricas auxiliares da memória. Isso vale tanto para a criação de
obras totalmente pré-definidas, quanto para desenvolvimento de estratégias
composicionais ao vivo, envolvendo ou não técnicos e outros intérpretes. Essa
situação é caracterizada por Barry Truax como “o fim do compositor literato”, cujo
resultado pode ser uma redescoberta da oralidade (voz, canção, ritual, e a
primazia do ouvido) ou pode envolver um uso pós-literato de tecnologia em
manifestações tão variadas como a nova tradição acusmática da música
eletroacústica ou simplesmente linguagens gráficas de programação como MAX.17
Alain Savouret adiciona novos contornos a essas idéias ao afirmar que
“uma arte do alto-falante não pervertida descobrirá um melhor modo de se
concretizar quando tomar consciência de que é a cultura oral, viva (ao invés de
‘popular’, caracterização demasiado conotativa), seu espaço social privilegiado”,
sendo a cultura oral “a cultura do saber fazer, que não está do lado do objeto (já
feito) nem do lado do saber (escrito).”18
As ferramentas de trabalho à disposição dos compositores já não são mais
exclusivas de seu métier; elas são, ao contrário, na maioria das vezes adaptadas
ou refuncionalizadas para as novas tarefas de criação. Se o mundo da eletrônica
já exigia um mínimo de conhecimento e relacionamento com pessoal
especializado dessa área, a microeletrônica e o processamento digital exigem
ainda mais dedicação de seus possíveis usuários. Comparadas com a relativa
estabilidade do instrumental musical tradicional, essas novas ferramentas tem
16 STOCKHAUSEN, Karlheinz. Dienstag-Abschied (1991). Partitura (obra no. 61 2/3). Kürten: StockhausenVerlag, 1995. Grifo da edição. Os mesmos excertos sonoros também se encontram editados na coleção deCDs dedicada à sua obra musical.17 TRUAX, Barry. “The Inner And Outer Complexity Of Music”. Perspectives of New Music, vol. 32, no. 1,1994, p. 178.18 SAVOURET, Alain. “...Des Ilusions...” In: DHOMONT, Francis (org.) LIEN (L'Espace du Son II). Ohain(Bélgica): Musiques et Recherches, 1991, p. 109.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
102
uma vida bastante curta: a indústria de equipamentos de áudio não pára de
renovar seus produtos e tecnologias subjacentes; com os fabricantes de
instrumentos musicais eletrônicos passa-se o mesmo; a capacidade e as funções
disponíveis para o processamento digital de sinais através de microprocessadores
está sempre aumentando. Por outro lado, aparelhos produzidos artesanalmente
apresentam utilização e difusão limitadas, além de muitas vezes serem protótipos
sempre em desenvolvimento, ou mesmo abandonados. Tudo isto aponta para as
dificuldades de uma abordagem analítica ou interpretativa − em moldes
tradicionais, ligadas à tradição da música escrita − de obras desse repertório, já
que a partir do momento em as possibilidades, adaptações e limitações da
aparelhagem (e da programação) utilizada deixam de fazer parte do imaginário
técnico-expressivo de novos compositores, estudiosos e ouvintes, essas obras ou
tornam-se peças de museu ou podem abrir-se a uma grande especulação não
fundamentada. Pois quem pode garantir que as idéias composicionais e as obras
resultantes seriam as mesmas, caso as condições técnicas fossem outras na
época de sua criação?
Thomas Kessler, por exemplo, não é favorável a uma transposição para um
programa de computador de suas obras compostas com o sintetizador analógico
AKS. Ele não abre mão da “vida própria dessas caprichosas máquinas de som”,
em troca de uma maior precisão e repetibilidade dos processos sonoros dada
pela programação digital:
Eu acredito, no entanto, que essas imperfeições, a parcial falta de controle sobre a
modulação eletrônica, e até mesmo as distorções sonoras pertencem tanto a
essas duas obras [Piano Control e Lost Paradise] quanto as dificuldades técnicas
de um instrumento tradicional pertencem aos obstáculos que um instrumentista
deve superar durante toda sua vida.19
As novas tecnologias também contribuíram para o fim da causalidade do
gesto instrumental, não apenas aquele presente em uma performance ao vivo,
mas também todo aquele transformado em estúdio ao ponto de causar
ambigüidades quanto a sua origem e conteúdo. Somando-se isto às
características abordadas anteriormente – fim do caráter ideal, relativização da
19 Das notas de programa do concerto Biomechanix, realizado pelo Ensemble Phoenix Basel, nos dias 6 e 9de junho de 2002, na Gare du Nord, Basiléia, Suíça.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
103
interpretação, insuficiência da partitura, introdução de elementos “extramusicais”,
fugacidade da instrumentação – pode-se facilmente concluir que a composição
musical passa a ter parâmetros, referências, métodos de trabalho e obras bem
diversas das produzidas até então. Se o pioneirismo nessa área pode ser
localizado em correntes caracterizáveis como eruditas − que se dedicaram
abertamente ao uso não “reprodutivo” dessas novas tecnologias −, não deve ser
desprezível o fato de que modos não artesanais de produção musical já
vigoravam desde o início do século XX; nesses processos industriais o interesse
pelas questões de representação musical caras à tradição musical de concerto
(quem tocou tal obra de determinado compositor, onde, quando e de que forma)
manifesta-se primordialmente como um estímulo adicional à divulgação de seus
produtos.
As três vertentes já citadas iniciaram uma tradição de apresentação de
suas obras em concerto (que se espalhou em seguida, juntamente com as
técnicas composicionais, por um grande número de países); entretanto, em
nenhum dos casos, seu début foi de fato um concerto público. Os parágrafos
seguintes trazem, em ordem cronológica, os principais dados sobre os passos
iniciais da musique concrète, da tape music e da elektronische Musik.
O ato inaugural da música concreta se deu em 5 de outubro de 1948, com
a emissão radiofônica do Concert de Bruits de Schaeffer, pela R.T.F. (Radio
Télévision Française). Foram apresentados cinco estudos de ruídos: Étude
Déconcertante (ou aux Tourniquets), Imposée (ou aux Chemins de Fer),
Concertante (ou pour Orchestre) , Composée (ou aux Piano), e Pathétique (ou
aux Casseroles)20. Embora Schaeffer se mostre muito feliz e grato a essa
emissora (“que não somente difundiu, mas também permitiu tais ensaios”21), ele
pondera mais adiante que
é importante salientar que a escuta e transmissão da música concreta, sujeitas
naturalmente à gravação sonora, são totalmente independentes da difusão pela
T.S.F. [telegrafia sem fio]. Seria mesmo conveniente, para que a experiência com
20 Após a radiodifusão de 1948 foram feitas algumas modificações nesse conjunto de estudos. O ÉtudeConcertante transformou-se na obra Diapason Concertino, e o Étude Composée foi dividido em dois novosestudos: viollete e noire. Ver SCHAEFFER, Pierre. L’oeuvre musicale intégrale – les oeuvres communes P.Schaeffer – Pierre Henry. Quatro Cds. Paris: INA-GRM; Seguier, 1990, pp. 68-69 e 95-97.21 SCHAEFFER, Pierre. “Introduction a la musique concrète” (1950). In Brunet (ed.), p. 53.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
104
um público seja conclusiva, que ela seja feita em uma sala de concertos, através
de alto-falantes.22
O “Premier Concert de Musique Concrète” foi realizado na Escola Normal
de Música de Paris, em 18 de março de 1950. Foram apresentados, além de 3
dos estudos acima citados, dois movimentos da Suite pour 14 instruments (1949)
e a Symphonie pour un homme seul (1950), composta por Schaeffer e Pierre
Henry. (Anos mais tarde, Schaeffer se refere a esse concerto como “essa falta
original, esse pecado cometido ao paraíso perdido da música”23, definindo a
música concreta como “aquilo que lhe trouxe a dura, paciente e trabalhosa
reparação desse crime ingênuo.”24)
Nos Estados Unidos, a primeira demonstração pública da tape music foi
realizada por Ussachevsky em 9 de maio de 1952, na Universidade de Columbia,
frente a seus pares acadêmicos, que a receberam “com bastante atenção e
ceticismo.”25 Em agosto desse mesmo ano ele foi convidado por Luening para
uma nova demonstração de suas experiências − que então constavam de estudos
com sons de flauta, violino, clarineta, piano e voz humana – que o marcaram
profundamente. Luening passa a desenvolver experiências semelhantes, ou seja,
totalmente baseadas na ampliação dos “recursos dos instrumentos para além de
suas capacidades físicas e até domínios inexplorados”26. Um convite para uma
apresentação pública estimula sobremodo a produção de ambos, feita
essencialmente em ambiente doméstico: no dia 28 de outubro de 1952 foi
realizado, sob a direção de Leopold Stokovski, um concerto de tape music no
Museu de Arte Moderna de Nova York, cujo programa incluiu Sonic Contours, de
Ussachevsky e Low Speed, Invention e Fantasy in Space, de Luening. O
concerto, também transmitido por rádios de Nova York e Boston, contou com
recepção entusiasmada da imprensa especializada, de ambas as vertentes
erudita e popular.
22 Schaeffer, p. 54.23 SCHAEFFER, Pierre. La musique concrète. Coleção "que sais-je?". Paris: Presses Universitaires deFrance, 1973 (2ª edição), p. 6. Primeira edição em 1967.24 Schaeffer, p. 6.25 RUSCHKOWSKI, André. Elektronische Klänge und musikalische Entdeckungen. Stuttgart: Philipp Reklam,1998, pp. 195-196.26 SCHWARTZ, Elliot e GODFREY, Daniel. Music since 1945: Issues, Materials and Literature. New York,Schirmer Books, 1993, p. 118.
3.1. Práticas composicionais com novas tecnologias a partir de 1950
105
No ano seguinte, inicia-se a música eletrônica na Alemanha:
A data oficial de nascimento da música eletrônica [elektronische Musik] é o dia 26
de maio de 1953. Em Colônia, no Festival de Música Nova de 1953, organizado
pela Nordwestdeutscher Rundfunk (NWDR) foram apresentadas quatro obras de
Robert Beyer e Herbert Eimert. Essa apresentação pôs fim à situação um tanto
precária vivida pela música eletrônica desde sua declaração de intenções de
1949/50: uma nova direção musical buscava chamar a atenção para si, sem que
pudesse mostrar uma única composição terminada.27
Em 1950 e 1951, conferências e seções de trabalhos em torno da música
eletrônica nos cursos de férias de Darmstadt incluíram, dentre outros, os nomes
de Werner Meyer-Eppler, Beyer, Friedrich Trautwein, T. W. Adorno e Eimert. A
autorização para a instalação de um estúdio eletrônico na NWDR se deu no final
de 1951, e seu primeiro staff contou com Eimert, Meyer-Eppler e Beyer. A opção
declarada desse estúdio pelo desenvolvimento do pensamento musical serial
causou a saída de Beyer em 1953, ao mesmo tempo em que eram convidados os
compositores Paul Gredinger, Henri Pousseur, Karel Goeyvaerts e Stockhausen.
Para este, a música eletrônica era vista como uma extensão natural do
pensamento composicional para instrumentos − “vocês devem se lembrar que a
linguagem da nova música instrumental e da música eletrônica é a mesma”28 – e
assim sendo, sua apresentação em concertos (ou em programas de rádio
dedicados à música nova) era algo natural. O primeiro concerto público de música
eletrônica, em 19 de outubro de 1954, em Colônia, continha obras de Eimert,
Stockhausen, Pousseur, Goeyvaerts e Gredinger.
27 Ruschkovski [ver nota 25], p. 236.28 STOCKHAUSEN, Karlheinz. “Elektronische und instrumentale Musik” (1959). Texte zur elektronischen undinstrumentalen Musik, Band 1. Köln: DuMont, 1963, p. 141. Primeira publicação em 1959, em die Reihe no. 5.
106
3.2. Os concertos como objeto de estudo
A encenação de uma peça teatral também não é facilmente separáveldesta como algo que não pertença à sua essência.29
(H.G. Gadamer)
A grande surpresa trazida por essa nova prática de concertos foi a
apresentação de obras totalmente pré-gravadas em ambientes caracterizados por
acolherem performances instrumentais ao vivo. A recepção desse tipo de música
em ambientes similares ainda continua a causar estranheza em, pelo menos,
parte do público. Por outro lado, a trajetória posterior dessas correntes
composicionais não se limitou a produzir obras nessa modalidade, já que
passaram a incluir em suas criações a atuação ao vivo de músicos, tocando
instrumentos convencionais ou não.
Nessa mesma época − o início da segunda metade do século XX −, o
advento da estereofonia, da gravação multipista e o aumento das possibilidades
do processamento de sons propiciaram o desenvolvimento de um novo modo de
produção musical voltado para a documentação (ou mesmo “produção”30) de
performances musicais e sua posterior difusão sob a forma de discos. É muito
difícil, a partir desse momento, traçar fronteiras precisas – de natureza
tecnológica − entre o que seria uma produção musical eletroacústica culta e uma
outra voltada mais para a distribuição em massa de gravações musicais, sejam
novas canções ou obras do repertório clássico. À guisa de exemplo: em 1987,
Hans U. Humpert afirmou que, com a expansão da utilização do termo música
eletroacústica, “todas as composições, cuja produção e transformação sonora se
dá através de aparelhos eletrônicos (eletroacústicos), podem ser consideradas
música eletrônica.”31 Um enfoque dessa produção com tal grau de abertura é
praticamente inviável; faz-se usualmente algum tipo de recorte em torno do
conceito de composição e suas implicações estéticas.
29 GADAMER, Hans-Georg. Wahrheit und Methode. (Gesammelte Werke, Band 1). Tübingen: Mohr (PaulSiebeck), 1990 (edição revisada), p. 121. Primeira edição em 1960.30 A respeito do uso dos termos “documentação” e “produção”, ver a introdução e seção 2.1 do segundocapítulo. Ver também WURTZLER, Steve. “’She Sang Live, But The Microphone Was Turned Off’: The Live,The Recorded And The Subject Of Representation.”. In: ALTMAN, Rick (ed.). Sound Theory Sound Practice.New York: Routledge, 1992, pp. 87-103.31 HUMPERT, Hans Ulrich. Elektronische Musik: Geschichte, Technik, Kompositionen. Mainz: Schott, 1987, p.11.
3.2. Os concertos como objeto de estudo
107
A opção feita nesta tese baseia-se em outras premissas: a delimitação de
seu objeto não foi fundamentada em características estéticas ou tecnológicas,
mas funcionais (ou, em outros termos, sua aparente falta de função): os concertos
eletroacústicos representam esta delimitação, e qualquer obra eletroacústica que
aspire a ser apresentada em concerto está qualificada a trazer contribuições para
o presente trabalho. Por concerto deve-se entender aqui uma situação musical
que privilegia a audição de composições em silêncio, com mínima movimentação
por parte dos ouvintes, a atenção voltada para o desenrolar da trama sonora,
pressupondo-se ainda a realização de um evento público específico em um
ambiente que conta com um nível de ruídos de fundo desprezível. E por
eletroacústica deve-se entender qualquer intenção musical irrealizável sem a
mediação de alto-falantes32.
(Atualmente, os concertos certamente não possuem mais nem a relevância
nem a função que exerceram no século XIX e início do século XX na Europa
Ocidental e em suas (ex-)colônias: formadores e portadores do conceito de boa
música predominante nessas sociedades. A partir de 1945, a distância entre a
criação erudita contemporânea e o consumo (e também a preferência) musical
predominante – que já se tornara marcante a partir da virada do século − torna-se
imensa. Uma das poucas saídas restantes a essa produção – comprometida com
uma “intensificação da escuta”33 − foi a de continuar a realizar concertos, muitas
vezes em espaços alternativos. Hoje não fazem mais muito sentido as posturas
vanguardistas – de cunho modernista, cujas conquistas seriam então
eventualmente distribuídas ao restante da população −; mas não se deve, por
esse motivo, desqualificar as iniciativas contrárias a uma homogeneização
crescente da cultura34.)
32 Note-se que não é feita aqui nenhuma tentativa de se definir o que seja música eletroacústica, “um assuntocuja existência é evidente mas cujas características identificatórias não são bastante claras.” CAESAR,Rodolfo. The Composition of Electroacoustic Music . Tese de Doutorado, University of East Anglia, 1992, p. 3.As dificuldades conceituais e terminológicas para a abordagem de tal assunto são discutidas na seção“Fleeting Identity” desta tese, pp. 16-20.33 GUBERNIKOFF, Carole. “Música eletroacústica: permanência das sensações” (2003). Anais do XIVCongresso da Associação Nacional de Pesquisa e Pós-Graduação em Música. Porto Alegre: UFRGS, 2003,p. 241.34 Uma defesa da produção eletroacústica erudita contemporânea, baseada nos interesses de minorias e nasvantagens da preservação da variedade cultural, é feita por EMMERSON, Simon. “From Dance! to ‘Dance’:Distance and Digits.” Computer Music Journal, vol. 25, no. 1, 2001, pp. 13-20.
3.2. Os concertos como objeto de estudo
108
Mas como lidar com a abertura deste objeto de estudo − potencialmente
ainda maior do que a citada logo acima – que, de fato, não delimita nada? Um
primeiro limite é dado pela opção dos próprios compositores pelos concertos.
Apesar de todas as rupturas decorrentes da incorporação de técnicas
eletroacústicas ao processo criativo, uma parte significativa dessa nova produção
adota, ao mesmo tempo, uma postura de continuidade, ao eleger os concertos
como forma preferencial de sua difusão pública, contando assim “com suas salas
planejadas para a absoluta concentração.”35
Mas, mesmo assim, estão aí incluídas experiências tão variadas quanto a
música acusmática, a live-electronics dos anos 1960, a eletrônica ao vivo
associada ao virtuosismo instrumental (como a praticada, por exemplo, por Pierre
Boulez e Luigi Nono a partir dos anos 1980), a interação com sistemas
computacionais por intermédio de novos controladores (como as desenvolvidas
pelo Steim, de Amsterdã e pelo Media Lab do MIT). Acredito que, tomando-se o
cuidado de não se entrar muito a fundo em nenhuma dessas vertentes (que
contam com produção e literatura específicas consideráveis), seja possível
construir uma abordagem que tenha como ponto de partida o papel essencial
desempenhados pelos alto-falantes em uma situação de concerto, e que busque,
acima de tudo, a caracterização de uma poética dos alto-falantes. Tal abordagem
é, por princípio, não literata, dependendo tanto da análise de obras, partituras e
escritos técnicos e analíticos quanto da experiência própria do pesquisador.
Portanto, o alcance e as limitações dessa abordagem estão ligadas diretamente à
minha experiência pessoal: tanto a composicional, a musicológico-analítica e a de
ouvinte quanto a de produção, direção e participação em concertos
eletroacústicos.
A análise do contexto de apresentação dessas obras (ao invés da análise
de seu conteúdo musical “intrínseco”) se justifica por algumas razões.
Primeiramente podem ser assim compreendidas as condições em que
determinadas práticas composicionais (e suas obras significativas) foram criadas,
ao mesmo tempo em que são vislumbradas as dificuldades de transposição literal
dessas idéias e realizações para outras situações e locais.
35 Gubernikoff [ver nota 33], p. 245.
3.2. Os concertos como objeto de estudo
109
Deve também ser questionada a pertinência da existência de modelos
composicionais a serem seguidos por praticantes que se encontram fora das
vertentes de maior desenvolvimento e visibilidade. As características descritas
anteriormente (referencialidade, fim da literalidade, não-exclusividade e
efemeridade do instrumental etc.) apontam para busca de soluções mais
individualizadas e localizadas. No caso da composição eletroacústica de
concerto), a concepção e o refinamento de estratégias expressivas dependem
muito da própria prática de apresentações em público e do grau de comunicação
alcançado.
Nos concertos, os alto-falantes têm sua multifuncionalidade e ambigüidade
potencializadas, já que é exatamente por eles que passam – e se misturam − as
diferentes formas de reprodução musical potencialmente presentes em uma obra
eletroacústica, seja uma performance instrumental, seja uma art des sons fixés,
sejam gravações quaisquer, sejam resultados de algoritmos ou de interações
diversas. Se somarmos a isto o grande número de operações de difusão sonora –
manual ou automatizada −, as diferentes técnicas de áudio realizáveis ao vivo e
um comportamento gestual que nem sempre obedece às expectativas ligadas às
cadeias de causa-efeito sonoros, podem-se vislumbrar a complexidade e a
variedade da mistura de tais elementos em um contexto musical ao vivo.
Acredito ainda que, apesar da existência de um grande número de
gravações disponíveis, boa parte do repertório eletroacústico derivado da tradição
erudita depende da realização de concertos para sua existência efetiva. Um
elemento complicador deriva-se do fato de que as gravações não conseguem
captar e transmitir todos os detalhes das situações musicais criadas em concerto.
A expressividade e as ambigüidades propiciadas pelos alto-falantes ao vivo são
bastante atenuadas na audição doméstica.36
Para a análise aqui proposta, a divisão tradicional do repertório
eletroacústico nas categorias música acusmática, música com meios mistos
(instrumentos e parte eletroacústica) e live-electronics (incluindo sua principal
sucessora: música interativa) não é de grande ajuda. Se por um lado esses
termos só fazem realmente sentido quando se pensa na apresentação em
36 Embora não se deva desprezar o potencial expressivo presente na escuta doméstica de gravações demúsica acusmática.
3.2. Os concertos como objeto de estudo
110
concerto dessas obras, por outro eles não dão conta das estratégias de
performance de cada uma delas. Alguns exemplos dessas estratégias: a
distribuição de partes pré-gravadas por diferentes conjuntos de alto-falantes
durante a performance; o comando de processamentos específicos por parte de
informações extraídas de uma performance instrumental; a amplificação de
instrumentos acústicos e sua mixagem com partes eletrônicas etc.
Propõe-se aqui uma classificação alternativa, baseada na presença de
diferentes elementos em um concerto: alto-falantes, obras e partes pré-gravadas,
músicos e seus instrumentos, novos instrumentos e controladores (com uma
subdivisão dedicada a sistemas interativos). O elemento essencial, a condição
mínima, é dada pelo alto-falante, sempre presente em qualquer concerto.
As contribuições dos demais elementos, embora não totalmente isoláveis,
podem ser analisadas de modo suficientemente independente, já que se
relacionam com modos de representação e reprodução musicais distintos. As
contribuições da performance tradicional (ligadas à idealidade da música) e das
obras e partes pré-gravadas (ligadas às arts des sons fixés) são de fácil
compreensão, desde que não utilizadas em situações deliberadamente ambíguas.
Já os novos instrumentos e controladores trazem uma série de
complicações para a apresentação eletroacústica: sua função pode variar entre
suporte técnico e elemento expressivo, as cadeias do tipo causa-efeito sonoro
são alteradas ou abolidas, sua execução pode conter diferentes graus de
automação. A variedade desses novos instrumentos é bastante grande, alguns
mais relacionados com a performance instrumental, outros com elementos da
técnica de áudio, outros ainda com o pensamento algorítmico.
111
3.3. A omnipresença de alto-falantes
Música: respiração das estátuas.37
(Rilke)
O alto-falante é um elemento indispensável da experiência eletroacústica,
representando o elo entre a percepção humana e tudo aquilo que foi denominado
“o outro lado” no capítulo anterior. No caso de concertos, ele é responsável pela
tra(ns)dução da idéias composicionais em sons. Não é necessário que a
totalidade da produção sonora se dê através dos alto-falantes em um concerto
eletroacústico, mas sua ausência impede que um evento seja caracterizado como
tal.
(A obra Déserts (1950−54), de Varèse, para grupo de sopros, percussão, e
interpolações de som organizado, encontra-se em uma posição singular. Nela,
tem-se a impressão de que os alto-falantes invadem um ambiente essencialmente
instrumental. Não só pela alternância de partes instrumentais e pré-gravadas –
que jamais ocorrem simultaneamente – e pelas condições de sua estréia,
realizada por Hermann Scherchen em um concerto cujo programa incluiu obras
de Mozart e Tchaikovski, mas também pelo fato da partitura prever uma execução
puramente instrumental, “caso as interpolações não possam ser utilizadas.”38)
3.3.1. Instrumento x “buraco”
Em uma situação de concerto, o alto-falante perde sua aparente
neutralidade, sua função de mero intermediário sonoro39, já que se encontra
inserido em um ambiente altamente propício para a prática instrumental. As
comparações, mesmo que inconscientes, são inevitáveis:
As diferenças essenciais entre projeção ao vivo e através de alto-falantes são
bastante marcantes. Elas são notadas não tanto na falta de fidelidade da gravação
frente ao original, mas na projeção extremamente concentrada e direcional que
37 Início do poema “An die Musik”, de RILKE, Rainer Maria. Gedichte 1906 bis 1926: Sammlung derverstreuten und nachgelassen Gedichte aus den mittleren und späteren Jahren. Wiesbaden: Insel, 1953, p.125.38 Texto presente na partitura editada pela Ricordi em 1959, e citado por VIVIER, Odile. Varèse. Paris: Seuil,1973, p. 148.39 Contudo, no caso de uma concepção musical tão abstrata quanto o serialismo praticado nos primórdios damúsica eletrônica, essa neutralidade parece ser essencial. Basta levar em conta que os sons instrumentaisforam preteridos por sua resistência a uma parametrização contínua.
3.3. A omnipresença de alto-falantes
112
provém dos alto-falantes, que contrasta totalmente, em seu efeito, com a difusão
imediata e extensiva dos sons emitidos por um instrumentista ou cantor.40
Uma performance ao vivo, envolvendo um ou mais músicos tocando
instrumento(s), projeta um número quase infinito de sinais diferentes, em um
número quase infinito de direções. Esses sinais são refletidos, difratados e
filtrados pelas paredes, teto, assentos, outras pessoas na sala etc., multiplicando
várias vezes o número de sinais. (...) Quantos alto-falantes, de qual tamanho,
seriam necessários para criar a riqueza sonora de uma performance ao vivo?41
Essa rica interação da produção sonora instrumental com o ambiente
circundante também conta com elementos provenientes da execução e
interpretação musical: controle dinâmico de volume e timbre, movimentação etc.
Sob vários aspectos, o alto-falante é o antípoda de um instrumento. Ele deve,
idealmente, tratar de modo idêntico a totalidade das freqüências audíveis, ou seja,
não deve ter modos de ressonância próprios, característica fundamental de
qualquer instrumento42. Em segundo lugar, ele apresenta uma direcionalidade
acentuada na projeção sonora, raramente encontrada em instrumentos
acústicos43. Em terceiro lugar, ele parece não ser tocado por ninguém, e
permanece imóvel44. Falta-lhe ainda um controle refinado como aquele que o
instrumentista aplica ao volume, timbre e posição (quando possível) de seu
instrumento. Se a primeira característica tem suas vantagens, já que garante uma
previsibilidade mínima para a execução de uma obra musical totalmente
dependente de alto-falantes para existir, as demais representam fontes de
40 BRANT, Henry. “Space as an Essential Aspect of Musical Composition” (1965). In: SCHWARTZ, Elliott eCHILDS, Barney (eds.). Contemporary Composers on Contemporary Music. New York: Da Capo, 1967, p.236.41 JAFFE, David. “The Confusion of Loudspeaker Sound with Live Sound”. Computer Music Journal, vol. 20,no. 2, 1996, p. 7.42 Pode-se perguntar qual seria o som próprio de um alto-falante. Normalmente as respostas a essa perguntaestão relacionadas a alguns tipos de sons eletrônicos, monótonos, sem espacialização, que parecem estarsendo produzidos pelo (e no) próprio alto-falante. Mesmo obras eletrônicas da então chamada escolasenoidal – baseada em princípios seriais - passaram a se utilizar da reverberação na criação de complexossonoros.43 Uma tentativa de contornar parcialmente essa limitação é encontrada em alguns modelos de caixasacústicas com alto-falantes apontados para diferentes direções. Uma solução mais recente foi desenvolvidapelo compositor François Nicolas e a equipe técnica do Ircam: La Timée é um cubo suspenso e fixo, capaz deirradiar sons pelos seus seis lados. O nível sonoro de cada um dos seus alto-falantes pode serdetalhadamente programado. (ver http://www.ircam.fr/equipes/instruments/srcvirt/report/)44 Embora existam caixas acústicas com alto-falantes rotatórios, as chamadas caixas Leslie. Um alto-falanterotativo foi utilizado por Stockhausen não em concerto, mas para a espacialização quadrifônica em estúdio desua obra Kontakte. Jorge Antunes, na obra Idiosynchronie (1972), aplica efeito doppler a sons deinstrumentistas tocando fora de cena, através de um alto-falante / pêndulo pendurado no teto do auditório,cujo fio de sustentação é cortado em um momento pré-determinado pela partitura. Ver SOUZA, RodolfoCoelho de. “Apontamentos para uma análise de Idiosynchronie”. In: ANTUNES, Jorge (org.). Uma poéticamusical brasileira e revolucionária. Brasília: Sistrum, 2002, pp. 287-306.
3.3. A omnipresença de alto-falantes
113
preocupação para um compositor que deve apresentar sua obra em uma sala de
concertos.
Mas o alto-falante, ao lado dessas limitações “instrumentais”, possui
também suas qualidades45. A principal é a de que ele é capaz de realizar uma
imensa quantidade de sons distintos; boa parte desses sons chegam ao ouvinte
por intermédio de uma outra função assumida pelo alto-falante que eu denomino
de “buraco”46. Por esse buraco, podem entrar sons de diferentes lugares e
momentos, sejam reais ou imaginados. (Ao abordar o i-som, ou a imagem de
som, François Bayle diz que ele “não é som de nada. Pois sucessivamente
encontrado, perdido, reencontrado, dotado desse atributo alado de leveza e de
economia radical : vindo de outro lugar!”47) É aqui que uma primeira ambigüidade
funcional do alto-falante se revela: ele deve soar em determinado ambiente, e ao
mesmo tempo trazer sons de outros ambientes48.
Como já dito no capítulo anterior (cf. seção 2.6), acredito que nossa
percepção espacial mediada por alto-falantes deve muito à prática de gravações e
a conseqüente experiência auditiva daí derivada. Não é difícil imaginar que na
outra extremidade desses buracos representados pelos alto-falantes se
encontram microfones responsáveis por “gravar” esses acontecimentos sonoros
reais ou imaginados.
O alto-falante funciona muitas vezes como uma janela para micromundos
acústicos explorados por microfones, através da qual podem ser escutados
detalhes de ressonâncias, vibrações, atritos não acessíveis à audição normal. De
um ponto de vista mais metafórico, ele também empresta sua voz a outros
fenômenos – invisíveis − de natureza não mecânica, sejam circuitos
eletroeletrônicos geradores de sons, sejam vibrações elétricas do corpo humano,
sejam resultados de algoritmos que se desenvolvem dentro de
microprocessadores.
45 Uma diferença adicional entre instrumentos e alto-falantes deriva-se da falta de modos próprios deressonância deste último: tomando-se como termo de comparação o potencial acústico de uma grandeorquestra sinfônica em concerto, pode-se afirmar que os alto-falantes propiciam um aumento significativo daexploração (tanto em intensidade quanto em variedade) dos extremos grave e agudo do espectro sonoro.46 A noção de buraco é emprestada de MOORE, F. Richard . "A General Model for Spatial Processing ofSounds". Computer Music Journal, vol. 7, no. 3, 1983, pp. 6-15.47 BAYLE, François. “Mi-lieu” (1991). In: Dhomont (org.), p. 132.48 Essa ambigüidade representa uma nova faceta da relação - igualmente ambígua - entre os conceitos deprodução e reprodução.
3.3. A omnipresença de alto-falantes
114
3.3.2. Projeção sonora
A percepção desses novos sons presentes em uma sala de concertos é
fortemente marcada pela interação entre o alto-falante e a sala em questão.
Quanto mais distantes estiverem os alto-falantes dos ouvintes, maior será a
intensidade dos sons refletidos pela sala que chegam a seus ouvidos. Se esses
sons (vindos de fora, ou mesmo de dentro das máquinas) já contêm uma porção
considerável de informação espacial (mistura de som direto e refletido, diferenças
de tempo e amplitude codificadas em um ou mais canais), somam-se a essas
informações novas informações de natureza semelhante, que podem interagir de
modo imprevisível entre si. Por exemplo: tanto o som direto quanto o som refletido
trazidos pelos alto-falantes transformam-se em som direto a ser difundido pela
sala; informações de amplitude e defasagens temporais presentes no som de
origem são percebidas de forma bastante variada em diferentes posições da sala
etc.
Os alto-falantes também viabilizam a criação e apresentação de obras cuja
produção sonora não está totalmente localizada em um palco frontal. Essas obras
podem contar com fontes sonoras espalhadas em torno ao público, em meio ao
público, acima do público, ou se utilizar de combinações diversas, com
conotações não desprezíveis. O mesmo pode ser dito sobre a movimentação – ou
melhor, sua simulação − de fontes sonoras.
Além de serem buracos pelos quais sons de fora penetram em um
ambiente, os alto-falantes também são capazes de projetar e movimentar sons
dentro de um ambiente, ou seja, os sons não mais simplesmente se desenvolvem
ao redor do ouvinte, mas também podem “passar” por ele. A criação de imagens
virtuais (phantom images) com dois ou mais alto-falantes foi discutida na seção
seção 2.6 do segundo capítulo, juntamente com a simulação de movimentos
sonoros. Levado aos extremos, um espaço assim construído é chamado pelo
filósofo Pierre Louet de homológico, ou seja, “um espaço equivalente aos ‘outros’
espaços, e especialmente ao espaço visível”, no qual, “respeitando-se uma
distribuição conveniente, os dispositivos técnicos tornam possível a edificação de
3.3. A omnipresença de alto-falantes
115
‘volumes’ sonoros quaisquer, capazes de evoluir como se queira.”49 Tal
possibilidade encontra-se, ainda hoje, nos campos da especulação e pesquisa.50
3.3.3. Anamorfoses, personagens
Diversas ambigüidades mediadas pelos alto-falantes podem ser
englobadas sob a caracterização de anamorfoses (este termo, cujo significado
está ligado às deformações visuais de espelhos não planos, foi aplicado à
percepção sonora por Schaeffer em seu Traité). As anamorfoses podem estar
ligadas à localização, à direcionalidade e ao conteúdo espectral de diferentes
fontes sonoras51. Um instrumento amplificado, por exemplo, sempre tem seu
conteúdo espectral e sua difusão sonora alterados. Pode-se ainda alterar a
localização de seus sons, afastando-os do instrumentista ou pode-se até mesmo
buscar uma difusão por alto-falantes próxima à sua difusão puramente acústica.
Uma obra acusmática concebida a dois canais, quando distribuída por
diferentes duplas de alto-falantes com características acústicas diferentes, além
das inevitáveis − e desejadas − transformações espectrais, é também submetida a
“perspectivas múltiplas por telas de fase [écrans de phase]”52.
O processamento de sons também pode ser considerado um tipo especial
de anamorfose, já que pode deformar consideravelmente tanto sons previamente
gravados quanto aqueles produzidos ao vivo. A discussão feita na seção 2.6
sobre o conceito de surrogacy, de Smalley, pode muito bem ser aplicada ao que
estou chamando aqui de anamorfose espectral.
O alto-falante pode também assumir o papel de um personagem musical
ou dramático, ocupando um lugar específico e possuindo uma voz característica.
Na maior parte da obra Fantasy Quintet (1978), para piano e computador, de
Dexter Morrill, “o computador toca quatro vozes, cada uma possuindo seu próprio
alto-falante”. A obra busca a atmosfera de “um concerto de câmara em termos de
volume e de ocupação – frontal – do palco” e “procura personalizar os alto-
49 LOUET, Pierre. “Espace de la Musique et Musique de l'Espace” (1991). In: Dhomont (org.), p. 11.50 Por outro lado, começam a surgir as primeiras aplicações práticas de alto-falantes superdirecionais,capazes de projetar sons de forma quase linear, além de permitir um grande controle sobre suas reflexõesem um ambiente fechado.51 As anamorfoses relativas ao gesto musical serão tratadas mais adiante, na seção 3.6.52 VANDE GORNE, Annette. “Espace et structure: propositions pour une écriture de l’espace”. In: Dhomont(org.), p. 126.
3.3. A omnipresença de alto-falantes
116
falantes, cujos sons são aqueles de instrumentos acústicos tais como trompete,
clarineta e tambor.”53
Já na obra Narcissus (1987), para flauta54 e delay digital, de Thea
Musgrave, os alto-falantes assumem as funções do personagem mitológico e seu
reflexo. O instrumentista deve ficar em um dos lados do palco, onde uma caixa
acústica amplifica seu som sem transformações. Na outra extremidade do palco
está a outra caixa acústica, que difunde o som processado por um delay digital
(ecos simples, com realimentação e com modulações). A figura abaixo mostra a
disposição de palco requerida pela obra.
Figura 1: Plano de ocupação do palco da obra Narcissus, de T. Musgrave. Oinstrumentista ocupa o lado esquerdo do palco, onde também se encontra a caixa acústicaque amplifica seu som direto. A caixa do lado direito representa a imagem refletida edeformada de Narcissus, criada com o auxílio de um delay digital. O músico controla oaparelho com os três pedais e, às vezes, também manualmente.
Personagens musicais (um músico, uma voz, um motivo, um timbre etc.) ou
mesmo dramáticos podem ser explorados através da invisibilidade proporcionada
pelos alto-falantes. Uma vez que só está realmente presente aquele ou aquilo que
se faz ouvir, surpresas e ambigüidades quanto à presença desses personagens
são facilmente construídas. Não deve também ser desprezado o potencial da
53 MORRILL, Dexter. Computer Music from Colgate – vol. II. (LP). Texto da contracapa. Redwood Records –ES-13.54 Há uma versão para clarineta, de 1989, da qual é retirada a figura. MUSGRAVE, Thea. Narcissus.Partitura. London: Novello, 1989 (versão para clarineta).
3.3. A omnipresença de alto-falantes
117
representação de um personagem por um simples elemento acústico, ou,
segundo Rudolf Arnheim, por meio dessa “redução radical ao essencial”55.
Outros exemplos de personificação dos alto-falantes – seja como solista,
máquina ou forças naturais – serão discutidos na seção 3.5. Eles podem ser
ainda encontrados na função de “intérprete solidário” na produção eletroacústica
latino-americana dos anos 1970. Aqui, essa prática significou não só a
possibilidade de apresentação pública das obras, mas também a exploração mais
radical de linguagens e idéias, dado o conservadorismo das instituições musicais
locais:
O compositor que enfrenta as dificuldades de realização de uma obra
eletroacústica está na realidade se poupando de todas as humilhações repetidas
que lhe traz a obra instrumental, e também das frustrações. Ao terminar uma obra
eletroacústica, o compositor pode − oh, milagre − ouvi-la, saber como soa,
comprovar a certeza ou não de seus pressupostos. Depois, apenas com a ajuda
de um gravador e dos respectivos falantes, pode fazer escutar sua obra quantas
vezes queira − ou quase.56
3.3.4. Configurações
As relações entre alto-falantes e espaços de concerto revelam uma história
de adaptações e soluções individuais. Após pouco mais de meio século de
existência da música eletroacústica, pode-se constatar que não foram construídos
locais especializados e duradouros para sua difusão57. Também não há padrões
para formatos de obras, ou para equipamentos de difusão. Assim, o tipo, número
e localização de alto-falantes variam consideravelmente segundo os contextos de
criação e de apresentação das obras. Entre tentativas-e-erros, adaptações,
redefinições estéticas e inovações tecnológicas vem sendo construída a
experiência de se fazer música com alto-falantes em público. Serão analisadas a
seguir algumas soluções encontradas por artistas, compositores ou instituições,
55 ARNHEIM, Rudolf. Rundfunk als Hörkunst (und weitere Aufsätze zum Hörfunk). Frankfurt am Main:Suhrkamp, 2001, p. 101. Livro escrito em 1933 como “Der Rundfunk sucht seine Form” e publicadooriginalmente em inglês, em 1936, como Radio. Primeira edição alemã em 1979.56 AHARONIÁN, Coriún. “La música electroacústica en Latinoamerica”. Revista Ficciones, no.1, Montevideo,setembro de 1977, p. 28.57 “Basta pensar na gigantesca rede de cabos e baterias de alto-falantes que são instaladas em zonas depedestres ou em galerias de lojas, visando a sonorização das massas sempre com o mesmo tapete musical,para então se lembrar, como pura ironia, de que na Europa podre de rica nem uma única cidade dispõe deespaços com as mesmas possibilidades, que poderiam estar abertos para projetos inovadores.” BOEHMER,Konrad. “Utopische Perspecktiven des Serialismus”. Neue Zeitschrift für Musik, vol. 150, no. 4, 1989, p. 8.
3.3. A omnipresença de alto-falantes
118
que estão suficientemente documentadas e chamam especialmente a atenção
para seu modo de utilização de alto-falantes.
O primeiro exemplo vem do cinema. O desenho animado Fantasia (1940),
de Walt Disney contou com um sistema sonoro especial, chamado Fantasound,
destinado a “enfatizar as características direcionais de uma orquestra sinfônica, p.
ex., metais claramente separados das cordas”58. O sistema contava com três
canais (esquerdo, centro, direita) mais um canal de controle. “Em sua estréia em
Los Angeles, Disney adicionou um primitivo canal ´surround´ com 96 pequenos
alto-falantes, que podia receber sons de um ou mais canais principais.”59
Outro exemplo marcante é dado pelo Poème électronique, obra multimeios
realizada por Le Corbusier e Varèse, e apresentada no pavilhão Philips60 durante
a exposição mundial de 1958, em Bruxelas. Música, imagens (slides em sua
maioria, existindo ainda alguns pequenos trechos de filme), luzes e objetos
pendurados compõem esse poema de 480 segundos, estruturado segundo um
roteiro de sete partes de Le Corbusier.
Em uma carta de junho de 1957, Xenakis escreve a Varèse:
Você terá à sua disposição cerca de 300 alto-falantes. As rotas de som estão
criadas, o que lhe permitirá fazer a música correr segundo certas direções dentro
do pavilhão. Colmeias de alto-falantes destacarão certas regiões do pavilhão. Para
a estereofonia você terá à disposição cerca de uma dezena de pistas magnéticas
a) as colmeias de alto-falantes b) as rotas de som c) somente os graves, ou
médios ou agudos d) mixagens especiais etc.61
A música foi realizada em três canais; o controle da espacialização sonora,
dos slides e filtros e das luzes foi programada em uma fita de 15 canais, cada
canal contendo 12 diferentes freqüências de controle. A respeito do controverso
58 HANDZO, Stephen. “Appendix: A Narrative Glossary of Film Sound Technology”. In: WEIS, Elisabeth eBELTON, John (eds.). Film Sound: Theory and Practice. New York: Columbia University Press, 1985, p. 418.59 Handzo, p. 419.60 O projeto arquitetônico deste pavilhão, demolido após o final da exposição, é parte integrante deste poemaeletrônico e foi realizado por Yannis Xenakis - na época engenheiro do escritório de Le Corbusier. Se OdileVivier destaca o fato de Xenakis ter obtido de Le Corbusier uma autorização – excepcional - para assiná-loem conjunto (Vivier [ver nota 38], p. 161), Helga de la Motte-Haber diz que a discussão sobre a autoria desteprojeto acabou causando um distanciamento entre os dois. Ver MOTTE-HABER, Helga de la. Die Musik vonEdgard Varèse: Studien zu seinen nach 1918 entstandenen Werken. Hofheim: Wolke, 1993, p. 95.61 Trecho reproduzido por Motte-Haber, p. 96. A pontuação presente na transcrição feita pela autora foi aquimantida.
3.3. A omnipresença de alto-falantes
119
número de alto-falantes utilizados nessa montagem, Helga de la Motte-Haber tem
a seguinte opinião:
Os dados sobre o número de alto-falantes no pavilhão Philips oscilam
extraordinariamente. O próprio Varèse falava de 400 ou 425 alto-falantes. A
descrição técnica do pavilhão, que é provavelmente a fonte mais confiável, fala
em 350 alto-falantes.62
A figura a seguir mostra alguns detalhes da programação da
espacialização sonora. Embora nem todos os elementos presentes no esquema
sejam compreensíveis sem o conhecimento de toda a instalação técnica presente
na exposição, pode-se observar claramente as principais características dessa
espacialização. Estão representados na parte superior da figura cinco (dos
quinze) canais de controle, cada canal contendo a indicação das doze diferentes
freqüências, indicadas pelas letras a ... l. Na parte inferior pode-se ver o conteúdo
dos três canais de música, sendo os materiais sonoros nomeados segundo sua
origem ou descrição onomatopaica. A associação de cada evento sonoro com
grupos específicos de alto-falantes está indicada logo abaixo desses nomes. Os
grupos de alto-falantes são indicados por letras maíusculas (A, B, C ... Lsp. gr. se
traduz por grupo de alto-falantes), por números arábicos (140) ou por algarismos
romanos (L.t. II significando um conjunto de alto-falantes graves). Por exemplo: os
sons do canal II nomeados como Perc. estão associados ao grupo de alto-
falantes U; um sinal de controle no canal 9j ativa esse grupo de alto-falantes.
62 Motte-Haber, p. 108.
3.3. A omnipresença de alto-falantes
120
Figura 2: Fragmento do esquema técnico de espacialização sonora de Poèmeélectronique, de Varèse. (Fonte: Philips Technische Rundschau, 1958/59, p. 49. Republicadoem Motte-Haber, p. 100.)
3.3. A omnipresença de alto-falantes
121
A movimentação sonora em determinada rota de alto-falantes é indicada
por uma flecha. Uma série de impulsos enviada a um comutador telefônico realiza
a troca sucessiva de conexões necessárias à tarefa. Um outro sinal traz o
comutador à sua posição original. Pode-se ver na figura que o som Whistle finger,
do canal I, está associado ao grupo O, com o sinal de controle correspondente
presente no canal 9b. A movimentação desse som é feita por 60 impulsos de 0,25
segundos de duração, localizados no canal 9k. Logo após esses impulsos
acontecerem, um comando de reset se encontra no canal 9a. De algum modo não
explícito nesse esquema, o grupo de alto-falantes O está associado à rota
comandada pelo comutador k.III. Para a reprodução desse mesmo som, note-se
ainda um comando adicional, no canal 11j, responsável por alimentar os
amplificadores do grupo O com os sons vindos do canal I (o normal seria esses
sons virem do canal de som II).
Uma outra exposição mundial, a de Osaka, em 1970, também contou com
um local especial para a difusão de música através de alto-falantes. O auditório
esférico do pavilhão alemão foi construído segundo instruções de Karlheinz
Stockhausen. Suas idéias foram esboçadas em um texto de 195863, e
desenvolvidas em um projeto envolvendo multimeios de 1968 (HINAB –
HINAUF64); embora o projeto artístico não tenha sido aceito pelo comitê
coordenador alemão para ser apresentado durante a exposição, as idéias
arquitetônicas e técnicas foram concretizadas com poucas alterações. A
exposição contou com mais de quatro horas diárias de música de Stockhausen,
entre março e setembro de 1970. A montagem eletroacústica consistiu em sete
anéis horizontais de sete alto-falantes cada um; cada um dos anéis estava ligado
às saídas de um gravador multipista, e um painel de controle permitia que cada
um dos anéis fosse acionado ou desligado de forma independente. Foi também
projetado um controle rotativo manual para a movimentação de fontes sonoras
diferentes em dois círculos verticais. Informações mais detalhadas sobre a
execução de suas diversas obras nesse auditório não são fornecidas pelo
compositor, mas pode-se imaginar que sinais de microfones, além de serem
enviados para os círculos verticais, podiam também alimentar diferentes canais
63 STOCKHAUSEN, Karlheinz. “Musik im Raum” (1958). Texte, Band 1, p. 152.64 STOCKHAUSEN, Karlheinz. “Osaka-Projekt” (1968-1970). Texte zur Musik: 1963-1970, Band 3. Köln:DuMont, 1971, pp. 153-172.
3.3. A omnipresença de alto-falantes
122
do gravador. O público se sentava em almofadas colocadas em uma plataforma –
permeável ao fluxo sonoro – situada a cerca de três metros abaixo do equador da
esfera. O controle de som também ficava na plataforma. Havia ainda seis
plataformas para solistas nas laterais da esfera.
A figura abaixo mostra o plano eletroacústico de Hinab−Hinauf, feito em
1968. Podem-se ver, no primeiro desenho, sete círculos horizontais indicados por
algarismos arábicos. Cada um dos círculos contém 7 alto-falantes, que devem
estar ligados às pistas I−VII de um gravador multipista. O segundo desenho
mostra dois círculos verticais (A e B) a serem comandados por dois controles
rotativos manuais. O terceiro desenho mostra a planta baixa de todos esses
círculos. A parte inferior da figura mostra os planos para o circuito e equipamentos
necessários à implementação. Uma pequena caixa teria por função ligar e
desligar todos os alto-falantes de um mesmo círculo horizontal, enquanto os
sinais de cada pista seriam comandados por faders.
Figura 3: Plano eletroacústico de HINAB−HINAUF, de Stockhausen. (Fonte: Stockhausen.Texte, Band 3, p. 163.)
3.3. A omnipresença de alto-falantes
123
Em 1974, François Bayle concretiza a idéia de um acusmonium, uma
orquestra de alto-falantes posta a serviço da solução de um grande problema
vivido pela música acusmática em suas apresentações públicas:
Uma sala de teatro, um palco vazio, uma iluminação pouco sedutora, alguns alto-
falantes tristemente colocados nos cantos, um acúmulo de material técnico
heteróclito, tal é a caricatura do concerto de orçamento escasso montado às
pressas...65
O acusmonium é adaptável a diferentes locais e parte do princípio de
substituir o dispositivo pontual de ‘sonorização’ clássica, que difunde o som das
laterais para o centro de uma sala, por um conjunto de projetores sonoros que
constrói uma ‘orquestração’ da imagem acústica segundo a dimensão mais
favorável à propagação acústica, por exemplo para um teatro: a partir do palco;
em um anfiteatro: ocupando o espaço central etc.66
Tal como proposto em sua origem, o acusmonium funciona otimamente
com obras acusmáticas, concebidas a dois canais. Ele prevê um par de caixas
solistas, que fornecem uma imagem de referência para toda a sala. Ao par de
solistas devem ser adicionados mais cinco conjuntos de alto-falantes: um
dedicado aos sons mais graves (20 − 400 Hz), outro aos sons superagudos (4000
− 16000 Hz), e mais três de imagem sonora média que podem ser tratados em
pares ou de forma assimétrica. Podem ainda ser adicionados projetores sonoros
atuando fora do corpo da orquestra67. Tal orquestra deve ser, obviamente, regida
de uma mesa de som central, capaz de controlar sem dificuldades o nível sonoro
enviado a cada um dos diferentes conjuntos de alto-falantes. Assim, uma obra
pré-gravada passa a ser interpretada em concerto. Dentre os vários esquemas e
fotografias presentes no livro de Bayle (1993), escolhi como exemplo aquele
correspondente à estréia do acusmonium em 1974.
65 BAYLE, François. “la musique acousmatique, ou l’art des sons projetés” (1984). In BAYLE, François.musique acousmatique: propositions... ...positions. Paris: INA; Buchet/Chastel, 1993, p. 66. Texto de 1984,revisado em 1993.66 BAYLE, François. “pour une musique invisible: un acousmonium” (1975). In: Bayle (1993), p. 44. Texto de1975, revisado em 1992.67 Informações adicionais são encontradas nos dois textos citados acima.
3.3. A omnipresença de alto-falantes
124
Figura 4: Esquema do primeiro acusmonium desenvolvido por Bayle. A figura deve servista em perspectiva, com a frente do palco em sua parte inferior. Ali estão as duas caixassolistas. Podem ser notados os dois tipos de distribuição de pares de caixas semelhantes:simétrica e assimétrica. (Fonte: Bayle (1993), p.XIV)
Um grande número de variações pode ser – e realmente foi − derivado
dessa idéia68. A bem da verdade, não faz muito sentido falar de um acusmonium
padrão, mas somente de seus princípios determinantes, ou seja: (a) um grande
número de alto-falantes, com características distintas, espalhados em lugares
estratégicos de uma sala; (b) a possibilidade de uma performance dedicada à
distribuição sonora de partes pré-gravadas pelos alto-falantes. Podem ser
construídas versões de câmara, versões de ocupação total do espaço disponível,
versões pontilhistas, versões automatizadas (ou semi-), e também versões
adaptadas a difusão de obras concebidas para mais canais, embora um número
muito alto de canais comece a ser conflitante com esses princípios69.
A ópera Prometeo (1984)70, de Luigi Nono, para quatro grupos solistas
(cantores, cordas, sopros, percussão), dois recitantes, uma orquestra dividida em
68 O Grupo de Música Experimental de Bourges desenvolveu em 1973 – portanto, antes do acusmonium – oGmebaphone, aparato com finalidade semelhante. A opção pela discussão do acusmonium se deve nãoapenas ao uso bastante difundido do termo acusmático, mas também à maior facilidade de acesso à suadocumentação.69 Daniel Teruggi, p. ex., dedicou um ciclo de obras à exploração entre o suporte a quatro canais e oacusmonium. Ver TERUGGI, Daniel. “Un espace pour la reflexion” (1991). In: Dhomont (org.), pp. 85-86.70 Após sua estréia em Veneza, em setembro de 1984, a ópera passou por uma grande revisão antes de serreapresentada no ano seguinte, em Milão.
3.3. A omnipresença de alto-falantes
125
quatro grupos iguais de 13 músicos, coro misto a 12 vozes e eletrônica ao vivo,
propõe uma situação acústica de grande complexidade, na qual o conjunto de
músicos e cantores é complementado por um grande número de alto-falantes. A
disposição dos músicos e alto-falantes (sempre baseada em um princípio de
assimetria) varia segundo o local de sua realização71. A figura a seguir, referente
às récitas da Alte Oper, de Frankfurt, em 1987, que utilizou 12 alto-falantes,
permite visualizar o plano de difusão sonora de uma de suas montagens. Nesse
caso, os quatro grupos orquestrais estão espalhados pela sala: orquestras 1 e 3
nos balcões, orquestra 2 ao fundo da platéia e orquestra 4 lateralmente no palco.
Os grupos solistas estão nos balcões, e o coro também se localiza no palco, em
um nível mais elevado.
Figura 5: Plano de distribuição sonora da ópera Prometeo, de Nono, para a Alte Oper, deFrankfurt.72
71 A estréia em Veneza contou com 24 alto-falantes, e com uma estrutura de madeira – um casco de navio –construída dentro da igreja de San Lorenzo. A igreja possui um grande altar dividindo-a ao meio; seus doislados foram ocupados por músicos, alto-falantes e público. Para informações detalhadas, consultar HALLER,Hans Peter. Das Experimentalstudio der Heinrich-Strobel-Stiftung des Südwestfunks Freiburg 1971–1989,volume 2. Baden-Baden: Nomos, 1995, pp. 155-183.72 Fonte: JESCHKE, Lydia. Prometeo: Geschichtskonzeptionen in Luigi Nonos Hörtragödie. Stuttgart: Steiner,1997, p. 190. O esquema baseia-se nos planos feitos pelo compositor e Hans Peter Haller, publicados emHaller, vol. 2.
3.3. A omnipresença de alto-falantes
126
O controle sonoro é realizado no meio da sala. A eletrônica ao vivo é parte
integrante da escrita musical, e os resultados de seus diferentes processos são
difundidos pelos alto-falantes. Embora “uma discussão de cada função eletrônica
não faça sentido sem a partitura”73, gostaria de dar alguns exemplos de
exploração dos alto-falantes. A movimentação espacial de partes solistas − que
passam por algum tipo de processamento: transposição microtonal, filtragem,
reverberação e/ou atraso − é especialmente importante, sendo pré-definida pelo
compositor e realizada através do Halaphon (“um aparelho de movimentação
sonora universal”74). O controle da dinâmica, timbre e movimentação dos sons de
um solista por intermédio do nível sonoro presente no microfone de outro solista é
bastante utilizado em algumas seções dessa ópera. Sons de volume muito
reduzido − cantados pelo coro − são transpostos para microintervalos, submetidos
a um grande tempo de reverberação e difundidos de forma indireta, através dos
alto-falantes voltados para a parede do fundo: é o chamado na partitura de coro
lontanissimo.
Como último exemplo, gostaria de comentar a instalação Acousma-park
(1991−95), do compositor francês Jean-Marc Duchenne. A obra foi inicialmente
concebida como 12 ensaios de exploração do espaço através de sistemas
multicanal, cada ensaio contando com uma configuração especial de caixas
acústicas (de coloração semelhante). As configurações eram as seguintes: “em
rede, em hélice, em pirâmide, em tela, em círculo, em planos, em rosácea, em
andares, em ilhotas, em linha, em bacia [cuvette], em abóbada.“75
No projeto, alguns ensaios previam uma apresentação pública do tipo
concerto; contudo, a finalização do projeto se deu na forma de uma instalação,
com nove obras distribuídas por nove espaços distintos: seis salas, um pequeno
cômodo, um corredor, uma escada. O número de alto-falantes varia bastante
entre o projeto e sua realização. Na concepção inicial encontramos quatro
conjuntos de três obras: o primeiro a 12 canais, o segundo a 16, o terceiro a 20 e
o último a 24 canais. A realização final conta com um total de 45 alto-falantes,
73 Haller, volume 2, p. 164.74 Haller, volume 1, p. 26.75 DUCHENNE, Jean-Marc. “Habiter l’espace acousmatique” (1991). In: Dhomont (org.), p. 83.
3.3. A omnipresença de alto-falantes
127
cada obra contendo de um a nove canais.76 (Este caso é um bom exemplo do
caminho percorrido por um compositor entre uma idéia inicial e sua realização
concreta.)
A análise baseada nessas seis configurações não pretende ser exaustiva.
Existe, obviamente, um sem-número de outros exemplos, contendo novos modos
de utilização de alto-falantes, capazes de estimular a percepção sonora de
maneira particular. Se pudermos tirar alguma conclusão genérica, será apenas a
de que:
não devemos esperar que nossos concertos tenham sucesso se usarmos um par
de alto-falantes convencionais, mesmo que eles sejam perfeitamente adequados
para ocupar sonoramente a sala e de alta qualidade. Pelo menos nos próximos
anos, o público terá a expectativa de algo especial ou não-usual de nossos
concertos, algo que eles sintam que não possam ouvir em suas próprias salas.77
A opinião é corroborada por Smalley cerca de duas décadas mais tarde:
”as pessoas vieram especialmente para a performance; para criar uma
experiência satisfatória, você tem que oferecer algo mais do que é possível em
uma audição doméstica.”78
Até o presente momento a discussão concentrou-se nos alto-falantes, suas
diferentes disposições e funções; contudo, eles por si só são incapazes de
construir uma situação eletroacústica. Serão discutidas a seguir as diferentes
‘falas’ produzidas por (através de) alto-falantes em concerto: sejam de partes pré-
gravadas, de músicos instrumentistas e cantores ou de um grande número de
novos equipamentos / instrumentos.
76 Informações disponibilizadas no site: http://www.cdmc.asso.fr/biographiefs/d_g/duchenne_b.htm.77 MORRILL, Dexter. “Loudspeakers and Performers: Some Problems and Proposals” (1981). In ROADS,Curtis (ed.). The Music Machine. Cambridge: MIT Press, 1989, p. 98. Publicado originalmente no ComputerMusic Journal, vol. 5, no. 4, 1981.78 AUSTIN, Larry. “Sound Diffusion in Composition and Performance: An Interview with Denis Smalley.”Computer Music Journal, vol. 24, no. 2, 2000, p. 11.
128
3.4. A presença de obras ou partes pré-gravadas
Ora, podemos imaginar muito bem que novos sons poderiam serapresentados aos tons e ritmos da música, sons de outras esferas...79
(Kurt Weill, 1925)
As possibilidades de gravação ampliaram ao extremo as concepções sobre
o material sonoro já na primeira metade do século XX. Não só Kurt Weill, mas
também Rudolf Arnheim (“a fusão de música, sons e fala em um único material
sonoro”80), Dziga Vertov (“eu decidi incluir no conceito de ‘audição’ a totalidade do
mundo audível.”81), e Walter Ruttmann (“todo o audível do mundo inteiro se torna
material”82) vislumbraram o potencial expressivo do mundo sonoro – os dois
últimos chegaram a colocar em prática, de modos diversos, suas concepções
criativas.
Mais tarde, Pierre Schaeffer buscou sistematizar essa totalidade, essa
infinidade de objetos sonoros presentes no mundo audível:
Refletindo um pouco, vemos rapidamente que, por mais infinita que seja a
diversidade de tais objetos, pode-se enumerar com certa facilidade cada um de
seus ‘infinitos’. Pois esses objetos não são abstrações. Eles devem ter uma fonte
em qualquer parte e provêm de um agenciamento energético que lhes dá vida. A
questão que devemos nos colocar é a seguinte, surpreendente por sua
simplicidade: ‘O que é que pode produzir som, no mundo que habitamos?’ Não
somente as categorias de coisas ou de seres. Os elementos, para começar. Os
seres vivos, em seguida. Dentre eles, os homens. Entre os ruídos do homem,
aqueles que se prestam à comunicação. Entre esses últimos, aqueles que
respondem a uma intenção musical.83
A classificação de Schaeffer se embaralha a partir do momento em que
sons gravados passam a fazer parte das intenções musicais humanas; assim, o
último subconjunto de objetos sonoros – marcado pela intenção musical humana
79 WEILL, Kurt. “Möglichkeiten absoluter Radiokunst”. In DREW, David (ed.). Kurt Weill: AusgewählteSchriften. Frankfurt: Suhrkamp, 1975, p. 130. Artigo publicado originalmente em Der Deutsche Rundfunk, em28 de junho de 1925.80 Arnheim [ver nota 55], p. 24.81 Citado por GOERGEN, Jeanpaul. Walter Ruttmanns Tonmontagen als Ars Acustica. Massenmedien undKommunikation No. 89, 1994, p. 14.82 RUTTMANN, Walter, “Neue Gestaltung von Tonfilm und Rundfunk: Programm einer photographischenHörkunst”. In: Goergen, p. 25. Publicado originalmente no Film-Kurier, vol. 11, no. 255 (26 de outubro de1929).83 SCHAEFFER, Pierre. Traité des Objets Musicaux. Paris: Seuil, 1966, p. 352.
3.4. A presença de obras ou partes pré-gravadas
129
− passa a abarcar todos os outros ‘infinitos’, incluindo-se aí sons e músicas feitas
por outros homens.
Não existe um caminho seguro ou preferencial para a exploração musical
desse imenso mundo sonoro. O próprio Schaeffer – que insistia com os
compositores sobre a necessidade da realização de estudos − não se mostra tão
seguro acerca da eficácia de seu solfejo como meio de acesso a uma atividade
realmente criativa:
Em efeito, é provável que a pesquisa daquilo que poderíamos chamar de a pedra
filosofal das novas músicas não se efetuará segundo esse método analítico.
Pensamos que o presente tratado propõe, nesse sentido, de ir tão longe quanto
possível, mas seria imprudente, e sem dúvida insensato, querer atingir
diretamente as estruturas autenticamente musicais por esse caminho. Por um
lado, existem demasiadas combinações possíveis de critérios em seus diferentes
agenciamentos, por outro, nossos registros de sensibilidade são muito mal
conhecidos para que se possa operar tão logicamente.
O solfejo ainda não é a música.84
3.4.1. Discursos e sintaxes
“Objetos sonoros não sugerem sua própria montagem de maneira
objetiva!”, afirmou Simon Emmerson em 1986, acrescentando que, na verdade, é
“um conjunto de crenças a respeito do que é que ‘soa bem’ em qualquer situação
dada”, “em grande parte inconscientes”85, que orienta o trabalho dos
compositores. O autor propõe uma abordagem de obras eletroacústicas dividida
em dois eixos ortogonais: um referente ao discurso, outro à sintaxe. Os extremos
do primeiro eixo são representados pelos discursos aural e mimético. Ele usa o
termo mimese “para denotar a imitação não só da natureza, mas também de
aspectos da cultura humana usualmente não associados de modo direto ao
material musical.”86 Mais à frente, após breve discussão sobre discurso musical
abstrato, “baseado na interação de sons e suas formas”87, ele renomeia “esta
84 Schaeffer, pp. 487-488.85 EMMERSON, Simon. “A relação da linguagem com os materiais”. PerMusi, vol. 7, 2003, pp. 8-9. Publicadooriginalmente como “The Relation of Language to Materials” (1986). In: Emmerson (ed.), pp.17-39. Traduçãopara o português de Sérgio Freire.86 Emmerson, p. 5.87 Emmerson, p. 6.
3.4. A presença de obras ou partes pré-gravadas
130
substância ‘musical abstrata’ como ‘discurso aural’, para diferenciá-lo claramente
do ‘discurso mimético’”88.
A discussão sobre a sintaxe – cujos extremos são sintaxe abstrata e
sintaxe abstraída dos materiais − é um pouco mais complexa, e fundamenta-se na
premissa de que “os objetivos de ambas estas formas de música [concreta e
serial] podem ser resumidos como a descoberta e o uso de ‘leis universais’”.
Entretanto, o uso dos termos ‘lei’ ou ‘regra’ apresenta ambigüidades, pois
encontra-se tanto o uso de “lei como uma ‘generalização empírica’, ou seja, um
resumo de todas as ocorrências observadas de um evento particular”, quanto “lei
como uma ‘necessidade causal’ tendo um certo status ‘acima’ dos eventos e
determinando sua ocorrência.”89 Assim, o primeiro uso se relaciona à busca de
uma sintaxe abstraída dos materiais observados, enquanto a essência do último é
“a criação e manipulação pelo compositor de formas e estruturas definidas
essencialmente a priori.”90
Emmerson prossegue com a discussão de nove estudos de caso, definidos
pelo cruzamento das duas posições extremas e de uma posição central de cada
eixo, cobrindo um amplo espectro da produção eletroacústica: dos estudos
eletrônicos seriais à música anedótica. Sua preocupação refere-se principalmente
“àquelas obras nas quais a composição de timbres (‘cores’) tem um papel
importante”, embora acrescente que “praticamente toda música eletroacústica
voltada para relações de alturas pertence à primeira área examinada: o discurso é
exclusivamente aural (‘musical abstrato’), a sintaxe quase sempre totalmente
abstrata (freqüentemente com raízes seriais)”.91
A morfologia espectral de Smalley, já mencionada anteriormente, tem como
objetivo a exploração da “substância musical abstrata” presente em sons
quaisquer. Partindo da tipo-morfologia de Schaeffer, essa teoria analítico-
composicional tem como principais fundamentos: (a) uma tipologia espectral, que
define um continuum entre nota e ruído, passando por som nodal; (b) uma
morfologia que trata das formas temporais dos sons; (c) uma tipologia do
88 Emmerson, p. 7.89 Emmerson, p. 8.90 Emmerson, p. 9.91 Emmerson, p. 23.
3.4. A presença de obras ou partes pré-gravadas
131
movimento e suas combinações, finamente detalhada; (d) processos
estruturantes, que incluem questões relativas à variedade das possíveis
“unidades significantes” mínimas, gesto e textura, funções e relações estruturais;
(e) espaço.92
3.4.2. Paisagens
O conceito de paisagem (landscape) desenvolvido por Trevor Wishart é
também uma ferramenta importante para a análise da produção eletroacústica
(por ele chamada de sonic art). Ele parte do princípio de que “em nossa
experiência comum, nos mostramos mais freqüentemente conscientes da origem
de um som do que não”93, e coloca “as diferentes características da experiência
sonora relacionadas ao nosso reconhecimento da origem dos sons sob um
mesmo título: ‘paisagem’.”94 Mais adiante, ele refina o conceito: “paisagem é a
fonte da qual imaginamos que os sons vêm.”95 Aproveitando uma metáfora usada
anteriormente, eu afirmaria que a paisagem seria, então, o local para onde estão
apontados os microfones “virtuais” de um compositor. A discussão de Wishart
prossegue, enumerando três componentes, não totalmente independentes,
presentes na percepção de uma paisagem: (1) a natureza do espaço acústico
percebido, (2) a disposição dos objetos sonoros dentro do espaço, (3) o
reconhecimento de fontes sonoras individuais.96 A noção de paisagem conta com
grandes possibilidades para exploração de ambigüidades, e até mesmo para o
desenvolvimento de uma metalinguagem eletroacústica, capaz de questionar e
remodelar seus próprios fundamentos técnico-expressivos. Pois,
à medida em que sons do rádio se fazem cada vez mais presentes em nosso meio
ambiente sonoro real, torna-se possível questionar, por exemplo, se estamos
escutando música orquestral, os sons de um rádio (tocando música orquestral) ou
92 Cf. SMALLEY, Denis. “Spectro-morphology and Structuring Processes” (1986), in Emmerson (ed.), pp. 61-93. Smalley reformulou consideravelmente esse texto em 1997 [ver nota 9].93 WISHART, Trevor. "Sound Symbols and Landscapes" (1986). In Emmerson (ed.), p. 41.94 Wishart, p. 42.95 Wishart, p. 43.96 WISHART, Trevor. On Sonic Art (a new and revised edition). Amsterdam: Harwood Academic Publishers,1996, p. 140.
3.4. A presença de obras ou partes pré-gravadas
132
os sons de uma pessoa andando pela rua (carregando um rádio (tocando música
orquestral))!97
Será que é possível a apreciação puramente auditiva de uma obra musical
sem a percepção – mesmo inconsciente – de paisagens correspondentes? Em
diversos casos, a atenção se volta preferencialmente para as relações internas do
discurso musical; nesses casos, a principal função da paisagem é a de
representar um fundo (suporte) homogêneo para o desenvolvimento das idéias
musicais. As gravações do rico e extenso repertório de música para piano, por
exemplo, tem como paisagem o local (e o momento) de execução dessas obras,
mesmo quando essas apresentam um caráter programático. Mas essa função não
foi facilmente transposta para a música eletrônica do início dos anos 1950, que
considerou a onda senoidal como o elemento mínimo da música, passível de
serialização e capaz de fornecer qualquer fenótipo sonoro. A crítica a essa
música, feita por Adorno em 1954, traz à tona questões de paisagem:
os novos timbres conquistados assemelham-se monotonamente uns aos outros,
seja devido a − por assim dizer − sua pureza química, seja pelo fato de cada som
ter sido fortemente marcado pela aparelhagem intermediária. Ela soa como se se
tocasse Webern em um órgão Wurlitzer.98
3.4.3. Obras, partes, vozes, canais
Nem sempre partes pré-gravadas aparecem como obras completas – ou
seja, como música acusmática − em concertos eletroacústicos. Uma combinação
bastante usual é a de partes pré-gravadas com a performance de instrumentos
acústicos (ou voz), a ser discutida na próxima seção. O termo parte, aqui
utilizado, implica uma certa elaboração da trama sonora nela contida, indicando
conter mais do que simples amostras de som99. Embora essas partes apresentem
relações temporais bem definidas entre seus materiais, é possível que elas
sofram algum tipo de controle externo em seu desenrolar, seja no simples ligar e
97 Wishart, p. 144. Vale ainda lembrar a riqueza de imagens ligadas à idéia de paisagem presentes no poemade Brecht usado como epígrafe da seção 2.2.98 ADORNO, Theodor W. “Das Altern der Neuen Musik” (1954). Gesammelte Schriften: Band 14(Dissonanzen. Einleitung in die Musiksoziologie). Frankfurt am Main: Suhrkamp, 1997, p. 160.99 Em algumas situações, a parte pré-gravada, mesmo tendo sua sonoridade já definida, pode também estarrepresentada por informações simbólicas, tais como instruções de síntese sonora (ver comentários sobre abatch composition mais adiante, na seção 3.6.2.) ou um arquivo Midi.
3.4. A presença de obras ou partes pré-gravadas
133
desligar de um gravador, seja por meio de comandos extraídos de uma execução
musical ao vivo.
Podem-se também imaginar situações nas quais uma atuação ao vivo seja
capaz de gerar uma parte musical de complexidade semelhante a uma parte pré-
gravada: basta que os processos utilizados em estúdio estejam disponíveis em
tempo real, e que ofereçam alguma abertura para a performance. Nesses casos,
a opção por uma ou outra estratégia depende diretamente da mise en concert
planejada, que pode valorizar tanto a presença de algo feito deliberadamente de
antemão quanto a performance ao vivo.
O formato estereofônico a dois canais é, até hoje (2004), o padrão de
distribuição de música – tanto o comercial quanto o informal −, iniciado com o LPs
e mantido pelas fitas rolo e cassete e CDs100. A maior parte da estrutura de
produção de estúdios de gravação de música está projetada para esse formato,
embora a prática multicanal venha ganhando bastante espaço na produção
audiovisual e em diversos estúdios de música eletroacústica, incluindo-se os
domésticos. Existe uma considerável experiência acumulada sobre a
apresentação de obras a dois canais em concerto, e, como já foi dito, uma
orquestra de alto-falantes (acusmonium) é um instrumento bastante apropriado
para a interpretação dessas obras em concerto, embora sua viabilidade exija
orçamento e agenda especiais, nem sempre disponíveis.
É necessário fazer uma distinção entre partes, vozes, canais de áudio e
número de alto-falantes. O termo parte, como definido anteriormente, indica, por
um lado, que não se trata de uma obra completa; por outro lado, indica uma
estrutura musical de complexidade considerável. Já voz − termo emprestado do
contraponto – indica uma “linha melódica” ou estrato sonoro independente. Uma
obra ou uma parte pré-gravada contém, na maioria dos casos, mais de uma voz.
Os canais de áudio armazenam informações sonoras, que podem ser bastante
semelhantes ou totalmente diferentes das existentes em outros canais. O número
de alto-falantes varia de acordo com as obras e as condições de sua
apresentação. Não há uma relação direta entre esse número e a quantidade de
vozes ou canais de áudio, embora seja comum que se tenha pelo menos um
100 Embora já possa ser notada uma forte tendência à distribuição comercial de formatos digitais audiovisuais(é o caso dos DVDs).
3.4. A presença de obras ou partes pré-gravadas
134
número igual de alto-falantes e canais. Muitas vezes é vantajoso o fato de que um
canal de áudio seja difundido por mais de um alto-falante.
As partes (ou vozes) pré-gravadas podem estar contidas em um ou mais
canais de áudio; no último caso, a imagem sonora a ser construída depende da
interação entre os sons contidos em cada canal. As vozes (ou mesmo partes) em
um canal podem ser destinadas a alto-falantes específicos, ou podem sofrer uma
espacialização (e também filtragens), dividida por diferentes alto-falantes, durante
a própria apresentação. Uma obra pode conter diferentes vozes a um canal
(monofônicas), sincronizadas ou não. A associação de uma voz com um alto-
falante específico pode levar ao efeito de personalização do mesmo, já tratado na
seção 3.3.3. Em meio a conjuntos instrumentais, uma parte monofônica pode
ainda representar uma espécie de corredor acústico, no qual acontecem sons em
diferentes distâncias.
As obras que contam com vários canais independentes de áudio podem
apresentar concepções bastantes diferentes quanto à utilização desses canais. A
situação mais crítica é a da obra que constrói imagens sonoras divididas entre
vários alto-falantes: cada canal traz informações de intensidades e defasagens
temporais ligeiramente diferentes, que só são realmente efetivas em uma
pequena região da sala de projeção. Nesses contextos, a movimentação de sons
se mostra mais efetiva do que sua localização precisa, mesmo que as trajetórias
sofram algum tipo de distorção. A quadrifonia pressupõe, na maioria dos casos,
que o público seja circundado pelas caixas acústicas; a octofonia pode exigir um
círculo com mais pontos em torno ao público ou uma forma de cubo, cuja altura
dependerá das características arquitetônicas e acústicas da sala. Salas
assimétricas, com balcões ou ainda com grande reverberação trazem vários
problemas a apresentações de obras desse tipo, que aumentam
proporcionalmente com o número de canais.
Uma concepção musical que mantém seus diferentes materiais sonoros
(vozes ou estratos) em canais independentes pode proporcionar um maior
controle sobre esses materiais − tanto em volume quanto em localização e
movimentação – durante sua apresentação. As dificuldades surgem quando se
deseja aplicar trajetórias espaciais aos sons de cada um dos canais: a
espacialização de oito canais por oito caixas diferentes, por exemplo, pressupõe o
3.4. A presença de obras ou partes pré-gravadas
135
controle dinâmico de 64 amplificadores de sinal distintos. A tarefa só é realizável
ao vivo por meio de algum tipo de automação, fato que geralmente leva o
compositor a planejar de antemão a espacialização e a movimentação
pretendidas, e a deixar para o próprio espaço do concerto os ajustes mais finos.
As possibilidades técnicas descritas acima nos levam a questionar a real
necessidade de uma mixagem final para obras destinadas a concertos. Algumas
obras – mesmo aquelas cuja concepção original seja a dois canais – ganham
maior flexibilidade de difusão quando seus materiais estão separados em
diferentes canais101. O compositor pode definir o endereçamento – dinâmico − dos
diferentes materiais para diferentes caixas acústicas no próprio local de concerto.
Embora a totalidade das trilhas sonoras para cinema e vídeo, além de boa
parte das trilhas para teatro, possa ser caracterizada como música pré-gravada,
sua recepção nesses contextos é bastante diversa da que acontece em
concertos. Nos concertos, a obra se encontra no centro das atenções, e muitas
vezes carrega a responsabilidade total sobre o desenrolar musical. Se as três
vertentes citadas na seção inicial deste capítulo contaram em seus concertos
inaugurais apenas com obras pré-gravadas, foi a vertente francesa que realmente
se especializou nesse tipo de composição, e que desenvolveu estratégias
específicas de sua difusão pública. (Há também desdobramentos importantes no
Reino Unido, e iniciativas mais isoladas espalhadas por estúdios institucionais e
privados de todo o mundo.) Uma tal experiência − construída coletivamente −
dificilmente é imitável: mais do que um modelo, ela é um exemplo de integração
entre as forças criativas e a construção de seu modo de divulgação, ou, nas
palavras de Savouret, “da relação entre texto e contexto”.102
101 Situação facilmente imaginável com os atuais softwares de mixagem sonora e interfaces de som a várioscanais.102 Savouret [ver nota 18], p. 107.
136
3.5. A presença da performance musical tradicional
Musica su due dimensioni103
(Bruno Maderna)
A presença de músicos tocando instrumentos tradicionais em um contexto
eletroacústico ao vivo pode ser explorada de diferentes maneiras. Três situações
se sobressaem: a ampliação dos recursos naturais dos instrumentos; uma clara
divisão de sonoridades e funções entre o instrumento (ou voz) e a parte
eletroacústica; a criação de contextos ambíguos, nos quais os instrumentos e a
parte eletroacústica compartilham um mesmo repertório sonoro, de natureza
predominantemente não instrumental. É bastante comum que essas situações (ou
melhor dizendo, essas estratégias composicionais) coexistam em uma mesma
obra.
3.5.1. Amplificação sonora
Uma primeira ampliação dos recursos instrumentais é dada por sua
amplificação. Pode-se, assim, não apenas tornar audíveis sons produzidos com
muito pouca energia, mas também valorizar detalhes da produção sonora que se
perdem em sua propagação pelo ar. Por outro lado, a amplificação minimiza as
características multidirecionais de propagação sonora da maioria dos
instrumentos. Nos casos de um pretendido amálgama entre sons instrumentais e
sons pré-gravados, esse fenômeno se demonstra muitas vezes vantajoso.
Na obra Das Atmende Klarsein (1981), de Luigi Nono, para flauta baixo,
coro a quatro vozes, parte pré-gravada e eletrônica ao vivo, a flauta é amplificada
por três microfones, sendo que um deles serve para a captação de sons bem
próximos ao bocal e nariz do instrumentista. A partitura prevê a variação da
distância do flautista em relação ao microfone, cujo som, somado aos dos outros
microfones, é enviado para processamento e espacialização. Suas partituras
posteriores prevêem que a movimentação frente aos microfones (e a variação de
amplitude daí decorrente) controle, além das nuances de sonoridade, outros
parâmetros de processamentos sonoros, sejam eles aplicados ao som do próprio
103 Título de uma obra de Bruno Maderna, de 1952, para flauta, prato e fita magnética − uma das primeiras acombinar partes pré-gravadas com a execução instrumental ao vivo.
3.5. A presença da performance musical tradicional
137
instrumentista ou ao som de outros músicos. Um excerto da partitura de Diario
polacco 2 (1982), para vozes femininas, flauta, violoncelo e eletrônica ao vivo,
mostra as indicações de posicionamento de uma cantora frente ao microfone;
pode-se ainda notar, devido ao termo modula, que essa movimentação está
controlando algum tipo de processamento.
Figura 6: Trecho de Diario polacco, de Nono, com indicações de posicionamento de umacantora frente ao microfone. (Fonte: Haller (1995), vol. 1, p. 69)
Denis Smalley, na obra Clarinet Threads (1985)104, para clarineta e parte
pré-gravada, utiliza uma outra estratégia para a amplificação dos sons de pouca
energia do instrumento. Ele prevê a utilização de quatro microfones, dois deles
posicionados a uma distância razoável do instrumento (distant pair), sendo
responsáveis pela amplificação geral do instrumento. O outro par (close pair) deve
ser posicionado o mais próximo possível das mãos do instrumentista, e serve
para amplificar os sons de baixa intensidade. O controle do nível de captação
desse último par de microfones é realizado na mesa de som, segundo indicações
precisas na partitura. As indicações podem ser vistas na parte inferior da seguinte
104 SMALLEY, Denis. Clarinet Threads, para clarineta e fita magnética (1985). Partitura manuscrita.
3.5. A presença da performance musical tradicional
138
figura. A parte superior é uma representação básica dos sons pré-gravados, e a
parte central traz o que deve ser tocado pela clarineta.
Figura 7: Excerto da página 2 de Clarinet Threads , de Smalley. Note-se as relações entreas sonoridades exigidas da parte instrumental e a microfonação correspondente. (Fonte:partitura manuscrita)
(A exploração do microfone como um elemento expressivo da performance
não é privilégio da música erudita; na verdade, cantores de música popular
passaram a explorar rapidamente seu potencial: “Os vocalistas descobriram como
tratar o microfone como um instrumento de fato, não apenas como um meio
passivo de se capturar sons. Eles inventaram, nesse processo, toda uma série de
novos efeitos e técnicas vocais, até mesmo novos modos de cantar; todos
baseados no simples princípio de que um posicionamento mais próximo do
microfone traz o som para a frente, sugerindo, como disse um escritor acerca do
estilo vocal de Bing Crosby, ‘uma relação íntima e pessoal com os fãs.’”105)
3.5.2. Extensão tímbrica
Outro tipo de ampliação dos recursos instrumentais é a existência de
partes pré-gravadas contendo famílias de sons iguais ou semelhantes aos dos
105 CHANAN, Michael. Repeated Takes: a short history of recording and ist effects on music. London: Verso,1995, p. 128. O escritor mencionado é Simon Frith (cf. p. 186, nota 33).
3.5. A presença da performance musical tradicional
139
instrumentos executados ao vivo. Modificações de gravações realizadas pelo
próprio instrumento ou técnicas de síntese baseada em modelamento físico são
recursos bastante explorados. A seção inicial e diversos momentos posteriores de
Voilements (1987), para saxofone tenor e parte pré-gravada, de Jean-Claude
Risset, explora em sua parte produzida em estúdio sons de saxofone sem
nenhum tipo de processamento, capazes de serem confundidos com os sons do
instrumentista ao vivo. Em Superflute (1971), para flauta e parte pré-gravada, de
Meyer Kupferman,
enquanto o solista ao vivo toca uma flauta normal, a parte da fita consiste em
material pré-gravado e transformado de uma flauta contralto e de um flautim, de
modo que o conjunto representa uma ‘superflauta’, que se estende do registro
mais grave ao mais agudo.106
A obra Impossible Animals (1986)107, de David Jaffe, associa sons de um
coro ao vivo a uma parte pré-gravada contendo vozes sintetizadas. Embora a
obra não busque a imitação do coro pela parte pré-gravada (nem vice-versa), a
constatação de que se trata de sons de uma mesma família é inevitável.
É estabelecido um jogo antifonal entre o conjunto ao vivo e as vozes sintetizadas,
no qual os instrumentos assumem o papel de narradores de uma história abstrata,
enquanto as vozes geradas por computador desempenham o papel de atores,
assumindo vozes improváveis de animais impossíveis, interpretadas em uma
linguagem desconhecida.108
Dialogue de l´ombre double (1985), para clarineta e parte pré-gravada, de
Pierre Boulez, amplia, de maneira diversa, os recursos de um instrumento solista.
Como em Déserts, de Varèse, as partes tocadas ao vivo no centro da sala
(clarinette première) são interpoladas com sua própria “sombra” (clarinette double)
– partes previamente gravadas pelo mesmo instrumentista – espacializada por
intermédio de seis caixas acústicas posicionadas ao redor da sala. A
espacialização tem duas funções:
106 Schwartz e Godfrey [ver nota 26], p. 132.107 A obra foi encomendada pelo Hamilton College Choir, e apresenta outras versões: para quatro vozes(1989), para violino (1989), para oboé (1990) e cinco sopros (1994). Essa última versão foi dedicada aoGrupo de Música Contemporânea da UFMG.108 JAFFE, David. Impossible Animals, para quinteto de sopros e vozes sintetizadas por computador (1994).Partitura manuscrita, contendo notas de programa.
3.5. A presença da performance musical tradicional
140
primeiramente, ela é usada para criar uma atmosfera isolada e etérea que reflete o
espírito da obra e contrasta de maneira violenta com a realidade de uma clarineta
soando sozinha no palco. Segundo, ela serve para analisar o ‘texto’ musical, para
valorizar seus diversos componentes. Os diferentes tipos de escritura presentes
na partitura são articulados através de várias técnicas de espacialização.109
Procedimentos da live-electronics também são bastante utilizados na
exploração de novas sonoridades instrumentais: processamentos diversos
(delays, filtragens, modulação em anel, alterações espectrais, transposição,
reverberação, espacialização, granulação), síntese em tempo real, gravação e
reprodução posterior de momentos da performance, execução e modificação de
amostras pré-gravadas etc. Tais procedimentos, bem como os descritos nos
parágrafos anteriores, podem causar dúvidas sobre a origem dos sons presentes
na performance. Em Solo (1966), para um instrumento melódico com feedback,
de Stockhausen, um solista é acompanhado por seus próprios sons realizados em
um momento anterior. Sua performance é constantemente gravada; porém a
reprodução da gravação sofre um atraso variável entre 6 e 45,6 segundos. A
estrutura (definida em seis versões diferentes) prevê seis seções, cada uma
caracterizada por um tempo de atraso específico e por um número de repetições
desse tempo de atraso. É oferecido ao intérprete um conjunto de materiais a
serem tocados durante a obra, que necessitam de quatro sonoridades diferentes
(normal e diferentes modificações eletroacústicas) e transições entre elas.110
Cardiophonie (1971), para oboé e três gravadores, de Heinz Holliger, utiliza
seções de considerável duração tocadas pelo solista como uma nova voz
presente em trechos posteriores da obra. Os trechos são tocados em retrógrado,
que era o modo mais rápido de se utilizar uma gravação recém-ralizada em fitas
de rolo. Uma peculiaridade da obra é o fato de que seu andamento baseia-se na
própria pulsação cardíaca do instrumentista, captada por um microfone ligado a
seu peito e amplificado juntamente com o som do oboé ao vivo e dos gravadores.
109 BOULEZ, Pierre. Répons. Dialogue de l’ombre double (CD). IRCAM: Deutsche Grammophon, 1998. Textodo encarte, p. 31.110 Essa obra era originalmente executada com loops de fita magnética. Hoje existem versões digitais parasua execução. Ver SLUCHIN, Benny. “A Computer-Assisted Version of Stockhausen’s Solo for a MelodyInstrument with Feedback.” Computer Music Journal, vol. 24, no. 2, 2000, pp. 39-46.
3.5. A presença da performance musical tradicional
141
Um conjunto interessante de obras que exploram a interação entre
diferentes instrumentos e procedimentos da eletrônica ao vivo é dado pela série
Controls, de Thomas Kessler, cuja criação foi iniciada na década de 1970.
Flute Control [1984−88], juntamente com “Piano Control”, “Violin Control”, “Drum
Control” etc., pertence a uma série de estudos solistas envolvendo eletrônica ao
vivo na qual o respectivo instrumento está intimamente associado à aparelhagem
eletrônica (sintetizador, computador). Embora as possibilidades sonoras
resultantes possam de fato soar a nossos ouvidos de maneira muito excitante, o
assunto real dessas obras é a expansão dos modos específicos de articulação do
instrumento. Por essa razão, o instrumentista não toca mais somente seu
instrumento, mas transfere, sem o auxílio de um assistente, sua técnica
instrumental e sua habilidade criativa à aparelhagem eletrônica. Por um lado, isso
o confronta com novas dificuldades − em alguns casos quase impossíveis – no
que diz respeito à técnica instrumental e à concentração; por outro lado, lhe
permite a possibilidade de continuamente dar forma e determinar seu controle
sobre os sons que saem dos alto-falantes.111
3.5.3. A exploração de contrastes
A segunda situação composicional – já mencionada no início desta seção –
aplicada à combinação de uma performance instrumental com meios
eletroacústicos é a exploração de uma clara divisão entre as sonoridades e
funções de cada parte. A divisão pode estar totalmente baseada nas relações
entre valores musicais abstratos ou pode também apresentar implicações
semânticas adicionais. As relações entre as diferentes partes podem ser
genericamente caracterizadas como solo/acompanhamento, complementaridade,
indiferença, domínio, conflito etc. O instrumento solista não precisa ser
necessariamente acompanhado por partes estritamente “musicais”. Em algumas
situações, é criado um contexto dramático (comparável a uma trilha sonora) no
qual o instrumentista atua como personagem principal. É o que acontece na obra
Orfeu 53 (1953), para uma cantora solista e acompanhamento de música
concreta, de Pierre Schaeffer e Pierre Henry.
Situações inversas também são possíveis. Se é difícil imaginar que um
instrumentista sozinho possa assumir o papel de acompanhamento de uma parte
111 KESSLER, Thomas. “Flute Control” (1984-88). Gravação em CD. Computer Music Currents, vol. 6. Wergo(WER 2026-2), 1990. Texto do encarte, pp. 5-6.
3.5. A presença da performance musical tradicional
142
pré-gravada, o mesmo não se aplica a grupos instrumentais maiores. Em
Telegram to the President (1985), para quarteto de cordas e parte pré-gravada, de
David Jaffe, há trechos onde as cordas acompanham um solista imaginário, que
conta com sons sintetizados de cordas pinçadas.
La fabbrica illuminata (1964), para voz e parte pré-gravada, de Luigi Nono,
explora o distanciamento entre o solista e os sons trabalhados em estúdio em
diferentes níveis. A obra foi encomendada para o concerto de abertura do Prix
d’Italie, a ser realizado em Gênova112, e é dedicada aos trabalhadores de uma
siderúrgica daquela cidade. Na fábrica foram feitas gravações de uma série de
sons decorrentes da produção de ferro, além de sons de fala dificilmente
discerníveis, utilizadas na composição da obra. Foram produzidas posteriormente
em estúdio gravações com uma cantora e com um coro, baseadas em um texto
montado a partir de depoimentos de trabalhadores. Emmerson aponta uma série
de opostos dialéticos presentes nessa obra, que não sofrem nenhum processo de
mediação. Após afirmar que “é evidente que a fita magnética carrega as partes
mais desenvolvidas do argumento, e incorpora ela mesma a divisão original
‘homem:máquina’ na qual toda a obra é baseada”113, ele apresenta um quadro
com os seguintes opostos: ao vivo x fita magnética, fala x canto, eletrônico x
concreto, humano x industrial, grupo x indivíduo.
3.5.4. A exploração de situações ambíguas
Falta ainda analisar a exploração de relações sonoras entre instrumentos e
partes pré-gravadas, nas quais, segundo Smalley, “o instrumento, mesmo
permanecendo no centro das atenções, é colocado em contextos onde novas −
ou ambíguas − interpretações indicativas são encorajadas”114. Nesse artigo, o
autor usa a expressão campos indicativos, e
o termo ‘indicativo’ significa que a manifestação musical de um campo se refere a
− ou aponta para − experiências semelhantes existentes no mundo não sonoro. O
112 A obra teve sua estréia em Gênova cancelada, devido ao conteúdo do texto utilizado, e foi estreiada emVeneza, no mesmo ano. Para uma pequena história e análise da obra, ver RIEDE, Bernd. Luigi NonosKompositionen mit Tonband. München: Emil Katzbichler, 1986, pp. 30-47.113 Emmerson, p. 16.114 SMALLEY, Denis (1992). “The Listening Imagination: Listening in the Electroacoustic Era”. In: PAYNTER,John; HOWELL, Tim; ORTON, Richard e SEYMOUR, Peter (eds.). Companion to Contemporary MusicalThought (2 volumes). London; New York: Routledge, 1992, vol.1, p. 546.
3.5. A presença da performance musical tradicional
143
autor enumera nove campos indicativos: gesto, pronúncia, comportamento,
energia, movimento, objeto/substância, meio-ambiente, visão e espaço.115
Smalley prescreve, além de ”uma atitude muito refinada quanto à
amplificação dos instrumentos” − já mencionada − , uma preparação do intérprete
para a “obtenção de um controle cada vez mais preciso da articulação sonora”116
e uma escolha adequada dos instrumentos. “A maioria dos instrumentos de sopro
e arcos são relativamente adaptáveis. Outros instrumentos, tais como o piano e
instrumentos de percussão isolados, não se adaptam a essa flexibilidade devido
ao fato de que seus tipos morfológicos são restritos aos modelos de ataque (-
ressonância).”117 Apesar dessas observações, o próprio Smalley compôs uma
obra para piano e parte pré-gravada, Piano Nets (1990−91).
Em Kontakte (1960), para um pianista, um percussionista e parte pré-
gravada quadrifônica118, Stockhausen baseou-se em seis categorias de sons
instrumentais:
sons de metal – ruídos de metal, sons de pele – ruídos de pele, sons de madeira –
ruídos de madeira; o piano deve ligar e subdividir essas categorias, ou dar sinais
para a execução conjunta. As categorias sonoras eletrônicas geram parentescos e
transformações entre as categorias instrumentais, amalgamam-se a elas e delas
se distanciam em espaços sonoros até então desconhecidos.119
As segunda e terceira versões de outra obra de Stockhausen, Hymnen
(1966−67), representam uma situação especial. A obra foi composta
primeiramente como obra puramente pré-gravada a quatro canais (elektronische
und konkrete Musik), durando 114 minutos. A segunda versão adiciona alguns
instrumentos e eletrônica ao vivo, com duração de cerca de 125 minutos. A
terceira é instrumentada para uma orquestra (sem percussão), e dura
aproximadamente 40 minutos, devendo a orquestra ser amplificada. Nesse caso,
busca-se uma expansão sonora da parte pré-gravada através de uma orquestra.
“Esta expansão sonora deve ser compreendida como um comentário à fita
115 Smalley, p. 521. O autor não explica porque considera pronúncia (utterance) como um campo pertencenteao mundo não sonoro.116 Smalley, p. 546.117 Smalley, p. 546.118 O pianista também deve tocar alguns instrumentos de percussão. A obra também existe sobre a formapuramente eletrônica, ou seja, independente das partes a serem executadas ao vivo.119 STOCKHAUSEN, Karlheinz. “Kontakte für elektronische Klänge, Klavier und Schlagzeug (1960)”. Textezur eigenen Werken, Texte zur Kunst Anderer, Aktuelles - Band 2. Köln: DuMont, 1964, p. 104.
3.5. A presença da performance musical tradicional
144
magnética original, que (em sentido literal) explica, amplifica, sublinha ou repete
‘palavras e pensamentos’”120.
Compositores da vertente espectral também exploraram situações
ambíguas entre conjuntos instrumentais e partes eletroacústicas. Tristan Murail,
nas notas de programa de sua obra Désintégrations (1983), para 17 instrumentos
e parte pré-gravada, diz que "todo o material da peça (tanto a fita quanto a
partitura da orquestra), suas microformas, seus sistemas de evolução têm por
origem as análises, decomposições ou reconstruções artificiais de espectros
harmônicos ou inarmônicos."121 O discurso musical busca a "ambigüidade entre
essas duas fontes, sendo seu objetivo final apagar toda a diferença entre mundos
sonoros a priori " (grifo do autor). A obra L'Esprit des dunes (1993−94), para grupo
de câmara e eletrônica ao vivo, explora novas possibilidades de manipulação
espectral, ligadas às variações dinâmicas de cada parcial dos sons
"fundamentais" da obra e a novas técnicas de hibridação sonora.
A voz humana mostra-se especialmente adequada para a exploração de
situações ambíguas ao vivo. Uma simples anamorfose espacial (desfazendo a
conexão entre o corpo que emite a voz e o resultado sonoro percebido) já é capaz
de criar fortes conotações, metáforas de um ego fragmentado. Por outro lado, a
exploração de conexões e ambigüidades entre seus diferentes elementos
expressivos − semânticos, sonoros e "musicais" − pode ser bastante ampliada
pelos recursos eletroacústicos. Vale lembrar aqui uma frase de Rudolf Arnheim,
escrita em 1933 e já citada no capítulo anterior; a tarefa confiada ao rádio pode
muito bem ser compartilhada pelos concertos eletroacústicos: “A redescoberta do
som musical em sons quaisquer e na fala, a fusão de música, sons e fala em um
único material sonoro é uma das maiores tarefas artísticas do rádio.”122
Merecem ainda menção alguns casos em que a presença de sons gerados
por um instrumento ao vivo não é acompanhada de sua performance
instrumental. Em obras concebidas para um piano acústico controlado por Midi,
por exemplo, o instrumento toca por si só no palco. Apesar da óbvia automação
120 GIESELER, Walter; LOMBARDI, Luca e WEYER, Rolf-Dieter. Instrumentation in der Musik des 20.Jahrhunderts. Celle: Moeck, 1985, p. 305.121 Informações disponibilizadas pela mediateque do Ircam: www.mediatheque.ircam.fr/122 Arnheim [ver nota 55], p. 24.
3.5. A presença da performance musical tradicional
145
envolvida, a ser tratada na seção seguinte, o fato suscita imediatamente a idéia
de uma performance (ou de sua falta). O mesmo se aplica a outros tipos de
automação voltados para geradores acústicos de sons.
Um caso um pouco diferente é dado por instrumentos de percussão (ou
outros objetos ocos) que podem produzir sons através de alto-falantes colocados
em seu interior. Com uma mise en scène adequada, eles também parecem tocar
sozinhos, podendo assumir diferentes vozes. Desse modo, o alto-falante passa a
ser o “intérprete” que fornece a energia necessária para a excitação acústica
desses instrumentos / objetos.
3.5.5. Algumas questões de “escritura”
A concepção (e posterior notação, quando necessária) de partes
instrumentais em contextos eletroacústicos apresenta diferenças em relação a
uma concepção puramente instrumental. Além das tradicionais preocupações
com o reesboço (Nachentwurf) e a co-criação (Mitgestaltung) a serem realizados
pelos intérpretes, já discutidas no capítulo 1, devem ser colocadas algumas
questões:
1) o som instrumental será ou não amplificado / processado? Qual a influência do
músico nesse processo?
2) o instrumentista deve tocar outras coisas além do seu próprio instrumento? Ou
deve tocar algum tipo de controlador modelado em seu instrumento?
Pode ser exigido do instrumentista, além de sua movimentação em relação
a microfones, o uso de pedais, controladores diversos, ou mesmo a intervenção
direta em processos de síntese, processamento de sons ou idéias musicais.
Algumas interfaces digitais baseadas em instrumentos tradicionais
(teclados, guitarra, instrumentos de sopro, percussão) podem também ser
exploradas por uma escrita do tipo tablatura, onde as notação tradicional não têm
relação direta com o resultado sonoro. (O exemplo clássico é o piano preparado
de John Cage.) A obra Psiu! (1989), de Tim Rescala, para teclado Midi e sampler,
conta com uma partitura (tablatura) tradicional; no entanto, o resultado sonoro
sugere uma ação teatral, com ruídos de passos, portas, interjeições etc.
3.5. A presença da performance musical tradicional
146
3) qual é o grau de flexibilidade temporal da parte instrumental? Que tipo de
sincronismo é esperado entre a execução ao vivo e as partes pré-gravadas?
4) qual é o tipo e o grau de determinação dos materiais musicais presentes na
parte instrumental? Ela está baseada em valores tradicionais (notas) ou na
exploração de novas sonoridades do instrumento? A escrita será totalmente
determinista, ou se espera algum grau de improvisação?
5) quais são as influências da performance ao vivo na geração de partes
eletroacústicas independentes? (este assunto será tratado mais a fundo na
próxima seção.)
6) qual o número de músicos envolvidos? Solistas, câmara, grandes grupos?
É claro que tais questões só fazem realmente sentido ao se levar em conta
a concepção musical e o tipo de instrumental eletroacústico a ser utilizado. Pois
se uma parte pré-gravada sempre exige algum tipo de sincronização, o mesmo
não se dá com sistemas interativos. Do mesmo modo, é mais comum que a parte
instrumental simultânea à parte pré-gravada seja escrita em detalhes, enquanto
situações interativas exijam outros tipos de habilidade – além da leitura e tempo
preciso – dos intérpretes. Ainda é preciso notar que, em inúmeras situações, são
as idiossincrasias de determinados intérpretes (não raro o próprio compositor) o
verdadeiro estímulo para a composição de obras eletroacústicas.
3.5 A presença da performance musical tradicional
147
3.5.6. Sincronização
Um problema enfrentado pela quase totalidade dos músicos que devem
tocar obras que contam com partes pré-gravadas é a sincronização. Como o
tempo musical nessas partes é totalmente pré-fixado, a única alternativa é tentar
acompanhá-las o mais fielmente possível. Muitas vezes é necessário o uso de um
cronômetro, e em certas situações o uso de clicks é indispensável. Uma
concepção rítmica muito complexa pode ainda exigir clicks diferenciados para
cada um dos músicos.
A primeira página de Kontakte123, de Stockhausen, exemplifica bem as
dificuldades típicas de uma sincronização com uma parte pré-gravada. A parte
superior representa esquematicamente os sons da fita magnética, a parte central
é dedicada ao percussionista e a inferior, ao pianista. São ali exigidos alguns
ataques sincronizados entre as partes instrumentais e a música eletrônica; porém
é muito difícil, durante a execução, determinar o momento exato dos ataques
(principalmente se eles não contam com nenhum tipo de preparação). O
percussionista James Holland, ao comentar as dificuldades de execução da obra,
diz que “o percussionista deve manter um olho na parte da fita magnética, outro
na linha do piano, outro no pianista e outro em sua própria parte de percussão!”124
A execução com um cronômetro, que deve correr do início ao fim da obra (que
dura mais de 34 minutos), também não é muito confortável, pois, na maioria das
vezes, uma divisão temporal em segundos não se aplica ao material musical a ser
tocado. (As possibilidades técnicas atuais permitem que se crie, sem muitas
dificuldades, um novo canal de áudio contendo clicks, contagens e outras dicas
de entrada para os músicos. Porém é mais uma vez lícito se perguntar se a obra
seria exatamente a mesma caso essas possibilidades técnicas estivessem
disponíveis no momento de sua criação.)
123 STOCKHAUSEN, Karlheinz. Kontakte, para sons eletrônicos, piano e percussão (1960). Partitura deexecução (UE 14246 LW). London: Universal Edition, 1966.124 HOLLAND, James. Percussion. London: Kahn & Averill, 1992, p.251. Primeira publicação em 1978.
3.5. A presença da performance musical tradicional
148
Figura 8: Página inicial de Kontakte, de Stockhausen.
3.5. A presença da performance musical tradicional
149
A obra Voilements125, de Risset, já mencionada anteriormente devido à
similaridade dos sons pré-gravados e ao vivo, também traz indicações
cronométricas em sua partitura. As indicações trazem um grande auxílio aos
ensaios e execuções, ao determinar momentos de se zerar o cronômetro e
reiniciar a contagem. O CD que acompanha a partitura traz algumas vantagens
sobre a fita magnética que continha originalmente a parte pré-gravada: maior
fidelidade quanto à sonoridade e à afinação, maior facilidade de cópia e
resistência ao uso, indexação de faixas sem interrupção do fluxo sonoro.
Soluções mais recentes fazem uso de um um software capaz de reproduzir
arquivos sonoros e pedais para o controle dessa reprodução. Assim, até mesmo o
volume sonoro dessas partes pode ser controlado pelos instrumentistas, com o
pé. A solução é bastante adequada para a execução de obras que contam com
pausas de duração considerável na parte pré-gravada, já que, após a execução
desses trechos a cappella, basta um simples gesto para trazer os sons pré-
gravados de volta à cena.
Figura 9: Trecho da partitura de Voilements, de Risset, p. 4.
125 RISSET, Jean-Claude. Voilements, para saxofone tenor e fita magnética (1987). Partitura (com CDincluso). Paris: Salabert, s.d.
3.5. A presença da performance musical tradicional
150
Nem todos os trechos musicais executados por músicos necessitam de
uma sincronização precisa com a parte pré-gravada. São assim oferecidas
“janelas” com um tempo mais livre. O trecho abaixo, da obra Tarr126, para quatro
trompetes e computador, de Dexter Morrill, mostra a alternância de momentos
sincronizados e livres, nos quais ambos os estratos sonoros estão ativos.
Figura 10: Trecho de Tarr, de Morrill, p. 4.
126 MORRILL, Dexter. Tarr, para quatro trompetes e computador (1982). Partitura. Hamilton: Chenango ValleyMusic Press, 1982.
3.5. A presença da performance musical tradicional
151
A obra Narcissus, de Musgrave, exige um tipo diferente de sincronismo. Ao
invés de acompanhar uma parte pré-gravada, o músico deve tocar a tempo com
os sons que ele acabou de executar, em uma espécie de duo com seu passado
imediato. Nessa obra, o músico comanda, além de seu instrumento, três pedais
(bypass, hold/release, volume), e realiza alguns ajustes relativos ao delay durante
a execução [ver nota 54 e figura 1]. No trecho exemplificado, o músico deve tocar
em um tempo determinado pelo delay escolhido, já que a partitura prevê uma
resultante harmônica e rítmica precisa decorrente da superposição da parte ao
vivo com seu eco. O tamanho do delay deve ser de uma colcheia. Note-se na
quarta linha que, quando é apertado o pedal hold, um acorde diminuto passa a
ser repetido até que venha seu release. (O tempo metronômico indicado deveria
ser um pouco mais rápido, pois a indicação de 512 x 0.5 ms para o delay implica
um atraso de 512 milissegundos para cada semínima. Isto corresponderia a uma
pulsação um pouco superior a 117 p.p.m.)
Figura 11: Trecho de Narcissus, de Musgrave, p. 10.
3.5. A presença da performance musical tradicional
152
Encontramos ainda outras alternativas de sincronismo nas quais os
músicos retomam o comando do tempo musical. Com o uso de algoritmos
voltados para a interpretação de ações ou do próprio conteúdo musical do
instrumentista ao vivo (score-following), um programa se torna capaz de seguir
uma performance humana e reagir de acordo com ela. Em geral, as
implementações desse tipo de valem-se de uma parte pré-gravada representada
por valores Midi (ver observações da nota 99). No entanto, as possibilidades
abertas pela capacidade interpretativa das máquinas permitem vislumbrar
situações bem mais interessantes do que o controle ao vivo de uma parte pré-
gravada, assunto da seção 3.6.2.
3.6. A presença de novos instrumentos / controladores
Um piano ou um violino é tão inorgânico quanto um sintetizador ou umsampler.127
(Moby)
Um grande número de novos instrumentos baseados em tecnologias
eletroeletrônico-digitais está presente nas apresentações eletroacústicas. Ao lado
de equipamentos normalmente associados à técnica de áudio, encontram-se
também instrumentos, controladores, sensores, além de máquinas e softwares
associados à geração e manipulação de informações digitais.
A abordagem desses novos instrumentos / controladores requer uma
subdivisão ao mesmo tempo histórica e conceitual: live-electronics e sistemas
interativos. Essa divisão apresenta uma cronologia clara – a live-electronics
127 Moby (“The DJ Speaks”), citado por Taylor [ver nota 7], p. 201.
3.6. A presença de novos instrumentos / controladores
153
desenvolvendo-se nos anos 1960 e 70128, os sistemas interativos a partir da
década de 1980129 − e baseia-se nas mudanças trazidas pela informática ao
conceito genérico de máquinas: “passa-se de um mecanismo de transformação
de energia às técnicas de representação codificada de informação e seu
tratamento automático pelo computador.”130 Ou seja, há uma crescente abstração
das funções do gesto instrumental, que vai do manejo de potenciômetros
responsáveis pela amplificação sonora à geração e manipulação de bits – não
raro feita também com potenciômetros −, passando pelas diferentes
possibilidades do controle por voltagem.
Como no caso dos alto-falantes (que desempenham a dupla função de
instrumentos e “buracos”), a presença dos novos instrumentos também revela
ambigüidades funcionais. A mais evidente é dada pelo uso de equipamentos
sonoros tais como microfones, mesas de som e gravadores, que ao mesmo
tempo em que viabilizam tecnicamente a expressão de idéias musicais (função
reprodutiva), podem também estar intrinsecamente ligados ao discurso musical
proposto (função produtiva). Essas observações aplicam-se tanto ao palco quanto
ao controle de som, onde ocorrem ações nem sempre visíveis.
De maneira geral, instrumentos eletroeletrônicos projetados para serem
tocados – e para soar − de modo similar a instrumentos acústicos tradicionais não
trazem contribuições significativas para a renovação das idéias e do discurso
musical de obras eletroacústicas. Dentre eles encontram-se os diferentes órgãos
e teclados eletrônicos, a guitarra elétrica, a bateria eletrônica. Em outras palavras:
apesar da novidade de seu timbre, eles se encaixam mais na categoria de
performance tradicional do que na de novos instrumentos / controladores. Mesmo
alguns instrumentos não convencionais criados na primeira metade do século XX
e ainda em uso – como o theremin ou as ondas martenot – tem uma parcela
importante de sua atuação voltada para concertos tradicionais. De todo modo,
128 Há, obviamente, experiências precursoras, como as de John Cage (tratadas na sub-seção 3.6.1.b), e asde Schaeffer (tratadas na sub-seção 3.6.1.a).129 Não obstante o fato de que muitos dos procedimentos da live-electronics sejam adaptáveis a processosdigitais e possam também contar com algum tipo de interação.130 DUFOURT, Hugues. “Prolégomènes à la simulation du geste instrumental”. In: GENEVOIS, Hugues eVIVO, Raphaël de (eds.). Les nouveaux gestes de la musique. Marseille: Parenthèses, 1999, p. 15.
3.6. A presença de novos instrumentos / controladores
154
não se pode negar o potencial expressivo “eletroacústico” que determinadas
misturas desses instrumentos podem apresentar.
Com a representação simbólica trazida pelo protocolo Midi, os instrumentos
baseados em layouts tradicionais passam a ser capazes de transmitir informações
musicais (notas, intensidade de ataque, algumas grandezas contínuas etc.) a
outras máquinas ou programas, integrando-se assim a um contexto capaz de
interpretar essas informações e de reagir interativamente. Mais recentemente, as
possibilidades de extração de informações musicais do próprio sinal de áudio
(alturas, ataques, envelope dinâmico, características espectrais etc.) transformam
qualquer instrumento – levando-se em conta algumas limitações específicas − em
uma fonte potencial de símbolos musicais digitalmente representados.
Por outro lado, a utilização de processamento sonoro ao vivo merece ser
analisada sob os pontos de vista das funções de suporte técnico e/ou elemento
criativo, pois mesmo quando aplicados de maneira uniforme e contínua às fontes
sonoras, sua presença pode se justificar tanto por uma necessidade do discurso
musical quanto por decisões de “pós-produção”.
No âmbito da live-electronics, a exploração de transformações sonoras ao
vivo por meio de filtros, defasagens temporais e modulações diversas ganhou
novas possibilidades com a introdução da tecnologia de osciladores controlados
por voltagem. O design específico de alguns sintetizadores analógicos, com um
alto grau de liberdade de programação entre seus diferentes módulos (que
incluíam entradas de áudio), favoreceu bastante a exploração de sua
multifuncionalidade em situações ao vivo.
A presença da geração e do processamento de informações digitais em um
concerto é também essencialmente ambígua. Isto não se deve apenas à
generalidade funcional que caracteriza um computador (ou microprocessadores
em geral). Nesses casos, o rompimento total da cadeia de causa-efeito sonoro –
representado pela total independência entre os gestos dos músicos e a tipologia
sonora resultante, por uma possível defasagem temporal e em alguns casos por
processos automatizados – é um elemento fundamental da concepção e da
recepção musicais.
155
3.6.1. Live-electronics
A sistematização proposta nesta tese coloca sob a designação de live-
electronics (ou eletrônica ao vivo) a utilização de instrumentos / aparelhos
eletrônicos – em sua maioria analógicos − tanto no palco quanto em demais locais
das salas de concerto. Assim, a performance de uma obra acusmática será
tratada como um caso especial de aplicação da live-electronics, cujas situações
mais comuns contam com algum tipo de performance no palco. A grande
diversidade desses instrumentos / aparelhos é espelhada em suas aplicações:
seu uso pode ser essencialmente ambíguo (como no caso de equipamentos de
áudio, que viabilizam tecnicamente a execução da obra e ao mesmo tempo são
explorados de modo criativo); eles podem exigir novos modos de execução
musical; podem ainda atuar na geração de novos sons ou no processamento de
sons de origem acústica. A automação e a digitalização desses processos trazem
novas possibilidades (e preocupações) para sua aplicação ao vivo.
a) o controle da difusão sonora
A apresentação de gravações sonoras em ambientes públicos sempre
causou uma necessidade de performance, mesmo que esta estivesse
simplesmente associada ao nível sonoro global. Meu primeiro exemplo de
controle sonoro ao vivo vem de uma sessão de cinema, ocorrida no Entreguerras:
Quando [Dziga] Vertov compareceu à apresentação de seu primeiro filme sonoro,
Enthusiasm, à Film Society de Londres, em 15 de novembro de 1931, ele insistiu
em controlar a projeção sonora. Durante o ensaio, ele a manteve em um nível
normal, mas durante a performance, acompanhado de um lado pelo diretor de
som do Teatro Tivoli e do outro por um oficial da Sociedade, ele elevou o volume
em pontos culminantes até um nível insuportável. Rogado a desistir, ele se
recusou e terminou a performance lutando pela posse do instrumento de
controle.131
Após o primeiro concerto de música concreta, em 1950, Schaeffer
comentou dois problemas ligados à apresentação de música concreta em uma
sala de concertos.
131 Citado por FISCHER, Lucy. “Enthusiasm: From Kino-Eye to Radio-Eye” (1985). In: Weis e Belton (eds.), p.259.
3.6.1. Live-electronics
156
O primeiro era de ordem puramente técnica. Tratava-se de assegurar a melhor
projeção sonora, com a utilização de nossos aparelhos em função da acústica e
do volume da sala, instalando nossos alto-falantes nos locais mais favoráveis, e
sobretudo realizando uma projeção em relevo.132
O segundo problema era o da intervenção humana no meio das máquinas. Era
necessário dar um pequena ajuda aos potenciômetros, conseguir uma margem de
interpretação, quão reduzida fosse, para facilitar o contato com o público.133
Um procedimento que atacava os dois problemas de uma só vez foi
desenvolvido por Schaeffer, Pierre Henry e Jacques Poullin, em 1951: um projetor
sonoro espacial, quadrifônico, baseado em indução elétrica. “Tendo uma bobina
nas mãos, o operador, de pé no palco, efetuava os gestos em um espaço
materializado por grandes círculos posicionados em forma de cruz. Esses gestos,
atuando sobre o nível dos alto-falantes, produziam um movimento análogo ao do
som no espaço da sala.”134 O sistema foi utilizado em diversas apresentações da
Symphonie pour un homme seul (1950), de Schaeffer e Henry.
John Cage, por razões diversas, também defendeu a necessidade de uma
performance aliada à execução de obras totalmente pré-gravadas em concerto.
“Quando só há uma fita, não é possível cruzar os braços e deixá-los [os sons]
desfilar. É preciso fazer desfilá-los muito, e inclusive atuar sobre o próprio desfile.
Somente a esse preço é que se pode escapar da linearidade.”135 O acusmonium,
descrito na seção 3.3.4., foi concebido por Bayle como um verdadeiro instrumento
de interpretação de obras pré-gravadas. Não, para como no caso de Cage, tornar
os sons irreconhecíveis, mas sim para dar à obra sua verdadeira dimensão, tirá-la
do estágio de maquete. Repito aqui uma citação feita no primeiro capítulo: “O
trabalho realizado − sonhado, identificado, fixado, ‘escrito’ − propõe uma maquete,
experimentada no contexto artificial do estúdio. Resistirá essa obra à prova
exterior?”136
Sistemas automatizados de difusão sonora vêm sendo desenvolvidos por
diversos pesquisadores (ou grupos), proporcionando uma grande complexidade
132 Schaeffer (1952) [ver nota 8], p. 74.133 Schaeffer, p. 74.134 Bayle (1984) [ver nota 65], p. 64.135 CAGE, John. Para los pajaros. Conversaciones com Daniel Charles. Caracas: Monte Avila, 1981, p. 168.Publicado originalmente em francês, em 1968. Tradução de Luis Justo. Grifo do autor.136 Bayle (1975) [ver nota 66], p. 41. Grifo do autor.
3.6.1. Live-electronics
157
de programação da distribuição sonora pelos alto-falantes dispostos em uma sala.
Vale relembrar aqui as observações já feitas anteriormente sobre a real
necessidade de uma mixagem final de obras pré-gravadas a serem apresentadas
em concerto.
b) aparelhos de reprodução e gravação sonoras
A presença − em palcos de concertos eletroacústicos − de aparelhos
normalmente associados à gravação e reprodução sonoras tem como precursoras
diversas obras de John Cage. Já em 1939 ele compôs Imaginary Landscape no.
1, para dois eletrofones de velocidade variável, gravações de sons senoidais de
freqüências distintas, piano e prato. Em 1951, criou Imaginary Landscape no. 4,
para doze aparelhos de rádio, 24 executantes e um regente137; e em 1960,
Cartridge Music. Na obra, “Cage instrui um número não especificado de
intérpretes a tirar sons de uma variedade de objetos com o auxílio de microfones
de contato e cápsulas fonográficas.”138
O uso de receptores de rádio no palco eletroacústico traz conotações
interessantes. Ao invés de se lidar com as rupturas temporais e espaciais
mediadas por alto-falantes, nesses casos ocorre apenas uma ruptura espacial139.
É como se o concerto se abrisse a acontecimentos simultâneos que se passam
além de seus limites. Stockhausen, em Kurzwellen (1968), para seis
instrumentistas, também se vale de quatro receptores de rádio de ondas curtas no
palco. Quatro músicos devem tocar seu próprio instrumento (piano, viola, tantã,
electronium), influenciados pela programação sintonizada em seu receptor
específico. A notação se vale apenas de símbolos gráficos, como sinais de “+”, “=”
e “− “, e indicações de interação. Um quinto músico cuida da microfonação do
tantã (como em Mikrophonie, comentada a seguir) e o sexto é responsável pelo
controle dos filtros e potenciômetros.
A exploração de novas sonoridades instrumentais com o auxílio de
microfones já foi abordada na seção 3.5.1. Um exemplo clássico da
instrumentalização de microfones e filtros é dado por Mikrophonie I (1964)140, para
137 Cage (1968) [ver nota 135], pp. 307, 311.138 Schwartz e Godfrey [ver nota 26], p. 144.139 Embora a noção de rádio ao vivo também apresente suas armadlihas (cf. seção 1.5 do primeiro capítulo).140 STOCKHAUSEN, Karlheinz. Mikrophonie I, para tantã, 2 microfones, 2 filtros e potenciômetros (1964).Partitura (UE 15138). London: Universal Edition, 1974.
3.6.1. Live-electronics
158
tantã, dois microfones, dois filtros e potenciômetros (seis executantes), de
Stockhausen. A obra prevê, de cada lado do tantã, um músico com baquetas (e
outros objetos) e outro com um microfone e ressonadores. No controle de som,
dois músicos operando filtros (ligados a cada um dos microfones) e
potenciômetros de amplificação / espacialização. A partitura prescreve com
detalhes as ações de cada trio de músicos, cuja atuação tem um apelo teatral
inegável (“Stockhausen opère à coeur ouvert...”141). A figura que se segue
reproduz parte da primeira página da obra, na qual pode-se observar as
indicações para a execução de um dos grupos de três músicos. A parte superior,
dividida em três regiões – aguda, média e grave − se refere ao músico que tira
sons do tantã. A parte central contém indicações para o posicionamento do
microfone em relação ao ponto de ataque do tantã (perto, mais distante, bem
distante), da distância do microfone em relação à superfície do instrumento (linha
mais grossa significa maior proximidade) e do tamanho e tipo de movimentação
de ressoadores que devem ser usados em conjunto com o microfone nessa
operação. As duas partes inferiores indicam as curvas de filtragem e nível sonoro
desejado. Exemplificando: no primeiro ataque, o primeiro músico toca um som
médio no tantã, de caráter periódico, observando a forma dinâmica desenhada. O
responsável pelo microfone deve posicioná-lo em uma distância média em
relação ao ponto de ataque, e afastá-lo e reaproximá-lo três vezes. O ressoador
deve ser grande e movimentado rapida e aleatoriamente. O terceiro músico
executa a filtragem e o controle de volume indicados.
141 Schaeffer (1966) [ver nota 83], p. 330.
3.6.1. Live-electronics
159
Figura 12: Trecho da página inicial de Mikrophonie I, de Stockhausen.
3.6.1. Live-electronics
160
A performance envolvendo gravadores de fita de rolo já foi comentada
anteriormente, na discussão das obras Solo, de Stockhausen, e Cardiophonie, de
Holliger. Gordon Mumma, compositor norte-americano, denominou esses
procedimentos envolvendo gravação e reprodução durante a própria execução
musical ao vivo de performed tape142. O desenvolvimento dos samplers –
inicialmente em forma de hardware, mas hoje também em versões soft −
significou o início de uma nova era de exploração de gravações, que se estende
para muito além dos contextos ao vivo aqui abordados. Embora eles também
possam armazenar partes pré-gravadas143, é sua capacidade de responder a
comandos digitais com a reprodução de amostras de sons quaisquer que abre
novas possibilidades para a execução ao vivo. Com os samplers (na essência,
uma espécie de gravador sonoro com características especiais de reprodução)
um instrumentista pode, por exemplo, simular um duo consigo mesmo sem o
auxílio de partes pré-gravadas em estúdio ou gravadas durante a execução das
seções iniciais de uma obra. Ele pode também tocar sons instrumentais por meio
de interfaces quaisquer, ou mesmo utilizar sua técnica instrumental tradicional
para realizar um discurso mimético. Os limites entre reprodução e processamento
sonoro mais uma vez não são claros com a utilização de gravações digitais ao
vivo: basta pensar nos recursos da chamada síntese granular aplicada a amostras
sonoras.
c) o controle da síntese e processamento de sons
Boa parte da performance musical ligada à live-electronics faz uso de
algum tipo de processamento ou síntese sonora. Não é raro que tais funções
apareçam totalmente imbricadas, como no caso de um controle eletrônico sobre
um som captado por microfone, ou vice-versa.
No final da década de 1960, os grupos musicais [praticantes de live-electronics]
usavam, via de regra, aparelhos que mudavam características espectrais
(filtragem, modulação em anel, flanging e phasing), posicionamento espacial
(panning) e geradores de envelopes sonoros, bem como sistemas de eco e atraso
(baseados nessa época em fita magnética), que tornaram possível a superposição
142 Gordon Mumma (1975), apud Supper [ver nota 13], p. 1751. Ao contrário dos receptores radiofônicos,esse tipo de gravação lida apenas com a ruptura temporal dos eventos sonoros, já que elas são feitas nomesmo local de sua reprodução. Um outro tipo de performance musical envolvendo gravações de música éclaramente exemplificada pela atuação dos atuais DJs.143 Ou seja, partes que já apresentam alguma elaboração composicional anterior (ver seção 3.4).
3.6.1. Live-electronics
161
e repetição de material. Muitos desses aparelhos tornaram-se mais facilmente
disponíveis após a introdução do controle por voltagem nos meados dos anos
1960.144
Um dos processamentos mais usados nos anos 1960 foi a modulação em
anel (ring modulation). Seu funcionamento é simples: através da multiplicação de
dois sons presentes em sua entrada, a modulação produz, na saída, as somas e
as diferenças das freqüências presentes em cada um dos sons. Em geral, o
próprio aparelho (ou sua simulação digital) produz um som senoidal – cuja
freqüência pode ser variada – que é multiplicado por um sinal de áudio oriundo de
um microfone. Assim, cada harmônico do som instrumental (ou vocal) é
substituído pela soma e subtração de sua própria freqüência com a freqüência do
modulador. Desse modo, podem-se “aumentar as possibilidades de variações
sonoras de instrumentos mecânicos”145 com considerável previsibilidade.
Alguns modelos de sintetizadores analógicos controlados por voltagem
eram (são) capazes de fornecer as funções acima descritas, dando uma larga
margem à sua programação. As associações entre diferentes sinais (de
geradores internos, de microfones, de pedais), nas quais cada configuração
definia funções e resultantes sonoras distintas, podiam ser programadas através
da inserção de pinos em uma matriz retangular146. Esses aparelhos –
multifuncionais e de uso flexível − também são responsáveis por criar situações
ambíguas em uma performance musical, já que ações mínimas do intérprete
podem causar uma grande mudança de sonoridade – por exemplo, um sinal de
microfone associado a uma modulação em anel passa ser controlado, no
momento seguinte, por um gerador de envelopes.
Teclados, pedais de controle, joysticks e seqüenciadores analógicos
podem servir como interface de controle desses sintetizadores, ampliando as
possibilidades de sua performance ao vivo. No entanto, embora bastante flexíveis,
esses aparelhos apresentavam uma deficiência: não tinham a capacidade de
144 EMMERSON, Simon e SMALLEY, Denis. “Electro-acoustic music” (2001). In SADIE, Stanley (ed.). TheNew Grove Dictionary of Music and Musicians (second edition). 29 volumes. London: Macmilan, 2001, vol. 8,p. 61.145 Ruschkovski [ver nota 25], p. 172.146 Outros modelos de sintetizadores eram mais adaptados à execução instrumental por meio de um teclado(do tipo piano), e as possibilidades de processamento de sinais externos de áudio eram diminuídas oumesmo eliminadas.
3.6.1. Live-electronics
162
armazenar configurações específicas, nem de trocar automaticamente de
configurações. Antes do uso de equipamentos digitais, a presença de
sintetizadores com memória (presets) era rara e ligada a uma menor flexibilidade
de programação147. Piano Control (1974)148, de Thomas Kessler, prevê que o
pianista, além de tocar seu próprio instrumento, controle dois pedais (um de
volume, outro de controle) e efetue as mudanças de programação de um
sintetizador analógico, rodando botões, inserindo e retirando pinos, acionando um
joystick.
Figura 13: Instrumentos e equipamentos necessários para a performance de PianoControl, de Kessler, p. 5. (1) microfone de contato; (2) pré-amplificador do microfone; (3)sintetizador A ou AKS; (4) pedal de controle por voltagem; (5) pedal de volume.
O excerto a seguir mostra a dupla exigência interpretativa feita ao pianista:
ele deve tocar, ao mesmo tempo, as notas do pentagrama, tocar um pedal de
controle (C-Ped), inserir (flecha para baixo, círculo preenchido) e retirar (círculo
vazio) dois pinos (I3 e I5), mudar a posição do joystick (símbolo redondo com uma
haste). No final do sistema há ainda indicações para uma nova programação do
sintetizador. O pedal de controle ajusta a afinação do oscilador que faz uma
modulação em anel com o som captado pelo microfone. O joystick comuta entre
duas faixas de atuação desse pedal. O pinos I3 e I5 põem em atividade,
alternadamente, um oscilador de baixa freqüência e uma onda quadrada com
147 Sistemas híbridos – grandes computadores digitais comandando sintetizadores analógicos – eramcapazes de contornar essas limitações. Um exemplo bastante conhecido é o sistema GROOVE,desenvolvido por Max Matheus e Richard Moore em 1969.148 KESSLER, Thomas. Piano Control (1974). Partitura. Berlin: Bote & Bock, 1979.
3.6.1. Live-electronics
163
largura de pulso variável, que nesses momentos passam a ser utilizados na
modulação em anel – no lugar do pedal de controle.
Figura 14: Trecho de Piano Control, de Kessler, p. 16.
d) gestos, automação, digitalização
A fase analógica da live-electronics apresenta um grande apelo teatral, ao
colocar no palco (ou mesmo fora dele) a execução de aparelhos que não são
exatamente instrumentos musicais. A movimentação de microfones, faders,
botões, cabos, discos, gravadores, fitas, bobinas etc. é, na maioria dos casos,
bastante visível, embora dificilmente possa ser julgada segundo padrões
aplicáveis à produção sonora ou à execução musical149. Somente a integração
dos gestos a contextos musicais específicos é capaz de atenuar ou mesmo
amplificar seu potencial dramático. Uma atuação como a exigida pela obra Music
for Solo Performer (1965), de Alvin Lucier, distancia-se enormemente do que se
espera de um solista. Nessa obra, ondas cerebrais (alfa) são captadas – por
eletrodos colocados na cabeça do músico −, filtradas, amplificadas e difundidas
por alto-falantes posicionados junto a instrumentos de percussão, que adicionam
diferentes ressonâncias.150
Além desse apelo dramático, os gestos presentes na live-electronics
contam com diferentes graus de ambigüidade. Alguns gestos são relacionados a
alguma regulagem prévia dos aparelhos, e não geram ou transformam
149 Embora a atuação de Bayle durante uma projeção sonora seja comparada por Justice Olsson à de ummúsico tradicional, cuja “decisão leva em conta não somente a ‘frase’ que ele toca, mas também oinstrumento e o entorno acústico”. OLSSON, Justice. “L’espace, la chair, la pluie” (1991). In: Dhomont (org.),p. 100.150 Ver Schwartz e Godfrey [ver nota 26], pp. 302-305.
3.6.1. Live-electronics
164
propriamente os sons. Esses gestos também existem na música instrumental –
tais como a escolha de registros no órgão, a colocação de surdinas, a troca de
baquetas −, porém seu resultado é bem mais previsível do que no caso anterior.
Grande parte dos gestos aplicados a equipamentos analógicos tem um efeito
sonoro imediato; assim, embora a transmissão energética direta151 não se efetue,
acontece algo análogo às situações do tipo causa-efeito. O que pode ser bastante
acentuada é a desproporção entre esforço e resultado sonoro, que, por sua vez,
pode contribuir para uma atuação mais teatral.
Não é raro encontrar procedimentos da live-electronics realizados e
controlados sem a intervenção humana. A automação (ou seqüenciamento de
informações) pode ser integrada ao contexto musical de diversos modos: ser
parte intrínseca da concepção da obra (como no caso do Poème électronique, de
Varèse, tratado na seção 3.3.4.), executar ações que excedem a capacidade
humana de atuação ao vivo (realizar seqüências muito rápidas, controlar um
grande número de faders ao mesmo tempo), ou mesmo se relacionar com uma
performance instrumental concomitante. É o caso das electronic ghost scores, de
Morton Subotnick: essas ‘partituras’ são instruções (gravadas em fita
magnética152) para processadores sonoros controlados por voltagem que devem
atuar sobre as partes instrumentais ao vivo. Também aparecem aqui questões de
sincronismo similares às de se tocar com uma parte pré-gravada, só que nesse
caso a fita é totalmente silenciosa.
A digitalização crescente dos procedimentos da live-electronics – fato que
também proporcionou o aumento das possibilidades de transformação sonora –
contribuiu para a diminuição do apelo teatral até então bastante evidente. Uma
das vertentes composicionais daí decorrentes busca a integração entre a
execução instrumental e suas transformações sonoras, sem, no entanto, fazer
grande uso de processos interativos ou da estruturação algorítmica ao vivo.
Desse modo, as atenções se voltam novamente para os instrumentistas e seus
instrumentos tradicionais, inseridos, no entanto, em contextos sonoros bastante
ampliados pela eletrônica.
151 Ver capítulo 1, seção 1.5, e também CADOZ, Claude. “Musique, geste, technologie”. In: Genevois e Vivo(eds.), pp. 47-92.152 Mais recentemente, armazenadas em uma E-PROM.
3.6.1. Live-electronics
165
Hans Peter Haller (diretor do estúdio experimental da Fundação Heinrich
Strobel, da Südwestfunk Freiburg, Alemanha) dá a essas novas possibilidades
abertas à música instrumental o nome genérico de elektronische Klangumformung
(transformação sonora eletrônica). Aqui, todas as transformações devem
acontecer em tempo real, e o sistema deve propiciar aos operadores de som uma
grande flexibilidade – comparável a de um intérprete − no que se refere ao
controle manual de suas funções durante a performance (e ensaios). Haller divide
as funções musicais disponíveis em três categorias: 1) transformação sonora –
transposição de freqüências (ring modulation, harmonizer, vocoder); 2) seleção e
análise sonora (diferentes tipos de filtragem); 3) controle sonoro ao vivo da
dinâmica, timbre, localização, movimentação, atraso temporal de sinais acústicos
e de suas interações musicais.153 A interação aqui mencionada se refere ao
controle das transformações do som de um músico por meio de sua própria
execução ou da execução de um outro músico. Por exemplo: o envelope dinâmico
de um músico pode alterar a amplificação ou o tempo de atraso do som de outro
músico; um músico pode controlar a velocidade de movimentação sonora através
das variações do sopro em um microfone etc.
As diferentes funções da eletrônica ao vivo podem estar divididas entre
diferentes máquinas e programas − como no caso de Haller, acostumado a
grandes produções −, ou também estarem concentradas em um único ambiente
de programação, tal como Max−Msp. Aqui, em um mesmo patch (assim é
chamado um programa nessa linguagem) podem ser encontrados objetos
dedicados ao controle de entrada de som, à difusão sonora, à reprodução e
manipulação de sons gravados, ao processamento e à síntese sonora, que
podem funcionar de forma manual ou automática.
Esse tipo de utilização dos recursos digitais – no caso, sua integração com
uma prática composicional e interpretativa do tipo tradicional − é caracterizada por
Richard Moore como tradicionalista154. Também tradicionalista é o uso das
possibilidades abertas pelo protocolo Midi para a criação de obras musicais
153 Haller [ver nota 71], volume 1, pp. 25-26.154 Os tradicionalistas se caracterizam por seu “desejo fundamental de absorver novas tecnologias narealização de objetivos artísticos tradicionais”. MOORE, F. Richard. “A Technological Approach to Music”. In:Paynter et al. (eds.), vol. 1, p. 333.
3.6.1. Live-electronics
166
baseadas em estilos musicais já exaustivamente explorados. O grupo oposto, o
revisionista, é caracterizado “por seu desejo fundamental de redefinir os objetivos
artísticos em termos das novas possibilidades abertas pelo desenvolvimento
tecnológico”. No campo musical, é desse grupo155 que surgem as primeiras
iniciativas voltadas para a criação de sistemas musicais essencialmente
interativos, que tiveram sua origem com o surgimento do protocolo Midi, de 1983
(cf seção 1.2 do primeiro capítulo). Esses sistemas, analisados a seguir, trazem
de volta à cena não só a teatralidade de novos controladores e sensores, como
também uma quebra total das cadeias de causa-efeito sonoros, que passam
agora a ser apenas uma opção a ser simulada. Isso vale tanto para o gesto
instrumental (feito em algum controlador com algum tipo de interface musical
tradicional), quanto para qualquer outro tipo de movimentação humana.
155 Embora o escopo desta tese coloque o grupo revisionista novamente em um contexto tradicionalista, ouseja, o da realização de concertos. Na verdade, a oposição entre tradicionalismo e revisionismo pode serabordada de maneira semelhante à que foi realizada nesta tese com o par produção x reprodução.
167
3.6.2. Sistemas interativos
O termo sistema interativo é utilizado nesta seção em um sentido bem
restrito, referindo-se apenas a algumas modalidades de performance musical
envolvendo computadores, praticadas ao vivo em concertos eletroacústicos.
Embora seja claro que “pode-se definir apenas o nível de interação a que um
determinado sistema está exposto”156, uma vez que “a interação musical opera
em um continuum”157, a discussão nessa tese limita-se a sistemas que contam
com tecnologias digitais (hardware e software) capazes de “emular uma
compreensão musical humana”158 ao vivo. O grau de complexidade dessa
compreensão depende não apenas das possibilidades e limitações da
programação, mas também de sua função no contexto musical proposto.
A interação é uma “via de mão dupla”159 e, em geral, os sistemas
interativos contam com músicos que fornecem informações a serem interpretadas
pelas máquinas e que modificam sua atuação de acordo com as respostas delas
advindas (e vice-versa). Adicionalmente, diversas outras fontes de informação (ou
de entrada de “energia” no sistema) são possíveis: movimentos de um ator ou
dançarino, público, luzes, imagens, temperatura, vento etc.160
Nem toda concretização de um pensamento algorítmico ao vivo apresenta
características interativas. Executar ao vivo um programa de computador
responsável por criar toda a estrutura e sons musicais de uma obra com um
simples enter mais se assemelha a tocar uma obra pré-gravada com um simples
play. Nesse caso, a eficiência e detalhamento da implementação algorítmica
serão apreciados apenas por seu criador ou por pessoas bem informadas sobre a
questão. Curtis Roads chama tal modo de compor de batch composition161, no
qual o compositor deve aceitar o resultado de sua programação – muitas vezes
156 IAZZETTA, Fernando. Sons de Silício: Corpos e Máquinas Fazendo Música. Tese de Doutorado, PUC-SP,1996, p. 130. Grifo do autor.157 Iazzetta, p. 130.158 ROWE, Robert. Interactive Music Systems: Machine Listening and Composing. Cambridge: MIT Press,1993, p. 3.159 WINKLER, Todd. Composing Interactive Music: Techniques and Ideas Using Max. Cambridge: MIT Press,1998, p. 3.160 Foge aos objetivos deste trabalho a discussão sobre as reais possibilidades de interação entre fenômenosnaturais e sistemas musicalmente inteligentes.161 ROADS, Curtis. “Composition with machines”. In: Paynter et al. (eds.), vol.1, p. 406. Batch processing éum tipo de programação de computadores no qual uma série de comandos fica armazenada na memória evai sendo executada de acordo com a disponibilidade de processamento da máquina.
3.6.2. Sistemas interativos
168
uma composição completa − sem modificações posteriores. Roads ainda critica
as principais qualidades que estariam relacionadas a esse tipo de composição − a
consistência e a originalidade − uma vez que são “categorias cognitivas para as
quais ainda existe pouca teorização.”162 De todo modo, o desenvolvimento
tecnológico que passou a viabilizar a realização de batch compositions ao vivo
trouxe também novas questões de uso de computadores, sendo a mais
importante a interação e suas influências sobre o processo criativo.
Compositores vêm há séculos utilizando algoritmos para a criação de música. No
entanto, a rapidez com a qual tais algoritmos podem ser hoje executados por
computadores digitais favorece seu uso durante a própria performance. Uma vez
que eles são parte de uma performance, eles podem mudar seu comportamento
em função do contexto musical que os circunda. Para mim, essa versatilidade
representa a essência da interação e uma expansão intrigante da arte da
composição.163
Em 1984, Joel Chadade propõe o termo interactive composing164 para esse
novo tipo de atividade criativa musical. “Interactive composing é o nome que eu
dei a um método de se utilizar sistemas musicais digitais – capazes de funcionar
em tempo real e de responder à performance humana – para a composição e a
interpretação musical.”165 Ele divide os sistemas em difererentes blocos (ou
funções), de modo que entre a performance humana e o resultado sonoro se
encontra uma série de algoritmos ligados à execução de tarefas específicas:
interpretação da performance humana, composição e geração sonora. Note-se na
figura a seguir a possibilidade de aplicação de inteligência artificial a algumas
dessas tarefas, e as influências (realimentação) da resposta sonora do sistema
sobre a performance humana.
162 Roads, p. 407.163 ROWE, Robert. Machine Musicianship. Cambridge: MIT Press, 2001, p. 4.164 CHADABE, Joel. “Interactive Composing: an Overview”. In: Roads (ed.), 1989, pp. 143-148. Publicadooriginalmente no Computer Music Journal, vol. 8, no. 1, 1984, pp. 22-27.165 Chadabe, p. 143.
3.6.2. Sistemas interativos
169
Figura 15: Esquema de um sistema para interactive composing, de Chadabe. (Fonte:Chadabe, p. 145)
Quase dez anos mais tarde, em 1993, Robert Rowe propôs uma
classificação básica de sistemas interativos segundo a combinação de três
dimensões, “que não devem, no entanto, ser consideradas classes distintas”166:
(a) a primeira detecta se os sistemas seguem algum tipo de partitura ou se as
estruturas musicais são geradas a partir da própria performance ao vivo; (b) a
segunda tem a ver com a resposta musical do sistema: ele pode transformar
materiais realizados por músicos, pode também gerar novos materiais musicais
ou ainda controlar a reprodução de partes pré-gravadas; (c) a terceira distingue
entre a ampliação dos recursos de instrumentos existentes (meta ou
hiperinstrumentos) e a criação de um novo “executante” com voz própria.
a) sensing, processing, response
Ainda segundo Rowe, são três as funções básicas desempenhadas pelas
máquinas em um sistema interativo. Espera-se que elas sejam capazes de captar
informações musicais, de analisá-las e de criar algum tipo de resposta (sensing,
processing e response, nas palavras do autor167). Não há grandes diferenças
entre essa proposta e a de Joel Chadabe, descrita anteriormente.
As informações analisadas pelas máquinas dos sistemas interativos são
produzidas por ações humanas (ou agentes alternativos) e podem apresentar
uma grande diversidade quanto à origem e à natureza. Todas devem se conectar
166 Rowe (1993) [ver nota 158], p. 6.167 Ver o segundo capítulo (“Fundamentals”) de Rowe (1993), pp. 9 –38.
3.6.2. Sistemas interativos
170
aos computadores por meio de algum tipo de interface, chamadas por Joel Ryan
de “manetes físicos em modelos virtuais”168. As interfaces podem variar dos
tradicionais teclado e mouse até instrumentos especialmente construídos para
captar e transmitir as diferentes ações de um instrumentista sobre seu
instrumento. Todd Winkler divide os controladores – ligados à performance
humana − em quatro categorias básicas: (a) modelos acústicos são aqueles que
“se aproveitam de uma técnica instrumental preexistente, como o teclado ou
guitarra Midi”169; (b) novos instrumentos são aqueles controladores que requerem
algum tipo de performance musical não tradicional: pedais, joysticks, teias,
conjunto de botões etc.; (c) sensores espaciais são aqueles “que respondem à
localização e movimentação de um performer no espaço, muitas vezes sem que o
performer tenha contato físico com algum tipo de equipamento”170; (d) sensores
corporais “são artefatos fixados no performer que medem diretamente o
movimento de partes de seu corpo”171. Outros tipos de sensores podem também
captar informações independentes (ou quase) de alguma intervenção humana.
Os controladores que se encaixam no primeiro tipo acima citado podem ser
divididos em meta e hiperinstrumentos. Se os metainstrumentos mantém somente
a mecânica gestual de sua contraparte acústica, os hiperinstrumentos são
ampliações − feitas por meio de diferentes sensores − de um instrumento
tradicional. “Um violoncelista, por exemplo, tem à sua disposição basicamente
quatro graus de liberdade: força do arco, velocidade do arco, distância do arco do
cavalete, e posição dos dedos no espelho.”172 O hypercello desenvolvido para a
peça Begin Again Again ..., de Tod Machover era capaz de captar todas as quatro
dimensões, bem como a direção do pulso relativo ao arco. Uma das limitações
apontadas por Rowe para esse tipo de solução é que “sensores físicos
normalmente interferem na capacidade normal de produção sonora do
instrumento.”173 Um outro elemento a ser considerado na concepção de
hiperinstrumentos é a conversão digital dos sons de uma performance musical,
168 RYAN, Joel. “Some remarks on musical instrument design at STEIM” (1991). Contemporary Music Review,vol. 6, parte 1, p. 5.169 Winkler [ver nota 159], p. 315.170 Winkler, p. 316.171 Winkler, p. 317.172 Rowe (2001) [ver nota 163], p. 215.173 Rowe, p. 215.
3.6.2. Sistemas interativos
171
que também oferece uma grande quantidade de informações, nem todas
facilmente extraíveis ao vivo, mas capazes de aumentar as possibilidades de
interação e exploração sonora entre músicos e máquinas.
Um grande número de ações − não necessariamente ligadas à execução
instrumental − pode ser explorado em sistemas interativos. A interface mais
comumente utilizada é a Midi (com a exploração de eventos discretos e
controladores contínuos), embora exista um grande número de soluções
particulares para esse modo de comunicação entre gestos humanos e softwares
musicais. Mesmo gestos muito simples, como ligar ou desligar algo, podem
oferecer algum grau de interação e performance, ao levar em conta o número de
“ataques” realizados e o intervalo temporal entre eles. Um botão (ou uma tecla),
que, além de seu estado, também transmite informações sobre a força com que
foi pressionado, abre novas possibilidades para a análise de sua execução.
Variações contínuas em uma dimensão, como as de uma resistência elétrica
variável comandada por um pedal, são também bastante exploradas em sistemas
interativos. Apenas como exemplo: pode-se estar interessado não em seu valor
absoluto, mas na velocidade de variação desses valores, ou ainda, na variação
dessa variação (sua “aceleração”).
Algumas interfaces (tais como o Lightning II, do fabricante Buchla) geram
informações Midi a partir de uma série de gestos bidimensionais: posição em um
plano, mudanças de posição, direção e aceleração das mudanças de posição etc.
O Radio Baton, desenvolvido por Max Mattheus a partir de 1988, detecta a
movimentação das pontas de duas baquetas nas três dimensões espaciais.174
O processamento e a análise de informações musicais digitais são
consideravelmente facilitados quando se lida com as grandezas simbólicas nas
quais se baseia o protocolo Midi. Como nesse caso os eventos são claramente
definidos quanto ao seu início, duração e valores pertinentes, foi possível o
174 Esses são apenas dois exemplos escolhidos dentre uma grande variedade de equipamentos (incluindo-sea programação a eles associada) que vem sendo desenvolvidas no campo de novas interfaces musicais.Para uma visão mais geral da área, ver, dentre outros: Contemporary Music Review vol. 6, parte 1 (NewInstruments for the Performance of Electronic Music), 1991; duas edições do Computer Music Journaldedicadas a novas interfaces de performance (vol. 22, no. 1, 1998; vol. 26, no. 3, 2002); GENEVOIS, Huguese VIVO, Raphaël de (eds.). Les nouveaux gestes de la musique . Marseille: Parenthèses, 1999; WANDERLEI,
3.6.2. Sistemas interativos
172
desenvolvimento de uma série de estratégias voltadas para a análise de
melodias, harmonias, durações e metro, segmentação de frases, detecção de
padrões etc.175 Porém, algumas qualidades essenciais da expressão musical não
podem ser transmitidas – ou convenientemente expressas − pelas mensagens
Midi: o timbre (e sua multidimensionalidade variável com o contexto), variações
espectrais, microvariações em amplitude, afinação, timbre, textura etc.
Se um sinal de áudio é potencialmente capaz de conter todas as
informações acima mencionadas (tanto as expressas pelo protocolo Midi quanto
as demais), sua detecção e correta avaliação não é uma tarefa trivial. A correta
determinação de alturas a partir de um sinal de áudio, por exemplo, enfrenta
algumas barreiras muito sólidas: a latência de resposta (principalmente em baixas
freqüências), contextos polifônicos, a detecção de ataques (ou de um novo
evento), a questão do microtonalismo. Por outro lado, a aceitação e convivência
com essas limitações possibilita a utilização de boa parte das ferramentas de
análise voltadas para as mensagens Midi. Alternativamente, filtragens e outros
tipos de processamento digital são utilizados para detecção de envelopes
dinâmicos e diferentes características espectrais; nessas situações, mais
importante do que um cálculo exato é a aplicabilidade dessas grandezas tanto em
processos de controle quanto de produção e transformação sonoras.
Uma vez digitalizadas, as informações captadas através das interfaces são
totalmente arbitrárias e devem passar necessariamente por algum tipo de
adequação, análise e mapeamento antes de serem aplicadas em algum processo
de geração sonora. As análises mencionadas anteriormente (melodia, harmonia,
ritmo, estrutura) demandam necessariamente dados relativos às alturas,
intensidades e durações executadas. (Deve ser aqui lembrado que o cálculo das
durações e as decisões sobre o que é um acorde, por exemplo, dependem de
programação específica.) Os gestos musicais mediados por controladores podem
comandar a ativação e a desativação de sub-rotinas de programação, podem ser
Marcelo Mortensen e BATTIER, Marc (eds.). Trends in Gestural Control of Music. Paris: Ircam; CentrePompidou, 2000.175 “A formalização de conceitos musicais vem acontecendo a passos rápidos por meio de pesquisas emdiversos campos, incluindo-se a teoria musical, a cognição musical e a inteligência artificial.” Rowe (2001)[ver nota 163], p. 9.
3.6.2. Sistemas interativos
173
aplicados a diferentes parâmetros de síntese ou processamento sonoros, podem
representar escolhas de sons em um conjunto de timbres organizado
espacialmente etc. Pode-se vislumbrar um número praticamente ilimitado de
possíveis respostas sonoras por parte das máquinas ou softwares de um sistema
interativo, seja na criação de novos materiais e estruturas sonoras, seja na
transformação de sons ou estruturas pré-existentes ou tocadas por intérpretes
humanos.
b) limitações contextuais
A questão que se põe, no entanto, é sobre a clareza dessa interação em
um contexto musical ao vivo. Em concertos, o mais freqüente é que os processos
interativos estejam limitados ao palco, ou mesmo aos músicos encarregados da
performance. O fato por si só já impõe uma série de preocupações com a
recepção do público, que normalmente não tem intimidade nem possibilidades de
contato com o sistema em ação. Mais ainda: a representação digital e seus novos
instrumentos relativiza totalmente o aqui e agora dos sons musicais. Como, então
tornar evidente o aqui e agora da criação e da performance musical?
Uma clara diferenciação entre o que está sendo feito pelo músico e a
resposta dada pelo sistema computacional pode contribuir para a compreensão
tanto do processo interativo quanto da proposta musical. Essa diferenciação
depende primordialmente da função que se imagina ser exercida por cada uma
das partes, já que ambas podem estar construindo o mesmo estrato musical. Ela
se dá com mais facilidade em situações onde um instrumento (ou controlador)
tradicional é tocado por um músico; no caso de novos controladores, aos quais
normalmente não está associado nenhum modo específico de produção sonora, a
atenção deve ser dobrada. Como os gestos associados aos novos controladores
são, por definição, arbitrários, uma certa relação entre gesto e resultado sonoro é
bem vinda, embora deva-se também levar em conta que “uma abordagem
excessivamente simplista será rapidamente esgotada”176.
David Wessel e Matthew Wright apontam algumas características
desejáveis para qualquer novo instrumento. Ao reconhecer a importância do
176 Winkler [ver nota 159], p. 9.
3.6.2. Sistemas interativos
174
paradigma tradicional do gesto instrumental: “um gesto para um resultado
acústico”, eles retiram daí conseqüências adicionais:
Uma das características mais críticas de qualquer sistema de controle musical é
um “silenciador”, um mecanismo que permita que o executante desligue
graciosamente um processo musical. Mais genericamente, o executante deveria
ter sempre o controle do volume geral e da densidade do som produzido por um
instrumento, mesmo quando um algoritmo gerador de materiais semi-autônomo
estiver cuidando dos detalhes.177
Além dessas características, eles ainda apontam que deveria haver
“alguma correspondência entre o ‘tamanho’ do gesto de controle e o resultado
acústico”178, ao lado de alguma previsibilidade (“gostamos de sentir que temos um
completo controle, mesmo que seja em um alto nível de abstração, sobre os sons
que nossos instrumentos produzem”179).
Mesmo sob essas condições, tem-se aqui novamente uma teatralização do
gesto; acredito que sua exploração mais consistente ao vivo se dê menos em
função da dissolução da correspondência entre gesto e resultado sonoro do que
na diversidade de respostas possíveis. Tais respostas podem, naturalmente, fazer
uso de todo o potencial expressivo (e das ambigüidades) propiciado pelos alto-
falantes.
177 WESSEL, David e WRIGHT, Matthew. “Problems and Prospects for Intimate Musical Control ofComputers”. Computer Music Journal, vol. 26, no. 3, 2002, p. 14.178 Wessel e Wright, p. 14.179 Wessel e Wright, p. 14.
Recommended