62
Studienreader zur analogen elektroakustischen Musik hg. von Michael Custodis

Studienreader zur analogen elektroakustischen Musik

Embed Size (px)

Citation preview

Page 1: Studienreader zur analogen elektroakustischen Musik

         

 

 

 

 

 

 

 

Studienreader zur analogen elektroakustischen Musik 

 

 

hg. von Michael Custodis 

 

 

   

Page 2: Studienreader zur analogen elektroakustischen Musik

2  

 

Der vorliegende Reader dokumentiert die Ergebnisse der Schreibwerkstatt, die als Seminar 

im Wintersemester 2012/13 im Bachelorstudiengang Musikwissenschaft an der WWU Müns‐

ter angeboten wurde. Innerhalb des vorgegeben Rahmenthemas stand es den Studierenden 

frei, selbstständig ein Themen zu finden, um  in gemeinsamen Arbeitssitzungen das Recher‐

chieren, Präzisieren, Ausarbeiten und Redigieren  lexikalischer Artikel zu üben. Die themati‐

sche Fokussierung auf die Geschichte der analogen elektroakustischen Musik diente dabei 

zugleich der Vorbereitung auf ein Workshop‐Seminar des Komponisten Simon Stockhausen 

im folgenden Sommersemester 2013, das unter dem Titel „Grenzenlos – Möglichkeiten der 

elektronischen  Klangerzeugung  im  21.  Jahrhundert“  den  Studierenden  mit  praktischen 

Übungen die digitale Phase der elektroakustischen Musik nahebringen wird.  

 

Münster, im April 2013 

 

Michael Custodis 

   

Page 3: Studienreader zur analogen elektroakustischen Musik

3  

                        Seite  

Additive Synthese                    4 

Pierre Boulez                       7 

John Cage                      9 

Herbert Eimert                      12 

Home‐Made Electronics                    15 

Institut de Recherche et Coordination Acoustique/Musique (IRCAM)       18 

Gottfried Michael Koenig                  21 

Otto Luening                       24 

Musique concrète                    26 

Henri Pousseur                     30 

Terry Riley                        34 

Walter Ruttmann                      37 

Karlheinz Stockhausen                   39 

Simon Stockhausen                    42 

Tape Music                      44 

Elektroakustische Musik beim Westdeutschen Rundfunk Köln  I.   Die elektroakustische Musik beim Rundfunk           47 II.   Das elektronische Studio des WDR             50 III.   Technische Entwicklung                 53 

Iannis Xenakis  I.   Biografie                      55 II.   Stochastische Synthese                 58 III.   Centre de Mathématique et Automatique Musicales – CEMAMu     60 

 

   

Page 4: Studienreader zur analogen elektroakustischen Musik

4  

Additive Synthese  oder  auch  Fourier‐Synthese,  nennt  man  die  Erzeugung  einer  komplexen  periodischen 

Schwingung aus einer Reihe von harmonischen Komponenten, den sog. Sinustönen. 

 

1.Fourier‐Theorem 

2.Additive Synthese 

3.Klangsynthese in der elektroakustischen Musik 

4. Digitalisierung der additiven Synthese 

 

1.Fourier‐Theorem 

Der franz. Mathematiker und Physiker Joseph Fourier (1768‐1830) erkannte, dass jede kom‐

pliziertere periodische  Schwingung als  Schallphänomen eine Darstellung  von Überlagerun‐

gen mehrerer  reiner, harmonischer  Schwingungen  ist. Unter harmonischen  Schwingungen 

versteht man das zu einer Grundtonfrequenz gehörige ganzzahlige Vielfache der Grundfre‐

quenz. Somit lässt sich ein Klang auf seine Obertöne und ihren Lautstärkeanteil im gesamten 

Klanggebilde hin untersuchen, was auch Fourier‐Analyse genannt wird. Der deutsche Physi‐

ker Georg Simon Ohm fand 1843 heraus, dass das menschliche Gehör nach eben diesen ana‐

lytischen Methoden arbeitet. Umgekehrt zeigt das Fourier‐Theorem, dass sich eine Schwin‐

gungsform aus verschiedenen sinusförmigen Teilschwingungen zusammensetzen lässt. 

 

2.Additive Klangsynthese 

Einzelne Obertöne (auch Partial‐ oder Teiltöne genannt) einer Klangstruktur entstehen durch 

das Hinzufügen von Sinuston‐Komponenten.  Jeder Teilton hat eine eigene Hüllenkurve  im 

Frequenzspektrum. Die Hüllenkurve einer Frequenz lässt sich in vier zeitlich aufeinander fol‐

gende  Phasen  unterteilen:  Anschwellzeit  (A:  Attack),  Abklingzeit  (D:  Decay),  Haltezeit  (S: 

Sustain), Ausklingzeit (R: Release) (siehe Abb. 1). 

 

Abb. 1: Schema der vier zeitlichen Phasen einer Frequenzhüllkurve 

 

Somit hat jeder Oberton eines Klangs seinen eigenen Charakter der Tonentfaltung und eine 

direkte und hörbare Einwirkung auf das ganze Tongebilde. Ziel der additiven Synthese ist es 

unter anderem, natürliche Klänge oder die mechanischer Musikinstrumente authentisch zu 

reproduzieren. Dabei ergibt die Addition und Modulation von rund 32 Obertönen einen für 

das menschliche Gehör natürlichen Klang. Zu viele Teiltöne wirken wiederum unrealistisch 

konstruiert. 

Page 5: Studienreader zur analogen elektroakustischen Musik

5  

3.Klangsynthese in der elektroakustischen Musik 

(1) Subtraktive (selektive) Klangsynthese bezeichnet einen Prozess, in dem gewünschte Fre‐

quenzen eines Klanggemisches oder Rauschens (Überlagerung mehrerer nicht‐harmonischer 

Schwingungen) mit Hilfe  von  Frequenzbandfiltern  (Equalizer) herausgeschnitten oder  aber 

verstärkt werden. Allerdings lassen sich singuläre Frequenzen nicht separat filtern. Die zu fil‐

ternde Frequenz kann auf Grund von elektrotechnischen  Prinzipien nur eingegrenzt und ge‐

filtert werden. Es können deshalb nur ganze Frequenzbänder bearbeitet werden. Partialfre‐

quenzen werden herausgefiltert, bis eine gewünschte Tonfarbe moduliert ist (Funktionswei‐

se früher Synthesizer). Der neue Klang kann dann mit weiteren Filtern manipuliert werden.  

Die (2) additive Synthese erfordert zunächst keine digitale Signalverarbeitung. Mit mehreren 

Oszilatoren werden die Partial‐Sinustöne eines Sounds erzeugt. Grundlage hierfür ist die Ei‐

genart von Sinustönen: Ein Sinuston ist eine periodische Schwingung mit nur einer Frequenz 

f  (1/Periodendauer  T), welche die  Tonhöhe, und  einer Amplitude  (max. Auslenkung  einer 

Schwingung), die die Lautsärke bestimmt (siehe Abb. 2).  

 

Abb. 2: Schema einer harmonischen und ungedämpften Sinusschwingung 

 

Die Hüllkurven aller Frequenzen im Sound müssen einzeln mit sog. Modulen bearbeitet, be‐

vor  sie mit einem VCA  (voltage controled Amplifier) verstärkt werden können. Neben den 

Modulen zur Hüllkurvenbearbeitung werden auch solche zur Freq.‐, Amplituden‐ und Pha‐

senmodulation verwendet, um neue Klänge zu generieren. Bereits  in der Kölner elektroni‐

schen Musik der frühen 1950er wurden Klänge mit dem Prinzip der additiven Synthese kre‐

iert. Um einen natürlichen Klang zu reproduzieren, benötigt man für alle Obertöne separat 

die oben genannten Geräte und Module. Daher  ist die additive Synthese mit Computeran‐

wendung leichter und in einem größeren Umfang zu realisieren.  

Als (3) direkte Klangsynthese bezeichnet man die digitale Berechnung von Frequenzmodula‐

tionen  zur  Erzeugung der  gewünschten  Schwingungsform mit einem entsprechenden Pro‐

gramm,  dem  eine Wertetabelle  der  Schwingungsformen  zugeordnet wird. Die  Elongation 

(max. Auslenkung einer Schwingung) mit einem Spannungswert wird als binäre Form ange‐

geben und durch einen D/A‐Wandler in eine analoge elektrische Schwingung umgeformt. 

 

4.Digitalisierung der additiven Synthese 

Komplexe, natürliche Klänge, wie die eines mechanischen Musikinstrumentes, können erst 

am  Computer  mit  einer  entsprechenden  Rechenleistung  nutzerfreundlich,  das  heißt  mit 

technischen Mitteln geringeren Umfangs realisiert werden. Kompliziert bei der Berechnung 

von Klängen ist die temporäre Differenz in der Entwicklung der Partialtöne und ihrer jeweils 

Page 6: Studienreader zur analogen elektroakustischen Musik

6  

eigenen Hüllenkurve. Durch eine digitalisierte Klangsynthese ist ein präziserer Eingriff in die 

Mikrostruktur (die Parameter  jeder einzelnen Frequenz) von Klängen möglich sowie die Er‐

zeugung einer beliebig hohen Anzahl von Obertönen ohne größeren technischen Aufwand. 

Es wird eine hohe Rechenleistung benötigt, um eine hohe Auflösung des Klangs zu erzielen. 

Durch die Digitalisierung können Schwingungen nicht als Ganzes beschrieben werden, son‐

dern  immer nur punktuell  in Abhängigkeit von der Zeit und somit  immer  lückenhaft. Zu ei‐

nem Zeitpunkt  t werden die Parameter einer Schwingung gespeichert und können so wie‐

dergegeben werden.  Je mehr Punkte  einer  Schwingung  in Binärform  ausgedrückt werden 

können und je kleiner die Lücken zwischen festgehaltenen Parametern werden, umso präzi‐

ser wird eine Wiedergabe möglich. Bei einer hohen Klangauflösung  ist das menschliche Ge‐

hör nicht mehr  in der Lage, die Lücken bewusst wahr zu nehmen. Ein klanglicher Qualitäts‐

unterschied desselben Sounds bei unterschiedlicher Auflösung ist durchaus hörbar. Die digi‐

tale additive Klangsynthese ermöglicht theoretisch, alle vorstellbaren Klänge zu erschaffen, 

diese zu samplen und sie musikalisch nutzbar machen. 

 

Quellen 

Eimert, Herbert und Humpert, Hans Ulrich, Das Lexikon der elektronischen Musik, Regensburg 1973 

Pousseur, Henri, in: die Reihe 1 (1955), Heft 1 Elektronische Musik 

Enders, Bernd, Lexikon Musikelektronik", Mainz 1985 

Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 2010 

Abb.2: http://musicweb.hmt‐hannover.de/ipmm/mth_content/mth_adsr.gif [3. Februar 2013] 

 

Peter Bergmüller 

    

Page 7: Studienreader zur analogen elektroakustischen Musik

7  

Boulez, Pierre Französischer Komponist und Dirigent (* 26. März 1925 in Montbriston). Er gilt als einer der 

herausragendsten Vertreter der Avantgarde. Anfangs noch stark durch seinen Lehrer Olivier 

Messiaen beeinflusst, verband er die bei  ihm gelernten, sich wiederholenden Reihenprinzi‐

pien der Satz‐ und Formlehre später mit dem Spätstil Anton Weberns  und Igor Strawinskys 

Rhythmik  zu  einer  einzigartigen  Kompositionsweise, welche  in  der Multiplikationstechnik 

mündete. Ein zentraler Aspekt seiner Musik  ist die stetige Entwicklung der Variation sowie 

der Einfluss vorklassischer, europäischer als auch außereuropäischer Musik. Außerdem hatte 

die Literatur und Dichtung von beispielsweise Stéphane Mallarmé oder René Char große Be‐

deutung. Über Zwischenschritte gelenkter Aleatorik erweiterte er seinen Stil  immer weiter 

und schränkte seine Kompositionstätigkeit  in den 1960er Jahren zunehmend ein zugunsten 

seiner Karriere als einer der  führenden Dirigenten des 20.  Jahrhunderts. Seine Karriere als 

Dirigent  begann  1957  und  führte  zur  Zusammenarbeit  u.a. mit  dem  BBC  Symphony  Or‐

chestra, den New Yorker Philharmonikern, den Wiener Philharmonikern sowie den Wagner‐

Festspielen in Bayreuth. 

 

Geboren als Sohn des Ingenieurs und Industriellen Léon Boulez, wuchs er in einem großbür‐

gerlichen, katholisch geprägten Elternhaus auf. Erstmalig bekam er mit 6  Jahren Klavierun‐

terricht. Auf Wunsch des Vaters besuchte er von 1941‐43 die École polytechnique  in Lyon, 

um Mathematik  zu  studieren. Boulez  setzte sein Klavierunterricht bei Lionel de Pachmann 

fort, der ihm die ersten zentralen musikalischen Grundlagen vermittelte. Gegen den Wunsch 

des Vaters zog es  ihn  im Herbst 1943 nach Paris, um an das dortige Conservatoir zu wech‐

seln. Dort besuchte er den Harmonielehreunterricht von Georges Dandelot. Da Boulez die 

klassischen Methoden des Unterrichts nicht schätzte, nahm er ab April 1944 Privatunterricht 

bei Andrée Vaurabourg‐Honegger. Der bald darauf erfolgten Aufnahme in die Harmonieklas‐

se von Oliver Messiaen wurde zu einem zentralen Einfluss  , da nicht nur selten zu hörende 

europäische Musik (z.B. Arnold Schönbergs Pierrot Lunaire, Alban Bergs Lyrische Suite), son‐

dern auch außereuropäische Musik behandelt wurde. Nach dem Besuch einer Aufführung 

von Schönbergs Bläserquintett op.26 unter der Leitung von René Leibowitz beschloss Boulez, 

fasziniert  von  der  Reihentechnik,  bei  diesem Unterricht  zu  nehmen.  Er  führte  ihn  an  die 

Spätwerke Weberns heran, kompositorisch umgesetzt als Verschmelzung mit Einflüssen von 

Messiaen in seinem Werk von 1945 Douze Notations. Seine erste Hörspielmusik, Le Soleil des 

Eaux, realisierte er 1948 in Zusammenarbeit mit Char, nachdem er einige seiner Werke gele‐

sen  hatte.  Auf  Empfehlung  Arthur  Honeggers  wurde  Boulez  Direktor  des  Compagnie 

Barrault‐Renard, was  den  Grundstein  für  seine  spätere  Karriere  als  Dirigent  legen  sollte. 

Durch die weltumspannenden Tourneen der Gruppe lernte er hautnah z.B. die südamerika‐

nische Musik kennen. Durch die Pariser Aufführung seines Stücks Le Soleil des Eaux  im Jahr 

1950 wuchs sein Bekanntheitsgrad,  jedoch war es die von seinem Mentor Heinrich Strobel 

initiierte Uraufführung  von Polyphon X  im  folgenden  Jahr    in Donaueschingen, die  seinen 

Platz  als  einer  der  führenden Musiker  seiner  Generation  beflügelte.  Bereits  Anfang  der 

1950er Jahre hatte Boulez persönlichen Kontakt mit anderen wichtigen neuen Komponisten 

wie Karlheinz Stockhausen [→], John Cage [→] oder Henri Pousseur [→], mit denen er sich 

über die Bedeutung und die neuen Wege und Möglichkeiten der Musik austauschte. 1952 

nahm er erstmalig an den Darmstädter Ferienkursen teil, die er von Mitte der 1950er bis in 

Page 8: Studienreader zur analogen elektroakustischen Musik

8  

die 1960er Jahre als Dozent mitgestalltete. Der weltweite Durchbruch als Komponist gelang 

Boulez mit der Uraufführung  seines  Stücks  Le Marteau  sans matîre  in Baden‐Baden beim 

dortigen Weltmusikfest 1955 der  Internationalen Gesellschaft  für Neue Musik  (IGNM). Da 

Hermann Scherchen es ablehnte, die Sonate Le Visage nuptial zu dirigieren, musste Boulez 

1957 selbst übernehmen. Er beschrieb diese erfahrung später als wichtiges Erlebnis, da er 

nun versuchte, eine Verbindung der Ausdrucksweise aus Sicht des Komponisten und des In‐

terpreten zu suchen. Dies schuf den erfolgreichen Grundstein für die Verbindung aus Kom‐

ponist und Dirigent zu einer künstlerischen Einheit. 1959 zog Boulez von Paris nach Baden 

Baden.  In den nachfolgenden  Jahren war er vor allem sehr häufig als Dirigent  (z.B.  in Bay‐

reuth 1966‐70, beim BBC Symphony Orchestra 1969‐72, bei den New York Philharmonikern 

1971‐1975) oder als Lehrer (z.B. an der Musikakademie Basel 1960‐63, als Gastprofessor  in 

Harvard ab 1963)  tätig. Der damalige Staatspräsident Frankreichs, Georges Pompidou, bat 

Boulez  im  Jahr 1970, die Planung und den Aufbau des  IRCAM  [→] zu übernehmen, das  im 

Jahr 1977 eröffnet wurde und bis 1991 unter seiner Leitung stand. Mit den neuen technolo‐

gischen Möglichkeiten, die das IRCAM bot, erschuf Boulez neue Klangwelten. Das Wiederho‐

len  einzelner  rhythmischer  oder melodischer  Strukturen wird  auf  virtuelle  Klangelemente 

verlagert, so dass Boulez mit der realen Präsenz einzelner Teile spielen konnte, um die Struk‐

turen  ineinander verschwimmen zu lassen. Gut demonstriert  ist dies bspw.  in seinem Stück 

Dialogue de l`ombre double (1982‐85). Dort veränderte er die Instrumentalklänge und deren 

einzelne Strukturen in einem simultanen Vorgang. Sein Ziel dabei war stets, die Ebenen der 

Zeit durch unendliche Skalierbarkeit der rhythmischen Werte und durch die Einbettung mik‐

rotonaler Welten aufzusprengen und sich in ihr frei bewegen zu können. Dies war schon bei 

Polyphon X sichtbar, da nach dem Vorbild Strawinskys durch einzelne rhythmische Struktu‐

ren sowie deren innere minimale Veränderung ein gleichbleibendes, sich stets veränderndes 

Schema entsteht, welches durch melodische Zwischenwürfe akzentuiert werden kann. 

 

Quellen 

G. W. Hopkins und Paul Griffiths, Art. Boulez, in: NG2 Band 4, London 2001 

Bösche, Thomas, Art. Boulez, in: MGG2 Personenteil 3, Kassel et al. 2000 

Hirsbrunner, Theo, Pierre Boulez und sein Werk, Laaber 1985 

Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart, 2010 

http://www.universaledition.com/Pierre‐Boulez/komponisten‐und‐werke/komponist/88  [22.  Januar 

2013] 

 

Alexander Schenk 

 

   

Page 9: Studienreader zur analogen elektroakustischen Musik

9  

Cage, John Milton  war ein amerikanischer Komponist, Philosoph und Schriftsteller (* 05. September 1912, Los 

Angeles; † 12. August 1992, New York). Er gilt als einer der prägendsten Köpfe der avangar‐

distischen Künste  im 20. Jahrhundert, einschließlich der elektroakustischen und experimen‐

tellen Musik in den USA. 

 

1. Zur Person 

Als Sohn des Erfinders John Milton Cage Sr. zeichnete sich schon früh eine Neigung zur Musik 

ab, die neben einer Begabung für Literatur und Fremdsprachen die zentrale Rolle in J. Cages 

Leben spielt. Nach dem Collegeabbruch im Jahr 1930 begab er sich auf eine zweijährige Rei‐

se nach Europa, auf der er Eindrücke über Kunst, Musik und Architektur sammelte. Vor die‐

ser Reise wurde er auf die Zeitschrift "Transition" aufmerksam, durch die er wichtige Eindrü‐

cke  über  die  neuesten  Entwicklungen  der  europäischen  Avantgarde  sammelte,  dort  aber 

hauptsächlich durch die Schriften von James Joyce beeinflusst wurde. Zurück in Amerika stu‐

dierte er Komposition, Musiktheorie, Analyse, Harmonielehre, Kontrapunkt sowie moderne 

und  außereuropäische Musik.  Zu  seinen  Lehrern  zählten  u.a.  Arnold  Schönberg,  Adolph 

Weiss, Richard Buhlig und Henry Cowell. Zusätzlich zur musikalischen Ausbildung erwarb sich 

Cage ab dem Ende der 1940er  Jahre  fundamentale Kenntnisse über  fernöstliche Kulturen, 

wobei der Schwerpunkt bei  indischer Philosophie und Zen‐Buddhismus  lag. Seinen Lebens‐

unterhalt verdiente Cage zunächst mit Gelegenheitsarbeiten und Auftragsmusiken. Er beglei‐

tete die Merce Cunningham Dance Group als musikalischer Leiter, gab Konzerte oder lehrte 

experimentelle Musik an der  School of Design  in Chicago. Auf einer weiteren Europareise 

begegnete  er  den  Malern  Robert  Rauschenberg  und  Jasper  Johns,  die  neben  Marcel 

Duchamps mit  ihren ästhetischen Konzepten einen großen Einfluss auf Cages kompositori‐

sche Entwicklung hatten. Zudem  lernte er 1949 Pierre Boulez [→] kennen, mit dem er sich 

über elektroakustische Musik austauschte. Durch diese Einflüsse bereichert schrieb Cage ab 

den 1950er Jahren Musik, die sich nach dem chinesischen Orakelbuch  I Ching durch Zufall‐

soperationen definierte und seiner Arbeit mit Tonbandaufnahmen sowie mit dem „prepared 

piano“ seine persönliche Note verliehen.  

 

2. Kunstverständnis und Musikästhetik 

Die Musik von John Cage war beeinflusst durch die strukturelle und systematische Erarbei‐

tung musikalischen Materials und rhythmischer Strukturen, wobei seine  innovative und ex‐

perimentelle Haltung immer eine große Rolle spielte. Aus seinem Blickwinkel bestand Musik 

aus kleinen Klangeinheiten, die  in sich ein geschlossenes Ereignis darstellen. Entgegen übli‐

cher Konventionen ordnete er diese aber nicht nach Regeln der Melodie‐ und Stimmführung, 

Harmonik oder durch geplante Rhythmen, sondern reihte sie hintereinander auf. Seiner Auf‐

fassung  nach  bestand  die  Verbindung  dieser  in  sich  geschlossenen  Einheiten  zueinander 

durch  ihre Koexistenz  im Raum. Dieses Aufeinanderfolgen von Elementen unterschiedlichs‐

ter Rhythmen und Klangfarben wurde  in seinen Werken für das „prepared piano“ deutlich. 

Hierbei handelt es sich um einen Konzertflügel, dessen Saiten mit einer Vielzahl von Objek‐

ten präpariert werden. So werden u.a. Holz, Metall, Gummi oder Glas dafür verwendet, um 

verschiedene Klangfarben zu erzeugen sowie die Tonqualität und den Anschlag zu variieren.  

Page 10: Studienreader zur analogen elektroakustischen Musik

10  

Ein weiterer Faktor für Cages innovative Haltung war die Arbeit mit dem I Ching, das chinesi‐

sche Buch der Wandlungen, das für Cage zur zentralen Entscheidungshilfe werden sollte. Es 

besteht aus einem System von 64 Zeichen (Hexagramme) mit sechs horizontal untereinander 

angeordneten Linien, die entweder ununterbrochen oder einmal unterbrochen waren. Jedes 

dieser Hexagramme stellte ein musikalisches Ereignis dar. Welches Hexagramm eine Antwort 

auf eine bestimmte kompositorische Frage  liefern sollte, wurde durch Münzwurf ermittelt. 

Diese Methode gewährte Cage eine fortlaufende Wandlung bzw. Veränderung des musikali‐

schen Materials.  Eine weitere Möglichkeit, die Cage  ausschöpfte, waren die  von  ihm  sog. 

„chance operations“, eine Zahlenreihe zur Ermittlung der Dimension einzelner Klänge oder 

auch der Satzdichte. Auch hier diente der Münzwurf wieder der Festlegung der unterschied‐

lichen Parameter. Mit Hilfe dieser Zufallsentscheidungen wollte er eine Aufhebung der Sub‐

jektivität der Komposition bewirken. Damit ein Hörer die Musik wertfrei und  losgelöst von 

Geschmack  und  Vorurteilen  genießen  konnte,  sollte  diese möglichst  nicht  intentional  ge‐

prägt sein, sodass jeder Hörer sein "eigenes Stück" hörte. Diese beiden Methoden stellen die 

Grundlage für Cages Arbeit mit elektronischer Musik dar und bilden das Konstrukt für sämtli‐

che seiner u.a. am Computer erstellten Werke sowie der früheren Tonbandmusik. 

 

Neben diesen Zufallsmethoden war für Cage die Beziehung der Musik zu Umwelt und Gesell‐

schaft wichtig. Dieser Einbezug der Umwelt stellte für Cage eine große Motivation für seine 

Tonbandaufnahmen dar. Es sollte der Steigerung der Aufmerksamkeit und des Bewusstseins 

in Bezug auf die reale, materielle Welt dienen. Er konfrontierte die Hörer bewusst mit unan‐

genehmen Geräuschen und Lärm, um eine bessere Reaktionsfähigkeit und einen besseren 

Umgang mit Alltagsgeräuschen (z.B. U‐Bahn, Verkehr) zu entwickeln. Cage legte großen Wert 

darauf, dem Publikum einen neuen Zugang zur Umwelt zu eröffnen, um diese wieder schät‐

zen zu können. 

 

3. Tape Music und elektroakustische Musik 

Das Stück Williams Mix von 1952 ist eine Klangcollage von Tonbandaufnahmen (→ Tape Mu‐

sic),  die  nach  dem  Prinzip  des  I  Ching  zusammengestellt wurden. Das Material wurde  in 

sechs Kategorien eingeteilt: Stadt‐ und  Landschaftsgeräusche, elektronische, manuell oder 

windproduzierte  Klänge,  sowie  Sounds,  die  aufgrund  ihrer  geringen  Lautstärke  verstärkt 

wurden. Diese Aufnahmen wurden  in kleine Einheiten geschnitten, um nutzbar gemacht zu 

werden. Diese Einheiten wurden wieder durch die bekannte Zufallsmethode mit den Para‐

metern Klangfarbe, Rhythmus und Dynamik modifiziert.  

 

Der Rozart Mix  (1965)  ist ein weiteres Beispiel  für den vielfältigen Einsatz von Cages Ton‐

bandaufnahmen.  Es  ist  ein  Konzertstück  für  13  Tonbandgeräte  und  sechs Darsteller. Ver‐

wendet wurden 88 Aufnahmen, die aufgrund der Willkür des verwendeten Materials von be‐

liebigen Personen zusammengestellt wurden. Die Aufführung fand  im Rose Art Museum,  in 

dem die Abspielgeräte  in den Ecken des Raumes aufgestellt wurden, um  so ein möglichst 

verworrenes  Klangbild  zu  erlangen.  Ein  ähnliches  Projekt war  schon  sein  Stück  Imaginary 

Landscape No.4 (1951) gewesen, in dem Cage zwölf Radios als Musikinstrumente verwende‐

te und diese mit  jeweils zwei Ausführenden besetzte. Diese regelten sowohl die Lautstärke 

als auch den Sender, wobei im Voraus nicht ersichtlich war, welcher Sender was zu welchem 

Page 11: Studienreader zur analogen elektroakustischen Musik

11  

Zeitpunkt spielen würde. So ergab sich in beiden Stücken ein verworrenes und undurchsich‐

tiges Klangfeld.  

 

Quellen 

Erdmann, Martin, Art. Cage, in: MGG2 Personenteil 3, Kassel et al. 2000 

Kostelanetz, Richard, John Cage. Documentary Monographs in Modern Art, New York 1970 

Pritchett, James und Laura Kuhn, Art. Cage, in: NG2 Band 3, London 2001 

Ungeheuer, Elena (Hg.), Elektroakustische Musik, Laaber 2002 

 

Sebastian Stewing 

 

   

Page 12: Studienreader zur analogen elektroakustischen Musik

12  

Eimert, Herbert  Deutscher Komponist, Radioproduzent, Musiktheoretiker und  Journalist  ( ⃰  8.4.1897  in Bad Kreuznach; † 15.12.1972  in Düsseldorf). Eimert  ist Mitbegründer des Studios  für Elektroni‐

sche Musik des WDR [→] und vor allem einer der wich gsten Förderer der zeitgenössischen 

elektronischen Musik in Deutschland.  

 

Herbert Eimert wurde als Sohn eines Gymnasiallehrers und einer Geigenlehrerin geboren. 

Von 1919‐24 studierte er Geige, Klavier, Tonsatz und Dirigieren am Kölner Konservatorium 

bei Herrmann Abendroth, Johann Eduard Franz Bölsche und August von Osthegraven. 1923 

schrieb er Fünf Stücke für Streichquartett und eine Atonale Musiklehre, die bei  ihrer Veröf‐

fentlichung 1924 zum Bruch mit seinem Theorielehrer Bölsche führte.   Daraufhin verließ er 

das Konservatorium ohne Abschluss und studierte Musikwissenschaft an der Kölner Univer‐

sität bei Ernst Bücken, Willi Kahl und Georg Kinsky. Hier hörte er auch Philosophie bei Max 

Scheler und Paul Nicolai Hartmann. 1930 erfolgte die Promotion über Musikalische  Form‐

strukturen  im 17. und 18.  Jahrhundert. Versuch einer Formbeschreibung, die 1932 mit von 

Hartmann verlangten Änderungen veröffentlicht wurde. Zeitgleich, von 1927‐33, war er Mit‐

arbeiter des Kölner Rundfunks und  schrieb  zeitweilig  für die Musikzeitschriften Melos und 

Zeitschrift für Musik (heute: Neue Zeitschrift für Musik). Ab 1930 wurde er, parallel zu seinen 

Rundfunktätigkeiten, Musikreferent beim Kölner Stadt‐Anzeiger. 1935 nahm er die Stelle des 

Redakteurs bei der Kölnischen Zeitung an und wurde im August 1945 einer der ersten Ange‐

stellten des unter britischer Besatzung verwalteten Kölner Rundfunks, wo er dann 1947 das 

Ressort der Kulturberichterstattung übernahm. Im darauffolgenden Jahr wurde er Leiter des 

Musikalischen Nachtprogramms, das am 21. Oktober 1948 zum ersten Mal auf Sendung ging 

und  für das er bis 1966 ca. 380 Sendungen produzierte. Die Sendereihe wurde zur bedeu‐

tendsten Musiksendung für zeitgenössische Musik, da sie europaweit einem großen Hörer‐

kreis zugänglich wurde, und galt als eine der Hauptinformationsquellen über die aktuellen 

Entwicklungen der neuen Musik. 1951 beschloss das Kölner Funkhaus, auf  Initiative von Ei‐

mert und mit Unterstützung von dem Informationstechniker Werner Meyer‐Eppler und dem 

Tonmeister  Robert  Beyer,  das  Studio  für  elektronische Musik  zu  gründen,  das  Eimert  bis 

1962 leitete (1963 wurde Karlheinz Stockhausen sein Nachfolger, →). Auf Meyer‐Eppler und 

Beyer wurde er 1951 aufmerksam, als sie drei Vorträge unter dem Titel Die Klangwelt der 

elektronischen Musik bei den Darmstädter  Ferienkursen  seines  Journalistenkollegen Wolf‐

gang Steinecke hielten. Das Elektronische Studio des WDR und das Musikalische Nachtpro‐

gramm standen  in enger Zusammenarbeit. Dadurch, dass Eimert als Leiter des Studios eine 

Öffnung nach außen durchsetzte, förderte er zahlreiche, heute weltbekannte Komponisten, 

die  im Studio  ihre Werke  realisieren konnten, wodurch es  recht  schnell  zum Zentrum der 

Avantgarde wurde: K. Stockhausen, Karel Goeyvaerts, Henri Pousseur [→], Go ried Michael 

Koenig [→], György Lige  und Nam June Paik gehörten u. a. zum Umfeld. 1951‐57 unterrich‐

tete Eimert vermehrt in Darmstadt, wo z. B. eine Vorlesung über punktuelle Musik hielt, um 

die  Post‐Webernsche  Betonung  der  „einzelnen Note“  zu  charakterisieren.  1965 wurde  er 

zum Professor an der Hochschule für Musik in Köln ernannt, wo er auch das von ihm gegrün‐

dete Studio für Elektronische Musik leitete. Mit Hans Ulrich Humpert, der 1971 sein Nachfol‐

ger des Studios der Musikhochschule wurde, arbeitete er am Lexikon der elektronischen Mu‐

sik, welches erst 1973, einem Jahr nach Eimerts Tod, publiziert wurde. 

Page 13: Studienreader zur analogen elektroakustischen Musik

13  

Seine  eigene  elektronische Musik  brachte  Eimert  eine  große  öffentliche  Aufmerksamkeit. 

1952 entstanden beispielsweise Gemeinschaftskompositionen mit Beyer, die noch Versuchs‐

charakter hatten. Dazu gehörten Klangstudie  I,  II und  III, Klang  im unbegrenzten Raum und 

Ostinate Figuren und Rhythmus, die allesamt am 26. Mai 1953  innerhalb des Neuen Musik‐

festes vorgestellt wurden. Seine wohl bedeutendste Komposition  ist Epitaph für Aikichi Ku‐

boyama (1958‐62). Das verwendete Klangmaterial besteht ausschließlich aus Sprachklängen, 

die aus einemText von Günther Anders abgeleitet wurden. 

 

Doch Eimerts Hauptanliegen waren vor allem seine Schriften. Als Kritiker schrieb er mehr als 

3000 Rezensionen, die vor allem vermitteln und produktiv sein sollten. Viele von Eimert  ver‐

fassten Zeitschriftenartikel sind von den Nachkriegsdebatten über elektronische Musik und 

Weberns Musik beeinflusst. Er erwog die Musik Weberns als Vorreiter für serielle Methoden 

der Avantgarde‐Generationen.  Seine Atonale Musiklehre  von  1923  beansprucht,  die  erste 

systematische Beschreibung der atonalen Technik zu sein, in der er Arnold Schönbergs Neu‐

erungen der Zwölftonmusik zusammenfasste und Aspekte von Josef Matthias Hauers Theo‐

rie und kompositorische Techniken von Yefim Golišev erläuterte. Eben diesen verdankt er 

nach eigenen Angaben seine Kenntnisse der Zwölftontechnik, da er durch das Einbeziehen 

von  Rhythmus‐Parametern  bereits  vor  den  1920ern  ein  Vordenker  serieller  Technik war. 

1950 verfasste Eimert das Lehrbuch zur Zwölftontechnik und zählte sich neben Schönberg, 

Hauer und Golišev als die vierte Figur einer Autorenschaft der Zwölftontechnik, da er melo‐

disch‐lineare Zwölftonbildungen zur Grundlage des Systems machte. Es wurde mit mehreren 

Auflagen und Übersetzungen zum erfolgreichsten Zwölftonlehrbuch. 

 

Im Nachkriegsdeutschland war Eimert neben Josef Rufer und René Leibowitz einer der We‐

nigen,  die  Zwölftontechnik  unterrichteten.  In  seiner  Schrift  Zur  musikalischen  Situation 

(1954) definierte er seinen Begriff der elektronischen Musik und konstruierte eine Musikge‐

schichte, die im seriellen Konzept der elektronischen Musik kulminiert. In diesem Text lehnte 

er u. a. die seit 1948 von Pierre Schaeffer begründete Musique concrète [→] ab und ließ sie 

daher nicht in seiner Geschichtsschreibung zu. Die Ablehnung beruhte darauf, dass diese Art 

der Musik Klänge und Geräusche mit einem Mikrophon  aufnehme. Später widersprach er 

selbst diesem Kriterium und benutzte Mikrophone zur Aufnahme, so wie er zu Beginn der 

Arbeit  im neugegründeten Kölner Studio  für Elektronische Musik Klänge nicht  seriell,  son‐

dern sehr assoziativ komponieren ließ. Von 1955‐62 gab er mit K. Stockhausen in acht Heften 

das Periodikum die reihe – Informationen über serielle Musik heraus. 1963 ging er gedanklich 

mit Grundlagen der musikalischen Reihentechnik über die Zwölftontechnik hinaus und  zog 

die Konsequenzen aus dem inzwischen überholten seriellen Denken, welches die Arbeit sei‐

nes Kölner Künstlerkreises bestimmt hatte.  

 

Quellen 

Custodis, Michael: Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 

2004 

Eimert, Herbert, Atonale Musiklehre, Leipzig 1924 

Ders., Lehrbuch der Zwölftontechnik, Wiesbaden 1950 

Page 14: Studienreader zur analogen elektroakustischen Musik

14  

Ders., Musikalische Formstrukturen im 17. und 18. Jahrhundert. Versuch einer Formbeschreibung, 

Augsburg 1932 [Dissertation Univ. Köln, 1930]. 

Ders., Grundlagen der musikalischen Reihentechnik, Wien 1964 

Ders. mit Hans Ulrich Humpert, Lexikon der elektronischen Musik, Regensburg 1973 

Ders. mit  Karlheinz  Stockhausen  (Hg.),  die  reihe  –  Informationen  über  serielle Musik,  8  Hefte, 

1955‐62 

Kämper, Dietrich, Pionier der Neuen Musik. Herbert Eimert – Journalist, Komponist, Organisator und 

Förderer, in: MusikTexte 14 (1996), Heft 69/70 

Kirchmeyer, Helmut, Kleine Monographie über Herbert Eimert, Stuttgart und Leipzig 1998 

Supper, Martin, Art. Eimert, Herbert, in: MGG2 Personenteil 6, Kassel et al. 2006 

Wilson, Charles, Eimert, Herbert, in: NG Band 6, London 1980 

http://www.elektropolis.de/ssb_eimert.htm [3. Februar 2013] 

 

Janine Eichholz 

    

Page 15: Studienreader zur analogen elektroakustischen Musik

15  

Home‐Made Electronics Als Home‐made electronics bezeichnet man elektronische Musik, die nicht mit Computern 

oder  in speziellen Studios erzeugt wird, sondern aus zweckentfremdeten Alltagsgegenstän‐

den entsteht, die mit Mikrofonen und Lautsprechern versehen werden und über die Beein‐

flussung elektromagnetischer Felder klänge produzieren.  

 

1. Anfänge 

Das erste kommerziell elektronische  Instrument war das Theremin, das 1917 von Lew Ter‐

men erfunden und erfolgreich vermarktet wurde. Die Position der Hände beeinflusst über 

zwei Elektroden in Form von Antennen zwei elektrische Felder, die einen Ton erzeugen, der 

über einen Lautsprecher hörbar gemacht wird.  

 

 Abb. 1: Undatiertes Portrait von Lew Thermen 

 

2. Piezo‐Musik 

Nach  John Cages  [→] Cartridge Music versuchten viele Klangkünstler, Techniken  zum Ver‐

stärken der mechanischen Schwingungen und mikroskopische Geräusche zu entdecken. An‐

fang der 1970er  Jahre hat man die  in Piepern enthaltenen Piezoscheiben mit Lötkolben so 

verarbeitet, dass man sie z.B. als Tonabnehmer von Bluegrass‐Madolinen benutzen konnte. 

Durch die Vielfalt an Geräuschen entstand ein eigener Stil von Piezo‐Musik. Hugh Davis und 

Richard Lerman waren zwei der ersten Künstler auf diesem Gebiet. Davis erfand piezover‐

stärkte  Instrumente, die durch Zupfen oder Einblasen Marimba‐Klänge erzeugen  konnten. 

Lerman begann 1977, sich auf Piezo‐Musik zu konzentrieren und verwendete Computerfest‐

platten, die er mit gasbetriebenen kleinen  Lötlampen  stimulierte, die durch das Rauschen 

des Gases einen über Lautsprecher hörbar gemachten Klangeffekt erzeugen. 

 

 

 

Page 16: Studienreader zur analogen elektroakustischen Musik

16  

3. David Tudors Rainforest 

David Tudor begann seine Karriere als einer der führenden Pianisten der Avantgarde. In den 

frühen  1950er  Jahren war  er  als  Pianist  und  Ausführender  elektronischer  Stücke  bei  der 

Merce Cunningham Dance Company engagiert worden. Vergleichbar seiner herausragenden 

pianistischen Fähigkeiten war er ein Virtuose der Elektronik. Aufbauend auf Cages Arbeit mit  

„gefunden“ Technologien von Radios und Plattenspielern erwarb er sich umfangreiche elekt‐

rotechnische  Kenntnisse,  um  eigene  Schaltungen  und  Instrumente  herzustellen.  Inspiriert 

wurde Tudor dabei auch von Gordon Mumma.Beginnend  im Jahr 1968, entwarf Tudor eine 

Reihe von Stücken unter dem Titel Rainforest  ihr Höhepunkt war Rainforest. Das Prinzip al‐

ler Stücke dieser Reihe  ist ähnlich: Klänge werden von Sensoren erzeugt, die an festen Ge‐

genständen angebracht sind. Die verarbeiteten Sounds werden direkt von den Objekten zu‐

rückgeworfen,  indem  an  den Objekten  zusätzlich  befestigte Mikrofone  das  Vibrieren  der 

Oberflächen aufnehmen. Die am Mischpult zusammengeführten Klänge werden schließlich 

auf Lautsprecher ausgegeben, die um das Publikum herum aufgestellt wurden. 

 

4. Spuren in der elektronischen Musik 

Die 1970er  Jahren waren eine entscheidende Zeit  in der Entwicklung der Technologie und 

Kultur der elektronischen Musik, da Synthesizer noch sehr teuer waren und  junge Musiker 

selten Zugang zu profesionellen Studios hatten. Aus der mündlichen Tradierung von Wissen 

über elektronische Klänge entwickelte sich eine kreative Gemeinschaft von Gleichgesinnten, 

von denen einige auch mit Tudor arbeiteten. Zu ihnen gehörte auch David Behrman, der am 

Mills College  im kalifornischen Oakland Schüler von Tudor war und bis heute als Produzent 

und Komponist arbeitet. 

 

Ein anderes Beispiel ist die 1972 von den zwei Schweizer Andy Guhl und Norbert Möslang 

gegründete Formation Voice Crack, die zunächst zusammen experimentelle elektronische 

Musik machten. In den 1980er Jahren stieg ihre Bekanntheit, als sie aus alltäglichen elektro‐

nischen Geräten wie Diktafonen und Plattenspielern sowie aus blinkenden Lichtern, fernge‐

steuerten Autos oder Funkstörungen Geräusche generierten.  

 

Die  von Voice Crack  repräsentierte Nähe  zu Bildender Kunst und Klanginstallationen  trifft 

auch  auf Christian  Terstegge  zu, der bereits  seit den  früher  1980er  Jahren dafür bekannt 

war, Klanginstallationen und Performances mit hausgemachten Schaltungen  zu entwerfen. 

Seine  im Jahr 1986 vorgestellte Arbeit Ohrenbrennen  findet  in einem abgedunkelten Raum 

statt, man blickt in die offenen Seiten von vier schwarzen, nebeneinander aufgestellten Käs‐

ten,  die mit  Lautsprechern  verbunden  sind.  In  jedem  Kasten  steht  eine  dünne  Kerze,  die 

nacheinander angezündet werden. Während sich das Streichholz der Kerze nähert, entsteht 

ein Ton. Wenn alle Kerzen angezündet sind, überlagern sich  ihre Frequenzen, was sich mit 

steigender Tonhöhe verstärkt, je weiter die Kerzen abbrennen.  

Page 17: Studienreader zur analogen elektroakustischen Musik

17  

 Abb. 2: Installation von Ohrenbrennen 1988 im Künstlerhaus Hamburg 

 

Quellen 

Behrman, David, Chaotische Systeme. Tudor, in: MusikTexte 14 (1996) Heft 69/70 

Collins, Nicolas, Handmade Electronic Music ‐The art of hardware hacking, New York 20092  

Kuivila, Ron,  Composer  Indise  Electronics. Anmerkungen  zu David  Tudor,  in: MusikTexte 14  (1996) 

Heft 69/70 

Müller, Hermann‐Christoph, Einheit von Klang und Technik. Die Musik des US‐amerikanischen Kom‐

ponisten David Behrman, in: MusikTexte 18 (2000) Heft 85 

http://www.soundbasis.eu/pdfs/Davies_Portrait.pdf 

http://www.christian‐terstegge.de/kunst/ohrenbrennen.html 

 

Abb. 1 http://ludditesgroup.blogspot.de/2010/03/leon‐thermen.html [9. April 2013] 

Abb. 2 http://www.christian‐terstegge.de/kunst/ohrenbrennen.html [9. April 2013] 

 

Nadine Dakkour 

 

   

Page 18: Studienreader zur analogen elektroakustischen Musik

18  

Institut de Recherche et Coordination Acoustique/Musique (IRCAM) Ein Forschungsinstitut für Musik in Paris, welches 1970 von Pierre Boulez mit Unterstützung 

des  französischen Präsidenten Georges Pompidou gegründet wurde. Es entwickelte sich zu 

einem Zentrum der experimentellen elektronischen Musik. Aufgabe des Instituts ist es, For‐

schungen zur neuen Musik und  ihrer Technologie zu betreiben. Boulez selbst beschrieb die 

Aufgabe des IRCAM so: 

 

„Überhaupt wurden diese Forschungen immer in Institutionen betrieben, die dafür nicht ge‐

schaffen waren […] Es schien mir also notwendig, nicht mehr von Institutionen abhängig zu 

sein, die andere Gesichtspunkte  […] haben.  […] Man braucht eine  Institution, die sich aus‐

schließlich mit diesen Forschungen befasst.“ 

 

1. Geschichte 

Die  Idee eines  Instituts  für Musikforschung hatte Boulez aus Deutschland. Dort gab es ab 

1965 Planungen  für ein Max‐Planck‐Institut  für Musik, welches  in München entstehen und 

unabhängig von Musikschulen und anderen  Institutionen sein sollte. Boulez kam zu diesen 

Planungen  im Mai 1966 hinzu. Nachdem er es zunächst abgelehnt hatte, hauptamtlich dort 

zu arbeiten, legte er am 21.09.1971 doch einen Plan für ein solches Institut vor mit dem Titel 

„Centre de Recherches Acoustiques“.  In diesem Papier findet man viele Ansätze, die  im  IR‐

CAM verwirklicht wurden. Als das Projekt  in Deutschland wegen verschiedener Differenzen 

bereits stagnierte, bekam Boulez das Angebot, in Paris ein solches Institut nach seinen Wün‐

schen  aufzubauen.  Boulez  hatte  zunächst  auf  Grund  des  ambivalenten  Verhältnisses  zu 

Frankreich starke Vorbehalte, dorthin zurückzukehren. Vor allem seine Zusage war schließ‐

lich aber der Grund für das endgültige Ende des Münchener Projekts im Jahr 1972. Weitere 

wichtige Einflüsse für das IRCAM waren das Standford University’s Center for Computer Re‐

search  in Music and Acoustics  (CCRMA) und das Stanford Artificial  Intelligence  Laboratory 

(SAIL). Darüber  hinaus war  die  anfängliche Abhängigkeit  von  amerikanischer  Technik  und 

Technikern durchaus prägend.  

 

1977 nahm das IRCAM schließlich unter der Direktion Pierre Boulez seine Arbeit auf dem Ge‐

lände des Centre Pompidou auf. 1992 übernahm  Laurent Bayle die  Leitung, der 2002 von 

Bernard Stiegler abgelöst wurde. Seit 2006 leitet Frank Madlener das IRCAM. Die Arbeit des 

IRCAM wurde  in  die  Bereiche  Elektroakustik,  Computer(technik),  Pädagogik,  Instrumente 

und Stimme aufgeteilt, die jeweils von einem Spezialisten geführt wurden. U.a. arbeiteten in 

der Anfangszeit  Luciano Berio, Vinko Globokar,  Jean‐Claude Risset und Gerald Bennet  am 

Institut. Nicholas Snowman war von 1972‐1986 künstlerischer Direktor. Die dezentrale Auf‐

teilung dieser fünf Bereiche erwies sich jedoch als problematisch, so dass 1980 und 1984 die 

Organisationsstrukturen des  IRCAM  jeweils neu  geregelt wurden.  Insgesamt  konzentrierte 

sich die Forschung immer mehr auf den Bereich der computertechnischen Musikproduktion. 

Die Leitung des Instituts schaffte es, externe Einflüsse weitgehend zu vermeiden. So war es 

möglich,  die  technischen  Forschungen  hauptsächlich  nach  den  künstlerischen  Zielen  und 

Vorstellungen zu gestalten. 

 

 

Page 19: Studienreader zur analogen elektroakustischen Musik

19  

1999 wurde die Forschungsgruppe der Performing Arts unter der Leitung von François Raf‐

finot gegründet. Darüber hinaus wurden 2004 die musikalischen Forschungsgruppen neu  in 

Orchestration,  Rhythmus  und  Stimme  aufgeteilt.  Inzwischen wird  zwischen  drei Hauptar‐

beitsbereichen unterschieden: Werk, Forschung und Vermittlung.  Im  IRCAM arbeiten unge‐

fähr 150 Vollzeitmitarbeiter, darunter 90  Forscher und  Ingenieure.  Jährlich werden  ca. 20 

Komponisten beauftragt, Werke zu schreiben und diese am Institut zu verwirklichen. Heute 

hat sich das IRCAM zur Aufgabe gemacht, auch ein breiteres Publikum zu erreichen und jun‐

ge Künstler zu fördern. Dies zeigt sich u.a. in der Expansion des seit 1998 jährlich vom IRCAM 

ausgerichteten Agora‐Festivals sowie der Zusammenarbeit mit Hochschulen. 

 

2. Arbeiten und Projekte 

Zur Förderung  junger Künstler wurde bereits 1990 ein Kursprogramm  für Komposition und 

Computermusik eingerichtet, das vor kurzem in einem zweijährigen Kurs als Teil des ECMCT 

Leonardo Projekts (European Course for Musical Composition and Technologies) umgewan‐

delt wurde. Weiterhin besteht  seit 1993 eine Partnerschaft mit der Université Paris VI.  In 

diesem Jahr wurde auch das IRCAM Forum gegründet, eine Software Usergroup, in der 1500 

professionelle Musiker  vertreten  sind.  1996  eröffnete  das  Institut  die  IRCAM multimedia 

library und seit 1995 bilden das Kultusministerium, das CNRS und  IRCAM das „science and 

technologies for music and sound research lab“ (STMS). 2010 trat diesem auch die Universi‐

tät Pierre et Marie Curie (UPMC) bei. Seit 2001 arbeitet das IRCAM verstärkt an internationa‐

len Projekten mit, wie dem RadioThém, Carrouso, DoReMi, DVD á  la carte, SemanticHIFI o‐

der i‐Maestro. 

 

Im Zuge der Forschung entwickelte das IRCAM viele technische Neuerungen. Bei den Hard‐

waretools ist besonders der digitale Audioprozessor 4X zu nennen, den man seit 1976 vor al‐

lem produzierte, um Boulez‘ Répons verwirklichen  zu können, und der 1981  fertig gestellt 

wurde. Dieses Stück  illustriert  insgesamt viele der Forschungen am  IRCAM. So kommt hier 

auch die  IRCAM Signal Processing Workstation zum Einsatz, eine Technik, welche die Live‐

Elektronik vereinfachte. Mit dieser Workstation muss sich das Orchester nicht mehr an die 

Geschwindigkeit des Tonbandes halten, sondern der Computer orientiert sich mit Hilfe der 

Partiturverfolgung (Pitch Tracker) an der Geschwindigkeit der Musiker.  

 

Im Softwarebereich war das erste große Projekt 1988 das Max‐Programm, welches die  In‐

teraktion  zwischen  Computer  und  Interpreten  vereinfachte,  und  heute  zu  einer  Stan‐

dardsprache bei den mit MIDI arbeitenden programmierbaren Systemen geworden  ist.  Im 

selben Jahr wurde auch das Syntheseprogramm Modalys fertiggestellt. Ein weiteres Synthe‐

seprogramm, welches sprachorientiert arbeitet, ist Chant. 1995 wurde eine Software speziell 

für Konzerthallenakustik vorgestellt. In Zusammenarbeit mit dem Ministerium für Kultur und 

Industrie wurde 1996 eine Software  für das Komponieren am Computer entwickelt. Diese 

OpenMusic  Software  kommt  besonders  im Hochschulunterricht  zum  Einsatz.  Ein weiteres 

Projekt für die Ausbildung in Kooperation mit der Regierung war 2002 das MusiqueLab Pro‐

gramm. 2008 stellte das IRCAM das System „Wave Field Synthesis“ (WFS) fertig. Dies ist ein 

Verfahren zur räumlichen Audiowidergabe. Das Ziel dieses Systems ist es, eine virtuelle akus‐

Page 20: Studienreader zur analogen elektroakustischen Musik

20  

tische Umgebung  schaffen  zu  können.  Darüber  hinaus  verantwortet  das  IRCAM mehrere 

Zeitschriften‐ und Publikationsreihen. 

 

Quellen 

Born,  Georgina,  Rationalizing  Culture;  IRCAM,  Boulez,  and  the  Institutionalization  of  the Musical 

Avant‐Garde, Los Angeles 1995  

Boulez, Pierre, Wille und Zufall; Gespräche mit Célestin Deliège, Stuttgart 1977 

Custodis, Michael, Schwer von Begriff; Pläne zu einem nicht realisierten Max‐Planck‐Institut für Musik 

(1965‐1972), in: Die Tonkunst 6 (2012) Heft 2 

Jungheinrich, Hans‐Klaus (Hrsg.), Das Gedächtnis der Struktur. Der Komponist Pierre Boulez, Frankfurt 

a.M. 2010 

Manning, Peter, Art.  Institut des Recherche et Coordination Acoustique/Musique,  in: NG2 Band 12, 

London 2001 

Supper, Martin, Elektroakustische Musik und Computermusik, Fulda 1997 

Vinet, Hugus, Science and Technology of Music and Sound: The IRCAM Roadmap, in: Journal of New 

Music Research 36 (2007) Heft 3 

http://brahms.ircam.fr/works/alphabetical‐order/a/ [1. März 2013] 

http://www.ircam.fr/62.html?&L=1 [1. März 2013] 

Vera Muhmann    

Page 21: Studienreader zur analogen elektroakustischen Musik

21  

Koenig, Gottfried Michael Dt. Komponist, Theoretiker, Hochschullehrer und Computermusik‐Pionier  (* 5. Okt. 1926  in 

Magdeburg). Obwohl  G. M.  Koenig  eher  zu  einem  der  übersehenen  Künstler  der  Kölner 

Richtung gehört,  ist er, neben seiner umfangreichen Kompositions‐ und Lehrtätigkeit, vor al‐

lem durch  seine  theoretisch‐systematische Aufarbeitung der elektronischen Musik bekannt 

geworden, welche logisch aus seinem eigenen Kompositionsprozess folgt. In seinen theoreti‐

schen Schriften geht es u. a. um den Brückenschlag zwischen elektronischer und  instrumen‐

taler Musik sowie dem zwischen zufälliger und serieller Kompositionsweise. 

 

  

Koenig wurde als Sohn eines evangelischen Pfarrers geboren und erhielt von seinem zehnten 

Lebensjahr an Klavier‐ sowie später Violin‐ und Orgelunterricht. Von 1936 bis 1944 besuchte 

er das Wilhelm‐Gymnasium in Braunschweig, bis er zum Kriegsdienst eingezogen wurde. Im 

Mai 1945 kam er in amerikanische Kriegsgefangenschaft, aus der man  ihn aber bereits 1946 

wieder  entließ.   Noch  im  selben  Jahr  begann  er  ein  Studium  der  Kirchenmusik  in  Braun‐

schweig und wechselte 1946 an die Nordwestdeutsche Musikakademie nach Detmold, wo er 

Komposition bei Günter Bialas, Musikgeschichte bei  Lina  Jung, Analyse bei Wilhelm Maler, 

Klavier bei Jan Natermann und Akustik bei Erich Thienhaus studierte. 

 

Durch  den  Besuch  der  Darmstädter  Ferienkurse  1951,  bei  denen  er  u.  a.  Vorträge  von 

Werner Meyer‐Eppler  [→  Elektronisches  Studio  des WDR]  und Herbert  Eimert  [→]  hörte, 

sowie  die  ersten  Nachtprogramme  des  NWDR wurde  sein  Interesse  für  die elektronische 

Musik  geweckt. Daraufhin  schrieb  sich  Koenig  1953  für  ein  Studium  der musisch‐  techni‐

schen  Gestaltung  an  der Musikhochschule  Köln  ein und bewarb  sich  bei Eimert auf eine 

Stelle  im elektronischen Studio des NWDR, welche er 1954 antrat. Bis 1964 war er dort fes‐

ter Mitarbeiter. Zum einen assistierte er Kollegen, etwa Karlheinz Stockhausen [→], Mauricio 

Kagel, Franco Evangelisti, Györgi Ligeti, Henri Pousseur  [→] oder  Herbert  Brün,  zum ande‐

ren  verwirklichte  er dort  seine eigenen  elektronischen  Kompositionen.  In  dieser  Zeit  ent‐

standen  z.  B.  Klangfiguren  I  u.  II  (1955  bzw.  1955/56),  Essay  (1957/58)  und  Terminus  1 

(1962).  Des Weiteren  schrieb  er weiterhin Werke  für Orchester und  kammermusikalische 

Besetzungen,  beispielsweise  Diagonalen  für  2  Orchester  (1955),  Quintett  für  Holzbläser 

Page 22: Studienreader zur analogen elektroakustischen Musik

22  

(1958/59) oder das Streichquartett 1959. Zusätzlich erhielt Koenig ab 1962 einen Lehrauftrag 

für elektronische Musik, Analyse und Komposition an der Musikhochschule Köln.  Zwischen 

1962  und  1964  studierte  er  außerdem  Computertechnik  in  Bonn,  wo  er  seine  ersten 

Kompositionsversuche mit dem neuen Medium unternahm. Von 1964 bis 1986 war er an‐

schließend Mitarbeiter an der Universität Utrecht, davon die längste Zeit als Direktor des In‐

stituts für Sonologie, das unter seiner Leitung zu weltweitem Ruhm gelangte. Er entwickelte 

dort u. a. die Computerprogramme Projekt 1, Projekt 2 und SSP (Sound Synthesis Program). 

Als das Institut 1986 von Utrecht nach Den Haag verlegt wurde, widmete sich Koenig wieder 

zunehmend  der  Komposition,  um  an  grafischen  Computermethoden  und  der  Entwicklung 

musikalischer Expertensysteme zu arbeiten. Darüber hinaus verlegte er seine gesammelten 

theoretischen Schriften, Essays, Vortragsnotizen und Tagebücher. Auch  im hohen Alter hält 

Koenig weiterhin Vorträge im In‐ und Ausland.  

 

Für seine Arbeit erhielt Koenig zahlreiche Auszeichnungen. Darunter waren 1961 die Förde‐

rungsprämie des Landes Nordrhein‐Westfalen, 1987 der Matthijs Vermeulen‐Preis der Stadt 

Amsterdam, 1999 der Christoph und Stephan Kaske‐Preis sowie im Jahr 2010 der Giga‐Hertz‐

Preis des Zentrums für Kunst und Medientechnologie in Karlsruhe. 2002 wurde ihm darüber 

hinaus die Ehrendoktorwürde der philosophischen Fakultät der Universität des  Saarlandes 

verliehen und 2002/03 die Ehrenprofessur für Computermusik an der Universität der Künste 

Berlin.  

 

Bereits in seiner Kölner Zeit zeichneten sich seine Kompositionen durch konsequent struktu‐

rierte Formen aus, etwa  in seinem Stück Essay. Koenig interessierte sich mit naturwissen‐

schaftlicher Genauigkeit besonders für Kompositionsprozesse – so dem Wirken von „Musik 

und Zahl“, mit dem „versucht wird, die Komposition musikalischer Strukturvarianten zu  for‐

malisieren“  –  und  Klangfarben.  Obwohl  er   sich  streng  an  die  Trennung  zwischen  instru‐

mentaler  und  elektronischer Musik  hielt,  so  sind  diese  beiden,  für  ihn  augenscheinlichen 

Extreme doch durch bestimmte Systematiken bis zu einem gewissen Grad miteinander ver‐

knüpft. Sinnbild  für die Überwindung dieser Lücke  sind  vorrangig  seine Computerprogram‐

me,  auch wenn  sie  für  ihn  immer  bloß Mittel  zum  Zweck waren.  Seine  Funktionen‐Reihe 

(1967‐69) wurde beispielsweise nur aus einer einzigen, seriell strukturierten Spannungskurve 

heraus mithilfe eines im Utrechter Studio gebauten Funktionsgenerator abgeleitet; die Klän‐

ge wurden über einen Ringmodulator erzeugt. Seine Programme hatten zum Ziel, seine be‐

reits existierenden Kompositionstechniken weiter zu systematisieren und  sie anderen Kom‐

ponisten zugänglich zu machen. Hatte Cage mit seinen stark vom Wert des Zufall geprägten 

Kompositionsidealen noch  stark die Avantgardeszene erschüttert, so  gelang  es  Koenig und 

anderen, die  vermeintliche Kluft  zwischen  zufälligen und  geplanten Elementen  in der Mu‐

sik zu überbrücken. Das von ihm programmierte Projekt 1 (1964 – 1966) erzeugte, durch ei‐

nige wenige  Angaben  des  Komponisten,  zufällig  generierte,  serielle  Tonreihen.  Projekt  2 

(ca.  1966 – 1968) erweitere die Möglichkeiten des Komponisten noch erheblich. Die Kompo‐

sitionsprozesse mussten nun von vorneherein und in diversen Schritten strukturiert werden. 

Der „TENDENZ“‐Algorithmus, den Koenig hierfür verwendete, bildete die Grundlage für  fast 

alle  modernen  Kompositionsprogramme.  Auch  instrumentale  Kompositionen  profitierten 

Page 23: Studienreader zur analogen elektroakustischen Musik

23  

von der Computerentwicklung. Hier sei exemplarisch Übung für Klavier (1970/71) zu nennen. 

SSP (1972‐1977) wiederum erzeugte Klang bloß mit den Parametern Amplitude und Zeit. 

 

Quellen 

Koenig, Gottfried Michael u. C. Roads, An Interview with Gottfried Michael Koenig, in: Computer Mu‐

sic Journal 2 (1978) Heft Dezember 

Metzger, Heinz‐Klaus (Hg.), Gottfried Michael Koenig, München, 1989 

Tual, Françoise‐Gildas, Art. Koenig, in: MGG2 Personenteil 10, Kassel 2003 

Wolf, Frobenius (Hg.), Koenig, Gottfried Michael: Ästhetische Praxis. Texte zur Musik (aus der Reihe 

Quellentexte zur Musik des 20. Jahrhunderts Bd. 1‐5), Saarbrücken 1991 bis 2002 

http://www.koenigproject.nl [24. Januar 2013]  

http://www.youtube.com/watch?v=VtRXEc0YsMY.  [3. Februar 2013] 

 

Abb. http://www.nmz.de/artikel/koelner‐aussenminister‐und‐entwicklungshelfer [24. Januar 2013] 

 

René Bialik 

    

Page 24: Studienreader zur analogen elektroakustischen Musik

24  

Luening, Otto  US‐amerikanischer  Komponist,  Dirigent,  Flötist,  Dozent  und  Wegbereiter  der 

Elektroakus schen Musik in den USA (* 15. Juni 1900 in Milwaukee; † 2. September 1996 in 

New York). 

 

Als Sohn des deutschen Dirigenten, Pianisten und Sängers Eugene Luening und seiner Frau, 

der Sängerin Emma  Luening entdeckte O.  Luening bereits  im Alter von  sechs  Jahren  seine 

Affinität zur Musik. Zunächst bekam er Unterricht bei seinem Vater und komponierte bereits 

erste Stücke. 1912 zog Luening mit seiner Familie von Milwaukee nach München, wo er von 

1915  bis  1917  an  der  Staatlichen Hochschule  für Musik  Flöte  und  Klavier  bei  Josif Brecht 

sowie Komposition bei Anton Beer‐Walbrunn studierte. Aufgrund des Kriegseintritts der USA 

floh die Familie 1917 aus München und ließ sich in Zürich nieder. Dort studierte Luening ab 

1917  für  drei  Jahre  am  Zürcher  Konservatorium  Dirigieren  bei  Volkmar  Andreae  und 

Komposition  bei  Philipp  Jarnach.  Außerdem  nahm  er  Unterricht  bei  Ferruccio  Busoni. 

Zeitgleich  spielte  er  seit  1917  Flöte  und  Percussion  beim  Tonhalle‐Orchester  Zürich  und 

debütierte im selben Jahr als Komponist und Dirigent. 

 

1. Biografisches 

1920  zog  Luening  nach  Chicago  und  studierte  bei Wilhelm Middelschulte Harmonielehre, 

Musiktheorie  und  Kontrapunkt.  Außerdem  wurde  er  zeitgleich  Dirigent  bei  der 

neugegründeten American Grand Opera Company. Von 1925 bis 1928 leitete er als Executive 

Director die Opernabteilung der Eastman School of Music in Rochester/New York, wo er auch 

als Dirigent  angestellt war.  1930  bis  1932  erhielt  er  zwei  Jahre  in  Folge  ein Guggenheim‐

Stipendium,  um  seine  erste  eigene  Oper  Evangeline  zu  komponieren,  die  auf  einer 

poetischen Erzählung von Henry Wadsworth Longfellow beruht. 1932 bis 1934 bekam er eine 

Stelle an der University of Arizona als Associate Professor. 1934  leitete er  für 10  Jahre die 

Musikabteilung des Bennington College  in Vermont und war gleichzeitig von 1936 bis 1938 

stellvertretender Dirigent des New York Philharmonic Symphony Chamber Orchestra. 1944 

bis 1964 war Luening Dozent am Barnard College in New York und parallel dazu Professor für 

Komposition  an der Columbia University New York  (1949‐1960), wo er  auch  seit 1944 die 

Opernproduktionen  leitete.  1959  wurde  das  Columbia‐Princeton  Electronic Music  Center 

gegründet [→ Tape Music], an dessen Einrichtung er maßgeblich beteiligt war. Hier wurde er 

neben Vladimir Ussachevsky und Milton Babbitt Vizedirektor. Nach seiner Emeritierung 1964 

übernahm  er  bis  1970  die  Leitung  der Musikabteilung  der  Columbia  School  of  Arts  und 

wurde  anschließend  bis  1973  Professor  für  Komposition  an  der  Julliard  School  of Music. 

Zudem  hatte  Luening  viele  weitere  Positionen  und  Funktionen  in  unterschiedlichsten 

Künstlervereinigungen  inne  und  bekam  eine  große  Anzahl  von  Preisen  für  seine 

Kompositionen  und  sein  Engagement  im  Bereich  der  Musik.  Unter  seinen  zahlreichen 

Schülern waren  unter  anderem Marvin David  Levy, Charles Dodge, Harvey  Sollberger  und 

John  Corigliano.  1980  veröffentlichte  Luening  seine  Autobiographie mit  dem  Namen  The 

Odyssey of an American Composer. In dieser Autobiographie dokumentierte er alle wichtigen 

Ereignisse  seiner  Karriere.  Zudem  ist  die  Quellenlage  zu  seiner  Person  im  Vergleich  zu 

anderen Komponisten dieses Genres und dieser Zeit  sehr dünn. Man  findet  in den großen 

Standardwerken  viel  zu  seiner  Biographie,  jedoch  wenig  zur  Musik  Luenings.  Er  selbst 

Page 25: Studienreader zur analogen elektroakustischen Musik

25  

publizierte zahlreiche Aufsätze, bevorzugt über die Entwicklung der elektroakustischen Musik 

in Europa und den USA. 

 

2. Die Enwicklung seiner Musik 

Die  frühen Werke Luenings sind vom Kontrapunktstudium bei  Jarnach und Busoni geprägt. 

Inspiriert  von  Schönberg,  findet  sich  in  dieser  Phase  jedoch  auch  die  Kombination  von 

Tonalität und Atonalität  in  seinen Kompositionen wieder. Außerdem  lassen  sich polytonale 

und serielle Techniken erkennen, die auf die Lehre von Bernhard Ziehn zurückzuführen sind. 

Ab  1920  entwickelte  Luening  das  Konzept  der  „Akustischen Harmonik“. Hier  gestaltete  er 

außerhalb der Grund‐ und Septimenakkorde verschiedene segmentäre Obertonreihen, was 

ihn  in  den  1950er  Jahren  schließlich  zur  Elektronischen  Musik  brachte.  Er  setzte  sich 

besonders  intensiv mit dem neuen Medium des Tonbandes auseinander. In Luenings ersten 

elektronischen  Kompositionen  wurden  Tonband‐Klänge  als  primäre  Formkomponente 

verwendet.  Im  Oktober  1952  fand  die  erste  Aufführung  seiner  elektronischen  Musik 

zusammen mit Vladimir Ussachevsky statt, welcher kurz zuvor ebenfalls einen Lehrauftrag an 

der Columbia University erhalten hatte. Gemeinsam führten sie  im Museum of Modern Art 

in New  York  Luenings Werk  Fantasy  in  Space  auf,  bei  dem  dieser  live  Flöte  zum  Tonband 

spielte.  Außerdem  enthielt  das  Programm  seine  Low  Speed  Invention  und  Ussachevskys 

Sonic  Contours.  In  der  Low  Speed  Invention  arbeitet  Luening mit  vielen  Echos,  die  einen 

umher kreisenden Klang erzeugen, außerdem besteht eine weitere Besonderheit darin, dass 

die  Flöte  unterhalb  der  eigentlichen  Stimmlange  gespielt  wird.  Seine  zwei  aufgeführten 

Werke  beschrieb  Luening  selbst  als  exotisch,  impressionistisch  und  virtuos.  Kurz  nach  der 

ersten  Aufführung  entstand  das Werk  Rhapsodic  Variations  (1953/54)  für  Orchester  und 

Tonband,  welches  Luening  zusammen  mit  Ussachevsky  komponierte.  Dieses 

Gemeinschaftswerk  wurde  erstmalig  am  20.  März  1954  mit  dem  Louisville  Orchestra 

aufgeführt. In den 1960er Jahren entdeckte Luening erneut sein Interesse an Kammermusik, 

so dass er das Kombinieren verschiedener Stile zu seinem Formprinzip erhob.  

 

Quellen 

Goodman, Alfred, Art. Luening, in: MGG2 Personenteil 11 , Kassel 2004 

Kagan, Wendy, Otto Luening Biography, online unter 

http://www.musicianguide.com/biographies/1608003277/Otto‐Luening.html [9. April 2013] 

Luening, Otto, Some Randon Remarks about Electronic Music,  in:  Journal of Music Theory 8  (1964) 

Heft 1 

  Ders., An Unfinished History of Electronic Musik, in: Music Educators Journal, 55 (1968) Heft 3 

Trimble, Trimble und Severin Neff, Art. Luening, in: NG2 Band 15, London 2001 

 

Marlene Ryba    

Page 26: Studienreader zur analogen elektroakustischen Musik

26  

Musique concrète Musique  concrète  ist der  von Pierre  Schaeffer eingeführte Begriff  für die  von  ihm  in den 

1940er und 1950er Jahren begründete Studiomusik, welche zur Entwicklung der Elektroakus‐

tischen Musik  der  2.  Hälfte  des  20.  Jahrhunderts maßgeblich  beigetragen  hat.  Das  Aus‐

gangsmaterial sind konkrete Klänge und Geräusche, die allen Bereichen des Hörbaren ent‐

nommen  sind  und  nach  Aufnahme  und Weiterverarbeitung  in  neue musikalische  Zusam‐

menhänge gebracht werden. 

 

1. Personen‐ und Sachgeschichte 

Der französische Ingenieur, Musiktheoretiker und Komponist Pierre Schaeffer (* 14.8.1910 in 

Nancy,  19.8.1995  in Les Milles bei Aix‐en‐Provence) entschied sich  trotz seines musikali‐

schen  Elternhauses  für  ein  technisch‐naturwissenschaftliches  Studium  an  der  École  poly‐

technique und der École de télécommunication und arbeitete ab 1935 als Tontechniker beim 

Rundfunksender Radiodiffusion Française. Lediglich durch seinen Violoncellounterricht und 

einige Analysekurse musikalisch gebildet, begann er mit auf seinen technischen Kenntnissen 

beruhenden Geräuschexperimenten und dem Ziel, daraus eine neue Stilrichtung  zu entwi‐

ckeln.  Im  Jahr 1942 gründete er hierfür das  zunächst private Studio d’Essai, welches 1948 

zum Club d’Essai als Teil von Radiodiffusion Télévision Française  (RTF) wurde.  Im gleichen 

Jahr wurde sein Concert de bruits, in dem sich Verbindungen zum Futurismus erkennen las‐

sen,  im Pariser Hörfunk ausgestrahlt. Für die neue Musikrichtung schlug er  im Jahr 1949  in 

der Zeitschrift Polyphonie die Bezeichnung Musique concrète vor, der Club d’Essai entwickel‐

te sich zum Zentrum der Diskussion. Dort begann P. Schaeffer die Zusammenarbeit mit dem 

Komponisten Pierre Henry. Gemeinsam  realisierten  sie 1950 das erste Konzert Symphonie 

pour un homme seul und gründeten im Folgejahr die Groupe de Recherche de Musique Con‐

crète  (GRMC). Bei den Donaueschinger Musiktagen 1953  stellten  sie das Werk Orphée 53 

vor, das bei den Rezipienten jedoch auf starke Ablehnung stieß. Dennoch fand die konkrete 

Musik fortan immer häufiger Verwendung in Rundfunk, Theater, Ballett, Film und Fernsehen. 

Es folgte ein reger internationaler Austausch von Informationen und Tonbandaufnahmen. 

 

Die Anfänge der Musique concrète waren geprägt durch das Verfahren, vokale und  instru‐

mentale Klänge zu transformieren und  in neue musikalische Strukturen einzubetten. Durch 

den technischen Entwicklungsstand der Produktionstechniken bedingt, waren in den frühen 

Werken  viele Wiederholungen  kurzer  Abschnitte  zu  finden.  In  den  frühen  1950er  Jahren 

konnte  zwischen der konkreten und der elektronischen Musik, wie der des Kölner Studios 

[→], noch unterschieden werden, da sich beide anderer Ausgangsmaterialien bedienten und 

verschiedene Kompositionswege verfolgten. Hieraus  resultierte eine erwähnenswerte Aus‐

einandersetzung zwischen den beiden Studios: Den Kölner Komponisten, die ausschließlich 

von  im  Studio produzierten  synthetischen Klängen ausgingen, wurde primär  vorgeworfen, 

dass  sie  die musikalischen  Parameter  Tonhöhe,  Intensität  und Dauer  in  den Vordergrund 

stellten und somit nur eine begrenzte Anzahl von Klängen charakterisieren könnten. Dage‐

gen hätte sich die Bandbreite der konkreten Musik auch auf Farbe, Dichte, Dynamik und an‐

dere Eigenschaften erstreckt. Die Vertreter aus Köln beanstandeten an dem Schaffen der Pa‐

riser Gruppe um P. Schaeffer im Gegenzug das Fehlen einer kompositorischen Struktur in ih‐

ren Werken. Pierre Boulez [→], der zunächst Werke im Stil der konkreten Musik komponier‐

Page 27: Studienreader zur analogen elektroakustischen Musik

27  

te, sich aber ab 1953 von ihr entfernte, kritisierte zudem die Oberflächlichkeit bei der Wahl 

der  Ausgangsmaterialien  und  die  technische  Qualität  der  Klangergebnisse.  Die  Bearbei‐

tungsmöglichkeiten differenzierten sich in der Folgezeit so weit aus, dass die ursprünglichen 

Klang‐  und Geräuschquellen  nicht mehr  eindeutig  bestimmt werden  konnten. Daraus  fol‐

gend schlug P. Henry für beide Stilrichtungen die zusammenfassende Bezeichnung Elektroa‐

kustische Musik vor. In erster Linie war die Diskussion ein Stil‐ und Qualitätsstreit zwischen 

den Anhängern der Musique concrète und denen der elektronischen Musik.  

 

Im  Laufe der 1950er  Jahre  zog der Club d’Essai das  Interesse  internationaler Musiker  auf 

sich, so arbeiteten neben den Genannten u.a. auch Karlheinz Stockhausen [→], Olivier Mes‐

siaen, Edgar Varèse und  Iannis Xenakis  [→]im Pariser  Studio. Hinsichtlich der Entwicklung 

der wichtigsten  technischen und  theoretischen Grundlagen sind neben P. Schaeffer und P. 

Henry auch François Bayle, Guy Reibel und Michel Chion zu nennen. Versuche, kompositori‐

sche Ordnungsprinzipien in der Musique concrète zu etablieren, blieben weitgehend erfolg‐

los. Erst in den Jahren nach 1956 traten bei Michel Philippot, Luc Ferrari, Ivo Malec, Xenakis 

und Bayle eben solche Aspekte in den Vordergrund, die Werke standen jedoch nicht mehr in 

enger Beziehung zur konkreten, sondern sind eher der seriellen bzw. seriell‐elektronischen 

Strukturmusik zuzuordnen. Diesen Entwicklungen geschuldet gab P. Schaeffer im Folgenden 

den Begriff Musique concrète auf. Zusammen mit François‐Bernard Mâche undFerrari  for‐

mierte er im Jahr 1958 die GRMC zur Groupe de Recherches Musicales um: Schwerpunkt der 

Forschung sollte die Entwicklung einer umfassenden Theorie der Klangwelt als Vorbedingung 

für die kommende Elektroakustische Musik sein. Sein theoretisches Schaffen stand von die‐

sem Zeitpunkt an  im Vordergrund.  Im  Jahr 1966 veröffentlichte er die Monographie Traité 

des objets musicaux,  in der er seinen zentralen Begriff des Klangobjekts beschrieb und den 

Entwurf einer neuen Klanglehre vorstellte. Die Umstrukturierung der Rundfunkanstalt Office 

de Radiodiffusion Télévision Française (ORTF) im Jahr 1974 führte zur Eingliederung der GRM 

in das von P. Schaeffer mitbegründete Institut national de l’audiovisuel (INA), er selbst wur‐

de in den Ruhestand versetzt. Bereits im Jahr 1966 gab er die Leitung der GRM an Bayle ab, 

seit 1997  ist Daniel Teruggi für sie verantwortlich. Für seine Verdienste wurde P. Schaeffer 

mit nationalen Preisen, u.a. dem Grand Officier de l’ordre national de mérite, ausgezeichnet. 

 

P. Henry  (* 9.12.1927  in Paris), der  zwischen 1950 und 1958  intensiv mit P. Schaeffer  zu‐

sammenarbeitete,  ist gelernter Schlagzeuger, Komponist und einer der bedeutendsten Ver‐

treter der Musique concrète. Ausgebildet wurde er zwischen 1937 und 1947 am Pariser Con‐

servatoire als Schüler von Messiaen, Nadia Boulanger und Félix Passeronne. Bereits zu Be‐

ginn seines musikalischen Schaffens war er an der Suche nach neuen Klängen  interessiert. 

Das Ergebnis eines Kompositionsauftrags zum Dokumentarfilm Voir  l’invisible  legte er 1949 

eben Schaeffer vor und  trat  im  selben  Jahr dem Club d’Essai bei. Nach dem Ende der Zu‐

sammenarbeit  im  Jahr 1958 gründete er  sein eigenes privates Studio Applications de pro‐

cédés sonores de musique électroacoustique  (APSOME).  In den 1980er  Jahren wurden die 

musikalische Verwendung von Elektronik und experimentelle Verfahrensweisen zum grund‐

legenden Bestandteil vieler Stile  im Bereich der Popularmusik, so dass auch seine Arbeiten 

zunehmend ihren innovativen Charakter verloren. Seit Mitte der 1990er Jahre entdeckte die 

Technoszene  ihn wieder, es  folgten Remixe durch Musiker wie Fatboy Slim, William Orbit, 

Page 28: Studienreader zur analogen elektroakustischen Musik

28  

Kojak,  Area  21  oder  DJ  Koze.  Zudem  veröffentlicht  Henry  eigene  Techno‐Kompositionen. 

Darüber hinaus  lassen sich auch bei Künstlern anderer kontemporärer Musikstile Elemente 

der Musique concrète wiederfinden, so z.B. bei Björk, Matmos oder Radio Boy. 

 

2. Merkmale  

Die Musique concrète gilt als erste Musikrichtung, die nur über Schallplatten, Tonträger und 

Lautsprecher reproduziert wurde, also jederzeit gespielt und aufgeführt werden konnte. Sie 

begann  im Gegensatz zum traditionellen Kompositionsverfahren beim konkreten Klangphä‐

nomen. Dieses wurde Teil eines abstrakten Klangergebnisses, für das es keine theoretischen 

Konstruktionen gab. Eine solche individuelle Klangmontage setzte keine Partitur voraus. 

 

Zu den wichtigsten Merkmalen gehörte die Universalität des Klangmaterials, es gab keine di‐

chotomische Unterscheidung zwischen Tönen und Geräuschen. Ausgangsmaterialien konn‐

ten europäische und außereuropäische Musikinstrumente, Geräusche der technischen Um‐

welt wie  z.B. Geräusche der Straße, Bahnhöfe oder Fabriken, Naturlaute wie Wind, Regen 

und  Wasserrauschen,  oder  Tierlaute  sein.  Weiterhin  wurden  Ausschnitte  von  Gesang, 

Stimm‐ und Sprachlaute, die meist auf einzelne Worte und Vokale reduziert waren, Klänge 

und  Klangstrukturen  bestehender  Schallplattenmusik  sowie  elektrisch  erzeugte Geräusche 

und Klänge  verwendet. Alle Ausgangsmaterialien wurden  zunächst mit Mikrofonen  aufge‐

zeichnet  und  auf  Schallplatte  gespeichert. Mit  einer  speziellen  Klaviatur  konnte  Schaeffer 

mehrere Schallplatten parallel bedienen. In der Folgezeit fanden zunehmend Magnetbänder 

Verwendung. Aus diesen Aufnahmen wurden Klangfragmente ausgewählt,  isoliert und mit 

Hilfe elektroakustischer Apparate, wie z.B. dem Phonogène von Jacques Poullin und Francis 

Coupigny, weiterbearbeitet, neu zusammengesetzt und gemischt. Durch die technische Be‐

arbeitung konnte das Klangobjekt  seine ursprüngliche  Identität verlieren. Der Höreindruck 

und  die  kompositorische  Verwendung waren  im  Gegensatz  zur  Herkunft  der  Klänge  von 

maßgeblicher Bedeutung. Eine Unterscheidung des Materials nach Quellen war nur dann ge‐

rechtfertigt, wenn der Ursprung im Ergebnis noch erkennbar war.  

 

Grundbegriff der konkreten Musik war nach Schaeffer das Klangobjekt. Dieses definierte er 

als so komplex, dass es nicht durch eindeutig festgelegte Variablen wie Lautstärke, Tonhöhe 

oder Klangfarbe bestimmt werden konnte. Zu den  technischen Bearbeitungsmöglichkeiten 

zählten u.a. die  von  Schaeffer bereits 1948 entwickelten Grundtechniken der  Fragmentie‐

rung und mechanischen Wiederholung. Hierfür verwendete er Schallplatten mit Endlosrillen, 

wie sie bei Fehlproduktionen zu finden waren. Die Veränderung der Lautstärke und der Dy‐

namik  durch  Abdämpfen  und  Verstärken,  Veränderung  der  Tonlage  durch  Transposition, 

Wegnahme von Tönen durch den Einsatz von Filtern oder auch Veränderung der Klangfarbe 

und Tonhöhen, z.B. durch additive Mischung, Synchronisation, oder multiplative Mischung, 

Ringmodulation,  ermöglichten weitere  technische Manipulationen  der  Klänge  und Geräu‐

sche. Die Verkürzung des Materials durch Abschneiden des Einschwingvorganges, die Ver‐

längerung durch Schleifenbildung oder die Veränderung der Hüllkurve ließen den Komponis‐

ten Einfluss auf die Form des Klanges und den Klangverlauf nehmen. Zudem konnte mit ab‐

soluter Transposition, bei der sich gleichzeitig die Tonlage und die Ablaufgeschwindigkeit des 

Bandes  bzw.  die Dauer  des  Tons  oder  des Geräuschs  änderten,  die Materie  des  Klanges 

Page 29: Studienreader zur analogen elektroakustischen Musik

29  

grundlegend modifiziert werden. Der Zeitraffer führte zu einer schnelleren Ablaufgeschwin‐

digkeit und hat somit eine höhere Tonlage zur Folge, die Zeitlupe hingegen eine tiefere Ton‐

lage bei  langsamerem Tempo. Der Komponist ging bei  seiner Klangverarbeitung  stets vom 

realen Höreindruck und nicht von physikalischen Messwerten aus. Das Paradigma der Mu‐

sique concrète bestand also darin, dass der musikalische Wert der veränderten und neu zu‐

sammengesetzten Klänge nur an  individuelle Kriterien der auditiven Wahrnehmung gebun‐

den war. 

 

Quellen 

Appen, Ralf von, Konkrete Pop‐Musik. Zum Einfluss Stockhausens und Schaeffers auf Björk, Matthew 

Herbert und Matmos, in: Dietrich Helms und Thomas Phleps (Hg.), Samples. Notizen, Projekte und 

Kurzbeiträge zur Popularmusikforschung, Bielefeld 2003 

Blumröder, Christoph von, Musique concrète, in: Carl Dahlhaus und Hans Heinrich Eggebrecht (Hrsg.), 

Brockhaus Riemann Musiklexikon Bd. 3, Zürich 1998 

Eimert, Herbert und Hans Ulrich Humpert, Art. Musique concrète, in: dies., Das Lexikon der elektroni‐

schen Musik, Regensburg 1973 

Emmerson, Simon und Denis Smalley, Art. Electro‐acoustic Music, in: NG2 Band 8, London 2001 

Frisius, Rudolf, Konkrete Musik. Ein Lehrpfad durch die Welt der Klänge, in: Neue Zeitschrift für Musik 

158 (1997) Heft 5 

Frisius, Rudolf, Art. Musique concrète, in: MGG2 Sachteil 6, Kassel et al. 1997 

Humpert, Hans Ulrich, Musique concrète, in: ders., Elektronische Musik. Geschichte, Technik, Kompo‐

sitionen, Mainz 1987 

INA – GRM. La création et la recherche dans le domaine du son et des musiques électroacoustiques, 

online unter http://www.inagrm.com [18. Januar 2013] 

Kaegi, Werner, Musique concrète und Tape music, in: ders., Was ist elektronische Musik, Zürich 1967 

Möller, Torsten, Pierre Schaeffer, in: MGG2 Personenteil 14, Kassel et al. 2005 

Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 22010 

Schaeffer, Pierre, Musique concrète, in: Wilibald Gurlitt und Hans Heinrich Eggebrecht (Hg.), Riemann 

Sachlexikon Musik, Mainz et al. 121996 

Schweizer, Klaus, Pierre Schaeffer, in: Horst Weber (Hg.), Komponisten‐Lexikon. 350 werkgeschichtli‐

che Portraits, Stuttgart et al. 22003 

Smalley, Denis, Groupe de Recherches Musicales, in: NG2 Band 10, London 2001 

Supper, Martin und Elena Ungeheuer, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al. 

1995 

Tual, François‐Gildas, Art. Pierre Henry. in: MGG2 Personenteil 8, Kassel et al. 2002 

Ungeheuer, Elena und Martin Supper, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al. 

1995 

 

Matthias Lund und Nils Wilmsmeier 

    

Page 30: Studienreader zur analogen elektroakustischen Musik

30  

Pousseur, Henri Léon Marie Thérèse 

Belgischer Komponist und Musiktheore ker (*23.06.1929 in Malmédy; †06.03.2009 in Brüs‐

sel).   

 

1. Leben 

Über Pousseurs Kindheit undJugend sowie seine Wahrnehmung des für ihn prägenden deut‐

schen Angriffs auf seine Heimatregion in den Ardennen im Jahr 1940 ist wenig bekannt. 1990 

sprach er von der „widersinnigen, gleichermaßen leidvollen, konflikthaften, zum Widerstand 

rufenden  und  dennoch  kulturell  bereichernden  Erfahrung  der  Annexion“  (vgl.  Pousseur 

1990, S. 15). Er absolvierte an den Konservatorien in Lüttich (Liège) (1947 – 1952) und Brüs‐

sel  (1952/53)  ein Musikstudium, während  dessen  er  der  Komponistengruppe  „Variations“ 

um Pierre Froidebise beitrat, in der er sich besonders für Anton Webern begeisterte. Froide‐

bise führte Pousseur an die avantgardistische Musik heran und arrangierte im Juni 1951 für 

ihn ein Treffen mit Pierre Boulez [→]. Dieser gab ihm eine „Unterrichtsstunde zu Fragen der 

Webernschen Harmonik“, was er später als ausschlaggebend für seine weitere kompositori‐

sche Entwicklung bezeichnete. Nach dem Treffen komponiert er die Trois chants sacrés, um 

das  Gelernte  umzusetzen.  Durch  Boulez‘  Klavierstücke  Structures  inspiriert,  entstand 

1952/53  (1954  revidiert)  seine  Prospection  en  deux  phases  für  drei  im  Sechzehnteltonab‐

stand gestimmte Klaviere, seine erste vollständig serielle Komposition. Infolgedessen traf er 

auch  Karlheinz  Stockhausen  [→],  dessen  Elektronische  Studien  I/II  (1953/54)  für  ihn  eine 

neue Ära markierten. 1954 nahm Pousseur an den Darmstädter Ferienkursen teil, wo er un‐

ter anderem auch Luigi Nono und Bruno Maderna kennenlernte. Ebenfalls in dieses Jahr fiel 

seine erste Arbeit im Kölner Studio des NWDR [→]für das Stück Seismogrammes. In seinem 

Ensemblestück Répons (1960) versuchte er erstmals die Verwendung der Aleatorik, also das 

Zurückgreifen auf Variablen mit zufällig  festgelegtem Wert, auf mehrere  Instrumentalisten 

anzuwenden, was mehr als hundert Proben erforderte.  

 

Von 1960 bis 1968 arbeitete Pousseur gemeinsam mit dem Schriftsteller Michel Butor an der 

Oper Votre Faust, welche auf dem gleichnamigen Sagenstoff basierte. Besonders ist hierbei, 

dass  das  Publikum  den Handlungsverlauf mitbestimmen  kann: Durch Abstimmungen wird 

das Stück maßgeblich beeinflusst und verändert.  Insofern handelt es  sich hierbei um eine 

konsequente Fortführung der Einbringung des Zufalls  in die Musik. Musikalisch stützte sich 

Pousseur dabei maßgeblich auf textliche und musikalische Zitate, beispielsweise von Johann 

Wolfgang von Goethe und Charles Gounod. Diese Verbindung von serieller Musik mit histori‐

schem Material legte er 1968 in seiner theoretischen Schrift L'apothéose de Rameau und der 

darin erläuterten „Theorie der Netzwerke“ dar. 1970 gründete er  in Lüttich das Centre de 

Recherches et de Formation Musicales de Wallonie (CRFMW), welches  in Belgien ähnlichen 

Status wie das  IRCAM  [→]  in Frankreich erreichen sollte, allerdings wurde hier besonderer 

Wert auf pädagogische Projekte gelegt. Zu dieser Zeit wurde er auch  in Lüttich Dozent am 

Konservatorium. 

 

Page 31: Studienreader zur analogen elektroakustischen Musik

31  

Zu Ehren von Schönbergs hundertstem Geburtstag erhielt er einen Kompositionsauftrag der 

Berliner  Festspiele,  für  die  er  sein  zweites Musiktheaterwerk  Petrus Hebraicus  (1973/74) 

schrieb. Hier vermischen sich sowohl mehrere Handlungsstränge als auch mehrere musikali‐

sche Formen, von der barocken Kantate bis zur polytonalen Musik. Ebenfalls befasste sich 

Pousseur  mit  der  Neuorganisation  musikalischen  Materials,  wie  z.B.  den  Goldberg‐

Variationen in Nuits des nuits (1985). Er beabsichtigte hier durch Bearbeitung präexistenden 

Materials Strukturen aufzuzeigen, die  zwar  im Original vorhanden, aber bisher nicht offen 

erkennbar waren.  Im Sommer 1994 zog Pousseur  ins englische Waterloo, um sich ganz der 

Komposition  zu widmen, allerdings hielt er noch bis 1999 Gastvorträge an der Universität 

Leuven. Sein Sohn Denis Pousseur (* 8. August 1958), der auch mit seinem Vater zusammen 

arbeitete, ist heute Komponist im Bereich von Jazz und Filmmusiken.  

 

2. Kompositionsweise 

Pousseurs Kompositionsweise  zeichnete  sich  insbesondere durch  eine  starke Verwendung 

von mathematischen Prinzipien aus, welche er zunehmend komplizierter und vielschichtiger 

anwandte. Komponierte er zu Beginn noch allein  in Zwölftonreihen, welche verschiedenen 

Mustern folgten (so zum Beispiel  in Trois chants sacrés), wurden die Werke ab Prospection 

en deux phases seriell komponiert,  inspiriert durch seine ersten Auseinandersetzungen mit 

elektronischer Musik in den frühen 1950er Jahren. 

 

An Prospection lässt sich Pousseurs Technik beispielhaft erläutern:  

Zuerst wählte er einen Tonraum von sechs Oktaven (links in Abbildung 1, die oberste vierge‐

strichene Oktave fehlt hier). In jeder Oktave wählte er sechs Töne (mittig  in der Abbildung) 

und  jeden Ton trennte er nochmals  in sechs Sechsteltöne (rechts  in der Abbildung) auf, so‐

dass 63 = 216 Töne zur Verfügung standen.  

Abb. 1  

 

Die Ablauffolge dieser Töne regelte er durch sechs Quadrate mit 6x6‐Elementen (vgl. Abbil‐

dung 2), wobei in der Waagerechten jedes Element nochmals in Oktavlage, Ton und Sechsel‐

ton  aufgetrennt  ist. Die waagerechte Reihe  entspricht  in  jedem Quadrat  der  senkrechten 

(Quadrat I: 5‐4‐6‐1‐3‐2) in Oktavlage und Sechseltönen, die Töne ändern sich jeweils. Ebenso 

bestimmt die Reihe die Transpositionsreihenfolge (zu erkennen am jeweils ersten Ton eines 

Quadrates). 

 

 

Page 32: Studienreader zur analogen elektroakustischen Musik

32  

Abbildung 2  

 

Page 33: Studienreader zur analogen elektroakustischen Musik

33  

Dynamisch werden  sechs  Intensitätswerte  unterschieden:  pp,  p, mp, mf,  f,  ff. Alle Werte 

tauchten  in der ersten Fassung (1953) des Stückes gleich oft auf, die zweite Fassung (1954) 

rückte davon ab. In der ersten Fassung wurde auch eine Regel angewendet, welche besagte, 

dass jede Dynamik nach ihrem sechsten oder nach ihrem zwölften Auftreten für mindestens 

sechs Töne aussetzen musste. Diese Regel wurde  jedoch  später  für die  redigierte Fassung 

außer Kraft gesetzt. Das Tempo des Stückes beträgt zu Beginn 60 bpm, die ersten drei Töne 

variieren jeweils um die Länge einer Sechzehntelnote (2,25 Schläge; 2,5 Schläge; 2 Schläge). 

Erkennbar wird die zentrale Stellung der Zahl sechs, aus welcher Pousseur ein Konzept ent‐

wickelte, welches steten Wandel verursachte und so seiner Prämisse der Unvorhersehbar‐

keit der Komposition folgte.  

 

3. Bedeutung 

Pousseur  ließ als einer der ersten die strengen Vorgaben des frühen Serialismus hinter sich 

(bspw. erkennbar an den Änderungen an Prospection in der zweiten Fassung) und legte dies 

deutlich in seinen theoretischen Schriften dar, wodurch seine Gedanken weitergetragen und 

von jüngeren Komponisten rezipiert werden konnten. Als bedeutsam wird ebenfalls die da‐

mals  neuartige  Verwendung  von musikalischen  Zitaten  angesehen,  denen  er  im  seriellen 

Kontext eine neue Bedeutung zukommen  ließ. Auch dies erläuterte er umfassend  in L'apo‐

théose de Rameau. Zudem war Pousseur einer der ersten Komponisten, die die Beziehung 

von  Determination  und  Indetermination  in  die Musik  einbrachten.  Die  Verwendung  von 

streng  konzeptionierten  Mustern  und  aleatorischen  Elementen  war  für  ihn  kein  Wider‐

spruch, sondern im Gegenteil eine notwendige Kombination. 

 

Quellen 

Decoupret, Pascal, …wie die Redaktion zur Systemprämisse wurde, in: Musik‐Konzepte Heft 69 Henri 

Pousseur, München 1990 

IRCAM (2011), Henri Pousseur, online unter http://brahms.ircam.fr/henri‐pousseur [02.02.2013] 

Pousseur, Henri, L’apothéose de Rameau. Essai sur la Question Harmonique, in: Musiques Nouvelles 

XXI, Paris 1968 

Pousseur, Henri, Ein hartnäckig vorausschauendes Gedächtnis, in: Musik‐Konzepte Heft 69 Henri 

Pousseur, München 1990 

Ruf, Wolfgang, Art. Pousseur, in: Riemann Musik Lexikon, Mainz 132012 

Sabbe, Herman, Henri Pousseur: un défi, in: Revue Belge de Musicologie 43 (1989) 

Sabbe, Herman, Pousseur – Butor, Text – Musik – Text, in: Musik‐Konzepte Heft 69 Henri Pousseur, 

München 1990 

Sadie, Stanley und John Tyrell, Art. Pousseur, in: NG2 Band 21, London 2001 

Volborth‐Danys, Diana von, Interview d’Henri Pousseur, in: Revue Belge de Musicologie 43 (1989) 

 

Abbildungen 1 und 2 aus Decoupret, S. 8 und 9 

 

Henrik Oerding    

Page 34: Studienreader zur analogen elektroakustischen Musik

34  

Riley, Terry Mitchell US‐amerikanischer Komponist, Interpret, Dozent und Mitbegründer der minimal music (*24. 

Juni 1935  in Colfax, Kalifornien). Merkmale seines musikalischen Schaffens sind Repetition, 

Improvisation und die besondere Behandlung des  Faktors  Zeit unter Berücksichtigung der 

physischen  sowie psychischen Wirkung der Musik  auf die Rezipienten. Kennzeichnend  für 

seine durch den Jazz und die indische Musik inspirierten elektronischen Kompositionen sind 

desweiteren die Verwendung von Bandschleifentechnik, Phasenverschiebung, Patterns und 

Echo‐ sowie Loopeffekte. Riley gilt als Innovator im Bereich der tape music mit großem Ein‐

fluss auf nachfolgende Komponistengenerationen, auch in der Popmusik. 

 

Der  Sohn  eines  irischstämmigen  Eisenbahners  und  einer  italienischstämmigen Mutter  be‐

gann seinen musikalischen Werdegang mit Violinunterricht. Als begeisterter junger Radiohö‐

rer wechselte er im Alter von acht Jahren zum Klavier, an dem er lieber nach Gehör improvi‐

sierte, statt nach Noten zu spielen. Auf der High‐School beeinflussten  ihn schon bald Kom‐

ponisten  wie  Debussy  und  Strawinsky.  Ab  1955  finanzierte  sich  Riley  dann  als  Ragtime‐

Pianist  ein  Studium  der  Fächer  Komposition  bei  Robert  Erickson  und  Klavier  bei  Duane 

Hampton am San Francisco State College, wo er mit Loren Rush und Pauline Oliveros eine 

Improvisationsgruppe gründete. Seine ersten Werke sind zunächst an die Klaviermusik De‐

bussys und Ravels angelehnt, zeigen allerdings zunehmend Einflüsse aus der Dodekaphonie 

und der seriellen Musik (Stockhausen, →).  

 

Nach seinem Abschluss 1957 (Bachelor of Arts) widmete sich Riley immer stärker dem Kom‐

ponieren und gewann 1959 mit seinem Stück Spectra den Nicola di Lorenzo Preis. Bis 1961 

vervollständigte er seine Kompositionsstudien an der University of California in Berkeley bei 

William Denny und Seymour Shifrin. Dort  lernte er La Monte Young kennen, der maßgebli‐

che  Impulse  für Rileys musikalische  Entwicklung  setzte.  Im  Studio des  San  Francisco  Tape 

Music Centers [→ Tape Music], einer kulturellen und pädagogischen Einrichtung zur Förde‐

rung  dieser  Musik,  entwickelte  Riley  im  Kreis  von  Pauline  Oliveros,  Morton  Subotnick, 

Ramon Sender und Steve Reich neue Tonbandtechniken, die die Grundlage seiner folgenden 

Kompositionen bildeten. Sein Werk Concert (1960) für zwei Klaviere und fünf Tonbandgeräte 

beinhaltete Musique concrète‐Elemente [→], die auch  in Mescalin Mix (1961) mit dem Ein‐

satz der Looptechnik zu hören waren. 

 

In  den  Folgejahren  reiste  Riley  durch  Europa, wo  er  in  den  Pariser Aufnahmestudios  des 

Office de Radiodiffusion Télévision Française mit Bandschleifentechnik und Phasenverschie‐

bung arbeitete und unter erstmaliger Verwendung des Time Lag‐Accumulator die Musik zu 

Ken Deweys Bühnenwerk The Gift (1963) beisteuerte. Außerdem spielte er weiterhin in Bars, 

wirkte als Klavierbegleiter in Varietétheatern mit und gab Konzerte am Klavier und Saxophon 

mit dem  Jazztrompeter Chet Baker. Ferner besuchte er 1936 die Darmstädter Ferienkurse, 

wo er Stockhausens Vorlesung zu Gruppen hörte. 1964 kehrte Riley nach New York zurück, 

um mit dem Lautsprecherkonstrukteur Arlo Acton mit elektronischer Klangerzeugung zu ex‐

perimentieren  und  Lautsprecher  für  eine  ideale  Klangwiedergabe  zu  konstruieren.  In  San 

Francisco wurde schließlich im selben Jahr ein Meilenstein der minimal music und sein wohl 

berühmtestes  Instrumentalstück  In C uraufgeführt.  Im Jahr 1967 folgte Riley Kompositions‐

Page 35: Studienreader zur analogen elektroakustischen Musik

35  

aufträgen  der  Königlichen Musikakademie  Stockholms  und  des  Schwedischen  Rundfunks 

nach Schweden. Noch im gleichen Jahr beeindruckte er durch das „All Night Concert“ im Phi‐

ladelphia College of Art, bei dem er sein achteinhalbstündiges Saxophon‐Solo All Night Flight 

spielte.  

 

Ab 1970 wurde er für 15 Jahre Schüler von Pandith Pran Nath, bei dem er klassische hindus‐

tanische Musik studierte, die sich fortan in sein musikalisches Konzept eingliederte und dies 

um neue Facetten erweiterte, die seine Musik bestimmen sollten und sich z. B. in Shri Camel 

(1976‐78)  zeigen. Anfang der 70er wurde Riley Professor  für klassischen  indischen Gesang 

am Mills College, eine Position, die er bis heute  innehat. Riley wandte sich ab diesem Zeit‐

punkt vornehmlich reiner Instrumentalmusik zu, jedoch ohne den improvisatorischen Anteil 

aufzugeben.  So  schrieb  er  13  Streichquartette,  darunter  das  zweieinhalbstündige  Salome 

Dances for Peace (1985‐87). 1990 wurde Jade Palace für großes Orchester und Synthesizer 

aufgeführt. Darüber hinaus komponierte Riley auch Musik für das Kronos Quartet, so etwa 

The Sands (1991) für Streichquartett und Orchester. Er zeigte sich allerdings immer seltener 

in der Öffentlichkeit und lebt heute mit seiner Familie zurückgezogen auf einer Ranch in der 

Nähe von Berkeley. 

 

Rileys Musikwerk ist im Bereich der minimal music durch bestimmte Eigenarten und Beson‐

derheiten streng von den Arbeiten seiner Kollegen abzugrenzen. Grundlegender Bestandteil 

seiner Kompositionen  ist das Prinzip der Repetition von melodisch‐rhythmischen Patterns, 

kleinsten musikalischen Bausteinen, die sich durch Phasenverschiebung, Verzögerung sowie 

Dehnung überlagern und  eine Verdichtung des Klangmaterials bewirken, was mitunter  zu 

ungewöhnlichen akustischen Effekten führen kann. In seinen elektroakustischen Werken re‐

alisierte Riley dies in der analogen Anfangsphase mithilfe von modifizierten Tonbandgeräten, 

wie dem erwähnten Time Lag‐Accumulator. Ein besagtes Pattern wird hierbei einmalig ge‐

spielt  und  in  kurzer Verzögerung  über  eine Bandmaschine  aufgenommen  und  gleichzeitig 

wieder abgespielt. Anschließend läuft das bereits bespielte Tonband über ein weiteres in ei‐

niger Entfernung positioniertes Tonbandgerät, sodass das Motiv in regulierbaren Abständen 

mehrmals hintereinander ertönt, während ein Livemusiker bereits weitere Patterns hinzufü‐

gen kann, um so den gewünschten Effekt der Überlagerung zu erzeugen. Zudem lassen sich 

über die von Riley entwickelten Geräte Echo‐ und Delayeffekte erzielen, die Riley häufig sei‐

nen meditativen Klangteppichen hinzufügt.  

 

Wichtig für die Musik Rileys ist fernerhin die Improvisation, die die Verbindung zum Jazz ver‐

deutlicht. Auch die Nähe zur indischen Musik ist form‐ und sinnstiftendes Element in seinen 

Kompositionen, die sich mitunter durch modale und mikrotonale Strukturen mit modifizier‐

ten Stimmungen auszeichnen. Riley übt bis heute einen nachhaltigen Einfluss aus, der  zu‐

nächst bei Komponisten wie Steve Reich oder Brian Eno, bis  in die Rockmusik bei The Who 

und der Synthesizermusik von Tangerine Dream zu finden war und die Entwicklung der Gen‐

res Ambient und Drone vorantrieb. 

 

 

 

Page 36: Studienreader zur analogen elektroakustischen Musik

36  

Quellen 

Branscombe, Peter, Art. Terry Riley, in: NG2 Band 21, London 2001 

Lovisa, Fabian R., minimal‐music – Entwicklung, Komponisten, Werke, Darmstadt 1996 

Pardey, Wolfgang, Art. Terry Riley, in: Amerikanische Musik seit Charles Ives, Laaber 1987 

Sanio, Sabine, Art. Steve Reich, in: MGG2 Personenteil 12, Kassel et al. 2005 

Dies., Art. Terry Riley, in: MGG2 Personenteil 14, Kassel et al. 2005 

Schulz, Reinhard, Art. Terry Riley, in: Komponisten der Gegenwart, Müchen 1992. 

 

Marco Dimitriou 

   

Page 37: Studienreader zur analogen elektroakustischen Musik

37  

Ruttmann, Walter (alternativ Walther Ruttmann) Deutscher Maler,  Regisseur, Drehbuchautor  und  Filmproduzent  (*28.12.1887  in  Frankfurt 

am Main; †15.07.1941 in Berlin). Er gilt als Mitbegründer des sogenannten absoluten Films, 

beteiligte sich an radiokünstlerischen Experimenten und gründete 1919 eine eigene Filmfir‐

ma mit Sitz in München. Er drehte sowohl Kunst‐, Werbe‐, wie auch Propagandafilme in der 

Zeit  von  1921  bis  1940.  Kennzeichen  seiner  Filmarbeit war  die Verwendung  des  „Kontra‐

punkts“, um mittels der musikalisch‐rhythmischen Struktur des vorhandenen Tonmaterials 

Formen und Gegenstände von ihrer eigentlichen Bedeutung loszulösen. 

 

Walter Ruttmann wurde als Sohn einer Kaufmannsfamilie geboren, studierte 1907 Architek‐

tur in Zürich und widmete sich zwei Jahre später in München der impressionistischen Male‐

rei und Grafik. Für diese Arbeiten erhielt er Auszeichnungen und konnte  sich  selbst durch 

seine  Kunst  finanzieren. Von  den  grausamen  Erfahrungen  als Artillerie‐Leutnant  und Gas‐

schutz‐Offizier an der Ostfront im ersten Weltkrieg geprägt, entwickelte er eine pazifistische 

Haltung, die ihn nicht daran hinderte, ab Mitte der 1930er Jahre einige dokumentarische NS‐

Propagandafilme zu drehen.  

 

Nach dem Ersten Weltkrieg entwickelte er sich künstlerisch vom  Impressionismus  zur abs‐

trakten Kunst. Das Besondere seiner Arbeit und seiner Anfänge ist eine Montagetechnik der 

drei Klanguntergruppen Geräusch,  Sprache und Musik. Gelingen  sollte dies,  indem er den 

mechanisch  instrumentalisierten Klang von seiner Quelle unabhängig machte, um  ihn dann 

durch  seine Reproduzierbarkeit  zu  jeder  Zeit  an  anderen Orten  abspielen  zu  können. Der 

Ausgang vom „konkreten Klang“, der mit dessen Wiedererkennbarkeit arbeitet und die da‐

ran angeknüpfte  Lichttontechnik, die  in  seinen abstrakten Formen und Formverläufen das 

Klangbild unterstützen sollten, waren darauf ausgerichtet, dem Film einen produktiven Cha‐

rakter zu verleihen und führten zur Entwickelung des Tonfilms (Opus II‐IV, 1921‐1925). Dabei 

gelang es laut Ruttmann nicht mehr, die Lebendigkeit, gekennzeichnet durch seinen „frucht‐

baren Moment“,  als  tatsächliches  Leben  zu  empfinden:  „Die  Rettung  [liegt  in  einer]  ganz 

neuen Kunst, einer Malerei mit Zeit [...]. Es wird sich deshalb ein ganz neuer, bisher nur  la‐

tent vorhandener Typus von Künstlern herausstellen, der etwa in der Mitte von Malerei und 

Musik steht.“ 

 

Mitstreiter waren Künstler wie Hans Richter und Viking Eggeling, die auch 1925 an der Mati‐

nee des UFA‐Theaters Berlin „Der Absolute Film“  teilnahmen. Sie unterschieden  sich  inso‐

fern von ihren Kollegen Fernand Léger und Dudley Murphy, die auch an dieser Veranstaltung 

als Künstler mitwirkten, dass sie nicht Abbilder des alltäglichen Lebens  in der Montage zu‐

sammensetzten, sondern auf genau den Verzicht dieser Realitätswiedergabe bestanden und 

sich auf abstrakte Formen konzentrierten. Grundlage für weitere Werke waren u.a. Tonma‐

terial von Hanns Eisler zu Ruttmanns Opus III, (1925), der Scherenschnitt zur Vertonung Lotte 

Reinigers  (Die Abenteuer des Prinzen Achmed, 1926),  in der er eine Zauberwelt gestaltete, 

oder auch ein  „Querschnittsfilm“  (Melodie der Welt, 1929), dessen Partitur  von Wolfgang 

Zeller geschrieben wurde. Sein durch  „poetischen Dokumentarismus der 20er“ begleiteter 

Stummfilm Berlin – Sinfonie einer Großstadt (1927) wurde durch eine Partitur Edmund Mei‐

sels  zu  einem  Tonfilm  vervollständigt.  Dieses Werk  sollte  die  Zeit  durch  optische Mittel 

Page 38: Studienreader zur analogen elektroakustischen Musik

38  

rhythmisch organisieren, sich abwenden von gefilmtem Theater, unter Ausschluss von Men‐

schen als Gefilmtem stattfinden und ohne Untertitel fertiggestellt werden, da das Gezeigte 

für sich sprechen sollte. Ruttmann grenzte sich hier zum absoluten Film seiner Kollegen ab, 

indem er rein dokumentarisches Material verwendete und sich an der Ästhetik der Neuen 

Sachlichkeit orientierte. Eines seiner meist genannten Werke Weekend (1930) entstand nach 

dem Prinzip, Alltagsklänge in einem Hörspiel zusammenzusetzen und dabei deren Wiederer‐

kennbarkeit zu wahren. Durch seine Arbeit als Regisseur beherrschte er die Arbeitsmetho‐

den von Schnitt und Montage, die er hier nun mit Tonmaterial umsetzte. Diese Methode war 

ihm durch die Verwendung von Tonfilmstreifen gegeben, wohingegen andere Künstler mit 

Blenden oder Schallplatten arbeiteten. Bei Ruttmann kann auch von einer Realisation von 

Hörspielideen gesprochen werden, da er hierzu vorher Partituren und auch Konzepte entwi‐

ckelte. Außerdem gelang es Ruttmann, Bilder durch die Montagetechnik aus  ihrem konkre‐

ten Bedeutungszusammenhang zu lösen. Ein Beispiel dafür ist In der Nacht, 1931, mit dem er 

den musikalischen  Verlauf  des  Fantasiestückes  opus  12  von  Robert  Schumann  filmisch  il‐

lustrierte. Durch seine Zusammenarbeit mit Leni Riefenstahl zum Reichsparteitags‐Film Tri‐

umph des Willens (1935) geriet er in die Nähe der NS‐Filmpropaganda, wurde aber von der 

Zusammenarbeit unter fehlender Begründung noch vor der Vervollständigung des Films aus‐

geschlossen. Weitere Werke waren der 1932/33 in Italien entstandene Film Acciaio und der 

Kurz‐Dokumentarfilm Henkel. Ein deutsches Werk in seiner Arbeit (1938). Zwei seiner letzten 

Regiearbeiten  waren  die  propagandistischen  Kurzfilme  Deutsche  Waffenschmieden 

(1939/40) und Deutscher Panzer (1940). 

 

Quellen 

Döhl, Reinhard, Das neue Hörspiel, Darmstadt 1988 

Emons, Hans, Für Auge und Ohr: Musik als Film, Berlin 2005 

Goergen, Jeanpaul. Musik des Lichts. Zum 100. Geburtstag Walter Ruttmanns. 

http://www.filmportal.de/sites/default/files/BDDB9CE5DD9048EFAB5D26B2056C52F1_Portrxxt_

Ruttmann.pdf [Abgerufen am 23.11.2012] 

Kloppenburg, Josef (Hg.). Handbuch der Musik im 20.Jahrhundert Bd.11, Musik Medial, Laaber 2000 

Motte‐Haber, Helga de  la  (Hg.), Handbuch der Musik  im 20  Jahrhundert Bd.12, Klangkunst, Laaber 

1999 

Schenk, Irmbert, Kino und Modernisierung, Marburg 2008 

Ungeheuer,  Elena  (Hg.). Handbuch  der Musik  im  20.Jahrhundert  Band  5,  Elektroakustische Musik, 

Laaber 2002 

Walther Ruttmann, Biographie. http://www.filmportal.de/person/walther‐

ruttmann_073d7d0d1c4b4c538b0b3db7ec60e44e [Abgerufen am 23.11.2012]  

Sophia Kisfeld 

 

   

Page 39: Studienreader zur analogen elektroakustischen Musik

39  

Stockhausen, Karlheinz (* 22. August 1928; † 5. Dezember 2007) war ein dt. Komponist, Autor, Komposi onslehrer 

und der Pionier der elektroakustischen Musik. Er  ist einer der bedeutendsten Komponisten 

seiner Generation und nimmt eine besondere Stellung im Zentrum der internationalen musi‐

kalischen Avantgarde nach 1950 ein. 

 

1. Biographie und Instrumentalstücke 

Karlheinz Stockhausen kam am 22. August 1928  in Mödrath bei Köln als ältester Sohn des 

Volksschullehrers Simon Stockhausen und seiner Frau Gertrud Stockhausen zur Welt. Durch 

seinem theaterbegeisterten Vater und seine Mutter, die gerne Klavier spielte und sang, be‐

kam  Stockhausen  schon  in  seiner  frühen  Kindheit  einen  engen  Bezug  zur Musik. Gertrud 

Stockhausen fiel nach längerem Aufenthalt in einer Nervenheilanstalt 1941 dem Euthanasie‐

Mordprogramm der Nationalsozialisten zum Opfer. Sein Vater  ließ sich bei der Machtüber‐

nahme der NSDAP für die Ideologie der Partei  begeistern, wurde 1943 eingezogen und starb 

bei einem Gefecht in Ungarn. K. Stockhausen war vor Kriegsbeginn in einem HJ‐Heim unter‐

gebracht,  in dem er durch den militärischen Drill eine tiefe Abneigung gegen Marschmusik 

entwickelte, und musste während des Krieges Lazarettdienst leisten.  

 

Nach Kriegsende ging er 1947 nach Köln, um an der dortigen Musikhochschule Schulmusik, 

Klavier und Musikwissenschaft zu studieren. 1951 belegte er zusätzlich die Fächer Germanis‐

tik und Philosophie an der Kölner Universität und stand mit dem Nobelpreisträger von 1946, 

Hermann Hesse, in regem Briefkontakt. Nachdem Stockhausen in die Kompositionsklasse des 

Schweizer Komponisten Frank Martin an der Kölner Musikhochschule aufgenommen wurde, 

widmete er sich vollkommen der Musik. Bald darauf machte er die Bekanntschaft mit Her‐

bert Eimert [→], dem damaligen Redakteur des musikalischen Nachtprogramms am NWDR 

Köln. Dieser wurde  in den folgenden Jahren zu seinem wichtigsten Förderer,  indem er  ihm 

erste Aufführungen ermöglichte und zu einer Anstellung beim Rundfunk verhalf. 1951 nahm 

Stockhausen erstmalig an den  Internationalen   Ferienkursen  für Neue Musik  in Darmstadt 

teil, wo er u.a. von Oliver Messiaen und seinem Schüler Karl Goeyvaerts zu ersten Komposi‐

tionsversuchen  inspiriert wurde. Bald darauf entstand das radikale Werk Kreuzspiel für Kla‐

vier,  in dem „alle traditionellen Elemente der Melodik, Rhythmik und Satztechnik eliminiert 

schienen“. Bei dieser Komposition wandern vereinzelte Töne mit stetig wechselnder Elemen‐

tareigenschaft durch die verschiedenen Oktavräume. Im Jahre 1952 bot sich Stockhausen die 

Möglichkeit,  nach  Paris  zu  gehen, wo  er  u.a. mit  Pierre Boulez  in  Kontakt  kam.  Inspiriert 

durch diese Erfahrung entstand bald darauf das Klavierstück Kontra‐Punkte,  in dem er die 

punktuelle Isolierung einzelner Töne überwinden wollte und diese zu unterschiedlich charak‐

terisierten Gruppierungen zusammenschloss.  

2. Elektronische Musik 

Zurück  in  Köln  bot  Eimert  Stockhausen  eine  feste Anstellung  in  seinem  neu  gegründeten 

Studio  für  elektroakustische Musik  des Nordwestdeutschen‐Rundfunks  [→]  an, wo  er mit 

unermüdlichem  Eifer  elektronische  und  instrumentale  Stücke,  theoretische  Schriften  und 

Analysen produzierte.  Jährlich nahm er an den Darmstädter Ferienkursen  teil, die als Kon‐

taktbörse und  Informationszentrum eine wichtige Rolle  spielte. Ab 1956  gab  Stockhausen 

Page 40: Studienreader zur analogen elektroakustischen Musik

40  

dort regelmäßig eigene Kompositionskurse. 1953 widmete er sich  im elektronischen Studio 

ganz seiner ersten elektronischen Komposition, der Studie I. Bei dieser Studie baute er Klän‐

ge aus Sinustönen zusammen. 1954 folgte dann die drei minütige Studie II, in der jeder Klang 

dem  seriellen Einheitsdenken bis  ins Kleinste  verpflichtet  ist und entsprechend  individuell 

bearbeitet wurde. Im selben Jahr begann er mit dem geistlichen Werk Gesang der Jünglinge, 

das elektronische Klänge mit der menschlichen Stimme verband. Er kreierte ein Klangkonti‐

nuum zwischen Sinuston und „weißem Rauschen“, den akustischen Extremen von Einzelton 

und Frequenztutti. 

 

Im Rahmen einer Vortragsreihe besuchte Stockhausen 1958 die USA, wo er mit internationa‐

len musikalischen  Einflüssen wie  Jazz  und  der  Popularmusik  in  Berührung  kam.  Dadurch 

wuchs  sein  internationaler  Bekanntheitsgrad  auch  außerhalb  der Avantgarde‐Szene. Nach 

seiner Rückkehr hatte es sich Stockhausen 1959 zur Aufgabe gemacht, nach der Vollendung 

seines Zyklus  für einen Schlagzeuger eine neue Notationsweise  für elektronische Musik  zu 

finden. Er versuchte, die bisherige strenge Notation zu erweitern,  um Spielräume für inter‐

pretatorische Gestaltung zu schaffen. Es kam zur Entstehung variabler Musik, bei der vor al‐

lem die  interpretatorischen Möglichkeiten  im Vordergrund  standen, die  z.B.  zur Verände‐

rung der Gesamtdauer von Aufführung zu Aufführung führten. Beeinflusst wurde Stockhau‐

sen dabei durch die New Yorker Schule,  insbesondere durch  John Cage. Danach begann er 

mit der Realisation von Kontakte, das er  für Schlagzeug, Klavier und elektronische Zuspiel‐

klänge komponierte. Es  ist ein Werk elektronischer Musik auf höchstem künstlerischem Ni‐

veau,  das  neben Gesang  der  Jünglinge  heute  zum meist  beachteten Werk  elektronischer 

Musik zählt. Stockhausen selbst nannte die Form des Stückes die „Dekomposition“ der Klän‐

ge. 

 

Im November 1967 kam es zur Uraufführung von Hymnen, einem Werk, das musikalisches 

Material von vierzig Nationalhymnen verschiedenster Staaten collagierte. Stockhausens  In‐

tention war dabei, nicht mehr persönliche Musik zu schreiben, sondern Musik, die die Men‐

schen aller Rassen und Nationen einbezieht. Zugleich finden sich hier mit dem Hinweis auf 

die  ideale Welt „Pluramon“ erste Spuren seiner Privatmystik. Im Jahre 1970 bot sich Stock‐

hausen die Möglichkeit, zur Weltausstellung  in Osaka nach  Japan zu  reisen. Man hatte  ihn 

gebeten, ein tägliches Fünf‐Stunden‐Programm mit seinen Werken für die Dauer der Ausstel‐

lung  auszuarbeiten,  das  in  dem metallisch  blauen  Kugelauditorium  einen  idealen  Auffüh‐

rungsraum fand.  

 

Für die Zweihundertjahr‐Feier der USA erhielt Stockhausen 1975 einen Kompositionsauftrag 

der deutschen Bundesregierung, woraufhin er Sirius für elektronische Musik, Trompete, Sop‐

ran, Bassklarinette und Bass  schrieb. Das Werk war eine  szenisch‐musikalische Darstellung 

der vier Jahreszeiten als Resultat des Besuchs der Erde durch außerirdische Intelligenz. Nach 

der Weltausstellung konzentrierte er  sich auf das  siebenteilige,  zyklische Opernwerk Licht, 

dessen erster Teil 1977 zur Aufführung kam. Dieses Stück sollte die Woche mit ihren sieben 

Tagen darstellen. Nach dessen Abschluss begann er 2004 mit der Verwirklichung von Klang, 

das den Tag mit seinen vierundzwanzig Stunden darstellen sollte, aber bis zu seinem Tod am 

5.  Dezember  2007  nicht  vollendet werden  konnte.  Geplant war  noch  die Minute,  bis  er 

Page 41: Studienreader zur analogen elektroakustischen Musik

41  

schließlich  in  der  Sekunde  endete.  Durch  diese  vorstrukturierte  Lebensplanung mit  zykli‐

schen Großprojekten wollte er die Begrenzung auf einzelne relativ kurze Werke überwinden, 

um sein eigenes Leben zu einem Gesamtkunstwerk zu machen. Zugleich stand die Verbin‐

dung elektronischer und instrumentaler Klänge bis zuletzt im Zentrum seiner Kompositions‐

ästhetik, wobei sich seine Gestaltung elektronischer Musik mit der Umstellung auf digitale 

Klangerzeugung grundlegend veränderte, da er die Ausarbeitung der elektronischer Sounds 

zunehmend  den  ausführenden Musikern  anvertraute  oder  – wie mit  seinem  Sohn  Simon 

Stockhausen [→] – für zwei Opern des Licht‐Zyklus von diesen vorbereiten ließ, um die ferti‐

gen Stimmen auf Zuspielbändern unveränderlich zu fixieren. 

 

Quellen 

Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 

2004 

Eimert, Herbert und Hans Ulrich Humpert, Das Lexikon der elektronischen Musik, 1973 Regensburg 

Frisius, Rudolf, Art. Stockhausen, Karlheinz, in: in: MGG2 Personenteil 15, Kassel et al. 2006 

Ders., Karlheinz Stockhausen I. Einführung in das Gesamtwerk, Mainz 1996 

Ders., Gespräch mit Karlheinz Stockhausen „Es geht aufwärts“,  in: Karlheinz Stockhausen  II. Die 

Werke 1950‐1977, Mainz 2008 

Kurtz, Michael, Stockhausen. Eine Biographie, Kassel 1988 

Stockhausen, Karlheinz, Texte zur Musik Bd. 1‐10, Köln 1963, 1964, 1971, 1978, Kürten 1989, 1998 

Ders., Kompositorische Grundlagen Neuer Musik. Sechs Seminare für die Darmstädter Ferienkurse, 

Kürten 2009  

Toop, Richard, Art. Stockhausen, Karlheinz, in: NG2 Band 24, London 2001 

 

Paula Sophia Prüßner 

 

 

   

Page 42: Studienreader zur analogen elektroakustischen Musik

42  

Stockhausen, Simon Dt. Komponist, Produzent und  Interpret  (* 5.  Juni 1967  in Bensberg bei Köln).  Seine Mu‐

sikanschauung  folgt der These, dass Geräusche durch kontextuelle Veränderung und elekt‐

ronisch‐prozessuale Klangmanipulation musikalisiert werden können. Diese Auffassung ver‐

eint Techniken der Musique concrète [→], des Dadaismus sowie der elektronischen Musik, 

ohne das seine Musik einer dieser Kategorien zugeordnet werden könnte. Seine komposito‐

rische Arbeit orientiert er sich am jeweiligen Stand der Computertechnik, an der er zur Ent‐

wicklung von Soft‐ und Hardware selbst beteiligt ist.  

 

Als Sohn der Künstlerin Mary Bauermeister und des Komponisten Karlheinz Stockhausen er‐

hielt er bereits während seiner frühen Kindheit Unterricht in den Fächern Klavier, Saxophon, 

Schlagzeug,  Synthesizer  und  Komposition. Dabei wurde  er  einerseits  vom  streng  seriellen 

Denken  seines  Vaters,  andererseits  von  der  Laisser‐faire‐Erziehung  in  der  Hauskommune 

seiner Mutter geprägt. Neben der artifiziellen Musik lernte er Popmusik kennen, die sein Va‐

ter strikt ablehnte, und entwickelte eine Vorliebe für Jazz und Progressive Rock. Nach dem 

Abitur  im Jahr 1986 wirkte er  im Ensemble seines Vaters auf  internationalen Konzertreisen 

mit (Sternklang; Donnerstag aus Licht) und produzierte zusammen mit seinem Vater u. a. die 

elektronische Musik  für  die Opern Dienstag  (1992)  und  Freitag  (1994)  aus  dessen  LICHT‐

Zyklus. In Dienstag trat S. Stockhausen zudem im Klavierstück XV in der Rolle des Synthi‐Fou 

auf.  In der Einführung zur Partitur widmete Karlheinz Stockhausen die Komposition seinem 

Sohn, den er als „Klavier‐Elektroniker“  im „Übergang […] von mechanischer Klaviermusik zu 

einer Elektronischen Klaviermusik“ (Stockhausen 1995) betitelte. Die letzte Zusammenarbeit 

der beiden Komponisten war 1996. Anschließend begann S. Stockhausen selbstständig in di‐

versen  Bereichen  zu  arbeiten.  Als  Keyboarder/Live‐Elektroniker  und  Sopransaxophonist 

spielte er mit der WDR‐Bigband, Lalo Shifrin und  James Morrison  (On  the edge). Er  leitete 

zudem Workshops  für  elektronische  Klangerzeugung  (Education‐Projekt  bei  den  Berliner 

Philharmonikern).  In  Klanginstallationen  und  Performances  suchte  S.  Stockhausen  immer 

auch die Begegnung zu den bildenden Künsten. Neben Musik für Dokumentarfilme bei WDR, 

Arte und ZDF, Filmmusiken wie Trip to Asia  (2007) und Theater‐ und Kammermusik  finden 

sich vereinzelt auch politisch konnotierte Werke  (Brandnächte, Da SPEECH). Seit 2008 pro‐

duziert er kommerzielle Klangeffekte  für diverse Online‐Klangbibliotheken und Softwarefir‐

men. Darüber hinaus gestaltete er 2011 den musikalischen Rahmen zur 47. Verleihung der 

Grimme‐Preise.  Im  Jahr  2012  folgte  eine  Zusammenarbeit mit den Hamburger  Symphoni‐

kern, die seinen Halbbruder Markus Stockhausen und ihn als Artists in Residence verpflichte‐

ten. Wie bereits  in Berliner Geschichten (1999) sucht S. Stockhausen hier  in Minimal Night‐

mare und Doktrin der Ruhe die  interaktive Verknüpfung von Elektroakustik und Orchester. 

Selbst bezeichnet er  seine Tätigkeitsbereiche heutzutage  als  „Komposition – Produktion – 

Sound Design“, da er kein konventionelles Komponistenbild erfüllt. 

 

Sein einziges Paradigma betrifft die potenzielle Musikalität  aller Geräusche und die Erfor‐

schung  von  Klang  in  all  seinen  Dimensionen.  Dazu  gehören  Alltagsgeräusche  ebenso wie 

Sprache. Texturen, Rhythmen und Harmonien werden in seinen Prinzipien der Klangsynthese 

aus Geräuschen abgeleitet, um anschließend  in Kompositionen Verwendung  finden. Diese 

prozessuale  Kompositionsweise  bezieht  sich  auf  Zeitparameter  (z.  B.  Dehnung  und  Stau‐

Page 43: Studienreader zur analogen elektroakustischen Musik

43  

chung von Klängen durch time‐stretching), die dynamische Veränderung durch Kompression 

und die Möglichkeit, Aufnahmen rückwärts (reversed) abspielen zu lassen. In diesem grund‐

legenden Vorgang  steht  „prozessiert“ nicht  allein  für ein  kompositorisches  Stilmittel,  son‐

dern meint hier die Veränderung von aufgenommenen Klängen. Durch digitale Klangsynthe‐

se [→ addi ve Synthese], die Genese künstlicher oder Abwandlung natürlicher Klänge, ist es 

möglich, die Mikrotonalität der Klänge zu verändern. Bei S. Stockhausen bleibt nach dieser 

Verfremdung der Ursprung der Klänge weiterhin erkennbar. Die Anwendung dieser Prinzi‐

pien ist für ihn aber keineswegs bindend. Während einerseits bestimmte seiner Werke einen 

rein künstlerischen Anspruch haben, folgt andererseits z. B. seine Theater‐ und Filmmusik ei‐

nem  jeweils  funktionalen Zweck. Unabhängig von dieser Unterscheidung stehen die Prinzi‐

pien der kompositorischen Arbeit mit den Möglichkeiten der Klangsynthese in Einklang. 

 

Die  zahlreichen  Arbeitsbereiche  Klassik,  Elektronik,  Jazz  sowie  Weltmusik,  Kunstperfor‐

mances, Filmmusik und Sound Design verhindern eine eindeutige stilistische Klassifizierung. 

Da bisher keine wissenschaftliche Publikation über S. Stockhausen existiert, findet sich in der 

musikwissenschaftlichen Literatur lediglich die provisorische Beschreibung im Bereich „inter‐

stylistic composition“ (Custodis 2011), um die Nähe zu Musikern wie Heiner Goebbels, Steve 

Vai, Matthew Herbert und Thomas Adès aufzuzeigen. 

 

Quellen 

Bauermeister, Mary,  Ich  hänge  im  Triolengitter. Mein  Leben mit  Karlheinz  Stockhausen, München 

2011 

Custodis, Michael, Living History. The Guitar Virtuoso and Composer Steve Vai, Online‐Publikation 

Münster 2011, unter http://www.uni‐muenster.de/imperia/md/content/ musikwissen‐

schaft/pdf/custodis‐vai.pdf [10. April 2013] 

Ders., Progressing Music. Auf der Suche nach dem Neuen im 20. Jahrhundert, in: Archiv für Musik‐

wissenschaft 69 (2012), Heft 1 

Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 22010 

Schmidt, Klaus, Die Brandnacht, Dokumente von der Zerstörung Darmstadts am 11. September 1944, 

Darmstadt 61964 

Seeber, Martina, Zukunft@BPhil, Berliner Polyfonie. Das Education‐Projekt REMIX‐San Francisco Po‐

lyphony,  online  unter  http://www.berliner‐  philharmoniker.de/fileadmin/education/0910/H5_ 

0910_edu‐berliner_polyfonie.pdf. [10. April 2013] 

Stockhausen, Karlheinz, SYNTHI‐FOU  (Klavierstück XV)  für einen Spieler elektronischer Tasteninstru‐

mente und Elektronische Musik vom DIENSTAG aus LICHT (1991), Kürten 1995 

Ders., Texte zur Musik Band 7 und 8, Kürten 1998 

Stockhausen, Simon, Simonstockhausen.com, online unter http://www.simonstockhausen.com  

 

Attila Kornel  

   

Page 44: Studienreader zur analogen elektroakustischen Musik

44  

Tape Music Der Begriff Tape Music bzw. Music  for Tape wurde, obwohl  schon  früher als musikalische 

Form bekannt, 1952 durch Oliver Daniel eingeführt. Tape Music  ist demnach Musik, die di‐

rekt mit einem Tonbandgerät erzeugt und aufgenommen wird, ohne dabei die Zwischenstu‐

fe einer schriftlichen Aufzeichnung zu durchlaufen. Kompositionen von Tape Music  fanden 

überwiegend  in den 1950er‐ und 1960er‐Jahren  statt,  als Magnettonbandgeräte die best‐

mögliche Aufnahmetechnologie darstellten. 

 

Das Genre wurde vorwiegend durch amerikanische Komponisten geprägt und verstand sich 

als ideeller Gegenpol zur europäischen Musique concrète [→]. Technisch sind beide Termini 

vergleichbar,  jedoch  nicht musikalisch.  Vertreter  der  Tape Music  kritisierten  die Musique 

concrète wegen  ihrer Nachahmung von Orchesterinstrumenten, während sie selbst sämtli‐

che Klangspektren der elektronischen Instrumente nutzten. Die Tape Music folgte u.a. dem 

Prinzip der Unvorhersehbarkeit, wie es v.a. von  John Cage  [→] vertreten wurde.  Im Fokus 

der  Komponisten  stand  ebenso,  Schwachstellen  oder  klangliche  Besonderheiten  des  Ton‐

bandgerätes für die Komposition zu nutzen. 

 

Der Komponist trat in der Tape Music als Schöpfer in zweiter Instanz auf, da er beim Kompo‐

nieren nur auf bereits vorhandene Sounds zurückgriff. Vertreter der Tape Music verfolgten 

in  ihren Kompositionen experimentelle Ansätze, wenn z.B. die Regeln der mathematischen 

Wahrscheinlichkeit zur Anordnung von Klangquellen herangezogen wurden  (Earle Brown – 

Octet No. 1, 1953). Bildende Künste, Tanz und lyrische Texte waren ebenso Einflüsse zur Ge‐

staltung der Werke. Durch die nahezu unbegrenzten Möglichkeiten der Komposition war es 

nötig, potentiell zu verwertendes Material im Voraus auf seine ästhetische Beschaffenheit zu 

überprüfen sowie Methoden und Zielvorstellungen genau zu bestimmen. Tape Music wurde 

zum reinen Abspielen und nicht für konzertierende Aufführungen produziert und unterglie‐

derte sich ab 1951 in drei wegbereitende Gruppierungen: 

 

1. Der New Yorker Kreis um John Cage 

Cage arbeitete mit Brown, Morton Feldman, David Tudor und Christian Wolff ab 1951  im 

Studio des Ehepaares Louis und Bebe Barron in New York am Projekt Music for Magnetic Ta‐

pe. 1952 entstand Cages Williams Mix, ein aus mehr als 600 Aufnahmen aus Bandabfällen 

bestehendes Werk, das  für ein achtspuriges Tonbandgerät konzipiert war. Solch ein Gerät 

gab es zu dieser Zeit  jedoch nicht, weshalb zur Aufführung des Stückes acht Tonbänder  in 

acht  Geräten  gleichzeitig  abgespielt  werden mussten.  Als  Grundlage  des  Schnittmusters 

diente Cage das chinesische Buch der Wandlungen I Ging. Cage strebte die radikale Umset‐

zung des Montageprinzips sowie das Konzept der Unbestimmtheit an. Die Komposition des 4 

Min. 15 Sek. Langen Stücks dauerte mehrere Monate. 1953 endete die Zusammenarbeit der 

Gruppe. Feldman ging im Anschluss mit Brown nach Newark an die Rangertone Studios. 

 

2. Columbia‐Princeton Electronic Music Center 

Das Computer Music Center (CMC) ist das älteste Zentrum für elektronische und computer‐

basierte Musik in den USA. Erste Kompositionen gab es 1951 im Experimental Music Studio – 

später Tape Music Studio – der Columbia University  in New York. Das CMC machte sich die 

Page 45: Studienreader zur analogen elektroakustischen Musik

45  

Techniken  der  gesteuerten  Rückkopplung  (Feedback)  und  der  Transposition  eines  aufge‐

nommenen  Klangs  zunutze  und  arbeitete  verstärkt mit  Geschwindigkeitsvariationen.  Die 

kompositorischen Anfänge verliefen parallel zur Cage‐Gruppe. Am 9. Mai 1952 fand auf Initi‐

ative Henry Cowells ein universitätsinternes Tonbandkonzert statt, welches am 18. Oktober 

1952  im New Yorker Museum of Modern Art öffentlich wiederholt und weitgehend positiv 

rezipiert wurde. Aufgeführt wurden Vladimir Ussachevskys  Sonic Contour  sowie Otto  Lue‐

nings Invention in 12 Notes, Low Speed und Fantasy in Space. 1953 folgte eine Einladung der 

Radiodiffusion Française zu einem Festival  in Paris, bei dem ein eigener Programmschwer‐

punkt für Tape Music vorgesehen war. 1959 kam es zur Fusion des Studios zum Columbia‐

Princeton Electronic Music Center,  in deren Folge das Studio gemeinsam von der Columbia 

University und der Princeton University  in New  Jersey betrieben wurde und unter der Lei‐

tung von Luening [→] und Ussachevsky stand. Weitere wichtige Mitarbeiter und Komponis‐

ten waren  u.a. Milton  Babbitt,  Roger  Sessions,  Bülent  Arel, Mario  Davidowsky  und  Alice 

Shields. Schon 1958 verfügte das CMC über vier komplette Aufnahmestudios  für elektroni‐

sche Kompositionen sowie den RCA Mark II Sound Synthesizer. 

 

3. San Francisco Tape Music Center (SFTMC) 

Das SFTMC ging 1960 aus der von Ramon Sender und Pauline Oliveros veranstalteten Kon‐

zertreihe Sonics hervor, bei der die Tape Music ein Forum fand. 1962 entstand offiziell das 

von  Sender  und Morton  Subotnick  gegründete  SFTMC  am  San  Francisco  Conservatory  of 

Music. Die Zielsetzung der Einrichtung war es, eine Black Box – einen neuentwickelten Syn‐

thesizer – für Komponisten zur Verfügung zu stellen, die alle erdenklichen Klänge verfügbar 

machen sollte. Das Gerät sollte die elektronische Musikproduktion so vereinfachen, dass Ar‐

beitsschritte  gleichzeitig  und  nicht  mehr  nacheinander  ausgeführt  werden  konnten.  Das 

Vorhaben mündete 1962 und 1963  in den Bau eines modular aufgebauten Systems durch 

Donald Buchla. Der Buchla‐Synthesizer beinhaltete zwei Keyboards ohne herkömmliche Tas‐

ten. Stattdessen wurde eins mit berührungsempfindlichen Kontakten ausgestattet, die pro‐

grammierte  Ereignisse  auslösten, während  das  andere  als Wiedergabesteuerung  für  zehn 

angeschlossene Tonbandgeräte diente und  somit  ähnlich wie ein Mellotron  arbeitete. Die 

Keyboards dienten als eine Art Sampler. Dieses Gerät wurde später zum 100 Series Mudolar 

Electronic Music System weiterentwickelt, dessen Lizenz schließlich von der CBS erworben 

wurde. Durch das Gerät war es nun möglich, in Echtzeit zu arbeiten, wobei die Arbeitsschrit‐

te manuell  vorgenommen werden mussten. Der  Buchla‐Synthesizer wurde  vor  allem  von 

Subotnick  genutzt,  der  damit  1967  sein  erstes  größeres Werk  Silver  Apples  of  the Moon 

komponierte. Subotnick verfolgte dabei die  Idee einer bildhauerischen Auseinandersetzung 

mit Klängen, also der Klangerweiterung durch elektronische Hilfsmittel, nicht der Schaffung 

neuer musikalischer Strukturen. 

 

Die Zusammenarbeit Buchlas und Subotnicks, vor allem auch mit dem Bildkünstler Anthony 

Martin, hatte großen Einfluss auf die Hippie‐Bewegung und Bands wie Grateful Dead, Jeffer‐

son Airplane oder Quicksilver Messenger Service. Pink Floyd, die ihrerseits 1968 mit dem Al‐

bum „A Saucerful of Secrets“ Wegbereiter des Electronic Rock‐Genres wurden, waren eben‐

falls durch das SFTMC beeinflusst. 

Page 46: Studienreader zur analogen elektroakustischen Musik

46  

Steve  Reich  erlernte  zwischen  1963  und  1965  im  SFTMC  die  von  Terry  Riley  entwickelte 

Technik der Phasenverschiebung, bei der zwei oder mehr Tonbänder mit  identischen Band‐

schleifen  allmählich  gegeneinander  verschoben werden.  1966 wurde  das  SFTMC  von  San 

Fransisco an das Mills College in Oakland verlegt und später in Center for Contemporary Mu‐

sic  umbenannt.  Die  Leitung  ging  an Martin  und  Oliveros  über, womit  sich  der  Kreis  zur 

Sonics‐Konzertreihe schloss. 

 

Quellen 

Burns, Kristine H., Art. Morton Subotnick, in: NG2 Band 24, London 2001 

Castine, Peter, Art. Ussachevsky, Vladimir (Alexis) in: MGG2 Personenteil 16, Kassel 2006 

Emmerson, Simon und Denis Smalley, Art. Electro‐acoustic Music, in: NG2 Band 8, London 2001 

Goodman, Alfred, Art. Luening, in: MGG2 Personenteil 11 , Kassel 2004 

Manning, Peter, Electronic and Computer Music, Oxford 1987 

Ruschkowski, André, Elektronische Klänge und musikalische Entdeckungen, Stuttgart 2010 

Sanio, Sabine, Art. Steve Reich, in: MGG2 Personenteil 12, Kassel et al. 2005 

Trimble, Trimble und Severin Neff, Art. Luening, in: NG2 Band 15, London 2001 

Ungeheuer,  Elena  (Hg.).  Handbuch  der  Musik  im  20.Jahrhundert  Bd.5,  Elektroakustische  Musik, 

Laaber 2002 

Ungeheuer, Elena und Martin Supper, Art. Elektroakustische Musik, in: MGG2 Sachteil 2, Kassel et al. 

1995 

 

Oliver Falkenberg    

Page 47: Studienreader zur analogen elektroakustischen Musik

47  

Elektroakustische Musik beim Westdeutschen Rundfunk Köln I. Die elektroakustische Musik beim Rundfunk  

Aufgrund technischer Erfordernisse dort entstanden, wurde die Beschäftigung mit elektroa‐

kustischer Musik auch nach der Dezentralisierung von Studiokompositionen infolge von sin‐

kenden Gerätepreisen durch den Rundfunk gefördert. Die öffentlich‐rechtlichen Rundfunk‐

anstalten entsprechen damit  ihrem Kulturauftrag zur Förderung von Musikern und zur Ent‐

stehung neuer Werke. 

 Kulturauftrag 

In den Programmgrundsätzen der Rundfunkgesetzgebung  ist der Kulturauftrag nicht  im De‐

tail  definiert, wofür  die Unterstützung  kultureller  Ideale  seit  der  ständigen  Programmauf‐

nahme  in  Deutschland  am  29.10.1923  zur  Sendungslegitimation  herangezogen  wird.  Ur‐

sprünglich eine Folge musikindustrieller Förderung und politischer Zensurverfahren, wurde 

das breite Musikprogramm ab 1925 von der Reichsrundfunkgesellschaft als kultureller Wert 

auch staatlich subventioniert. Die „drei Säulen“ des Kulturauftrags sind noch heute Unterhal‐

tung, Bildung und  Information. Die Produktion  sog. „Minderheitenprogramme“  (Hörspiele, 

künstlerische Features, E‐Musik) zählt zu den wesentlichen Merkmalen öffentlich‐rechtlicher 

Rundfunkanstalten. Geringe Einschaltquoten werden durch Bildungscharakter und hohe ab‐

solute  Zuhörerschaft  (ca. ½ Mio. Menschen  in Deutschland)  gerechtfertigt.  In  diesem  Zu‐

sammenhang fungieren Rundfunkanstalten als Mäzene neuer Musik: die Finanzierung eige‐

ner Klangkörper und Konzertreihen, die Organisation von Festivals (z.B. Donaueschinger Mu‐

siktage, Südwestrundfunk) sowie die Vergabe von Kompositionsaufträgen sind direkte Folge 

des Kulturauftrags, ebenso die Einrichtung elektronischer Studios  in der zweiten Hälfte des 

20.  Jahrhunderts.Nachfolgende  Beispiele  zeigen  internationale Herangehensweise  zur  Ein‐

richtung elektronischer Studios durch den Rundfunk. 

 

Das Elektronische Studio des NWDR (Nordwestdeutscher Rundfunk) 

Auf der ersten Tonmeistertagung  im September 1949  in Detmold präsentierte der Bonner 

Kommunikationswissenschaftler  Werner  Meyer‐Eppler  (M.‐E.)  Vocoder‐Experimente  und 

machte dort die Bekanntschaft von Robert Beyer, Tonmeister des NWDR Köln. Durch elekt‐

ronische  Klangforschung  erhoffte  sich  dieser  eine  Realisierung  von  Klangfarbenmusik,  so 

dass er den Verantwortlichen des NWDR in Köln vorgestellt wurde. Erste Ergebnisse kamen 

zum Einsatz  im Rundfunkhörspiel Der alte Roboter  (gesendet am 22. September 1951), die 

mit  Vocoder  erzeugten  Roboterstimmen  der  breiten  Öffentlichkeit  als  „Meisterstück  der 

Elektroakustik“  präsentiert wurden.  Es  folgte  eine  Sendung  über  elektronische Musik  im 

Nachtprogramm des NWDR am 18. Oktober 1951 mit Klangbeispielen von M.‐E. zu einem ei‐

nem Gespräch mit Robert Beyer, Herbert Eimert  (dem  leitenden Redakteur des Nachtpro‐

gramms, →) und Friedrich Trautwein. Am Morgen desselben Tages hatte eine kurze Bespre‐

chung mit den Programmverantwortlichen die Begründung eines elektronischen Studios am 

Kölner Funkhaus  initiiert: „So wird es beispielsweise möglich, das Problem der  ‚rundfunkei‐

genen Musik‘  in Angriff zu nehmen und auch für das Hörspiel akustische Effekte von bisher 

noch nicht gehörter Gestalt bereitzustellen.“ 

 

Page 48: Studienreader zur analogen elektroakustischen Musik

48  

Erfolgreich setzte Eimert diese Empfehlung beim Intendanten des NWDR durch, erste Klang‐

experimente folgten 1952. Unter der Leitung Karlheinz Stockhausens [→] entfernte sich das 

Studio ab Mitte der 1950er Jahre zunehmend von Eimerts ursprünglichen Vorstellungen und 

konzentrierte  sich auf Konzepte der  seriellen Musik.  Im Musikalischen Nachtprogramm als 

neue Musik etabliert, konnte diese bzgl. des auskomponierten Raumklangaspektes aber nur 

bedingt ihre Wirkung entfalten, da der sendefähige Ton zunächst nur monofone, später ste‐

reofone Produktionen berücksichtigen konnte bzw. mehrkanalige Werke nach diesen techni‐

schen  Erfordernissen  heruntergemischt werden mussten. Die Aufführung mit  klar  positio‐

nierten Lautsprechern  im Konzertsaal und auf Tagungen  („Saalfunk“) sollte dieses Problem 

lösen. 

 

Das Mailänder Studio di fonologia di Milano della RAI 

1955 wurde das Studio im Auftrag des Radiotelevisione Italiana (öff.‐rechtl. Rundf.) zur Her‐

stellung akustischer Kulissen von Hörspielen gegründet. Musikalische Leiter waren Luciano 

Berio und Bruno Maderna. Dieser hatte 1952 in Kooperation mit M.‐E. Musica su due dimen‐

sioni komponiert.  Im Sinne der eigentlichen Zielsetzung des Studios öffnete man sich dem 

Gebrauch außerelektronischer Mittel, was von Stockhausen scharf kritisiert. John Cage kom‐

ponierte hier 1958 Fontana Mix, Luigi Nono bearbeitete  jedes seiner elektronischen Werke 

auch in Mailand. 

 

Elektronmusikstudion (EMS) 

Der schwed. Komponist Karl Birger Blomdahl war 1964 unter der Voraussetzung, ein Studio 

zur Produktion  elektronischer Musik  gründen  zu  können,  zum Musikdirektor  von  Sveriges 

Radio  (dem  schwedischen  öffentlich‐rechtlichen  Rundfunk)  ernannt worden. Nach  dessen 

Tod vier Jahre später stellte der Sender die Finanzierung ein und das Studio wurde im Folge‐

jahr 1969 unabhängig mit Unterstützung des Kulturministeriums. Erster Direktor des neuen, 

bis heute bestehenden EMS war der norw. Komponist Knut Wiggen, den besonders die psy‐

chologische Wirkung von Klängen interessierte. 

 

NHK (Nippon Hōsō Kyōkai) Studio 

1954 durch NHK (den japanischen öffentlich‐rechtlichen Rundfunk) gegründet. Aus Interesse 

am musikalischen und radio‐klanglichen Einsatz elektroakustischer Musik bemühte man sich, 

zunächst ein Handbuchs des Kölner NWDR‐Studios ins Japanische zu übersetzen, um ein ei‐

genes elektronisches Studio aufzubauen. Dessen Gründungsdirektor wurde Wataru Uenami. 

Zur Gewinnung authentischer Eindrücke reiste der Komponist Toshiro Mayuzumi 1955 nach 

Köln, so dass erste Kompositionen sich an der Kölner Schule (Studie I: Music for Sine Wave by 

Proportion of Prime Number, 1955) orientierten. 1966 komponierte K. Stockhausen hier sei‐

ne Telemusik. 

 

Quellen 

Handke, Silvia, Präsenz und Dynamik regionaler Musikkulturen in den Sendekonzepten des WDR‐ Hör‐

funks, Kassel 1997 

Holmes, Thom, Electronic and Experimental Music: Technology, Music and Culture, London 2008 

Page 49: Studienreader zur analogen elektroakustischen Musik

49  

Krogh Groth, Sanne, The Stockholm Studio EMS during its Early Years, online unter http://www.ems‐

network.org/ems08/papers/sanne_groth.pdf [10. April 2013] 

Kurtz, Michael, Stockhausen – Eine Biographie, Kassel 1998 

Spangemacher, Friedrich, Luigi Nono: Die elektronische Musik, Regensburg 1983 

Ungeheuer, Elena, Wie die elektronische Musik »erfunden« wurde..., Mainz 1992 

Dies. (Hg.), Handbuch der Musik im 20.Jahrhundert Bd.5, Elektroakustische Musik, Laaber 2002 

Weißbach, Rüdiger, Rundfunk und neue Musik, Dortmund 1986 

 

Gordon Pfaff    

Page 50: Studienreader zur analogen elektroakustischen Musik

50  

II. Das elektronische Studio des WDR  

1. Allgemeines 

Das Studio  ist historisch die erste Produktionsstätte rein elektronisch synthetisierter Musik 

und wurde  am  8.  Oktober  1951  im  Kölner  Funkhaus  des  Nordwestdeutschen  Rundfunks 

(NWDR) gegründet. Die im Studio von Komponisten   unterschiedlichster Nationalitäten und 

Generationen produzierten Werke  gaben bis Ende der 1990er Jahre entscheidende Impulse 

für die Entwicklung und Verbreitung von elektronischer Musik. Ebenso diente das Studio als 

Vorbild für später eingerichtete Studios inner‐ und außerhalb Europas. 

 

2. Vorgeschichte und Gründung unter Herbert Eimert (1950‐1962) 

Am 22. und 23. August 1950 hielten Werner Meyer‐Eppler (*1913; †1955; Prof.  für Physik, 

Phone k  und  Kommunika onsforschung  in  Bonn)  und  Robert  Beyer  (*1901;  †1989;  Ton‐

meister und Komponist) bei Wolfgang Steineckes Darmstädter Ferienkursen Vorträge über 

„Die Klangwelt der elektronischen Musik“ mit entsprechenden eigenen Musikbeispielen. Der 

Leiter des Musikalischen Nachtprogramms Herbert  Eimert  [→] propagierte darauf die  im‐

mense  Bedeutung  der  elektronischen Musik  für  den  Kölner  Standort  des  Nordwestdeut‐

schen Rundfunks bei  seinem  Intendanten Hans Hartmann. Beyer und Meyer‐Eppler unter‐

stützen Eimert während dieser Besprechung mit Klangbeispielen. Zur Profilierung des Kölner 

Funkhauses gegen die Hamburger Sendeleitung bewilligte Hartmann die Einrichtung eines 

elektronischen Studios in Köln. Bis zur Fertigstellung des eigentlichen Studios erfolgen erste 

Klangexperimente mit obertonreichen Klängen und Sinustönen  in einem der Tonträgerräu‐

me des Funkhauses. Der Fokus lag zunächst auf der Verarbeitung des Klangmaterials mit Hil‐

fe  von  Tonbandaufnahmen  und Montagetechniken.  Darüber  hinaus  kamen  die  elektroni‐

schen Spielinstrumente Monochord und Melochord zum Einsatz. 

 

Ab Mai 1953 unternahm Karlheinz Stockhausen  [→] erste Versuche auf Basis der  seriellen 

Sinustonkomposition mit einer Vorbestimmung sämtlicher Klangparameter. Während dieser 

Phase entstanden 1953/54 Stockhausens Studie  I und Karel Goeyvaerts Komposition Nr. 5. 

Ab 1955 wurden die Kompositionen um die Parameter Rauschen,  Impulse und gesungene 

Sprache  erweitert,  etwa  in  Ernst  Kreneks  Pfingstoratorium  und  Stockhausens Gesang  der 

Jünglinge. Letzteres Werk wies darüber hinaus das Novum mehrkanaliger Realisation auf. In 

den frühen sechziger Jahren wurden u.a. auch erstmalig  instrumentale Klänge  in den Kom‐

positionsprozess einbezogen, prototypisch in Stockhausens Kontakte.  

 

Die Ausstattung beschränkte  sich  in den  fünfziger  Jahren  auf Geräte der Abteilung Mess‐

technik des WDR. Neben Stockhausen gehörte auch Gottfried Michael Koenig [→] von 1954 

bis 1964 zum festen Stab der Mitarbeiter im Studio, der sowohl bei zahlreichen Kompositio‐

nen assistierte, als auch eigene Werke realisierte. Im Musikalischen Nachtprogramm wurden 

viele Beiträge zur elektronischen Musik gesendet und  in der neu gegründeten Konzertreihe 

Musik der Zeit vor Publikum aufgeführt.  

 

 

 

Page 51: Studienreader zur analogen elektroakustischen Musik

51  

3. Umorientierung unter Karlheinz Stockhausen (1963‐1986) 

Stockhausen  übernahm  ab April  1963  die  künstlerische  Leitung  des  Studios  und  trieb  zu‐

nächst eine Neukonzeption der Räumlichkeiten und Ausstattung des Studios, die drei Jahre 

später abgeschlossen war. Bedingt durch die Umstrukturierungsmaßnahmen lag der Kompo‐

sitionsbetrieb brach,  so dass man  sich der wissenschaftlichen Aufarbeitung der bisherigen 

Produktionen widmete  (Erstellung eines Bandarchivs zu Studienzwecken und Besuch ande‐

rer  Studios). Der  reguläre  Studiobetrieb  in der  vierten  Etage des  Funkhauses wurde 1967 

wieder aufgenommen. 

 

Mitte der 1960er  Jahre  fanden bei Stockhausens neuen Stücken neue Tendenzen Eingang: 

instrumentaler (Mixtur; Mikrofonie I) und vokaler Klang (Mikrofonie II) wurden nun während 

der Aufführung in Echtzeit transformiert und die aufwändige Schnitttechnik damit überflüs‐

sig. Ab 1967 erfolgen bei  Stockhausen erste  Synthesen  von  konkreten Klängen, elektroni‐

scher Musik und Live‐Elektronik im Werk Hymnen. Darüber hinaus lud er junge Komponisten 

für eigene Arbeiten ein (u.a. Messias Maiguashca, Johannes Fritsch, Peter Eötvös und David 

Johnson), die  auch neue,  teilweise  selbstgebaute  Instrumente mitbrachten und bei  Stock‐

hausens  eigenen  Aufführungen  mitwirkten.  Eine  Auseinandersetzung  der  elektronischen 

Musik mit Wirklichkeit und Kunst manifestierte  sich gegen Ende der 1960er  Jahre dann  in 

den Werken Modulation IV (Fritsch), Telefun (Johnson), Requiem (Walter Zimmermann), Hör 

Zu  (Maiguashca)  sowie System der Parabeln  (Pousseur →). Zunehmend wurde eine Domi‐

nanz zur Verbindung von elektronischen, instrumentalen und vokalen Klangmitteln deutlich. 

Auch die live‐elektronischen Kompositionen wurden zu einem festen Bestandteil der Auffüh‐

rungspraxis. Der Einsatz des EMS Synthi 100 ab 1973 ist innerhalb dieser Periode des Studios 

besonders hervorzuheben, da es sich bei diesem Gerät um das erste  Instrument handelte, 

welches primär für elektronische Musik bestimmt war. 

 

4. Neukonzeption und Ende (nach 1987) 

Dem  Anspruch  der  Komponisten  nach  klanglicher  Erneuerung  konnte  aufgrund  fehlender 

Neuanschaffungen  sowie  hoher  Instandhaltungskosten  nicht  entsprochen  werden,  zumal 

das Studio seine ästhetische Vorrangstellung seit der Einrichtung des IRCAM [→] längst ver‐

loren hatte. Veraltete und  teilweise  funktionsunfähige Geräte veranlassten den Toningeni‐

eur Volker Müller  gemeinsam mit  Stockhausen  bereits Anfang  der  1980er  Jahre,  Erneue‐

rungskonzepte  für  einen  erneuten  Um‐  und  Ausbau  des  Studios  zu  entwerfen.  Zwischen 

1982 und 1987 konnte im Studio durch die bewilligten Umstrukturierungen nicht produziert 

werden,  so  dass  die  künstlerischen Aktivitäten  in  der Übergangszeit mittels  angemieteter 

Fremdtechnik erledigt wurden. Es entstanden dabei Großproduktionen wie Teile des Opern‐

zyklus Licht von Stockhausen, dessen Fertigstellung sich bis in die Mitte der 1990er Jahre er‐

streckte,  und  Luigi  Nonos  Prometeo. Mit  dem  Umzug    in  die  Kölner  Annostraße  begann 

1986/87 die letzte aktive Phase des Studios . Mit dem Komponisten York Höller (*1944), ei‐

nem Schüler von Bernd Alois Zimmermann, fand man 1990 auch einen Nachfolger Stockhau‐

sens als  Leiter des  Studios, der dank  seiner Erfahrungen  im  IRCAM die Digitalisierung des 

Studios endgültig vollziehen konnte.  

 

Page 52: Studienreader zur analogen elektroakustischen Musik

52  

Im 50. Jahr seines Bestehens wurde das Studio 2001 stillgelegt und die Gerätschaften in das 

Industriegebiet  Köln‐Ossendorf  ausgelagert.  Dort  betreut  seitdem  der  inzwischen  pensio‐

nierte  Toningenieur  Volker Müller  die weitere Digitalisierung  alter  Tonbandbestände. Die 

weitere Existenz des Studios ist noch immer ungeklärt. Fortbestand im Programm des WDR 

findet die elektronische Musik unter der Rubrik „WDR‐open“, in welcher regelmäßig Beiträge 

zum Thema gesendet werden.  

 

Quellen 

Chagas, Paulo, Digital Composition: Von der Klangregie Elektronischer Musik zur intermedialen Äthe‐

tik bei Paulo Chagas. Eine Mediologie der Studios als Klangkörper, KlangOrt und Kulturraum,  in: 

Massenmedien und Kommunikation 190/191, Siegen 2012 

Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 

2004 

Hilberg, Frank und Harry Vogt (Hg.), Musik der Zeit. 1951‐2001. 50 Jahre Neue Musik im WDR, Köln 

2002. 

Morawska‐Büngeler, Marietta, Elektronische Schwingungen. Eine Dokumentation über das Studio für 

Elektronische Musik des Westdeutschen Rundfunks in Köln 1951‐1986, Köln 1988 

Schwind, Elisabeth, Museum oder Produktionsstätte. Das Studio für elektronische Musik des WDR, in: 

Neue Züricher Zeitung, online unter http://www.nzz.ch/aktuell/startseite/article7QEDP‐1.488668 

[13.November 2012] 

WDR‐Online Angebot, http://www.wdr3.de/programm/sendungen/wdr3openstudioelektronische 

musik/index.html [13. November 2012] 

 

Andreas Bußmann 

 

 

    

Page 53: Studienreader zur analogen elektroakustischen Musik

53  

III. Technische Entwicklung Das Studio experimentierte  im  Laufe  seiner Existenz mit diversen  technischen Hilfsmitteln 

zur Klangerzeugung, wobei die Apparaturen  fortwährend verändert und erneuert wurden. 

Zu Beginn arbeitete man mit Geräten aus der Mess‐ und Prüftechnik, die zur Klangerzeugung 

beziehungsweise  ‐transformation  zweckentfremdet wurden. Robert Beyer und Herbert  Ei‐

mert [→] ging es zunächst um die differenzierte Gestaltung von Klangfarben. Dazu verarbei‐

teten sie mit Hilfe diverser Schnitt‐ und Kopiertechniken Melochordklänge, die Werner Mey‐

er‐Eppler  in Bonn  aufgenommen  hatte. Auch  andere  obertonreiche Klänge wurden  durch 

solche Montagetechniken verändert. Für das fertig eingerichtete Studio wurden 1953 eigens 

ein Bode‐Melochord sowie ein Trautwein‐Monochord angefertigt, die zu dieser Zeit die ein‐

zigen elektronischen  Instrumente waren und als Frühform des Synthesizers gelten. Von be‐

sonderer Relevanz war zudem ein nach Fritz Enkels Plänen gebautes Mischpult, das die ein‐

zelnen Geräte miteinander koppelte. 

 

Enkel und Heinz Schütz dokumentierten 1954 in einem Artikel für die Technischen Hausmit‐

teilungen des NWDR den damaligen technischen Stand des Studios. Zur Apparatur gehörten 

neben den bereits erwähnten Geräten ein Vierspurtonbandgerät, Eintonbandmaschinen, ein 

Rauschgenerator und ein Schwebungssummer. Zudem dienten zur Weiterverarbeitung des 

Klangmaterials u.a. ein Ringmodulator sowie mehrere Filter.  In Abgrenzung zur Hörspielab‐

teilung  und  den  dort  benötigten  Klangeffekten  strebte  Eimert  nach  einer  komponierten 

elektronischen Musik, weshalb  er mehrere  Komponisten  ins  Studio  einlud.  Darunter war 

Karlheinz  Stockhausen  [→],  unter  dessen  Einfluss  die  serielle Musik  zunehmend  realisiert 

werden konnte. Um nach eigenen kompositorischen Vorstellungen Sinustöne zusammenset‐

zen zu können, lieh er sich Sinustongeneratoren, die bald Mono‐ und Melochord klangästhe‐

tisch verdrängten. 

 

Sukzessiv wurde das Studio  in den nächsten  Jahren erweitert. Der WDR erstellte Pläne  für 

Schaltgestelle, Mischpulte,  Bedienungsfelder  und  Tonbandgeräte,  die  speziell  auf  die  Be‐

dürfnisse  im Studio zugeschnitten waren. Nachträglich kamen noch Transistorgeräte hinzu. 

Der  Entwurf  eines  Rotationstisches,  der  von  Lautsprechern  umgeben war,  ermöglichte  es 

zudem, Klangbewegungen zu komponieren. Das Studio hatte sich zu diesem Zeitpunk im Be‐

reich der Elektrotechnik  zwar enorm entwickelt,  jedoch erkannte  Stockhausen nach Besu‐

chen amerikanischer Studios die Notwendigkeit einer Modernisierung. Im Zuge eines erneu‐

ten Umbaus  in den 1970er wurde die Automatisierung des Studios realisiert. Zwei Philipps‐

generatoren und der kleine Analogsynthesizer Synthi A ergänzten den Gerätepark, wodurch 

nun das Prinzip der Spannungssteuerung verfolgt wurde. Demnach konnten die Module des 

Synthesizers mittels variabler Gleichspannungen gesteuert werden, wodurch die zuvor ma‐

nuellen  Arbeitsprozesse  erleichtert wurden. Mit  der  Anschaffung  des  großen  Synthesizer 

Synthi 100 im Jahr 1973 besaß man schließlich das erste Gerät, das speziell für elektronische 

Musik eingesetzt wurde. Dieser  vereinte  alle  zuvor  separat  genutzten Geräte  zur Klanger‐

zeugung, Klangverarbeitung und Spannungserzeugung. 

 

 

Page 54: Studienreader zur analogen elektroakustischen Musik

54  

Anfang der 1980er wurde der Gerätepark des Studios wieder erneuert: Veraltete und funkti‐

onsunfähige Geräte wurden u.a. durch einen Chroma‐Synthesizer, einen EMS‐Vocoder und 

zwei Mehrspulanlagen ersetzt. Ferner wurde der Fokus auf Live‐Elektronik gesetzt, was die 

Anschaffung eines speziell für Konzertreisen ausgelegten Achtspurlaufwerks beinhaltete so‐

wie den Austauschder manuellen Tonregieanlage aus den 1960er Jahren durch eine compu‐

tergesteuerte Anlage. Das Studioequipment wurde zudem durch spezielle Systeme zur Klan‐

gerzeugung und  ‐beeinflussung erweitert, zu denen beispielsweise das FM‐System von Ya‐

maha zählte. Alle Neuanschaffungen waren über MIDI miteinander koppelbar und somit frei 

für die  Informationskoordination. Signifikant  für die Digitalisierung war York Höller, der ab 

1990 Beauftragter des Studios wurde und zuvor bereits am IRCAM [→] Erfahrungen im Um‐

gang mit digitalen Systemen gesammelt hatte. Der WDR ordnete  in den 1990er  Jahren die 

Aussonderung vieler Geräte an, was vom langjährigen Tontechniker Volker Müller verhindert 

wurde. Seit der Schließung des Studios  im Mai 2001 befinden  sich  sämtliche Geräte unter 

der Obhut Müllers in einer Lagerhalle in Köln‐Ossendorf. 

 

Quellen 

Custodis, Michael, Die soziale Isolation der neuen Musik. Zum Kölner Musikleben nach 1945, Stuttgart 

2004 

Enkel, Fritz und Heinz Schütz, Die Herstellung von Hörspielgeräuschen, in: Technische Hausmitteilun‐

gen des NWDR, Hamburg 1954. 

Morawska‐Büngeler, Marietta, Elektronische Schwingungen. Eine Dokumentation über das Studio für 

Elektronische Musik des Westdeutschen Rundfunks in Köln 1951‐1986, Köln 1988 

Nauck, Giesela: Musik im Raum – Raum in der Musik. Ein Beitrag zur Geschichte der Seriellen Musik. 

In: Beihefte zum Archiv für Musikwissenschaft. Band XXXVIII, Stuttgart 1997. S. 189‐192. 

Schwind, Elisabeth, Museum oder Produktionsstätte. Das Studio für elektronische Musik des WDR, in: 

Neue Züricher Zeitung, online unter http://www.nzz.ch/aktuell/startseite/article7QEDP‐1.488668 

[12. Januar 2013] 

Stockhausen, Karlheinz, Texte zur Musik Band 8, Kürten 1998 

Ungeheuer,  Elena  (Hg.). Handbuch  der Musik  im  20.Jahrhundert  Band  5,  Elektroakustische Musik, 

Laaber 2002 

 

Nadine Gehrmann 

 

 

   

Page 55: Studienreader zur analogen elektroakustischen Musik

55  

Iannis Xenakis (alternativ Jannis Xenakis, Yannis Xenakis) I. Biografie Komponist und Architekt (*29. Mai 1922 in Brăila, Rumänien; † 4. Februar 2001 in Paris). In 

den Wirren des Krieges ging seine Geburtsurkunde verloren, weshalb das genaue Geburtsda‐

tum nicht  abgesichert  ist.  Iannis Xenakis überschritt die Grenzen der  traditionellen Musik 

und gab mit seinen auf mathematischen Verfahren basierenden Kompositionen der Avant‐

garde nach dem 2. Weltkrieg neue Impulse. In seiner Musik ist die Verknüpfung von Tönen, 

Physik, Architektur und vor allem der Mathematik ausschlaggebend. Ein oft beschriebener 

Effekt seiner Musik  ist die Fähigkeit, eine archaisch rituelle Stimmung zu erzeugen (etwa  in 

den Stücken Orestie, Medea und Persepolis). 

 

 Abb. 1: Iannis Xenakis in seinem Atelier in Paris (circa 1970) 

 

Iannis Xenakis wurde als Sohn des Firmendirektors Clearchos Xenakis und der Pianistin Pho‐

tini Pavlou in Rumänien geboren. Er war das Älteste von drei Geschwistern und verlor seine 

Mutter in seinem fünften Lebensjahr. Die Kinder wurden daraufhin von französischen, deut‐

schen und englischen Kindermädchen aufgezogen. In seiner Kindheit hörte Xenakis sehr häu‐

fig Folklore und Zigeunermusik  in den Straßen Brăilas.  Im  Jahr 1932 zog er nach Griechen‐

land, um ein Internat zu besuchen und begann, sich für Mathematik und Musik zu interessie‐

ren. Im Alter von 16 Jahren begab er sich 1938 nach Athen, um sich am dortigen polytechni‐

schen  Institut einzuschreiben. Gleichzeitig nahm er Musik‐, Harmonielehre‐ und Kompositi‐

onsunterricht  bei  Aristote  Koundourov.  Im  zweiten Weltkrieg war  Xenakis  in  der  griechi‐

schen Widerstandsbewegung aktiv und verlor bei Kämpfen ein Auge. Im Jahr 1947 beendete 

er ein  zum Bauingenieur und  floh  im Zuge des nach dem Ende des Zweiten Weltkriegs  in 

Griechenland ausgebrochenen Bürgerkriegs nach Frankreich, wo er sich niederließ und 1965 

die französische Staatsbürgerschaft annahm. Von 1948 bis 1960 wurde Xenakis Assistent des 

Architekten Le Corbusier und entwarf für die Brüsseler Weltausstellung 1958 den Philips Pa‐

villon, für dessen Gestaltung er sich auch auf sein Orchesterwerk Metastaseis von 1954 be‐

zog. Darüber hinaus gestaltete er u.a. die innere Struktur des Klosters La Tourette.  

 

Page 56: Studienreader zur analogen elektroakustischen Musik

56  

Seine  musikalische  Ausbildung  vervollständigte  er  ab  1949  mit  Kompositionsstudien  bei 

Darius Milhaud, Arthur Honegger und Olivier Messiaen. Daneben wurde Hermann Scherchen 

ein wichtiger Förderer von Xenakis Arbeit, der bevorzugt für Orchester komponierte (mehr 

als drei Dutzend Werke), aber auch zehn rein elektronische Stücke sowie weitere annähernd 

einhundert Kompositionen für Chor, Kammerbesetzungen und solistische Instrumente reali‐

sierte. Im Jahr 1960 gründete er zunächst eine freie Forschungsgruppe für Mathematik und 

Musik (MYAM), die er vier Jahre später zu einer eigenen Institution ausbaute [→ CEMAMu]. 

Von 1967 bis 1972 unterrichtete er an der University of  Indiana  in Bloomington, anschlie‐

ßend bis 1989 an der Pariser Sorbinne, und hielt viele weltweit Vorträge, u.a. auf Einladung 

von Friedrich Hommel 1990 bei den  Internationalen Ferienkursen für Neue Musik  in Darm‐

stadt.  Iannis Xenakis erhielt  zahlreiche Auszeichnungen und Preise. So wurde er  zum Mit‐

glied der British Computer Arts Society 1972 nominiert und erhielt 1979 den Beethovenpreis 

der  Stadt  Bonn.  In  seinen  letzten  Lebensjahren  war  er  von  einer  schweren  Alzheimer‐

Erkrankung gezeichnet und konnte immer weniger komponieren. Vier Jahre vor seinem Tod  

wurde sein letztes Werk O‐Mega 1997 uraufgeführt. Um seiner Musik etwas näher zu kom‐

men, muss man seine teils radikalen Ansichten besser verstehen. So sah er die „Musik [als] 

keine  Sprache.  Jedes  Musikstück  ist  eine  Art  Felsblock  in  einer  komplexen  Form  mit 

Schrammen und Mustern, die darauf oder darein geritzt sind und die Menschen auf tausend 

verschiedene Weisen entziffern können.“ 

 

 Abb. 2: Iannis Xenakis in seinem Atelier in Paris (circa 1987) 

Page 57: Studienreader zur analogen elektroakustischen Musik

57  

Quellen 

Baltensperger, André, Iannis Xenakis und die stochastische Musik. Komposition im Spannungsfeld von 

Architektur und Mathematik, Bern 1996 

Di Scipio, Augustino, Compositional Models in Xenakis’s Electroacoustic Music, in: Perspectives of 

New Music 36 (1998) Nr. 2 

Hoffmann, Peter, Art. Xenakis, Iannis, in: NG2 Band 27, London 2001 

http://www.iannis‐xenakis.org 

Richard, Albert: Iannis Xenakis et la musique stochastique, 1963, Paris 

Saxer, Marion: Die Mathematisierbarkeit der (Klang‐)Welt. Überlegungen zur Verwendung der Ma‐

thematik im Schaffen von Iannis Xenakis, in: Musikwissenschaft zwischen Kunst, Ästhetik und Ex‐

periment (= Festschrift für Helga de la Motte), Würzburg 1998 

Supper, Martin, Art. Xenakis, Iannis, in: MGG2 Personenteil 17, Kassel et al. 2007 

Varga, Bálint András, Gespräche mit Iannis Xenakis, Zürich 1995 

Abb. 1: Foto von Michèle Daniel, veröffentlicht auf www.iannis‐xenakis.org

Abb. 2: Foto veröffentlicht auf www.iannis‐xenakis.org 

Christiane Licht    

Page 58: Studienreader zur analogen elektroakustischen Musik

58  

II. Stochastische Synthese Iannis Xenakis führte 1956 den Begriff der Stochastischen Musik in Bezug auf seine Komposi‐

tionen ein, um eine neue Art der seriellen Klangsynthese zu beschreiben. Grundlage dieser 

Kompositionstechnik  ist die Verknüpfung  eines mathematisch‐naturwissenschaftlichen An‐

satzes mit der bestehenden elektroakustischen Musik. Ziel war die Kontrolle über Massener‐

eignisse, wie z.B. Tonwolken, mithilfe von mathematisch‐physikalischen Formeln und Funk‐

tionen, um diese Klänge einer bestimmten Grundgedanken unterordnen zu können. Xenakis 

bezeichnete die  Stochastik  in diesem  Zusammenhang  als  „Instrument“, mit welchem man 

die Klangwelt auszudrücken vermag. Weiterhin beschrieb er seine neue Methode der Klang‐

synthese  als  Lösung  für  die  „Sackgasse  der  seriellen Musik“,  in  der  sich  seine  Kollegen 

(Stockhausen →, Boulez → und andere) verfahren hätten. 

 

Theoretische Grundlage der Stochastischen Musik sind die drei Grundparameter Dauer, Wol‐

ke und Geschwindigkeit. 

Die Dauer bezeichnet die bestimmte Länge eines Segments, das wie folgt zustande kommt: 

Zeit wird als Gerade aufgefasst bzw. als ein Zeitstrahl vom Nullpunkt ausgehend, auf wel‐

chem in zufälligen Abständen Punkte gesetzt werden, die bestimmte Zwischenstrecken mar‐

kieren und die  zuvor genannten  Segmente bilden. Hieraus ergibt  sich die  Frage, wie  viele 

Segmente mit der Länge x entstehen. Mit dieser Fragestellung lässt sich nun die Wahrschein‐

lichkeit festlegen, mit der ein Segment der Dauer x auftritt, wenn die Dichte der Punkte δ (in 

Töne/sec) linear ist:  P(x)=δ*e‐δx*de 

 

Wolken sind zufällig verteilte Tonpunkte, die durch die zwei Faktoren bestimmt werden, zum 

einen anhand der Dichte der Punkte μ (in Töne/sec), sowie zum anderen durch dieIntervalle 

zwischen den Punkten (in Halbtönen). Um dies in einer Formel zusammen zu fassen, benutz‐

te Xenakis die POISSON‐Verteilung, mit der zufällig bestimmten Dichte μ, der Wahrschein‐

lichkeit P(k), k als Anzahl der Ereignisse und μ0 als durchschnittlicher Dichte: P(k)=μ0t/k!*e‐μ0. 

Legt man nun μ als 0,5 Ereignisse (Töne)/sec fest, wird es sehr unwahrscheinlich sein, dass in 

einer Sekunde 20 oder mehr Ereignisse geschehen. Aufgrund dieser Voraussetzungen wer‐

den dann bestimmte Stellen auffallen, da diese sich aufgrund ihrer höheren Tondichte vom 

Rest abheben. Die Tonhöhen der einzelnen Tonpunkte  in der Wolke werden durch die Ver‐

kettung  ihrer  Intervalle bestimmt, wobei die Zufallsvariablen eine Präferenz  für Werte ha‐

ben, die gegen 0 laufen. 

 

Als Glissando‐Geschwindigkeit definiert Xenakis die Steigungs‐ bzw. Fallgeschwindigkeit der 

Tonhöhe,  bezogen  auf  einen Ausgangspunkt  P  {f/t}  zur  Zeit  t mit  der  Frequenz  f. Hierfür 

werden dann Ober‐ und Untergrenzen  festgelegt,  innerhalb derer die Geschwindigkeit um 

einen Durchschnittswert zufällig bestimmt wird. 

 

Um den Ablauf einer solchen Synthese zu systematisieren, erstellte Xenakis ein formalisier‐

tes Modell des Kompositionsprozesses und unterteilte den Vorgang  in acht Phasen, die  je‐

doch auch teilweise abweichen können: 

 

 

Page 59: Studienreader zur analogen elektroakustischen Musik

59  

1. Conceptions initiales – dies ist der grundlegende Gedanke der Komposition 

2. Définition d’êtres sonores – beschreibt die klangliche Grundlage und das Ausgangsma‐

terial 

3. Défintion des transformations –  legt den großen Rahmen fest,  in wie fern die klangli‐

chen Elemente transformiert und modifiziert werden sollen (Makrokomposition) 

4. Microcomposition – hier werden die genauen mathematischen Vorgänge definiert und 

verfeinert (Mikrokomposition) 

5. Programmation séquentielle – sequentielle Programmierung des Konstrukts 

6. Effectuation des calculs – die Formeln und Funktionen werden berechnet 

7. Résultat final symbolique – die kalkulierten Ergebnisse werden in Musiknotation über‐

tragen 

8. Incanation sonore – die Musiknotation wird nun klanglich realisiert 

 

Xenakis experimentierte anfangs viel mit dieser Methode und benutzte die Ergebnisse zum 

ersten Mal  in  seinem Multimediawerk Polytope de Cluny  (1972), welches  er  in den  römi‐

schen Bädern von Cluny in Paris aufführte. Dort kombinierte er die Musik, die siebenkanalig 

über 12 Lautsprecher wiedergegeben wurde, mit 600 Blitzlichtern und drei Lasern. Diese La‐

ser konnten wiederum mit 400 programmierbaren Spiegeln, die er im gesamten antiken Bad 

installiert hatte, umgelenkt werden. Von der 2. Bis 6. Minute der Komposition, nach einer 

kurzen Einführung, hebt sich die angewendete stochastische Synthese hervor. 

 

Ein anderes wichtiges Werk  im Schaffen von Xenakis  ist das multimediale Stück La Légende 

d’Eer (1977), in dem ebenfalls ein Zusammenspiel von Licht und Musik maßgeblich ist. Er be‐

nutzte hierbei weniger schon vorhandenes Soundmaterial, sondern konzentrierte sich stär‐

ker auf die synthetische Klanggenese. Das Besondere ist, dass der Komponist eine neue Me‐

thode anwendet: die dynamische stochastische Synthese. Bei dieser Art der Synthese variiert 

die Wellenform  bei  jeder  einzelnen Wiederholung.  Es werden  Punkte  festgelegt  die  eine 

Phrase  in bestimmte Zeitsegmente unterteilt,  in denen diese Wellenform wiederholt wird. 

Die Richtung und Stärke der Wellenveränderung wird mithilfe einer Wahrscheinlichkeitsver‐

teilung bestimmt, wobei so viele zufällige Formen entstehen, wie Punkte gesetzt wurden. 

 

Quellen 

Baltensperger, André, Iannis Xenakis und die stochastische Musik. Komposition im Spannungsfeld von 

Architektur und Musik, Bern et al. 1996 

Di Scipio, Augustino, Compositional Models in Xenakis’s Electroacoustic Music, in: Perspectives of 

New Music 36 (1998) Nr. 2 

Luque, Sergio: The Stochastic Synthesis of Iannis Xenakis, in: Leonardo Music Journal (2009) Nr. 19 

 

Phillip Ahlert 

 

 

   

Page 60: Studienreader zur analogen elektroakustischen Musik

60  

III. Centre de Mathématique et Automatique Musicales (CEMAMu) Das CEMAMu war ein Institut für angewandte musikalische Informatik und Mathematik mit 

Sitz  in Paris. Es wurde 1966 als EMAMu (Equipe de Mathématique et Automatique Musica‐

les) von Marc Barbut, François Genuys und Georges Guilbaud unter Direktion von Iannis Xe‐

nakis gegründet und verfolgte seit seiner Gründung das Ziel, Geistes‐und Naturwissenschaf‐

ten in interdisziplinärer Forschung zusammenzuführen und seine Ergebnisse einer breiteren 

Öffentlichkeit zugänglich zu machen.  

 

1. Gründungsgeschichte  

Für das 1954 komponierte Stück Metastaseis verwendete Xenakis eine graphische Notation, 

musste diese jedoch auf gewöhnliches, liniertes Notenpapier übertragen, um das Werk von 

einem Orchester spielbar zu machen. Seitdem suchte Xenakis nach neuen Möglichkeiten, die 

graphische Notation seiner Kompositionen ohne Transkription  in Klang umzusetzen und ei‐

nen  universelleren Weg  zum Ausdruck  und  zur  Interpretation musikalischer Gedanken  zu 

finden. 1960 gründete Xenakis zusammen mit Michel Philippot, Abraham Moles and Alain de 

Chambure das MYAM, eine  freie Forschungsgruppe  für Musik und Mathematik. Zwei Jahre 

später entstanden neue Kompositionen von Xenakis bei der Firma  IBM mithilfe von 7090‐

Computern, für die eine neue Musikproduktionssoftware programmiert wurde. Für Xenakis 

war es unabdingbar, die Natur des Klanges mit neuesten Technologien zu erforschen. Daher 

gründete  er  1966  seine  eigene,  offiziele  Forschungsgruppe,  das  EMAMu, welches  in  das 

Centre de Mathématiques sociales der EPHE  (École pratique des hautes études) eingeglie‐

dert wurde. Dessen Arbeit  beinhaltete  neben Vermittlung  neuester wissenschaftlicher  Er‐

kenntnisse und ihrer musikalischen Umsetzungen in Form von theoretischen Seminaren be‐

sonders die Grundlagenforschung  im Bereich der musikalischen Komposition unter Berück‐

sichtigung der Akustik, Mathematik und  Informatik. Hierbei wurde besonders die Entwick‐

lung eines Gerätes bzw. Musikinstruments für eine natürliche und direkte Übertragung zwi‐

schen Klang und Gedanke in den Vordergrund gestellt. Die Arbeit der Forschungsgruppe er‐

regte  in  den  folgenden  Jahren  immer mehr Aufmerksamkeit,  so wurde  das  EMAMu  z.  B. 

1969 in das Institut für Kernphysik des Collège de France aufgenommen.   

Die Organisation wurde 1972 zu einer eigenständigen Institution und erhielt die Bezeichnung 

CEMAMu, als ein  Institut für angewandte musikalische  Informatik und Mathematik. Gleich‐

zeitig war das Zentrum mit neuen Computern und Zusatzgeräten ausgestattet. Durch diese 

neuen Möglichkeiten erweiterte  sich der Aufgabenbereich des  Instituts: Alte  Erkenntnisse 

der Forschungen mussten nun mit neuen Methoden und besseren  technischen Vorausset‐

zungen  gesichert  und  verifiziert  werden.  Einzelne  Ergebnisse  der  frühen  Forschung  des 

EMAMu bzw. CEMAMu und die Rezeptionsgeschichte der Einrichtung sind  in der aktuellen 

Forschung nur äußerst grob und unvollständig erfasst.  

 

2. UPIC (Unité Polyagogique Informatique du CEMAMu)  

Neben seinen Lehr‐und Forschungszielen entwickelte das CEMAMu unter Anleitung von Xe‐

nakis jene Geräte und Programme zur Transformation musikalischer Ideen in Klang, die UPIC 

getauft wurden, stets weiter. Dabei war Primärziel, ihre Handhabung möglichst einfach und 

universell zu gestalten, um den kompositorischen Schaffensprozess nicht zu behindern, son‐

Page 61: Studienreader zur analogen elektroakustischen Musik

61  

dern kreativ auszuweiten. Die musikalische Kreativität eines Menschen wäre somit von tradi‐

tioneller Ausbildung entkoppelt. Diese Zielsetzungen führten zur Produktion des ersten Pro‐

totyps des UPIC bis Mitte der 1970er Jahre. Das System aus vielen Computern und anderen 

Geräten sollte schließlich dem Nutzer die Möglichkeit bieten, ohne technisches Fachwissen 

musikalische Gedanken direkt umzusetzen. 1977 wurde das UPIC  schließlich  fertiggestellt: 

eine  Computermusik‐Workstation,  in  deren  Zentrum  ein  Zeichentisch  als  eine  Art  Touch‐

Tablet steht, auf welchem musikalische Parameter und ganze Partituren innerhalb einer Zeit‐

Tonhöhe‐Achse gezeichnet werden konnten, die durch Computerprogramme und verschie‐

dene Klangwandler unverzüglich hörbar gemacht wurden. Der Zeichentisch maß 60*75cm 

und war von Millimeterlinien zur Orientierung durchzogen. Geschrieben wurde mithilfe ei‐

nes Stifts mit elektromagnetischen Kontakten, dazu kamen einige Befehlsfunktionen und ei‐

ne Auswahl an Wellenformen. Die Architektur einer Komposition konnte  somit als Ganzes 

entworfen werden. Eine weitere Besonderheit des UPIC lag in der Möglichkeit, den kleinsten 

Teil eines Klanges, ein elementares Klangquant, direkt zu kontrollieren und somit nicht nur 

die Großform einer Komposition, sondern auch den Mikrobereich eines Klanges zu gestalten. 

Durch dieses Syntheseverfahren wurde nicht die Wellenform des errechneten Klanges, son‐

dern das Endergebnis besimmt. Alle Informationen der erstellten Graphik konnten per Inter‐

face an 16‐bit Minicomputer und mehrere Klangumwandler gesendet werden. Das UPIC war 

nicht nur eines der bahnbrechensten Ergebnisse des CEMAMu, sondern wurde auch für die 

Erstellung und Interpretation einiger Kompositionen praktisch verwendet. Erstmals utilisier‐

te Xenakis das UPIC  im  Jahr 1978  für  seine Komposition Mycenes‐Alpha und auch andere 

Komponisten, z. B. Jean‐Claude Eloy und Wilfried Jentzsch, arbeiteten mit dem System. Bis 

Mitte der 1980er  Jahre wurde die damals dritte Generation des UPIC bereits  serienmäßig 

hergestellt und kommerziell vermarktet.  

 

 Abb: Partiturskizze von Mycenes‐Alpha 

 

 

 

 

Page 62: Studienreader zur analogen elektroakustischen Musik

62  

3. Entwicklung der Institution bis zur Gegenwart  

Aus dem CEMAMu entsprangen 1985 mit Unterstützung des französischen Ministeriums für 

Kultur und Kommunikation UPIC‐Workshops, die sogenannten Les Ateliers UPIC. Der Um‐

gang mit dem namensgebenden System wurde dabei in Sommerferienkursen gelehrt und 

dadurch einer interessierten Öffentlichkeit zugänglich, was einer der urprünglichen Intentio‐

nen des EMAMu entsprach. Seit 2000 heißt die Einrichtung CCMIX (Centre de Création Musi‐

cale Iannis Xenakis) und wird seit 2003 von der DRAC, eine Regionaldirektion für Kultur, sub‐

ventioniert. Die Aufgaben und Ziele der Forschungsgruppe blieben seit 1966 weitgehend un‐

verändert, es wird seither jedoch zusätzlich auf internationale Zusammenarbeit innerhalb 

der Forschung und Vermittlung gesetzt.  

 

Quellen 

Harley, James, The Electroacoustic Music of Iannis Xenakis, in: Computer Music Journal 26 [In Memo‐

riam Iannis Xenakis] 2002 

Hoffmann, Peter, Art. Xenakis, Iannis, in: NG2 Band 27, London 2001 

http://www.iannis‐xenakis.org/fxe/actus/ccmix.html 

http://www.iannis‐xenakis.org/fxe/bio/chrono.html  

Lohner, Henning: Das UPIC: eine Erfindung von Iannis Xenakis, in: Musikkonzepte 54/55, Iannis Xena‐

kis, München 1987, S. 71–82.  

Supper, Martin, Art. Computermusik, in: MGG2 Sachteil 2, Kassel et al. 1995 

Supper, Martin, Art. Xenakis, Iannis, in: MGG2 Personenteil 17, Kassel et al. 2007 

 

Abb. http://www.iannis‐xenakis.org/partitions/mycenes_alphaesquisse(sketch)p.3.jpg [10. April 

2013] 

 

Günter Hagen