383

Włodzimierz Kotoński - Muzyka Elektroniczna

Embed Size (px)

Citation preview

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 1/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 2/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 3/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 4/381

Projekt okładki: Marcin Bruchnalski

c  Copyright by Polskie Wydawnictwo Muzyczne SA, Kraków, Poland 2002

ISBN  978-83-224-0874-2

PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 5/381

Spis treści

Od autora   . . . . . . . . . . . . . . . . . . . . . . . .   9Przedmowa do wydania II    . . . . . . . . . . . . . . . . . . .   11

I. HISTORIA I ROZWÓJ   . . . . . . . . . . . . . . . . . . .   13

1.1. Muzyka elektroniczna, kwestia terminologii, prekursorzy   . . . . . . .   131.2. Musique concrete w Paryżu   . . . . . . . . . . . . . . . .   211.3. Studio f ur Elektronische Musik w Kolonii   . . . . . . . . . . . .   241.4. Tape music w Stanach Zjednoczonych   . . . . . . . . . . . . .   281.5. Inne studia europejskie   . . . . . . . . . . . . . . . . . .   311.6. Studio NHK w Tokio   . . . . . . . . . . . . . . . . . . .   331.7. Studio Eksperymentalne Polskiego Radia w Warszawie   . . . . . . .   34

1.8. Dalsze losy muzyki konkretnej we Francji   . . . . . . . . . . . .   431.9. Dalsze drogi rozwoju muzyki elektronicznej na świecie   . . . . . . .   461.9.1. Muzyka elektroniczno-instrumentalna   . . . . . . . . . . .   481.9.2. Muzyka elektroniczna na żywo (live electronic)   . . . . . . . .   491.9.3. Mixed media   . . . . . . . . . . . . . . . . . . .   531.9.4. Minimal music   . . . . . . . . . . . . . . . . . . .   55

1.10. Nowe narzędzie: syntezator   . . . . . . . . . . . . . . . . .   571.11. Pomoc komputera   . . . . . . . . . . . . . . . . . . . .   601.12. Elektroniczna muzyka towarzysząca   . . . . . . . . . . . . . .   651.13. Najstarsze ośrodki muzyki elektronicznej na świecie   . . . . . . . .   68

1.13.1. Ważniejsze studia muzyki elektronicznej powstałe po roku 1960   . .   691.13.2. Ważniejsze grupy live electronic   . . . . . . . . . . . . .   701.13.3. Główne ośrodki muzyki komputerowej   . . . . . . . . . .   70

II. STUDIO KLASYCZNE (MANUALNE)   . . . . . . . . . . . . . .   73

2.1. Studio klasyczne   . . . . . . . . . . . . . . . . . . . .   732.2. Technika magnetofonowa   . . . . . . . . . . . . . . . . .   74

2.2.1. Nagrania, kopie, przegrania   . . . . . . . . . . . . . .   772.2.2. Szumy taśmy   . . . . . . . . . . . . . . . . . . .   782.2.3. Montaż taśmy   . . . . . . . . . . . . . . . . . . .   78

2.2.4. Zgrywanie   . . . . . . . . . . . . . . . . . . . .   802.2.5. Pętla   . . . . . . . . . . . . . . . . . . . . . .   812.2.6. Sprzężenie, echo, opóźnienie   . . . . . . . . . . . . . .   82

5

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 6/381

Spis treści

2.2.7. Magnetofon o zmiennej prędkości   . . . . . . . . . . . .   832.2.8. Regulator czasu   . . . . . . . . . . . . . . . . . .   842.2.9. Magnetofon pogłosowy   . . . . . . . . . . . . . . . .   86

2.3. Źródło, sygnał, tor   . . . . . . . . . . . . . . . . . . . .   882.3.1. Komutacja, pole krzyżowe (krosownica)   . . . . . . . . . .   91

2.4. Stół mikserski (konsoleta)   . . . . . . . . . . . . . . . . .   942.5. Nagrania mikrofonowe, ujęcie dźwięku   . . . . . . . . . . . . .   98

2.5.1. Przygotowanie nagrania   . . . . . . . . . . . . . . . .   982.5.2. Poziom wysterowania   . . . . . . . . . . . . . . . .   1012.5.3. Operowanie tłumikami   . . . . . . . . . . . . . . . .   102

2.6. Generatory   . . . . . . . . . . . . . . . . . . . . . .   1032.6.1. Generatory drgań periodycznych   . . . . . . . . . . . . .   1042.6.2. Typowe kształty sygnałów   . . . . . . . . . . . . . . .   1052.6.3. Kontrola kształtu, częstotliwości i amplitudy   . . . . . . . . .   107

2.6.4. Generatory impulsów  . . . . . . . . . . . . . . . .

  1092.6.5. Generatory szumów   . . . . . . . . . . . . . . . . .   1112.7. Filtry i korektory   . . . . . . . . . . . . . . . . . . . .   112

2.7.1. Rodzaje filtrów   . . . . . . . . . . . . . . . . . . .   1132.7.2. Filtry wielopasmowe   . . . . . . . . . . . . . . . . .   1142.7.3. Wzmacniacz rezonansowy   . . . . . . . . . . . . . . .   118

2.8. Modulator kołowy (Ringmodulator)   . . . . . . . . . . . . . .   1192.8.1. Przesuwnik widma   . . . . . . . . . . . . . . . . .   121

2.9. Urządzenia pogłosowe   . . . . . . . . . . . . . . . . . .   1222.10. Technika klasyczna   . . . . . . . . . . . . . . . . . . .   126

2.10.1. Materiał konkretny. Etap I — uzyskiwanie materiału wyjściowego   .   1292.10.2. Przedmioty dźwiękowe (wg P. Schaeffera)   . . . . . . . . . .   1312.10.3. Etap II — formowanie i przekształcanie dźwięków   . . . . . .   1362.10.4. Materiał elektroniczny (etap I i II)   . . . . . . . . . . . .   1432.10.5. Etap III — formowanie sekwencji, warstwy dźwiękowe   . . . . .   1512.10.6. Etap IV — zgrywanie i nadawanie ostatecznego kształtu kompozycji   1542.10.7. Stereofonia i wielokanałowe zapisy dźwięku   . . . . . . . . .   154

III. STUDIO ANALOGOWE (STEROWANE NAPIĘCIEM)   . . . . . . . .   157

3.1. Syntezatory sterowane napięciem   . . . . . . . . . . . . . . .   157

3.2. Generatory sterowane napięciem (VCO)   . . . . . . . . . . . . .   1593.2.1. Modulacja częstotliwości   . . . . . . . . . . . . . . .   161

3.3. Wzmacniacze sterowane napięciem (VCA)   . . . . . . . . . . . .   1623.3.1. Modulacja amplitudy   . . . . . . . . . . . . . . . .   163

3.4. Generatory obwiedni   . . . . . . . . . . . . . . . . . . .   1643.4.1. Generator AR   . . . . . . . . . . . . . . . . . . .   1643.4.2. Generator ADSR   . . . . . . . . . . . . . . . . . .   1653.4.3. Kształtownik obwiedni (Envelope Shaper)   . . . . . . . . . .   166

3.5. Filtry sterowane napięciem (VCF)   . . . . . . . . . . . . . . .   1673.6. Klawiatura napięciowa   . . . . . . . . . . . . . . . . . .   169

3.6.1. Inne źródła napięciowe   . . . . . . . . . . . . . . . .   1723.7. Układ próbkująco-pamiętający (Sample & Hold)   . . . . . . . . . .   1733.8. Generator napięć przypadkowych (Random Voltage Generator)   . . . . .   175

6

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 7/381

Spis treści

3.9. Modulator kołowy (Ringmodulator)   . . . . . . . . . . . . . .   1773.10. Detektor obwiedni (Envelope Follower)   . . . . . . . . . . . . .   1783.11. Konwerter częstotliwości na napięcie (Pitch-to-Voltage Converter)   . . . .   1793.12. Sekwencery   . . . . . . . . . . . . . . . . . . . . . .   1813.13. Moduły pomocnicze   . . . . . . . . . . . . . . . . . . .   184

3.13.1. Generator specjalny (Voltage Processor)   . . . . . . . . . .   1873.13.2. Odwracanie napięć i „obcinanie” (clipping)   . . . . . . . . .   1883.13.3. Ogranicznik zbocza   . . . . . . . . . . . . . . . . .   1893.13.4. Moduły pogłosowe   . . . . . . . . . . . . . . . . .   190

3.14. Polymoog i inne syntezatory polifoniczne   . . . . . . . . . . . .   1903.15. Technika syntezatorowa   . . . . . . . . . . . . . . . . . .   195

3.15.1. Syntezator w studiu   . . . . . . . . . . . . . . . . .   1973.15.2. Różne podejścia do syntezy   . . . . . . . . . . . . . .   1993.15.3. Realizacja utworu muzycznego   . . . . . . . . . . . . .   211

3.15.4. Syntezator na estradzie  . . . . . . . . . . . . . . . .

  214

IV. STUDIO CYFROWE (KOMPUTEROWE)   . . . . . . . . . . . . .   215

4.1. Muzyka komputerowa   . . . . . . . . . . . . . . . . . .   2154.2. Cyfrowa synteza dźwięku   . . . . . . . . . . . . . . . . .   216

4.2.1. Konwersja analogowo-cyfrowa i cyfrowo-analogowa   . . . . . .   2174.2.2. Cyfrowa rejestracja dźwięku   . . . . . . . . . . . . . .   220

4.3. System komputerowy   . . . . . . . . . . . . . . . . . . .   2214.3.1. Sprzęt komputerowy (hardware)   . . . . . . . . . . . . .   2214.3.2. Rodzaje pamięci   . . . . . . . . . . . . . . . . . .   224

4.3.3. Procesor   . . . . . . . . . . . . . . . . . . . . .   2254.4. Języki programowania   . . . . . . . . . . . . . . . . . .   226

4.4.1. Oprogramowanie systemowe   . . . . . . . . . . . . . .   2274.4.2. Algorytm — programowanie   . . . . . . . . . . . . . .   228

4.5. Sprawa modelu akustycznego   . . . . . . . . . . . . . . . .   2304.6. Języki ukierunkowane muzycznie   . . . . . . . . . . . . . . .   2324.7. MUSIC V   . . . . . . . . . . . . . . . . . . . . . . .   2344.8. Rodzaje cyfrowej syntezy dźwięku   . . . . . . . . . . . . . .   237

4.8.1. Synteza addytywna   . . . . . . . . . . . . . . . . .   2374.8.2. Synteza subtrakcyjna   . . . . . . . . . . . . . . . . .   240

4.8.3. Synteza za pomocą modulacji częstotliwości   . . . . . . . . .   2414.8.4. Metoda dyskretnych wzorów sumacyjnych   . . . . . . . . .   2504.8.5. Metoda formowania sygnału (Wave shaping)   . . . . . . . . .   2524.8.6. Synteza ziarnista (Granular synthesis)   . . . . . . . . . . .   2534.8.7. Sampling i samplery   . . . . . . . . . . . . . . . . .   2574.8.8. Modele formantowe   . . . . . . . . . . . . . . . . .   2614.8.9. SSP — system niekonwencjonalny   . . . . . . . . . . . .   2704.8.10. Modelowanie fizyczne   . . . . . . . . . . . . . . . .   276

4.9. System MIDI   . . . . . . . . . . . . . . . . . . . . .   2784.10. Syntezatory cyfrowe   . . . . . . . . . . . . . . . . . . .   283

4.10.1. Synclavier II   . . . . . . . . . . . . . . . . . . .   2864.10.2. Fairlight CMI   . . . . . . . . . . . . . . . . . . .   2894.10.3. Yamaha DX7   . . . . . . . . . . . . . . . . . . .   293

7

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 8/381

Spis treści

4.10.4. Inne syntezatory   . . . . . . . . . . . . . . . . . .   2974.10.5. Moduły specjalne   . . . . . . . . . . . . . . . . . .   2994.10.6. Stacje robocze (Workstations)   . . . . . . . . . . . . . .   301

4.11. Systemy hybrydowe   . . . . . . . . . . . . . . . . . . .   3024.11.1. Piper i Groove   . . . . . . . . . . . . . . . . . . .   3024.11.2. Vocodery i VOCOM   . . . . . . . . . . . . . . . . .   3034.11.3. Inne   . . . . . . . . . . . . . . . . . . . . . .   308

4.12. Programy zarządzające   . . . . . . . . . . . . . . . . . .   3084.12.1. Max   . . . . . . . . . . . . . . . . . . . . . .   309

4.13. Kompleksowe działania na komputerze   . . . . . . . . . . . . .   3114.13.1. Cyfrowa rejestracja na twardym dysku   . . . . . . . . . . .   3124.13.2. Program Pro Tools II   . . . . . . . . . . . . . . . .   313

4.14. Różne aspekty techniki komputerowej — współczesność i perspektywy   . .   317

V. ZAPIS I PROJEKCJA   . . . . . . . . . . . . . . . . . . . .   321

5.1. Notacja muzyki elektronicznej   . . . . . . . . . . . . . . . .   3215.2. Projekcje wielokanałowe   . . . . . . . . . . . . . . . . . .   3295.3. Konstrukcje specjalne   . . . . . . . . . . . . . . . . . . .   347

BIBLIOGRAFIA   . . . . . . . . . . . . . . . . . . . . . .   354

I. Historia i rozwój   . . . . . . . . . . . . . . . . . . . .   354II. Studio klasyczne   . . . . . . . . . . . . . . . . . . . .   356

III. Studio syntezatorowe   . . . . . . . . . . . . . . . . . . .   357IV. Studio cyfrowe (komputerowe)   . . . . . . . . . . . . . . . .   357

V. Bibliografie i dyskografie   . . . . . . . . . . . . . . . . .   360

Indeks rzeczowy   . . . . . . . . . . . . . . . . . . . . . . .   362Indeks nazwisk   . . . . . . . . . . . . . . . . . . . . . . .   376

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 9/381

Od autora

Zamysł napisania książki o muzyce elektronicznej, która mogłaby spełniać zarównorolę podręcznika, jak i kompendium dla kompozytorów i muzyków interesujących się

tą dziedziną, powziąłem już wiele lat temu. Odczuwałem po prostu brak większej pu- blikacji w języku polskim, a znane mi pozycje obcojęzyczne na ten temat na ogół mnienie zadowalały. Ich autorzy zajmowali się głównie obrzeżami tematu: tzw. literaturą mu-zyczną, czyli opisem ważniejszych ich zdaniem utworów oraz tym, co nazywane jesthistorią tej dziedziny muzyki, a także estetyką, socjologią (sic!), związkami z innymisztukami itd. Tylko nieliczne prace traktowały szerzej o technologii i aparaturze, czymówiąc bardziej ogólnie — o tym, jak ta muzyka powstaje.

Tymczasem moje doświadczenia w pracy ze studentami i częste pytania ze stronyzainteresowanych wskazywały, że właśnie ta rzeczowa strona zagadnienia jest dla więk-szości najbardziej interesująca. Nie to, jaka jest ta muzyka na taśmie, ale to, jak się

 ją „robi”; jak można przełamać tę barierę technologiczną, która dla wielu wydaje sięnie do pokonania, aby móc komponować muzykę elektroniczną tak, jak komponuje sięmuzykę instrumentalną i aby móc „grać” na aparaturze elektroakustycznej tak, jak nainstrumentach akustycznych.

Postanowiłem więc napisać książkę, która wyszłaby naprzeciw tym potrzebom i po-zwoliłaby, przynajmniej od strony teoretycznej, opanować warsztat. Nie sądzę bowiem, by można było nauczyć komponowania muzyki na taśmę, tak jak nie można, moim zda-niem, każdego nauczyć komponowania. Ponieważ albo ma się wyobraźnię muzyczną,potrzebę i zdolność wyrażania pomysłów dźwiękami — to co potocznie nazywane jesttalentem — albo się tego nie ma. Można jednak nauczyć techniki studyjnej, operowa-nia aparaturą elektroakustyczną, zaznajomić z metodami syntezy i sposobami realizacji

dzieła tak, jak można nauczyć instrumentacji, pisania na różne instrumenty, zespoły i naorkiestrę.

Książka miała być przede wszystkim podręcznikiem „instrumentacji” elektronicznej,miała uczyć posługiwania się „instrumentami” oraz łączenia ich w grupy i w „orkie-strę”. Jako uboczne cele stawiałem sobie zorientowanie czytelnika w historii, rozwojui zmieniających się modach w tej dziedzinie, a także umożliwienie mu przyswojeniapewnej dawki wiedzy technicznej, nieodzownej do swobodnego poruszania się w tymterenie.

Praca nad książką rozciągnęła się na wiele lat. Zmieniała się także koncepcja uj-mowania poszczególnych zagadnień i sposobu ich przedstawiania. Wpływ na to miałagwałtownie rozwijająca się w tym czasie technika elektroniczna i przypadająca na lata1978–1980 prawdziwa rewolucja w tej dziedzinie, którą wywołało wprowadzenie cyfrowejtechniki do nagrań i pojawienie się mikroprocesorów opartych na obwodach scalonychwielkiej skali integracji.

9

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 10/381

Od autora

Nie mogłem jednak ograniczyć się do opisu najnowszych rozwiązań technicznych.Wcześniejsze systemy analogowe nadal funkcjonują i zapewne jeszcze przez dłuższy czaspozostaną w użyciu. Ponadto sposób myślenia muzycznego i związane z nim koncep-cje realizacyjne nie nadążają za rozwojem techniki. Nowoczesne systemy komputerowejsyntezy dźwięku i wielozadaniowe syntezatory cyfrowe opierają się nadal na koncepcji

urządzeń studia klasycznego i na właściwych dla analogowego studia syntezatorowegoukładach modularnych. Jedynie gruntowna znajomość technik wcześniejszych, ich zaleti niedoskonałości, pozwala w pełni zrozumieć korzyści płynące ze stosowania najnow-szej aparatury, a także przełamać pewne schematy myślenia, które w poważnym stopniuhamują rozwój tej gałęzi muzyki.

Dlatego, choć nie unikam opisu rozwiązań typowych, zachęcam do eksperymentowa-nia. Bo muzyka elektroniczna, tak jak i każda inna muzyka, nie polega na powtarzaniu,ale na stałym odkrywaniu (w sobie, w instrumencie, w utworze) immanentnych możliwo-ści odmiany. Polega na tworzeniu, a więc produkowaniu tego, co przedtem nie istniało.Praca zaś z aparaturą elektroniczną daje kompozytorowi tę rzadką szansę bezpośred-niego kontrolowania jej rezultatów, i to jeszcze na długo przed ukończeniem dzieła,stwarza możliwość testowania rozwiązań nietypowych, poszukiwania eksperymentalnierozwiązań najwłaściwszych, praktycznego sprawdzania koncepcji teoretycznych. Pozwalatwórcy rozszerzyć zakres komponowania o jeden stopień w dół: projektować nie tylkostrukturę dźwiękową, ale i sam dźwięk. Ta zdolność kreowania dźwięku jest możenajistotniejszą cechą, wyróżniającą muzykę elektroniczną w całym obszarze muzyki.

Oddaję tę książkę w ręce polskiego czytelnika z nadzieją, że trafi ona nie tylko do rąkzawodowych muzyków i kompozytorów, ale i do szerszego kręgu zainteresowanych no-wymi środkami muzycznymi, nowymi osiągnięciami techniki fonicznej, zastosowaniemkomputerów w muzyce, i do tych wszystkich, którzy w wyjściu poza zaklęty krąg in-strumentów orkiestry i głosu ludzkiego widzą przyszłość dzisiejszej muzyki. Oddaję ją

sądząc, że wypełni ona pewną lukę w naszym piśmiennictwie muzycznym, dostarczyrzeczowych informacji, a może i stanie się zachętą dla tych, którzy obawiają się kon-taktu z muzyką elektroniczną jako dziedziną dostępną tylko wąsko wyspecjalizowanymfachowcom. A przecież stanowi ona część naszego współczesnego życia.

grudzień 1985

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 11/381

Przedmowa do wydania II

14 lat upłynęło od pierwszego wydania tej książki. W omawianej tutaj dziedzinieto już cały wiek. Każdy rok przynosi nowe rozwiązania techniczne, nowe urządzenia,

nowe oprogramowania. Jestem więc świadom tego, że już w momencie opublikowaniatej książki szereg zawartych w niej danych może stać się nieaktualnych. Będę próbo-wał być jak najbardziej na bieżąco. Tymczasem postarałem się zrewidować obecny tekst.Drugie wydanie jest w stosunku do pierwszego znacznie skrócone. Pominąłem w nimszereg rzeczy dziś już przestarzałych, urządzeń właściwie muzealnych, skróciłem do mi-nimum opisy urządzeń analogowych, zmieniłem częściowo terminologię, dostosowując ją do współczesnych standardów i wyrzuciłem szereg drobiazgów, które z perspektywylat wydały mi się zbędne. Dodałem natomiast kilka nowych rozdziałów w części kom-puterowej, aby przynajmniej zbliżyć się do aktualnego stanu wiedzy na temat nowychrozwiązań w dziedzinie syntezy i transformacji dźwięków, a także systemów zarządzaniazbiorami dźwiękowymi i możliwościami ich graficznego przedstawiania.

W tych uzupełnieniach dużą pomocą służył mi mój dawny asystent, a obecnie kierow-nik Studia Muzyki Komputerowej Akademii Muzycznej im. F. Chopina w Warszawie,Krzysztof Czaja, któremu tu składam serdeczne podziękowanie.

maj 2000

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 12/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 13/381

I. Historia i rozwój

1.1. Muzyka elektroniczna,kwestia terminologii, prekursorzy

Muzyka elektroniczna jest młodą gałęzią muzyki. Jej krótką, bo liczącą za-ledwie pięćdziesiąt lat, historię cechuje niezwykle szybki rozwój: od prostych

eksperymentów przeprowadzanych w kilku skromnie wyposażonych studiachna początku lat pięćdziesiątych do całego przemysłu elektronicznego pracują-cego na potrzeby muzyczne i kilku tysięcy studiów muzyki elektronicznej naświecie w połowie lat dziewięćdziesiątych. Dziś nie ma prawie dziedziny mu-zyki, w której nie stosowano by elektronicznego przetwarzania dźwięków lubnie posługiwano by się dźwiękami wytwarzanymi syntetycznie. Muzyka elek-troniczna weszła do cyklów koncertowych i radiowych, do teatru i opery, towa-rzyszy filmom i programom telewizyjnym, opanowała niektóre działy rozrywki.Nie wyparła wprawdzie muzyki instrumentalnej — nie było to zresztą zamiarem

 jej twórców — ale na pewnych odcinkach stała się po prostu nie do zastąpienia.Czy muzyka elektroniczna stała się nowym gatunkiem muzyki? — I tak, i nie.Z jednej bowiem strony stworzyła nowy sposób komunikowania się kompozy-tora ze słuchaczem, z drugiej zaś nie wytworzyła specyficznych cech muzycz-nych, które by stanowiły pomost pomiędzy różnymi sposobami jej wykorzy-stania. Do muzyki elektronicznej zaliczymy zarówno  Switched-on-Bach  WalteraCarlosa, Symphonie pour un homme seul  Pierre’a Schaeffera,  Studie II  KarlheinzaStockhausena, produkcje na żywo Keitha Emmersona, jak i sygnał na otwar-cie Olimpiady w Monachium Krzysztofa Pendereckiego. W tradycyjnym pojęciumamy tu do czynienia z najrozmaitszymi gatunkami muzycznymi — od roz-rywki przez popularne transkrypcje, muzykę ilustracyjną, przerywniki i sygnałyaż do utworów o jak najbardziej poważnych ambicjach. Wszystkie te produkcje,niezależnie od sposobów uzyskiwania dźwięków, od postaw i zamierzeń kompo-zytorów, mają jedną cechę wspólną. Jest nią osiągnięcie efektu finalnego poprzezurządzenia elektroakustyczne. „Instrumentem” produkującym słyszalny dźwięk

 jest dla nich głośnik pobudzany do drgań przez sygnały elektryczne.Ponieważ zwykłe nagrywanie i odtwarzanie muzyki instrumentalnej odbywa

się również na drodze elektroakustycznej, a efekt tych działań dochodzi do słu-chacza za pomocą głośnika, konieczne jest wprowadzenie zasadniczego rozróż-

nienia. Techniki rejestracji i odtwarzania, zwane bardziej ogólnie technikami fono-graficznymi, mają za cel r e p r od ukc j ę (wierną lub nieco podbarwioną) muzyki,która z istoty swojej jest muzyką instrumentalną, wokalną lub wokalno-instru-

13

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 14/381

Historia i rozwój

mentalną. Muzyka elektroniczna, niezależnie od rodzaju, stawia sobie za celprodukcję, czyli tworzenie muzyki, która poza sferą elektroakustyczną w ogólenie istnieje.

Terminologia tej dziedziny muzyki nie została dotychczas ujednolicona. Histo-

rycznie najstarsze określenia: niem.   elektrische Musik1

i ang.  electric music, któreodpowiadałyby polskiemu mu z yka e l e kt r ycz n a, odnosiły się do muzykitradycyjnej wykonywanej na instrumentach elektronicznych, takich jak fale Mar-tenota, trautonium, lub na instrumentach elektromechanicznych, jak pierwszeorgany Hammonda. Termin m u z yka ko nkr e t n a (fr.  musique concrete) zostałwprowadzony przez Pierre’a Schaeffera w r. 1950 na oznaczenie tego, co powstałowówczas w studio paryskim, a opierało się na dźwiękach naturalnych (konkret-nych) nagrywanych za pomocą mikrofonu. Opozycją do muzyki konkretnej miała

 być m u z yka e l e ktr o no wa (jak pierwotnie tłumaczono na polski niemiecki ter-min elektronische Musik), tworzona od roku 1951 w studio radiowym w Kolonii

w oparciu o dźwięki uzyskiwane wyłącznie z generatorów elektronicznych.Granice między tymi dwoma pojęciami zaczęły się dość szybko zacierać, gdyż

kompozytorzy ze szkoły kolońskiej zaczęli używać obok materiału elektronicz-nego także nagrywanych mikrofonowo dźwięków naturalnych, np. głosu ludz-kiego, fortepianu, perkusji, a zwolennicy szkoły paryskiej, obok dźwięków natu-ralnych, poczęli włączać do swoich kompozycji dźwięki z generatorów elektro-nicznych.

W pewnym okresie wydawało się, że termin m u z yka n a t a ś mę, przejętyz angielskiego tape music, będzie w stanie zastąpić oba dotychczas używane ter-

miny. W obu bowiem przypadkach nagranie na taśmie magnetofonowej byłopodstawową formą zapisu gotowej kompozycji. W Polsce wprowadzono ten ter-min nawet jako nazwę przedmiotu wykładanego w Wyższych Szkołach Mu-zycznych. Wkrótce jednak wzrost popularności tzw.   live electronic, czyli muzykielektronicznej wykonywanej na żywo i mogącej obejść się bez nagrań taśmowych,a również muzyki na instrumenty i taśmę (lub głos i taśmę) — zdetronizowałyi ten, zdawało się, bardzo uniwersalny termin.

 Jako pojęcie istniała jeszcze muz y ka e k sp e r yme n t a l n a. Znalazło to odbi-cie w nazwie: Studio Eksperymentalne Polskiego Radia. Termin „muzyka eks-perymentalna” używany był przez pewien czas na określenie wszelkiej muzykiawangardowej, w tym także muzyki elektronicznej i konkretnej 2. Jako zbyt sze-roki, a jednocześnie mało precyzyjny, również i on nie znalazł powszechnegouznania i gdzieś od połowy lat sześćdziesiątych powoli znikł ze słownictwamuzycznego.

We Francji wymyślono jeszcze jedno określenie, które być może najlepiej od-zwierciedla całokształt omawianych tutaj zagadnień —  musique   ´ electroacoustique(muzyka elektroakustyczna), jednak poza obszarem języka francuskiego termin

1 Elektrische Musik to tytuł książki Friedricha Trautweina, konstruktora trautonium, wydanej w 1930

w Berlinie.2 Np.   Journ´ ees internationales de musique exp´ erimentale, Bruksela 1958; A. A. Moles,   Les musiques

exp´ erimentales... Paryż 1960; L. A. Hiller, L. M. Isaacson,  Experimental Music — Composition with anElectronic Computer. Nowy Jork 1959.

14

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 15/381

Kwestia terminologii, prekursorzy

ten trudno się przyjmuje. W języku angielskim używa się bardzo ogólnego okre-ślenia electronic music, w niemieckim analogicznie —  elektronische Musik, chociażostatnio również i w angielskiej literaturze spotkać możemy się z określeniemelectro-acoustic music. W Polsce spotykamy wprawdzie próby wprowadzania ter-

minu m uz yk a e l e ktr o a kus t yc z na, ale wobec sytuacji w nazewnictwie mię-dzynarodowym, jak i ze względów czysto językowych,3 pozostaniemy w tejksiążce przy terminie mu z yk a e le k tr o ni c z n a na oznaczenie wszelkichsposobów tworzenia muzyki za pomocą aparatury elektroakustycznej. Termi-nów „muzyka konkretna”, „tape music”, „muzyka eksperymentalna” używać

 będziemy tylko w znaczeniu historycznym.Wiosną 1948 roku Pierre Schaeffer (1910–1995) w ramach „Club d’Essai” pary-

skiego radia RTF tworzy pierwsze etiudy, w których realizuje ideę muzycznegozorganizowania hałasów4. Od roku 1950 datują się pierwsze próby HerbertaEimerta i Wernera Meyer-Epplera z „komponowaniem” dźwięków złożonychz prostych drgań elektrycznych. Działania ich doprowadzają do powołania w r.1951 Studia Muzyki Elektronicznej przy radiu NWDR (Nordwestdeutscher Rund-funk) w Kolonii. Oba te przedsięwzięcia uważane są słusznie za początek nowejdziedziny muzyki.

Schaeffer i Eimert mieli jednak swoich prekursorów. Do bezpośrednich na-leży zaliczyć Johna Cage’a (1912–1992), który w roku 1939 po raz pierwszyzastosował odtwarzanie z głośnika przekształconych nagrań gramofonowychi dźwięków z generatora, oraz Dariusa Milhauda, Ernesta Tocha i Paula Hinde-mitha, którzy w latach 1928–1931 przeprowadzali eksperymenty z gramofonem

ze zmianą prędkości, przenikaniami dźwiękowymi itd.5. Za pośrednich uwa-żać będziemy futurystów włoskich z Luigi Russolem (1855–1947) na czele,Edgara Varese’a oraz twórców pierwszych instrumentów elektronicznych: LwaTheremina (aeterophon, 1919 i thereminovox, 1928), Maurice’a Martenota(fale Martenota, 1928) i Friedricha Trautweina (trautonium, 1928), a także ka-nadyjskiego filmowca Normana McLarena, który pod koniec lat trzydziestych„rysował dźwięk” wprost na ścieżce dźwiękowej filmu. Notabene najstarszyminstrumentem elektrycznym był monstrualny dynamophone (telharmonium), wa-żący ok. 200 ton, skonstruowany w roku 1906 przez nowojorczyka Thaddeusa

Cahilla, którego opis zamieszczony w „McClure’s Magazine” zafascynował nie-zwykle Ferruccia Busoniego.Wiele z tych prób było jednak, jak się okazało, przedwczesnymi. Do powstania

muzyki elektronicznej musiały zaistnieć pewne przesłanki natury artystyczneji określone warunki techniczne.

3 Termin „muzyka elektroakustyczna” brzmi po polsku trochę nienaturalnie, mówimy: elektroaku-styka, tor elektroakustyczny, ale instrumenty elektroniczne, elektroniczne przetwarzanie sygnałówitd.

4

P. Schaeffer nadał im wspólny tytuł   ´ Etiudes de bruit; trzeba dodać, że francuski wyraz  bruit  manieco szersze znaczenie niż polski „hałas” i obejmuje wszelkie dźwięki niemuzyczne przyjemne i nie-

przyjemne: szmery, zgrzyty, szumy, gwizdy, dzwonienia itp.

5 Próby te nie zaowocowały jednak konkretnymi utworami.

15

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 16/381

Historia i rozwój

 Jeśli chodzi o przesłanki artystyczne, to najważniejszą wydaje się być nieod-parta potrzeba odnowienia języka muzycznego, jaka zaznacza się coraz wyraź-niej już od początku naszego stulecia. Obok prób przełamania hegemonii sys-temu dur-molowego i tworzenia nowego porządku w ramach 12-tonowej skali

temperowanej spotykamy tendencje wychodzenia poza tę skalę (próby z mu-zyką ćwierćtonową, wprowadzanie instrumentów strojonych w skalach mikro-tonowych czy wprowadzanie skal pozaeuropejskich), stopniowe wyzwalanie sięrytmu z gorsetu metrum dwu- i trójdzielnego, tendencje do wprowadzania efek-tów szmerowych. Szczególnego znaczenia nabiera samodzielnie traktowana per-kusja, a w niej instrumenty nie strojone lub strojone poza skalą 12-tonową.

Wyrazem tych dążeń są nie tylko dzieła muzyczne, ale może bardziej jeszczewypowiedzi i manifesty wielu awangardowych artystów tego czasu.

W roku 1907 Ferruccio Busoni (1866–1924), pianista i kompozytor, muzyko niezwykłym talencie przewidywania, pisał w głośnym swego czasu  Szkicu no-

wej estetyki muzycznej:6 „Muzyka urodziła się wolna i wolność jest jej przeznacze-niem”, a dalej (w stylu, który wyda się dzisiaj trochę emfatyczny): „W pewnymmomencie uświadomiłem sobie, że dalszy rozwój muzyki rozbija się o naturęnaszych instrumentów muzycznych, tak jak rozwój kompozytora zatrzymuje sięna studiowaniu partytur. Jeżeli «tworzyć» ma oznaczać «formować z niczego»(a nie może oznaczać niczego innego), jeżeli muzyka powrócić ma do «oryginal-ności», a więc do jej tylko właściwej, czystej natury, jeżeli ma odrzucić konwencjei formuły tak, jak odrzuca się znoszone ubranie, aby o pięknie świadczyła na-gość — to dążeniom tym staną na drodze dotychczasowe narzędzia muzyczne.

Instrumenty są bowiem skrępowane więzami swoich skal, właściwości brzmie-niowych i możliwości wykonawczych, a setki takich więzów oplątują każdego,kto by chciał tworzyć”. [tłum. aut.]

W roku 1913 malarz z wykształcenia a kompozytor z zamiłowania, LuigiR u ss ol o (1855–1947), formułuje manifest L’arte dei rumori (Sztuka hałasów), w któ-rym nawołuje do używania wszelkich szumów i hałasów jako materiału dla kom-pozycji muzycznych. Konstruuje też szereg instrumentów, którym daje nazwęintonarumori (w wolnym przekładzie: hałasofony), i wraz z Filippo Marinettim,czołowym poetą futurystą, daje szereg koncertów bruitystycznych we Włoszechi w wielu krajach europejskich (pierwszy w Mediolanie 14 IV 1914 r.). Innywłoski kompozytor, Francesco Pratella (1880–1955), znany z wystąpień futu-rystycznych,7 głosi chwałę tłumów, wielkich fabryk, samochodów i samolotów.Pisze jednak utwory na tradycyjny zestaw instrumentów orkiestrowych ( Musica futurista per orchestra, 1913).

O konieczności wprowadzenia nowych instrumentów pisze Edgar Varesew roku 1917 w nowojorskim czasopiśmie „391”.

Idee przejęte od futurystów kontynuują George Antheil (1900–1959), autorgłośnego Ballet m´ ecanique (1923–1924), którego partytura zawiera pianolę, 8 for-tepianów, 8 ksylofonów, 2 dzwonki elektryczne i odgłos śmigła samolotowego

6 F. Busoni, Entwurf einer neuen   ¨  Asthetik der Tonkunst. Triest 1907.

7 Il manifesto degli musicisti futuristi. „Revista musicale italiana” 1909 nr 17.

16

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 17/381

Kwestia terminologii, prekursorzy

(sic!), oraz Aleksandr Mosołow (1900–1973), którego balet Odlewnia stali z r. 1926,mimo iż napisany na tradycyjną orkiestrę, jest wyrazem nowego stosunku dodźwięków pozamuzycznych.

Działania futurystów-bruitystów zgasły wraz z całym ruchem futurystycznym

mniej więcej w połowie lat dwudziestych. Może i kompozytorzy reprezentującyten ruch nie byli wybitni. Pewne idee zostały jednak podjęte przez kilku kompo-zytorów amerykańskich. Henry Cowell (1897–1965) już w roku 1912 wprowa-dza „klastery” fortepianowe w kompozycji  The Tides of Manaunaun, a w latach1923–25 wykorzystuje grę wprost na strunach fortepianu ( Aeolian Harp   i   TheBanshee) i zachęca swoich uczniów, w tym młodego Johna Cage’a, do ekspery-mentowania z dźwiękiem.

Inny Amerykanin, Harry Partch (1901–1974), autodydakta muzyczny, reali-zuje swoje specyficzne idee muzyczne budując własne instrumentarium (począw-szy od r. 1928), oparte na skalach egzotycznych, a potem na wymyślonej przez

siebie skali wynikającej z podziału oktawy na 43 równe stopnie, a także na natu-ralnej skali harmonicznej. Komponuje na te instrumenty szereg utworów, któreukazują się na płytach.

W roku 1938 John Cage wpada na pomysł preparowania fortepianu. Wyko-rzystuje to w kompozycji  Bacchanale, a potem w innych utworach. Cage jest teżautorem pierwszej naprawdę elektronicznej kompozycji Imaginary Landscape No. 1(Urojony krajobraz nr 1) z 1939 r., w której używa nagranych na płytę dźwiękówz generatora (była to płyta testowa), które odtwarza przy zmiennej prędkościobrotów, obok preparowanego fortepianu i talerza 8. W latach 1940–1942 tworzy

następne  Urojone krajobrazy   (2   i  3). Późniejsza działalność elektroniczna Cage’anależy już do właściwej historii muzyki elektronicznej.Wsparciem dla tych poczynań była twórczość i działalność artystyczna Edgara

Varese’a (1883–1965). Ten wizjoner nowej muzyki nie tylko pisał kompozycjewyprzedzające o dziesiątki lat swoją epokę, ale głosił też myśli, których urze-czywistnienie przynieść miała dopiero rozwinięta muzyka elektroniczna. Oto copisał w roku 1936:

„...surowym materiałem muzyki jest dźwięk. A o tym, przez wzgląd na«uświęcone tradycje» większość ludzi, w tym także kompozytorów, zdaje sięzapominać. Dziś, kiedy nauka dysponuje środkami, które pozwalają kompozy-torowi urzeczywistnić to, co dotąd było nieosiągalne, o czym marzył Beethoven,co przeczuwał w swej wyobraźni Berlioz, kompozytorzy obsesyjnie trzymają siętradycji, która nie jest niczym innym, jak ograniczeniem ustanowionym przez ichpoprzedników. Kompozytorzy, jak wszyscy dzisiaj, cieszą się wszelkimi nowo-ściami, które są im dostarczane dla wygody życia codziennego, ale gdy w gręwchodzi dźwięk, który nie byłby ani dźwiękiem smyczków, ani instrumentówdętych, ani perkusji orkiestrowej, nie przyjdzie im do głowy, że dźwięku takiegomogliby żądać od techniki, mimo że technika jest dziś w stanie dać to wszystko,czego by od niej potrzebowali...”

8  John Cage, Imaginary Landscape No. 1   for 2 variable speed phonoturntables, frequency recordings,muted piano and cymbal. Wyd. Peters, Nowy Jork. Nb. tytuł  Imaginary Landscape  tłumaczony był na język polski niezbyt trafnie jako Krajobraz z wyobraźni.

172 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 18/381

Historia i rozwój

„...A oto korzyści, jakich oczekiwałbym od takiej maszyny: wyzwolenie odparaliżującego, a przecież arbitralnie wybranego systemu temperowanego, moż-liwość uzyskania dowolnej liczby drgań lub, jeżeli zajdzie potrzeba, innego po-działu oktawy, a w konsekwencji utworzenia dowolnie wybranej skali, moż-

liwość wykorzystania bardzo niskich i bardzo wysokich rejestrów, tworzenianowych brzmień harmonicznych za pomocą niemożliwych dziś do uzyskaniakombinacji subharmonicznych, otrzymywania zróżnicowanych barw, kombinacjidźwiękowych, dynamiki wykraczającej poza możliwości ludzkiego organizmuorkiestry, możliwość przestrzennej projekcji dźwiękowej uzyskiwanej przez emi-sję dźwięków z różnych punktów sali, co mogłoby znaleźć swoje odbicie w par-tyturze, możliwość krzyżowania wzajemnie niezależnych rytmów, emitowanychsymultanicznie, lub — używając tradycyjnej terminologii — kontrapunktycznie,ponieważ maszyna byłaby w stanie produkować dowolną ilość nut w dowol-

nych podziałach czasowych, z opuszczeniami lub w ułamkach tych podziałów,a wszystko to w określonych jednostkach czasu lub taktu z dokładnością nie-możliwą do uzyskania przez bezpośrednie działanie człowieka” 9. [tłum. aut.]

Brzmi to jak opis muzyki elektronicznej z lat sześćdziesiątych, a przecież,kiedy Varese pisał te słowa, eksperymenty z dźwiękiem nie wyszły jeszcze pozastadium najbardziej prymitywne. Brakowało po prostu narzędzi.

Rozwój techniki radiowej, fonograficznej, elektronicznej był tym czynnikiem,który umożliwił realizację idei Busoniego, Varese’a i tych wszystkich, którzychcieli wyjść poza zaklęty krąg instrumentów orkiestrowych. Zamiast długiegowywodu przedstawiamy tu najważniejsze daty, które znaczą ten rozwój.

1876 — Fizyk amerykański Graham Bell wynalazł telefon.

1877 — Thomas Alva Edison konstruuje pierwszy fonograf.

— Pojawia się pierwszy mikrofon węglowy (wynik pracy kilku wyna-lazców), który znajduje zastosowanie w telefonie Bella.

1887 — Emil Berliner prezentuje pierwszy gramofon (z zapisem poprzecznymna płycie metalowej powleczonej woskiem).

1899 — Valdemar Poulsen (Kopenhaga) buduje telegraphone, urządzenie na-

grywające dźwięk na zasadzie magnetycznej; oferuje ono jednak niską jakość reprodukcji i na razie nie znajduje szerszego zastosowania.

1904 — John Ambrose Fleming konstruuje diodę z żarzoną katodą.

1906 — Lee de Forest wynalazł lampę próżniową (triodę), która staje się pod-stawą do budowy wzmacniaczy i generatorów lampowych.

— Thaddeus Cahill demonstruje w Nowym Jorku dynamophone, którymożna uważać za prototyp syntezatora muzycznego.

1913 — A. Meissner (Wiedeń) buduje pierwszy generator lampowy.

9 E. Varese,  The Liberation of Sound, excerpts from lectures of 1936–62, edited by Chou Wen-Chung. W:Contemporary Composers on Contemporary Music, red. E. Schwartz i B. Childs. Nowy Jork 1967.

18

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 19/381

Kwestia terminologii, prekursorzy

1919 — Lew Termen (podpisujący się potem: Theremin) demonstruje w Pio-trogrodzie swój pierwszy aeterophone, instrument elektroniczny,w którym zmianę wysokości dźwięku uzyskuje się przez porusza-nie dłonią pomiędzy dwiema antenami.

1920 —   Otwarta zostaje pierwsza na świecie rozgłośnia radiowa w Pittsburghu.1925 — Dokonane zostają pierwsze elektryczne nagrania płytowe z użyciem

mikrofonu i wzmacniacza.

— Lee de Forest udoskonala optyczny zapis dźwięku na taśmie filmowej.

1927 — Powstaje pierwszy film dźwiękowy Śpiewak jazzbandu A. Croslanda.

1928 — Maurice Martenot demonstruje w Paryżu instrument elektronicznyondes Martenot (fale Martenota); szereg kompozytorów wprowa-dza go do swoich utworów (D. Milhaud, A. Jolivet, P. Hindemith,

E. Varese).— Friedrich Trautwein buduje instrument elektroniczny trautonium,użyty potem przez R. Straussa, P. Hindemitha i W. Egka.

1929 — Laurens Hammond zakłada w Chicago fabrykę instrumentów elek-tronicznych produkującą organy Hammonda, novachordy, solovoxyi in.

1931 — Ludwig Blattner konstruuje blattnerphon, urządzenie do nagrywaniadźwięku na zasadzie pozostawiania śladu magnetycznego na cien-kiej taśmie stalowej; rok później podobne, ale ulepszone urządzenie

wprowadza do produkcji firma Marconi-Stille (taśma Stille’a).1932 — Lew Theremin konstruuje na zamówienie Henry Cowella rhythmi-con, instrument elektroniczny pozwalający na produkowanie niemalnieograniczonych kombinacji rytmicznych.

1934 — Niemieckiej firmie I.G. Farben udaje się wyprodukować taśmę ma-gnetyczną na podłożu celuloidowym.

1935 — Firma AEG (Allgemeine Elektrizitats Gesellschaft) demonstrujepierwszy magnetofon taśmowy.

1938 — Harold Bode konstruuje instrument elektroniczny melodium.

1940 — H.J. von Braunmuhl i W. Weber ulepszają magnetofon taśmowywprowadzając wstępną magnetyzację prądem zmiennym wysokiejczęstotliwości.

1941 — Constant Martin buduje clavioline, instrument elektroniczny naśla-dujący dźwięk instrumentów smyczkowych.

1947 — Powstaje pierwsza elektroniczna maszyna matematyczna ENIAC.

1948 — Pierwsze zastosowania tranzystorów w elektronice.

— Wprowadzenie płyt mikrorowkowych.

Ok. 1950 — Powszechne wprowadzenie magnetofonów do radiofonii i fonografii.1952 —   Magnetofony dwu- i czterośladowe (Telefunken) i początki stereofonii.

1958 — Wprowadzenie do handlu płyt stereofonicznych.

192∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 20/381

Historia i rozwój

Najważniejszymi dla omawianej przez nas dziedziny wydają się być uwarun-kowania stworzone przez:

1. rejestrację na płycie gramofonowej, a potem na taśmie filmowej,2. wprowadzenie nagrań elektrycznych,

3. zastosowanie urządzeń mieszających, urządzeń do korekcji barwy i do wy-twarzania sztucznego pogłosu,4. zbudowanie instrumentów muzycznych w oparciu o elektryczne generowa-

nie fal,5. skonstruowanie magnetofonu taśmowego.Pojawienie się w r. 1935 urządzenia nagrywająco-odtwarzającego firmy AEG

pod zastrzeżoną nazwą magnetophon poprzedzone było szeregiem ulepszeńwynalazku Poulsena, których ostatnim stadium było urządzenie do magnetycznejrejestracji dźwięku na taśmie stalowej. Skonstruowanie właściwego magnetofonustało się możliwe dzięki wyprodukowaniu lekkiej a mocnej taśmy magnetycznejna podłożu celuloidowym, która podobnie jak taśma filmowa pozwalała się ciąći sklejać.

Szerszemu rozpowszechnianiu magnetofonów przeszkodziła II wojna świa-towa. Wiele urządzeń, w tym także urządzenia do magnetycznej rejestracji dźwię-ków, uznano w tym czasie za sprzęt o znaczeniu militarnym i zastrzeżono doużytku walczących armii. Dopiero po zakończeniu wojny zaczęto je przekazy-wać instytucjom cywilnym. Trzeba przyznać, że Niemcy wyprzedzili na tympolu aliantów. Ich radiostacje już na początku lat czterdziestych korzystały z ma-gnetycznych nagrań taśmowych,10 podczas gdy Anglicy wyprodukowali pierw-

sze magnetofony dopiero w 1947 (EMI model BRT 1), a Amerykanie w r. 1948(Ampex 200).

Magnetofon staje się szybko narzędziem niezwykle popularnym. Radio za-czyna nagrywać wszystko, co da się zarejestrować, a co przedtem nadawane

 było na żywo, jak koncerty, słuchowiska, reportaże. Przemysł filmowy i fono-grafia wprowadzają nagrania na taśmie magnetofonowej jako wstępne stadiumrejestracji dźwięku, służące do późniejszego przeniesienia na płytę gramofonowąlub na optyczną ścieżkę dźwiękową. Magnetofony trafiają do laboratoriów na-ukowych, a ich uproszczone wersje do prywatnych użytkowników jako sprzęt

amatorski. Zalety magnetofonu są ogromne. Do najważniejszych należą możli-wość dokonywania montażu i możliwość wykorzystywania tej samej taśmy dowielokrotnego nagrywania.

W latach 1949–1955 następuje niezwykle szybki rozwój technik radiowych i fo-nograficznych. Obok zapisu na taśmie magnetofonowej, który w tym czasie stajesię już powszechny, wprowadzony zostaje zapis mikrorowkowy na płytach gra-mofonowych, a w filmie — zapis na perforowanej taśmie magnetycznej dla za-pewnienia pełnej synchronizacji dźwięku z obrazem. Odbywają się pierwszepróby ze stereofonią i sformułowane zostają warunki wysokiej jakości przeno-szenia dźwięków (Hi-Fi).

10 Duży zapas taśm z nagraniami, głównie muzyki marszowej z okresu II wojny światowej, znalezionow Rozgłośni Radiowej we Wrocławiu po przejęciu jej przez władze polskie.

20

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 21/381

Musique concrete w Paryżu

1.2. Musique concrete w Paryżu

Do powstania tego, co nazwane zostało potem muzyką konkretną przyczyniły

się nie tylko uwarunkowania czysto techniczne, a więc odpowiednia aparatura,ale w nie mniejszym stopniu wcześniejsze doświadczenia z dźwiękiem przepro-wadzane przez twórców radiowych i filmowych. Chodzi tu o montaże dźwię-kowe towarzyszące obrazom filmowym i słuchowiskom radiowym. W obu tychgatunkach istotną rolę odgrywały tzw. efekty dźwiękowe, czyli szmery i odgłosytowarzyszące scenom dialogowanym lub stanowiące wypełnienie akustyczne wefragmentach pozbawionych tekstu. Spełniały one dwie funkcje: naturalistyczną,mającą uwiarygodnić przedstawianą rzeczywistość, i emocjonalną, stanowiącąnastrojowe podmalowanie rozgrywającej się akcji. Dla omawianej przez nas dzie-

dziny ważna była szczególnie ta druga funkcja. Efekty dźwiękowe były niejedno-krotnie poddawane pewnym odkształceniom, dla spotęgowania wrażenia, jakiemiały wywierać na słuchaczu. Były też montowane i mieszane z innymi efektamilub z głosami ludzkimi. Stanowiły więc czasem małe kompozycje dźwiękowe,oczywiście uwarunkowane akcją filmu czy sztuki radiowej. Aby montaże te mo-gły stać się muzyką, konieczne było zrobienie małego kroku — przekroczeniaprogu, poza którym efekt dźwiękowy tracił swą funkcję służebną wobec tek-stu czy obrazu, a zaczynał mówić „własnym głosem” jako element sekwencjimuzycznej.

Kroku tego dokonał Pierre Schaeffer, 11 który zanim został kompozytorem pra-cował w paryskim radiu RTF jako inżynier i — jak byśmy to dziś określili —realizator dźwięku. Uczestniczył też w pracach radiowego „Club d’Essai”, któryskupiał ludzi zainteresowanych techniką nagraniową i tworzeniem dzieł specy-ficznie radiowych. A trzeba pamiętać, że w połowie lat czterdziestych znane już

 były takie elementy sztuki radiofonicznej, jak mieszanie kilku warstw, wyróżnia-nie planów akustycznych, sztuczny pogłos i echo, filtrowanie dźwięku, montażkontrastujący, przenikanie.

Wiosną 1948 roku Pierre Schaeffer uzyskuje od swoich przełożonych w radiuparyskim dosyć dużą swobodę w przeprowadzaniu prób i prac nad kompozy-

cjami dźwiękowymi, których charakteru nikt wówczas nie był w stanie prze-widzieć. Za pomocą dostępnych mu środków realizuje Schaeffer szereg etiud,których materiałem są nagrane dźwięki naturalne: odgłosy kolei, hałas uderza-nych rondli itp. Obok odpowiedniej selekcji sprawą najważniejszą staje się „umu-zycznienie” tych dźwięków, to jest nadanie im uchwytnego rytmu i związaniew sekwencje sprawiające wrażenie motywów muzycznych. To mu się raczej udaje.Choć w sposób trochę naiwny, zorganizowane w ten sposób efekty dźwiękowezaczynają być muzyką. Tu Schaeffer jakby cofa się o krok: nie dowierzając za-pewne sile wyrazu dźwięków, uważanych dotąd za niemuzyczne hałasy, włącza

11 Pierre Schaeffer (1910–1995), urodzony w Nancy w rodzinie muzycznej, nie odebrał jednak regu-larnego wykształcenia muzycznego; ukończył  Ecole Polytechnique i  Ecole des Telecommunicationsde la Radiodiffusion-Television Française w Paryżu.

21

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 22/381

Historia i rozwój

do swego materiału dźwięki niektórych instrumentów muzycznych (fortepian,ludowy flet meksykański).

Datą znaczącą staje się 5 X 194812. W dniu tym na najbardziej wówczas słucha-nym kanale radiowym „Chaıne Parisienne” zostaje nadana audycja pt.  Concert de

bruits (Koncert hałasów) zawierająca pięć etiud Pierre’a Schaeffera, która wywołujeduże poruszenie w muzycznym świecie Paryża. Jej program zawierał:   ´ Etude auxtourniquets,   ´ Etude aux chemins de fer,   ´ Etude violette   ( ´ Etude au piano I ),   ´ Etude noire( ´ Etude au piano II ),   ´ Etude aux Casseroles  ( ´ Etude path´ etique).

Wszystkie te krótkie utwory (2– 4 minut każdy) powstały w ciągu majai czerwca 1948 roku. Radio paryskie nie dysponowało wtedy jeszcze magne-tofonami. Podstawowym urządzeniem do nagrywania był gramofon na płytymiękkie, a narzędziami służącymi do manipulacji: gramofony do odtwarzaniapłyt, prymitywna konsoleta mikserska z kilku przełącznikami i potencjometramii... zręczność palców. Schaeffer korzystał wtedy z płytoteki efektów radiowych,nagrywał też efekty specjalnie przeznaczone do swoich etiud: gwizdy lokomo-tyw do Etiudy na kolej, obracanie bębenka-pozytywki (fr. tourniquet) do   ´ Etude auxtourniquets oraz dokonywał specjalnie zaplanowanych nagrań instrumentalnych(nb. w nagraniach fortepianowych służących do montażu obu etiud na fortepian

 brał udział jako pianista młody Pierre Boulez). Oprócz gry na potencjometrachSchaeffer stosował „montaż”, polegający na przerzucaniu odsłuchu z jednegogramofonu na drugi za pomocą przełączników na konsolecie, dokonywał trans-pozycji nagranego materiału za pomocą odtwarzania płyty z inną prędkością,stosował też odtwarzanie nagrań w przeciwnym kierunku, przecinanie rowka

na miękkiej płycie dla uzyskania efektu pętli dźwiękowej (sillon ferm´ e) i wreszcienakładanie na siebie kilku warstw dźwiękowych w klasycznym „miksażu”.

Istotną zasługą Schaeffera było stworzenie nowego sposobu składania kom-pozycji dźwiękowej, która dzięki zabiegom formalnym, takim jak powtórzenia,rytmizacja, kontrastowanie, kontrapunktyczna wielowarstwowość, nabierała cechmuzycznych nie istniejących lub istniejących tylko w zalążku w materiale pier-wotnym.

Metodę swoją, a właściwie efekty muzyczne uzyskane dzięki tej metodzie,ochrzcił mianem musique concrˇ cte. Termin ten, wymyślony przez Schaeffera praw-

dopodobnie jeszcze w roku 1948, wszedł do obiegu dopiero w roku 1950. Zna-lazł się on w tytule jego artykułu zamieszczonego w periodyku „Polyphonie”(1. trym. 1950):  La musique m´ ecanis´ ee — Introduction a la musique concrete.

Przymiotnik „konkretna” w odniesieniu do komponowanej przez siebie mu-zyki objaśnia Schaeffer w sposób następujący:

„...[w poniższym] schemacie próbuję przedstawić dwa rodzaje muzyki z pun-ktu widzenia symetrii postępowania:

12

Ta data, podawana również przez samego Schaeffera jako data pierwszej prezentacji, dotyczy za-pewne drugiego koncertu radiowego. Pierwszy, jak wskazują źródła INA-GRM (R´ epertoire acousma-tique 1948–1980), nadany został 20 VI 1948. Widocznie przeszedł zupełnie nie zauważony, ponieważcytowane krytyki, listy od słuchaczy itp. dotyczą wyłącznie koncertu październikowego.

22

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 23/381

Musique concrete w Paryżu

Mu z y ka do t yc h cz a s o w a Mu z y ka n o wa(abstrakcyjna) (konkretna)Faza I — koncepcja (pomysł) Faza III — kompozycja (materialna)Faza II — wyrażenia (zapis) Faza II — próby (eksperymentowanie)Faza III — wykonanie (instrumentalne) Faza I — materiał (produkcja)(od abstrakcji do konkretu) (od konkretu do abstrakcji)

Przymiotnik „abstrakcyjna” zastosowany do muzyki tradycyjnej podkreśla, żepowstaje ona najpierw w umyśle tworzącego, później jest zapisywana, a na koniecrealizowana poprzez wykonanie instrumentalne. Muzyka „konkretna” opiera sięna elementach już istniejących, zaczerpniętych z jakiegokolwiek materiału dźwię-kowego: szmeru lub dźwięku muzycznego, potem jest komponowana ekspery-mentalnie za pomocą montażu, będącego wynikiem kolejnych prób, a kompozy-cja końcowa z nich wynikła realizowana jest bez potrzeby opierania się o trady-cyjną notację muzyczną, która jest tu zresztą niemożliwa do zastosowania”13.

Przez pierwszy rok Pierre Schaeffer pracował w studiu sam, korzystając tylkodorywczo z pomocy inżyniera Jacquesa Poullina. W roku 1949 przybywa mudo współpracy znakomity pomocnik, współtwórca kilku następnych kompozycji,a potem samodzielny kompozytor muzyki konkretnej, Pierre Henry, człowiekmłody, ale posiadający pełne wykształcenie muzyczne 14. Obaj więc w pewiensposób uzupełniają się. Ich pierwszą wspólną kompozycją jest  Symphonie pour unhomme seul (Symfonia dla samotnego człowieka), 15 zrealizowana jeszcze w technicegramofonowej w roku 1950. Pierwsza wersja tego utworu (który nazwalibyśmyraczej suitą) składała się z 22 krótkich części i trwała 46 minut. Jej prawykonanie

odbyło się na pierwszym publicznym koncercie muzyki konkretnej zorganizowa-nym w sali Ecole Normale de Musique 18 marca 1950 roku. Symfonia dla samotnegoczłowieka  była też pierwszym dziełem, jakie wydała muzyka konkretna. Kumu-lowała w sobie doświadczenia z całego pionierskiego okresu studia paryskiegoi stała się klasyczną pozycją muzyki elektronicznej (w tym szerszym znaczeniutego słowa). Mimo upływu lat nic nie straciła ze swej świeżości i siły wyrazu. Jejskrócona do 11 części wersja weszła na stałe, jako muzyka baletowa, do repertu-aru Baletów XX wieku Maurice’a Bejarta. Ostateczna wersja dwukanałowa, znanaz nagrań płytowych (z 1966 r.), zawiera 12 części:  Prosopop´ ee I , Partita, Valse, Ero-tica,  Scherzo,  Collectif ,  Prosopop´ ee II ,  Ero¨ ıca, Apostrophe,  Intermezzo, Cadence,  Strettei trwa 21 minut. Inne klasyczne już dzisiaj utwory z tego okresu to: Schaefferai Henry’ego Bidule en ut, Schaeffera  Variations sur une fl ˆ ute mexicaine, Henry’egoConcerto des ambigu¨ ıt´ es i  Batterie fugace.

Drugim wspólnym dziełem obu autorów jest opera konkretna   Orph´ ee 51 outoute la Lyre,16 w ostatecznej wersji zatytułowana  Orph´ ee 53. Prawykonanie tego

13 P. Schaeffer, A la recherche d’une musique concrete.  Editions du Seuil. Paryż 1952.14 Pierre Henry, ur. 1927 w Paryżu, studiował w paryskim Konserwatorium u Oliviera Messiaena,Nadii Boulanger i Felixa Passeronne’a.15

W języku francuskim tytuł  Symphonie pour un homme seul  ma jeszcze drugie, dodatkowe znaczenie,które można by oddać po polsku jako:  Symfonia na człowieka solo   (w analogii do takich tytułów jakSonate pour violon seul).

16 W wolnym tłumaczeniu: Orfeusz 51, czyli wszystko jest lirą.

23

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 24/381

Historia i rozwój

ogromnego jak na ówczesne środki dzieła, skomponowanego na głosy solowe,skrzypce, klawesyn i taśmę, odbyło się w ramach festiwalu „DonaueschingenMusiktage” w październiku 1953 roku. Skończyło się ono generalną klapą i omalnie skandalem. Było też jedynym wykonaniem kompletnym tego utworu. Tylko

ostatnia część opery Le Voile d’Orph´ ee (Zasłona Orfeusza) autorstwa P. Henry’ego,wydzielona z całości jako „kantata dramatyczna” (na samą taśmę), przetrwałaoperę i złe wspomnienia z Donaueschingen. Swą niezwykłą siłę wyrazu za-wdzięcza przede wszystkim wirtuozowskiemu operowaniu przez kompozytoragłosem ludzkim (hymn orficki recytowany po grecku) i niemal orkiestrowemutraktowaniu szmerów i szumów. Kantata  Zasłona Orfeusza  stała się obok  Symfo-nii dla samotnego człowieka drugą słynną pozycją muzyki konkretnej i weszła nastałe do historii muzyki. Jej wersja kompletna trwa 27 minut. Wersja skrócona(również przyjęta jako muzyka baletowa przez Bejarta) trwa 15 minut.

W grudniu 1951 roku w miejsce dotychczasowego „Club d’Essai” zostaje po-

wołana do życia Groupe de Recherches de Musique Concrete (Grupa BadańMuzyki Konkretnej) radia RFT, przemianowana w roku 1958 na Groupe de Re-cherches Musicales, w skrócie GRM. Staje się ona ważnym centrum rozwijającejsię nowej gałęzi muzyki, a jej działalność trwa nieprzerwanie do dzisiaj. W latach1951–1953 działają tu gościnie Pierre Boulez (ur. 1925) ( ´ Etude sur un son), Oli-vier Messiaen (1908–1992) (Timbres-dur´ ees), Karlheinz Stockhausen ( ´ Etude no. I zwana   ´ Etude aux mille collants), a w roku 1954 Edgar Varese, który realizuje tupierwszą wersję taśmy stanowiącej integralną część utworu  D´ eserts (Pustynie).

1.3. Studio fur Elektronische Musik w Kolonii

Działalność twórców muzyki konkretnej przedstawiała tylko jeden z możli-wych aspektów muzyki elektronicznej. Przyjęta przez jej autorów, głównie podwpływem osobowości Pierre’a Schaeffera, postawa eksperymentalna, odrzuceniewszelkich prekoncepcji w procesie komponowania i ograniczenie się do dźwię-ków naturalnych nagrywanych mikrofonowo — nie mogły zadowolić wszyst-

kich, którym marzyła się nowa muzyka osiągana środkami niekonwencjonal-nymi. „Wyzwolenie dźwięku”, o którym pisał Varese, było tylko częściowe, czę-ściowe było także wykorzystanie istniejącej już aparatury elektroakustycznej.

Innej drogi zaczęto szukać w Niemczech. Niezależnie od muzyki konkretnejpowstaje mniej więcej w tych samych latach koncepcja nowej muzyki opartejna całkiem innych założeniach, korzystającej wyłącznie ze źródeł elektronicz-nych. Pierwsze pomysły i pierwsze realizacje, na razie tylko surowego mate-riału dźwiękowego, wyszły znowu nie od zawodowego muzyka. Autorem ich

 był znakomity fizyk Werner M e ye r-Ep pl e r (1913–1960), profesor Uniwersytetuw Bonn, zajmujący się nową wówczas dziedziną — teorią informacji i zagadnie-

niami sztucznej mowy. Niejako na marginesie swoich głównych zainteresowańuzyskał on szereg prostych mod e l i dź w i ę ko wyc h (Klangmodelle) przez skła-danie dźwięków z tonów prostych, uzyskiwanych z generatora. Jego praca  Elek-

24

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 25/381

Studio fur Elektronische Musik w Kolonii

tryczne wytwarzanie dźwięków, która ukazała się w 1949 roku, 17  była sygnałem doszerszego zainteresowania się tą dziedziną przez kompozytorów nastawionych

 bardziej awangardowo. W roku 1950 Werner Meyer-Eppler zostaje zaproszony naMiędzynarodowe Kursy Wakacyjne Nowej Muzyki do Darmstadtu, gdzie wspól-

nie z kompozytorem Robertem Beyerem (ur. 1901) prowadzą kurs  Klangweltder elektronischen Musik   (Świat dźwięków muzyki elektronicznej) i demonstrują wy-produkowane przez siebie „modele dźwiękowe”. Pomocą staje się zbudowanyw tymże roku przez Harolda Bodego instrument elektroniczny melochord, za-kupiony przez Instytut Fonetyki i Teorii Informacji Uniwersytetu w Bonn.

Muzycznym zastosowaniem modeli dźwiękowych zainteresował się natych-miast Herbert Eimert (1897–1972), kompozytor, muzykolog, krytyk i wieloletnipracownik działu muzycznego radia w Kolonii. Zaczyna on ścisłą współpracęz Meyer-Epplerem i w październiku 1951 roku doprowadza do powołania przyrozgłośni Nordwestdeutscher Rundfunk (NWDR) w Kolonii Studia Muzyki Elek-

tronicznej. Szefem studia zostaje Herbert Eimert, a kierownikiem technicznymFritz Enkel. Doradcami są Werner Meyer-Eppler i prof. Fritz Winckel z Berlina.Studio otrzymuje dość skromne wyposażenie: generator sygnałów sinusoidal-nych, generator szumów, melochord Bodego, modulator kołowy i kilka magne-tofonów (w tym — nowość — jeden magnetofon czterościeżkowy). Pierwszekompozycje powstałe w tym studiu to cztery etiudy wspólnego autorstwa Her-

 berta Eimerta i Roberta Beyera: Klang in unbegrenztem Raum (1951/52), Klangestu-die I  (1952), Klangestiude II  (1952/53) i Ostinate Figuren und Rhythmen (1953). Zo-stały one przedstawione po raz pierwszy publicznie w ramach festiwalu „Neues

Musikfest” w Kolonii na koncercie 26 III 1953, co przeszło jednak bez szerszegoecha. Za prawdziwą premierę kolońskiej „muzyki elektronicznej” uważa się kon-cert, który odbył się w tymże mieście półtora roku później 19 X 1954. Znalazłysię w nim również utwory nowych współpracowników studia, z których szcze-gólną rolę odegra Karlheinz Stockhausen, 18 w tym czasie dopiero wschodzącagwiazda niemieckiej awangardy, jeden z trzech młodych postwebernistów (po-zostałymi byli Luigi Nono i Pierre Boulez). W programie koncertu znalazły sięnastępujące utwory: Herberta Eimerta  Glockenspiel   (1953),  Et ¨ uden   ¨ uber Tongemi-sche  (1953/54), Karela Goeyvaertsa  Komposition Nr. 5   (1953), Paula GredingeraFormanten I und II   (1953/54), Henri Pousseura  Seismogramme  (1954), KarlheinzaStockhausena Studie I  (1953) i  Studie II   (1954).

Ten koncert odbił się głośnym echem w prasie codziennej i fachowej. Mie-sięcznik „Melos” poświęcił z tej okazji połowę numeru muzyce elektronicznej, 19

a w pierwszym zeszycie „Die Reihe”, zatytułowanym  Elektronische Musik, znalazł

17 W. Meyer-Eppler, Elektrische Klangerzeugung, elektronische Musik und synthetische Sprache. Bonn 1949.18 Karlheinz Stockhausen, ur. 1928 w Modrach koło Kolonii; po studiach w Musikhochschule i naUniwersytecie w Kolonii (u Franka Martina i Hermanna Schrodera) kontynuuje studia w paryskimKonserwatorium u Dariusa Milhauda i Oliviera Messiaena, przeprowadza też pierwsze próby z to-nami z generatora i mikromontażem na taśmie w paryskim „Studio d’Essai”. Od 1952 zaczyna się

 jego ścisła współpraca ze Studiem Muzyki Elektronicznej w Kolonii, od 1966 jest jego szefem. Przezszereg lat prowadzi wykłady na corocznych Kursach Nowej Muzyki w Darmstadcie. Od 1974 jestprofesorem kompozycji w Musikhochschule w Kolonii.19 „Melos” 1955 nr 1.

25

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 26/381

Historia i rozwój

się artykuł Herberta Eimerta Sieben St ¨ ucke (Siedem utworów), stanowiący omówie-nie i komentarz do wykonanych na tym koncercie utworów 20.

Koncert z października 1954 roku był zarazem manifestacją nowej postawykompozytorów zgrupowanych wokół Herberta Eimerta. Ich naczelnym hasłem

 był serializm, rozszerzony także o sferę mikroczasu — stosunków częstotliwościtonów składowych. Materiałem dźwiękowym były wyłącznie dźwięki elektro-niczne, a podstawową metodą realizacji synteza dźwięków z tonów prostych,osiągana przez wgrywanie na taśmie magnetycznej kolejnych składowych.

Eimert pisał wówczas: „...podstawową jednostką muzyki elektronicznej nie jestmikrointerwał, lecz coś, co leży zupełnie w innym wymiarze. Nie pojawia się jakowynik podziału, lecz stanowi jakby derywat dźwięku muzycznego. Wytwarzanyprzez generator jako czysty ton (bez alikwotów), mający postać drgań sinusoidal-nych — ton prosty znany jest od dawna w akustyce, jest jednak czymś zupełnienowym w muzyce. Równie nowym zjawiskiem są strukturalne układy tonów

sinusoidalnych, których kombinacje składają się na dźwięki. Po raz pierwszystruktura wewnątrzdźwiękowa może stać się integralną częścią struktury całościutworu”21.

Użycie generatorów pozwoliło na stosowanie dowolnych skal wysokościowych,zarówno dla tonów podstawowych, jak i dla składowych, które nie musiały sta-nowić szeregu tonów harmonicznych, lecz mogły układać się w różnie kompono-wane wi e l ot o ny (niem.  Tongemische). Eimert stosuje np. w Glockenspiel  szeregisubharmoniczne, a Stockhausen w  Studie II  układy tonów składowych wedługskali wynikłej z podziału interwału dwóch oktaw i tercji wielkiej na 25 równych

części.Dla kompozytorów o orientacji serialnej niezwykle ważna była precyzja wy-konania, szczególnie jeśli chodziło o dynamikę i czas. Tej precyzji nie moglizapewnić żywi wykonawcy, których przyzwyczajenia słuchowe i ruchowe, wy-kształcone na muzyce tradycyjnej, naginały nowe, serialne wymagania do starychschematów muzycznych, nie mówiąc o tym, że pewne synchronizacje rytmicznewymagane w nowej muzyce były praktycznie nie do wykonania. Dopiero zasto-sowanie techniki magnetofonowej, posługiwanie się miernikiem wysterowaniawyskalowanym w decybelach, mierzenie czasu centymetrami i milimetrami na-granej taśmy i ustalanie wysokości dźwięków i tonów skladowych w hercachza pomocą miernika częstotliwości — zapewniało kompozytorom zgodność za-miaru i wykonania, czyli jak mówiono wówczas: pełną kontrolę nad wszystkimiparametrami muzycznymi .

 Jedynie marzenia o nieograniczonej możliwości formowania barw dźwięko-wych za pomocą kontroli widma akustycznego, tj. stosunków częstotliwości i am-plitudy poszczególnych tonów składowych dźwięku, okazały się przedwczesne.Kolończycy nie wzięli pod uwagę dwóch czynników, które im te możliwości do-syć zdecydowanie zawężały. Po pierwsze — dźwięki syntetyzowane w studiu ko-

20

Seria zeszytów „Die Reihe” poświęcona nowej muzyce, pod redakcją Herberta Eimerta, zaczęławychodzić w 1955 w Universal Edition w Wiedniu.21 H. Eimert,  Zur musikalischen Situation, „Technische Hausmitteilungen des NWDR” 1954, z. 1–2,Kolonia.

26

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 27/381

Tape music w Stanach Zjednoczonych

lońskim mogły zawierać, ze względu na ograniczenia wynikające z ówczesnegostanu techniki, nie więcej niż 10 tonów składowych (przeważnie 5–6), 22 podczasgdy bogate dźwięki naturalne zawierają ich od kilkunastu do kilkudziesięciu. Podrugie — kolończycy operowali w zasadzie dźwiękami stacjonarnymi, w któ-

rych głośność poszczególnych składowych jest niezmienna w czasie, podczasgdy przeważająca większość dźwięków instrumentalnych i wokalnych, a takżedźwięków natury, wykazuje ogromną zmienność w trakcie nabrzmiewania, trwa-nia i wybrzmiewania, a czasem właśnie ta zmienność stanowi o charakterystyce

 brzmienia danego instrumentu czy głoski wokalnej. Niedostrzeganie tych czyn-ników wynikało trochę z zadufania, w znacznej jednak mierze z niedostatecznejwówczas wiedzy o dźwięku w ogóle. Dźwięki syntetyczne z tego okresu byłyproste i ubogie, ale zupełnie inne niż znane dźwięki instrumentalne i tym wła-śnie fascynowały słuchaczy.

Sztandarową pozycją tego pionierskiego okresu muzyki elektronicznej byłakompozycja Stockhausena   Studie II . Wykonywana wielokrotnie na koncertachoraz przy okazjach różnych sympozjów i „dni muzyki eksperymentalnej”, zo-stała wielokrotnie nagrana na płytach, była też pierwszym utworem muzykielektronicznej, którego kompletna „partytura” ukazała się w normalnym wy-dawnictwie muzycznym (Universal Edition).

W latach 1955–1958 w kolońskim Studio f ur Elektronische Musik wielu zna-czących kompozytorów realizowało swoje utwory elektroniczne. Obok poprzed-nio wymienionych — Franco Evangelisti (1926–1980)   Incontri di fasce sonore(1957), Mauricio Kagel (ur. 1931)  Transition I  (1960), Gottfried Michael Koenig

(ur. 1926)   Klangfiguren I–II   (1955/56), Ernst K renek (1900–1991)   Spiritus in-telligentiae,   Sanctus, oratorium zielonoświątkowe na głosy sterowane taśmą23

i dźwięki elektroniczne (1955–1956), Gyorgy L i ge t i (ur. 1923) Artikulation (1958),Bo Nilsson (ur. 1937)  Audiogramme   (1958). Czołowym kompozytorem studia

 jest nadal Karlheinz Stockhausen. Proste składanie dźwięków z tonów prostychprzestaje mu jednak wystarczać. W swojej następnej kompozycji elektronicz-nej stosuje połączenie przetworzonych dźwięków naturalnych (śpiew chłopca)i dźwięków elektronicznych, których repertuar rozszerza o dźwięki z genera-tora impulsów i o filtrowane dźwięki harmoniczne i szumowe. Tą kompozycją

 jest  Gesang der J   unglinge   (Śpiew młodzianków, tekst z Księgi Daniela), zrealizo-wany w latach 1955–1956. Utwór ten staje się drugą klasyczną pozycją studiakolońskiego. Kolejne, dalsze utwory elektroniczne Stockhausena —   Kontakte  nafortepian, perkusję i taśmę (1959–1960),  Mikrophonie I   (1964),  Telemusik   (1966), 24

 Hymnen (1967) znaczyć będą drogę rozwoju tej gałęzi muzyki.

22 Chodzi tu o „wielotony” składane z tonów prostych. Dźwięki otrzymywane przez nakładanie nasiebie dźwięków złożonych (prostokątnych, piłowych) zawierały odpowiednio więcej składowych, alekontrola nad nimi była bardzo ograniczona.23 Podział oktawy na 13 równych części.

24 Telemusik  zrealizował Stockhausen w studiu muzyki elektronicznej NHK w Tokio.

27

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 28/381

Historia i rozwój

1.4. Tape music w Stanach Zjednoczonych

Pojawienie się magnetofonów taśmowych na rynku amerykańskim powodujenatychmiastową reakcję ze strony kompozytorów. Pierwszym jest John Cage,

który w roku 1951 organizuje luźną grupę kompozytorów pod nazwą „Projectof Music for Magnetic Tape”. Oprócz Cage’a wchodzą w jej skład Earle Brown(ur. 1926), Morton Feldman (1926–1987), Christian Wolff (ur. 1934) i przyjacielCage’a, pianista David Tudor (1926–1996). Cage, mający już za sobą doświad-czenia z gramofonami, próbuje wykorzystać nowe możliwości, jakie daje magne-tofon, a przede wszystkim pozwalająca się ciąć i montować taśma. Kontynuującswoje doświadczenia z wprowadzeniem działań losowych do procesu kompono-wania, realizuje na taśmie Imaginary Landscape No. 5. Materiałem tego utworu są42 różne nagrania magnetofonowe. Wycinki tych nagrań montuje Cage zgodniez regułami przejętymi ze starochińskiej Księgi przemian (I-Ching),25 i to w sposóbdość szczególny. Pisze o tym: „...Podstawą innowacji w mojej pracy z taśmą byłametoda montażu, polegająca na takim przycinaniu materiału, które naruszałobynabrzmiewanie i wybrzmiewanie nagranych dźwięków. Przy tej metodzie udałomi się z jednej strony załagodzić czysto mechaniczne efekty elektroniczne, z dru-giej podkreślić specyficzne brzmienia poszczególnych dźwięków, a jednocześnieuzyskać kompletną transformację materiału pierwotnego” 26. Cage komponuje

 jeszcze w roku 1952 Williams Mix na taśmę, a każdy z członków grupy równieżco najmniej po jednym utworze.

Niezależnie od Cage’a i jego grupy, i niezależnie od tego, co działo się w tej

dziedzinie w Europie, inny kompozytor amerykański Vladimir Uss a c he v sk y,27

który pracując na Uniwersytecie Columbia otrzymał w tym czasie do dyspozy-cji magnetofon do nagrań koncertów studenckich, wpada na pomysł dogrywa-nia na taśmie kolejnych głosów improwizowanych na różnych instrumentachlub kolejno na tym samym instrumencie. Stosuje różne prędkości nagrywaniai odtwarzania oraz proste urządzenia do sztucznego echa przez sprzężenie. Popierwszym pokazie możliwości magnetofonu, który odbył się 9 V 1952 w McMil-lin Theatre na Uniwersytecie Columbia, Ussachevsky zyskuje niezwykle cennegowspółpracownika w osobie swego byłego nauczyciela. Jest nim Otto Luening, 28

25 Metodę I-Ching wykorzystywał Cage jeszcze kilkakrotnie, m.in. w  Music of Changes   i w zrealizo-wanej wspólnie z Lejarenem Hillerem kompozycji komputerowej HPSCHD.

26 Z notki do koncertu retrospektywnego Cage’a w 1959 r.; podaję za: H. Russcol,  The Liberation of Sound... Engelwood Cliffs (New Jersey) 1972.27 Vladimir Ussachevsky, ur. 1911 w rosyjskiej rodzinie w Hailar (Mandżuria). W 1930 przybywa doStanów Zjednoczonych, studiuje w Pomona College w Kalifornii, Eastman School of Music w Roche-ster i Columbia University w Nowym Jorku (kompozycję u Bernarda Rogersa i Ottona Lueninga). Od1947 jest pracownikiem wydziału muzycznego Columbia University. Do czasu swoich eksperymentówz magnetofonem był raczej kompozytorem konserwatywnym.

28 Otto Luening (czyt.: Luning), ur. 1900 k. Milwaukee (Wisconsin; nb. miał polskich przodków ze

strony matki), studiował w Monachium i Zurychu, potem jeszcze prywatnie w Berlinie u FerrucciaBusoniego. Zm. 1996 w Nowym Jorku. Występował jako flecista i dyrygent. W 1925 wrócił do StanówZjednoczonych. Dyrygował Rochester American Opera, uczył kolejno na kilku uniwersytetach (od1949 w Columbia University w Nowym Jorku).

28

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 29/381

Tape music w Stanach Zjednoczonych

doświadczony muzyk, który podobnie jak Ussachevsky porzuca dotychczasową— dość konserwatywną — działalność muzyczną, aby poświęcić się nowemumedium: muzyce na taśmie.

Latem i wczesną jesienią 1952 roku obaj komponują na prywatnie zgromadzo-

nym sprzęcie w domu Ussachevsky’ego i w prywatnym studiu, które oddaje imdo dyspozycji Henry Cowell w Woodstock koło Nowego Jorku. Działania ichcechuje duży pośpiech, gdyż nowe utwory mają być wykonane jeszcze w paź-dzierniku tegoż roku na koncercie sponsorowanym przez American ComposersAlliance i Broadcast Music Incorporation. Zapowiedziany koncert, który stał sięde facto uroczystą premierą muzyki na taśmę, odbył się 28 X 1952 w Museumof Modern Art w Nowym Jorku. Patronat nad imprezą objął Leopold Stokow-ski (niezmiennie zainteresowany nowościami w muzyce), który wygłosił do niejsłowo wstępne. W programie koncertu znalazły się następujące utwory: Vla-dimira Ussachevsky’ego  Sonic Contours, Ottona Lueninga  Invention on 12 Notes,Legend, Low Speed, Lyric Scene  i Moonlight.

Osobisty udział Stokowskiego zapewnił odpowiednią rangę koncertowi. Uka-zują się liczne, niektóre wręcz entuzjastyczne recenzje. „Tape music” staje sięmodnym zwrotem. Utwory Ussachevsky’ego i Lueninga nadawane są w progra-mach radiowych, demonstrowane wraz z omówieniami w programach telewi-zyjnych. „Historyczny koncert” z 28 X 1952 ukazuje się na płycie (Desto 6466).Ussachevsky zostaje też zaproszony przez RTF do Paryża z okazji „PremiereDecade Internationale de Musique Experimentale” (8–18 czerwca 1953), gdzieprzedstawia kompozycje swoje i Lueninga.

W prowizorycznym studiu na Uniwersytecie Columbia powstaje jeszcze kilkaprodukcji, m.in. muzyka teatralna Lueninga do  Króla Leara  w reżyserii OrsonaWellesa, Ussachevsky’ego Piece for tape recorder (1956) i wspólna kompozycja obukompozytorów A Poem in Cycles and Bells na taśmę i orkiestrę (1954). Mimo uży-tych nowych środków była to muzyka o wiele bardziej tradycyjna niż poczynaniaCage’a i kompozytorów z obu ośrodków europejskich.

Istotna zmiana nastąpiła dopiero w latach 1958–1960. Nieco wcześniej, w roku1955, firma RCA demonstruje niezwykły na owe czasy instrument RCA So-und Synthesizer, dzieło inżynierów Harry’ego Olsona i Herberta Belara, służącydo automatycznej produkcji sekwencji dźwięków elektronicznych. Po dłuższychstaraniach Uniwersytet Columbia i pobliski Uniwersytet Princeton, gdzie pra-cuje inny entuzjasta muzyki elektronicznej Milton Babbitt, 29 łączą swe wysiłkii w roku 1959 tworzą wspólny ośrodek Columbia-Princeton Electronic MusicCenter, dla którego uzyskują wysoką na owe czasy dotację z Fundacji Rocke-fellera (175 000 dolarów). Najpierw pożyczają, a potem zakupują nowy modelsyntezatora RCA Mark II Synthesizer. Zawiera on zestaw generatorów, filtrów,

29 Milton Babbitt, ur. 1916 w Filadelfii, miał równoległe wykształcenie matematyczne (University of Pensylvania) i muzyczne (University of New York). W kompozycji był uczniem Marion Bauer i Rogera

Sessionsa. Położył duże zasługi w teoretycznym opracowaniu „totalnego serializmu”. Zajmował sięnaukowo strukturą systemów muzycznych i muzyką jako rodzajem języka. Był jednym z propaga-torów muzyki Schonberga i Weberna w Ameryce. Od 1948 jest profesorem w Princeton University(tym samym, na którym fizykę wykładał A. Einstein).

29

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 30/381

Historia i rozwój

modulatorów, kształtowników obwiedni itp., a całość sterowana jest za pomocątaśmy perforowanej. Instrument ten nie przypomina jeszcze późniejszych synte-zatorów modularnych, jego urządzenia są lampowe i zajmują niemal cały pokój.

Kierownikiem połączonych studiów, które otrzymały wreszcie własne po-

mieszczenia w jednym z gmachów Columbii, zostaje Ussachevsky, a w składrady wchodzą Luening, Babbitt i Roger Sessions (1896–1985). Do studia za-praszani są nowi współpracownicy z różnych krajów, wśród nich Argentyńczyk,późniejszy kierownik studia, Mario D a v i d ov s ky (ur. 1934), Mushiko T oya maz Japonii, Bulent Arel (ur. 1919) z Turcji, Charles Wourinen (ur. 1938) z Nowego

 Jorku. Powstają dalsze utwory, niektóre „starymi metodami”, inne za pomocą no-wego syntezatora. Wymienimy tu najważniejsze: Miltona Babbitta Composition forSynthesizer (1961–1963), Ottona Lueninga  Gargoyles for Violin Solo and SynthesizedSound  (1961), Bulenta Arela  Stereo Electronic Music No. 1  (1960), Maria Davido-

vsky’ego Electronic Study No. 1 (1961), Edgara Varese’a D´ eserts, druga i ostatecznawersja taśmy (1960–1961).Również w kilku innych ośrodkach, głównie uniwersyteckich, powstają wa-

runki do tworzenia muzyki na taśmie. W Sausalito koło San Francisco pracujeHarry Partch nagrywając nowe utwory na zbudowanych przez siebie instrumen-tach o dźwięcznych nazwach: „harmonic canon”, „diamond marimba”, „spoil of war”, „zymo-xyl”30. Morton S u b ot ni c k (ur. 1933) tworzy małe centrum w SanFrancisco, Gordon Mum ma (ur. 1935) i Robert A s hl e y (ur. 1930) zakładają pry-watne studio w Ann Arbor w stanie Michigan. Istnieje też przez pewien czas

komercyjne studio Louis i Beebe Baron w Nowym Jorku, w którym produkujesię muzykę filmową (m.in. do filmów  Atlantis i  Forbidden Planet).Najważniejszym centrum pozanowojorskim staje się jednak pod koniec lat pięć-

dziesiątych Uniwersytet Illinois w Urbanie, a to dzięki pionierskim pracom Le- jarena Hillera nad zastosowaniem komputera w procesie komponowania i doprodukcji dźwięków syntetycznych 31. Najwcześniejszym owocem tych prac jestIlliac Suite for String Quartet (1957), pierwsza na świecie kompozycja komputerowazrealizowana przez Hillera przy współpracy matematyka Leonarda Isaacsona.

W latach pięćdziesiątych powstają też studia muzyki elektronicznej w Kana-

dzie: w Ottawie Elmus Laboratories (1954) i na Uniwersytecie w Toronto (1959).

30 Patrz także: J. Patkowski,  Harry Partch — nie znany kompozytor amerykański.  W: Horyzonty muzyki.PWM, Kraków 1970.

31 Lejaren A. Hiller, ur. 1924 w Nowym Jorku, studiował kompozycję w Princeton u M. Babbittai R. Sessionsa, głównym kierunkiem jego studiów była jednak chemia. Po uzyskaniu doktoratu w tejdziedzinie w 1947 pracował w instytucie naukowym koncernu DuPont, pisał artykuły i prace naukowez zakresu chemii. Na Uniwersytecie Illinois, pracując nadal jako chemik, miał dostęp do komputerai wtedy wpadł na pomysł wykorzystania go do generowania struktur muzycznych. W 1958 po uzyska-

niu stopnia magistra z muzyki założył Experimental Music Studio na tymże uniwersytecie, w którymprowadził dalsze prace komputerowo-muzyczne. Komponował też szereg utworów instrumentalnych.Od 1968 jest profesorem kompozycji i kierownikiem studia muzyki elektronicznej na UniwersytecieStanu Nowy Jork w Buffalo. Zmarł w 1993 w Buffalo (N. Jork).

30

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 31/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 32/381

Historia i rozwój

Studio mediolańskie wyposażone jest dość skromnie, ale ma atmosferę sprzy- jającą pracy twórczej. Różnice pomiędzy kolońską muzyką elektroniczną a pary-ską muzyką konkretną stają się tu nieistotne. Kompozytorzy korzystają na równiz elektronicznych i naturalnych źródeł dźwięku. Metody pracy cechuje duża

swoboda.Do najważniejszych kompozycji powstałych w tym studiu należą: L. BeriaTema (Omaggio a Joyce), powstałe z transformacji głosu Cathy Berberian czytają-cej w różnych językach fragmenty Ulissesa Joyce’a (1958), i B. Maderny Continuo,w sposób świadomy wykorzystujące możliwości tworzenia nieprzerwanych cią-gów dźwiękowych za pomocą aparatury elektronicznej.

Od roku 1960 czynnie współpracował ze studiem inny włoski awangardysta,Luigi N o no (1924–1990), który skomponował tam Omaggio a Emilio Vedova (1960)i realizował partie elektroniczne do kompozycji La Fabbrica illuminata na głos i ta-śmę (1964), oraz do szeregu następnych kompozycji. Ze studiem współpracowalirównież Niccolo Castiglioni (1932–1996), Aldo Clementi (ur. 1925) i AngeloPaccanini (ur. 1930).

W drugiej połowie lat pięćdziesiątych pewnego znaczenia nabiera studio Phi-lipsa w Eindhoven (Holandia); głównym kompozytorem był Henk Badings(1907–1987), który realizował w nim szereg kompozycji elektronicznych i instru-mentalno-elektronicznych. Najgłośniejszą z nich jest Kain i Abel — balet z muzykąna taśmie (1956). Kompozycję tę można by określić jako tradycyjnie instrumen-talną, gdyby nie fakt, że w całości złożona jest z dźwięków elektronicznych,a jej pozorna „tonalność” oparta jest na skali wynikającej z podziału oktawy

na 8 równych części. Drugą kompozycją, która utwierdziła renomę tego krótkoistniejącego studia (zlikwidowano je w 1960 r.) był   Poeme   ´ electronique   EdgaraVarese’a zamówiony przez Le Corbusiera do jego pawilonu na Wystawie Świa-towej w Brukseli w roku 195832. Ten zaledwie 8-minutowy utwór stał się naj-

 bardziej znaną kompozycją elektroniczną na świecie. W czasie trwania Wystawypowtarzany był kilkadziesiąt razy dziennie i usłyszało go ponad 2 miliony zwie-dzających. Niezwykłością wykonawczą tej muzyki, a jednocześnie spełnieniemdawnych marzeń Varese’a, była przestrzenna projekcja dźwiękowa. Muzyka do-chodziła do słuchaczy z ponad 400 głośników rozmieszczonych na łukach skle-

pienia pawilonu, a specjalnie skonstruowana i zaprogramowana aparatura po-wodowała złudzenie przemieszczania się dźwieku w przestrzeni, co podkreślane było dodatkowymi efektami świetlnymi.

W studiu w Eindhoven pracowało jeszcze kilku innych kompozytorów, m.in.Dick Ra a ij ma k e r s (ur. 1930) i Tom Di s s e ve lt.

W latach 1957–1959 w wyniku działalności stowarzyszenia pod nazwą Con-taktorgaan Elektronische Muziek (CEM) powstają dwa następne studia muzykielektronicznej — jedno na Uniwersytecie w Delft, a drugie w pomieszczeniachFundacji „Gaudeamus” w Bildhoven. Oba te studia stawiają sobie w pierwszym

32 Pawilon w kształcie jakby fantazyjnej muszli morskiej nosił nazwę „Po eme  electronique” i stano-wił reklamę firmy Philips. Właściwym autorem architektury pawilonu był, współpracujący wówczas blisko z Le Corbusierem, Iannis Xenakis (zob. s. 348–349).

32

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 33/381

Studio NHK w Tokio

rzędzie zadania dydaktyczne. Najważniejszym ośrodkiem muzyki elektronicznejw Holandii staje się jednak wkrótce Uniwersytet w Utrechcie.

Tu w roku 1960 zostaje oficjalnie otwarty Instituut voor Sonologie, któremu pozlikwidowaniu studia Philipsa w Eindhoven przekazana zostaje znaczna część

aparatury. Kierownictwo Instytutu obejmuje wychowanek szkoły kolońskiej Gott-fried Michael Koenig. Jego zainteresowania osobiste obracają się w kręgu tech-niki serialnej, teorii ogólnej kompozycji i zastosowań komputerów w muzyce.Dzięki jego staraniom, a także poparciu ze strony władz Uniwersytetu, studiow Utrechcie stało się wkrótce jednym z najlepiej wyposażonych studiów mu-zyki elektronicznej w Europie i zaczęło skupiać wybitnych muzyków i specja-listów od spraw komputerowych. Byli wśród nich Peter Schat (ur. 1935), TonB r u y n el (1934–1998, nb. posiadacz prywatnego studia elektronicznego), Ma-koto Shinohara (ur. 1931), Werner Kaegi (ur. 1926), Paul Berg (ur. 1949)i inni. W roku 1971 zainstalowano tu pierwszy komputer — PDP-15 i odtąd mu-zyka komputerowa zaczęła zajmować najważniejsze miejsce w pracach Instytutu,obok bardzo rozwiniętej działalności dydaktycznej. W roku 1996 studio zostajeprzeniesione do Królewskiego Konserwatorium Muzycznego w Hadze.

1.6. Studio NHK w Tokio

 Japonia jest właściwie jedynym krajem Dalekiego Wschodu, w którym od latuprawiana jest muzyka „zachodnia” obok kultywowanej nadal muzyki trady-cyjnej. To współistnienie dwóch kultur muzycznych wywiera oczywisty wpływtakże na kompozytorów japońskich, którzy tworząc w duchu zachodniej nowejmuzyki, nie stronią jednak od tradycji i potrafią nadać komponowanym przezsiebie utworom specyficzny, japoński charakter. Czasem ma to formę bezpośred-nich zapożyczeń w postaci włączania do europejskiego instrumentarium narodo-wych instrumentów muzycznych lub wykorzystywania tradycyjnych sposobówśpiewania i śpiewnej recytacji, innym razem osiągane jest to w sposób pośredniprzez tworzenie specyficznych struktur muzycznych budzących skojarzenia z tra-dycyjną muzyką japońską.

Ważnym wydarzeniem, które wpłynęło na rozwój nowej muzyki w Japonii, było powstanie w roku 1949 grupy Jikken Kobo (Warsztat Eksperymentalny),w skład której wchodzili kompozytorzy, poeci, malarze i ludzie techniki. Nic niewiedząc o działalności Pierre’a Schaeffera, dokonują własnych prób z muzykąna taśmie w połączeniu z muzyką instrumentalną i filmem. W grupie JikkenKobo działali m.in. Joji Yuasa (ur. 1929), Toru Takemitsu (1930–1996) i Ka-zuo Fukushima (ur. 1930). Pierwsze samodzielne kompozycje powstają w roku1952, początkowo — podobnie jak w Polsce — w studiach nie przeznaczonych

specjalnie do produkowania muzyki na taśmę (np. w studiu firmy Sony).W roku 1955 powstaje w Tokio pierwsze prawdziwe studio muzyki elek-

tronicznej, umiejscowione przy największej radiofonii japońskiej NHK (Nippon

333 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 34/381

Historia i rozwój

Hoso Kyokai). Pracom tego studia nadają kierunek dwaj kompozytorzy: ToshiroM a yu z u mi (1929–1997) i Makoto Mor o i (ur. 1930).

Pierwsza wspólna praca Mayuzumi i Moroi —  Wariacje na temat liczby 7 (1956)reprezentuje kierunek zbliżony do pierwszych kompozycji studia kolońskiego.

Ale już druga kompozycja Toshiro Mayuzumi Ai-No-Ue (1957) jest bardzo japoń-ska. Jest to rodzaj opery konkretnej, na wpół śpiewanej, na wpół recytowanej,w tradycyjnym stylu teatru no, na tle dźwięków elektronicznych o brzmieniachkojarzących się z dźwiękami tradycyjnych instrumentów japońskich. Inny wcze-sny utwór Mayuzumi  Campanology na samą taśmę (1959) związany jest równieżz brzmieniem instrumentów japońskich; jako materiał do tej kompozycji po-służyły nagrania słynnych dzwonów bonsho ze świątyń buddyjskich. Elementy

 buddyjskie i tradycyjnego teatru japońskiego znajdziemy w wielu innych kompo-zycjach elektronicznych z tego studia, np. Shinishi Matsushity  Czarny klasztorna głosy i taśmę (1959), Toru Takemitsu  Water Music  na taśmę i tancerza no

(1960), Makoto Moroi Trzy hymny (1965).Tej tendencji nie można jednak uogólniać. W studiu NHK w Tokio, podobnie

 jak i w innych licznie powstałych studiach elektronicznych w Japonii, zrealizo-wano wiele utworów, które z tradycją japońską jednak niewiele mają wspólnego.Przykładami ich mogą być: Toru Takemitsu Vocalism Ai (1960), Joji Yuasa Projec-tion Esemplastic (1964),33 Yori Aki Matsudaira (ur. 1931)  Transient ’64 i Assem-blages  (1968).

Z produkcji studia NHK, które przez długie lata odgrywać będzie wiodącąrolę w japońskiej muzyce elektronicznej, warto jeszcze wymienić kilka pozycji:

Akira Mioshi (ur. 1933) Ondine, Maki Ishii (ur. 1936) Kyo-o na zwielokrotnionyfortepian, orkiestrę i dźwięki elektroniczne (1968). W latach 1966–1967 w studiuNHK pracował Karlheinz Stockhausen. Powstały tu jego  Telemusik  i kilka wersjiutworu  Solo.

Spośród kompozytorów japońskich, którzy działają głównie poza granicamiswego kraju, muzykę elektroniczną tworzą Mushiko Toyama (zob. Tape musicw Stanach Zjednoczonych, s. 28) i Makoto Shinohara (ur. 1931), który działałw Paryżu (GRM), Berlinie Zachodnim i Utrechcie.

1.7. Studio Eksperymentalne Polskiego Radia w Warszawie

Początki muzyki elektronicznej w Polsce przyjęło się, nie bez racji, wiązaćz datą powstania Studia Eksperymentalnego Polskiego Radia w Warszawie. Stu-dio to zostało powołane do życia w listopadzie 1957 roku. Gotowe do rozpoczęciaprodukcji było w drugiej połowie 1958 roku.

 Jednak pierwsze w Polsce realizacje muzyki na taśmie, trzeba dodać, że tylkoilustracyjnej, powstały nieco wcześniej, bo wiosną i latem 1957 roku. Były to:

Andrzeja Markowskiego (1924–1986) muzyka do sztuki Goldoniego   Sługa

33 Partytura tego utworu ukazała się w wydawnictwie Petersa.

34

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 35/381

Studio Eksperymentalne Polskiego Radia w Warszawie

dwóch panów dla Teatru Ludowego w Nowej Hucie i Włodzimiera Koto ńs ki e go(ur. 1925) muzyka do filmu dokumentalnego Ryszarda Golca   Barwy radościi smutku. Obie zrealizowano bez specjalnej aparatury w normalnym studiu nagra-niowym Wytwórni Filmów Dokumentalnych w Warszawie przy współpracy ope-

ratorów dźwięku tej wytwórni Bohdana Jankowskiego i Zbigniewa Wolskiego. Jesienią 1957 i wiosną 1958 roku nadal w „zastępczym” studiu Wytwórni Fil-mów Dokumentalnych zrealizowano kilka następnych ilustracji muzycznych nataśmie, wśród nich kolażową kompozycję Andrzeja Markowskiego do filmu Ta-deusza Makarczyńskiego Życie jest piękne (Nagroda w Oberhausen w 1959), tegosamego kompozytora muzykę do filmu Jana Lenicy i Waleriana Borowczyka Był sobie raz, i muzykę Włodzimierza Kotońskiego do filmu trickowego Lenicy i Bo-rowczyka Dom  (główna nagroda na festiwalu w Brukseli w 1958). W ilustracjachtych wykorzystano przede wszystkim manipulacje taśmowe, sztuczny montaż,dodatkowy pogłos. Materiałem wyjściowym były nagrania instrumentalne i wo-kalne, chociaż w muzyce do filmu  Dom znalazły się również sekwencje opartena dźwiękach uzyskanych z generatorów 34.

Niezależnie od poczynań kompozytorów, próby z muzyką konkretną podejmo-wali akustycy i inżynierowie dźwięku. Owocem takiej działalności były np. dwieetiudy: Liryczna perkusja   i  Ostatni rytm, wspólnego autorstwa Andrzeja Rakow-skiego i Janusza Piechurskiego, zrealizowane na początku 1957 roku w studiunagraniowym warszawskiej PWSM i prezentowane kilkakrotnie na odczytachi wykładach.

Studio Eksperymentalne powstało dzięki przedsiębiorczości i energii młodego

muzykologa i akustyka Józefa Patkowskiego (ur. 1929), który sam zafascyno-wany nową dziedziną muzyki potrafił przekonać ówczesne kierownictwo Pol-skiego Radia, że na wzór radiofonii Paryża, Kolonii i Mediolanu również Pol-skie Radio w Warszawie powinno stać się ośrodkiem badań i eksperymentówz muzyką powstającą wprost na taśmie, a której przyszłość wiązać się będzieściśle z rozwojem szeroko pojętej sztuki radiofonicznej. Dotychczasowe próbyprzeprowadzane w nie przygotowanych do tego studiach wskazywały na zainte-resowanie polskich kompozytorów tą dziedziną muzyki i potwierdzały potrzebępowołania tego typu wyspecjalizowanej placówki.

Ówczesny prezes Radiokomitetu okazał się hojny i sfinansował Patkowskiemupodróż do Włoch, Szwajcarii, Francji i Niemiec Zachodnich dla zebrania do-świadczeń w istniejących już studiach muzyki elektronicznej i konkretnej, a takżedla prawidłowego zaprojektowania studia eksperymentalnego w Polskim Radiu.Podróż ta objęła Mediolan, Gravesano, Paryż i Kolonię. Zebrane doświadczeniazaczęto wcielać w życie. Studio miało być w założeniu uniwersalne, pozwalającena prace zarówno na materiale konkretnym, jak i elektronicznym. W odróżnie-niu od większości dotychczas istniejących placówek, studio to miało być otwarteszeroko dla wszystkich. Jego szef nie był kompozytorem i nie miał zamiaru nimzostać. Dla kompozytorów nie wprowadzonych w tę dziedzinę muzyki zapla-

34 Nagrań dźwięków elektronicznych do tego filmu dokonano dzięki uprzejmości inż. Witolda Stra-szewicza w Zakładzie Elektroakustyki Politechniki Warszawskiej.

353∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 36/381

Historia i rozwój

nowano przeprowadzenie kursów. Postanowiono też zapraszać kompozytorówzagranicznych.

W ciągu niecałego roku od daty powołania studia zdołano zgromadzić pod-stawowe wyposażenie: generator tonów prostych, generator impulsów prostokąt-

nych, oscylograf, uzupełniające się dwa filtry: górno- i dolnoprzepustowy (firmyRFT), dwa magnetofony Sander-Jansen typu SJ100K (produkcji NRD) używanewówczas jako sprzęt podstawowy w Polskim Radiu i prymitywną konsoletęmikserską krajowej produkcji z czterema tłumikami wyjściowymi. Oczywiściewszystko było przygotowane do pracy monofonicznej, na mocno szumiącej ta-śmie Agfa C przy prędkości przesuwu 76,2 cm/s, co było standardem radiowymw latach pięćdziesiątych 35. Wyposażenie to było nad wyraz skromne, ale pozwa-lało na rozpoczęcie działań muzycznych. Studio umieszczono w małym pokoiku,tzw. N-O, w budynku radiowym przy ulicy Malczewskiego. Kierownikiem tech-nicznym został młody elektronik, inż. Andrzej Owczarek. Jednak już po półroku na jego miejsce zaangażowano człowieka, który stał się współtwórcą Stu-dia Eksperymentalnego i który do dzisiaj sprawuje w nim funkcję naczelnegoinżyniera. Inż. Krzysztof Szlifirski (ur. 1934), bo o nim tu mowa, rozpocząłpracę w studiu 1 VII 1958 roku. W tym samym mniej więcej czasie współpra-cownikiem, a wkrótce potem stałym pracownikiem został technik elektronikiEugeniusz Rudnik (ur. 1933), później inżynier i kompozytor muzyki na taśmę.

Pierwszą produkcją nowego studia była ilustracja dźwiękowa do filmu animo-wanego Hanny Bielińskiej i Włodzimierza Haupego Albo rybka..., której kompozy-torem był Włodzimierz Kotoński. Surrealistyczny świat przedstawiony w obrazie

filmowym znalazł swój odpowiednik w stworzonym przez kompozytora surre-alistycznym świecie odgłosów, których suma tworzyła rodzaj metamuzyki. Byłato ilustracja integralna. Efekty naturalistyczne zastępowała w niej muzyka, naktórą składały się „nadnaturalne” efekty elektroakustyczne. Film został ukoń-czony w listopadzie 1958 roku. Praca nad nim, a ściślej — pewne przetworzenianagranego dźwięku talerza, zaowocowała pomysłem, który legł u podstaw pierw-szego autonomicznego utworu na taśmę powstałego w Polsce. Była to Etiuda kon-kretna (na jedno uderzenie w talerz), do realizacji której przystąpił Kotoński zaraz poukończeniu pracy nad filmem. Cały materiał wyjściowy tego utworu stanowiło

rzeczywiście tylko jedno, wybrane uderzenie miękką pałką w średniej wielko-ści talerz turecki. W odróżnieniu od przeważającej większości dotychczasowychutworów muzyki konkretnej, materiał ten został potraktowany w sposób bardzościsły, wzorowany na serialnych kompozycjach elektronicznych. Dźwięk talerzazostał sfiltrowany na sześć pasm o różnej szerokości i przetransponowany na

 jedenaście wysokości zgodnie z przyjętą skalą. Utworzono również specyficznąskalę czasów o jedenastu długościach trwania i sześciu sposobach artykulacji,wyrażającą się stosunkiem czasu trwania dźwięku do następującej po nim pauzyw ramach przypadającej dla tego dźwięku jednostki czasu, i odpowiadającą im

35 W Polsce standard ten przetrwał mniej więcej do roku 1970, kiedy to wraz z wprowadzeniemlepszych taśm magnetofonowych przestawiono się na powszechnie już na świecie stosowaną prędkość38,1 cm/s.

36

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 37/381

Studio Eksperymentalne Polskiego Radia w Warszawie

skalę dynamiczną mającą jedenaście stopni i sześć form obwiedni (trzy narasta- jące i trzy opadające). Całość skomponowana została zgodnie z regułami totalnejserializacji.

Etiuda konkretna  trwała tylko 2 minuty i 41 sekund. Stała się jednak ważnym

punktem wyjściowym dla rozwoju muzyki eksperymentalnej w Polsce. Była wy-konana na koncercie muzyki eksperymentalnej na „Warszawskiej Jesieni” w roku1960, a potem na festiwalach i koncertach nowej muzyki w wielu krajach. Do

 jej popularności przyczyniło się również wydanie przez PWM jej „partytury”(1963) pod skróconym tytułem  Etiuda na jedno uderzenie w talerz 36.

W czerwcu 1959 roku Studio Eksperymentalne zorganizowało zapowiadanewcześniej kursy wprowadzające w arkana techniki i technologii muzyki na ta-śmie, przeznaczone dla zainteresowanych tym tematem kompozytorów i radiow-ców. Odbyły się one w dniach 1–6 czerwca i nosiły tytuł  Seminarium zastosowa-nia techniki radiowej w realizacji kompozycji muzycznej. Wykładowcami obok obuszefów studia byli przedstawiciele techniki radiowej — Tadeusz Miszczak i Bo-lesław Urbański, akustyk — Witold Straszewicz oraz mający już wcześniejszedoświadczenia na tym polu kompozytorzy — A. Dobrowolski, W. Kotoński,A. Markowski, Z. Wiszniewski i zaproszony z Włoch Franco Evangelisti. Oma-wiano problemy techniczne, muzyczno-estetyczne i praktyczne problemy reali-zacji muzyki na taśmie. Seminarium wywołało duże zainteresowanie w polskimświecie muzycznym. Wśród uczestników znaleźli się kompozytorzy starszegoi młodego pokolenia. Niektórzy z nich (B. Schaeffer, Penderecki, Turski) stali siępotem współpracownikami Studia Eksperymentalnego. Było to bardzo ważne

i potrzebne przedsięwzięcie. Szkoda tylko, że w następnych latach nie doczekałosię kontynuacji.

W pierwszych latach istnienia Studia Eksperymentalnego czołową rolę odgry-wali czterej kompozytorzy. Obok autora Etiudy byli to Zbigniew Wi sz n i e w s ki(1922–2000), Andrzej Dobrowolski (1921–1990) i Bogusław Schaeffer (ur.1929). Ich działalność wytyczała kierunki rozwoju tej gałęzi muzyki w Polscew latach 1959–1970. Ważnym dla działalności studia był też epizod elektronicznyKrzysztofa Pe n de r e c ki e go (ur. 1933), który skomponował wprawdzie tylko je-den autonomiczny utwór na taśmę — Psalmus (1961), ale w Studiu Eksperymen-

talnym bywał częstym gościem z racji swej pracy nad ilustracjami muzycznymido filmów krótkometrażowych. Do muzyki filmowej ograniczył swą twórczośćelektroniczną Andrzej Markowski, znany dyrygent i propagator nowej muzykiw Polsce i na świecie; obok ilustracji do krótkich filmów zrealizował on w StudiuEksperymentalnym muzykę do kilku filmów fabularnych, w tym do filmu pol-sko-NRD-owskiej produkcji, typu science fiction,  Milcząca gwiazda  (w reż. KurtaMaetziga, wg opowiadania Stanisława Lema, 1959).

W latach tych powstaje szereg ważnych utworów. Kilka z nich omówimy bar-dziej szczegółowo.

36 Pierwsza wersja  Etiudy   ukończona w styczniu 1959, przewidująca różnice dynamiczne sięgające40 dB (wartości szczytowych), okazała się technicznie niezadowalająca. Druga i ostateczna wersjautworu z dynamiką ograniczoną do 30 dB została zrealizowana wiosną 1959.

37

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 38/381

Historia i rozwój

Zbigniewa Wiszniewskiego dB, Hz, s (decybel, herc, sekunda) powstał w roku1962 jako pierwszy autonomiczny utwór tego kompozytora na taśmę. Był tozarazem pierwszy całkowicie elektroniczny utwór zrealizowany w Polsce. Ter-min „elektroniczny” rozumiemy tu w znaczeniu historycznym, w odniesieniu

do utworów, których materiał wyjściowy ograniczał się wyłącznie do dźwiękówuzyskanych z generatorów. Koncepcja tej muzyki była zbliżona do kolońskichutworów elektronicznych. Trzy parametry: amplituda, częstotliwość i czas two-rzą struktury zgodne z przyjętą a priori konstrukcją serialną. Studio, a więcaparatura elektroakustyczna, przyrządy pomiarowe i taśma magnetofonowa, po-zwalają na zrealizowanie tej koncepcji z precyzją, nieosiągalną przy wykonywa-niu muzyki przez żywych wykonawców. Strona kolorystyczna odgrywa w tejkompozycji drugorzędną rolę.

Odwrotnie rzecz się miała we wspomnianym już utworze  Psalmus KrzysztofaPendereckiego. Element kolorystyki i poszukiwanie nowych walorów sonory-stycznych stały się głównym przedmiotem zainteresowania kompozytora. Ma-teriał wyjściowy stanowią tu wyłącznie dźwięki wokalne: śpiewane lub wyma-wiane przez głos męski (baryton) osobne samogłoski i spółgłoski. Przeciwstwianesą sobie dźwięki długie (wymawiane i śpiewane samogłoski) i dźwięki bardzokrótkie o charakterze impulsowym (wymawiane spółgłoski p, t, b, d, k). Pośredniąpozycję zajmują spółgłoski szeleszczące i świszczące (sz, s, ź). Utwór powstawałw sposób spontaniczny. Rysowana robocza „partytura” służyła tylko do ułatwie-nia montażu i synchronizacji poszczególnych warstw na taśmie. Dźwięki wokalnepozostały mało odkształcone. Zastosowano jednak szereg operacji typowych dla

muzyki konkretnej, jak montaż, transpozycję, filtrowanie i pogłos.W powyżej omawianych utworach mieliśmy do czynienia z materiałem jedno-rodnym (talerz, proste tony elektroniczne, dźwięki wokalne). Andrzej Dobrowol-ski w swojej Muzyce na taśmę nr 1   (1962) przyjął jednolitą metodę transformacjii „przystosowania” dźwięków, ale dla uzyskania materiału wyjściowego wyko-rzystał cztery różne źródła; wielotony z generatorów elektronicznych, akordyfortepianowe, dźwięki śpiewane i dźwięki uzyskiwane z rezonansu strun forte-pianowych przy wykrzykiwaniu do pudła fortepianu pojedynczych samogłosek(przy naciśniętym pedale). Dla tak uzyskanych dźwięków posłużył się kompo-zytor jednolitą skalą wysokościową wynikającą z podziału małej decymy na 12równych części, przyjął też jednolitą skalę dynamiczną i czasową. Mimo różno-rodnego materiału wyjściowego kompozycja charakteryzuje się jednolitym, bar-dzo „elektronicznym” brzmieniem. Partytura tego utworu, zawierająca objaśnie-nia sposobu realizacji poszczególnych bloków dźwiękowych i graficzny obrazkompozycji, została wydana drukiem przez PWM w roku 1964.

W roku 1963 powstają  Mikrostruktury   Włodzimierza Kotońskiego. Materiałutworu stanowią twory dźwiękowe przedstawiające różne stadia przejściowe po-między gęstymi strukturami, w których poszczególne dźwięki są jeszcze rozróż-nialne słuchowo, a dźwiękami ciągłymi o strukturze „ziarnistej”. Większość tych

dźwięków wyprodukowana została w sposób sztuczny na zasadzie tworzeniaaleatorycznych „chmur dźwiękowych”. Materiałem wyjściowym były nagraniapodobnych do siebie uderzeń w szkło, drewno i przedmioty metalowe. Jedno-

38

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 39/381

Studio Eksperymentalne Polskiego Radia w Warszawie

rodny, ale nie identyczny materiał, np. różne uderzenia w szkło, był wycinanyz taśmy w postaci centymetrowych, ale nierównych odcinków zawierających ataki część wybrzmienia nagranych uderzeń. Urywki te były mieszane i sklejanew sekwencje w przypadkowych układach. Sekwencje te były następnie powie-

lane, skracane również w sposób przypadkowy i sklejane w pętle o nierównejdługości. Sekwencje z pętli były zgrywane po 4 do 8 na jedną warstwę i w tensposób powstawała „mikrostruktura” — twór dźwiękowy o jednorodnej zawar-tości i dużej gęstości, rodzaj „chmury dźwiękowej” zawierającej od kilkunastu dokilkudziesięciu „zdarzeń” na sekundę. Wyselekcjonowane „chmury dźwiękowe”

 były jeszcze transponowane na różne wysokości i formowane dynamicznie zgod-nie z zamieszczonymi w „partyturze” wykresami. Kompozycja nie była jednakwynikiem z góry powziętej koncepcji, lecz rezultatem ogromnej ilości ekspery-mentów sprawdzanych słuchowo i komponowania przebiegów sonorystycznychw sposób spontaniczny.

Inną oryginalną koncepcją była Bogusława Schaeffera Symfonia na taśmę (1966).Ten szczególny eksperyment, podjęty bodajże po raz pierwszy w muzyce elek-tronicznej, polegał na skomponowaniu całego utworu bez autorskiej realizacji.Wynikiem pracy kompozytora był diagram przedstawiający za pomocą umow-nych znaków i linii układy wysokościowe i gęstościowe w czasie oraz mniejlub bardziej szczegółowy opis procedur służących do zrealizowania rysowanychw diagramie struktur. Miało to zastępować tradycyjną partyturę, według którejutwór mógł być następnie wykonany, tak jak wykonuje się muzykę instrumen-talną. Z założenia, realizatorem partytury miał być nie kompozytor, ale muzyk

wykonawca, który wobec zapisu miał spełniać funkcję podobną do pianisty in-terpretującego utwór zanotowany graficznie. Miał być więc w pewnym stopniuwspółtwórcą powstającego dzieła, a właściwie jednej z możliwych wersji dzieła.Kompozytor pozostawiał bowiem realizatorowi duży margines interpretacji zapi-sanego utworu. Nie mógł to być zatem wykonawca przypadkowy, ale realizatorznający tajniki „kuchni” elektronicznej, a jednocześnie muzyk świadomy wy-konywanego przez siebie zadania. Takim idealnym wprost wykonawcą utworuSchaeffera okazał się Bohdan Mazurek (ur. 1937), absolwent wydziału reżyseriidźwięku warszawskiej PWSM, który rozpoczął pracę w Studiu Eksperymental-nym w połowie 1962 roku i w trakcie powstawania  Symfonii  miał już za sobąwspółpracę przy wielu realizacjach elektronicznych z takimi kompozytorami jakWiszniewski, Sikorski, Kotoński oraz właśnie Bogusław Schaeffer.

Schaeffer oddał „partyturę”   Symfonii   Mazurkowi i przestał interesować sięutworem. Przyjechał dopiero na końcowe zgranie. Utwór zawdzięcza więc całąkonkretną postać dźwiękową pomysłowości i wyobraźni realizatora-wykonawcy,Bohdana Mazurka. Nie można wykluczyć, że samodzielna realizacja dużegodzieła elektronicznego stała się dla tego młodego reżysera dźwięku poważnym

 bodźcem do rozpoczęcia własnej działalności kompozytorskiej na tym polu.Symfonia Schaeffera jest największym rozmiarami utworem pierwszego okresu

muzyki elektronicznej w Polsce, okresu pionierskiego, zaskakującego niezwy-kłymi pomysłami i obfitującego w utwory ważkie, o znaczeniu wykraczającympoza krąg muzyki polskiej. Symfonia składa się z 4 kontrastujących ze sobą części

39

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 40/381

Historia i rozwój

i trwa około 20 minut. Materiałem wyjściowym mają być, zgodnie z życzeniemkompozytora, przede wszystkim dźwięki ze źródeł elektronicznych, chociaż ko-mentarz autorski mówiący o różnych sposobach „uderzeń” nie wyklucza dźwię-ków konkretnych. W części czwartej kompozytor wskazuje na konieczność użycia

dźwięków fortepianu i pizzicato skrzypiec. Więcej szczegółów na ten temat znaj-dzie czytelnik w drukowanej partyturze  Symfonii Schaeffera37.W tym czasie Studio Eksperymentalne Polskiego Radia rozszerzyło swój stan

posiadania. W roku 1963 przeniesione zostało do nowego pomieszczenia w tymsamym budynku, zaprojektowanego tym razem specjalnie dla potrzeb studiaprzez znanego architekta polskiego Oskara Hansena. Otrzymało nowoczesnąkonsoletę stereofoniczną z 8 wejściami i 2 wyjściami (EMT produkcji RFN), 3nowe magnetofony stereofoniczne firmy Telefunken i szereg drobnych, ale bardzopotrzebnych urządzeń elektronicznych. Zaangażowany w roku 1965 kierownikpracowni technicznej inż. Wojciech Makowski wspólnie z Krzysztofem Szlifir-

skim konstruują szereg urządzeń specjalnych i przystosowują układ krosownicdo potrzeb pracy nad przekształcaniem i syntezą dźwięku. Studio Eksperymen-talne uzyskuje też stałe połączenie z jednym ze studiów nagraniowych PolskiegoRadia, w którym mogą odbywać się nagrania materiałów mikrofonowych z re-

 jestracją bezpośrednio na magnetofonach w studiu macierzystym, i gdzie odby-wają się przesłuchania gotowych utworów, a także dzieł powstałych w innychośrodkach. Pierwszą kompozycją zrealizowaną w nowym pomieszczeniu były Mikrostruktury W. Kotońskiego. Od nich też zaczęła się regularna produkcja ste-reofoniczna Studia Eksperymentalnego38.

Obok omówionych utworów do roku 1970 powstaje w studiu warszawskimszereg innych utworów na taśmę solo i na instrumenty i taśmę. Wymienimy tunajważniejsze:

Andrzeja Dobrowolskiego  Passacaglia na 40 z 5   (1959),  Muzyka na taśmę i obójsolo (1965), Muzyka na smyczki, 2 grupy instrumentów dętych i 2 głośniki  (1966);

Zbigniewa Wiszniewskiego 3 postludia elektroniczne  (1962), Burleska (1963);Tomasza Sikorskiego (1939–1988)  Echa II  na 2, 3 lub 4 fortepiany, perkusję

i taśmę (pierwszy utwór instrumentalno-elektroniczny zrealizowany w StudiuEksperymentalnym, 1963),  Antyfony  na sopran, fortepian, róg, dzwony, 4 gongi

i taśmę (1963);Eugeniusza Rudnika  Lekcja  (1965),  Kolaż  (1965),  Dixi  (1967) — III nagroda nai Międzynarodowym Konkursie Muzyki Elektronicznej w Darthmouth;

Bogusława Schaeffera Assemblage (1965), Monodram (opera radiowa do tekstówgreckich Yannisa Ristosa i J. Seferisa, 1968), Koncert na taśmę (1968), ES Jazz (1969)i Heraklitiana na solo i taśmę dla 12 alternatywnych wykonawców (1970);

Włodzimierza Kotońskiego AELA (1970).

Bohdan Mazurek, dotychczas działający jako realizator dzieł innych kompo-zytorów, rozpoczyna długą serię własnych kompozycji elektronicznych utworem

37 PWM, Kraków 1968, wyd. II 1973.38 Wcześniejszy, stereofonicznie zrealizowany  Psalmus  Pendereckiego był zgrywany poza StudiemEksperymentalnym.

40

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 41/381

Studio Eksperymentalne Polskiego Radia w Warszawie

na taśmę Esperienza (1967), po której następują:  Epitafium (1969) i Sinfonia rustica(1970). W latach 1971–1982 komponuje Mazurek dalszych 12 utworów, stając sięobok Rudnika najpłodniejszym autorem muzyki na taśmie w Polsce. Obaj są,

 jak dotąd, jedynymi w Polsce kompozytorami tworzącymi wyłącznie muzykę

elektroniczną.Studio Eksperymentalne zaprasza też systematycznie kompozytorów zagra-nicznych. Pierwsze wizyty składają Franco Evangelisti z Włoch w roku 1959i Roland Kayn (ur. 1933) z RFN w roku 1961; ich próby nie zostają jednakzakończone konkretnymi utworami. Owocną jest natomiast wizyta francuskiegokompozytora Francois-Bernarda Mache’a w roku 1966, której wynikiem jest re-alizacja kompozycji  Nuit blanche  na recytatora i taśmę (tekst francuski: AntoninArtaud). Studenci-stażyści ze Stanów Zjednoczonych wizytujący studio w latach1966 i 1967 pozostawiają dwa utwory: Arthur Maddox  Hi-Lo Joy Honk   i Philip

Warren Polish Wedding Music.Duże znaczenie dla studia ma pobyt w roku 1969 kompozytora norweskiego

Arnego Nordheima (ur. 1931). Powstały w Warszawie Solitaire jest jedną z naj-wybitniejszych pozycji zrealizowanych w Studiu Eksperymentalnym w omawia-nym okresie. Nordheim odwiedzać będzie studio warszawskie jeszcze kilkakrot-nie, realizując tu (zawsze przy współpracy Eugeniusza Rudnika) wszystkie swojeważniejsze utwory na taśmę i na instrumenty.

W okresie późniejszym w Studiu Eksperymentalnym realizować będą swojeutwory tacy kompozytorzy zagraniczni jak Herbert Brun (USA), Lejaren A. Hiller

(USA), Heinz-Paul Dietrich (NRD), Wilhelm Zobl (Austria), Dennis Eberhard(USA), Tamas Ungvary (Szwecja), Bengt Emil Janson (Szwecja), Nigel Osborne(Wlk. Brytania), Roman Berger (Czechosłowacja), Vittorio Gelmetti (Włochy).

Około roku 1970 Studio Eksperymentalne zaczyna powoli przestawiać się naukłady sterowane napięciem. W roku 1970 zakupiony został syntezator Moo-ga (niestety mocno niekompletny), w roku 1973 zaś przenośny syntezator Syn-thi AKS. Wraz z posiadanymi już i systematycznie rozwijanymi urządzeniamitradycyjnymi i dostosowaną do potrzeb tego rodzaju pracy konsoletą ze zdal-nym sterowaniem funkcji wszystkich magnetofonów, warszawskie studio oferuje

w tym czasie wysoki standard techniczny. Niestety lata następne nie są równieprzychylne dla technicznego rozwoju tej placówki. Są kłopoty z wprowadze-niem stosowanej wówczas powszechnie w świecie kwadrofonii. Dopiero w roku1980 studio wchodzi w posiadanie 16-śladowego magnetofonu firmy 3M (USA)i otrzymuje polską konsoletę nowej generacji (Fonia typ SM 131) z szesnastomatłumikami wejściowymi sterowanymi napięciem i trzema regulatorami grupo-wymi. Niestety pozostałe urządzenia są już w tym czasie mocno przestarzałei studio praktycznie wymaga kompletnej renowacji.

W latach siedemdziesiątych i na początku osiemdziesiątych pojawia się w Stu-

diu Eksperymentalnym grupa młodych kompozytorów polskich. Są to wycho-wankowie warszawskiej PWSM (obecnie Akademii Muzycznej), w której od roku1967 prowadzony jest dwuletni kurs muzyki elektronicznej obowiązujący wszyst-

41

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 42/381

Historia i rozwój

kich studentów kompozycji,39 i gdzie funkcjonuje dość prymitywnie wyposażonestudio dydaktyczne. Elżbieta Sikora (ur. 1948), mająca również doświadczenia zestudia GRM w Paryżu, realizuje w Studiu Eksperymentalnym Widok z okna (1971),Podróż II   (1975) i  Listy do M.   (1980); Krzysztof Knittel (ur. 1948)  Punkty/Linie

na klarnet, taśmę i slajdy (1973),  Robaka zwycięzcę  (1976),  Gl ¨ uckspavillon dla Kasi(1977) i   Norcet   (1980); Paweł Szymański (ur. 1954)   La folia   (1979) i   Pod ja-worem... (1980); Andrzej Bieżan (1945–1983)   Poligamię   (wspólnie z K. Knittlem,1979), Miecz Archanioła (1980) i Isn’t it? (1981–1983); Jan Oleszkowicz (ur. 1947)Spazm   (1981); Krzysztof Baculewski (ur. 1950)  Quartier Latin  (1981). Działajątu również wychowankowie Akademii Muzycznej w Krakowie, posiadającej odroku 1973 własne studio muzyki elektronicznej: 40 Ryszard Sz e r e me ta (ur. 1952)realizuje w Warszawie   Omaggio all’ Anonimo   wspólnie z E. Rudnikiem (1979),Punkty I   i  Punkty II   (1980), a Marek Chołoniewski (ur. 1953)   Proces   (dla K.)(1980). W późniejszych latach powstało szereg dalszych utworów, z których wartowymienić: Anny Zawadzkiej  Girare  na perkusję i taśmę (1986), Edwarda Sielic-kiego (ur. 1956) Paralipomenon (1988), Jarosława Kapuścińskiego (ur. 1964) Chaga-liana I  na skrzypce, syntezator i taśmę (1990), Włodzimierza Kotońskiego  Tierracaliente (1992), Jacka Grudnia (ur. 1961)  Tritinos  na klawesyn i taśmę (1995), Ja-rosława Siwińskiego (ur. 1964)  Notarimbalo   na klawesyn i taśmę (1995), Tade-usza Wieleckiego (ur. 1954)  Poemat egocentryczny na fort. amplif. i taśmę (1995),Pawła Mykietyna (ur. 1971) Epiphora na fort. i taśmę (1996), Bartłomieja Gliniaka(ur. 1973) Neumo progremodum (1994) i El-sonobis (1997) oraz Magdaleny DługoszPatian (1997).

Pewną specyfiką Studia Eksperymentalnego w Warszawie, nie znaną więk-szości tego typu placówek na świecie, jest pozycja tzw. realizatora muzycznego.Wymieniany on jest w spisach kompozycji i przy publicznych wykonaniach ta-śmy obok nazwiska kompozytora. Wzięło się to chyba stąd, że dwaj głównirealizatorzy studia, Eugeniusz Rudnik i Bohdan Mazurek, mieli od początkuswej pracy zacięcie kompozytorskie (co zaowocowało później szeregiem kom-pozycji własnych). Wobec słabej orientacji technicznej niektórych kompozytorów(szczególnie w początkowym okresie) służyli oni nie tylko pomocą techniczną,ale stawali się rzeczywistymi wykonawcami często niezbyt dokładnie sprecyzo-

wanych pomysłów kompozytorskich, a zdarzało się, że i cichymi współautoramidzieła41. W ostatnich latach problem ten stracił znacznie na ostrości. Młode po-kolenie kompozytorów ma na ogół dobre przygotowanie do samodzielnej pracyw studiu i stała współpraca realizatora staje się nieraz zbędna. Tym niemniejwielu kompozytorów nadal z takiej współpracy korzysta. W studiu nie wszystkodaje się zrobić samemu. Czasami potrzebne jest działanie „na cztery ręce”. In-nym razem otrzymanie zaplanowanej przez kompozytora struktury dźwiękowej

39 Kurs „muzyki na taśmę” prowadził od 1967 autor niniejszej książki, przy współpracy asystenckiejpoczątkowo Eugeniusza Rudnika, potem Bohdana Mazurka. Od 1996 Krzysztof Czaja.

40 Kierownikiem tej placówki jest Józef Patkowski.

41 Bohdan Mazurek, Realizacja muzyki eksperymentalnej. «Forum Musicum» nr 2, PWM, Kraków 1968.

42

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 43/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 44/381

Historia i rozwój

Na czele nowej GRM staje oczywiście Pierre Schaeffer. Pojawia się nowa ge-neracja kompozytorów. Na początku Luc F e r r a r i (ur. 1929), Francois-BernardM ache (ur. 1935), Mireille Chamass-Kyrou (ur. 1931), którzy stanowią trzonGrupy. Współpracują z nimi Andre Boucourechliev (Texte II , 1959) i Iannis

X e n a ki s (ur. 1922) (Diamorphoses, 1957 i Orient-Occident, 1960). Pierre Schaeffertworzy nową serię etiud ( ´ Etiude aux allures,   ´ Etiude aux sons anim´ ees,   ´ Etiude auxobjets, 1958–1959) i zaczyna pracować nad dziełem swego życia — ogromnymTraktatem o przedmiotach muzycznych44. w roku 1960 GRM otwiera swoje studiadla młodych adeptów. Organizuje tzw. „staże”. Wraz z pierwszym stażem doGRM przychodzi wielu utalentowanych kompozytorów, z których kilku zostajena stałe. Są to między innymi Francois Ba yl e (ur. 1932), Bernard P a r me gi a ni(ur. 1927), Philippe Carson (ur. 1936), Chorwat Ivo Malec (ur. 1925) i Argen-tyńczyk Edgardo Canton (ur. 1934). Jednym z ważniejszych, choć niezupełnieudanych przedsięwzięć Grupy staje się  Concert Collectif   (pierwsza wersja 1962,

druga 1963). Członkowie studia włączeni są do prac badawczych związanychz teorią przedmiotów dźwiękowych i muzycznych Schaeffera. Pierre Schaeffer,który od roku 1960 jest szefem Service de la Recherche radia ORTF, w składktórej wchodzi GRM, w roku 1966 powierza kierownictwo Groupe de Recher-ches Musicales młodemu Francois’owi Bayle’owi. Dwa lata później staje się rzeczniezwykła. Paryskie Conservatoire, jedna z najbardziej konserwatywnych insty-tucji muzycznych Paryża, powołuje Pierre’a Schaeffera na stanowisko profesorapowierzając mu utworzenie klasy muzyki eksperymentalnej pod zawiłą nazwą:Classe de musique fondmentale et appliquee  a l’audiovisuelle. Jest to zarazem

akt nobilitacji muzyki konkretnej. W ramach swoich wykładów Schaeffer roz-wija główne tezy zawarte w swoim Traktacie. Jego asystentem zostaje Guy Reibel(ur. 1936), nowy członek GRM i współautor uzupełniającego  Traktat  dziełka za-wierającego tekst i 4 płyty 45.

GRM rozwija systematyczną akcję koncertową i popularyzacyjną. W 1970 rokuw jednym z pomieszczeń zainstalowana zostaje aparatura umożliwiająca pracęz dźwiękami pochodzenia elektronicznego (zestaw 20 generatorów, szereg modu-łów syntezatora Mooga itd.). Nadal jednak zgodnie z tradycją Grupy głównymźródłem materiałowym dla kompozycji tu powstających są dźwięki naturalne(konkretne), a główną metodą pracy eksperymentowanie z dźwiękiem.

Spośród kilkuset etiud, niewielkich utworów i dzieł większego formatu po-wstałych w ciągu ponad 40 lat istnienia tego ośrodka wymienimy kilkanaście,które odegrały ważną rolę w rozwoju tego gatunku i weszły na stałe do repertu-aru muzyki elektronicznej: Francois Bayle — Espaces inhabitables (1967), Trois rˆ evesd’oiseau (1971), L’exp´ erience acoustique (1970–1973); Edgardo Canton — Voies Inou¨ ıes(1965); Luc Ferrari —   Visage V   (1958–1959),   Tautologos II   (1961),   H   et´ erozygote(1963–1964); Francois-Bernard Mache — Terre du feu (1963), Rituel d’Oubli (1969);Ivo Malec —   Dahovi I et II   (1961),   Cantate pour elle   na sopran, harfę i taśmę(1966); Bernard Parmegiani —  Violostries na skrzypce i taśmę (1963–1964),  Jazzex

44 Trait´ e des objets musicaux.  Editions du Seuil, Paryż 1966. Główne tezy tego traktatu omówionezostały w rozdziale 2.10.45 Solf ege de l’objet sonore.  Editions du Seuil, Paryż 1967.

44

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 45/381

Dalsze losy muzyki konkretnej we Francji

I et II   na taśmę i kwartet jazzowy (1966),  L’oeil   ´ ecoute   (1970),  De natura sono-rum   (1974–1975); Guy Reibel —  Variations en   ´ etoile  na taśmę i perkusję ad lib.(1967),  Rabelais en liesse, opera na głosy, instrumenty, syntezator i taśmę (1974);Michel Chion — Requiem (1973); Beatriz Ferreyra — M´ edisances (1968). Z nielicz-

nych utworów Pierre’a Schaeffera powstałych po 1960 roku, odkąd poświęcił sięgłównie pracom teoretycznym i dydaktycznym, należy wymienić  Phedre   (1961)i Triedre fertile (1975). Autor niniejszej książki zrealizował w studio GRM Euridice(1970); była to pierwsza kompozycja zrealizowana w tym studiu na materialecałkowicie elektronicznym. W „stażach” organizowanych przez GRM w latachsześćdziesiątych i siedemdziesiątych brało udział również wielu młodych kom-pozytorów polskich (Joanna Bruzdowicz, Elżbieta Sikora, Krzysztof Baculewski,Marta Ptaszyńska i in.).

Ostatnimi nowościami tego najstarszego na świecie, a jednocześnie najbardziejżywotnego ośrodka muzyki elektroakustycznej (tego terminu używa się teraz weFrancji) są: „orkiestra głośników”, czyli „acousmonium” (wg projektu FrancoisBayle’a) i zainteresowanie Grupy muzyką komputerową (Jean-Francois Allouisi Pierre-Allain Jaffrenou), które doprowadziło do zainstalowania w studiu kom-putera (1976).

Ze względu na ogromny zakres swojej działalności obejmującej produkcję,dydaktykę, badania naukowe, stałe publikacje, organizowanie serii koncertówi konferencji międzynarodowych, współpracę z filmem i telewizją itd., paryskaGroupe de Recherches Musicales, wchodząca obecnie w skład Institut Nationalde l’Audiovisuel (INA), pozostaje do dzisiaj najważniejszym centrum muzyki

elektronicznej we Francji.Obok niej powstał szereg innych ośrodków w Paryżu i na prowincji. Do naj-ważniejszych z nich trzeba zaliczyć Centre International de Recherche Musicalezałożony w Paryżu w 1968 roku (Jean-Etienne Marie i Fernand Vandenbogaerde,później Jean-Claude Risset), Groupe de Musique Experimentale de Marseille(Pierre Barbizet i Marcel Fremiont) i najważniejszą poza Paryżem Groupe deMusique Experimentale de Bourges (w skrócie GMEB). Powstała ona w roku1970 dzięki aktywności dwojga byłych stażystów GRM — Francoise B a r r i e r e(ur. 1944) i Christiana Cloziera (ur. 1944), w oparciu o miejscowy Dom Kul-tury i państwową subwencję. Szczególną pozycję, jaką zyskała we Francji i naświecie, zawdzięcza GMEB nie tyle samej produkcji, ile niezwykle żywej i róż-norodnej działalności muzycznej. W Bourges odbywają się corocznie organizo-wane przez GMEB festiwale muzyki eksperymentalnej (Dans Bourges Ancien laMusique Nouvelle, od roku 1988 „Synthese”), przedstawiające muzykę elektro-niczną i połączenia form elektronicznych z audiowizualnymi (widowiska plene-rowe, spektakle teatralno-muzyczne,   live electronic   itp.). Z festiwalami związanesą konferencje „Journees d’Etudes Internationales de Musique Electroacoustique”skupiające wybitnych specjalistów w tej dziedzinie — kompozytorów, muzyko-logów, organizatorów i krytyków. Organizowane są coroczne Międzynarodowe

Konkursy Muzyki Elektroakustycznej (kilkakrotnie nagradzani byli w nich Po-lacy: E. Rudnik, B. Mazurek, R. Szeremeta, W. Kotoński). Prowadzone są eks-perymenty z umuzykalnianiem dzieci poprzez ich aktywny udział w tworzeniu

45

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 46/381

Historia i rozwój

struktur elektronicznych, zabawach w „collage” konkretnego materiału itp. Skon-struowano do tego celu specjalne aparaty-instrumenty — GMEBOGOSSE. Obokobojga szefów stałymi współpracownikami studia i Grupy są: Alain Savouret(ur. 1942), autor   Tanga   (1971) i  Sonate Baroque   (1975), Pierre Boeswillwald

(ur. 1934) i Roger Cochini (ur. 1945). Zapraszani są też liczni kompozytorzyz zagranicy, jak Coriun Aharonian (Urugwaj), Dieter Kaufmann (Austria), ZoltanPongracz (Węgry), Jon Appleton (USA). Z Polaków — Elżbieta Sikora, EugeniuszRudnik i autor niniejszej książki.

I wreszcie IRCAM (Institut de Recherche et de Coordination Acoustique-Musi-que) powstały w 1977 roku i usytuowany w nowo wybudowanym Centre Pompi-dou, w tzw. Petit Beaubourg w Paryżu, którego kierownictwo objął po powrociez wieloletniego pobytu w Ameryce Pierre Boulez. Działalność IRCAM-u nasta-wiona jest tylko częściowo na muzykę elektroniczną. Większe zainteresowanieBouleza i jego głównych współpracowników budzi, jak się wydaje, szerzej pojęta

„muzyka eksperymentalna”, obejmująca z jednej strony zastosowanie kompute-rów do tworzenia i interpretowania muzyki, a z drugiej eksperymenty z głosemi instrumentami muzycznymi z użyciem lub bez używania aparatury elektroaku-stycznej. Szeroki zakres zadań, jaki postawili przed sobą organizatorzy finanso-wanego suto przez rząd francuski IRCAM-u, obejmujący produkcje elektronicznei komputerowe, prace naukowe, akcje koncertowe, wydawnictwa, a także tenden-cja „otwarcia na świat” przez skupianie wokół tej instytucji wybitnych specjali-stów także spoza Francji (Luciano Berio, Jean-Claude Risset, Max Mathews, VinkoGlobokar), oparta o szeroką akcję stypendiowania artystów i naukowców, spra-

wiają, że IRCAM staje się jednym z najbardziej liczących się ośrodków muzykieksperymentalnej w Europie.

1.9. Dalsze drogi rozwoju muzyki elektronicznej na świecie

 Jest rzeczą oczywistą, że tak skrótowy przegląd historii muzyki elektronicznej, jaki prezentujemy w tej pracy, nie pozwala ani na uwzględnienie wszystkich

liczących się w tej dziedzinie kompozytorów, ani na wymienienie chociażby naj-ważniejszych utworów powstałych w licznych studiach muzyki elektronicznej naświecie. W dotychczasowych omówieniach ograniczyliśmy się do samych począt-ków, przedstawiając najpierw uwarunkowania, prekursorów, a następnie kilkanajważniejszych naszym zdaniem ośrodków, których działalność dała począteknowej dziedzinie muzyki i przyczyniła się do wprowadzenia jej do obiegu współ-czesnego życia muzycznego. Dalszy rozwój muzyki elektronicznej spróbujemyprzedstawić nie przez omawianie kolejnych studiów, lecz problemowo, zwraca-

 jąc uwagę na powstające w jej ramach różnicowanie się i kształtowanie pewnychtendencji, szczególnie wyraźnie rysujących się po roku 1960.

Wyróżnimy najpierw tendencje do różnego sposobu wykorzystywania dźwię-ku syntetycznego i dźwięku przetworzonego elektronicznie w zależności od wy-

 branego przez kompozytora sposobu prezentowania utworu. Będą to:

46

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 47/381

Dalsze drogi rozwoju muzyki elektronicznej na świecie

1. muzyka na taśmę solo — produkowana w całości w studiu, a prezen-towana na koncertach publicznych z reguły poprzez projekcję wielokanałową,regulowaną na żywo z sali;

2. muzyka na taśmę i żywych wykonawców (elektroniczno-instrumentalna lub

elektroniczno-wokalna); taśma przygotowywana jest w studiu, synchronizacjai wyważanie dynamiczne pomiędzy muzyką z taśmy i muzyką wykonywaną nażywo następuje w trakcie wykonania w sali koncertowej;

3. muzyka elektroniczna na żywo (ang. live electronic music) — poddane wcze-śniejszym próbom manipulacje elektroakustyczne dokonywane są publiczniew trakcie wykonywania utworu; ewentualne korzystanie z uprzednio nagranejtaśmy ma tylko znaczenie pomocnicze;

4. muzyka stanowiąca część spektaklu audiowizualnego, a więc wykorzystu- jącego grę aktorów, mimów, tancerzy, projekcję filmową lub rzutowanie przezro-czy, rekwizyty, a czasem nawet udział publiczności; ten gatunek określany bywa

mianem mixed media albo multimedia;5. muzyka towarzysząca, zwana także ilustracyjną — filmowa, teatralna, ba-

letowa, a także tworzona do celów specjalnych, jak przerywniki telewizyjne,sygnały imprez sportowych itd.;

6. elektroniczna muzyka rozrywkowa — przede wszystkim eksperymentalnamuzyka rockowa, ale także elektroniczny jazz, parafrazy utworów klasycznychitd.

Typ pierwszy nie wymaga bliższego wyjaśnienia. Warto jednak zauważyć,że chociaż traktowany jest jako gatunek podstawowy, to ilościowo nie stanowion nawet połowy całego repertuaru muzyki elektronicznej. Do odstępowaniaod tego „czystego” gatunku, obok innych czynników, jak np. ogólna tendencjado teatralizacji działań muzycznych, skłaniały kompozytorów pewne przesłankinatury psychologicznej — istnienie pewnej jakby wrodzonej wady muzyki nasamą taśmę. Wprawdzie pierwsze utwory ze studiów w Paryżu i w Koloniipowstawały z myślą o wykonywaniu ich tylko za pomocą głośników, ale zarównoich twórcy, jak i słuchacze, jakkolwiek zafascynowani odrębnością brzmieniai nową dla nich — akusmatyczną 46 sytuacją, odczuwali od samego początkupewien niedosyt. Główną jego przyczyną był brak wszelkiej akcji na estradzie,

a co za tym idzie — brak wrażeń wizualnych związanych z odbieraniem muzykiwykonywanej na żywo. Dołączała do tego świadomość, że wszystko, co ma byćprzedstawione, zostało już raz na zawsze ustalone i zapisane na taśmie i teraz, nakoncercie, nic się już nie może zdarzyć. Moment kreacji, na który oczekują zawszeprzychodzący na koncert, odbył się już wcześniej, poza nimi, a teraz nastąpi

 już tylko reprodukcja. Mówimy tu o sytuacji koncertowej, dla której w gruncierzeczy powstawały te dzieła. Odbiór ich przez radio czy z płyty gramofonowejtraktowany był zawsze jako przeniesienie, a nie oryginalne wykonanie, podobnie

 jak to się ma z nagraną i odtwarzaną muzyką instrumentalną.

46 Przez „akusmatyzm” rozumie się brak korelacji pomiędzy wrażeniami słuchowymi a źródłemdźwięku, inaczej mówiąc — słyszenie abstrakcyjne prowadzące do oceniania dźwięku ze względu na jego walory sonorystyczne.

47

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 48/381

Historia i rozwój

Niektórzy kompozytorzy, jak Stockhausen czy Eimert uważali wprawdzie, żeten stan pełnego dookreślenia utworu przez zarejestrowanie na taśmie kompo-zytorskiej wersji utworu jako ostatecznej i jedynej, która nie podlegałaby jużżadnym zmianom, jest jedną z najistotniejszych zdobyczy muzyki elektronicznej.

Sami jednak już dosyć wcześnie zaczęli szukać możliwości częściowej choćbyinterpretacji zarejestrowanego utworu, czy to przez wprowadzenie kierowanejz sali projekcji przestrzennej, czy też przez skromne wprawdzie, ale istotne dlaostatecznego kształtu dźwiękowego dzieła sterowanie dynamiczne, dokonywaneprzez samego kompozytora lub przez innego „wykonawcę” z sali koncertowejw trakcie jego wykonywania. Rezultat tych działań musiał powodować, że każdez tak „interpretowanych” wykonań musiało być nieco inne.

1.9.1. Muzyka elektroniczno-instrumentalna

Wprowadzenie na estradę żywego wykonawcy i postawienie go obok głośni-ków zmieniało tę sytuację w sposób zasadniczy. Obok utrwalonego dźwiękuelektronicznego pojawiał się element interpretacji, a także cały rytuał związanyz wykonywaniem muzyki na żywo. Było to ustępstwo kompozytora na rzeczsłuchacza, ale jednocześnie spotkanie z zupełnie nowym zjawiskiem w postacizderzenia dwóch konwencji — żywego muzykowania z mechanicznym w swojejistocie odtwarzaniem partii elektronicznej prze głośniki.

Utwory na instrument i taśmę lub głosy i taśmę pojawiają się już w latachpierwszych prób z muzyką konkretną i elektroniczną (Orph´ ee 53   Henry’ego

i Schaeffera,   Musica su due dimensioni   Maderny z 1952), początkowo niejakona uboczu głównego nurtu reprezentowanego przez utwory na samą taśmę.W latach sześćdziesiątych stają się już zjawiskiem powszechnym, a wiele z nichzaliczyć można do najlepszych, jakie powstały w swoim czasie. Przypomnimytylko: Beria  Omaggio a Joyce  (wersja na głos i taśmę), Stockhausena  Kontakte  nafortepian, perkusję i taśmę (1960), Dobrowolskiego Muzyka na obój i taśmę (1965),Parmegianiego Violostries na skrzypce i taśmę (1966).

Zderzenie żywego wykonawcy z taśmą miało jednak i swoje złe strony. Przyówczesnym stanie aparatury nagrywającej i odtwarzającej nawet najlepiej przy-

gotowana projekcja dźwiękowa nie mogła zapobiec temu, że taśma szumiałai „brumiała”, a głośniki lekko deformowały zamierzone brzmienie. Kiedy mu-zyka płynęła tylko z taśmy, słuchacz po pewnej chwili przyzwyczajał się dozwiązanej z tym niedoskonałości, jak do złej akustyki sali czy do zakłóceń po-chodzących z zewnątrz. Kiedy jednak bezpośrednio spotykały się czyste, szla-chetne brzmienie głosu ludzkiego czy instrumentu muzycznego z płynącymiz głośników dźwiękami z taśmy, muzyka z głośników zawsze na tym traciła.Brzmiała jak swoja własna reprodukcja, podczas gdy partia wykonywana nażywo była oryginałem. Rozwój techniki elektroakustycznej — lepsze taśmy, lep-sze magnetofony i głośniki, systemy redukcji szumów wszystko to złagodziło

znacznie te różnice. I tak w połowie lat siedemdziesiątych, przy starannie przy-gotowanej projekcji dźwiękowej, tej dwoistości brzmienia już się nie odczuwało,a w każdym bądź razie nie w stopniu, który przeszkadzałby w odbiorze dzieła.

48

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 49/381

Dalsze drogi rozwoju muzyki elektronicznej na świecie

Szczególną pozycję w ramach tego gatunku zajmują utwory na orkiestrę i ta-śmę. Tu nieprzystawalność brzmienia obu składowych występuje szczególniewyraźnie. Tym niemniej zainteresowanie tego rodzaju połączeniem było od po-czątku dość duże. Co więcej, niektórzy kompozytorzy świadomie wykorzysty-

wali tę nieprzystawalność obu warstw dla podkreślenia specyficznej konstrukcjiutworu. Edgar Varese w D´ eserts fragmenty czysto orkiestrowe przedziela sekwen-cjami z samej taśmy, na której dźwięk jest celowo „brudny”, skontrastowany zeszlachetnym, choć ostrym brzmieniem orkiestry. Dwoistość akustyczna podkreślawięc tylko dwoistość formalną konstrukcji utworu. W  Kanonie  Krzysztofa Pen-dereckiego partia taśmy zawiera dźwięki w ogóle nie modyfikowane. Po pro-stu w trakcie wykonywania utworu dokonywane jest czyste nagranie orkiestry,które jest odtwarzane z pewnym opóźnieniem z głośników, tworząc z dalszymprzebiegiem warstwy orkiestrowej swoisty kanon (operacja ta jest powtórzonadwukrotnie dla dwóch grup głośników). Różnice brzmienia dźwięku żywego

i dźwięku odtwarzanego ułatwiają tylko śledzenie warstw-głosów kanonu. Efektten jest zupełnie nieczytelny przy nagraniu całości, np. na płyty.

 Musique mixte, jak nazywają Francuzi muzykę na instrumenty (głosy wokalne)i taśmę, zajmuje nadal poważne miejsce w produkcji muzyki elektronicznej naświecie. Ma ona ważną zaletę natury praktycznej: utwory tego gatunku miesz-czą się dobrze zarówno w koncertach muzyki elektronicznej ożywiając martwązazwyczaj estradę, jak i w programach muzyki instrumentalnej, gdzie stanowiąpewne urozmaicenie. Również wielu solistów wykonujących muzykę współcze-sną opiera znaczną część swego repertuaru na utworach na swój instrument

i taśmę.

1.9.2. Muzyka elektroniczna na żywo (live electronic)

Można też zauważyć, szczególnie po roku 1970, tendencję do jednoczesnegoamplifikowania solisty (zespołu) za pomocą mikrofonów i wzmacniaczy i odtwa-rzania partii elektronicznej z taśmy. Ma to na celu wyrównanie barwy i lepszestopienie akustyczne partii „żywej” z elektroniczną, w tym bowiem przypadku

pewien procent dźwięku produkowanego na żywo dochodzi do słuchaczy zapośrednictwem głośników i tej samej aparatury, co dźwięki z taśmy. Teraz lekkietylko przekształcenie partii instrumentalnej (dodanie modulacji kołowej lub nie-naturalnego pogłosu) prowadzi już do następnego typu muzykowania — muzykielektronicznej na żywo.

Zasadniczą ideą   live electronic  było „ożywienie” muzyki elektronicznej przezoderwanie jej od nagrania taśmowego jako jedynej formy jej istnienia, wykony-wanie tej muzyki w sposób podobny do wykonywania muzyki instrumentalnejprzez działających na estradzie muzyków, pozostawienie muzyce elektronicznejpewnego stopnia niedookreślenia, a przez to danie wykonawcom swobody inter-

pretacji zależnej od chwilowego usposobienia muzyków, od reakcji publiczności,akustyki sali, a w utworach przewidujących działania aleatoryczne — umożli-wienie im kształtowania pewnych przebiegów w sposób spontaniczny.

494 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 50/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 51/381

Dalsze drogi rozwoju muzyki elektronicznej na świecie

Świadome odwrócenie się od nagrania taśmowego na rzecz żywego produko-wania dźwięków elektronicznych (lub przekształcanych elektronicznie) charak-teryzuje pewien zwrot w twórczości Karlheinza Stockhausena, widoczny w seriiutworów zaczynającej się od  Mikstur   na 5 grup instrumentalnych, generatory

tonów prostych i modulatory kołowe (1964). W utworze tym dźwięki instru-mentalne przenoszone są przez mikrofony, modulowane w modulatorach ko-łowych za pomocą sygnałów sinusoidalnych produkowanych przez generatory.Rezultat dźwiękowy jest „miksturą”, zmieszaniem dźwięków słyszalnych bezpo-średnio z dźwiękami będącymi produktem modulacji dochodzącymi z czterechgłośników. Partytura oprócz partii instrumentalnych zawiera wykresy działań dlaczterech wykonawców, z których każdy obsługuje jeden z generatorów sterujący

 jednym z modulatorów kołowych.Bliższym idei Cage’a z Cartridge Music jest następny utwór Stockhausena skom-

ponowany w tym samym 1964 roku:  Mikrophonie I  na 6 wykonawców. Jedynyminstrumentem jest tu wielki tam-tam, pobudzany w rozmaity sposób do drgań,które odbierane są przez dwa mikrofony, filtrowane przez dwa układy filtrówi wzmacniane aż do pełnego wypełnienia dźwiękiem sali przez dwa wzmacnia-cze sterowane ręcznie z sali. Wykonujący ten utwór muzycy obsługują paramitam-tam, mikrofony (przysuwając je lub odsuwając od powierzchni instrumentu),filtry i tłumiki. Muzycy działają tu zgodnie z instrukcjami słownymi. Kompozy-tor przewiduje różne sposoby wydobywania, odbierania i przetwarzania dźwiękuoraz różne reakcje wzajemne muzyków (działania zgodne, odmienne, przeciw-stawne). Rezultat dźwiękowy tego utworu, podobnie jak omawianych utworów

Cage’a, musi być za każdym razem inny i tylko w ogólnych zarysach przewi-dziany przez kompozytora.Swoje pomysły muzyki elektronicznej na żywo rozwija Stockhausen w następ-

nych utworach tej serii:  Mikrophonie II   na chór, organy Hammonda i modula-tory kołowe (1965) i  Procession  na fortepian, elektryczną altówkę, elektronium,tam-tam, mikrofony, filtry i potencjometry (1967). Elementy  live electronic odnaj-dziemy także i w późniejszych kompozycjach Stockhausena ( Mantra, Sterneklang, Musik im Bauch), w których jednak nie odgrywają już roli pierwszoplanowej.

 Jest rzeczą zrozumiałą, że wykonywania live electronic nie można było powie-rzać przypadkowym wykonawcom. Granie  live, poza zwykłą zręcznością w ob-sługiwaniu specjalnej aparatury i pewnymi zdolnościami improwizacyjnymi, wy-magało przede wszystkim dobrego zrozumienia intencji kompozytora, a to mo-gli zapewnić tylko stali, współpracujący na co dzień z kompozytorem muzycy.Najczęściej sami kompozytorzy byli kierownikami takich grup, grając na instru-mentach, filtrach, modulatorach lub nadzorując całość od przenośnej konsolety.

Takie grupy live electronic tworzą najpierw Cage z Tudorem, potem Stockhau-sen ze swymi asystentami z Kolonii (Hugh Davies, Johannes Fritsch, CorneliusCardew). Inny kompozytor i pianista, Frederick Rzewski (ur. 1938), tworzyz dobraną grupą muzyków z Rzymu zespół „Musica Elettronica Viva”, z któ-

rym objeżdża cały niemal świat. Powstają też inne tego typu zespoły. Jest rzeczącharakterystyczną, że w produkcjach tych zespołów ogromną rolę odgrywają:improwizacja, niezdeterminowanie, duży margines swobody wykonawcy, a więc

514∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 52/381

Historia i rozwój

te elementy, które w studyjnej produkcji muzyki na taśmę musiały zostać niemalcałkowicie wyeliminowane.

W omawianych utworach Stockhausena mieliśmy do czynienia przede wszyst-kim z przekształceniem dźwięków instrumentalnych, jakkolwiek wydobywanych

niekoniecznie w konwencjonalny sposób. Inny kierunek w  live electronic prezen-tują utwory, w których kompozytor przewiduje korzystanie wyłącznie ze źródełelektronicznych, jednak bez pośrednictwa taśmy. Kreowanie takiej muzyki elek-tronicznej na żywo umożliwiły dopiero przenośne syntezatory i ich połączeniez elektronicznymi instrumentami muzycznymi (electronium, organy elektryczne).Przykładami kompozycji syntezatorowych mogą być: Mortona Subotnicka   TheWild Bull  (1968) i  Touch (1969) wykonywane na specjalnie dla niego zaprojekto-wanym syntezatorze Donalda Buchli z sekwencerem i oryginalną płytą dotykowąw miejsce klawiatury (ang. touch sensitive plate, stąd tytuł drugiego utworu) oraz

 Musik f   ore 3 sputnikare, kompozycja zbiorowa studentów kompozycji AkademiiMuzycznej w Sztokholmie (1971) wykonywana przez 6 wykonawców na 3 synte-zatorach Synthi VCS 3. Jednak w większości utworów tego kierunku kompozyto-rzy korzystali najchętniej z tradycyjnych instrumentów muzycznych, jak GordonMumma w  Hornpipe  na róg przetwarzany elektronicznie (1967) lub z nietypo-wych źródeł dźwięku, jak Mauricio Kagel w utworze  Unter Strom (1969).

Kategorię pośrednią stanowią: 1. utwory na instrument lub instrumenty i ta-śmę, w których partie wykonywane na żywo są równocześnie poddawane mo-dyfikacjom i przetworzeniom elektronicznym, 2. utwory na instrumenty prze-twarzane na żywo i orkiestrę (lub zespół kameralny) obywające się w ogóle beztaśmy lub korzystające z pośrednictwa taśmy jedynie do tworzenia sprzężeń,opóźnień itp., oraz 3. utwory w samej koncepcji instrumentalne, ale poddawaneczęściowo takim przetworzeniom, jak filtrowanie, modulowanie dźwiękami elek-tronicznymi, opóźnienia, pogłos lub tylko amplifikowane. Przykładami utworówz tej kategorii mogą być: Stockhausena Solo na instrument melodyczny i sprzęże-nie (1966), Terry’ego Ri l e ya Dorian Reeds na saksofon sopranowy, taśmę, sprzę-żenie i system opoźniający (1966), George’a Crumba (ur. 1929)  Czarne anioły naamplifikowany kwartet smyczkowy i dodatkowe instrumenty, Steve’a ReichaViolin Phase  na skrzypce i magnetofonowe systemy opóźniające (1967). Należą

do nich również kompozycje W. Kotońskiego: Koncert na obój wzmacniany i mo-dulowany elektronicznie i orkiestrę (1973), z tego samego roku   Harfa Eola   nasopran i 4 instrumentalistów (wszystkie głosy amplifikowane ze względu na ko-nieczność wzmocnienia bardzo słabych dźwięków, ale nie modyfikowane) i Pełnialata  na klarnet, fortepian, wiolonczelę i dźwięki elektroniczne z 1979 roku (ta-śma zrealizowana w studiu, instrumenty przetwarzane na żywo przez systemopóźniający, modulację kołową i sztuczny pogłos, częściowo tylko amplifikowane

 bez przetwarzania).Utwory tej grupy stanowią więc coś, co można by określić jako „muzykę

na wpół elektroniczną”, bo w istocie swojej instrumentalną, w której urządzeniaelektroakustyczne służą tylko do rozszerzenia palety barw instrumentalnych i douzyskiwania efektów specjalnych, które są nieosiągalne na drodze akustycznej.

52

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 53/381

Dalsze drogi rozwoju muzyki elektronicznej na świecie

1.9.3. Mixed media

Muzyka elektroniczna w spektaklach  mixed media (zwanych także  multimedia)

stanowi zazwyczaj tylko niewielki sektor w całości widowiska. Zasadą mixed me-dia  jest łączenie różnych dziedzin sztuki: teatru, muzyki, tańca, sztuk plastycz-nych, w tym również gry świateł, projekcji filmowych i przezroczy, ale takżepewnych elementów dekoracji, ruchomych form plastycznych itd. Widowiska tewłączają zazwyczaj widza-słuchacza do samej akcji i nie ograniczają się do sceny,lecz wychodzą na zewnątrz okrążając widza, lub przenoszą się w plener pozwa-lając mu przechadzać się i wybierać samemu elementy wieloplanowej akcji. Jakwidzimy chodzi tu o sztukę nowoczesną, awangardową, wychodzącą z innychzałożeń niż totalny teatr Wagnera czy koncepcje Skriabina wzbogacenia warstwymuzycznej przez grę świateł i zapachów.

Wśród ogromnej rozmaitości form  mixed media wyróżnić można kilka typówskrajnych. Z jednej strony będą to zdarzenia bez akcji, bez rozwoju, określane czę-sto jako  environments (stwarzanie sztucznego otoczenia), z drugiej te, w którychna pierwszy plan wysuwa się akcja, często wielowymiarowa, wieloznaczeniowa,a czasem zupełnie abstrakcyjna, aleatoryczna lub zależna od reakcji publiczości.Na te drugie używana jest czasem nazwa  happenings, chociaż happeningi mogąsię obywać zupełnie bez muzyki i być np. skrzyżowaniem surrealistycznych formteatralnych z pewnymi „akcjami” plastycznymi.

Zdarzenia mające za punkt wyjścia działania muzyczne określane są trochę

nieściśle mianem „teatru muzycznego” lub bardziej jednoznacznie teatru instru-mentalnego. Teatr instrumentalny może obywać się zupełnie bez urządzeń elek-troakustycznych lub korzystać z elektroakustyki tylko fragmentarycznie. Spo-tkamy jednak również widowiska będące połączeniem  live electronic   z teatreminstrumentalnym (niektóre akcje zespołu „Musica Elettronica Viva”, spektaklePauline Oliveiros i inne).

Autorami pierwszych  environments byli filmowiec Jordan Belson i kompozytorHenry Jacobs, którzy w latach 1957–1960 dali szereg spektakli w PlanetariumMorrisona w San Francisco, a w 1958 roku na Wystawie Światowej w Brukseli.

Do   environments zaliczyć też można  Poeme ´ electronique Le Corbusiera i Varese’a,spektakl trwający wprawdzie tylko 8 minut, ale mający wszystkie cechy współ-działania sztuk (architektury, filmu, gry świateł i muzyki elektronicznej).

Pierwsze „zdarzenia” muzyczno-taneczne o niezdeterminowanej akcji stwo-rzyli John Cage i tancerz-choreograf Merce Cunningham w serii spektakli,

 jakie dali w 1952 roku w Black Mountain College (w stanie North Carolina). Jed-nakże sam termin „happening” został wprowadzony dopiero w roku 1958 przeznowojorskiego malarza Allana Kaprowa (zresztą blisko związanego z kręgiem

 Johna Cage’a). Wśród propagatorów  mixed media znaleźli się m.in. twórca pop--artu Andy Warhol współpracujący z grupą rockową „The Velvet Undergro-

und” oraz malarz i twórca „otoczeń” Milton Cohen, jeden z założycieli grupy„ONCE” z Ann Arbor (1961), w której znaleźli się kompozytorzy Robert Ashley,Gordon Mumma, Roger Reynolds i filmowiec Donald Scavarda. Również wspo-

53

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 54/381

Historia i rozwój

mniane wcześniej San Francisco Tape Music Center rozwija w latach sześćdzie-siątych ścisłą współpracę między kompozytorami (Morton Subotnick, PaulineOliveiros, Ramon Sender) a filmowcami, malarzami i konstruktorami aparaturyaudiowizualnej.

W Europie pionierami  mixed media  są Karlheinz Stockhausen (Originale,  Mu-sikalisches Theater, 1961; Sterneklang, 1970), Maurizio Kagel (Pandorabox, Antithese,1962), Iannis Xenakis (Polytope, 1967), Dieter S c h on b a ch (ur. 1931) Geschichte voneinem Feuer  — Multimedia-Oper (1965), Josef-Anton Riedl (ur. 1929), kierow-nik MUSIK/FILM/DIA/LICHT-Galerie (zał. 1967), Bernard Parmegiani (L’oeil´ ecoute, 1970, z rzutowanymi obrazami sporządzonymi przez Waleriana Borow-czyka), a także inni, jak: Francoise Barriere, Christian Clozier, Bengt Lorentzen,Sten Hanson. W Polsce pierwsze próby mixed media podjęli Kazimierz Urbański(plastyk-filmowiec) i Bogusław Schaeffer w spektaklu  Suita audio-kinetyczna  wy-stawionym w roku 1974 na „Wratislavia Cantans”, a potem K. Urbański z grupą„KEW” na „Warszawskiej Jesieni” 1975, a także sami członkowie grupy „KEW”:Krzysztof K ni t t e l w utworze Punkty/linie na taśmę, klarnet i slajdy (1974) i Woj-ciech M i ch n ie ws ki w utworze Szeptet na sekstet wokalny i taśmę, wzbogaco-nym o efekty teatralne (1974).

Muzyka w spektaklach mixed media to albo muzyka towarzysząca, stanowiącatło, atmosferę akustyczną dla akcji rozgrywającej się w sferze wizualnej, czasemrównież tekstowej, albo muzyka pierwszoplanowa stanowiąca warstwę wiodącą,dla której inne elementy, jak gra świateł, projekcje filmowe, akcje mimów, aktorówitd., stanowią tylko wizualne dopełnienie. Może to być muzyka instrumentalna

odtwarzana z taśmy lub z wielu taśm jednocześnie, może to być muzyka elektro-niczna nagrana na taśmie lub tworzona na żywo, może to być również dowolnakombinacja różnych sposobów oddziaływania muzycznego na widza-słuchacza.

Pewnym elementem specyficznym, chociaż nie zawsze uwzględnianym w tegotypu spektaklach, jest uzależnienie przebiegu muzycznego od aktualnej sy-tuacji „teatralnej” (od światła, reakcji publiczności, działań aktorów, tancerzyczy mimów). Przykładem wykorzystania otoczenia, w tym także publiczności,do kształtowania przebiegów elektronicznych może być kompozycja NorwegaArnego Nordheima do rzeźby plenerowej Arnolda Havtelanda, ustawionejw Centrum Kultury dla Niewidomych w Skjeberg (zach. Norwegia). Ukryte wo-kół rzeźby fotokomórki, zależnie od natężenia padającego na nie światła, prze-kazują za pomocą urządzeń wzmacniających napięcia sterujące dla urządzeńodtwarzających i mieszających. Przebieg zarejestrowanej na 4 ścieżkach i z dłu-giej pętli odtwarzanej bez końca muzyki elektronicznej uzależniony jest od porydnia, zachmurzenia i od cieni rzucanych na fotokomórki przez zwiedzających.

Typowym utworem plenerowym jest Karlhheinza Stockhausena  Sterneklang — Parkmusik f   ur 5 Gruppen (Dźwięk gwiazd — muzyka parkowa na 5 grup) z roku 1971.Tych 5 grup, składających się każda z 4 dowolnych wykonawców (instrumenta-listów, wokalistów, wykonawców muzyki elektronicznej na żywo), rozmieszczo-

nych zostaje w oddalonych od siebie punktach parku miejskiego. Każda grupa,mimo wzmocnienia elektronicznego, słyszalna jest tylko z pewnej odległości, także w żadnym punkcie parku nie słychać jednocześnie wszystkich pięciu grup.

54

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 55/381

Dalsze drogi rozwoju muzyki elektronicznej na świecie

Dla synchronizacji całości kompozytor (lub zastępujący go „dyrygent”) posługujesię radiotelefonem, za pomocą którego wskazuje poszczególnym grupom wejściai przekazuje uwagi wykonawcze i interpretacyjne. Przechadzający się po parkusłuchacze wybierają dowolną drogę pomiędzy grającymi grupami, słysząc nieraz

kilka grup jednocześnie, czasami tylko jedną. Mogą też zatrzymywać się w po- bliżu poszczególnych grup muzyków, koncentrując się na wykonywanych przeznich partiach. w ten sposób każdy słuchacz lub grupa słuchaczy, wybierającinną drogę przez park i robiąc przystanki w różnych miejscach, odbierać będzieinny przebieg muzyczny i inne zmieszania nakładających się na siebie warstwdźwiękowych. Ta trwająca ponad 2 godziny kompozycja wsparta jest efektamiświetlnymi, a przy końcu pokazem sztucznych ogni. Dźwięki dochodzące z pobli-skich ulic mieszają się z dźwiękami muzycznymi, tworząc szczególną, osadzonąw realiach wielkomiejskich atmosferę akustyczną.

1.9.4. Minimal music

Wśród kompozytorów reprezentujących różne kierunki w muzyce ekspery-mentalnej, nie tylko elektronicznej, szczególną pozycję zajmują zwolennicy tzw.minimal music, określani czasem jako  repetitives. Mimo iż bezpośrednie ich od-działywanie ogranicza się do niewielkich kręgów bardzo specjalnej publiczno-ści, ich wpływ na formowanie nowego myślenia muzycznego na świecie okazałsię dość znaczny. Przywódcą duchowym „minimalistów” jest La Monte Young(ur. 1935), który po studiach muzycznych w Berkeley i w Nowym Jorku zakładawłasny zespół o nazwie „The Theatre of Eternal Music”, który ma służyć dorealizowania jego idei muzycznych. Obsesją Younga są długie, nie kończące siędźwięki, których prototypem jest „brum”, jaki daje się słyszeć po przyłożeniuucha do słupa telegraficznego. Po wielu próbach i realizacjach instrumentalnychi elektronicznych Young doszedł do sformułowania specyficznej „teorii” dźwię-ków wytrzymywanych. Zatytułował ją  The two systems of eleven categories 1:07:40 AM 3X67 (Dwa systemy jedenastu kategorii, 1g. 07min i 40 s. po północy, 3 X 1967).Utwory Younga ograniczają się zazwyczaj do niewielkiej ilości prostych dźwię-ków, wytrzymywanych niezmiennie przez długi przeciąg czasu. Wraz z kompo-

zycjami świetlnymi jego żony, malarki Marian Zazeela, tworzą one specyficzneaudiowizualne  environments i trwać mogą od kilku godzin do wielu dni. Na ichtle mogą być dodatkowo improwizowane proste partie wokalne lub instrumen-talne. Typową kompozycją La Monte Younga jest  Tortoise, His Dreams and Journeys(Żółw, jego marzenia i podróże), nie kończący się utwór na głos (głosy), smyczki,„bąki”,47 mikrofony, wzmacniacze i głośniki z projekcjami świetlnymi MarianZazeela. Publiczne wykonania poszczególnych fragmentów tego utworu nosząspecyficzne tytuły, jak np. The Tortoise Dronning Selected Pitches from the Holy Num-bers for the Two Black Tigers (1964) (Żółw buczy wybrane wysokości spośród ŚwiętychLiczb dla dwóch Czarnych Tygrysów). Young używał aparatury elektronicznej je-dynie do uzyskiwania najprostszych efektów — wzmocnienia bez modyfikacji

47 Chodzi tu o burdonowe piszczałki w dudach (ang.  drones).

55

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 56/381

Historia i rozwój

dźwięków akustycznych lub do tworzenia bloków elektronicznych o nieograni-czonym czasie trwania. Choć wszystko to było mocno zwariowane, nie pozostało

 jednak bez wpływu na rozwój muzyki współczesnej.Innym przedstawicielem tej grupy jest Terry Riley (czyt.: Rajly), Ameryka-

nin urodzony w 1935 roku. Jego utwory mają przeważnie czysto instrumentalnąobsadę (np. słynne In C na zespół kameralny). Opierają się na powtarzaniu z nie-wielkimi, prawie niezauważalnymi zmianami na tych samych prostych układachmodalnych motywów. W utworach instrumentalno-elektronicznych Rileya zasto-sowanie znajdują stosunkowo najprostsze efekty elektroakustyczne, np. opóźnie-nie magnetofonowe ze stałym odstępem, (odczyt wielokrotny po kilku głowi-cach). Na tej zasadzie działa echo elektroniczne w  Dorian Reeds (1966) i w PoppyNogood and the Phantom Band  (Poppy Nogood i niewidzialna orkiestra) z roku 1968,na saksofon sopranowy, taśmę, system opóźniający i sprzężenie. W tym ostat-nim utworze technika sprzężenia magnetofonowego z opóźnieniem doprowadzado niesłychanego skłębienia dźwięków, które daje efekt brzmienia niby-orkiestry,czy jak chce kompozytor — orkiestry duchów ( phantom band).

Trzecim kompozytorem tej grupy jest nowojorczyk Steve Reich (ur. 1936). Jego repetytywna technika polega na wielokrotnym powtarzaniu tych samychmotywów rytmicznych przez kilka głosów unisono, z minimalnym odchyleniemtempa w niektórych głosach w stosunku do pozostałych, co powoduje, że po pew-nym czasie, w sposób niemal niezauważalny, powstaje nowy rysunek rytmiczny(Drumming na zespół perkusyjny i głosy ludzkie, 1971). Reich nazywa to „prze-sunięciem fazowym” (ang. phase shifting — termin wzięty z elektroakustyki). We

wszystkich niemal utworach kompozytor wykorzystuje ten sam pomysł, czy jakkto woli — technikę, tylko w zastosowaniu do coraz to innych instrumentów:skrzypiec, organów, perkusji lub dźwięków elektronicznych. W utworze  Pendu-lum Musicum  na mikrofony, głośniki, wzmacniacze i wykonawców (1968) jako

 jedyne źródło elektroniczne wykorzystuje efekt Larsena48.Podobną postawę twórczą przyjęli członkowie nowojorskiej „Sonic Art Group”:

Robert Ashley, Gordon Mumma i David Behrman, którzy zaczynali swą dzia-łalność na polu   live electronic   i  mixed media   w Ann Arbor w stanie Michiganw ramach Cooperative Studio for Electronic Music i w grupie „ONCE”.

Skrajną tendencję w muzyce elektronicznej prezentują zwolennicy tzw.   bio--feedback   (sprzężenia bio), czyli wykorzystania bioprądów do sterowania apara-turą elektroniczną. Ich głównym reprezentantem jest Amerykanin Alvin Lucier(ur. 1931). W utworze Music for Solo Performer z 1966 roku każe on przytwierdzićdo głowy „wykonawcy” trzy elektrody, które mają za zadanie odbieranie tzw.prądów alfa wysyłanych przez mózg. Te prądy dostarczone do specjalnie skon-struowanej aparatury zostają wielokrotnie wzmocnione i służą do wzbudzania

48 Efektem Larsena nazywamy dźwięk powstający w obwodzie na zasadzie rezonansu elektrycznego

wówczas, kiedy mikrofon zbliżymy na pewną odległość do połączonego z nim poprzez wzmacniaczgłośnika. Efekt Larsena można kontrolować, np. zbliżając do mikrofonu różne rezonatory akustyczne(tubę papierową, półprzymkniętą dłoń, otwarte usta z ustawieniem jamy głosowej na określoną samo-głoskę). Właściwości rezonatora decydują wówczas o wysokości powstającego w ten sposób dźwięku.

56

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 57/381

Nowe narzędzie: syntezator

rezonansów akustycznych w różnych instrumentach perkusyjnych, które w tensposób „grają”, mimo że „wykonawca” w ogóle ich nie dotyka.

W Polsce orientację bliską minimal music reprezentują Krzysztof Knittel, TomaszSikorski i Andrzej Bieżan.

Wspomnijmy na koniec o ultraletrystach i zwolennikach tzw. poezji konkretnej.Ich produkcje znajdują się na pograniczu poezji i muzyki. Są to montaże i nałoże-nia nagranych fragmentów czytanej poezji abstrakcyjnej, tworzonej w nie istnieją-cym języku albo złożonej z nie wiążących się w słowa głosek. Źródłem inspiracji

 były tu poezje dadaistów i muzyka konkretna. Prototypem poezji konkretnej byłyteksty E. E. Cummingsa oraz traktowanie słowa w niektórych utworach Pierre’aHenry’ego. Głównymi przedstawicielami tego kierunku są: Francois Du f r e n e(1930–1982), Henry Chopin (ur. 1922) i Bernard Heidsieck (ur. 1928).

1.10. Nowe narzędzie: syntezator

Zupełny przewrót w produkcji muzyki elektronicznej wywołały zestawy mo-dułów sterowanych napięciem zwane syntezatorami. Sam termin „syntezator”pojawił się już w połowie lat pięćdziesiątych dla urządzeń sterowanych za po-mocą papierowej taśmy perforowanej. Takimi były Mark II Synthesizer firmyRCA skonstruowany w 1959 roku dla studia Columbia-Princeton w Nowym

 Jorku i syntezator studia Siemensa w Monachium. Były to urządzenia ciężkie

i bardzo skomplikowane w obsłudze. Mimo że w intencji konstruktorów miałyułatwić pracę kompozytora, to w rzeczywistości zmieniły tylko żmudną pracęnad montażem na nie mniej żmudną pracę nad przygotowaniem taśmy perforo-wanej służącej do sterowania urządzeniami. Za wynalazcę rzeczywistego synte-zatora uważa się Roberta C. Mooga, który w roku 1964 zaprezentował pierw-szy syntezator z modułami sterowanymi napięciem, zaopatrzony w klawiaturęnapięciową.

Kariera Roberta Mooga i jego syntezatorów przypomina niewiarygodne karierywynalazców z XIX wieku. W roku 1952 skromny licealista z Bronxu (dzielnica

Nowego Jorku), któremu wróżą karierę pianisty, jest tak zafascynowany elektro-niką, że rekonstruuje w swojej piwnicy instrument Theremina, aeterophon. Kilkalat później, już jako student Queens College, postanawia stworzyć sobie z tegoźródło dochodu. W roku 1960 udaje mu się skonstruować w domowym warsz-tacie około 1000 egzemplarzy tego instrumentu, a co ważniejsze — sprzedać jeuzyskując z tego ponad 50 tys. dolarów. Kupującymi byli zarówno profesjonali-ści, jak i hobbyści, bowiem w latach czterdziestych i pięćdziesiątych instrumentTheremina używany był bez umiaru w amerykańskich filmach grozy dla pod-kreślania scen przerażających. Trzy lata później, będąc doktorantem fizyki naUniwersytecie Cornella w Ithaca (w stanie Nowy Jork), Robert Moog wpada na

pomysł tego, co staje się potem symbolem. Konstruuje pierwszy system modu-larny sterowany napięciowo, pozwalający na „granie” na żywo na generatorachi filtrach, krótko mówiąc — konstruuje mooga. Ma wówczas 28 lat.

57

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 58/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 59/381

Nowe narzędzie: syntezator

Syntezator taki zastępował właściwie całe studio elektroniczne. Mieścił sięw jednej ramie i pozwalał na pracę z pominięciem konsolety. Jego wyjście mogło

 być podłączone wprost do wejścia magnetofonu lub do standardowego wejściawzmacniacza mocy, np. dla kontroli słuchowej bieżącego układu syntezatora.

Syntezator Mooga umożliwiał pracę wielokanałową, posiadał bowiem kilka(z reguły 4 lub 8) wyjść niezależnych. Małe moduły   multiplicator   pozwalałyna rozdzielanie jednego sygnału na kilka torów fonicznych, a moduły  mix-out- put  pozwalały na mieszanie kilku sygnałów na jedno wyjście. Oprócz pokrętełręcznych i przełączników znanych z techniki klasycznej, dla uzyskania napięćsterujących poszczególnymi parametrami można było używać 4- lub 5-oktawo-wej klawiatury napięciowej, co pozwalało już nie tylko na „automatycznymontaż” jak w syntezatorach typu Mark II, ale na kształtowanie przebiegów wy-sokościowych i czasowych, a także wpływania na filtry i amplitudę w czasierealnym, po prostu na „granie” na syntezatorze jak na instrumencie klawi-szowym. I to było może największą rewolucją wprowadzoną do muzyki elek-tronicznej przez syntezator. Bowiem dla muzyka korzystającego z syntezatora„granie” na klawiaturze identycznej jak fortepianowa czy organowa było bliższenabytym doświadczeniom niż operowanie pokrętłami i przełącznikami. Dawałoto wreszcie możliwość wyjścia poza laboratorium i produkowanie dźwiękówelektronicznych wprost na sali koncertowej. Skorzystali z tego przede wszystkimmuzycy rozrywkowi. Zbiegło się to z ogólną modą na elektronikę w muzycetypu pop (u nas zwanej rockową). Tak więc obok gitar elektrycznych, orga-nów, solovoxu i różnych przystawek zniekształcających, znalazł sobie miejsce

nowy „instrument” — syntezator. Ta współpraca Roberta Mooga z kilku przed-stawicielami tego kierunku przyniosła obopólny pożytek: Moogowi pieniądzena doskonalenie i budowanie nowych modeli, a muzyce rozrywkowej prostszei łatwiejsze w obsłudze nowe narzędzie: Minimooga, mały syntezator zbloko-wany z klawiaturą, o prostych połączeniach nie wymagających stosowania kablizewnętrznych i dający się łatwo dostroić do skali 12-półtonowej i do kamertonu.

Zanim jednak pierwszy Minimoog opuścił fabrykę w Trumansburgu (1970),angielski konstruktor Peter Zinovieff w małym laboratorium w Putney naprzedmieściach Londynu skonstruował pierwszy przenośny model syntezatoraVCS (ang. Voltage Controlled Synthesizer), a jego udoskonalony model VCS 3, po-przednik popularnego potem Synthi, już w roku 1968 znalazł pierwszych nabyw-ców w Anglii, RFN i innych krajach Europy. W tym samym mniej więcej czasiedo konkurencji włączyły się jeszcze dwie firmy amerykańskie: ARP z Newtonpod Bostonem i Donald Buchla z Fullerton w Kalifornii. ARP, podobnie jakMoog, konstruuje z jednej strony modele prostsze, przeznaczone jako instru-menty dla muzyków rozrywkowych (ARP „Odyssey”), a z drugiej kompleksoweurządzenia studyjne w rodzaju ARP 2500. Tymczasem Buchla pozostaje przymałym rozmiarami, ale niezwykle precyzyjnym typie syntezatora studyjnego.

Syntezatory konstruowane pierwotnie z myślą o muzyce elektronicznej (stu-

dyjnej) znalazły swe rozpowszechnienie poprzez pop. Dzięki funduszom uzy-skanym ze sprzedaży znacznej ilości syntezatorów muzykom rozrywkowym mo-gły powstawać modele bardziej uniwersalne, a te z kolei znalazły zastosowanie

59

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 60/381

Historia i rozwój

również w studiach muzyki elektronicznej, najpierw obok tradycyjnych urzą-dzeń studyjnych, a potem jako samodzielne jednostki do produkcji muzyki nataśmie. Pojawienie się przenośnych syntezatorów, głównie uniwersalnego i nie-drogiego Synthi z wytwórni Zinovieffa, przyspiesza rozwój nowej gałęzi mu-

zyki elektronicznej —  live electronic music  — gdzie obok dźwięków instrumen-talnych i wokalnych przekształcanych na żywo za pomocą mikrofonów kontak-towych, filtrów, ringmodulatorów, itd., jako ważne, samoistne źródło dźwiękupojawia się syntezator. Syntezator będąc instrumentem uniwersalnym, służy za-równo do produkcji zakomponowanych lub improwizowanych struktur dźwię-ków, jak i do przekształcania lub tylko modyfikowania dźwięków ze źródełakustycznych.

W końcu lat siedemdziesiątych pojawia się jeszcze doskonalsze narzędzie:s yn te z a t or c yf r ow y. Zachowuje on wszystkie zalety syntezatora analogo-wego (sterowanego napięciem) wynikające z możliwości bezpośredniego działa-

nia na klawiaturze i regulatorach, ale z zastosowaniem o wiele precyzyjniejszejtechnologii sterowania cyfrowego i cyfrowej syntezy dźwięku. O tym już w na-stępnym rozdziale.

1.11. Pomoc komputera

Niemal równolegle do rozwoju muzyki elektronicznej komponowanej jako mu-zyka na taśmę, muzyka na taśmę i żywych wykonawców i muzyka elektroniczna

na żywo, w kilku ośrodkach prowadzone były prace nad wykorzystaniem w mu-zyce cyfrowych maszyn matematycznych, czyli komputerów.

 Już w połowie lat pięćdziesiątych Lejaren A. Hiller i Leonard M. Isaacson stwo-rzyli program komputerowy, którego wynikiem był pierwszy w historii utwórmuzyczny „skomponowany” przez komputer —   Illiac Suite for String Quartet(1956). Illiac to nazwa komputera zainstalowanego na Uniwersytecie stanu Illi-nois w Urbanie, na którym dokonano obliczeń. Każda część suity skomponowanamiała być według określonego modelu: 1. kontrapunktu ścisłego „nota contra no-tam”; 2. kontrapunktu swobodnego z kadencjami typu V — I; 3. stopniowego

przejścia od rozluźnionej tonalności do dodekafonii, i 4. struktur aleatorycznychwykorzystujących łańcuchy Markova.W realizacji utworu posłużono się metodą Monte Carlo, polegającą na gene-

rowaniu przez komputer ciągów liczb pseudolosowych (wyrażenia muzyczne były uprzednio zakodowane w postaci liczbowej), testowaniu poszczególnychwyrazów ciągu pod względem zgodności z przyjętymi uprzednio regułami, od-rzucaniu wyrazów nie odpowiadających regułom, a zapamiętywaniu tych, któresą zgodne z regułami. Wyniki programu, które komputer podawał w postaci al-fanumerycznej (nazw nut, czasów trwania itd.), były następnie transkrybowaneręcznie na tradycyjne pismo nutowe, co pozwalało na wykonanie utworu przez

kwartet smyczkowy.Kluczem do rozwiązania problemu było ustalenie właściwych reguł i ujęcie ich

w formę zrozumiałych dla komputera algorytmów. Łatwiejsze to było w przy-

60

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 61/381

Pomoc komputera

padkach ścisłego kontrapunktu i dodekafonii, trudniejsze dla innych technik mu-zycznych 50. Suita  Illiac nie była może arcydziełem, ale dowiodła, że za pomocąliczb losowych i odpowiednio ułożonego programu można posłużyć się kom-puterem do układania utworów muzycznych, które będą miały wszelkie cechy

kompozycji stworzonych przez człowieka.Następnymi utworami Hillera zrealizowanymi według rozwijanych przezniego programów komputerowych były Computer Cantata (1963) i Algorithms I–II (1968–1969).

Zupełnie inaczej postanowił wykorzystać zdolności komputera do działań mu-zycznych Iannis Xenakis, który pracując w Paryżu, a potem na uniwersyteciew Indianapolis stworzył probabilistyczną teorię kształtowania „chmur dźwięko-wych” i „ruchomych mas dźwiękowych”, która posłużyła mu do sformułowaniaprogramu ST (od terminu „stochastyczny”). Program ten pozwolił Xenakisowina skomponowanie za pomocą komputera całego szeregu utworów instrumen-

talnych: ST/10  na 10 instrumentów (1956–1962),  Atr´ ees (1962),  ST/4-1,  080262  nakwartet smyczkowy (1962). Matematyczną teorię muzyki stochastycznej oparłXenakis na rachunku prawdopodobieństwa, wykorzystując w niej m.in. teorięwielkich liczb Bernoulliego i procesy Markova 51. W niektórych innych utwo-rach stosował Xenakis matematyczną teorię gier, np. w  Duel (1959) i w  Strat´ egie(1959–62). W Paryżu działał też matematyk Pierre Barbaud (ur. 1911), twórcateorii „muzyki algorytmicznej”, o orientacji bliższej poglądom Hillera, 52 równieżautor utworów komputerowych French Gagaku (1969), Machinamentum firminiense(1971).

Prace Hillera, Xenakisa i Barbauda nie prowadziły do bezpośredniego wytwa-rzania dźwięków, lecz do uzyskiwania ciągów liczb i liter, które były kodemkompozycji. Ciągi te mogły być częściowo dekodowane przez sam komputer, aleostateczną postać dźwiękową zawdzięczały te kompozycje żywym wykonawcom.Ten sposób wykorzystywania komputerów w muzyce nazywany bywa „symula-cją procesów komponowania”. Więcej informacji na ten temat znajdzie czytelnikw literaturze specjalistycznej53.

W Ameryce najważniejszym centrum muzyki komputerowej stają się wkrótceLaboratoria Bella w Murray Hill w stanie New Jersey. Dzięki pionierskim pracomMaxa Mathewsa realizowane są dwie zasadnicze idee wykorzystania kompu-tera do elektronicznej produkcji dźwięku. Pierwsza, urzeczywistniona w progra-mie GROOVE (1968), polega na użyciu komputera do sterowania analogowychurządzeń do produkowania i przekształcania dźwięku, np. syntezatora, druganatomiast prowadzi do bezpośredniego produkowania fali dźwiękowej na pod-stawie wyliczonej przez komputer krzywej reprezentującej obraz fali dźwiękowej

50 L. A. Hiller, L. M. Issacson, Muzyka eksperymentalna — komponowanie z pomocą komputera. «Res Facta»z. 5, PWM, Kraków 1971.51 I. Xenakis,  Musiques formelles. Paryż 1963. Także: Iannis Xenakis,  W stronę filozofii muzyki. «ResFacta» z. 2, Kraków 1968.52 P. Barbaud, Initiation a la composition musicale automatique. Paryż 1966.53 Music by Computer.  Ed. H. von Foerster i J. W. Beauchamps. Nowy Jork-Londyn 1967; H. B. Lincoln,The Computer and Music. Ithaca 1970; Marek Hołyński,  Sztuka i komputery. Warszawa 1976.

61

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 62/381

Historia i rozwój

(amplitudy w funkcji czasu). Ta druga idea zrealizowana została przez Mathewsaw programie MUSIC IV (1961) i jego ulepszonej wersji MUSIC V (1966) 54. Tensposób wykorzystania komputera nazywany jest cy f r ow ą sy nt e z ą dź wi ę ku.Zajmiemy się nią bliżej w IV części niniejszej książki. Wczesnym przykładem mu-

zyki zrealizowanej dźwiękowo przez komputer może być Stochastic Quartet (1963) Jamesa T e nn e ya (ur. 1934), współpracownika Mathewsa z Murray Hill.Prace nad cyfrową syntezą dźwięku rozpoczęte przez Maxa Mathewsa rozwi-

 jają Francuz Jean-Claude R i s s e t (ur. 1938), w pewnym okresie współpracującyz Mathewsem w Laboratoriach Bella, Edward Kobrin (ur. 1945) działający naUniwersytecie stanu Illinois w Urbanie, Barry Ve r c oe (ur. 1937) autor programuMUSIC 360 z Uniwersytetu Princeton i John Ch ow ni ng (ur. 1934) z Uniwersy-tetu Stanford w Kalifornii, który pierwszy wykorzystuje modulację częstotliwości(symulowaną przez program komputerowy) do tworzenia złożonych dźwiękówelektronicznych i naśladowania naturalnych dźwięków instrumentalnych 55.

Prace prowadzone w latach siedemdziesiątych szły głównie w dwóch kie-runkach. Jednym było tworzenie systemów komputerowych, które przybliżałybyrozwiniętą technologię komputerową i specjalistyczną wiedzę informatyczną dosposobu myślenia kompozytora. Koncentrowano się więc na tworzeniu języ-ków ukierunkowanych i tzw. programów ma cr o, które operowały wyrażeniami

 bliskimi muzykowi (instrument, nuta, ósemka, oznaczenia metronomowe) lubznanymi mu z tradycyjnego studia elektronicznego (generowanie sygnału sinu-soidalnego, częstotliwość, amplituda, modulacja częstotliwości, sumowanie itd.)i pozwalały na tworzenie w nieskomplikowany sposób złożonych struktur dźwię-

kowych, często w połączeniu z podprogramami kompozycyjnymi i z możliwością bezpośredniego ingerowania kompozytora w przebieg realizowanego programu.Przykładami takich rozwiązań mogą być IRMA (Interactive Realtime Music As-sembler, którego autorem był J. Clough, 1971), system POD (Barry Truax, Toronto1971), program MUSTRAN (Charles Aimes, Buffalo 1978). Wszystkie one miały

 jedną wspólną cechę: mimo wprowadzanych uproszczeń były dla muzyków dośćtrudne. Wymagały od kompozytora sporej wiedzy z zakresu informatyki i umie-

 jętności posługiwania się językami programowania. Praca z ich pomocą zabieraławiele czasu.

Drugim kierunkiem, w którym szły prace w niektórych laboratoriach, było po-szukiwanie takiego systemu komputerowego, w którym pracujący na nim kom-pozytor mógłby w ogóle nie interesować się matematyką i programowaniem,natomiast działałby w sposób właściwy muzykowi, posługując się klawiaturąpodobną do fortepianowej oraz układem przycisków i pokręteł tak, jakby grałna rozbudowanych organach elektrycznych. Manualne czynności kompozytorazostałyby przetworzone na dane cyfrowe, a odpowiednio zaprogramowany sys-tem komputerowy (oparty o mikroprocesor) powodowałby natychmiastowe wy-liczenie zmiennej będącej odwzorowaniem sygnału fonicznego, która za pomocą

54 M. V. Mathews, The Technology of Computer Music. Cambridge (Massachusetts) 1969.

55  J. M. Chowning, The Synthesis of Complex Audio Spectra by Means of Frequency Modulation . „Journalof the Audio Engineering” 1977 nr 1.

62

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 63/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 64/381

Historia i rozwój

 Journal”57. Ośrodki takie jak Uniwersytet w Utrechcie i IRCAM w Paryżu za-praszają uczonych i kompozytorów z całego świata. Odbywa się żywa wymianapomiędzy uniwersytetami amerykańskimi.

A co w Polsce? Do roku 1985, kiedy piszemy te słowa, muzyka kompute-

rowa w Polsce praktycznie nie istnieje. Były dokonywane pewne próby z pro-gramami kompozycyjnymi (Gerard Z i e l i ń s k i,58 Stanisław Krupowicz, autorpierwszej w Polsce kompozycji zrealizowanej przez komputer 59). Polscy kom-pozytorzy próbowali jednak cyfrowej syntezy dźwięku pracując w ośrodkachzagranicznych (W. Kotoński na Uniwersytecie SUNY w Buffalo, 1978, w studiuEMS w Sztokholmie, 1984 oraz w laboratorium CEMAMu u Xenakisa w Paryżu,1985; Stanisław Krupowicz na Uniwersytecie Stranford, 1983–1985; Elżbieta Si-kora w IRCAM-ie w Paryżu, 1981–1982).

Wiodącymi ośrodkami muzyki komputerowej w Ameryce, obok wymienia-nych już Laboratoriów Bella, Uniwersytetu stanu Illinois i Uniwersytetu Stanford

w Kalifornii są następujące ośrodki uniwersyteckie (w nawiasach podajemy na-zwiska czołowych kompozytorów lub kierujących pracami uczonych innych spe-cjalności): Massachusetts Institute of Technology (w skrócie MIT) w Cambridgekoło Bostonu (Barry Vercoe), Uniwersytet stanu Nowy Jork w Buffalo (LejarenHiller), Center for Music Experiment Uniwersytetu Kalifornijskiego w San Diego(Roger Reynolds, Richard Moore), California Institute of the Arts w Valencia kołoLos Angeles (Morton Subotnick, Barry Schrader) oraz Simon Frazer Universityw Burnaby (Barry Truax) i Uniwersytet w Toronto (Gustav Ciamaga, WilliamBuxton) w Kanadzie.

W Europie najważniejszymi ośrodkami muzyki komputerowej są: Instytut So-nologii na Uniwersytecie w Utrechcie (Gottfried Michael Koenig, Werner Kaegi,Paul Berg i Stan Tempelaars), Elektron Musik Studion w Sztokholmie (KnutWiggen, Jon Appleton, Lars-Gunnar Bodin), IRCAM w Paryżu (Pierre Boulez,

 Jean-Claude Risset, David Wessel), Conservatorio Pollini w Padwie (Teresa Ram-pazzi, Graziano Tisato). Ważną rolę odegrało też zlikwidowane w roku 1979studio EMS w Puttney pod Londynem (Peter Zinovieff, Peter Grogono).

Szerszą listę ważniejszych centrów muzyki komputerowej znajdzie czytelnikna stronach 70–72.

Nie bez powodu więcej miejsca poświęciliśmy tu pracom badawczym, roz-wojowym, projektowaniu systemów i tworzeniu programów komputerowych.Muzyka komputerowa rozwijała się bardzo powoli. Niektórzy złośliwi twierdząnawet, że w ciągu minionych 25 lat powstało więcej systemów niż utworówmuzycznych. Na dzieła „elektroniczne cyfrowe”, jak można by nazwać utworypowstałe za pomocą komputera, trzeba było dosyć długo czekać. Wiele wysiłkównad stworzeniem określonych systemów nie prowadziło od razu do konkretnych

57 Wychodzi od roku 1977 w Menloe Park w Kalifornii. Od 1983 w Cambridge, Mass. (MIT Press).58 G. Zieliński,   Algorytmizacja procesu organizowania punktów dyskretnej przestrzeni dźwiękowej. Praca

doktorska w Instytucie Matematyki PW, 1970.59 Była to i część kwintetu na instrumenty dęte zatytułowana ARDO 4031, wykonana przez maszynęcyfrową ODRA 1304 według oryginalnego programu TRST napisanego w języku FORTRAN ICL 1900(1979).

64

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 65/381

Elektroniczna muzyka towarzysząca

rezultatów w postaci utworów muzycznych. Niektóre prace miały w założeniutylko cel poznawczy. Były próbami symulacji dźwięków naturalnych: instrumen-talnych i wokalnych. Inne prowadziły do rezultatów mających dla muzyki elek-tronicznej, pojmowanej jako twórczość eksperymentalna, znaczenie uboczne. Do

takich należały wykorzystywanie komputerowego systemu graficznego do ryso-wania tradycyjnych nut, cyfrowe sterowanie nagrań dźwiękowych, automatycznydyrygent, odczytywanie renesansowych tabulatur lutniowych itd.

Przy pomocy komputera i programów komputerowych powstało wiele utwo-rów instrumentalnych, jak wspomniane wcześniej utwory Hillera i Xenakisa,a także instrumentalne utwory Gottfrieda Michaela Koeniga (Project I  na 14 in-strumentów, 1967,  Project II  na 9 instrumentów, z tego samego roku). Niektórez nich przybierały postać utworów na taśmę, jak Lejarena Hillera i Johna Cage’a HPSCHD   na 1–7 klawesynów i 1–51 magnetofonów. Odtwarzane z taśmy na-grania klawesynowe sterowane są przez program z komputera, który zgodnie

z zastosowanymi regułami I-Ching dokonuje „elektronicznego montażu” nagra-nych fragmentów. Można by to nazwać komputerową muzyką konkretną.

Powstały i powstają w coraz większej ilości oryginalne utwory elektronicznew technice cyfrowej. Wymienimy tu tylko kilkanaście pozycji. W nawiasach po-dajemy ośrodek, w którym utwór zrealizowano, nazwę programu, którym sięposłużono i datę powstania:

Barry Vercoe (ur. 1937) Synthetism (Uniwersytet Princeton, MUSIC 360, 1969); Jean-Claude Risset Mutation I  (Laboratoria Bella, MUSIC V, 1969); Charles Do dge(ur. 1942)  Earth’s Magnetic Field   (Columbia University, MUSIC 360, 1970); Jon

Appleton (ur. 1939)   Georganna’s Farewell   (Darthmouth College, DarthmouthDigital Synthesizer, 1975); Herbert Br un (ur. 1918)   Dust   (Uniwersytet Illinois,1976); Tim Souster (1943–1994) Driftwood Cortege (Stranford University, SCORE,1978); Lejaren Hiller  Electronic Sonata  (SUNY Buffalo, MUSIC V, dźwięki natu-ralne przetwarzane via komputer, Vocoder, 1976); Knut Wi gg e n (ur. 1927) StudyNr. 3   (EMS Sztokholm, EMS 1, 1974); Ivo Malec  Recitativo   (GRM Paryż, 1980);

 Jonathan B e r ge r  To the Lost History of Hope   (Stanford University, SAIL, 1981);Horacio Vaggione (ur. 1943)  Octuor  (IRCAM Paryż, MUSIC 10, 1982); TeresaR a m p a z z i Geometrie in moto (Uniwersytet w Padwie, MUSICA, 1982).

1.12. Elektroniczna muzyka towarzysząca

Muzyka towarzysząca tworzona dla potrzeb filmu, telewizji, teatru i radiastanowi w wielu ośrodkach muzyki elektronicznej dosyć poważną część produk-cji. Tak jest na przykład w warszawskim Studiu Eksperymentalnym, podobniew studiach GRM w Paryżu.

Specyficzną cechą muzyki towarzyszącej, nie tylko zresztą elektronicznej, jest

duża zależność czasu muzycznego od przebiegu czasowego zdarzeń, którymta muzyka towarzyszy. Tempo, stałość lub zmienność układów metrorytmicz-nych, rozłożenie akcentów, kulminacje, narastania i rozładowania uzależnione są

655 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 66/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 67/381

Elektroniczna muzyka towarzysząca

Eksperymenty bliższe muzyce konkretnej tworzyli w latach 1949–1950 Louisi Beebe Baron. W roku 1951 założyli oni w Nowym Jorku pierwsze w Ame-ryce studio muzyki elektronicznej, od początku wiążąc swoje prace z produkcjąmuzyki filmowej. Najbardziej znane są ich ilustracje muzyczne do pełnometra-

żowych filmów fabularnych  Dzwony Atlanty   (1953),  Zakazana planeta   (reż. FredMacLeod-Wilcox, 1956) i Mosty  (1969).Począwszy od połowy lat pięćdziesiątych eksperymentalna muzyka filmowa

staje się po prostu jednym z gatunków muzyki elektronicznej i przejmuje odelektronicznej muzyki koncertowej technologię i metody produkcji. Szczególniechętnie używana jest do ilustrowania filmów typu science fiction i do wspieraniaanimowanych filmów trickowych.

Z punktu widzenia warsztatowego elektroniczna muzyka ilustracyjna (bo takprzyjęło się nazywać muzykę towarzyszącą, nawet wówczas, kiedy nie ilustruje

 bezpośrednio niczego) nie różni się od muzyki tworzonej jako dzieło autono-miczne. Jej faktura jest zazwyczaj nieco uproszczona w stosunku do muzykitworzonej tylko do słuchania, zwłaszcza w przypadkach, gdy pożądane jest, abynie odrywała uwagi widza od akcji, lecz aby stanowiła jeden z dalszych planów— tło dźwiękowe.

W filmach animowanych muzyka elektroniczna stanowi często jedyną warstwędźwiękową. Ze względu na uniwersalność materiału dźwiękowego, jakim możeposługiwać się muzyka elektroniczna, w wielu przypadkach to, co w filmachz instrumentalną ilustracją muzyczną bywa dodawane w postaci tzw. efektów

akustycznych, może być tutaj uwzględnione w samym dźwięku elektronicznym jako integralna część ilustracji muzycznej. W takich przypadkach dla ułatwieniapracy przygotowuje się dwie osobne taśmy muzyki ilustracyjnej: taśmę „syn-chroniczną”, zawierającą efekty elektroakustyczne i struktury muzyczne mającewypunktować pewne akcje ekranowe, i taśmę z warstwą „ciągłą”, której współ-

 bieżność z akcją filmową uwarunkowana jest tylko ogólnym czasem trwaniadanych sekwencji obrazu. Taśma pierwsza zawierająca osobne zdarzenia dźwię-kowe daje się wtedy łatwo montować „pod obraz”, podczas gdy ciągłość muzykiznajdującej się na taśmie drugiej nie ulega zakłóceniu.

Czasem muzyka towarzysząca zostaje skomponowana i nagrana przed nakrę-ceniem scen filmowych. W czasie zdjęć nagranie zostaje odtworzone z głośnika,aby aktorzy mogli dostosować swoje ruchy do tempa i rytmu muzyki, która po-tem będzie towarzyszyć tej scenie na ekranie. W żargonie filmowców nazywa sięto kręceniem obrazu „pod play-back”. Stosuje się to wszędzie tam, gdzie nie-odzowne jest zachowanie ścisłej synchronizacji ruchu z dźwiękiem przy nieza-chwianej płynności przebiegu muzycznego (taniec). W filmie animowanym takaprocedura nosi miano presynchronu. Presynchron umożliwia bardzo precy-zyjne animowanie obrazu zgodnie z przebiegiem muzyki. Przeciwieństwem tego

 jest p os ts yn c hr o n, to jest procedura polegająca na tym, że najpierw nakrę-cany jest gotowy film na niemo, a do niego dopasowywana jest towarzyszącamu muzyka.

675∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 68/381

Historia i rozwój

1.13. Najstarsze ośrodki muzyki elektronicznej na świecie

1948 Paryż — studio radia RTF początkowo działające w ramach „Club d’Essai”(istniejącego od 1943), w 1951 usamodzielnione jako Groupe de MusiqueConcrete, a w 1958 przemianowane na Groupe de Recherches Musicales(GRM), kier.: Pierre Schaeffer (przejściowo Pierre Henry), od 1966 FrancoisBayle.

1951 Kolonia — Studio f ur Elektronische Musik radia NWDR, kier.: HerbertEimert, od 1966 Karlheinz Stockhausen.

— Nowy Jork — studio komercyjne Louis i Beebe Baron (muzyka filmowa).— Nowy Jork — „Project of Music for Magnetic Tape”, luźna grupa kompo-

zytorów wokół Johna Cage’a; prace w prywatnych mieszkaniach (rozwią-zana w 1953).

1952 Nowy Jork — studio Uniwersytetu Columbia, Vladimir Ussachevsky i OttoLuening; pełny status otrzymuje w roku 1959 jako Columbia-PrincetonElectronic Music Center, kier.: Vladimir Ussachevsky, od 1976 Mario Da-vidovsky.

1953 Berlin (Zachodni) — Studio Elektroakustyczne Uniwersytetu Technicz-nego, kier.: Fritz Winckel, od 1975 Folkmar Hein.

1954 Gravesano (Szwajcaria) — Experimentalstudio Gravesano, kier.: HermannScherchen.

— Ottawa — Elmus Laboratories, kier.: Hugh Le Caine.— Mediolan — Studio di Fonologia Musicale radia RAI w Mediolanie, kier.:

Luciano Berio.— Tokio — Studio muzyki elektronicznej radia NHK (Nippon Hoso Kyokai),

kier.: Toshiro Mayuzumi.

1957 Warszawa — studio Eksperymentalne Polskiego Radia, kier.: Józef Pat-kowski, od sierpnia 1985 Ryszard Szeremeta, od 2000 Krzysztof Szlifirski.

— Eindhoven (Holandia) — studio w laboratoriach firmy Philips, kier.: R. R.

Vermeulen; zlikwidowane w 1960.— Delft (Holandia) — Studio CEM (Contactorgaan Elektronische Musiek) naUniwersytecie w Delft, kier.: I. W. Kok; zlikwidowane w 1961.

1958 Bruksela — studio APELAC, kier.: Henri Pousseur; w 1970 przeniesionedo Liege, kier.: Leo Kupper.

— Londyn — Radiophonic Workshop BBC, kier.: Desmond Briscoe.— Paryż — STUDIO APSOME, prywatne studio Pierre’a Henry’ego.— Santiago de Chile — Studio de Universidad Catolica, kier.: Jose Vincente

Asuar.

1959 Bilthoven — studio Fundacji „Gaudeamus”, kier.: J. M. Vink.— Buenos Aires — studio Instituto Torquato di Tella, kier.: Alberto Ginastera;

zamknięte w 1971.

68

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 69/381

Najstarsze ośrodki muzyki elektronicznej na świecie

— Genewa — Centre de Recherches Sonores de la Radio Suisse Romande,kier.: Andre Zumbach.

— Murray Hill (New Jersey, USA) — studio muzyki komputerowej w BellTelephone Laboratories, kier.: Max V. Mathews.

— Sao Paulo — Grupo Musica Nova, kier.: Gilberto Mendes.— Toronto — Electronic Music Studio Uniwersytetu w Toronto, kier.: ArnoldWalter, później Gustav Ciamaga.

— Urbana (Illinois, USA) — Experimental Music Studio Uniwersytetu Illinois,kier.: Lejaren A. Hiller.

— San Francisco — San Francisco Tape Music Center; w 1966 przeniesionedo Mills College w Oakland w Kalifornii, kier.: Morton Subotnick.

1960 Utrecht — Instituut voor Sonologie na Uniwersytecie Królewskim w Ut-rechcie, kier.: Gottfried Michael Koenig.

1.13.1. Ważniejsze studia muzyki elektronicznej powstałe po roku 1960

1961 Moskwa — Laboratorium Muzeum Skriabina, kier.: Ewgenij Murzin.

1962 Gandawa — Instituut voor Psychoakoestiek en Elektronische Muziek przyPaństwowym Uniwersytecie w Gandawie, kier.: Lucien Goethals.

— Rio de Janeiro — Centro de Pesquisas Cromo-Musicalis, kier.: Jorge Au-tunes.

1963 Florencja — Studio di Fonologia Musicale, kier.: Pietro Grossi.1964 Montreal — studio Uniwersytetu McGill, kier.: Istvan Anhalt, Paul Peder-

sen i Alcides Lanza.— Sztokholm — Elektron Musik Studion (EMS), kier.: Knut Wiggen.

1965 Bratysława — Experimentalní Studio Radia Czechosłowackiego w Braty-sławie, kier.: Peter Kolman.

— Wiedeń — studio muzyki elektronicznej Musikhochschule, kier.: FriedrichCerha.

— Madryt — studio ALEA, kier.: Luis de Pablo.— Monachium — studio firmy SIEMENS; w 1969 przekazane Fundacji SióstrScholl, kier.: Joseph-Anton Riedl.

1966 Freiburg (RFN) — Experimentalstudio des Sudwestfunks, kier.: Hans PeterHaller.

— Londyn — Electronic Music Studios (EMS London), kier.: Peter Zinovieff (czynne do 1979).

— Trumansburg (w stanie Nowy Jork) — Independent Music Center, kier.:Robert Moog.

— Paryż — Centre d’´Etudes de Mathematique et Automatique Musicales(CEMAMu), kier.: Iannis Xenakis.

1967 Melbourne — studio Uniwersytetu w Melbourne, kier.: Keith Humble.

69

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 70/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 71/381

Najstarsze ośrodki muzyki elektronicznej na świecie

Londyn — Electronic Music Studios (EMS); Peter Zinovieff, Peter Grogono; EMS,MUZYS, Vocoder, Syntezator cyfrowy, 1967 (1963).

Hanower (New Hampshire, USA) — Bregman Electronic Music Studio, Dar-thmouth College; Jon Appleton, Cameron Jones; PLAY, SING, TEACH,

syntezator cyfrowy New England Digital Corp., 1967.Buffalo — Experimental Music Studio, State University of New York at Buffalo;Lejaren Hiller, Charles Aimes; MUSIC V, MUSICOM, 1968.

Nowy Jork — Queens College Electronic Music Studio, City University of NewYork; Hubert S. Howe; MUSIC 7, MUSIC 4BF, MUSIC 360, 1969 (1968).

Piza — Instituto di Calcolo del Consiglio Nazionale delle Ricerche (CNUCE);Pietro Grossi; DCMP, TAUNUS, PLAY 1800, 1969.

Sztokholm — Stiftelsen Elektronmusikstudion (EMS); Knut Wiggen (do 1976), Jon Appleton (1976–1978), Lars-Gunnar Bodin; EMS 1 (2–5), SYNTAL,

CHANT, IMPAC, 1970.York (Ontario, Kanada) — York University Electronic Music Studios; David Ro-senboom, James Tenney; MUSIC 360, IMSAI 8080, 1970.

Nowy Jork — Columbia-Princeton Electronic Music Center; Charles Dodge; MU-SIC 360, 1970 (1959).

Paryż — Centre d’Etudes de Mathematique et Automatique Musicales (CE-MAMu); Iannis Xenakis; UPIC, 1972 (1966).

Bloomington — Center for Electronic and Computer Music, Indiana Universityat Bloomington; John Nagorsky, Iannis Xenakis, Garry Levenberg; STO-CHOS, JANUS, MUSTRAN, MUSIC V, 1970 (1968).

Utrecht — Instituut voor Sonologie, Królewski Uniwersytet w Utrechcie; Gott-fried Michael Koenig, Otto Laske (1970–1975), Stan Tempelaars, Paul Berg;PR1, PR2, ASP, PILE, VOSIM, SSP, 1971 (1960).

Cambridge (Massachusetts, USA) — Massachusetts Institute of Technology (MIT);Barry Vercoe, Dean Wallraff; MUSIC 360, MUSIC 11, NEDIT, 1971.

Burnaby (British Columbia, Kanada) — Sonic Research Group, Simon FrazerUniversity; Barry Truax; POD 6, POD 7, SCORE (transkrypcja POD natradycyjne pismo nutowe), 1973 (1971).

San Diego (Kalifornia) — Center for Music Experiments, University of California

at San Diego (La Jolla); Roger Reynolds, Pauline Oliveiros, E. Kobrin;TIMBRE-TUNING, HYBRID IV, RHYTHM, 1973 (1972).

Helsinki — Oy Yleisradio Kokeilustudio; Jarmo Sermila, Jukka Ruohomaki; DI-SCORD 2, 1974.

Stanford (Kalifornia) — Center for Computer Research in Music and Acoustics(CCRMA), Stanford University; John Chowning, Richard Moore, James A.Moorer; MUSIC 10, SAMBOX, 1975 (1964).

Paryż — Institut de Recherche et de Coordination Acoustique-Musique (IRCAM); Jean-Claude Risset (do 1980), Peppino di Giunio, John Gardner, Tod Ma-

chover, David Wessel, 1975.Albany (Nowy Jork) — State University of New Jork at Albany; Joel Chadabe;

RTMS 1, SCIPS, 1975 (1966).

71

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 72/381

Historia i rozwój

Melbourne — Melbourne University; Barry Conyngham, Carl Stevens; MUSICFM, MUSIC 11, 1976.

Toronto — Computer Systems Research Group, Stanford Flemming Laborato-ries, University of Toronto; William Buxton, Gustav Ciamaga; SSSP, POD,

AUTOPERFORM, 1977 (1972).Paryż — Groupe de Recherches Musicales, Institut de l’Audiovisuel (GRM-INA);Francois Bayle, Jean-Francois Allouis; SYTER, 1976 (1948).

York — York University Electronic Music Studio; Richard Orton, Denis Smalley,Trevor Wishart; MUSIC 11, 1980 (1968).

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 73/381

II. Studio klasyczne (manualne)

2.1. Studio klasyczne

Studio klasyczne jest właściwie pojęciem historycznym; w latach pięćdziesią-tych i do połowy lat sześćdziesiątych było to po prostu jedyne — możliwe —

studio. Opierało się na istniejącej aparaturze stosowanej w radiofonii i w przemy-śle fonograficznym, a służącej nagraniom dźwiękowym (mikrofony, stoły mik-serskie, magnetofony) lub używanej do celów pomiarowych (generatory, filtry).Podstawową metodą pracy było izolowanie fragmentów dźwiękowych nagranychna taśmę i mozolne sklejanie tych urywków w nowe przebiegi. Dopiero po wpro-wadzeniu techniki syntezatorowej i automatycznych ułatwień, a co za tym poszło— rezygnacji w dużej mierze z mozolnej pracy ręcznej — zaczęto określać tenzdezaktualizowany, ale zawsze godny szacunku typ pracy jako „klasyczny”.

Autorowi można by postawić zarzut, że niepotrzebnie zajmuje uwagę i czasczytelnika opisywaniem urządzeń i technologii, z których od dawna nikt nie ko-

rzysta, istnieją bowiem nowocześniejsze i bardziej efektywne. Na odparcie tegozarzutu mam jeden poważny argument. Technika klasyczna wypracowana w la-tach pięćdziesiątych wpłynęła nie tylko na sam proces powstawania muzyki nataśmie, ale też w poważnym stopniu przyczyniła się do ukształtowania pewnychnawyków myślowych, niezależnych od późniejszych zmian i wprowadzanychnowych urządzeń. Cała technika syntezatorowa, a także większość koncepcjikomputerowej syntezy dźwięku oparte są na typie myślenia przejętym wprostz dawnego studia manualnego, operującym takimi pojęciami jak generowanie to-nów i dźwięków o określonym kształcie, składanie dźwięków z tonów prostych,

filtrowanie, modulacja amplitudy i modulacja częstotliwości, obwiednia, pogłositd., a z drugiej strony rejestracja dźwięków naturalnych i różne operacje na nich,takie jak wycinanie fragmentów, pętla, montaż, nakładanie warstw, zgrywanie.Elementy te i pojęcia stosowane są do dzisiaj w zaawansowanej technice cyfro-wej i poznanie ich źródeł powinno się przyczynić do lepszego zrozumienia tego,z czym mamy do czynienia dzisiaj. Technologia studia klasycznego jest nadalpodstawą do poznawania nowszych i bardziej efektywnych technik. Zaletą studiaklasycznego był brak gotowych układów. Miało się w nim do czynienia z suro-wym materiałem i prostą techniką, dzięki którym można było uzyskać niemalwszystko, na co pozwalała wyobraźnia kompozytora (oczywiście z ogranicze-

niami, jakie wynikały z samej techniki), a wadą była ogromna pracochłonnośćwszelkich realizacji dźwiękowych, która stawiała pod znakiem zapytania sensniektórych złożonych operacji.

73

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 74/381

Studio klasyczne (manualne)

Podstawą techniki klasycznej był magnetofon i wszystko to, na co pozwalałyoperacje z taśmą magnetofonową. Nieodzownymi atrybutami były nożyczki i ta-śma klejąca. Nagrywanie, montaż, pętla taśmy, odtwarzanie ze zmienną prędko-ścią przesuwu, odtwarzanie wstecz, kopiowanie, zgrywanie i synchronizowanie

warstw, były podstawowymi operacjami, bez których nie zaistniałaby muzykaelektroniczna.Do przeprowadzania tych operacji nieodzowny był tor foniczny z jego central-

nym punktem w postaci stołu mikserskiego. Na początku tego toru znajdowałysię źródła — akustyczne i elektroniczne, a na jego końcu urządzenia do reje-stracji dźwięku i do jego projekcji akustycznej. Podobnie jest zresztą i dzisiaj,choć w mocno zmienionej konfiguracji. W środku mieściły się urządzenia prze-kształcające i kontrolne. Schemat ideowy studia klasycznego pokazany jest nailustracji 1 na s. 75.

Stosowany przez wielu autorów ścisły podział na urządzenia do wytwarzania,

przekształcania i rejestracji dźwięku jest trochę sztuczny, bowiem te same urzą-dzenia (generator impulsów, magnetofon) raz mogą służyć do jednego, a drugimrazem do innego celu. Tak więc najważniejsze urządzenia studia „przedsynte-zatorowego” będziemy opisywać kolejno, wskazując na korzyści płynące z ichużytkowania. Następnie zajmiemy się technologią pracy studia klasycznego. Po-traktujemy ją tylko przeglądowo, ponieważ było właściwie tyle technologii ilu

 było kompozytorów, a nieraz i utworów. Był to okres pionierski i każdy, kto dzia-łał na tym polu musiał być zarazem kompozytorem, akustykiem, technologiem,a czasem także i konstruktorem, a zawsze — ciężko pracującym manualnym

wykonawcą swoich pomysłów.

2.2. Technika magnetofonowa

Do podstawowych urządzeń studia klasycznego należały magnetofony. W stu-dio musiało ich być kilka (co najmniej 3), gdyż dopiero zestaw magnetofonów po-zwalał na przeprowadzenie szeregu operacji nieodzownych do powstania utworu

na taśmie. Magnetofon dawał kompozytorowi możliwości znacznie wykraczającepoza pierwotne funkcje, jakimi są rejestracja i odtwarzanie gotowych przebiegówdźwiękowych. Magnetofon może stać się urządzeniem przekształcającym, kiedyna przykład taśma nagrana z jedną prędkością przesuwu odtwarzana jest z inną,lub założona końcem do przodu odtwarzana jest w odwrotnym kierunku niż byłanagrana. Poprzez sprzężenie zwrotne, czyli podłączenie odczytu taśmy z powro-tem na nagranie, można uzyskać efekt iteracji podobny do gasnącego tremolo.Przebiegi dźwiękowe nagrane na kilku taśmach można odtwarzać równocześniez kilku magnetofonów i nagrywać na innym magnetofonie, uzyskując nałożenieodtwarzanych przebiegów. Nagrana taśma może być cięta na dowolnie krótkie

odcinki i sklejana w innych konfiguracjach.Na koniec, magnetofon służył do rejestracji gotowych struktur muzycznych,

zarówno materiałów traktowanych jako przejściowe, a więc zachowanych tym-

74

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 75/381

Technika magnetofonowa

    I    l .    1

75

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 76/381

Studio klasyczne (manualne)

czasowo do późniejszego wykorzystania lub poddania przekształceniom, jak i dorejestracji finalnej postaci kompozycji. Nieprzypadkowo więc jednym z synoni-mów muzyki elektronicznej była muzyka na taśmę. Niezależnie bowiem odtego, czy istniała przedtem jakaś „partytura” lub szczegółowy opis materiału

i technologii, czy też utwór był wynikiem dokonywanych na żywo eksperymen-tów, jedyną postacią gotowego utworu, względnie warstwy elektronicznej utworuelektroniczno-instrumentalnego, był jego zapis na taśmie magnetycznej.

W latach powstawania muzyki na taśmę podstawowym sprzętem studyjnym był magnetofon monofoniczny pełnośladowy pracujący z prędkością przesuwu76,2 cm/s. Mimo niskiej jakości stosowanych wówczas taśm i oparciu elektronikio układy lampowe, dawał on stosunkowo niezłe przenoszenie całego pasmaakustycznego i znośny odstęp sygnału od szumów (rzędu 45–55 dB).

W połowie lat pięćdziesiątych do techniki nagraniowej zaczęto wprowadzaćmagnetofony wielośladowe, rejestrujące na tej samej taśmie kilka równolegle

 biegnących sygnałów fonicznych.Najszybciej rozpowszechnił się dwuśladowy magnetofon stereofoniczny na ta-

śmę ćwierćcalową, do czego przyczyniło się w głównej mierze wprowadzeniena szerszą skalę stereofonii do przemysłu fonograficznego. W latach sześćdzie-siątych magnetofon stereofoniczny należał już do standardowego wyposażeniakażdego studia elektronicznego, gdzie używany był obok ulepszonych już w tymczasie magnetofonów, służących nadal do wszystkich operacji przeprowadzanychna pojedynczym sygnale. Jako profesjonalna prędkość standardowa został przy-

 jęty przesuw 38,1 cm/s (= 15 cali).

Magnetofon czterośladowy na taśmę szeroką (1-calową) pojawił się w studiachnagraniowych również w połowie lat pięćdziesiątych. Przez długie lata używany był wyłącznie jako pośrednie ogniwo w łańcuchu nagraniowym, mianowicie dorejestracji sygnałów pochodzących z różnych grup mikrofonów w celu później-szego ich zgrania w formie nagrania monofonicznego lub dwukanałowego ste-reofonicznego. Przy nagrywaniu muzyki rozrywkowej czterośladu zaczęto uży-wać do rejestracji poszczególnych grup nie jednocześnie, lecz kolejno ślad pośladzie. Konstrukcja wielośladu pozwalała na wykorzystanie głowic zapisują-cych zarówno do zapisu, jak i do odczytu. Zatem przy sukcesywnym nagry-waniu drugiego i następnych śladów możliwe było jednoczesne odsłuchiwanienagranych już śladów z zachowaniem pełnej synchroniczności.

System kolejnego dogrywania śladów okazał się bardzo użyteczny w studiumuzyki elektronicznej, w którym czteroślad znalazł wkrótce swoje miejsce obokmagnetofonów jedno- i dwuśladowych. Czteroślad pozwalał też na przygotowa-nie taśm finalnych do projekcji przestrzennej w sali koncertowej. Taką projekcję,

 jednak przy wyjściu z jednego śladu, propagował Pierre Schaeffer jeszcze napoczątku lat pięćdziesiątych, wyprzedzając tym wprowadzenie kwadrofonii napłytach gramofonowych o dobrych dwadzieścia lat. Począwszy od Eimerta  F ¨ unf St¨ ucke (1955) i Stockhausena  Kontakte (1960), w których kompozytor użył zapisu

czterośladowego dla uzyskania kinetycznych efektów przestrzennych, jak np. wi-rowanie dźwięku, coraz częściej pojawiają się kompozycje przeznaczone od razudo projekcji czterokanałowej.

76

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 77/381

Technika magnetofonowa

Lata siedemdziesiąte przyniosły dalsze udoskonalenia w konstrukcji magneto-fonów i jakości taśm. Obok powszechnie już stosowanych magnetofonów cztero-śladowych pojawiły się magnetofony 8- i 16-śladowe (a nawet 24- i 32-śladowe),na taśmę szerszą, półcalową lub calową. Wyposażano je z reguły w systemy

redukcji szumów (np. Dolby, DBX). Stosowanie taśm niskoszumiących (ang.  lownoise) i nowoczesna konstrukcja elektroniczna oparta na obwodach scalonychpozwoliły na znaczne polepszenie jakości nagrania i na uzyskiwanie większegoodstępu sygnału od szumów, rzędu 65 dB. Nie trzeba dodawać, że wszystko topodniosło koszt sprzętu i materiału. Wyposażanie studiów muzyki elektronicznejstawało się coraz droższe.

Prawdziwą rewolucję w technice rejestracji dźwieku przyniósł dopiero cyfrowyzapis dźwięku (omówimy go w części czwartej tej książki). Zaprezentowanyzostał po raz pierwszy w roku 1973, a już w roku 1979 wielkie wytwórniepłytowe zrobiły z niego użytek na skalę handlową.

2.2.1. Nagrania, kopie, przegrania

 Jakkolwiek najważniejszą funkcją magnetofonu jest nagrywanie, a więc re- jestrowanie sygnałów dostarczanych przez mikrofony, generatory i urządzeniaprzetwarzające, to omówienie tego etapu odłożymy na później do rozdziału,w którym zajmiemy się działaniem i obsługą stołu mikserskiego stanowiącegoostatnie ogniwo toru fonicznego przed wprowadzeniem sygnału na układ nagry-wający magnetofonu. Istotniejsze jest bowiem przygotowanie sygnału fonicznego

do nagrania niż samo nagranie, które przebiega automatycznie i nie wymagażadnych czynności poza włączeniem i wyłączeniem. Magnetofony profesjonalnenie posiadają bowiem z reguły dostępnych dla użytkownika regulacji poziomunagrania ani wskaźników wysterowania. Tak więc i regulacja i kontrola wyste-rowania muszą być dokonywane o stopień wcześniej, to jest na stole mikserskim.

Obok nagrań pierwotnych, a więc nagrań materiału, który nie został jeszczezarejestrowany ani na taśmie, ani na płycie, niezmiernie ważnymi elementamipracy studyjnej są nagrania wtórne: kopie i przegrania.

O kopii mówimy wówczas, kiedy zamiarem jest otrzymanie zapisu magne-

tycznego możliwie identycznego z tym, jaki znajduje się na nośniku pierwotnym.Kopie wykonuje się dla pomnożenia nagrania, jeśli jest to potrzebne w dalszymciągu pracy, albo dla uzyskania taśmy jednolitej, wówczas kiedy oryginał zawie-rał wiele sklejek montażowych. Kopie wykonuje się również w tych przypad-kach, kiedy nośnik nie może być używany do dalszego opracowywania (płytagramofonowa, taśma nagrana z inną prędkością, taśma archiwalna).

O przegraniu mówimy wówczas, kiedy zapis wtórny jest przetworzeniemtego, co zawiera zapis pierwotny. Przy przegrywaniu w tor foniczny pomię-dzy magnetofon odtwarzający a magnetofon nagrywający zostają wprowadzoneurządzenia formujące lub przekształcające sygnał (tłumiki, korektory, filtry, mo-

dulatory itd.). Z przegraniem mamy do czynienia również wtedy, kiedy prze-tworzenia dokonuje sam magnetofon, np. przez zmianę prędkości przesuwu lubprzez zastosowane sprzężenie zwrotne.

77

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 78/381

Studio klasyczne (manualne)

2.2.2. Szumy taśmy

Ponieważ w studiu klasycznym nie było jeszcze urządzeń do redukcji szumów,a ogólny poziom techniki był znacznie niższy od współczesnego, trzeba się było

 bardzo liczyć z szumami własnymi taśmy i pamiętać o tym, że każde prze-granie i kopiowanie powoduje sumowanie się szumów z poprzednich nagrańz aktualnie dokonywanym. Poziom szumów taśmy po nagraniu wynikły z wła-ściwości taśmy i układów elektromagnetycznych magnetofonu nie jest zależnyod poziomu nagrywanego sygnału. Im więc sygnał wysterowywany jest wyżej,tym szumy taśmy są mniej słyszalne. Zwiększa się bowiem odstęp sygnału odszumów i szumy te są przez sygnał maskowane.

Aby więc zachować czytelność sygnału i oddalić go możliwie od szumówtaśmy, każdy sygnał, a szczególnie taki, który miał być jeszcze potem wielokrot-nie przegrywany, musiał być nagrywany z maksymalnie wysokim poziomem

wysterowania.Ten poziom wysterowania był jednak ograniczony możliwościami apara-tury (wzmacniaczy) i taśmy. Przekroczenie pewnego poziomu, oznaczanego nawskaźnikach kontrolnych jako 0 dB, czyli tzw. p r z e st e r ow a ni e, wprowadzałodo sygnału niepożądane i niekontrolowane zniekształcenia. Dobre nagranie wy-magało stałego obserwowania wskaźników wysterowania, tak aby jego poziom

 był możliwie wysoki, ale nie przekraczał z wyjątkiem sporadycznych „pików”tego zaklętego poziomu 0 dB.

Konieczność zachowania maksymalnie możliwego odstępu sygnału od szu-mów prowadziła do procedury polegającej na tym, że dźwięki, które miały byćw ostatecznej wersji kompozycji utrzymane w dynamice pianissimo, były na-grywane i przegrywane wielokrotnie z wysterowaniem bliskim maksymalnego,a dopiero przy ostatnim przegraniu (zgrywaniu) ściągane do pożądanego wyste-rowania. Przy takim postępowaniu szumy nabyte w tych pośrednich nagraniachzostawały obniżone razem z sygnałem do poziomu schodzącego poniżej poziomuszumów pojedynczego nagrania.

Wraz z wprowadzeniem taśm niskoszumiących pozwalających na wysterowa-nie do ok. 6dB ponad poziom zerowy bez słyszalnych zniekształceń sygnału,wraz z ulepszeniem aparatury nagrywającej, a zwłaszcza z wprowadzeniem sys-

temów redukcji szumów (Dolby, DBX i in.), co nastąpiło generalnie dopierow latach siedemdziesiątych, sprawa szumów własnych taśmy stała się dla pracyw studiu znacznie mniej krytyczna. Zakres dynamiki nagrań rozszerzył się w sto-sunku do lat pięćdziesiątych o dobrych kilkanaście decybeli, a automatyczneograniczniki wysterowania, stosowane w niektórych nowoczesnych rozwiąza-niach, strzegą przed zniekształceniami niespodziewanych wyskoków dynamikiniektórych dźwięków.

2.2.3. Montaż taśmy

Montaż polega na przycinaniu i sklejaniu poszczególnych odcinków taśmypochodzących albo z różnych nagrań, albo z tego samego nagrania, ale z odrzu-ceniem pewnych fragmentów lub ich przemieszczeniem względem siebie. Przez

78

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 79/381

Technika magnetofonowa

długie lata aż do wprowadzenia techniki syntezatorowej montaż był podstawowąmetodą tworzenia poziomych struktur dźwiękowych i był stosowany w pracy za-równo z dźwiękiem konkretnym, jak i elektronicznym. Technika montażu (ang.editing, od terminu używanego przy montażu taśmy filmowej) pozwala nie tylko

na łączenie dźwięków lub fragmentów dźwięków w inne, często nieznane w na-turze sekwencje dźwiękowe, ale daje również możliwość wprowadzania pauz,a to przez wklejanie pomiędzy fragmenty nagrane tzw. „blanku” (taśmy roz-

 biegowej lub nie nagranej taśmy magnetycznej). Najprostszy montaż, stosowanynie tylko w muzyce elektronicznej, ale przy wszystkich nagraniach na taśmie,to mo n ta ż por z ą dku j ą cy, polegający na odrzuceniu z taśmy nie nagranychfragmentów i zastąpienie ich taśmą rozbiegową oraz sklejenie w jedną całość frag-mentów utworu, jeżeli nagrywany był z przerwami, powtórzeniami lub w innejkolejności niż przewiduje to partytura. Ten typ montażu reprezentuje również se-

lekcja nagranego materiału — wybór najlepszych nagrań mikrofonowych, odrzu-cenie „dubli”, wycięcie przypadkowych stuków i innych zakłóceń, rozdzieleniepaskami „blanku” poszczególnych jednostek nagraniowych, na koniec przygo-towanie taśmy do dalszego opracowywania. Montaż porządkujący nie ingerujezatem w treść nagrania, a jedynie porządkuje to, co znalazło się na nagranej ta-śmie, zgodnie z dalszymi zamierzeniami nagrywającego. Odróżniamy od niegomontaż właściwy (fr.  collage), jako montaż ingerujący w naturalny przebiegzjawisk dźwiękowych. Możliwości tej ingerencji są niezliczone, a montaż taśmystanowił przez długie lata podstawową metodę sukcesywnego formowania struk-tur dźwiękowych.

Najczęściej stosowanym zabiegiem było frakcjonowanie dźwięków, to jest dzie-lenie nagranego na taśmie dźwięku na szereg odcinków, w celu sklejania ichpotem czy to w innej kolejności, czy to ze zmianą kierunku, czy wreszcie z po-minięciem wielu fragmentów.

Efektami różnego łączenia tak pociętych dźwięków były:

a) dźwięki ułomne — pozbawione jednej z ważniejszych części, np. dźwiękfortepianu z odciętym atakiem (akcentowanym początkiem) lub odwrotnie —sam atak uderzenia w kocioł pozbawiony naturalnego wybrzmienia;

 b) dźwięki poszatkowane — pomiędzy poszczególne odcinki dźwięku wsta-wione zostają odcinki ciszy (nie nagranej taśmy);c) zbitki dźwiękowe — krótkie urywki różnych dźwięków i kompleksów

dźwiękowych sklejone w ciąg stanowiący nowe zdarzenie złożone;d) ciągi dźwiękowe — twory złożone z różnych dźwięków: całych, ułomnych,

poszatkowanych i zbitek dźwiękowych, stanowiące, ze względu na mniejszą gę-stość niż w zbitkach, sekwencje zdarzeń dźwiękowych.

Niejednokrotnie montaż sukcesywny kombinowany był z „montażem” symul-tanicznym, tj. zgrywaniem kilku warstw zmontowanych urywków dźwiękowych,

co dawało w sumie bardzo duże zgęszczenie elementów w małym przedzialeczasu, a niepokrywanie się miejsc cięcia w poszczególnych warstwach zacierałoniepożądaną suchość montażu jednowarstwowego.

79

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 80/381

Studio klasyczne (manualne)

Innym efektem osiąganym za pomocą montażu było symetryzowanie dźwięku.Dźwięk kopiowano dwukrotnie, a jednakowe odcinki tych kopii zostawały skle-

 jone: jeden normalnie, a drugi tyłem do przodu (il. 2). Wykonanie szeregu kopii,cięć i sklejeń pozwalało na zamianę dźwięku o charakterze atak z wybrzmieniem

na dźwięk ciągły o falującej dynamice (il. 3). O powodzeniu takiej procedurydecydowała precyzja w odmierzaniu punktów cięcia i dokładność wykonaniasklejek. Małe przesunięcie, nawet rzędu kilku milimetrów, powodowało skoknatężenia i psuło cały efekt.

dźwięk naturalny dwa sklejenia symetryczneIl. 2

dźwięk pierwotny dźwięk po montażu symetrycznym

Il. 3

2.2.4. Zgrywanie

Następną operacją, którą umożliwił magnetofon, a właściwie użycie co naj-mniej 3 magnetofonów i stołu mikserskiego, było zgrywanie kilku uprzedniozmontowanych warstw dźwiękowych na jedną taśmę. Zgrywanie polegające nazmieszaniu sygnałów płynących jednocześnie z kilku magnetofonów następo-wało najpierw na szczeblu przedmiotu dźwiękowego, a potem na szczeblu se-

kwencji dźwiękowych (zob. rozdz. 2.10. Technika klasyczna). Kiedy zaistniałakonieczność zgrywania większej ilości warstw, a w studiu nie było dostatecz-nej ilości magnetofonów lub istniały trudności jednoczesnego ich startowania,warstwy były zgrywane parami.

Poważną trudność sprawiała synchronizacja warstw przy ich zgrywaniuz kilku magnetofonów. Wprawdzie taśmy były mierzone w centymetrach i w mi-limetrach i oznaczenie punktu startu na każdej taśmie nie sprawiało większegokłopotu, trudność jednak polegała na tym, że każdy magnetofon po włączeniunagrania lub odtwarzania potrzebuje pewnego czasu (rzędu 0,2 s) na to, aby za-pewnić taśmie normalną prędkość przesuwu. Ten czas rozbiegu poszczególnych

magnetofonów (nawet tego samego modelu tej samej firmy) nie jest identycznyi może się różnić o odstęp rzędu dziesiątych części sekundy. Jeżeli więc znajdu-

 jące się na dwóch taśmach dwa ostro wchodzące dźwięki zostaną wystartowane

80

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 81/381

Technika magnetofonowa

 jednocześnie z dwóch magnetofonów, to te różnice czasu rozbiegu spowodująsłyszalną nierównoczesność i zgranie będzie nie do przyjęcia.

Inną trudność, już czysto mechaniczną, sprawiało równoczesne startowaniewięcej niż dwóch magnetofonów w przypadkach, kiedy zgrywano więcej warstw

naraz.Zgrywanie warstw ułatwiał w pewnym względzie wieloślad. Ale synchro-niczne umieszczenie kolejnej warstwy na kolejnej ścieżce nastręczało identycznetrudności, jak ich zgrywanie z kilku magnetofonów. Synchroniczna współbież-ność kilku ścieżek dźwiękowych na wielośladach mogła zostać dopiero wtedyw pełni wykorzystana, kiedy nagrywane struktury muzyczne powstawały w cza-sie realnym, a więc tak, jak przy nagrywaniu na kolejnych ścieżkach tego samegomuzyka grającego kolejno na różnych instrumentach. Nastąpiło to jednak dopieropo wprowadzeniu techniki syntezatorowej.

Tak więc montaż (kształtowanie sukcesywne) i zgrywanie (kształtowanie sy-

multaniczne) pozwalały w sumie na tworzenie nowych struktur zarówno pozio-mych, jak i pionowych, stanowiąc w ten sposób podstawowe narzędzie realizacjimuzyki na taśmie.

Większość operacji z taśmą magnetofonową została zapożyczona z wcześniejrozwiniętej techniki filmowej. W pierwszym rzędzie montaż taśmy, stosowanyw filmie zarówno do taśmy obrazu, jak i do taśmy dźwiękowej. Podobnie prze-nikanie dźwiękowe wprowadzone na wzór przenikania obrazów. Także zgry-wanie. W filmie bowiem, nawet przy tradycyjnym opracowaniu dźwiękowym,stosowane było od lat osobne montowanie taśm z optycznym zapisem dźwięku,

zawierających kolejno: dialogi, efekty tła akustycznego, efekty synchronicznez akcją obrazu i muzyką ilustracyjną, a następnie zgrywanie ich na wspólnątaśmę dźwiękową. Zapożyczenia te nie były może całkiem bezpośrednie, gdyż

 jak pamiętamy pionierzy muzyki eksperymentalnej wywodzili się raczej z krę-gów radiowych (Pierre Schaeffer, Herbert Eimert), a właśnie radiowa technikazaadaptowała dość wcześnie na swój użytek szereg operacji znanych z tech-niki filmowej, a także rozwinęła szereg własnych (pogłos, operowanie planamidźwiękowymi).

Z techniki filmowej pochodzi też stosowanie zamkniętej pętli taśmy (ang.  loop).Od dawna bowiem taśmy z optycznym zapisem takich efektów, jak szum fal,kumkanie żab itp. zakładane były na urządzenia odtwarzające nie na szpuli, alew postaci pętli — fragmentu taśmy, którego początek sklejony był z końcem.Po wprowadzeniu magnetofonów do techniki filmowej stosowanie pętli prze-niesiono na taśmę magnetyczną. Stosuje się ją do dzisiaj, między innymi przynagrywaniu tzw. postsynchronów i dubbingu.

2.2.5. Pętla

Zjawisko „dźwięku uwięzionego”, polegające na mechanicznym powtarzaniu

krótkiego urywku muzycznego, Pierre Schaeffer odkrył przez przypadek i jaksię wydaje — niezależnie od wcześniejszego stosowania pętli w filmie. W samychpoczątkach muzyki konkretnej przy pracy na gramofonach z miękkimi płytami

816 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 82/381

Studio klasyczne (manualne)

woskowymi zdarzało się niejednokrotnie, że twarda igła odtwarzająca przery-wała rowek i biegła w kółko powtarzając stale ten sam ułamek frazy. OdkrycieSchaeffera polegało na tym, że zamiast wyrzucić tak zepsuty fragment nagrania,wykorzystał go muzycznie jako ostinato z przypadkowym cięciem. Potem próbo-

wał specjalnie przerywać rowek w wybranych miejscach. Tak powstał efekt sillon ferm´ e (rowek zamknięty). Po krótkim okresie pracy z gramofonami, technikę za-mkniętego rowka przeniósł Pierre Schaeffer na krótką pętlę taśmy magnetycznej.Wykorzystanie pętli stało się jednym z charakterystycznych zabiegów stosowa-nych z upodobaniem we wczesnym okresie muzyki konkretnej.

Pętlę taśmy stosował także Herbert Eimert w Studiu Muzyki Elektronicznejw Kolonii. W jego przypadku chodziło o zaoszczędzenie czasu niepotrzebniezużywanego na cofanie i startowanie magnetofonu przy wgrywaniu kolejnychskładowych wielotonów i wielodźwięków przy pracy nad syntezą dźwięków(zob. rozdz. 2.10. Technika klasyczna).

2.2.6. Sprzężenie, echo, opóźnienie

Sprzężenie zwrotne (ang.   feed back) możliwe jest do uzyskania na każdymmagnetofonie wyposażonym w osobne głowice: zapisującą i odczytującą. Sprzę-żenie powstaje wówczas, kiedy sygnał nagrywany przez głowicę zapisującą i od-twarzany z niewielkim opóźnieniem przez głowicę odczytującą (tzw. sygnał potaśmie) doprowadzany jest z powrotem na głowicę zapisującą, zazwyczaj po-

przez tłumik na konsolecie, i jest ponownie zapisywany. Efektem sprzężenia jestwielokrotne powtarzanie sygnału pierwotnego w odstępach czasu wynikającychz prędkości przesuwu taśmy i odległości pomiędzy głowicami. Przy przesuwie38,1 cm/s i odległości między szczelinami 50 mm powtórzenia następować będąz częstotliwością 7,6 na sekundę. Przy prędkości przesuwu 19 cm/s powtórzeniate będą o połowę wolniejsze. Schemat sprzężenia zwrotnego pokazuje ilustracja 4.

Il. 4

 Jak widzimy, sygnał powracający tworzący pętlę sprzężenia stanowi sumę sy-gnału odczytywanego i dalszego ciągu sygnału pierwotnego. Załóżmy, że sygnałpierwotny ma charakter podobny do impulsu. Jeżeli teraz sygnał powracający

82

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 83/381

Technika magnetofonowa

 będzie miał poziom niższy niż sygnał pierwotny, to efektem będzie szybko zani-kające tremolo. Jeżeli poziom sygnału powracającego będzie równy poziomowisygnału pierwotnego, co uzyskać można przez odpowiednie ustawienie tłumi-ków T1   i T2, wówczas powtarzanie (iteracja) trwać będzie tak długo, jak długo

 będzie włączone nagranie. Trzeba jednak pamiętać, że w tej sytuacji następować będzie powolna zmiana barwy nagrywanego dźwięku spowodowana nieidealnącharakterystyką przenoszenia oraz wzrostem dodających się przy każdym na-graniu szumów taśmy, tak że po pewnym czasie (zależnym od jakości taśmyi magnetofonu) słychać już będzie tylko tremolo sygnałów szumowych. Należytu przestrzec niedoświadczonych użytkowników, że ustawienie tłumika sygnałupowracającego zbyt wysoko, tak że sygnał powracający będzie mocniejszy odpierwotnego, spowoduje powstanie gwałtownego sprzężenia dodatniego, któremoże łatwo doprowadzić do zniszczenia głośników.

 Jeżeli sygnałem nagrywanym w układzie sprzężenia będzie nie pojedynczy

impuls, ale dźwięk o charakterze kompleksowym lub dłuższa sekwencja dźwię-kowa, wówczas efektem nagrania będzie wielokrotne echo, które będzie się nakła-dało na dalszy ciąg sygnału. Przy dźwiękach bardziej ciągłych efekt ten upodobnisię do pogłosu, gdyż iteracja wobec braku ostrych ataków zostanie zatarta.

Niejednokrotnie pożądana jest kontrola zarówno nad częstością powtórzeń, jaki nad czasem wygasania iteracji. Tę drugą osiągamy przez kontrolę poziomu sy-gnału powracającego za pomocą tłumika na konsolecie. Kontrolę częstości powtó-rzeń daje zmiana prędkości przesuwu taśmy, do czego konieczne jest wykonaniesprzężenia zwrotnego na magnetofonie o zmiennej prędkości. Im większa pręd-

kość przesuwu taśmy, tym większa częstość iteracji. Innym sposobem zmianyczęstości iteracji jest zmiana długości drogi, jaką ma przebyć taśma pomiędzygłowicami zapisującą i odczytującą. Wymaga to specjalnej konstrukcji magne-tofonu z ruchomą głowicą odczytującą lub, dla dłuższych czasów, np. rzędukilku sekund, zastosowania dwóch lub nawet więcej magnetofonów z tym, żezapisującym będzie tylko magnetofon pierwszy, odczytywanie zaś następować

 będzie z drugiego i następnych magnetofonów, a zmieszany sygnał wracać bę-dzie z powrotem na głowicę zapisującą pierwszego. W przypadku tak wolnychpowtórzeń, że mają już charakter kanonu, a nie echa, mówimy o opóźnienius y g n a ł u1.

2.2.7. Magnetofon o zmiennej prędkości

Najprostszą taką konstrukcją był magnetofon o zmiennej prędkości przesuwutaśmy. Polegał on na przystosowaniu zwykłego magnetofonu studyjnego do no-wego zadania przez regulowanie prędkości obrotowej rolki przesuwu (ciągnącejtaśmę). Rolka ta napędzana jest silnikiem synchronicznym zasilanym prądemzmiennym z sieci o stałej częstotliwości 50Hz (w niektórych krajach 60Hz).

1 W elektroakustyce termin „opóźnienie sygnału” używany jest również w stosunku do małychopóźnień, rzędu ułamka sekundy, np. w urządzeniach ambiofonicznych, służących do nagłaśnianiawielkich przestrzeni.

836∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 84/381

Studio klasyczne (manualne)

Przy zmianie częstotliwości prądu zasilającego zmieniała się prędkość obrotowarolki. Do magnetofonu dobudowano więc przystawkę składającą się z generatorafali sinusoidalnej i wzmacniacza, który słaby prąd z generatora doprowadzał domocy potrzebnej na uruchomienie silnika 2.

Konstrukcje takie wykonywane były przeważnie przez własną obsługę tech-niczną studia i pozwalały na wykorzystywanie tak przystosowanego magneto-fonu również jako magnetofonu standardowego. Zakres zmian prędkości, któryzapewniałby należytą stabilność biegu taśmy, był ograniczony konstrukcją silnikai nie przekraczał na ogół oktawy w górę i w dół.

Odtwarzanie wcześniej nagranych taśm na magnetofonie o zmiennej prędko-ści pozwalało na uzyskiwanie dowolnej transpozycji nagranego materiału w góręi w dół. Trzeba było tylko wcześniej ustawić odpowiednio generator napędzającysilnik. Pozwalało też — przy przestrajaniu generatora w trakcie pracy magne-tofonu — na ciągłą zmianę wysokości ( glissando) nagranych uprzednio struktur.

Była to transpozycja całkowita. Ze zmianą wysokości zmieniało się tempo trans-ponowanych struktur.

Ciekawym urządzeniem był skonstruowany w roku 1950 przez inż. Tolanęwedług pomysłu P. Schaeffera   phonogene, specjalny magnetofon operujący nastałej pętli taśmy i pozwalający na transpozycję nagranej na tej pętli strukturykolejno o 12 półtonów w górę, a dzięki silnikowi o dwóch prędkościach — narozszerzenie zakresu transpozycji o oktawę w górę lub w dół.

Konstrukcja była na tyle precyzyjna, że zmiana transpozycji przez naciśnię-cie dowolnie wybranego klawisza nie powodowała słyszalnych zakłóceń, lecz

dźwięk (względnie struktura dźwiękowa) zmieniał swoją wysokość tak, jakby był wykonywany na instrumencie muzycznym. Phonogene   (il. 5, s. 85) oddawałduże usługi kompozytorom pracującym w studio paryskim w latach pięćdziesią-tych. Pozwalał na łatwe eksperymentowanie na nagranym dźwięku, a ze względuna swój układ 12-półtonowy — niejako umuzyczniał transponowane według tejskali dźwięki konkretne.

2.2.8. Regulator czasu

Inną konstrukcją opartą o zasadę magnetofonu był regulator czasu znany bar-dziej pod niemiecką nazwą   Zeitregler. Jego pierwotne przeznaczenie miało być bardziej ogólne. Otóż pracownicy radiowych redakcji muzycznych skarżyli sięniejednokrotnie, że pewne nagrane utwory nie mogą być należycie wykorzystanena antenie, bo ich czas, np. 31 minut, nie może zmieścić się w półgodzinnym od-cinku audycji, inne są znowu o kilkadziesiąt sekund za krótkie. Inż. A. M. Sprin-ger z radia SWF w Baden-Baden chcąc temu zaradzić, postanowił skonstruowaćurządzenie pozwalające na skracanie lub wydłużanie — oczywiście tylko w nie-wielkim zakresie — czasu nagranych uprzednio utworów. Prosta zmiana pręd-kości przesuwu taśmy nie wchodziła w grę, ponieważ wraz ze zmianą tempa

2 Współczesne magnetofony wysokiej klasy nie pracują bezpośrednio na prądzie zmiennym dostar-czanym z sieci, lecz mają wbudowany układ zasilający silnik główny, oparty na bardzo stabilnymgeneratorze i na wzmacniaczu.

84

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 85/381

Technika magnetofonowa

Il. 5. Phonogene Il. 6. Regulator czasu

następowałaby automatycznie zmiana wysokości, i utwór brzmiałby, powiedzmy,o 1/4 tonu wyżej, co raziłoby już uszy słuchaczy obdarzonych słuchem absolut-nym oraz byłoby odczuwane jako barbarzyństwo. Natomiast niewielka zmiana

tempa przy zachowaniu tej samej wysokości byłaby właściwie niezauważalna, bonawet ten sam wykonawca przy kolejnych nagraniach może nieznacznie zmienićtempo i nie jest to odczuwalne jako zmiana tekstu muzycznego.

Urządzenie Springera działało na zasadzie wirujących głowic i zsynchronizo-wanej z ruchem głowic zmiany prędkości przesuwu taśmy magnetofonowej, po-wodowanej przez zmienną prędkość obrotów rolki napędzającej. Kiedy przesuwtaśmy był wolniejszy od prędkości standardowej, z jaką dźwięk był uprzednionagrany, wówczas wałek, na którym osadzone były cztery głowice odczytujące,obracał się w kierunku przeciwnym do biegu taśmy. Kiedy natomiast prędkośćprzesuwu taśmy była większa od standardowej, to wałek obracał się w kierunkuzgodnym z biegiem taśmy. Ponieważ taśma zgodnie z układem rolek na wałkuobejmowała dokładnie 1/4 jego obwodu, przy wirowaniu bębna kolejna zbliża-

 jąca się do taśmy głowica przejmowała odczyt w momencie, kiedy poprzedniatracąc kontakt z taśmą, „gubiła” odczytywany sygnał. Stosunki prędkości obro-tów wałka i przesuwu taśmy były tak dobrane, że względna prędkość przesuwutaśmy wobec czytającej ją w danym momencie głowicy była zawsze ta sama,i równa była prędkości standardowej. Zapewniał to odpowiednio skonstruowanyukład przekładni, tak że użytkownik ustawiał tylko regulator obrotów zgodniez życzeniem na (+) lub (

−) i cały układ działał. Wysokość dźwięków pozosta-

wała niezmieniona, bo prędkość przesuwu taśmy względem kolejnych głowicpozostawała ta sama, a czas odtwarzanej sekwencji skracał się lub wydłużał, botaśma realnie biegła z inną prędkością niż była nagrana.

85

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 86/381

Studio klasyczne (manualne)

Il. 7

Mimo iż urządzenie dawało możliwość wielostronnego wykorzystania, w prak-tyce znalazło tylko ograniczone zastosowanie. Nie pozbawione było bowiem pew-

nych wad „wrodzonych”, wynikłych z samej zasady działania. Otóż na skutekpomijania lub powtarzania krótkich, milimetrowych odcinków taśmy (w mo-mentach przejmowania sygnału z jednej głowicy na drugą) następowały pewnezakłócenia, które wprawdzie nie szkodziły pewnym rodzajom dźwięku (mowa,hałasy, instrumenty dęte), za to przy odtwarzaniu z inną prędkością np. długichdźwięków fortepianu, albo stacjonarnych dźwięków elektronicznych stawały sięnieznośne dla ucha.

Podobnie jak phonogene Schaeffera, tak i regulator czasu Springera stał się jużdzisiaj obiektem muzealnym. Jednak idea przyświecająca twórcy  Zeitreglera  nie

znikła z pola widzenia konstruktorów. To, co w sposób niedoskonały oferowałprzed kilku dziesiątkami lat Springer, zostało wykorzystane w nowoczesnej tech-nice w postaci obracających się głowic w magnetowidach i w urządzeniach docyfrowej rejestracji dźwięku.

2.2.9. Magnetofon pogłosowy

Właściwsza nazwa dla tego urządzenia brzmiałaby: magnetofon do uzyskiwa-nia sztucznego echa. Działa on na zasadzie powtarzania opóźnionych sygnałów.Magnetofon ten pracuje w układzie zamkniętej pętli taśmy. Posiada jedną głowicękasującą, jedną zapisującą i od kilku do kilkunastu głowic czytających. Głowiceczytające są ruchome. Umieszczono je na półokrągłej szynie, na której mogą byćprzesuwane dla zmiany odległości między nimi.

Zastosowanie pętli zamiast szpul zaoszczędza cofania taśmy przy dokonywa-niu prób i pozwala na korzystanie z magnetofonu przez dłuższy okres czasu.Długość pętli może być regulowana.

Po włączeniu magnetofonu na nagranie doprowadzony sygnał zostaje zareje-strowany na taśmie przez głowicę zapisującą Z. Nagrany sygnał odczytywany jest

z opóźnieniem przez kolejne głowice odczytujące O1, O2. . .On. Sygnały z tychgłowic po przejściu przez indywidualne tłumiki zostają zmieszane i doprowa-dzone na wyjście urządzenia. Ten zmieszany sygnał w postaci wielokrotnego

86

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 87/381

Technika magnetofonowa

Il. 8. Magnetofon pogłosowy Korg SE-300

echa może być jeszcze na konsolecie zmieszany z sygnałem wejściowym, co daw efekcie sygnał oryginalny plus jego wielokrotne echo.

Zależnie od rozstawienia głowic i ustawienia indywidualnych tłumików efektten może być zupełnie różny.

Magnetofon pogłosowy pozwala na uzyskiwanie różnorodnych efektów: po-głosu, echa, sprzężenia. Pozwala też na rozliczne wariacje tak rytmiczne jak

dynamiczne. Można z niego korzystać w typowej pracy studyjnej, ale także doprzetwarzania dźwięków na żywo, np. na koncertach live electronic, kiedy dźwiękdochodzi bezpośrednio z instrumentu, a echo (pogłos) po magnetofonie pogło-sowym z głośnika.

Il. 9

Odmianą magnetofonu pogłosowego jest u r z ą dz e n i e opó ź ni a ją c e (ang.tape delay system, niem.  Verz¨ ogerungsmaschine). Pracuje ono również w układziezamkniętej pętli taśmy. Posiada tylko jedną głowicę odczytującą. Droga, jaką od-

87

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 88/381

Studio klasyczne (manualne)

 bywa taśma między głowicami zapisującą i odczytującą może być regulowanaprzez skracanie lub wydłużanie pętli przeprowadzanej przez układ rolek, z któ-rych jedna, przesuwana, służy jednocześnie do naprężania pętli. Przy krótszejpętli część rolek może być oczywiście pominięta, jak to widać na il. 9 (s. 87).

Urządzenie opóźniające działa więc jak magnetofon pogłosowy lub jak opóź-nienie uzyskiwane przy przechodzeniu taśmy przez dwa magnetofony. Posiadatylko większy zakres regulacji.

Obecnie magnetofony pogłosowe i urządzenia opóźniające zastąpione zostałyprzez odpowiednie urządzenia cyfrowe (zob. rozdz. 4.10.5.).

2.3. Źródło, sygnał, tor

Dla zrozumienia wielu spraw, o których będzie mowa w dalszej części tejksiążki, konieczne jest wyjaśnienie szeregu pojęć i ustalenie zakresu ich zna-czeń, tym bardziej, że terminologia stosowana w muzyce elektronicznej odbieganiekiedy od stosowanej w dziedzinie techniki i fizyki.

Ź r ódł e m a ku s tyc z ny m nazywamy układ drgań mechanicznych generu- jący fale akustyczne o częstotliwościach słyszalnych. Podstawowymi źródłamiakustycznymi są: organ głosu ludzkiego, instrumenty muzyczne i wibracje me-chaniczne (wytworzone przez człowieka lub powstające pod wpływem sił przy-rody).

Sygnał akustyczny jest to fala ciśnieniowa wytworzona przez źródło aku-styczne, rozchodząca się w powietrzu.

Syg na ł f o ni cz n y jest to sygnał elektryczny będący analogowym odwzo-rowaniem sygnału akustycznego. Analogowym odwzorowaniem sygnału, albokrócej — sygnałem analogowym nazywamy przebieg zmienny, którego odchyle-nia od stanu równowagi są zgodne z kierunkami i wartościami odchyleń sygnałuodwzorowywanego. Najczęstszą postacią sygnału analogowego jest zmienne na-pięcie elektryczne.

W elektroakustyce mamy do czynienia ze specyficznym rodzajem źródła, jakim

 jest ź r ó dł o e l e ktr oni cz n e. Źródłami elektronicznymi są generatory drgańelektrycznych. W odróżnieniu od źródeł elektronicznych źródła akustyczne nazy-wać będziemy źródłami naturalnymi lub — w odniesieniu do muzyki na taśmie— źródłami konkretnymi. Sygnał foniczny powstaje albo w źródle elektrycz-nym, albo w przetworniku. Przetwornikami nazywamy elementy przetwa-rzające jeden rodzaj energii w inny. Przetwornikiem akustyczno-elektrycznym

 jest mikrofon, elektryczno-magnetycznym — głowica nagrywająca magnetofonu,optyczno-elektrycznym — fotokomórka, mechaniczno-elektrycznym — głowicagramofonu, elektro-akustycznym — głośnik.

Drogę, jaką przebywa sygnał od źródła do ucha słuchacza nazywamy torem

elektroakustycznym. Część tego toru, która przebiega od przetwornika (mi-krofonu, głowicy odczytującej magnetofonu) lub źródła elektronicznego (gene-ratora) do punktu docelowego, którym może być głośnik, głowica zapisująca

88

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 89/381

Źródło, sygnał, tor

magnetofonu, miernik wysterowania itd. nazywamy t or e m f on i c z n ym lubw skrócie torem.

Elementami toru są urządzenia elektroakustyczne: wzmacniacze, tłumiki, ko-rektory, filtry, modulatory, mieszacze itd., połączone przewodami.

Urządzenia służą do modyfikowania i przekształcania sygnałów elektrycznych.Każde urządzenie ma przyłącza, które określane są jako wejścia i wyjścia.Większość urządzeń elektroakustycznych stanowią czwórniki, tj. układy, do któ-rych prąd jest doprowadzany, i od których jest odprowadzany za pomocą dwóchpar końcówek.

Il. 10

Sygnał elektryczny (napięciowy) może powstać tylko w dwóch równoległychprzewodach na zasadzie różnic potencjałów elektrycznych pomiędzy przewo-dami oraz oporności źródła i urządzenia. Na schematach blokowych, jakich wieleznajdzie czytelnik na kartach tej książki, ta podwójność przewodów jest z regułypomijana. Nasze urządzenie z il. 10 będzie więc miało postać:

Il. 11

Oprócz czwórników (urządzeń o jednym wejściu i jednym wyjściu) istniejąurządzenia o kilku wejściach lub kilku wyjściach.

Il. 12

wyjście

wejście

tłumik

wzmacniacz

mikrofon

generator

głośnik

modulator kołowy (Ringmodulator)

inne urządzenia ze skrótami: F =filtr,K=korektor, P=urządzenie pogłosowe,KO=kształtownik obwiedni itd.

magnetofon; strzałki oznaczają w sposóbskrócony wejście na głowicę zapisującąi wyjście po głowicy odczytującej

magnetofon stereofoniczny

magnetofon wielośladowy   Il. 13

89

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 90/381

Studio klasyczne (manualne)

Urządzenia stanowiące tylko część bardziej złożonych urządzeń nazywamyukładami lub modułami. Modułami nazywa się zazwyczaj układy (urządzeniaczęściowe), które w urządzeniu głównym mogą być ruchome lub wymienne. Dlaumożliwienia wymiany moduły mają obudowy o tych samych wymiarach lub

stanowiących wielokrotność wymiarów modułu podstawowego.W naszej pracy stosować będziemy na rysunkach i schematach oznaczenia,zaprezentowane na il. 13 (s. 89) i na il. 14 (s. 90).

gniazda przyłączeniowe

wyłącznik

przełącznik

rozgałęzienie toru

miernik wysterowania   Il. 14

Tor pojedynczy, to łańcuch urządzeń elektroakustycznych połączonych przewo-dami i zakończony przetwornikiem (głośnikiem, głowicą zapisującą magnetofonuitp.)

Il. 15

Znacznie częściej od niego występuje tor rozgałęziony:

Il. 16

Tory i urządzenia elektroakustyczne mogą być budowane albo w układziesymetrycznym (dwa przewody równomiernie obciążone), albo niesymetrycznym(jeden z przewodów uziemiony lub połączony z ekranem). Dla kompozytora, jakoużytkownika urządzeń, nie ma to większego znaczenia. Powinien jednak wie-

dzieć, że większość urządzeń typu amatorskiego i półprofesjonalnego budowana jest w układzie niesymetrycznym, a większość urządzeń profesjonalnych w ukła-dzie symetrycznym. Urządzenia budowane w różnych układach nie mogą być

90

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 91/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 92/381

Studio klasyczne (manualne)

Il. 19

Komutacja (krosowanie) odbywa się przez połączenie dwóch gniazd na kro-sownicy za pomocą krótkiego kabla zakończonego dwoma wtykami (il. 20).

Il. 20

Urządzenia stereofoniczne mogą być łączone jednym przewodem wielożyło-wym zakończonym wtykami wielokontaktowymi. Jednak w wielu studiach i re-żyserniach wejścia i wyjścia urządzeń stereofonicznych na polach komutacyjnychsą rozdzielone i trzeba łączyć osobno wyjścia i wejścia kanału prawego i wyjściai wejścia kanału lewego.

 Jeśli chodzi o wtyki i gniazda, to już z doświadczenia ze sprzętem amatorskimwiemy, że istnieje wielka ich różnorodność. Różne firmy w wielu krajach stosująróżne gniazda i odpowiadające im wtyki.

W europejskich urządzeniach amatorskich stosuje się najczęściej wtyki znor-malizowane (określane przez zagranicznych producentów jako  DIN   lub  Norm--Stecker):

Il. 21

W profesjonalnych urządzeniach europejskich stosuje się wtyki krzyżowe, tzw.tuchel  (od nazwiska niemieckiego producenta):

Il. 22

92

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 93/381

Stół mikserski (konsoleta)

W amerykańskich i angielskich przeważają wtyki sznurowe typu   jack plug, 3

inaczej phone plug:

Il. 23

W japońskich, obok poprzednich, także wtyki wielokontaktowe typu  canon:

Il. 24

W amerykańskich i japońskich urządzeniach amatorskich i półprofesjonalnychstosuje się wtyki typu  cinch:

Il. 25

a także różnego rodzaju mini plugs, jak używane w polskich kasetofonach wtykisłuchawkowe:

Il. 26

Bezpośrednie łączenie urządzeń posiadających różne gniazda wymaga sto-

sowania tzw. przejściówek, to jest kabli zakończonych różnymi wtykami. Polekomutacyjne rozwiązuje kłopoty z wtykami i przejściówkami. Bowiem na polukomutacyjnym stosuje się tylko jeden typ gniazd typu wtykowych, np.   tuchelalbo jack.

Komutacja za pomocą kabli ma wiele zalet, ale ma też i swoje wady. Wadątakiej komutacji jest trudność dokonywania wielu połączeń w krótkim czasie,wadą jest trudność orientacji w tym, co jest z czym połączone, szczególnie powykonaniu dużej ilości połączeń na jednym polu, wadą są same sznury, którełatwo ulegają uszkodzeniu.

Inne, nowocześniejsze rozwiązanie komutacji przedstawia pole krzyżowe (ang.

cross field); il. 27, s. 94.Poziome i pionowe rzędy gniazd łączone są szeregowo w tzw. wielokrocia.

Każdemu rzędowi, np. poziomemu, przypisane jest jedno wyjście z urządzenia,a każdemu pionowemu jedno wejście na urządzenie. Przez wetknięcie wtyku,którego bieguny są zwarte (czasem dodatkowo przez diodę dla uniknięcia prąduwstecznego), uzyskuje się połączenie odpowiedniego szeregu poziomego z od-powiednim szeregiem pionowym, a co za tym idzie komutację wyjścia jednegourządzenia z wejściem drugiego.

3 W terminologii angielskiej  jack   znaczy gniazdo (telefoniczne lub podobne),  socket  =  oprawka (dolampy), ale także gniazdo wielopunktowe lub krzyżowe,  plug  = wtyk, wtyczka (nazwa ogólna).

93

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 94/381

Studio klasyczne (manualne)

Il. 27

2.4. Stół mikserski (konsoleta)

Sprzętem absolutnie nieodzownym w każdym studiu muzycznym, zarównoogólnym nagraniowym, jak i studiu muzyki elektronicznej, jest st ó ł mi ks e r s k i,nazywany także st oł e m r e ż ys e r s ki m albo ko ns ol e tą (niem. Mischpult, ang.mixing board, fr.   console de m´ elange). Stoły służą do nagrywania, przegrywania,zgrywania, a także do nagłaśniania pomieszczeń.

Głównym zadaniem stołu mikserskiego jest regulowanie i mieszanie sygnałów

fonicznych. Do funkcji pomocniczych, do których przygotowane są tylko większestoły studyjne, należą: kontrola poziomu wysterowania, korekcja i panoramowa-nie sygnałów, włączanie i regulacja pogłosu, wybieranie torów odsłuchu, zdalneuruchamianie magnetofonów, częściowa komutacja urządzeń studia, łączność mi-krofonowa i świetlna ze studiem nagraniowym itd.

Najprostszy stół mikserski składa się z kilku modułów wejściowych (tłumi-ków), mieszacza i jednego modułu wyjściowego (tłumika sumy). Dla prawidło-wego działania regulacji każdy tłumik sprzężony jest ze wzmacniaczem wyrów-nującym straty wprowadzone przez tłumienie.

Mimo że do regulacji poziomów poszczególnych kanałów mogą być równieżużywane potencjometry obrotowe, od wielu lat przyjęło się wyposażać stoły mik-serskie wyłącznie w tłumiki ślizgowe (suwakowe; il. 28, s. 95). W takim tłumikuelementem oporowym jest blok grafitowy nie dający iskrzenia przy suwaniu śliz-gaczem, co było utrapieniem przy pracy na dawnych tłumikach z opornikiemwielozwojowym. Tłumik sumy jest identyczny jak tłumiki sygnałów wejściowych,ale działa na sumę sygnałów zmieszanych na mostku mieszacza (MM).

Na il. 29 (s. 95) przedstawiony jest schemat blokowy bardzo prostego stołumikserskiego wyposażonego w cztery kanały wejściowe i jeden kanał wyjściowy.

Dla prawidłowego działania regulacji przeprowadzanych na stole mikserskim

konieczne jest wstępne dopasowanie napięć i impendancji sygnałów wejścio-wych. Szczególnie duże różnice w tych parametrach wykazują tory mikrofonowew stosunku do pozostałych torów zwanych liniowymi. Do wyrównania tych pa-

94

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 95/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 96/381

Studio klasyczne (manualne)

i czterokanałowej) ilość wyjść i wejść jest z reguły wielokrotnością czterech. Stołyprzystosowane do współpracy z magnetofonami wielośladowymi dają możliwośćwyprowadzania sygnału po każdym tłumiku indywidualnym bez pośrednictwamodułu sumy. Są to tzw. stoły przelotowe albo uniwersalne.

Zamiast tłumików biernych, które wprowadzały tylko tłumienie sygnału, sto-suje się powszechnie układy czynne, tzw. wzmacniacze operacyjne, inaczej:czynne regulatory sygnału. Wzmacniacz operacyjny pracuje z ujemnym sprzę-żeniem zwrotnym. Jedna gałąź tego sprzężenia regulowana jest za pomocą tłu-mika suwakowego umieszczonego w stole w miejsce dawnego tłumika biernego.W pewnej, ale nie najwyższej pozycji tego tłumika wzmacniacz ten daje wzmoc-nienie „zerowe”, to znaczy, że napięcie na jego wyjściu równe jest napięciu na

 jego wejściu. W układ tego wzmacniacza wbudowane są również układy korek-cyjne, co zmniejsza dodatkowo ilość elementów biernych w torze stołu. Równieżmieszacz budowany jest jako układ czynny, mianowicie wzmacniacz wielowej-

ściowy.Oprócz modułów sygnałów indywidualnych i modułów zbiorczych (sumy)

współczesny stół zawiera kilka modułów pomocniczych, w których umiesz-czone są przełączniki komutacyjne, końcówki zdalnego sterowania magnetofo-nów, urządzenia sygnałowe i mikrofonowo-głośnikowe do kontaktu ze studiemnagraniowym, urządzenia kontrolne itd.

Grupa tłumików, zazwyczaj odpowiadająca ilości modułów sum, przeznaczona jest do odbierania powrotnych sygnałów urządzeń pogłosowych. Ilustracja 30przedstawia typowy układ modułów studyjnego stołu mikserskiego.

Il. 30

W każdym module wejściowym ponad tłumikiem umieszczony jest zespółkorektorów barwy, wpływających na pasmo najwyższe, najniższe i wybrane pa-smo środkowe, a także szereg przełączników, potencjometrów panoramy itd.,opisanych skrótowo na płytce frontowej każdego modułu.

Najważniejszym elementem modułu wejściowego jest tłumik suwakowy. Podpalcami realizatora — reżysera dźwięku lub kompozytora — staje się on czułyminstrumentem kształtowania dźwięków. Dotyczy to zarówno dynamiki poszcze-

96

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 97/381

Stół mikserski (konsoleta)

gólnych sygnałów wprowadzanych na tłumiki indywidualne, jak i wyważaniaproporcji pomiędzy sygnałami podlegającymi zmieszaniu.

Przy nagrywaniu muzyki tradycyjnej tłumiki konsolety służą przede wszyst-kim do wyważania proporcji dynamicznych sygnałów pochodzących z różnych

mikrofonów i do ustalenia optymalnego poziomu nagrania. W trakcie nagry-wania tłumiki pozostają w zasadzie nieruchome. Prowadzący nagranie reżyserdokonuje co najwyżej drobnych poprawek uwypuklając w pewnych fragmen-tach instrumenty objęte jednymi mikrofonami, a wycofując na plan dalszy inne.Dba też, aby konieczne ze względów technicznych zawężenie dynamiki nagranianastępowało w sposób jak najmniej dla słuchacza zauważalny.

Przy nagrywaniu słuchowiska radiowego tłumiki konsolety już znacznie wię-cej „pracują”. Głosy aktorów raz trzeba przybliżać, raz oddalać, pewne efektyakustyczne trzeba wprowadzać „od zera”, inne wyciszać itd. Podobnie jest przyzgrywaniu ścieżki dźwiękowej w filmie.

W studiu muzyki elektronicznej tłumiki nabrały jeszcze większego znaczenia.W ręku kompozytora, czy współpracującego z nim realizatora dźwięku, stają sięinstrumentem wszechstronnego dynamicznego kształtowania dźwięku.

Stół mikserski powinien wreszcie posiadać szereg mierników wysterowa-nia, co najmniej tyle, ile zawiera kanałów wyjściowych, choć w wielu stołach

 bywa ich znacznie więcej.W urządzeniach produkowanych w różnych krajach możemy się spotkać

z dwoma rodzajami mierników. I tak np. w Polsce, Niemczech, Holandii, WielkiejBrytanii i kilku innych krajach europejskich jako standardowy przyjęto miernik

w ys te r ow a n i a s z c z yto we go. Natomiast w Stanach Zjednoczonych, Japonii,Francji i wielu innych krajach przyjęto stosować miernik wartości średniej, zwanymi erni k i em VU .

Miernik wysterowania szczytowego (ang.   peak-to-peak meter, w skrócie PPM) jest woltomierzem wycechowanym tak, aby pokazywał maksymalne (szczytowe)wartości chwilowe napięcia w decybelach. Jako poziom odniesienia przyjęto 0 dBrówne 1,55V wartości napięcia skutecznego sygnału sinusoidalnego. Mierniktaki ma pewną bezwładność, która powoduje, że wyskoki napięcia krótsze niż10 ms (0,01 s) nie są przez niego wychwytywane. Ma to uzasadnienie praktyczne,gdyż tak krótkie wyskoki napięciowe nie powodują odczuwalnego przesterowa-nia aparatury.

Miernik VU (ang. volume unit meter, dosł.: miernik jednostki głośności — wo-lumenu) jest wskaźnikiem wartości pośredniej między średnią i skuteczną war-tością wyprostowanego sygnału. Jego układ składa się z prostownika i miliam-peromierza.

Wskazania miernika VU są dla sygnału sinusoidalnego identyczne jak wskaza-nia miernika WS, natomiast dla przebiegów zmiennych, np. mowy albo muzyki,są one o ok. 6dB niższe.

Mierniki VU umieszczone w stołach mikserskich, magnetofonach wieloślado-

wych itp. są od razu uczulone o te 6dB. Ich wskazania dla normalnych prze- biegów muzycznych będą wiec zbliżone do wskazań mierników wysterowaniaszczytowego. Będą tylko „nieczułe” na krótkie wyskoki napięcia, ponieważ czas

977 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 98/381

Studio klasyczne (manualne)

uśredniania poziomu wynosi w nich ok. 300 ms. Różnice występują przy pomia-rach sygnałów stacjonarnych (sinusoidalnych, prostokątnych itd.).

W latach siedemdziesiątych powstały nowe koncepcje stołów mikserskich. Nie-które firmy, jak np. Telefunken, Schlumberger, zaproponowały stoły z tłumikami

sterowanymi cyfrowo. Potem, już w latach osiemdziesiątych, powstawały stołycałkowicie cyfrowe i cyfrowo-analogowe, umożliwiające mieszanie i regulowaniesygnałów cyfrowych (z nagrań DAT) i pozwalające na zapamiętywanie pozycjitłumików zgodnie z czasem od początku nagrania oraz na korekty tych pozycjiw trakcie kolejnych prób, tak że samo nagranie może już odbywać się automa-tycznie bez ingerencji nagrywającego.

Poświęciliśmy tu sporo miejsca stołom mikserskim, ale nie zapominajmy, żew procesie powstawania muzyki elektronicznej, a szczególnie w studyjnej pracynad muzyką na taśmie, odgrywały one ogromną rolę, jakkolwiek nieco innąniż stoły w reżyserniach tradycyjnych nagrań muzycznych. Właściwie powinnyto być całkiem inne konstrukcje. Jednak nowoczesny stół mikserski jest urzą-dzeniem niezwykle kosztownym, często najdroższym urządzeniem studia, i za-mawianie specjalnego modelu ukształtowanego według potrzeb danego studiamuzyki elektronicznej powiększałoby te koszty jeszcze kilkakrotnie. Toteż więk-szość studiów muzyki elektronicznej posługuje się seryjnymi stołami znanychfirm, konstruowanymi dla potrzeb fonografii, i czasem tylko przystosowanymiprzez własne służby techniczne do specyfiki pracy danego studia.

2.5. Nagrania mikrofonowe, ujęcie dźwięku

2.5.1. Przygotowanie nagrania

Wszystkie działania w studiu można podzielić z grubsza na dwie grupy: próbyi nagrania. Wszystkie wypróbowania: próby mikrofonowe, odsłuchiwanie i se-lekcje nagranego materiału, montaż taśmy, próby przekształceń na aparaturze

studyjnej, wypracowanie właściwej charakterystyki dźwięku itd. sprowadzająsię w końcu do jednego — przygotowania sygnału do nagrania. W przygoto-waniu tym stół mikserski spełnia swoją właściwą rolę. Pozwala na wyrównaniesygnału, skorygowanie go, ukształtowanie dynamiczne, zmieszanie z innymi sy-gnałami, wreszcie kontrolowanie na bieżąco (słuchowo i wizualnie) przebiegówprzygotowywanych do nagrania.

Zasady przygotowania nagrań mikrofonowych będące przedmiotem reżyseriidźwięku opisane są w wielu podręcznikach i nie ma potrzeby ich tu przyta-czać. Zresztą w praktyce muzyki na taśmie rzadko sięgamy do arsenału środ-ków, z jakich korzystają studia fonograficzne, jak jednoczesne nagrywanie zespo-

łów muzycznych za pomocą kilkunastu czy nawet kilkudziesięciu mikrofonów,nagrywanie przebiegów na kilkunastu ścieżkach wielośladu dla późniejszegozgrywania w wersji stereofonicznej itd. O wiele częstsze są proste nagrania poje-

98

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 99/381

Nagrania mikrofonowe, ujęcie dźwięku

dynczych instrumentów czy przedmiotów dźwięczących, w przeważającej częścimonofoniczne, lub nagrania hałasów i odgłosów dokonywane poza studiem.

Czy istnieje jakaś specyfika nagrań mikrofonowych dla celów muzyki elektro-nicznej? I tak, i nie. Tak, bo wiele przedmiotów trzeba nagrać w sposób specjalny,

aby móc w pełni wykorzystać ich walory brzmieniowe przy dalszych operacjachelektroakustycznych. Nie, bo przyjęte ogólnie jako pozytywne cechy nagrania:wyrazistość, wyodrębnienie z tła akustycznego, utrzymanie zadowalającego od-stępu od szumów, są tak samo ważne dla rejestracji muzyki tradycyjnej, tekstumówionego czy głosów natury, jak i dla przygotowanego dla celów muzyki nataśmie materiału konkretnego.

Dla przeniesienia muzyki z sali koncertowej ważny jest szereg czynników (na-turalność brzmienia, przestrzenność, pogłos imitujący akustykę sali koncertowejitd.), które są nieistotne, a czasem wręcz szkodliwe z punktu widzenia kompozy-tora muzyki na taśmie, który dźwięki te traktuje jako materiał do przekształceń.

Pogłos i zatarcie wyrazistości brzmienia można bowiem zapewnić tak nagranymmateriałom w późniejszej fazie ich opracowania. Zlikwidować pogłosu natural-nego już potem nie można.

Toteż ujęcia przedmiotów dźwięczących ze studia dokonuje się przeważniew atmosferze „suchej”. Używamy do tego mikrofonów, o charakterystyce kie-runkowej (np. kardioidalnej) i ustawiamy je bliżej źródła niż to ma miejsce przy„normalnych” nagraniach muzycznych 4. Ma to na celu maksymalne wyizolowa-nie źródła z otoczenia i obniżenie poziomu zakłóceń zewnętrznych oraz odbićsygnału od ścian studia. Konieczność zapewnienia należytego odstępu sygnału

od szumów zmusza czasem do szczególnie bliskiego ustawienia mikrofonu (nakilkanaście do kilku centymetrów od źródła dźwięku). Dla dźwięków z natury bardzo słabych jest to czasem jedyna możliwość wyizolowania ich z otoczeniai wysterowania w pobliżu 0 dB. Jeżeli samo zbliżenie nie wystarcza, stosuje sięścianki lub kabiny dźwiękochłonne, które zagradzają drogę do mikrofonu za-kłóceniom i odbiciom. W takich przypadkach należy też stosować mikrofonyo dużej skuteczności5.

Odwrotnie, dla uzyskania prawidłowego ujęcia dźwięków bardzo mocnych(wystrzał z pistoletu, hałas silnika odrzutowego) trzeba stosować mikrofonyspecjalne o dużej odporności na wysokie poziomy ciśnień akustycznych (rzędu500–2000µ barów)6.

Odległość mikrofonu od źródła wpływa nie tylko na większe lub mniejszewyizolowanie źródła z otaczającej go „atmosfery”. Ma ona również wpływ na

4 Przy nagrywaniu pojedynczych instrumentalistów lub śpiewaków za „normalny” przyjmuje sięodstęp 1–1,5 m; przy zdejmowaniu tzw. planów ogólnych mikrofony ustawia się lub zawiesza w od-ległości od kilku do kilkunastu metrów od nagrywanych grup muzyków.5 Skutecznością mikrofonu nazywamy stosunek napięcia powstającego na wyjściu mikrofonu do

zmiany ciśnienia akustycznego działającego na mikrofon, wywołującego powstanie tego napięcia;skuteczność określa się w V/µ bar. Np. dobre mikrofony studyjne mają skuteczność od 100 V/µ bar

do 3 mV/µ bar.6 Normalne mikrofony studyjne mają ciśnienie graniczne (tj. poziom ciśnienia powyżej którego na-

stępuje „przesterowanie”, rzędu 200–400 µ barów. Niektóre mikrofony specjalne pozwalają na przeno-szenie sygnału o ciśnieniu rzędu 6000 µ barów (ok. 150 dB).

997∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 100/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 101/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 102/381

Studio klasyczne (manualne)

gdyż każdy sygnał można dowolnie wzmocnić już po nagraniu, ale trzymaniesię zasady możliwie najwyższego poziomu wysterowania polecane jest równieżw nowej technice, w której trudno uniknąć pewnych elementów analogowegotoru fonicznego.

2.5.3. Operowanie tłumikami

W muzyce elektronicznej operacją niezwykle ważną jest nadawanie dźwiękomwymaganej obwiedni (inaczej: profilu dynamicznego). W pierwszym okresietworzenia muzyki na taśmie tłumik w konsolecie był jedynym narzędziem po-zwalającym na kształtowanie obwiedni dźwięków, które z natury były ich po-zbawione. Materiałem wyjściowym w muzyce elektronicznej był zazwyczaj blokdźwiękowy (wieloton, wielodźwięk lub złożona struktura dźwiękowa) nagranyz równym poziomem bliskim 0dB. Przy przegrywaniu na drugi magnetofon„wykrawano” z takiego bloku za pomocą stopniowego otwierania i przymyka-nia tłumika pożądany profil dynamiczny. W „partyturze” lub w szkicu roboczymprzedstawiano go w postaci wykresu amplitudy (wysterowania) w funkcji czasu.

Il. 32

Wykonanie określonych zmian w określonych odcinkach czasu nie było sprawąłatwą. Wymagało wielu ćwiczeń i prób. Nie dawało też pewności, czy uzy-skany w ten sposób profil odpowiada zadowalająco wykresowi na rysunku. To-też wkrótce do wykonywania prostszych obwiedni zaczęto stosować urządzeniaautomatyczne w postaci ge n e r a to r ów ob wi e dn i, o których piszemy szerzejw dalszej części książki. Generatory obwiedni przyczyniły się znakomicie do uła-twienia pracy w studiu. Ich największą zaletą jest powtarzalność (a więc i łatwośćustawienia odpowiednich czasów i poziomów), wadą — ograniczony dosyć sche-mat profilu wynikający z konstrukcji urządzenia, pozwalającego na uzyskiwanie

 jedynie bardzo uproszczonych profilów. Profile bardziej złożone wymagały nadalręcznego modelowania za pomocą swoistej „gry” na tłumikach.

„Gra” na tłumikach stosowana jest do dzisiaj przy wykonaniach muzyki elek-tronicznej w sali koncertowej. W tym przypadku ogranicza się ona najczęściejdo przystosowania odtwarzanej z taśmy kompozycji do warunków akustycznych

102

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 103/381

Generatory

sali. Pozwala to na rozszerzanie zwężonej przy nagraniu dynamiki i daje swo- bodę swoistej interpretacji utworu, ograniczonej wprawdzie do dynamiki, ale bardzo istotnej dla ostatecznego brzmienia utworu. Również efekty kierunkowemogą być w ten sposób na nowo organizowane, np. nagranie dwuścieżkowe

rozdzielone na cztery tłumiki może być interpretowane kwadrofonicznie.

2.6. Generatory

Generatorami nazywamy urządzenia elektroniczne służące do wytwarzania(generowania) drgań elektrycznych. Efektem ich działania jest pojawienie się nawyjściu okresowo-zmiennego napięcia o określonym przebiegu, częstotliwościi amplitudzie. Generatory używane są w radiofonii i telewizji, np. do genero-

wania sygnału nośnego wysokiej częstotliwości, w technice pomiarowo-kontrol-nej — do ustalania prawidłowości poszczególnych parametrów urządzeń elek-troakustycznych, oraz w muzyce — do generowania dźwięków, stanowiąc ele-menty instrumentów elektronicznych lub osobne urządzenia w studiach muzykielektronicznej.

Istnieje wiele typów generatorów. Rozróżnia się je w zależności od zakresuczęstotliwości (podakustyczne, akustyczne i ponadakustyczne), od sposobu wy-twarzania drgań (np. rezonansowe, dudnieniowe, generatory RC), od kształtuwytwarzanych drgań (generatory drgań sinusoidalnych, piłowych, trójkątnych,prostokątnych, generatory impulsów), wreszcie w zależności od sposobu, w jaki

generator daje się przestrajać (sterować); tu rozróżniamy generatory sterowaneręcznie — za pomocą potencjometrów, tłumików ślizgowych lub ręcznie regulo-wanych kondensatorów o zmiennej pojemności, generatory sterowane napięciem— doprowadzanym jako napięcie dodatkowe do napięcia zasilającego, i genera-tory sterowane cyfrowo — przez komputer, przez rozkazy numeryczne zakodo-wane uprzednio na taśmie perforowanej lub magnetycznej albo przekazywanemechanicznie (analogowo). W technice klasycznej istotną rolę odegrały genera-tory sterowane ręcznie produkujące sygnały w zakresach akustycznym i poda-kustycznym.

Tu chcemy zwrócić uwagę czytelnika na kwestię terminologii. W literaturzepolskiej z zakresu elektroakustyki przyjęło się stosować następujące określenia:generator wytwarza drgania elektryczne, na jego wyjściu i w torze fonicznympojawia się zmienne napięcie, które jest s y gna ł e m f o ni c z n ym (w pewnychprzypadkach traktowanym jako n a p i ę c i e s t e r u ją c e), drgania, a więc i sygnał,mogą mieć określony przebieg (kształt). Brak tu terminu „fala” powszechnie sto-sowanego w tym zakresie w języku angielskim i francuskim (ang. wave, fr. onde),a który w języku polskim zarezerwowano dla rozchodzenia się drgań w danymśrodowisku (powietrzu). Sygnał foniczny nie jest więc falą. Fala powstaje dopierona końcu toru fonicznego, kiedy sygnał elektryczny zostaje zamieniony w prze-

tworniku (głośniku, urządzeniu nadawczym) na ciśnieniową falę akustyczną lubfalę radiową. Tak więc angielskie sine wave i francuskie onde sinuso¨ ıdale w odnie-sieniu do zjawisk elektrycznych tłumaczyć będziemy na „sygnał sinusoidalny”

103

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 104/381

Studio klasyczne (manualne)

lub „przebieg sinusoidalny” rozumiejąc, że chodzi o napięcie okresowo-zmienne,którego wykres w funkcji czasu (przebieg) ma kształt sinusoidy. Podobnie ang.wave shape  tłumaczyć będziemy na „kształt sygnału” lub „kształt drgania”.

2.6.1. Generatory drgań periodycznych

Na płytce frontowej każdego generatora można było znaleźć informację, ja-kiego typu drgania mogą być przez niego generowane. Czasem informacja taznajdowała się w samej nazwie, np. generator tonów prostych (ang.   sine waveoscillator, niem.  Sinustongenerator). Jeżeli ten sam generator pozwalał na uzyski-wanie sygnałów o różnych kształtach, to przy gniazdach wyjściowych lub przyprzełączniku kształtu sygnału znajdowały się odpowiednie piktogramy lub ozna-czenia słowne:

sygnał sinusoidalny (ang.  sine wave)

sygnał piłowy (ang. saw tooth wave)

sygnał prostokątny (ang.  square wave)

sygnał trójkątny (ang.  triangle wave)

sygnał impulsowy (ang. pulse)

Do sterowania częstotliwością generatora, czyli jego przestrajania, służą re-gulatory (pokrętła) zazwyczaj wyskalowane w hercach, czasem z dodatkowymprecyzerem w postaci małego pokrętła.

Il. 33

W pewnych przypadkach wygodniejsze w użyciu były tzw. generatorydekadowe, które przestrajane były skokowo, ale za to dokładnie co 0,1Hz,

co 1Hz, co 10Hz, co 100Hz i co 1000Hz. Na pokazanym na il. 34 (s. 105) gene-ratorze dekadowym widzimy pięć pokręteł, a nad nimi pięć okienek, w którychukazują się cyfry wskazujące aktualne nastrojenie generatora w hercach.

104

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 105/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 106/381

Studio klasyczne (manualne)

a) sygnał sinusoidalny

 b) sygnał piłowy

c) sygnał prostokątny (50% wypełnienia)

d) sygnał prostokątny (30% wypełnienia)

e) sygnał trójkątny

Il. 35

106

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 107/381

Generatory

okresu i długiego (teoretycznie nieskończonego) ciągu składowych harmonicz-nych o częstotliwościach 2 f , 3 f ,. . .n f , z tym, że amplituda dowolnej składowej ASn   jest odwrotnie proporcjonalna do jej indeksu  n:   ASn   =

  AS1n   . Tak więc np.

siódma składowa  S7  będzie miała amplitudę równą   17   amplitudy tonu podsta-

wowego   S1. Widmo amplitudowe takiego dźwięku ma obraz jak na ilustracji35b (s. 106). Na rysunku częstotliwości przedstawione są w skali logarytmicznej,a amplitudy w skali decybelowej, a więc również logarytmicznej.

Sygnał prostokątny o równych odcinkach dodatnich i ujemnych (il. 35c) dajedźwięk zawierający ciąg wyłącznie nieparzystych składowych harmonicznycho malejącej amplitudzie i o nachyleniu takim samym, jak w przypadku sygnałówpiłowych. Amplitudy kolejnych (nieparzystych) składowych mają wartości: 1,   1

3 ,15 ,   1

7 ,   19 ,   1

11  itd. amplitudy tonu podstawowego.Sygnał trójkątny powoduje powstanie dźwięku harmonicznego, który podob-

nie jak poprzedni zawiera tylko nieparzyste składowe harmoniczne, ale ampli-

tuda każdej składowej jest odwrotnie proporcjonalna do kwadratu jej indeksu.Tak więc składowe 1, 3, 5, 7 itd. mają amplitudy równe 1,   1

9 ,   125 ,   1

49  itd. amplitudytonu podstawowego (il. 35e).

Łatwo sprawdzić słuchowo, że najłagodniej brzmiącym, będzie dźwięk wypro-dukowany przez sygnał sinusoidalny (ton prosty). Stosunkowo łagodnie brzmią-cym będzie również dźwięk wyprodukowany przez sygnał trójkątny, ponieważwyraźna przewaga tonu podstawowego i szybkie zanikanie wyższych składo-wych harmonicznych upodabnia jego brzmienie do tonu prostego. Znacznie bo-gatszy, a jednocześnie ostrzejszy w brzmieniu, będzie dźwięk wyprodukowany

przez sygnał prostokątny; ze względu na brak parzystych składowych harmo-nicznych przypominać on będzie nieco barwę klarnetową. Wreszcie — najostrzej-szy, ale również i najpełniej brzmiący, będzie dźwięk wyprodukowany przezsygnał piłowy, zawierający bardzo długi szereg dobrze słyszalnych składowychharmonicznych.

2.6.3. Kontrola kształtu, częstotliwości i amplitudy

Podstawowymi cechami wytwarzanego przez generator drgań okresowych sy-gnału są jego k s z ta ł t, c z ę s to t li w oś ć i a mp li t u da, które w terminach psy-choakustycznych dadzą się przedstawić jako: ba r w a d ź wi ę ku, jego wys oko śći głośność. Kontrola tych cech, a więc sprawdzenie, czy wartości ich odpo-wiadają wartościom zamierzonym, lub czy znajdują się jeszcze w ramach do-puszczalnej tolerancji odchyleń od wartości idealnych, mogła być przeprowa-dzona słuchowo przez podłączenie generatora poprzez wzmacniacz do głośnika,i ocenę, czy uzyskana barwa, interwały muzyczne i zmiany głośności odpowia-dają naszym wyobrażeniom o danym tworze dźwiękowym. Sposobem znaczniepewniejszym — i to stanowi wielką zaletę pracy z urządzeniami elektroaku-

stycznymi — jest kontrola za pomocą przyrządów pomiarowych. W przypadkuomawianych tu parametrów były nimi: oscyloskop, częstościomierz i miernikwysterowania.

107

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 108/381

Studio klasyczne (manualne)

Na skutek rozstrojenia układu czy też niedokładności samej konstrukcji w pro-dukowanym przez generator sygnale mogły występować zniekształcenia typo-wego kształtu sygnału. Tak więc np. zamiast sinusoidalnego mógł on mieć postać

 jak na il. 36a lub zamiast prostokątnego przebieg pokazany na il. 36b.

a) b)

Il. 36

Są to tzw. zniekształcenia nielinearne, których efektem jest powstawanie niepo-żądanych składowych harmonicznych dźwięku podstawowego. Dla celów mu-zycznych takie zniekształcenia nie muszą być jednoznacznie niekorzystne, bo-wiem przekształcają one i wzbogacają w pewien sposób barwę dźwięku. Użyt-kownik generatora chciałby jednak na ogół wiedzieć, czy zniekształcenia takiewystępują, a jeśli tak, to w jakim stopniu.

Prawidłowość kształtu (przebiegu napięcia) najłatwiej sprawdzić posługującsię jego obrazem na ekranie oscyloskopu. W przypadku sygnałów o stałymprzebiegu poruszająca się po ekranie plamka świetlna pozwala jakby zatrzymaćobraz kształtu drgania. Umieszczone na płytce frontowej regulacje zawężają lubrozszerzają obraz, co ułatwia obserwacje sygnałów o różnej częstotliwości i am-plitudzie.

Obserwując kształt sygnału na ekranie łatwo ustalić rodzaj i wielkość znie-kształceń, a także ich zależność od częstotliwości i od amplitudy. Przez podłącze-nie do oscyloskopu generatora bezpośrednio, potem po tłumiku na stole mikser-skim, a w końcu po nagraniu na magnetofonie, łatwo sprawdzić, czy zniekształ-cenia powstają w samym generatorze, czy w którymś z dalszych ogniw toru.

Niezgodność częstotliwości odczytywanych na skali generatora z rzeczywi-stymi częstotliwościami generowanego przez niego sygnału, a także niestabilnośćpracy generatora najłatwiej jest wykryć za pomocą częstościomierza. Jest tourządzenie analogowo-cyfrowe, które po wprowadzeniu na gniazdo wejściowenapięcia periodycznie zmiennego pokazuje za pomocą wskaźnika cyfrowego ak-tualną częstotliwość tych zmian w hercach.

Dla ustalenia poziomu amplitudy generowanego sygnału używamy mi e r n i kawysterowania. Najpraktyczniejsze jest po prostu obserwowanie wskazań po-ziomu napięcia szczytowego na mierniku znajdującym się na konsolecie mik-

serskiej. Tłumik konsolety należy ustawić tak, aby maksymalny poziom sygnałuodpowiadał wskazaniu 0 dB na skali miernika. Wartości mniejsze mierzone sąw odniesieniu do tego poziomu.

108

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 109/381

Generatory

2.6.4. Generatory impulsów

Impulsem nazywamy nagłe zakłócenie w prądzie elektrycznym powstającena skutek skokowej zmiany napięcia (a także włączenia lub wyłączenia prądu),przejawiające się akustycznie w postaci krótkiego trzasku. Teoretycznie rzecz bio-rąc, impuls nie ma ani czasu trwania, ani określonej częstotliwości akustycznej.

 Jednak zarówno nasze ucho, jak i przyrządy pomiarowe rejestrują jego istnieniei pozwalają na określenie jego parametrów, takich jak poziom natężenia, czastrwania, widmo akustyczne. Jest to trochę tak jak z punktem, który nie ma wy-miarów, ale już najmniejsza kropka daje się zmierzyć, można określić jej kształt,kolor, intensywność zaczernienia itd.

Impuls fizyczny nie jest impulsem idealnym. W praktyce elektroakustycznej jest to zazwyczaj tzw. impuls prostokątny, który w rzeczywistości ma kształt

 bardzo bliskiego prostokątowi trapezu (il. 37). Na czas jego trwania składają się:czas narastania, czas otwarcia i czas opadania. Czasy   a   i  c  na rysunku (il. 37)powinny być teoretycznie równe zeru.

Il. 37

 Jednak w nawet najlepszym układzie elektronicznym potrzebny jest czas rzęduułamka milisekundy, aby napięcie od wartości ujemnej przeskoczyło do wartościdodatniej i tak samo przy opadaniu do wartości ujemnej 7. Te bardzo krótkiezjawiska elektryczne mają charakter podobny do stanów nieustalonych w dźwię-

kach instrumentów perkusyjnych i odbierane są przez nasze ucho jako stukipodobne do uderzeń pałeczką w membranę. Jeżeli impuls będzie bardzo krótki,to znaczy czas   b   będzie krótszy od 50ms (   1

20  s), to oba zakłócenia, otwarciai zamknięcia, wskutek bezwładności naszego układu słyszenia zleją się w jedensłyszalny stuk. Jeżeli czas b  będzie dłuższy od 50 ms, to odbieranym przez naszeucho wrażeniem będzie impuls podwójny, jakby dwa stuknięcia, odpowiadająceotwarciu i zamknięciu bramki impulsowej.

We wczesnej praktyce muzyki elektronicznej impulsy były najczęściej filtro-wane i połączone z krótkim pogłosem, co dawało efekty dźwiękowe zbliżone doinstrumentów perkusyjnych. (W sposób systematyczny wykorzystał to K. Stock-

hausen w utworze  Kontakte).

7 W wielu generatorach przebieg ten ma dwie wartości: zerową i dodatnią, np. 0 V i 10 V.

109

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 110/381

Studio klasyczne (manualne)

Impulsy prostokątne można było uzyskać niemal z każdego generatora drgańprostokątnych posiadającego zakres częstotliwości podakustycznych. Generatorytakie posiadały bowiem z reguły oprócz regulacji częstotliwości również regu-lowany tzw. stosunek wypełnienia, tzn. stosunek części dodatniej do ujemnej

napięcia (il. 38). Generator sygnałów prostokątnych ustawiony na częstotliwośćmniejszą niż 16 Hz przy jednoczesnym ustawieniu stosunku   PN  na wartość mniej-

szą od jedności był już generatorem impulsów prostokątnych.

Il. 38

Istniały oprócz tego urządzenia specjalne do otrzymywania impulsów pro-stokątnych o regulowanej częstotliwości i regulowanej długości trwania częścipozytywnej. Taki generator impulsów widzimy na ilustracji 39.

Il. 39. Generator impulsów

Generator impulsów przełączony na zakres częstotliwości akustycznych pro-dukował sygnał „impulsowy” (prostokątny o skróconej części dodatniej), któ-

rego efektem akustycznym był dźwięk bogaty w składowe harmoniczne, któregowidmo wykazywało jednak braki pewnych składowych zależnie od stosunkuwypełnienia. Ogólnie można powiedzieć, że brzmienie takiego dźwięku jest tymostrzejsze im „węższe” są impulsy, tzn. im mniejszy jest stosunek   P

N .Generator impulsów prostokątnych ma zastosowanie nie tylko jako źródło sy-

gnałów fonicznych, ale również jako urządzenie sterujące. Jeżeli napięcie sko-kowo-zmienne w zakresie podakustycznym, pojawiające się na jego wyjściu, uży-

 jemy do sterowania wzmocnienia wzmacniacza, który bywa często wbudowanyw generator impulsów, to przy odpowiednim ustawieniu poziomów amplitudy,która zmieniała się w takt dodatnich i ujemnych części sygnału impulsowego,

uzyskiwało się tzw. efekt bramkowania sygnałów zewnętrznych przechodzą-cych przez ten wzmacniacz. W czasie kiedy generator impulsów miał napięciedodatnie (bramka otwarta), sygnał zewnętrzny przechodził przez wzmacniacz

110

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 111/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 112/381

Studio klasyczne (manualne)

W muzyce elektronicznej generator szumów stanowił jedno z podstawowychźródeł sygnałów fonicznych. Jednak produkowane przez niego przebiegi napię-ciowe w postaci szumu białego lub szumu różowego stanowiły tylko materiałsurowy, służący do dalszego przetwarzania, przede wszystkim za pomocą filtro-

wania. Filtrowanie pozwalało na „wycinanie” z szumu białego (lub różowego)określonych pasm, które nazywane były sz u ma mi b a r w nym i (ang.  colorednoise, niem. farbiges Rauschen). Dźwiękowo dawały się one usytuować w określo-nych przedziałach wysokości i, zależnie od wysokości i szerokości pasma, miałyswoją „barwę”.

Il. 41

Generator szumów znalazł zastosowanie także jako źródło napięć przypad-kowych. O tym będziemy mówić dalej przy opisie detektora obwiedni i przyomawianiu modułów syntezatora.

2.7. Filtry i korektory

Filtry i korektory są to urządzenia służące do tłumienia pewnych części pasmaakustycznego przechodzących przez nie sygnałów fonicznych.

Korektorami nazywamy urządzenia o łagodnym efekcie tłumienia, rzędu 6 do12 dB na oktawę, a filtrami urządzenia ostro tłumiące — 16 do 60 dB/okt.

Filtry i korektory dzielimy na pasywne i aktywne. Pasywne spełniają tylkorolę tłumiącą, a aktywne tłumią pewne pasma i jednocześnie wzmacniają pasmanie tłumione. Stosowanie tłumiących filtrów pasywnych ma ograniczone zasto-sowanie. Przy filtrowaniu wąskich pasm tłumienie powoduje znaczny spadekenergii filtrowanego sygnału, tak że część nie tłumiona może być zbyt słaba dladalszego jej wykorzystania. W filtrach aktywnych ubytek energii wyrównywalny

 jest przez wzmocnienie.Wytłumienie pewnych pasm częstotliwości i ewentualne wzmacnianie innych

wprowadza zmiany w widmie amplitudowym filtrowanego sygnału. W percepcjiotrzymanych tą drogą sygnałów akustycznych odczuwane jest to jako zmiana

 barwy dźwięku.

112

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 113/381

Filtry i korektory

2.7.1. Rodzaje filtrów

W zależności od układów elektrycznych i ich oddziaływania na sygnał fonicznyrozróżniamy filtry:

a) dolnoprzepustowe (ang. low-pass)8,

Il. 42

 b) górnoprzepustowe (ang. high-pass),

Il. 43

c) środkowoprzepustowe (ang. band-pass),

Il. 44

d) środkowo-tłumiące, inaczej: środkowo-zaporowe (ang. band-reject).

Il. 45

Rysunki powyższe pokazują tzw. c h a r a kt e r ys ty k ę pr z e n os z e n ia tychfiltrów. Ogólnie mówimy, że sygnał przenoszony jest w sposób linearny, czyteż: że urządzenie ma lin ea rn ą ch ar ak te ry st yk ę pr ze no sz en ia — wtedy,kiedy stosunki amplitud składowych w poszczególnych pasmach częstotliwości

8 W terminologii angielskiej można spotkać trzy rodzaje pisowni: low pass filter, low-pass filter i lowpass filter, to samo dotyczy złożeń high pass  i następnych.

1138 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 114/381

Studio klasyczne (manualne)

są takie same na wejściu i na wyjściu urządzenia. Na schemacie jak powyżej cha-rakterystyka przenoszenia przedstawiona byłaby w postaci linii prostej. W samejkoncepcji filtrów leży nielinearne przenoszenie sygnałów. Filtry charakteryzująsię dwoma parametrami. Są nimi: c z ę st o t l i w oś ć gr a n i c z na F g (ang. cutoff fre-

quency) i stromość charakterystyki, określana też jako stromość tłumienia(ang. slope), mierzona w dB/okt. Dla filtrów pasmowych zamiast wskazywaniadwóch częstotliwości granicznych, dolnej i górnej, wygodniej jest stosować po-

 jęcia częstotliwości środkowej Fc   (ang. centre frequency) i szerokości pasma (ang.band width); ta ostatnia może być określana albo w interwałach muzycznych, np.tercja, oktawa, albo w hercach, np. szerokość pasma 10 Hz.

W klasycznym studiu elektronicznym w użyciu były początkowo wyłączniefiltry pomiarowe produkowane do testowania urządzeń elektroakustycznych, do

 badań akustycznych itd. W filtrach tych zakres przepuszczalnego pasma, a w nie-których również i stromość tłumienia były regulowane.

2.7.2. Filtry wielopasmowe

Począwszy od lat sześćdziesiątych zaczęto budować filtry specjalnie przezna-czone do użytku muzycznego (dla celów radiofonii, fonografii itd.). Są to z regułyfiltry środkowoprzepustowe wielopasmowe — oktawowe, półoktawowe lubtercjowe. Ilustracja 46 pokazuje płytkę czołową 8-pasmowego filtru oktawowegofirmy Synthi. W urządzeniu tym amplituda (wielkość tłumienia) poszczególnych

pasm częstotliwości regulowana jest niezależnie od innych, i to w sposób płynny.

Il. 46

Il. 47

Wykres (il. 47, s. 114) przedstawia charakterystykę przenoszenia filtru przyustawieniu regulatorów, jak na il. 46.

114

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 115/381

Filtry i korektory

W fonografii, radiofonii, w opracowaniu warstwy dźwiękowej w filmie i tele-wizji filtry służą:

a) do korekcji obrazu dźwiękowego, np. jeżeli ujęcie dźwięku następuje w wa-runkach niekorzystnych;

 b) do zróżnicowania planów dźwiękowych;c) do uzyskiwania efektów specjalnych, jak głos przez telefon, muzyka z ma-łego odbiornika tranzystorowego, złudzenie wielkiego wnętrza (w tym ostatnimprzypadku w połączeniu ze sztucznym pogłosem) itd.

W muzyce elektronicznej filtry odgrywały zasadniczą rolę w tzw. syntezies u bt r a kc yj n e j. Pozwalały na:

a) „wycinanie” z szumu białego pasm odpowiedniej szerokości, które dziękitej operacji nabierały charakteru szumów barwnych; widmo szumu barwnegoodpowiadało w tym przypadku charakterystyce przenoszenia danego filtru;

Il. 48

 b) zmianę barwy dźwięków bogatych w składowe harmoniczne lub/i niehar-moniczne przez przytłumienie pewnej części tych składowych (il. 49, s. 116);

c) zmianę barwy dźwięku przez podkreślenie pewnego pasma formantowegoza pomocą filtru środkowoprzepustowego (aktywnego) (il. 50, s. 116).

Podobne jest działanie filtrów wielopasmowych. W ich przypadku efekt filtro-wania jest złożony: zamiast jednego — kilka pasm szumowych, zamiast jednego— kilka pasm formantowych itd.

Korektory są to, jak już mówiliśmy, filtry o łagodniejszym działaniu. Nie wy-

tłumiają one całkowicie żadnego pasma, a tylko lekko korygują widmo sygnału.Stosuje się je przede wszystkim tam, gdzie ich działanie powinno być niezauwa-żalne dla słuchacza.

Najprostsze korektory to umieszczane w radioodbiornikach i wzmacniaczachtzw. regulatory barwy. Oprócz całkiem prostych, umieszczanych w tanich radio-odbiornikach, a tłumiących tylko jedno pasmo, zazwyczaj od 1000Hz w górę,spotykamy, np. w droższych odbiornikach i we wzmacniaczach hi-fi, czynne ko-rektory osobno działające na niskie i osobno na wysokie częstotliwości, tłumiącete pasma łagodnie w granicach ok. 12 dB; czasem umieszczane są tam jeszcze do-datkowe korektory działające tylko na najwyższe i na najniższe pasma (powyżej

12000Hz i poniżej 50Hz).Podobne korektory, oczywiście znacznie wyższej jakości, umieszczane są

w modułach tłumikowych stołów mikserskich, o czym pisaliśmy w rozdziale 2.4.

1158∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 116/381

Studio klasyczne (manualne)

    I    l .    4    9

   w    i    d   m   o    d

    ź   w    i   ę    k   u   p    i    ł   o   w   e   g   o    i   c    h   a   r   a    k   t   e   r   y   s   t   y

    k   a   t    ł   u   m    i   e   n    i   a

    fi    l   t   r   u    d   o    l   n   o   p   r   z   e   p   u   s   t   o   w   e   g   o

   w    i    d   m   o   t   e   g   o   s   a   m   e   g   o    d    ź   w    i   ę    k   u   p   o    fi    l   t   r   o   w

   a   n    i   u

    I    l .    5    0

116

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 117/381

Filtry i korektory

    I    l .    5    1

    I    l .    5    2

117

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 118/381

Studio klasyczne (manualne)

 Jako osobne urządzenia budowane są ponadto korektory wielopasmowe do ce-lów profesjonalnych.

Ostatnio modne jest stosowanie, nie tylko zresztą do muzyki elektronicznej,kore ktor ów w ielo pasm owyc h su wako wych (ang. graphic equalizers). Ko-

rektory takie są w rzeczywistości szeregiem włączonych równolegle filtrów środ-kowoprzepustowych o dość stromych zboczach, z tym, że zakres tłumienia każ-dego z pasm nie przekracza na ogół 24 dB. Ustawienie ślizgowych tłumików naróżnych wysokościach odzwierciedla niejako graficznie obraz krzywej przeno-szenia korektora (il. 51, s. 117). Wielopasmowe korektory są bardzo pomocneprzy ustalaniu stałych formantów dla sygnałów o zmiennej częstotliwości pod-stawowej. Stosuje się je również do poprawiania charakterystyki przenoszeniagłośników i w ogóle do polepszenia odsłuchu.

2.7.3. Wzmacniacz rezonansowy

Bardzo użytecznym w praktyce studia elektronicznego był pewien ro-dzaj filtru o bardzo wąskim paśmie przepuszczania zwany wzmacniaczemrezonansowym. Zbudowany jest on na zasadzie wzmacniacza z pętlą sprzę-żenia zwrotnego, powodującą, że wszystkie częstotliwości sygnału wejściowegosą bardzo mocno tłumione z wyjątkiem wąskiego pasma wokół częstotliwościrezonansowej. Szerokość pasma wzmacnianego nie przekracza na ogół 10Hz,a w niektórych typach tych urządzeń może być zawężana nawet do 1Hz (il. 52,

s. 117).Szum biały przepuszczony przez wzmacniacz rezonansowy ustawiony na sze-rokości 1Hz zamieni się w sygnał zbliżony do tonu prostego o częstotliwo-ści równej częstotliwości rezonansowej wzmacniacza (tylko amplituda sygnału

 będzie wykazywać lekkie wahania związane z nierównym rozkładem energiiw tym paśmie szumu w czasie).

Il. 53

Wprowadzenie na to urządzenie sygnału zmiennego, np. nagranej mowy, spo-woduje powstanie sygnału, którego częstotliwość będzie stała, ale którego ampli-tuda wahać się będzie w dużych granicach w rytm zmian sygnału wejściowego.W momentach kiedy w sygnale wejściowym pojawiać się będzie częstotliwość

równa częstotliwości rezonansowej, następować będzie gwałtowne wzmocnienie,w pozostałym czasie poziom sygnału wejściowego spadać będzie praktycznie dozera, powodując pauzy.

118

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 119/381

Modulator kołowy (Ringmodulator)

2.8. Modulator kołowy (Ringmodulator)

W praktyce muzyki elektronicznej modulator kołowy był pierwszym urządze-niem elektronicznym pozwalającym na dość daleko idącą ingerencję w samą ma-terię dźwięku, i to zarówno dźwięku elektronicznego, jak i dowolnego dźwiękunaturalnego. Właśnie ze względu na łatwość bezpośredniego przekształcania,względnie zniekształcania dźwięków instrumentalnych i wokalnych, modulatorkołowy stał się ulubionym narzędziem w   live electronic, np. u K. Stockhausenaw serii utworów od  Mikrophonie I  do Hymnen.

Nazwa „modulator kołowy” (właściwie powinno być „pierścieniowy”) pocho-dzi od jego konstrukcji elektronicznej, w której charakterystycznym elementem

 jest pierścień diod. Pod względem funkcjonalnym jest to układ mnożący dwasygnały wprowadzone na jego równoważne wejścia A i B. Spełnia on więc po-

dobną rolę jak mieszacz sygnałów. Ale mieszacz jest układem dodającym i na jego wyjściu pojawia się napięcie, którego wartość chwilowa równa jest sumiewartości chwilowych napięć obu sygnałów wprowadzonych na jego wejścia. Nawyjściu mieszacza pojawia się suma sygnałów wejściowych. W układzie mno-żącym, jakim jest modulator kołowy, na wyjściu pojawia się napięcie, któregowartość chwilowa równa jest iloczynowi wartości chwilowych napięć obu sy-gnałów wejściowych. Mówimy, że na wyjściu pojawia się produkt modulacjiobu sygnałów wyjściowych. Produkt modulacji zawiera szereg składowych sta-nowiących sumy i różnice częstotliwości sygnałów wejściowych, brak w nim

 jednak samych sygnałów wejściowych9

. W przypadku najprostszym, jakim bę-dzie wprowadzenie na wejścia A i B dwóch sygnałów sinusoidalnych o stałejczęstotliwości i jednakowej amplitudzie, na wyjściu pojawi się sygnał o dwóchskładowych, z których jedna będzie sumą, a druga różnicą częstotliwości obusygnałów wejściowych (il. 54, s. 120).

 Jeżeli kogoś dziwi, skąd biorą się sumy i różnice, skoro sygnały są mnożone,to warto przypomnieć z trygonometrii, że

sinα · sin β  =12

 cos(α − β) − cos(α + β)

Ponieważ przebieg sinusoidalny daje się przedstawić w postaci: sin 2π f t, to:

sin2π f at · sin2π f bt  =cos2π( f a − f b)t − cos2π( f a  + f b)t

2

Tak więc iloczyn dwóch przebiegów sinusoidalnych o częstotliwościach   f a  i   f b będzie zawierać tylko dwie częstotliwości równe   f a − f b  i   f a  + f b.

 Jeżeli teraz na jedno wejście wprowadzimy sygnał sinusoidalny, a na drugiesygnał zawierający szereg składowych, np. harmonicznych, to na wyjściu otrzy-

mamy sygnał zawierający szereg składowych, których częstotliwości będą stano-

9 Modulacja taka określana bywa jako modulacja amplitudy z wytłumioną falą nośną.

119

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 120/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 121/381

Modulator kołowy (Ringmodulator)

źródłoakustyczne

Il. 56

na drugie wejście wprowadzony zostanie sygnał o częstotliwości akustycznej,to modulator działać będzie jako kształtownik obwiedni, zmieniając amplitudęsygnału fonicznego zgodnie z przebiegiem sygnału podakustycznego (il. 57).

Sygnał A

Sygnał B

Produktmodulacji

Il. 57

Aby mógł zaistnieć ten efekt, sygnał podakustyczny musi być napięciowo prze-sunięty, np. od 0 do   +10 V, jak na powyższym przykładzie. Takie przesunięciemoże wynikać z układu elektrycznego generatora, można go też uzyskać przezdodanie do napięcia zmiennego pojawiającego się na wyjściu generatora napięciastałego (np.   +5 V) przesuwającego cały sygnał powyżej zera woltów.

2.8.1. Przesuwnik widma

Przesuwnik widma (ang.   frequency shifter, niem.   Frequenzumsetzer), stosowanychętnie w latach siedemdziesiątych, był niczym innym jak zmodyfikowanym mo-dulatorem kołowym. Na jego wyjściu pojawiała się tylko jedna połówka przesu-niętego widma — same sumy, lub same różnice częstotliwości sygnałów wpro-wadzonych na jego wejścia. Miał on zazwyczaj tylko jedno wejście dla sygnałów,które miały być poddawane operacji przesunięcia widma. Na drugie wejście, nie-

dostępne dla użytkownika, wprowadzany był sygnał z wewnętrznego generatora.W urządzeniu, które skonstruowano w Studiu Eksperymentalnym Polskiego

Radia umieszczone były dwa bliźniacze zestawy, każdy złożony z generatora

121

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 122/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 123/381

Urządzenia pogłosowe

od 1,5 do 3 sekund. Dłuższe czasy pogłosu, rzędu 5–10 sekund występują tylkowe wnętrzach kościelnych.

Dobry pogłos sztuczny, a więc taki, który miałby sprawiać wrażenie po-dobne do pogłosu naturalnego, musi uwzględniać pewne właściwości akustyczne

wnętrz koncertowych. Powierzchnie ścian i sufitu oraz materiałów z reguły sil-niej pochłaniają tony wysokie niż niskie. Tony niskie wybrzmiewają więc dłużej.Imitujący warunki naturalne pogłos sztuczny musi mieć nielinearną charaktery-stykę przenoszenia pasma akustycznego, uprzywilejowującą dolną część widmaw miarę wybrzmiewania.

Oprócz pogłosu korzystnego dla muzyki tradycyjnej, o którym tu mowa, roz-różniamy jeszcze wiele rodzajów pogłosu, jaki dają np. pusta hala, duży kościół,korytarz więzienny, studnia. Zmniejszają one wyrazistość dźwięku, ale nasuwająskojarzenia z odpowiednimi warunkami naturalnymi przestrzeni akustycznej, dlaktórej są charakterystyczne. Często więc wykorzystywane są dla celów imitacyj-nych w teatrze radiowym, w filmie i w telewizji, rzadziej jako efekty specjalnew nagraniach muzycznych.

W fonografii i w dźwiękowej technice radiowej, telewizyjnej i filmowej stosujesię od dawna wytwarzanie pogłosu w sposób sztuczny. Najstarszym sposobemuzyskiwania sztucznego pogłosu (stosowanym niekiedy do dzisiaj), jest repro-dukcja i powtórne ujęcie dźwięku w komorze pogłosowej.

Kom or a p ogł o s owa to pomieszczenie zamknięte, odizolowane akustycznieod otoczenia, w którym umieszczono głośnik, mikrofon i przegrodę tłumiącą.Sygnał foniczny zostaje odtworzony przez głośnik, a dźwięk z głośnika oraz jego

odbicia od ścian komory pogłosowej przetwarzane są w mikrofonie na nowy sy-gnał zawierający sygnał oryginalny i wytworzony w komorze pogłos. Przegrodatłumiąca ma za zadanie zmniejszenie natężenia fali akustycznej idącej bezpośred-nio z głośnika do mikrofonu. Dla uniknięcia fal stojących i efektów echa komorapogłosowa budowana jest w kształcie nie prostopadłościanu, lecz bryły o lekkopochylonych w stosunku do siebie ścianach przeciwległych.

Zaletą komory pogłosowej jest dosyć naturalne brzmienie uzyskiwanego dziękiniej pogłosu. Wadami — stały w zasadzie czas pogłosu, pewne zniekształceniawprowadzane przez głośnik i mikrofon, niejednakowe tłumienie poszczególnychpasm częstotliwości przez ściany komory i trudna do uzyskania kompletna izo-lacja od otoczenia.

Rozwiązaniem, które przez długie lata uważane było za optymalne dla wszel-kich studiów nagraniowych, jest płyta pogłosowa. Elementem opóźniającym

 jest tu arkusz cienkiej blachy (ok. 1,2 × 2 m), rozpięty elastycznie na metalowejramie i umieszczony w zamkniętej obudowie. Płyta pogłosowa działa na po-dobnej zasadzie jak komora pogłosowa. Umieszczony na jednym brzegu płytyprzetwornik wprowadza ją w drganie, na drugim jej końcu czujnik (mikrofonkontaktowy) odbiera sygnał wraz z odbiciami. Sposób rozchodzenia się fal na po-wierzchni, odbicia od krawędzi i tłumienie stanowią dobre przybliżenie pogłosu

naturalnego.W skrzyni z płytą pogłosową umieszczona jest równolegle do niej, w odległości

kilku centymetrów, druga płyta pokryta materiałem tłumiącym oraz mechanizm

123

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 124/381

Studio klasyczne (manualne)

pozwalający na regulowanie odległości pomiędzy obiema płytami. Ten regulo-wany układ tłumiący pozwala na zmienianie czasu pogłosu w granicach od 1,5do 5 sekund. Mały silniczek umieszczony w obudowie płyty i zdalne sterowanieze stołu mikserskiego ułatwiają korzystanie z płyty, gdyż czas pogłosu może być

regulowany przez operatora dźwięku bez odchodzenia od stołu mikserskiego.

Il. 58. Schemat płyty pogłosowej

Przy ogromnych zaletach płyty, które przyczyniły się do powszechnego i nie-mal wyłącznego jej stosowania w latach sześćdziesiątych i na początku lat sie-demdziesiątych, ma ona i swoje wady. Pierwszą jest znaczna nierównomiernośćprzenoszenia poszczególnych pasm częstotliwości przy niemal zupełnym wytłu-mieniu wysokich. Drugą wadą jest powstawanie w samej płycie pewnych „meta-licznych” rezonansów (przydźwięków), które zacierają naturalną barwę niektó-rych dźwięków.

Urządzeniem nowszym, zastosowanym po raz pierwszy przez firmę Ham-mond, jest sprężyna pogłosowa. Przetwornik magnetoelektryczny umieszczonyna jednym końcu sprężyny stalowej wprowadza ją w drgania zgodnie z przebie-giem sygnału elektrycznego, a mikrofon kontaktowy na drugim końcu sprężynyodbiera te drgania wielokrotnie powtórzone z coraz to słabszym poziomem naskutek odbić i tłumienia, jakie powstają wewnątrz stalowej spirali. Zaletą sprę-żyny pogłosowej (w rzeczywistości jest to układ kilku sprężyn różnej długościi grubości) jest niski koszt, mały rozmiar i łatwość przenoszenia. Wadami są:

 brak zagęszczenia powtórzeń w miarę upływu czasu i nierównomierność prze-

noszenia pasma akustycznego, przez co efekt pogłosu jest trochę nienaturalny.Sprężyny pogłosowe stosowane są dzisiaj jako tanie urządzenia, np. w małychsyntezatorach elektronicznych. Buduje się na tej zasadzie również urządzeniaprofesjonalne. Przykładem może być urządzenie pogłosowe BX-20 firmy AKG.

Poszukiwano też innych rozwiązań. Należy do nich tzw. magnetofon pogło-sowy, o którym pisaliśmy w innym miejscu, a także szereg innych urządzeńopierających się na zasadzie opóźnienia magnetofonowego, jak np. system z wi-rującymi głośnikami firmy Lislie (stosowany głównie w muzyce rozrywkowej wewzmacniaczach organowych, gitarowych itp.).

Urządzeniem uniwersalnym i jak dotąd nieprześcignionym w wytwarzaniu

złudzenia naturalnego pogłosu, ale pozwalającym również na wytwarzanie i in-nych efektów pogłosowych, jest pogłos cyfrowy. Wszystkie systemy analogowegoopóźnienia sygnału, które dają w efekcie wrażenie pogłosu, obarczone są jedyną,

124

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 125/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 126/381

Studio klasyczne (manualne)

(rzędu 1 s), może dać złudzenie naturalnego dźwięku perkusyjnego lub krótkiegopizzicato na strunie, dodanie długiego pogłosu — efekt podobny do wibrafonu,dzwonu, uderzonej blachy itd., zależnie do zawartości dźwięku oryginalnego.

Do efektów sztucznych, ale chętnie stosowanych w pierwszym, klasycznym

okresie muzyki elektronicznej, zaliczyć trzeba umieszczanie pogłosu przeddźwiękiem. Dokonywało się to przez odwrócenie kierunku taśmy, na której za-rejestrowany był dźwięk z pogłosem. Pogłos w formie nabrzmiewania pojawiałsię wówczas przed dźwiękiem. Przykładami mogą tu być: Stockhausena  Studie I ,Dobrowolskiego  Muzyka na taśmę nr 1. Przykładem wykorzystania przerysowa-nego pogłosu do stworzenia specyficznej atmosfery transcendentalnej będzie  Levoyage  Pierre’a Henry’ego, opisująca zgodnie z tybetańską księgą  Bardo Th¨ odolwędrówkę duszy po śmierci przed powtórną reinkarnacją.

Duży pogłos zmniejsza, jak wiemy, wyrazistość dźwięku (ostrość ataku, zrozu-miałość słów). Dla zmniejszenia ujemnych skutków dodawania sztucznego po-głosu w technice nagraniowej stosuje się mieszanie w odpowiednich proporcjachsygnału oryginalnego z sygnałem po urządzeniu pogłosowym.

Il. 59

2.10. Technika klasyczna

Technologia pracy w studiu elektronicznym obejmuje zestaw przyrządów orazmetodę prowadzącą do uzyskania produktu finalnego w postaci nagranej taśmy.

 Jak każda technologia jest ona tylko narzędziem. Aby więc stosować tę czy innątechnologię, trzeba sobie najpierw uświadomić cel, jakiemu ma ona służyć. Po-trzebna jest koncepcja muzyki na taśmie, określenie, czym i jaka ma ona być dladanego kompozytora.

Istnieją dwa przeciwstawne sobie sposoby myślenia muzycznego prowadzącedo tworzenia muzyki na taśmie. Skrótowo nazwiemy je: eksperymentalny i kon-ceptualny. Pierwszy polega na składaniu w inny sposób tego, co już zaistniało,zanim kompozytor przystąpił do działania. Jego praca będzie zdążać do wyod-rębnienia z istniejących, np. nagranych na taśmę przebiegów dźwiękowych pew-nych tylko fragmentów, nadania im narzuconego przez te przebiegi lub przez

fantazję kompozytora rytmu, ułożenia ich w nakładające się na siebie warstwy,a więc ustalenia innego porządku niż ten, który istniał w pierwotnym materiale.Przesłanką takiego myślenia jest uznanie istnienia uporządkowanego w pewien

126

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 127/381

Technika klasyczna

sposób materiału wyjściowego, któremu kompozytor może nadać nowy, nie ist-niejący dotąd sens muzyczny. Materiał wyjściowy może się składać z nagrańdokonywanych w różnych warunkach, w różnym czasie i przez różnych realiza-torów, może mieć porządek naturalny, np. jeżeli są to odgłosy natury lub odgłosy

mechaniczne, albo też porządek narzucony przez człowieka, jeżeli jest to np.mowa ludzka, improwizacja instrumentalna lub skomponowany do celów kon-certowych utwór muzyczny. Rolą kompozytora jest stworzenie nowego porządkui nadanie mu nowego sensu muzycznego. Ten sposób myślenia, najbliższy pierw-szym etiudom konkretnym Pierre’a Schaeffera i w ogóle jego koncepcji muzykikonkretnej, zmierza w kierunku kolażu muzycznego. Pierwotnie materiałem ta-kiego kolażu są nagrania gotowe, zaistniałe bez woli kompozytora. Potem twórcymuzyki konkretnej wprowadzają również materiały zakomponowane przez sie-

 bie jeszcze przed nagraniem w ten sposób, aby ich porządek i wyraz stanowiły

 już część porządku i wyrazu zamierzonej kompozycji.Przeciwstawny temu kierunek myślenia polega na tworzeniu nowego porządkudźwiękowego według arbitralnie przyjętej koncepcji tak szczegółu, jak i całościdzieła. Praca w studiu poprzedzona jest tutaj pracą koncepcyjną, podobną dopracy kompozytora muzyki tradycyjnej, z tym, że kompozytor muzyki na ta-śmie idzie niejednokrotnie o jeden krok dalej: zamiast korzystać z gotowych barwi artykulacji zgromadzonych w arsenale istniejących muzycznych dźwięków wo-kalnych i instrumentalnych, tworzy dźwięki nowe, nieznane, których brzmieniamoże się tylko domyślać. Powstaje pojęcie komponowania dźwięku, często przezprzeniesienie do strefy mikroczasu pojęć przejętych z komponowania w ma-kroczasie, np. zastosowanie serii. Przesłanką do tego jest zaistniała w muzyceelektronicznej możliwość budowania dźwięku od podstaw przez składanie goz tonów prostych i w ten sposób tworzenia nowych barw dźwięku w zależnościod woli kompozytora. Postawa ta, właściwa twórcom kolońskiej szkoły muzykielektronicznej, zakładała dwoistość pracy kompozytora. Najpierw komponowa-nie na papierze, jak w muzyce tradycyjnej, potem wykonanie, czyli realizacjadźwiękowa w studiu. Istniała możliwość powierzenia wykonania innej osobie— realizatorowi dźwięku, który spełniałby tę samą rolę, co wykonawca utworuinstrumentalnego.

Tym dwom sposobom myślenia odpowiadać też będą dwie zasadniczo różnemetody pracy. Pierwsza z nich polega na eksperymentowaniu na wybranym ma-teriale dźwiękowym, wypróbowywaniu różnych wariantów sprawdzanych słu-chowo i dokonywaniu wyborów rozwiązań najbliższych ogólnemu wyobrażeniuo poszukiwanym fragmencie utworu. Komponowanie utworu następuje sukce-sywnie w trakcie pracy nad materiałem, a decyzje kompozytora podejmowanew studiu dotyczą nie tylko wyboru wersji aktualnie opracowywanego fragmentu,ale także dopasowania kolejnych fragmentów do siebie i łączenia ich w więk-sze całości. Cała praca może mieć charakter spontanicznej improwizacji. Częściej

 jednak w pewnym momencie powstaje graficzny szkic kompozycji czy też innyrodzaj zapisu, który ułatwi kompozytorowi panowanie nad całością tworzonegoutworu.

127

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 128/381

Studio klasyczne (manualne)

W drugiej metodzie, zgodnej z myśleniem koncepcyjnym, pierwszym etapem będzie przyjęcie pewnego zbioru dźwięków jako potencjalnego materiału mu-zycznego, opisanie tego zbioru i ustalenie sposobu realizacji poszczególnych jegoelementów, skomponowanie utworu przy użyciu elementów tego zbioru i zapi-

sanie utworu w formie tzw. „partytury”, która jest graficznym odwzorowaniemprzebiegów dźwiękowych w parametrach czasu, wysokości i głośności. Party-tura taka jest z reguły uzupełniona opisem technologii i szczegółowym wyka-zem danych dotyczących użytych struktur dźwiękowych. Drugi etap to realizacjanuta po nucie, struktura po strukturze, zaplanowanych w partyturze przebiegówdźwiękowych, montowanie ich w odcinkach czasu odpowiadających zapisowi,i na koniec zgranie całości.

W pewnych przypadkach utwór może być przedstawiony w sposób graficznieuproszczony, np. wówczas kiedy struktury są trudne do odwzorowania lub mającharakter aleatoryczny. Czasem partytura zostaje w całości zastąpiona opisemsłownym i „receptami” realizacyjnymi.

Metoda pierwsza znalazła zastosowanie przede wszystkim w realizacji muzykikonkretnej. W pierwszej szkole paryskiej stanowiła ona właśnie cechę wyróżnia-

 jącą pracę kompozytora muzyki na taśmie od pracy kompozytora tradycyjnego.Potem okazało się, że eksperymentalna metoda pracy możliwa jest również przyużyciu materiału elektronicznego. Materiał taki może powstać drogą improwi-zacji i przypadkowych zbitek dźwiękowych otrzymanych przy operacjach naaparaturze elektronicznej, a dalsze jego opracowanie może przebiegać w spo-sób identyczny, jak przy pracy z materiałem nagranym mikrofonowo. Z drugiej

strony praca z gruntu koncepcyjna możliwa jest również przy użyciu materiałukonkretnego. Metodę pracy trzeba wybierać tak, aby była adekwatna nie domateriału, ale do sposobu myślenia muzycznego.

Warto jeszcze rozpatrzyć dwa inne, również przeciwstawne sobie trendy, niezwiązane jednak z opozycją koncepcja–eksperyment. Pierwszy z nich nazwiemysonorystycznym. Jest to poszukiwanie brzmień trudnych do zidentyfikowania,również poprzez deformowanie i przekształcanie znanych brzmień tak dalece, ażstaną się nierozpoznawalne, lub balansować będą na granicy rozpoznawalności;

 jest to więc odrealnianie dźwięków rzeczywistych, a także tworzenie dźwiękówabstrakcyjnych, które nie miałyby żadnego związku ze znanym nam z doświad-czenia światem dźwiękowym. Będzie to również dążenie do uzyskania dźwię-ków, które właśnie dzięki temu oderwaniu od realności stałyby się nosicielaminowego wyrazu muzycznego, nieosiągalnego innymi środkami.

Drugi nazwiemy po prostu muzycznym. Będzie to umuzycznienie, czyli nada-wanie cech muzycznych dźwiękom, które w tradycyjnych kategoriach myśleniauważane są za niemuzyczne, to szukanie takich powiązań lub takich układów,dzięki którym „niemuzyczne” zjawiska, takie jak mowa, szmery, nieartykułowanedźwięki instrumentalne itd. poprzez rytm, różnice wysokościowe i dynamiczne,a także przez stosowanie „muzycznych” zabiegów formalnych, jak powtórzenie,

wariacja, ostinato, będą je zbliżały do tradycyjnego świata muzyki instrumen-talnej i wokalnej. Zbliżenia do dźwięków tradycyjnie muzycznych mogą też na-stępować poprzez takie zmiany barwy i kształtu dynamicznego dźwięku, które

128

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 129/381

Technika klasyczna

nasuwałyby skojarzenia z dźwiękami instrumentalnymi lub wokalnymi, a takżeprzez tworzenie takich struktur elektronicznych, których brzmienie przypomina-łoby naturalne dźwięki muzyczne.

Celowo przedstawiliśmy tutaj tendencje skrajne. Pozwalają one łatwiej zro-

zumieć mechanizmy myślenia muzycznego. Oprócz nich mamy do czynieniaz szeregiem tendencji przejściowych leżących pomiędzy owymi skrajnościami.Myślenie konceptualne nie wyklucza bowiem przeprowadzania wstępnych eks-perymentów, a improwizacyjne eksperymentowanie nie musi oznaczać brakuścisłej koncepcji całości dzieła, jego materiału czy nawet kształtu poszczegól-nych zdarzeń dźwiękowych.

Mogą oczywiście istnieć koncepcje nie mieszczące się w opisanym powyżejschemacie. Np. koncepcje idące w kierunku tzw. metamuzyki czy antymuzyki,w których użycie taśmy magnetofonowej jest tylko jednym ze środków, takimsamym jak użycie gestu i ruchu na estradzie, świateł czy reakcji publiczności.

Generalną jednak tendencją, niezależną jak dotąd od zmieniających się sty-lów i prądów w muzyce na taśmie i w muzyce w ogóle, jest poszukiwanienowego wyrazu. Dzięki ogromnemu rozszerzeniu pojęcia materii muzycznejo dźwięki dawniej uważane za niemuzyczne, o dźwięki elektronicznie przetwo-rzone i o dźwięki syntetyczne, kompozytor muzyki na taśmie uzyskał możli-wości, o jakich nie śniło się jego poprzednikom. Naturalne więc stało się dą-żenie do wykorzystania tych środków dla tworzenia nowych światów ekspresjii wyrazu, czy to przez upodobnienie nowego materiału do tradycyjnych two-rów muzycznych, czy też odwrotnie przez uciekanie od tradycyjnego pojmowa-

nia muzyki jako zestawu ogranych szablonów i poszukiwanie nowych jakości brzmieniowych, które muzyką jeszcze nie są, ale staną się nią od momentu,kiedy kompozytor zdoła narzucić słuchaczom swoje własne pojmowanie świata,kiedy „dźwiękowe” zdoła przemienić w „muzyczne”.

Niezależnie od sposobu tworzenia muzyki i od dążeń do umuzycznienia lubodrealnienia dźwięku, praca na materiale konkretnym, przynajmniej w pierw-szych etapach, różni się znacznie od pracy nad materiałem czysto elektronicz-nym. Przez materiał konkretny rozumiemy tu materiał dźwiękowy nagrany nataśmę za pośrednictwem mikrofonu, a pochodzący ze źródeł akustycznych (natu-ralnych), w zakres których wchodzą również: głos ludzki i dźwięki instrumentówmuzycznych.

2.10.1. Materiał konkretny.Etap I — uzyskiwanie materiału wyjściowego

Pierwszy etap pracy na materiale konkretnym ma dwa alternatywne warianty:a) wybór materiału wyjściowego spośród istniejących nagrań i ocena tech-

niczna stanu nagrania pod kątem przydatności do dalszego opracowania; może

to być materiał pochodzący z nagrań płytowych, np. odgłosy natury, śpiew pta-ków, nagrania utworów muzycznych lub tekstów literackich albo z nagrań ma-gnetofonowych zarówno tych dokonywanych dla celów nie związanych z muzyką

1299 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 130/381

Studio klasyczne (manualne)

konkretną, jak i nagrań zrealizowanych uprzednio przez kompozytora lub innegorealizatora z myślą o ich wykorzystaniu w muzyce na taśmie, stanowiących pew-nego rodzaju zasób fonoteczny. Za wyborem ogólnym idzie wybór konkretnychfragmentów, połączony najczęściej z ich wykopiowaniem z nośnika oryginalnego,

czasem połączony z pewną korekcją, wyrównaniem poziomu nagrania itd.; b) wariant drugi to znalezienie odpowiednich przedmiotów dźwięczących 12

i wypróbowanie różnych sposobów ich pobudzania; mogą to być instrumentymuzyczne, pobudzane do grania niekoniecznie w tradycyjny sposób, mogą to byćróżnego rodzaju blachy, sprężyny, klosze szklane, materiały sypkie itd., a takżeźródła, których pobudzanie jest niezależne od działań kompozytora, jak odgłosynatury, dźwięki hali fabrycznej itd. Za tym idą: dokonanie prób z różnymi mi-krofonami i różnym oddaleniem mikrofonu od źródła dźwięku, nagranie magne-tofonowe w warunkach studyjnych lub naturalnych dla danego źródła, wreszcieselekcja nagranego materiału oraz podjęcie decyzji co do dalszego z nim postę-

powania.Wariant a) zakłada istnienie gotowego, nagranego tworzywa, które poddane

odpowiedniej selekcji stanie się materiałem wyjściowym dla muzyki na taśmie.Wariant b) przewiduje tworzenie tego materiału poczynając od stopnia wcze-śniejszego, to jest od znalezienia właściwych dla danej kompozycji źródeł aku-stycznych.

Wariant drugi ma tę przewagę nad pierwszym, że kompozytor może już na eta-pie wstępnym wprowadzić pierwsze elementy komponowania, może wpływaćna charakter brzmienia, rytm i sposób wiązania pojedynczych zdarzeń dźwięko-

wych, może eksperymentować na dźwięku i dokonywać selekcji jeszcze przedpierwszym włączeniem magnetofonu. Może uzyskać lepsze techniczne nagranie,ponieważ sam będzie decydować, w jakich warunkach ma być ono dokonywane,np. czy z dużym naturalnym pogłosem, czy odwrotnie — zupełnie bez pogłosu,za to z najbliższej odległości. Stosując optymalne wysterowanie nagrania dlakażdego przedmiotu uzyska korzystny odstęp poziomu sygnału od szumu ta-śmy, a umieszczając źródło dźwięku w odpowiedniej izolacji akustycznej uniknienagrywania niepożądanych efektów tła i szumów otoczenia. Może uzyskać teżnagrania bardziej podatne do dalszego opracowania: traktowane jako materiałpojedyncze dźwięki i zakomponowane struktury dźwiękowe, nagrywane tak aby

 były rozdzielane pauzami, co ogromnie ułatwi dalsze nimi operowanie.Wariant a) jest jednak nie do zastąpienia wszędzie tam, gdzie dotarcie do źró-

dła dźwięku jest bardzo utrudnione (głosy ptaków egzotycznych, start rakietykosmicznej) lub w ogóle niemożliwe (np. głos Louisa Armstronga). Czasem na-granie własne, choć z pewnością byłoby lepszym rozwiązaniem, nie wchodziw rachubę ze względu na koszty, jakie trzeba byłoby ponieść przy jego zor-ganizowaniu (np. nagranie określonego fragmentu muzycznego przez orkiestręsymfoniczną). Decyzja o użyciu gotowego nagrania może też wynikać z postawytwórczej kompozytora, który świadomie chce się posłużyć materiałem obcym,

powstałym niezależnie od jego zamysłów muzycznych.12 Terminem „przedmioty dźwięczące” określamy ogólnie te źródła akustyczne, które nie stanowiątradycyjnego materiału muzyki instrumentalnej i wokalnej.

130

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 131/381

Technika klasyczna

2.10.2. Przedmioty dźwiękowe (wg P. Schaeffera)

 Jednym z istotnych stadiów pracy na materiale konkretnym jest wyodrębnianietakich jednostek dźwiękowych, które by mogły posłużyć jako klocki do budo-

wania struktur bardziej złożonych. W muzyce tradycyjnej jednostką taką jestnuta. Z nut można budować struktury poziome i pionowe, a z nich strukturywyższego rzędu: zdania, okresy, segmenty muzyczne. W przypadku zróżnico-wanego materiału konkretnego pojęcie nuty nie bardzo jest przydatne. Można

 je stosować jedynie tam, gdzie interesujące nas zjawiska dźwiękowe mają cha-rakter zbliżony do nuty muzycznej, jak pojedyncze uderzenia młota, pojedyn-cze gwizdki lokomotywy czy pizzicata na strunie fortepianowej. Jak zastosować

 jednak pojęcie nuty do takich zjawisk akustycznych jak krzyk tłumu na stadio-nie sportowym, pocieranie smyczkiem po kancie zawieszonej blachy czy śpiew

pokrzewki cierniówki? Pomocne tu będzie stworzone przez Pierre’a Schaefferapojęcie prz ed mio tu dźw ięk owe go.Wyczerpujące wyjaśnienie istoty przedmiotu dźwiękowego i jego zawężonego

pojęcia przedmiotu muzycznego przekroczyłoby znacznie ramy tej pracy. Au-torowi  Traktatu o przedmiotach muzycznych13 zajęło to ponad 600 stron, a mimotak obszernego wywodu czytelnik nie znajdzie w nim jednoznacznych definicjiobu tych terminów. Spróbujemy tu jednak dać choćby przybliżone pojęcie o teoriiSchaeffera mając nadzieję, że pozwoli to czytelnikowi zbliżyć się choćby o krok dozrozumienia świata dźwięków mogących służyć muzyce. W tych rozważaniachświat dźwięków nie będzie traktowany jako zjawisko fizyczne — układ ruchówfalowych o częstotliwościach akustycznych rozchodzących się w ośrodku gazo-wym (powietrzu), lecz jako system bodźców dochodzących do ludzkiego układupercepcji słuchowej, który jest przez ten układ analizowany i interpretowany.Chodzi więc nie o pojęcie dźwięku w sensie fizycznym, lecz w sensie psycho-akustycznym. Jakkolwiek po to, aby powstały subiektywne wrażenia dźwiękowe,konieczne jest zaistnienie obiektywnych zjawisk akustycznych.

P r z yb li ż e n ie pi e r ws z e. W otaczającej nas rzeczywistości akustycznejw postaci drgającego ośrodka (powietrza) nie istnieją jakieś wydzielone fizyczniestany drgań przedzielane stanami bezruchu, które mogłyby być pojmowane jako

pojedyncze zjawiska dźwiękowe przedzielane ciszą. Z wyjątkiem stanów stwo-rzonych sztucznie, takich jak np. warunki w komorze bezpogłosowej, otacza nasstale c on t i n u um d ź wi ę kow e — szumy, szmery, hałasy ulicy, domu, dobiega-

 jące z zewnątrz rozmowy, a także dźwięki wytwarzane celowo. Innymi słowy —otaczające nas powietrze przejawia bezustanne ruchy o charakterze drgań aku-stycznych o bardzo zróżnicowanych amplitudach. Nasz układ słuchowy odbieraw sposób ciągły sygnały z zewnątrz i nie posiada możliwości wyłączenia sięchoćby takiego, jakie dla układu percepcji wzrokowej daje zamknięcie powiek.

 Jest więc w naszej percepcji coś, co można by nazwać ciągłością pola słyszenia.P r z yb l i ż e n i e dr u gi e. Dla człowieka, który nie jest nastawiony na odbie-

ranie bodźców akustycznych, powiedzmy człowieka pogrążonego w rozmyśla-

13 P. Schaeffer, Trait´ e des objets musicaux, essai interdisciplines.  Editions du Seuil, Paryż 1966.

1319∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 132/381

Studio klasyczne (manualne)

niach, otaczające go continuum dźwiękowe staje się zupełnie obojętne, tak jakobojętne dla niego będzie istnienie powietrza aż do momentu, kiedy go zacznie

 brakować, lub kiedy jego ruch przemieni się w wiatr. Jak długo człowiek ównie będzie się interesował otaczającym go środowiskiem akustycznym, do jego

świadomości dochodzić będą jedynie dźwięki najgłośniejsze, i to wyróżniającesię jakimiś szczególnymi cechami. Sytuacja zmieni się jednak diametralnie, kiedyczłowiekowi temu będzie zależało na wyłapaniu z otaczającego go środowiskapewnych zjawisk akustycznych, które by miały dla niego jakieś znaczenie. Wtedywytęży uwagę, aby rozpoznać słuchowo to, co chce rozpoznać. Z otaczającegogo continuum dźwiękowego będzie się starał wydzielić pewne kształty dźwię-kowe kojarzące mu się z interesującym go źródłem dźwięku i będzie próbowałkształtom tym nadać interesujące go znaczenie. Mechanizmem pozwalającymograniczyć nasze pole słyszenia, polegającym na skupieniu się na pewnym tylko

 jego fragmencie przy pominięciu pozostałej części tego pola, jest s ta n u w a gipowodowany intencją słuchania. Brak intencji słuchania i stan bierny uwagisłuchowej jest zarazem pewną klapą bezpieczeństwa odcinającą od atakującychnas nieustannie bodźców akustycznych.

Przybliżenie trzecie. Orientacja człowieka w otaczającej go rzeczywistościakustycznej możliwa jest dzięki doświadczeniu, które człowiek nabywa w dzie-ciństwie i w okresie dojrzewania i dzięki treningowi, jaki następuje w trakcieprzygotowywania się do określonego zawodu lub bardziej szeroko do prowa-dzenia określonego trybu życia. Dużą rolę w nabywaniu tego doświadczeniai w skuteczności treningu pełnią skojarzenia wzrokowo-słuchowe i dotykowo-

-słuchowe. Pewne dźwięki zostają więc przez nas wyławiane z otaczającego nascontinuum dźwiękowego na zasadzie ich rozpoznawania wśród innych i koja-rzenia z ich odpowiednikami znanymi nam z doświadczenia wzrokowego lubdotykowego. Są to dla nas dźwięki znaczące (sygnały) między dźwiękami nie-znaczącymi czy wręcz przeszkadzającymi (szumy).

Mechanizm odbierania przez nas bodźców dźwiękowych to:

1. wyróżnianie pewnych fragmentów pola jako sygnałów znaczących,2. identyfikacja źródeł tych sygnałów,3. i odczytywanie ich znaczenia, czyli ich interpretacja.

P r z yb l i ż e n i e c z wa r t e. Tak jak z otaczającego nas krajobrazu możemy wy-odrębnić wzrokowo takie przedmioty, jak las, łąka, zabudowania, pojedynczedrzewa, tak z otaczającego nas świata dźwiękowego nasz układ postrzegania jestw stanie wyróżnić pewne zjawiska dźwiękowe traktując je jako przedmioty.

Przedmioty postrzegane przez człowieka mogą mieć różne stopnie złożenia.Pierre Schaeffer podaje przykład z dziedziny wizualnej. Przedmiotem postrze-żenia może być pole zastawione kopami zboża. Przedmiotem jest każda kopa.Przedmiotem jest snopek w tej kopie. Przedmiotem jest kłos zboża w tym snopku.Przedmiotem jest pojedyncze ziarno i przedmiotem — kiełek tego ziarna. Pojęcie

przedmiotu istnieje zatem na różnych stopniach drabiny strukturalnej i zależne jest od naszego zawężonego lub rozszerzonego pola widzenia. Przedmiotem mu-zycznym może być preludium Chopina. Przedmiotem jest fraza tego preludium,

132

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 133/381

Technika klasyczna

akord w tej frazie, przedmiotem jest także nuta w tym akordzie. „Niżej” już niezejdziemy, ponieważ dla naszego postrzegania słuchowego owa nuta grana nafortepianie jest najmniejszą jednostką rozróżnialną „gołym uchem”.

Byłoby jednak uproszczeniem traktowanie nuty jako jednostki najmniejszej,

a zarazem najważniejszej. To obraz wizualny nuty napisanej, a także przyzwy-czajenie teoretyków do traktowania wszelkich zjawisk muzycznych jako zbiorunut przyczyniły się do fetyszyzowania tego znaku. Zastanówmy się jednak, czytryl jest zbiorem pojedynczych nut, czy może samoistną jednostką. Czym są więcklaster smyczkowy, glissando na puzonie i tremolo na kotłach? Widzimy, że jużw zakresie tradycyjnych brzmień instrumentalnych budzić się mogą wątpliwościco do pojęcia przedmiotu na stopniu elementarnym. Trudności rosną w postę-pie eksponencjalnym, gdy mamy do czynienia z dźwiękami naturalnymi lubz dźwiękami syntetycznymi nie wzorowanymi na dźwiękach instrumentalnych.Czy przedmiotem elementarnym jest słowo, sylaba, głoska, czy może tylko częśćgłoski (ściśnięcie ust przy wymawianiu  p)? A jak traktować dźwięki o charakte-rze niemal ciągłym (szmer strumienia, odgłos pracy silnika)? Łatwo można bysię w tym zgubić. Schaeffer wprowadza w tym miejscu pojęcie przedmiotuwyważonego (fr.   object   ´ equilibr´ e). Jest to przedmiot ani zbyt krótki, ani zbytdługi, ani zbyt prosty, ani zbyt złożony, taki jak krótkie słowo lub sylaba w mo-wie, jak akord na fortepianie, tremolo na talerzu lub potarcie smyczkiem o wi-szącą blachę. Przedmioty na tym stopniu kompleksowości pozwalają na łatweich wyróżnianie spośród innych zjawisk dźwiękowych, dają się dzielić na mniej-sze, ale jeszcze rozróżnialne wycinki, stanowią dobry materiał do budowania

z nich struktur o większym stopniu złożenia. Przedmioty wyważone są więcniezwykle dogodne z punktu widzenia kompozytora muzyki na taśmę, dla któ-rego nawet w przypadku dźwięków tradycyjnie muzycznych wygodniejsze jestoperowanie jednostkami o większym stopniu kompleksowości niż pojedynczanuta, a który w przypadku korzystania z dźwięków branych z otaczającego goświata nie byłby niejednokrotnie w stanie wyodrębnić, nawet w sensie fizycz-nym, tj. przez wycięcie z nagranej taśmy jednostek równoważnych pojedynczejnucie muzycznej.

Przedmiotem dźwiękowym jest zatem to, co da się bez trudu wydzielić z conti-nuum dźwiękowego i zidentyfikować jako pewne brzmienie jednostkowe. Przed-mioty wyważone, to ogromna większość obiektów, z jakimi ma do czynieniakompozytor muzyki konkretnej. Jako wyjątkowe traktować będzie przedmiotymało wyróżniające się (fr.   peu originaux), jak bloki dźwiękowe, tremola orazprzedmioty nadmiernie niestałe (fr.  trop originaux), jak szum strumienia, wyciesyreny, a także przedmioty o dużym stopniu złożenia (ruchomy klaster instru-mentalny, gęste aglomeracje dźwięków różnego pochodzenia).

Pierre Schaeffer w swoim traktacie zajmuje się dalej morfologią i typologiącałokształtu zjawisk dźwiękowych niejako w oderwaniu od źródła, z któregopochodzą. Między pizzicato skrzypiec i dźwiękiem harfy widzi słusznie więk-

sze pokrewieństwo niż pomiędzy dźwiękami granymi arco i pizzicato na tychsamych skrzypcach. Wydziela więc przedmioty o jednorazowym pobudzaniu,o pobudzaniu podtrzymywanym i pobudzaniu interacyjnym (tremolo). Rozróż-

133

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 134/381

Studio klasyczne (manualne)

nia dźwięki o stałej masie (nie zmieniające raz ustalonych układów wysokości)i o masie zmiennej (glissandujące i podobne), dźwięki o różnym zagęszcze-niu i rodzaju materii. Tych, którzy chcieliby się więcej na ten temat dowie-dzieć, odsyłamy do źródła, tj. traktatu Schaeffera i do komentarzy 14. Tablica

(il. 60, s. 135) przedstawia proponowaną przez Schaeffera typologię przedmio-tów dźwiękowych.Tablica ta jest przedrukiem z oryginału (P. Schaeffer, Trait´ e... s. 459). Użyte przez

autora terminy francuskie nie zawsze dadzą się jednoznacznie przetłumaczyć na język polski. W kolumnach pionowych na środku umieszczone są impulsy, odnich na lewo i na prawo przedmioty coraz dłuższe i coraz mniej zorganizowane,na lewo — dźwięki ciągłe (sons tenus), na prawo — dźwięki o pobudzaniu wielo-krotnym (sons it´ eratifs). Rzędy poziome odpowiadają kryterium masy — od masyrównej pojedynczej wysokości do masy o nieprzewidzianej zmienności. Pojęcie facture odnosi się do ogólnego sposobu kształtowania dźwięku w czasie.  Facturenulle  (dosł.: żadna) oznacza bloki o niezmiennej głośności, a   facture impr´ evisible(nieprzewidziana) — dźwięki o wielokrotnie zmiennym kształcie dynamicznym.Termin   ´ echantillons  (dosł.: próbki) oznacza dźwięki ciągłe o niezorganizowanejzmienności, accumulations — struktury złożone z nagromadzonych i nałożonychna siebie drobnych elementów dźwiękowych, trames to bloki dźwiękowe, a p´ edalesto figury ostinatowe.

Szczególną grupę w tej tablicy typologicznej stanowi dziewięć kratek ozna-czonych literami N, N’, N”, X, X’, X”, Y, Y’ i Y”. Schaeffer określa je jako  objets´ equilibr´ es   (przedmioty wyważone) i uważa je za najbardziej dogodne z punktu

widzenia przydatności do komponowania muzyki. Kwadrat ten określa na in-nym, podobnym schemacie jako strefę nut (zone de notes).

Kompozytor muzyki konkretnej wyodrębnia z otaczającej go rzeczywistościkonkretnie istniejące przedmioty dźwiękowe, przekształca je lub tworzy na nowonadając im znaczenie przedmiotów muzycznych. Bowiem od intencji two-rzącego i od tego, czy potrafi narzucić słuchaczom swój muzyczny sposóbinterpretacji zależeć będzie, czy przedmiot dźwiękowy stanie się przedmiotemmuzycznym, elementem, który podobnie jak tradycyjna nuta stanie się cegiełkądo budowania utworu muzycznego.

W klasycznym procesie realizacji muzyki konkretnej etap pierwszy kończy sięuporządkowaniem i opisaniem wytworzonych i nagranych lub wyodrębnionychz istniejących nagrań przedmiotów dźwiękowych, które stanowić będą ma te r i a łw yj ś c i o wy do dalszych operacji.

Uporządkowanie polega na wycięciu poszczególnych przedmiotów (pojedyn-czych dźwięków lub struktur dźwiękowych) z nagrań lub przegrań dokonanychw pierwszym etapie i to tak, aby nie miały niepotrzebnych zakłóceń ani przed,ani po dźwięku, na rozdzieleniu tych odcinków taśmą rozbiegową, i na oznako-waniu odcinków taśmy magnetycznej według dowolnie ustalonego klucza.

14 P. Schaeffer, G. Reibel,   Solf ege de l’objet sonore   (tekst i 3 płyty).   Editions du Seuil, Paryż 1967;A. Skrzyńska,  Świat przedmiotów dźwiękowych P. Schaeffera. „Ruch Muzyczny” 1974 nr 1; M. Chion,G. Reibel, Les musiques ´ el´ ectroacoustiques. Paryż 1976.

134

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 135/381

Technika klasyczna

    I    l .    6    0

135

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 136/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 137/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 138/381

Studio klasyczne (manualne)

moniczne i zagęszcza materię dźwięku w kierunku zjawisk, które popularnieokreślamy jako zniekształcenia. Kiedy zniekształcenia takie mają tylko „dobar-wić” dźwięk nagrany w sposób naturalny, stosuje się zmieszanie dźwięku zmo-dulowanego (z przesuniętym widmem) z dźwiękiem naturalnym w proporcji,

którą można ustalić za pomocą kontroli słuchowej.Trzeba wreszcie uwzględnić zmiany materii, jakie mogą być wprowadzoneprzez komorę pogłosową lub sztuczne urządzenia pogłosowe (płyta pogłosowa,sprężyna). Wprawdzie głównym zadaniem pogłosu jest wydłużenie dźwiękuo jego gasnące, ciągłe echo, ale działanie pogłosu naturalnego, a także wspo-mnianych urządzeń mechaniczno-elektronicznych nie pozostaje bez wpływu nawidmo dźwięku, które wzbogaca się o pasma ciągłe (szumy barwne i o rezo-nans własny urządzenia pogłosowego w postaci prążków o nieharmonicznymukładzie. Mimo że efekty zmian barwy wynikające z zastosowania pogłosu niemogą być w pełni kontrolowane, działają one zawsze w sposób unifikujący natraktowany w ten sposób materiał. Są one szczególnie korzystne w przypadkach,gdy materiał wyjściowy nie wykazuje z natury dostatecznej spójności.

K s z t a ł t o w a n i e f o r m yW technice klasycznej formowanie dynamiczne nagranych uprzednio przed-

miotów dźwiękowych odbywało się głównie za pomocą ręcznie przesuwanychtłumików na konsolecie. Dla działań bardziej zdecydowanych użyteczne byłynożyczki. Przemiany dźwięków ciągłych na iteracyjne dokonywano za pomocągeneratora impulsów traktowanego jako urządzenie bramkujące.

Stosowanie tłumików do regulacji głośności, a zatem również do formowa-nia przebiegu tej głośności zgodnie z zamierzeniem kompozytora nie wymagaszczególnych objaśnień. Warto tylko wspomnieć, że kompozytor muzyki na ta-śmę niejednokrotnie celowo jako materiał wyjściowy wybierał dźwięki długieo profilu bloków, albo podobnie ukształtowane struktury dźwiękowe, tylko poto, aby móc z nich wygodnie „wycinać” za pomocą tłumika dźwięki krótszeo dowolnie wybranych profilach dynamicznych. Nie musimy dodawać, że „wy-cinanie” takie następowało przy kolejnych przegraniach z jednego magnetofonuna drugi.

Działania na tłumikach ograniczone są szybkością ręki i zręcznością opera-tora konsolety. Nie można więc było w tym względzie stawiać zbyt wysokichwymagań. Kłopotów przysparzały szczególnie partytury, w których kompozytor,np. ze względu na stosowaną metodę serialną, wymagał dużej dokładności namałej przestrzeni czasu (np. równomiernego spadku poziomu od −5 do −12dBna przestrzeni 0,72 s). Precyzja takich działań była bardzo wątpliwa i daleka odtej, jaką można było uzyskać przy realizacji innych parametrów dźwięku (czę-stotliwości, czasu trwania).

Drastycznym zabiegiem na formie było cięcie. Takim było odcinanie atakudźwięku lub wycinanie fragmentu ze środka. Za pomocą cięcia i montażu można

też było wydatnie zmienić wewnętrzny rytm przedmiotów strukturowanycho pobudzaniu iteracyjnym. Przedmioty o nowej formie można też było uzyskiwaćprzez nałożenie na siebie dwóch lub kilku nagrań. Mógł to być na przykład ten

138

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 139/381

Technika klasyczna

sam materiał wyjściowy, ale odtwarzany z przesunięciem czasowym. W tym celunagranie pierwotne, np. przedmiot nr 2 (il. 62), należało skopiować i umieścić nadrugim magnetofonie z zaznaczeniem startu dla taśm na obu magnetofonach,ale tak, aby nagranie z magnetofonu II startowało z pożądanym opóźnieniem.

Znaczną ulgę w pracy nad formowaniem profilów dynamicznych przegry-wanych przedmiotów dźwiękowych przyniosło wprowadzenie generatorówobwiedni, które pojawiły się w studiach muzyki elektronicznej w połowie latsześćdziesiątych. Opiszemy je dokładniej w trzeciej części książki. Na podobnejzasadzie, to jest sterowania napięciem, korzystano z generatorów drgań poda-kustycznych do regulacji wzmocnienia sygnałów przechodzących przez wzmac-niacz sterowany napięciem.

Il. 62

Obwiednie uzyskiwane drogą napięciowego sterowania wzmocnienia nie od-znaczały się dużą precyzją. Były za to powtarzalne. Drogą kolejnych prób i po-prawek można było uzyskiwać zamierzone profile narastania i wybrzmiewaniaw czasie. Wadą kształtowania obwiedni przez regulację wzmocnienia napięciemz generatorów drgań podakustycznych lub generatorów obwiedni był uprosz-czony kształt, ograniczający się w zasadzie do dwóch odcinków odpowiadającychnarastaniu i wybrzmiewaniu dźwięku. Nadal więc obwiednie bardziej złożonemusiały być kształtowane ręcznie za pomocą tłumików na konsolecie.

Typowym schematem formowania dynamicznego w technice klasycznej jest

przegranie z regulacja amplitudy za pomocą tłumika (il. 63). Wykres na prawood symbolu tłumika obrazuje przebieg regulacji poziomu napięcia wyjściowegow czasie.

Il. 63

139

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 140/381

Studio klasyczne (manualne)

Kształtowanie dźwięku w czasie ma więcej aspektów niż nadawanie określo-nej obwiedni dla całości jego brzmienia. Przypadkiem bardziej skomplikowanym

 jest nadawanie różnych obwiedni poszczególnym tonom składowym dźwięku.Graficzne przedstawienie wymagać będzie odwzorowania trójwymiarowego, któ-

rego przybliżeniem jest pokazany poniżej rysunek perspektywiczny. Nadawanieobwiedni poszczególnym składowym musi być dokonane jeszcze przed zgra-niem dźwięku w jedną całość lub — w prostszych przypadkach — w trakciewgrywania składowych.

Il. 64

Procedura ta dotyczy nie tylko syntezy dźwięku z tonów prostych, ale wszyst-kich przedmiotów dźwiękowych złożonych: wielodźwięków, dźwięków pocho-dzących z różnych źródeł, dźwięków strukturowanych.

Innym aspektem kształtowania w czasie jest nadawanie przedmiotom dźwię-

kowym pożądanego czasu trwania. Skracanie odbywa się poprzez cięcie lub wy-tłumienie; wydłużanie, oczywiście bardzo ograniczone, przez dodanie pogłosu,precyzyjny montaż kilku kopii tego samego dźwięku (lub kompleksu dźwięków)oraz przez zmianę tempa przebiegu za pomocą regulatora czasu.

Często stosowanym zabiegiem bywa operacja, która wpływa zarówno naformę, jak i na materię dźwięku. Polega ona na zastąpieniu naturalnego wy-

 brzmienia dźwięku sztucznym pogłosem. Dźwięk nagrany na taśmie zostajeucięty, a na jego miejsce wklejona zostaje cisza magnetyczna. W następującymteraz przegraniu sygnał z magnetofonu 2a (il. 65, s. 141) zostaje posłany na po-

głos, a rezultat — dźwięk odcięty z dodanym pogłosem — zapisany na drugimmagnetofonie jako 2b.Zaletą tej procedury jest możliwość precyzyjnego ustalenia zarówno czasu

trwania samego dźwięku, jak i czasu jego (sztucznego) wybrzmiewania. Wadą— sztuczny pogłos zamiast naturalnego wybrzmienia. Toteż innym stosowanymzabiegiem dokonywanym na dźwiękach naturalnych, a prowadzącym do uzyska-nia precyzyjnie określonego czasu trwania, jest wycinanie środka z zachowaniemnaturalnego wybrzmiewania (il. 66, s. 141).

Aby przejście między obu przeciętymi częściami dźwięku było łagodne, cięciena taśmie musi być ukośne. Tym niemniej, wiele dźwięków wykazuje tak duży

skok brzmienia przy tego typu operacji, że uzyskany rezultat okazuje się bezuży-teczny. Operacji tej najlepiej poddają się dźwięki strukturowane o nieregularnympobudzaniu.

140

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 141/381

Technika klasyczna

Il. 65

Il. 66

K s z t a ł t o w a n i e m a s yNajczęstszym przypadkiem kształtowania masy (w znaczeniu tego terminu,

 jaki mu nadał P. Schaeffer — patrz s. 136) jest przesunięcie szeroko pojętej wyso-kości dźwięku. Tam, gdzie istnieje możliwość wyboru pomiędzy przedmiotamipodobnymi, ale o różnej wysokości brzmienia, np. różnej wielkości płytki meta-lowe, pierwsze decyzje mogą polegać na dobraniu odpowiednich przedmiotówi ich uszeregowaniu jeszcze przed pierwszym nagraniem lub na wyborze odpo-wiednich przedmiotów spośród dostępnych na uprzednio dokonanym nagraniu.

W przypadku, gdy takich możliwości nie ma lub gdy dostępne przedmiotynie pozwalają na uzyskanie zamierzonych rezultatów, stosuje się przekształceniaelektroniczne.

Najprostsze przesunięcie wysokości uzyskuje się przez płynną zmianę pręd-kości przesuwu taśmy na magnetofonie o zmiennej prędkości lub na regulatorzeczasu ustawionym na zmianę wysokości bez zmiany tempa odtwarzania.

Inny typ zmiany masy, ingerujący jednocześnie w strukturę materii przedmiotudźwiękowego, uzyskuje się przez płynną zmianę częstotliwości generatora przyprzesyłaniu sygnału na jedno z wejść modulatora kołowego (RM) (il. 67).

Il. 67

141

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 142/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 143/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 144/381

Studio klasyczne (manualne)

Z punktu widzenia fizyki każdy ruch falowy o częstotliwości akustycznej może być rozpatrywany jako suma przebiegów sinusoidalnych. Jest on po prostu sy-gnałem akustycznym, niezależnie od tego, w jakich stosunkach pozostają często-tliwości i amplitudy poszczególnych składowych.

Z punktu widzenia psychoakustyki, a więc reakcji człowieka na sygnały aku-styczne, właśnie te stosunki między składowymi wpływają w sposób zasadniczyna zaliczanie dźwięku do pewnej kategorii według tego, co Pierre Schaeffer okre-ślił jako kryterium materii.

Pierwszy teoretyk muzyki elektronicznej, Herbert Eimert, ustalił te kategoriew sposób bardziej praktyczny, wychodząc nie od badań psychoakustycznych, aleod sposobu produkcji dźwięku syntetycznego. Tu trzeba pamiętać, że w rękachpierwszych twórców muzyki elektronicznej znalazły się gotowe urządzenia doprodukcji dźwięków bez pomocy instrumentów akustycznych w postaci genera-torów, używanych powszechnie w radiotechnice i fonografii do kontroli urządzeńelektroakustycznych. Znalazło to odbicie zarówno w technologii, jak i w sposobiemyślenia muzycznego.

Klasyfikacja Eimerta wyglądała następująco:1. Ton — t on p r os ty, (sinusoidalny); jego widmo składa się z jednego prążka.2.  Tongemisch — wieloton, jest to złożenie wielu tonów prostych w dźwięk

złożony; jego widmo przedstawia się w postaci szeregu prążków.3. Klang — d ź w i ę k h a r mon i c z n y, wieloton złożony z tonów, których czę-

stotliwości są wielokrotnością tonu podstawowego; jego widmo składa się z prąż-ków, które na linearnej skali częstotliwości rozmieszczone są w równych odle-

głościach.4.  Klanggemisch — wielodźwięk, złożenie wielu dźwięków harmonicznychw twór złożony (akord, klaster).

5.   Impuls  — bardzo krótkie zakłócenie elektryczne — trzask o nieokreślonejwysokości.

6. Weisses Rauschen — szum biały, dźwięk szumowy o widmie ciągłym i rów-nomiernym rozkładzie energii w całym paśmie częstotliwości.

7.   Farbiges Rauschen   — szum barwny, czyli dźwięk o widmie ciągłym, aleograniczonym paśmie i (lub) nierównomiernym rozkładzie energii na skali czę-stotliwości.

Pojęciem nowym jest wieloton. Jest to kategoria szersza od dźwięku harmo-nicznego (niem. Klang), który według tej klasyfikacji jest tylko szczególnym przy-padkiem wielotonu15. Kompozytor muzyki elektronicznej może tworzyć dowolnewielotony — harmoniczne i nieharmoniczne według wymyślonych przez sie-

 bie zasad, również i takich, które nie mają swoich pierwowzorów w naturze.W okresie pionierskim (lata 1953–56) kompozytorom szkoły kolońskiej, która

15 Klasyfikacja Eimerta nie jest jednoznaczna. Wydaje się, że  Tongemisch  rozumiał on przede wszyst-kim jako wieloton nieharmoniczny, a więc rozdzielnie od pojęcia Klang. Ale niewykluczone, że de-

cydującą rolę w tej klasyfikacji odegrał aspekt realizacyjny. Otóż  Tongemisch   to twór dźwiękowypowstały przez dodanie (zgranie) pojedynczych sygnałów sinusoidalnych, podczas kiedy  Klang   todźwięk otrzymywany wprost z generatora sygnałów piłowych, prostokątnych itd. Za taką interpreta-cją przemawiałoby wprowadzenie przez Eimerta kategorii  Klanggemisch.

144

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 145/381

Technika klasyczna

 była wiodąca w produkcji „prawdziwej” muzyki elektronicznej, wydawało się,że dzięki syntezie z tonów prostych będą w stanie uzyskać każdą dowolną

 barwę dźwięku, zarówno taką, która będzie odpowiednikiem jednej z barw ist-niejących, jak i zupełnie nową, nieznaną z dotychczasowej praktyki muzycznej.

Marzenie było piękne, ale rzeczywistość okazała się bardziej szara. Dostępnaw latach pięćdziesiątych technika magnetofonowa pozwalała na uzyskiwaniew miarę czystych wielotonów złożonych najwyżej z 8–10 tonów. Dodawanie dal-szych tonów powodowało narastanie szumów, niekontrolowanych zniekształceńi innych zjawisk rujnujących koncepcję „czystego” dźwięku elektronicznego. Do-dajmy do tego trudności w kształtowaniu amplitud poszczególnych składowychw czasie, a zrozumiemy, że w tamtych warunkach uzyskanie dźwięku synte-tycznego, którego kompleksowość odpowiadałaby kompleksowości np. forte arcow środkowym rejestrze skrzypiec (ponad 20 składowych o niejednakowym natę-żeniu w czasie, nieregularne wibrato i swoiste „ziarno” wynikłe ze wzbudzania

smyczkiem) było zadaniem niewykonalnym.Mimo ograniczonych środków, jakimi dysponowali, udało się jednak kompo-

zytorom w tamtych latach uzyskać cały szereg niezwykle interesujących i rze-czywiście nowych kategorii dźwiękowych, które wykazywały ponadto pewną ty-powo „elektroniczną” spójność barwy. Działo się tak głównie dzięki stosowaniuprzez kompozytorów pewnych metod w składaniu widma dźwięku, które byłyodpowiednikiem metody serialnej w kompozycji. Częściowo jednak i dlatego,że te w sumie dosyć prymitywne złożenia, które dochodziły zawsze z takichsamych, nie najlepszej jakości głośników, brzmiały podobnie — nienaturalnie

płasko i nieinstrumentalnie. O ich pokrewieństwie stanowił brak wewnętrznegożycia właściwego dźwiękom naturalnym, ale to było jednocześnie ich zaletą —oryginalnością.

Tymczasem idea syntezy dźwięków, dźwięków bogatych, porównywalnych dodźwięków naturalnych, a nawet je przewyższających, kontynuowana była przeznastępne generacje twórców muzyki elektronicznej. Ożyła ona w technice synte-zatorowej, ale nadzieje na jej rzeczywiste spełnienie daje dopiero technika kom-puterowej syntezy dźwięku, w której nakładanie na siebie kilkudziesięciu nawetsinusoid przebiegać może jeszcze w sferze cyfrowej i która pozwala na mo-dyfikacje nie mniej złożone niż te, które występują w kształtowaniu bogatychdźwięków naturalnych.

W pracy na materiale elektronicznym pierwszym etapem realizacji partytury(lub innego bardziej lub mniej sprecyzowanego planu kompozycji) będzie stwo-rzenie materiału wyjściowego w postaci bloków dźwiękowych o możliwie dłu-gim czasie trwania, tak aby w następnym etapie można z nich było formowaćprzedmioty o określonych czasach trwania i określonych profilach dynamicznych.

W pierwszych latach tworzenia muzyki elektronicznej znakomitą większośćtych bloków stanowiły wielotony i wielodźwięki, których częstotliwości i am-plitudy tonów składowych pozostawały niezmienne na przeciąg trwania całego

 bloku. Mówiono, że ich dwa podstawowe pa r a m e tr y:16 częstotliwość i am-

16 Parametry są to wielkości zmienne wymierne, charakterystyczne dla danego ośrodka lub zjawiska.

14510 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 146/381

Studio klasyczne (manualne)

plituda są stałe. Tylko w nielicznych, bardzo specjalnych przypadkach tworzone były bloki o określonym czasie trwania i zmiennej amplitudzie, a czasem i zmien-nej częstotliwości poszczególnych składowych.

Realizacja bloków dźwiękowych odbywała się na kilka sposobów.

P i e r w sz y s po só b, nazywany popularnie „wgrywaniem”, polegał na nagra-niu na taśmę jednego tonu, a następnie na skopiowaniu tego tonu z dodaniemnastępnego tonu (z reguły z tego samego generatora odpowiednio tylko przestro-

 jonego), skopiowaniu obu tych tonów z dodaniem trzeciego itd., aż do uzyskaniakompletu tonów. Przed każdorazowym nagraniem na tłumikach konsolety usta-wiany był poziom natężenia (amplituda) kolejnego tonu składowego, zgodniez „receptą” przygotowaną uprzednio przez kompozytora. „Recepta” taka mogłanp. wyglądać następująco:

wieloton A — 625 Hz   − 20dB— 800 Hz

  −12dB

— 1000 Hz   − 16dB— 1920 Hz   − 8 dB (K. Stockhausen, Studie I )

D r ug i s pos ób polegał na zmieszaniu na konsolecie od razu wszystkich prze-widzianych dla danego bloku tonów składowych i nagraniu ich za jednym razemna taśmę. Amplitudy poszczególnych składowych musiały być w tym przypadkuustawione za pomocą indywidualnych tłumików na konsolecie lub potencjome-trów na wyjściu każdego z generatorów. Korzystanie z tej metody dającej lepszetechnicznie — bo pozbawione szumów wielokrotnego przegrywania — nagra-nie wymagało posiadania w studiu odpowiedniej ilości możliwie jednakowych

generatorów oraz odpowiadającej im liczby wejść na stole mikserskim.Dlatego też korzystano niejednokrotnie z metody mieszanej. Mając na przykładdo nagrania wieloton złożony z ośmiu składowych, nagrywano naprzód odpo-wiednio dynamicznie uregulowane cztery tony z czterech generatorów, a na-stępnie przegrywano je na drugi magnetofon dodając na konsolecie następnecztery tony z tych samych czterech generatorów, oczywiście po uprzednim ichprzestrojeniu i ustawieniu wymaganych poziomów wysterowania.

Dużych kłopotów przysparzało tworzenie w ten sposób wielotonów harmo-nicznych. Dostrajanie kolejnych składowych harmonicznych musiało być o wieledokładniejsze niż ustawianie określonych częstotliwości dla wielotonów niehar-monicznych. Niedokładność rzędu kilku herców, o jaką nietrudno było zwłaszczaw wyższym zakresie częstotliwości, powodowała niepożądane dudnienia. Jeżelitych niedokładności było kilka (przy dostrajaniu kilku kolejnych składowych),efekt zwielokrotnionego dudnienia mógł popsuć „harmoniczny” charakter syn-tetyzowanego dźwięku do tego stopnia, że był on już nie do użycia w kompozycji.Dudnienia i rozstrajanie powodowała też niestabilność częstotliwości produko-wanych przez niektóre generatory drgań. Toteż posiadając w studiu tylko jedengenerator najwyższej klasy, bardziej opłacało się wgrywać po jednym tonie z tegosamego generatora niż korzystać z kilku generatorów o wątpliwej stabilności.

Słowo to było niezwykle modne w latach pięćdziesiątych i sześćdziesiątych dla określania wszelkichwymiernych cech dźwięku. Parametrami nie mogą być „barwa” ani „charakter” dźwięku, gdyż są tocechy wrażeniowe, a więc nie do zmierzenia.

146

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 147/381

Technika klasyczna

W latach sześćdziesiątych w studiach elektronicznych zaczynają się pojawiaćzestawy złożone z identycznych 16–20 generatorów umieszczanych w jednej obu-dowie ze wspólnym zasilaniem i własnym urządzeniem mieszającym. Niektórez nich mogą być nawet zdalnie sterowane, np. za pomocą uprzednio przygo-

towanej taśmy perforowanej. I tak metoda kolejnego wgrywania zostaje powoliwypierana przez lepszą technicznie metodę jednoczesnego zgrywania wszystkichskładowych. Są to już jednak prototypy syntezatorów, które w latach późniejszychwyprą prawie zupełnie nieekonomiczną technikę klasyczną.

Kolejne wgrywanie dźwięków — pojedynczo lub parami — pozostanie jed-nak jeszcze na długo, bo aż do wprowadzenia techniki komputerowej, jedynąskuteczną metodą produkowania wielotonów o zmiennej obwiedni dla poszcze-gólnych tonów składowych.

Elektroniczne wielotony składane z tonów prostych nie wymagały przekształ-cania materii. Materia była od razu zaplanowana i realizowana, tak jak sobie tegożyczył kompozytor. Czasem to jednak nie wystarczało. „Czyste” elektronicznewielotony brzmiały niejednokrotnie zbyt sucho i jakby zbyt blisko. Pozbawione

 były bowiem szumów i przytonów, jakie instrumentom akustycznym dają urzą-dzenia pobudzające, rezonans pudła i akustyka pomieszczenia. Środkiem zarad-czym przybliżającym świat dźwięków elektronicznych do świata dźwięków na-turalnych, a jednocześnie zapewniającym tym dźwiękom pozorną perspektywę,umiejscowienie w wyimaginowanej przestrzeni, było dodanie im sztucznego po-głosu. Sygnał po płycie pogłosowej, szczególnie jeżeli go użyć bez zmieszania goz sygnałem oryginalnym, wpływa nie tylko na przedłużenie czasu jego trwania,

ale też w dużej mierze na jego widmo, przydając mu składowych nieharmonicz-nych i pasm szumu barwnego.Interesującą procedurę zastosował Karlheinz Stockhausen przygotowując ma-

teriał dźwiękowy swojego Studie II . Zaplanowane według specyficznej skali wie-lotony nie były zgrywane. Każdy z tonów nagrywany był osobno. Wycinki na-granej taśmy były następnie montowane w ten sposób, że stanowiły sekwencjezłożone z 5 tonów, każdy o długości 4 cm taśmy (ok.   1

20 s). Każda taka sekwencja była przegrywana z przepuszczeniem sygnału przez komorę pogłosową o czasiepogłosu równym 10 sekundom. Z otrzymanego nagrania odcinano początkowyfragment i jako materiału używano tego, co było samym pogłosem po prze-granej sekwencji. Komora pogłosowa „rozmywała” częstotliwości składowychtonów, dając w zamian widmo ciągłe o wyróżniających się 5 pasmach, którychśrodki odpowiadały częstotliwościom tonów sekwencji. Materiałem tej etiudy

 były więc barwne szumy, a nie leżące u ich podstaw wielotony. Szumy tylko czę-ściowo kontrolowane, ponieważ użyta tu naturalna komora pogłosowa dodawała

 jeszcze własne, charakterystyczne dla pomieszczenia rezonanse i reagowała nie- jednakowo na różne składy wielotonów. Tym niemniej, a może właśnie dlatego, barwa tych dźwięków była największą zaletą tej kompozycji, która przysporzyłakompozytorowi zwolenników, także spoza kręgu nowej muzyki.

 Jakkolwiek najbardziej typową pracą na materiale elektronicznym była syn-teza z tonów prostych, kompozytorzy mając pod ręką generatory pozwalające nauzyskiwanie gotowych dźwięków harmonicznych oraz pełnego pasma szumów,

14710∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 148/381

Studio klasyczne (manualne)

korzystali chętnie z procedury, która znacznie przyspieszała proces formowaniamaterii dźwięku, a którą przez opozycję do syntezy nazywano czasem metodąanalityczną 17. Chodziło o ograniczanie pełnego pasma, jakiego dostarczały gene-ratory poprzez filtrowanie i korekcję i dzięki temu uzyskiwanie od razu bogatych

i częściowo przynajmniej kontrolowanych barw dźwiękowych.Generator sygnałów piłowych dawał od razu bardzo czysty dźwięk złożonyz kilkudziesięciu składowych harmonicznych z opadającą amplitudą wyższychskładowych. Nie było tu kłopotów z dostrajaniem ani nawet z przesunięciamifazowymi, ponieważ wszystkie składowe były idealnie zestrojone i idealne w fa-zie, był to bowiem od razu fizycznie dźwięk harmoniczny i mówienie o jegoskładowych miało sens tylko wówczas, kiedy rozpatrywało się go w sposóbanalityczny. Te same zalety posiadały dźwięki uzyskiwane z generatorów sy-gnałów prostokątnych, trójkątnych i szpilkowych, chociaż inny kształt sygnałówpowodował inne proporcje amplitudy tonów harmonicznych. Z punktu widzeniakompozytora wadą tych dźwięków był schematyczny obraz ich widma. Stąd po-trzeba wprowadzenia korekcji i filtrowania. Dla uzyskania bogatego w alikwotydźwięku harmonicznego lepiej opłacało się wziąć gotowy dźwięk z generatorai za pomocą filtrów i korektorów przybliżyć obraz jego widma do kształtu po-żądanego niż składać ten dźwięk z tonów prostych. Przy komponowaniu wie-lodźwięków ta procedura stawała się jedyną możliwą, gdyż składanie blokuzłożonego z kilkudziesięciu tonów prostych było wówczas po prostu technicznieniemożliwe.

Wraz z wprowadzeniem dużych zestawów generatorów, magnetofonów wie-

lośladowych i taśmy niskoszumiącej (ang. low noise), co nastąpiło w połowie latsześćdziesiątych, wiele operacji niemożliwych poprzednio stało się teraz możli-wymi, tyle że zainteresowania kompozytorów poszły już w inną stronę i korzy-stanie z nowych możliwości technicznych syntezy dźwięków z tonów prostychnależało już do wyjątków.

Wróćmy jednak do technologii z lat pięćdziesiątych. Wielodźwięki składane były w ten sam sposób co wielotony. Jako elementy służyły albo dźwięki otrzy-mywane wprost z generatorów, albo uprzednio skorygowane przez filtry i ko-rektory. W niektórych przypadkach dokonywano najpierw zgrania, a dopiero

potem korekcji całego wielodźwięku. Było to bardziej ekonomiczne w przypad-kach, gdy wielodźwięk stanowił wąski klaster, a filtrowanie miało za cel np.tylko zaciemnienie barwy przez przytłumienie wysokich harmonicznych.

Filtrowanie było natomiast podstawową operacją dokonywaną na szumach.Materiałem wyjściowym był otrzymywany wprost z generatora szum biały, a fil-try (najlepiej ostro tnące filtry środkowoprzepustowe) wycinały z niego odpo-wiedniej szerokości i odpowiednio usytuowane na skali częstotliwości pasmoszumu barwnego.

Podobnie postępowano z impulsami. Poddawano je zazwyczaj filtrowaniu wą-skopasmowemu, dzięki czemu zyskiwały one przybliżoną wysokość brzmienia

17 W późniejszych latach przyjęła się nazwa „synteza subtrakcyjna” (ang. subtractive synthezis) w od-różnieniu do „syntezy addytywnej”, którą zaczęto nazywać składanie dźwięków z tonów prostych.

148

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 149/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 150/381

Studio klasyczne (manualne)

realizacji — formowaniu bloków dźwiękowych i formowaniu dynamicznemutych bloków.

W niektórych przypadkach do operacji przewidzianych w II etapie, a więckształtowania dynamicznego dźwięków, dołączano dodawanie pogłosu. Pogłos

stosowano jednak częściej do modyfikowania zmontowanych już sekwencji, conastępowało w III etapie pracy.Kształtowanie profilów dynamicznych dźwięków elektronicznych było sprawą

fantazji kompozytora, a czasem wynikiem pewnej przyjętej metody. Charaktery-styczne dla pierwszego okresu muzyki elektronicznej było stosowanie na równiprofilów opadających, odpowiadających kształtom dźwięków naturalnych, jaki profilów wzrastających, sugerujących jakby odtwarzanie dźwięków w odwrotnąstronę. Czasem dźwięki przedłużone pogłosem montowane były po prostu tyłemdo przodu, tak że pogłos (rosnący) wyprzedzał pojawienie się dźwięku (A. Do-

 browolski,  Muzyka na taśmę magnetofonową nr 1). Trochę programowo, a trochęze względów praktycznych unikano raczej profilów bardziej złożonych.

W pracy na materiale elektronicznym oprócz wyżej opisanych działań ścisłych,w których każda częstotliwość składowa i każdy profil dynamiczny były dokład-nie przewidziane jeszcze przed przystąpieniem do realizacji zdarzały się i innemetody pracy, wynikające z bardziej improwizacyjnej, eksperymentalnej postawykompozytora. Jeszcze przed wprowadzeniem syntezatora i klawiatury można

 było w studiu elektronicznym improwizować pewne przebiegi w czasie realnym.Począwszy od improwizowania glissand i portamento (ew. z użyciem przerywacza)na pojedynczych generatorach, przez „granie” na filtrach i tłumikach konsolety

dla uzyskania płynnej zmiany barwy bloku dźwiękowego aż do działań wpły-wających na rytm improwizowanych zdarzeń muzycznych. Np. rzadkie impulsy,których częstotliwość dało się ręcznie kontrolować, mogły być przesyłane na fil-try, a na filtrach tych można było dokonywać przełączeń pomiędzy impulsami,tak aby każdy z impulsów miał inną barwę i inną wysokość brzmienia. Można

 było pewne, np. wolno glissandujące przebiegi nagrywać na taśmie, która biegłaprzez dwa stojące obok siebie magnetofony, tak że sygnał nagrany na pierwszym

 był odtwarzany z opóźnieniem na drugim i wracał na magnetofon, mieszając sięze zmienioną już w tym czasie masą dźwiękową z układu: 2 generatory i ring-modulator (il. 70, s. 151). Działania improwizacyjne można było rozłożyć na dwaetapy, np. nagrać najpierw blok elektroniczny o zmiennej masie (wolne  glissandawszystkich składowych), a potem przepuścić tak nagrany sygnał przez genera-tor impulsów prostokątnych traktowany jako bramka i „wycinać” z niego krótkiezdarzenia dźwiękowe, każde o innym układzie tonów składowych. Tych sposo-

 bów, znanych dobrze kompozytorom muzyki filmowej i użytkowej, było więcej.Oprócz improwizacji w czasie realnym dokonywano operacji przypadkowych:przypadkowych złożeń wielotonów, przypadkowych filtrowań, przypadkowychcięć taśmy magnetofonowej. Czasem przypadkowe wyniki takich operacji w po-staci odcinków taśmy z nagraniami sklejano w sposób również przypadkowy;

tworzono z takich nagrań pętlę, np. o nierównej długości, i zgrywano kilka ta-kich pętli na jedną taśmę uzyskując aleatoryczną, elektroniczną strukturę dźwię-kową o dużym stopniu kompleksowości. Innymi słowy, w rękach niektórych

150

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 151/381

Technika klasyczna

kompozytorów materiał elektroniczny stawał się równie elastyczny i podatnyna kształtowanie, jak materiał uzyskiwany drogą mikrofonową. Odpowiadało toich postawie eksperymentalnej, w której nie z góry przyjęte założenia i przewi-dywanie wszystkich szczegółów naprzód, ale operacje dokonywane na żywym

materiale dźwiękowym i decyzje podejmowane po wysłuchaniu tak formowa-nego materiału dawały podstawę do tworzenia koncepcji całości. Opisanie tychmetod byłoby niemożliwością, bo tak jak już zaznaczono we wstępie do tej części,metod tych było niemal tyle, co powstałych dzięki nim kompozycji.

Il. 70

Podejmowanie działań przypadkowych było też w pewnej mierze przeniesie-niem na teren muzyki elektronicznej trendu do budowania struktur aleatorycz-nych, który zapanował w muzyce instrumentalnej zaraz po roku 1960.

Po tych wyjaśnieniach przejdziemy teraz do etapu trzeciego, który był w za-sadzie jednakowy przy pracy z materiałem konkretnym i elektronicznym.

2.10.5. Etap III — formowanie sekwencji, warstwy dźwiękowe

Etap ten jest niezwykle ważny dla zrozumienia pewnego typu myślenia mu-zycznego związanego z realizacją muzyki na taśmie. Materiał dźwiękowy i uży-wane instrumentarium, a w głównej mierze posługiwanie się magnetofonemi konsoletą mikserską dla formowania większości przebiegów, spowodowały

wytworzenie się określonych stereotypów myślenia. Stereotypem myślenia przykomponowaniu na fortepian jest myślenie o lewej i prawej ręce, stereotypemmyślenia przy pisaniu na kwartet wokalny — tworzenie czterech poziomych li-nii melodycznych lub tworzenie kolejnych pionów złożonych każdy z czterechdźwięków. Takim stereotypem myślenia muzycznego przy realizacji muzyki nataśmie, bez różnicy, czy materiał wyjściowy jest konkretny, elektroniczny czymieszany, jest myślenie w a r st wa m i mon t a ż owy mi. Tak jak to bywa z war-stwami orkiestrowymi, pojedyncza warstwa może być sekwencją jednogłosową,ale równie dobrze może się składać z przedmiotów kompleksowych, także wielo-dźwięków i akordów lub innych współbrzmień spełniających tę samą co akordy

rolę. Cechą istotną warstwy montażowej jest to, że da się zmontować, to znaczy,że stanowiącą ją sekwencję dźwięków (przedmiotów dźwiękowych) można zbu-dować za pomocą nożyczek i taśmy klejącej z wycinków uprzednio dokonanych

151

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 152/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 153/381

Technika klasyczna

cze bardziej odczuwalne zakłócenie tego, co można by określić jako atmosferęakustyczną.

Długość sekwencji montażowych, które miały być potem zgrywane, była ogra-niczona nierównobieżnością magnetofonów. Przy różnicy prędkości dwóch ma-

gnetofonów wynoszącej zaledwie 0,2% już po 1 minucie synchronicznie zmon-towane dwa impulsy wykażą różnicę 0,12s, a po 5 minutach 0,6s. W praktyceróżnice te bywały większe. Toteż metodą powszechnie stosowaną w studiach byłodzielenie utworu na krótsze odcinki (epizody), każdy o czasie trwania nie dłuż-szym od minuty lub tylko nieznacznie go przekraczającym, dokonywanie zgraniakilku warstw w ramach tego odcinka, a potem sklejanie taśmy ze zgranymi od-cinkami w jedną całość. Ta procedura pozwalała zaoszczędzić czas, gdyż niew całej kompozycji zachodziła konieczność montowania tej samej ilości warstwi pewne odcinki można było zgrywać przygotowując tylko dwie warstwy, chociażdla innych potrzebnych było tych warstw cztery czy nawet sześć. Zdarzały się teżodcinki jednowarstwowe i te mogły być po zmontowaniu wklejane bezpośredniodo taśmy głównej.

W tych przypadkach, kiedy myślenie pionami przeważało nad myśleniemhoryzontalnym zachodziła konieczność montowania warstw w bardzo krótkichodcinkach, w skrajnych przypadkach zawierających tylko po jednym zdarzeniuw każdej warstwie. Dotyczyło to szczególnie miejsc, w których miały powsta-wać jakby akordy złożone z dźwięków znajdujących się na różnych taśmach,lub gdy chodziło o bardzo dokładne przesunięcia czasowe pomiędzy nakłada-nymi na siebie zdarzeniami. Tak zgrane fragmenty były następnie montowane

w jedną warstwę, która od razu mogła stanowić część gotowej kompozycji, alboteż tylko etap przejściowy — jedną warstwę „synchroniczną”, która służyła po-tem do zgrania z inną, czy innymi warstwami „niesynchronicznymi”, a więcz takimi, w których zgrywaniu idealna synchronizacja w pionie nie odgrywałaistotnej roli.

W komponowaniu metodą eksperymentalną etap III — formowanie sekwen-cji i warstw dźwiękowych — był najistotniejszą częścią procesu twórczego. Tuprzedmioty dźwiękowe układały się w sekwencje muzyczne, a sekwencje mu-zyczne w polifoniczne warstwy utworu.

Tam jednak, gdzie etap ten był tylko realizacją wcześniej skomponowanej„partytury”, wycinanie fragmentów taśmy, sklejanie ich, wklejanie pauz i ta-śmy rozbiegowej nabierało cech czynności czysto mechanicznych, było pracąnudną i czasochłonną. W tym właśnie trzeba szukać przyczyn zainteresowa-nia się kompozytorów możliwościami automatyzacji. Koncepcja winna należećdo kompozytora, ale realizację mogłaby przejąć maszyna. Późniejsza technikasyntezatorowa wyeliminowała tę żmudną i niewdzięczną część pracy. Sekwen-cje dźwiękowe mogły być dzięki niej tworzone bez użycia nożyczek i taśmyklejącej. Na pełną realizację tej idei pozwoliła jednak dopiero technika kompu-terowa. Etap trzeci kończyło przygotowanie taśm do ostatecznego zgrania całej

kompozycji. Poprzedzały je czasami jeszcze międzyzgrania. Po prostu pewnekorekcje, filtrowanie, dodawanie pogłosu musiały być dokonane na sekwencjach

 już zmontowanych, ale jeszcze przed zgraniem całości. Konieczne wówczas było

153

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 154/381

Studio klasyczne (manualne)

dodatkowe przegranie tych sekwencji po odpowiednim przetworzeniu ich przezaparaturę elektroakustyczną lub przy użyciu pętli, sprzężenia itd., a więc tychsposobów, które stosowane były przedtem do kształtowania pojedynczych zda-rzeń dźwiękowych. Dopiero tak uformowane sekwencje, traktowane jako rozbu-

dowane przedmioty muzyczne były montowane i umieszczane w warstwach doostatecznego zgrywania.

2.10.6. Etap IV — zgrywanie i nadawanieostatecznego kształtu kompozycji

Przygotowanie warstw montażowych i nawet częściowe ich zgranie powodo-wały, że etap IV — zgranie i montaż ostateczny — można by zaliczyć do czynno-ści mechanicznych. Tak jednak w istocie nie było. Zgrywanie warstw było jakby

próbą generalną dla całości kompozycji. Na tym etapie okazywało się niejedno-krotnie, że pewna część materiału nie była przygotowana w sposób zadowalającyczy to pod względem technicznym, czy też muzycznym. Powodowało to koniecz-ność powrotu do poprzednich etapów dla skorygowania nieudanych fragmentówlub nawet dokonania pewnych zmian w tekście muzycznym. Zgrywanie speł-niało też częściowo tę rolę, co reżyseria dźwięku w nagraniu muzyki tradycyjnej:nie mogąc zmienić zawartości nagrywanego utworu, może mu nadać ostatecznykształt artystyczny. Drobne korekcje, dodanie pogłosu na niektórych warstwachlub tylko niektórych fragmentach, wyrównanie dynamiki pomiędzy kolejnymi

segmentami kompozycji, wszystko to dawało ostateczny szlif zgrywanej kompo-zycji. Zachodziła również potrzeba wykonywania na tłumikach konsolety pew-nych operacji w sferze dynamiki, których nie można było zrobić wcześniej. Nale-żało do nich np. przenikanie dwóch warstw — efekt przejęty z filmowej technikiprzenikania obrazów. Taśmy do zgrywania były montowane „na zakładkę”, toznaczy, że koniec sekwencji na jednej taśmie zachodził na początek sekwencji nadrugiej taśmie i przy zgrywaniu koniec pierwszej zostawał wyciszany, podczaskiedy początek drugiej łagodnie był wprowadzany. Podobnie „filmowymi” efek-tami było wyciszenie do zera lub, odwrotnie, wprowadzenie nowej warstwy odzera do poziomu pożądanego.

2.10.7. Stereofonia i wielokanałowe zapisy dźwięku

Mniej więcej do roku 1956 wszystkie produkcje muzyki na taśmę były zapisy-wane na taśmie magnetycznej w systemie monofonicznym. Jednak już w tamtychlatach dawała znać o sobie potrzeba odtwarzania tej muzyki nie z jednego gło-śnika, ale w sposób, który dawałby złudzenie pewnej przestrzeni akustycznej.Do sposobów takich należała pseudostereofonia — odtwarzanie z dwóch głośni-

ków tego samego sygnału monofonicznego, ale rozdzielonego na dwa pasma,albo niejednakowo sfiltrowane (np. przewaga wysokich w lewym, a przewaganiskich tonów w prawym kanale), albo z lekkim przesunięciem fazy w jednym

154

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 155/381

Technika klasyczna

z głośników, co dawało pewne złudzenie słuchania stereofonicznego. Innym spo-sobem była przestrzenna projekcja dźwiękowa sygnału monofonicznego zapre-zentowana przez Pierre’a Schaeffera jeszcze w roku 1953. Sygnał z magnetofonudostarczany był do specjalnej konsolety o czterech wyjściach: sygnał ten wcho-

dził na jedno wejście i był rozdzielany na cztery kanały połączone z czteremagłośnikami rozmieszczonymi przestrzennie na sali. Reżyser dźwięku (sam kom-pozytor) stał na sali pomiędzy czterema zawieszonymi obręczami, będącymi od-

 biornikami indukcyjnymi sygnałów sterujących, dostarczanych przez trzymanąprzez reżysera cewkę indukcyjną. Przybliżanie lub oddalanie cewki nadawczejod kręgów odbierających powodowało powstawanie silniejszych i słabszych prą-dów indukcyjnych, które odpowiednio wzmocnione powodowały zwiększanielub zmniejszanie wzmocnienia czterech wzmacniaczy. Ruchy ręki reżysera po-między obręczami powodowały pozorne przemieszczanie się sygnału w prze-strzeni pomiędzy głośnikami.

Wobec pojawienia się w tamtych latach (1953–1958) magnetofonów dwuślado-wych i pierwszych magnetofonów czterośladowych rozpoczęto już wtedy próbyumieszczania poszczególnych warstw montażowych na kolejnych ścieżkach ma-gnetycznych i mieszania tych sygnałów na sposób stereofoniczny lub nawet od-twarzania całej kompozycji, tak aby sygnał z każdej ścieżki wysyłany był naosobny głośnik lub grupę głośników. W ten sposób elektroniczna stereofoniai kwadrofonia wyprzedziły pojawienie się tych form przekazu dźwięku na pły-tach gramofonowych i w radiofonii.

Po roku 1960 produkcja monofoniczna należy już tylko do wyjątków (np. dla

potrzeb filmu lub słuchowisk radiowych). Standardowym produktem finalnymstaje się taśma z zapisem dwuścieżkowym, a wkrótce potem również taśmaszeroka z zapisem czterościeżkowym. Do projekcji wielokanałowej i specjalnychprodukcji wymagających niekiedy nawet kilkuset głośników wrócimy jeszczew ostatnim rozdziale tej książki.

Tymczasem produkcja dwukanałowa wymagała już pewnego przestawieniaw sposobie myślenia muzycznego. Najprostsze rozwiązanie polegające na prze-słaniu dwu warstw montażowych, jednej na lewo, a drugiej na prawo, dawałoefekty prymitywne, czasem wręcz komiczne. Podobnie stałe przeskakiwaniez tym samym sygnałem z lewego do prawego głośnika lub bezustanne pano-ramowanie z lewa na prawo i z powrotem mogło zaskakiwać początkowo prze-strzennością efektów, ale artystycznie nie mogło dać wyników zadowalających.Trzeba było pomyśleć o systemie tworzenia wyimaginowanej przestrzeni dźwię-kowej, dla którego wielokanałowa projekcja miała być tylko pomocą, a nie celemsamym w sobie. Zaistniał problem zakomponowania tej przestrzeni, wciągnięciaelementów ruchu i umiejscowienia źródła w samym procesie komponowania.

Kiedy okazało się, że pełna dwukanałowość (każdy sygnał tylko w jednymkanale) rozbija spójność brzmienia, zwrócono się do typowej stereofonii polega-

 jącej na tym, że każdy sygnał jest rozdzielony na dwie części i z pierwszego

kanału idzie np. 70% energii na lewo, a 30% na prawo, a z drugiego 70% naprawo, a 30% na lewo. Przy projekcji dźwiękowej w każdym kanale mamy obasygnały, ale o niejednakowym natężeniu. Efektem tego jest, że zamiast projekcji

155

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 156/381

Studio klasyczne (manualne)

dwupunktowej wypełniamy dźwiękiem również pozorną przestrzeń między obugłośnikami i otrzymujemy bardziej spójne i „naturalne” brzmienie całości.

Często już w III etapie pracy trzeba brać pod uwagę późniejszy wielokana-łowy zapis kompozycji. Warstwy można tak zaplanować, aby jedne z nich szły

zdecydowanie na lewo, a inne na prawo, pewne zaś pozostały w środku (byłyrównomiernie rozdzielone pomiędzy dwa kanały). Możemy przewidzieć od razuwarstwy, które będą panoramowane i zaznaczyć w naszych notatkach kierunkii czas przemieszczania. W przestrzeni trójwymiarowej przy projekcji cztero- lubwięcej kanałowej możemy przewidzieć fragmenty, które pojawić się mają od tyłualbo ponad głowami słuchaczy. Możemy wreszcie przewidzieć warstwy, które jakw starej projekcji Schaeffera będą rozdzielane wprawdzie nierównomiernie, alena wszystkie kanały taśmy finalnej.

W tych przygotowaniach przyjdzie nieraz, począwszy od pierwszego etapu,nagrywać pewne przedmioty stereofonicznie i całą dalszą pracę nad ich prze-

kształcaniem prowadzić w wersji dwukanałowej. Innym razem rozdzielenie sy-gnału nagranego monofonicznie nastąpi w II etapie przy przekształcaniu, np.

 jedna część sygnału zostanie sfiltrowana inaczej niż druga. Przykłady można by mnożyć, ale pomysłowość kompozytorów w tej dziedzinie zdaje się być nie-wyczerpana. A problem przestrzeni w kompozycji na taśmę będzie się pojawiałnadal w technice syntezatorowej i komputerowej, ponieważ jest to problem, któryw mniejszym lub większym stopniu istnieje w każdej muzyce, a technika pro-

 jekcji wielokanałowej pozwoliła tylko uwydatnić go w dziedzinie, w której brakwrażeń audiowizualnych powodował konieczność oparcia się na szerszym wa-

chlarzu wrażeń słuchowych.

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 157/381

III. Studio analogowe (sterowane napięciem)

3.1. Syntezatory sterowane napięciem

 Jak już pisaliśmy w części pierwszej, syntezatory wprowadzone przez RobertaMooga, Donalda Buchlę i Petera Zinovieffa zrewolucjonizowały pracę w studioi przyczyniły się do szybkiego upowszechnienia muzyki elektronicznej. Dziękinim można było uzyskiwać bardzo złożone struktury dźwiękowe przy stosun-kowo małym nakładzie pracy, można było tworzyć struktury w czasie realnym,a to z kolei pozwoliło na wyjście z muzyką elektroniczną ze studia specjalistycz-nego i produkowanie jej na żywo w warunkach sali koncertowej i zwykłegostudia nagraniowego.

Syntezator stał się jakby przenośnym studiem muzyki elektronicznej, niemalsamowystarczalnym, które umożliwiało zarówno produkowanie struktur czystoelektronicznych, jak i przetwarzanie dźwięków konkretnych. Brakowało mu tylkomagnetofonów i urządzeń do projekcji dźwiękowej, ale te były już wszędzie

łatwo dostępne.Aby w pełni docenić korzyści płynące z użycia syntezatora w miejsce po-

 jedynczych urządzeń studia klasycznego, trzeba zapoznać się bliżej z zasadąsterowania napięciem. W studio klasycznym wszystkie urządzenia sterowane

 były ręcznie. Ustawianie wartości poszczególnych parametrów, jak częstotliwość,amplituda, częstotliwość graniczna filtrów itd. odbywało się przez pokręcenie po-tencjometrów, przełączanie przełączników, otwieranie i przymykanie tłumikówitd. Było to niewygodne i znacznie ograniczało możliwości działania na kilkuurządzeniach jednocześnie. Pewne braki i niedogodności zmuszały do żmud-

nych operacji na taśmie magnetofonowej. Wytworzenie nawet prostych sekwencjidźwiękowych wymagało wielokrotnego cięcia i sklejania taśmy. Kompozytorommarzyła się aparatura, w której możliwie wszystkie parametry sygnału dźwięko-wego mogłyby być sterowane „zdalnie”, i to nie tylko przez ręczne manipulacje,lecz również elektrycznie. Elementem elektrycznym najdogodniejszym do stero-wania innymi urządzeniami okazało się napięcie, tak ze względu na łatwośćuzyskiwania zmian w bardzo dużym zakresie, jak i na szybkość i precyzję w od-wzorowywaniu pożądanych przebiegów w czasie. Chodziło więc o znalezienielub skonstruowanie takich urządzeń, które przy wprowadzaniu sterujących sy-gnałów napięciowych na specjalne wejście sterujące odpowiadałyby pożądanymi

zmianami na wyjściu.Urządzeniami niemal gotowymi okazały się ge ne ra to ry st er ow an e

na pię cie m i wzmac nia cz e ste row an e nap ięc iem używane od lat w ra-

157

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 158/381

Studio analogowe (sterowane napięciem)

diofonii — pierwsze do nadawania sygnałów na falach ultrakrótkich w systemiemodulacji częstotliwości, a drugie do nadawania sygnałów na pozostałych zakre-sach fal w systemie modulacji amplitudy. Wprawdzie spełniły one inne zadaniai pracowały w zakresie częstotliwości ponadakustycznych, ale przystosowanie ich

do pracy w niższych zakresach użytecznych w muzyce elektronicznej wymagałotylko pewnych rozwiązań technicznych, które w rozwijającej się właśnie technicepółprzewodnikowej nie nastręczyły większych trudności.

Przystosowane do częstotliwości akustycznych i podakustycznych generatoryi wzmacniacze sterowane napięciem spełniały warunki przed nimi postawione.Sygnał modulujący uzyskał teraz miano na p i ę c i a s t e r u j ą c e go, które mo-gło być napięciem stałym lub zmiennym (w sposób ciągły lub skokowo). Na-pięcie sterujące wprowadzone na wejście modulujące urządzenia powodowałoodpowiednio wzrost częstotliwości lub wzrost wzmocnienia generowanego lubwzmacnianego sygnału.

Nowym źródłem napięć sterujących stała się specjalnie skonstruowanakl a wi a t ur a na p i ę c i ow a chętnie używana ze względu na łatwość posługiwa-nia się nią przez muzyków. Jej użycie, nawet dla uzyskiwania przebiegów nic niemających wspólnego ze skalą dwunastostopniową, zastępowało w wielu przy-padkach żmudny montaż taśmy. Klawiatura ułatwiała też tworzenie pewnychsekwencji w czasie realnym, a więc zgodnie z odczuwanym przez muzyka we-wnętrznym plusem rytmicznym, i pozwalała na „improwizowanie”, tak ważnew muzyce elektronicznej na żywo. Zastosowanie klawiatury napięciowej otwo-rzyło wreszcie drogę syntezatorowi na estrady muzyki rozrywkowej.

Drugim ważnym źródłem napięć sterujących stały się same generatory. Produ-kowany przez nie sygnał mógł być teraz wykorzystywany nie tylko jako sygnałfoniczny, ale również jako napięcie służące do sterowania częstotliwości innychgeneratorów lub do sterowania amplitudy wzmacniacza.

Dalsze urządzenia sterowane napięciem lub produkujące napięcia sterującedla modułów syntezatora, takie jak filtry sterowane napięciem, generator napięćprzypadkowych, generator obwiedni, sekwencer, skonstruowano już w trakciepracy nad budową coraz to bardziej udoskonalanych typów syntezatora.

Podstawowe moduły każdego syntezatora to:— generatory sterowane napięciem,— wzmacniacze sterowane napięciem,— generatory obwiedni,— filtry sterowane napięciem,— klawiatura napięciowa.W skład syntezatorów wchodzą także jako moduły urządzenia znane znam

ze studia klasycznego, takie jak generator szumów, filtry wielopasmowe (stero-wane ręcznie), korektory, modulatory kołowe, urządzenia pogłosowe, mieszaczesygnałów. Ponadto w różnych typach syntezatorów występują moduły specjalne,

 jak generatory napięć przypadkowych, układy próbkująco-pamiętające, detektory

obwiedni, sekwencery, źródła napięć sterowane ręcznie (dźwignia sterująca X-Y),wstęga sterująca. Niektóre z nich są modułami podwójnymi, zazwyczaj modu-łami zawierającymi dwa identyczne urządzenia.

158

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 159/381

Generatory sterowane napięciem (VCO)

Ilość modułów zależy od rozmiarów syntezatora, a te od jego przeznacze-nia. Wielkie syntezatory studyjne, jak Synthi 100, Polyfusion mogły zawierać pokilkadziesiąt modułów, w tym wiele specjalnych. Syntezatory średniej wielko-ści pomyślane zarówno do użytku w studiu, jak i w sali koncertowej, np. ARP

2600, Roland 100 zawierały po kilkanaście najważniejszych modułów, z regułyniewymiennych, ale ze swobodnym dostępem do każdego z nich. Wreszcie „wa-lizkowe” syntezatory typu Synthi AKS, Minimoog, Korg Sigma posiadały tylkopo 8–12 niezbędnych modułów, które były wbudowane na stałe i posiadały stałyukład komutacyjny. Te najmniejsze syntezatory przeznaczone były do muzykielektronicznej na żywo i do muzyki rozrywkowej (rockowej).

Wreszcie instrumenty zwane „syntezatorami polifonicznymi” stanowiły twórpośredni pomiędzy organami elektronicznymi i syntezatorem. Pozwalały na uzy-skiwanie za pomocą jednej klawiatury struktur wielogłosowych i akordowych,np. Polymoog i Roland Jupiter 8. Poświęcimy im jeden z dalszych rozdziałów.

Chcąc zrozumieć działanie jakiegokolwiek syntezatora, musimy zapoznać siękolejno z urządzeniami stanowiącymi jego moduły, uświadamiając sobie zarazemzakres możliwości i korzyści płynących z włączenia danego urządzenia w torelektroakustyczny.

Urządzenia te spełniają trzy podstawowe funkcje:— produkowanie sygnałów fonicznych,— produkowanie napięć sterujących,— modyfikowanie sygnałów i napięć,oraz jedną dodatkową:

— zapamiętywanie napięć i czasów. Jednak podział urządzeń na produkujące, sterujące i modyfikujące (przekształ-cające), z jakim spotkać się można w wielu publikacjach, nie ma w gruncie rze-czy większego sensu. Tylko nieliczne urządzenia spełniają jedną, właściwą imfunkcje, np. wzmacniacz sterowany napięciem. Większość urządzeń spełnia lubmoże spełniać różne funkcje, zależnie od roli, jaką im się wyznaczy i od zakresuczęstotliwości, w jakim poleci się im pracować.

Ponieważ płytki czołowe modułów syntezatorów z reguły opisane są w ję-zyku angielskim (nawet jeśli jest to produkt japoński lub niemiecki) — przyopisywaniu kolejnych urządzeń i ich układów regulacyjnych zapoznawać bę-dziemy czytelnika z terminologią angielską. Nasz opis zaczniemy od urządzeńnajbardziej podstawowych, a więc od generatorów.

3.2. Generatory sterowane napięciem (VCO)

Generatory sterowane napięciem (VCO, z ang. Voltage Controlled Oscillator) sta-nowią główne źródło sygnałów fonicznych każdego syntezatora. Nie podajemy tu

elektrycznego schematu generatora, lecz potraktujemy to urządzenie jako „czarnąskrzynkę”, o której wiemy, że ma kilka wejść, kilka wyjść, kilka regulacji i prze-łączników. Ilustracja 72 (s. 160) pokazuje te elementy i ich zależność.

159

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 160/381

Studio analogowe (sterowane napięciem)

Il. 72

Częstotliwość sygnału, czyli zmiennego napięcia   uw   na wyjściu generatora,zależy od wartości napięcia sterującego u3, które jest sumą stałego napięcia zasi-lającego u1  i napięcia dodatkowego (stałego lub zmiennego) u2. Potencjometr R1

pozwala na tłumienie napięcia zasilającego i sterowanie ręczne częstotliwościąsygnału. Tak więc przy napięciu  u2  równym zeru, np. przy nie włączaniu żad-nego napięcia zewnętrznego, o częstotliwości sygnału decydować będzie tylkopotencjometr R1. Potencjometr R2 ustala stosunek napięcia dodatkowego, np. po-chodzącego z innego generatora  G2   lub z klawiatury napięciowej, do napięciazasilającego. Stosunek ten decyduje o rozpiętości zmian wprowadzanych przezzewnętrzne źródło napięciowe. Regulator R3  ustala amplitudę napięcia wyjścio-wego   uw. Nie wpływa więc na częstotliwość, tylko na poziom generowanego

sygnału.Ręczne przełączniki (w niektórych generatorach są to potencjometry lub osobnegniazda wyjściowe) oznaczone na il. 72 literami a, b, c pozwalają na wybiera-nie jednego z kształtów typowych. O kształcie dostępnego na danym wyjściusygnału informuje wskazówka słowna lub odpowiedni piktogram.

 Jeśli napięcie u2  będzie napięciem stałym, np. pochodzącym z klawiatury poprzyciśnięciu jednego z klawiszy, wówczas częstotliwość sygnału będzie stałai o tyle wyższa od częstotliwości uzyskiwanej bez przyłączenia klawiatury, o ileklawisz naciśnięty będzie „wyższy” od klawisza dającego napięcie „zerowe” (jestnim zazwyczaj najniższy klawisz klawiatury). Elementy generatora VCO i klawia-tury napięciowej w urządzeniach syntezatorowych są tak dobierane, że stały skokinterwałowy na klawiaturze powoduje stały skok napięcia, a stały skok napięciapowoduje przestrojenie generatora o ten sam interwał muzyczny, niezależnie odzakresu częstotliwości, np. skok o 1 V powoduje podwojenie częstotliwości gene-ratora i w efekcie dźwięk o oktawę wyższy. „Granie” na klawiaturze wywołujeskokowe zmiany wysokości dźwięku, podobne do tych, jakie się otrzymuje przygrze na organach. W odróżnieniu od organów mamy tu do czynienia z przestra-

 janiem samego źródła dźwięku.

160

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 161/381

Generatory sterowane napięciem (VCO)

3.2.1. Modulacja częstotliwości

 Jeżeli u2  będzie napięciem zmiennym, np. pochodzącym z innego generatora,

to częstotliwość sygnału produkowanego przez generator VCO będzie się zmie-niać proporcjonalnie do zmiany napięcia u2. Będziemy mówić, że sygnał  uw   jestproduktem mod ul a c j i cz ę s t o t l i wo śc i. Przenosząc terminologię stosowanąw radiofonii na zjawiska dotyczące sygnałów fonicznych, sygnał stały produko-wany przez generator bez dołączania napięcia dodatkowego nazywać będziemysygnałem nośnym (ang.  carrier), a dołączone napięcie sterujące sygnałemmo du lu ją cy m (ang. modulating signal).

W przypadku, kiedy sygnał nośny znajduje się w zakresie częstotliwości aku-stycznych, a sygnał modulujący w zakresie podakustycznym, słyszalnym efektemmodulacji będzie fluktuacja wysokości dźwięku produkowanego przez sygnałnośny w takt zmian napięcia sygnału modulującego. Jeśli napięcie sterujące bę-dzie miało przebieg trójkątny o częstotliwości 1 Hz, to efektem modulacji będąnaprzemienne krótkie glissanda w górę i w dół wokół wysokości odpowiadającejczęstotliwości sygnału nośnego. Głębokość tej modulacji (wartość odchylenia odpozycji średniej) zależeć będzie od stosunku napięcia u1 do napięcia u2 regulowa-nego za pomocą potencjometru R2. Przy mocnym stłumieniu napięcia zmiennegou2 jego wpływ na stałe napięcie u1 będzie niewielki i odchylenia częstotliwości odśredniej będą nieznaczne. Zwiększenie poziomu napięcia  u2  powodować będziezwiększanie tych odchyleń do rozpiętości nawet wielooktawowych.

 Jeżeli częstotliwość sygnału modulującego zostanie zwiększona na tyle, że znaj-dzie się w zakresie akustycznym, to w sensie fizycznym nic się nie zmieni, alewrażenie słuchowe spowodowane taką modulacją będzie zupełnie inne. Zamiastsłyszalnych dewiacji wysokości dźwięku powstanie wrażenie jednorodnego kom-pleksu dźwiękowego o stałym układzie wysokości (stałej „masie”, jak to określałPierre Schaeffer). Widmo takiego kompleksu będzie bardzo złożone. Zawieraćono będzie szereg prążków, w tym prążki odpowiadające częstotliwościom skła-dowych sygnału nośnego oraz dwa szeregi prążków stanowiących tzw. wstęgi

 b oc z n e — górną i dolną. Rozkład wstęg bocznych i amplitudy poszczegól-

nych składowych zależą od stosunku częstotliwości sygnału nośnego i sygnałumodulującego. Ich obraz jest bardziej złożony i był przedmiotem wielu practeoretycznych1. Ogólnie można powiedzieć, że im większa amplituda sygnałumodulującego, tym szersze są wstęgi boczne, a dźwięk otrzymany z produktumodulacji będzie bogatszy w składowe (harmoniczne i nieharmoniczne).

Modulacja częstotliwości sygnałów fonicznych innymi sygnałami fonicznymi,którą umożliwiają generatory sterowane napięciem, pozwala uzyskiwać w prostysposób kontrolowane kompleksy dźwiękowe. Mogą to być dźwięki o budowieharmonicznej, podobne do dźwięków instrumentów muzycznych, dźwięki o bu-dowie nieharmonicznej przypominające brzmienie gongów, dzwonów, uderzeń

metalicznych itd., oraz różnego typu dźwięki zgrzytliwe.

1 Więcej informacji na temat modulacji częstotliwości znajdzie czytelnik w rozdz. 4.9.

16111 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 162/381

Studio analogowe (sterowane napięciem)

Produkt modulacji dwóch sygnałów podakustycznych służy częściej jako na-pięcie sterujące o przebiegu kompleksowym do sterowania parametrami innychurządzeń.

Przykłady powyższe wskazują na uniwersalność generatora VCO. Generator

taki może być sterowany ręcznie lub elektrycznie, przez jedno lub przez kilkaźródeł napięciowych jednocześnie. Produkowane przez niego napięcie wyjściowemoże mieć przebieg prosty, złożony lub bardzo kompleksowy. Generator VCOmoże stanowić źródło sygnałów fonicznych lub źródło napięć sterujących dlainnych urządzeń, czasem może obie te funkcje spełniać równocześnie. Korzyścipłynące z zastosowania generatorów sterowanych napięciem będziemy śledzićprzy omawianiu wielu urządzeń syntezatora.

W większości syntezatorów moduły VCO zawierają szereg ułatwień dla użyt-kownika. Takimi są przemienniki kształtu sygnału, zmieniające typowy prze-

 bieg produkowanego sygnału, najczęściej piłowy lub trójkątny, na przebiegi si-

nusoidalne, prostokątne i impulsowe. Taki moduł zawiera wówczas kilka wyjśćosobno dla każdego typu przebiegu, czasami mieszacz tych kilku wyjść osobnodla każdego typu przebiegu, czasami mieszacz tych kilku wyjść i jedno wspólnewyjście zmieszanego sygnału. Takim jest regulacja stosunku wypełnienia (sze-rokości) sygnału prostokątnego. Do nich należy synchronizator częstotliwościi fazy, pozwalający na automatyczne dostrajanie do częstotliwości innego ge-neratora, jeżeli jego częstotliwość będzie bardzo bliska unisonowi, oktawie lubduodecymie.

3.3. Wzmacniacze sterowane napięciem (VCA)

Głównym zadaniem wzmacniacza VCA (ang.   Voltage Controlled Amplifier)w układzie syntezatora nie jest wzmacnianie sygnału, ale regulacja jego am-plitudy i wprowadzenie zmian amplitudy zgodnie z zamiarem użytkownika.

Il. 73

Wzmacniacz VCA posiada dwa wejścia: sygnałowe (signal input) i sterujące(control input) oraz jedno wyjście. Doprowadzony na wejście sygnał (oznaczonyna il. 73 grubszą kreską) przechodzi przez układ wzmacniający, który jest tak

skonstruowany, że stopień aktualnego wzmocnienia zależy od chwilowej warto-ści napięcia wprowadzonego na wejście sterujące. Napięcie sterujące jest sumąnapięcia stałego (ustawianego ręcznie potencjometrem  R1) i dodanego napięcia

162

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 163/381

Wzmacniacze sterowane napięciem (VCA)

zewnętrznego. Ponieważ sygnał nie ma być wzmacniany, a tylko regulowanyw pewnych granicach, wartość wzmocnienia może być dodatnia, zerowa lubujemna. W tym ostatnim przypadku sygnał zostaje tłumiony.

Potencjometr R1 pozwala na ustawienie średniego poziomu amplitudy na wyj-

ściu. Dołączenie napięcia wolno zmiennego lub zmieniającego się skokowo (np.z generatora w zakresie podakustycznym) spowoduje zmiany amplitudy w taktzmian tego napięcia. Muzycznym odpowiednikiem tego będą crescendo — di-minuendo i skokowa zmiana dynamiki wzmacnianego dźwięku.

Il. 74

3.3.1. Modulacja amplitudy

Wprowadzenie na wejście sterujące napięcia cyklicznie zmiennego wprowadzimodulację amplitudy. Napięcie sterujące spełniać będzie w tym przypadku rolęsygnału modulującego, a sygnał foniczny rolę sygnału nośnego. Od zakresu czę-stotliwości sygnału modulującego zależeć będzie efekt działania modulacji. Jeżeli

 będzie miał on częstotliwość podakustyczną, to sygnał nośny (foniczny) zmieniać będzie swoją amplitudę w takt zmian napięcia sygnału modulującego i zgod-nie z jego przebiegiem. W naszym wrażeniu słuchowym odbierać będziemy tensam nie zmieniony sygnał foniczny, np. dźwięk harmoniczny, tylko o cykliczniezmieniającej się głośności. Jeżeli jednak sygnały nośny i modulujący znajdą sięw zakresie częstotliwości akustycznych, to na wyjściu pojawi się produkt modu-

lacji, którego widmo amplitudowe zawierać będzie sumy i różnice częstotliwościobu sygnałów wejściowych, a więc tak jak w modulatorze kołowym, ale takżeskładowe sygnału stanowiącego sygnał nośny.

16311∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 164/381

Studio analogowe (sterowane napięciem)

Modulacja amplitudy pozwala więc nadawać sygnałom fonicznym pożądaneobwiednie, a także wytwarzać sygnały o kompleksowej budowie, których widmozawierać będzie składowe harmoniczne i nieharmoniczne. Tak uzyskane sygnałymogą być następnie poddawane dalszym przekształceniom.

3.4. Generatory obwiedni

Zadaniem generatora obwiedni (ang. Envelope Generator) jest wprowadzanie ta-kich zmian amplitudy sygnału elektronicznego, które upodabniałyby jego prze-

 bieg do naturalnych zjawisk akustycznych. Dźwięki naturalne mają, jak wiemy,określone stany narastania i wybrzmiewania oraz stany o mniej lub bardziej stałejamplitudzie, które określa się jako stany trwania lub podtrzymywania.

Każdy dźwięk akustyczny ma więc swój kształt, czyli p r of i l dy na mi cz n y

(Pierre Schaeffer nazywa to „formą” dźwięku). Ten profil może być prosty lubzłożony. W terminach elektroakustyki profil dynamiczny określany jest słowemob wi ed ni a (ang. envelope). Obwiednia wyraża się funkcją szczytowych wartościamplitudy sygnału w czasie.

Generator obwiedni jest urządzeniem, które produkuje powtarzalne cykle na-pięcia o kilku charakterystycznych stanach.

3.4.1. Generator AR

Najprostszy generator obwiedni do wprowadzonej na jego wejście bramki na-pięciowej, czyli napięcia prostokątnego, wprowadza „złagodzenie” stanów otwar-cia i zamknięcia bramki przez stopniowe narastanie i stopniowe zanikanie na-pięcia (il. 75a). W układzie takiego generatora regulowanymi bywają osobnoczas narastania (na il. 75 oznaczony  t1) i czas zanikania (t2), które wpływają na„stromość zbocza”. Takie proste urządzenie określane bywa jako generator AR(ang. Attack-Release), chociaż w rzeczywistości napięcie przez niego produkowanema trzy fazy: narastania, podtrzymywania i opadania, tyle tylko, że czas fazypodtrzymywania nie jest zależny od układu generatora obwiedni, ale od czasuotwarcia bramki, a więc od stanu napięcia doprowadzonego z zewnątrz. Zwra-

camy uwagę, że w przypadku kiedy czas otwarcia bramki jest krótszy od czasunarastania, cykl obwiedni jest niepełny, gdyż napięcie wyjściowe nie zdąży osią-gnąć poziomu maksymalnego, bo od momentu zamknięcia bramki rozpoczniesię już faza zanikania tego napięcia (il. 75b).

 bramka

obwiednia   Il. 75

a) b)

164

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 165/381

Generatory obwiedni

3.4.2. Generator ADSR

Typem bardziej rozbudowanym jest generator obwiedni o czterech stanach:— narastania — od poziomu zerowego do maksymalnego (ang.  attack),

— opadania — od poziomu maksymalnego do wybranego poziomu pod-trzymywania (ang. decay albo first decay),

— po dt r z ymyw a ni a — stałego, wybranego poziomu napięcia (ang. sustain),— zanikania — opadania od poziomu podtrzymywania do poziomu zero-

wego (ang.  release albo final decay).Taki generator obwiedni nazywany jest od angielskich liter początkowych

ge ne ra to re m ADSR.

 bramka

impuls

obwiednia

Il. 76

Dla wywołania cyklu obwiedni w generatorze ADSR potrzebne są: napięcie bramki (ang.  gate) i impuls wyzwalający (ang.  trigger). Zależnie od konstrukcjidanego generatora albo na wejściu wymagane są niezależnie oba sygnały na-pięciowe, albo wystarcza na wejściu samo napięcie bramki, a impuls wyzwala-

 jący powstaje wewnątrz generatora w jego wejściowym układzie wyzwalającym.w układzie ADSR regulowane są trzy czasy:   t1   — narastania,   t2   —opadania,i t3  — zanikania oraz poziom napięcia podtrzymywania  S. Czas podtrzymywa-nia, podobnie jak w generatorach AR, nie jest zależny od regulacji w ramachgeneratora, ale od czasu otwarcia bramki napięcia wprowadzonego z zewnątrz.

Najczęściej do wyzwalania obwiedni służy przyłączona do syntezatora kla-wiatura napięciowa, której wyjście „trigger” połączone jest z reguły okablowa-

niem wewnętrznym ze wszystkimi generatorami obwiedni danego syntezatora.Przyciśnięcie któregokolwiek klawisza otwiera bramkę, powodując tym samymwyzwolenie cyklu. Zwolnienie klawisza bramkę zamyka. Przyciskanie kolejnychklawiszy na sposób „legato” daje w efekcie jedną bramkę i jedno wyzwolenie(przy naciśnięciu pierwszego klawisza z grupy legatowej). Przyciskanie klawiszyna sposób „staccato” lub „non legato” powodować będzie wyzwolenie i bramkęza każdym przyciśnięciem klawisza.

 Jak już mówiliśmy, generator obwiedni sam nie modyfikuje sygnału. Na dy-namiczny kształt sygnału wpływa tylko pośrednio, produkując ukształtowanew czasie napięcie sterujące dla współpracującego z nim wzmacniacza VCA.

165

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 166/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 167/381

Filtry sterowane napięciem (VCF)

Il. 79

regulatora całkiem na prawo w pozycji „manual” czas pauzy będzie nieskoń-czony i samowyzwolenie następnego cyklu nie nastąpi. Przy tym ustawieniu za-początkowanie każdego cyklu wymaga impulsu wyzwalającego dostarczonegoz zewnątrz. Mówimy, że generator działa w cyklu pojedynczym. Impuls wyzwa-lający może być dostarczony albo z przerywacza (czerwony guziczek z napisem„attack”), albo z klawiatury.

3.5. Filtry sterowane napięciem (VCF)

Obok generatorów VCO i wzmacniaczy VCA trzecim podstawowym urządze-niem syntezatora są filtry VCF (ang.  Voltage Controlled Filters).

Filtry VCF budowane są jako dolnoprzepustowe i górnoprzepustowe. Ich kom- binacja tworzy filtry środkowoprzepustowe lub środkowo-tłumiące. W działaniuzasadniczą różnicą w stosunku do filtrów tradycyjnych jest to, że częstotliwośćgraniczna każdego filtru VCF po wstępnym ustaleniu za pomocą potencjometrumoże być dodatkowo sterowana napięciem zewnętrznym.

Bardzo często do sterowania filtru używa się tego samego napięcia, które użytodo sterowania częstotliwości filtrowanego przez filtr sygnału. Jeżeli na przykładfiltrowany jest sygnał piłowy z generatora VCO, a częstotliwość graniczna filtruzostanie ustawiona wstępnie o 3 oktawy wyżej od częstotliwości generatora, tosterowanie obu urządzeń tym samym napięciem zewnętrznym spowoduje, żeczęstotliwość sygnału z generatora i częstotliwość graniczna filtru będą się zmie-niać równolegle, proporcjonalnie do zmian napięcia sterującego. Dzięki temuwidmo sygnału po filtrze zawierać będzie stale te same składowe harmoniczne,a dźwięk w ten sposób uzyskany będzie miał w przybliżeniu stałą barwę, 2 nie-

zależną od wysokości.Ta właściwość filtru sterowanego napięciem wykorzystywana jest częstow układach, kiedy do sterowania generatora i filtru służą napięcia z klawiaturynapięciowej. Zespół: generator, filtr, klawiatura, generator obwiedni i wzmacniaczprzyjmuje wówczas rolę instrumentu muzycznego produkującego dźwięki o po-dobnej barwie, stałych czasach narastania i wybrzmiewania i zmiennych, zgodniez naciskanymi klawiszami, czasach trwania i wysokościach, jakby jednego reje-stru organów. Przebieg sygnału fonicznego (grubsza linia) i napięć sterującychw takim zestawie przedstawiono na il. 80 (s. 168). Dla uproszczenia pominięto na

2 Termin „barwa dźwięku” rozumiemy tu w węższym znaczeniu, jako cechę dźwięku wynikającąze stosunku głośności składowych harmonicznych z pominięciem takich elementów, jak formanty,składowe nieharmoniczne, domieszki szumów itd.

167

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 168/381

Studio analogowe (sterowane napięciem)

Il. 80

nim regulacje ręczne służące do wstępnego ustawiania wartości poszczególnychparametrów urządzeń.

Innym często wykorzystywanym sposobem jest wprowadzenie tego samegonapięcia sterującego na filtr i na wzmacniacz VCA. W tym zestawieniu czę-stotliwość graniczna filtru zmieniać się będzie równolegle do zmian amplitudysygnału. W efekcie wraz ze wzrostem głośności rozjaśniać się będzie barwa filtro-wanego sygnału. Na tej zasadzie oparty jest tzw. efekt „ua-ua”, chętnie używany,a nawet nadużywany, w muzyce rozrywkowej. Dla jego uzyskania do sterowaniaczęstotliwością graniczną filtru dolnoprzepustowego 3 i jednocześnie amplitudąwzmacniacza wykorzystywane jest napięcie generatora obwiedni (w Synthi na-pięcie „trapezoid”). Narastanie dźwięku łączy się wówczas z gwałtownym roz-

 jaśnianiem barwy, a wybrzmiewanie z płynnym ściemnianiem barwy.W większości filtrów sterowanych napięciem wprowadzono układ sprzęgający,

powodujący uwydatnienie pasma leżącego w pobliżu częstotliwości granicznejfiltru. Stopień sprzężenia regulowany jest odpowiednim pokrętłem oznaczonym„response” lub „resonance”. Wzbudzenie układu rezonansowego powoduje, żesygnał przechodzący przez filtr ulega stłumieniu z wyjątkiem pasma leżącego

 blisko częstotliwości granicznej filtru, które jest przez sprzężenie wzmacniane.Im wyższe sprzężenie, tym tłumienie jest większe a pasmo wzmacniane węższeaż do postaci sygnału sinusoidalnego.

Il. 81

Ilustracja 81 obrazuje działanie tego filtru w zależności od pozycji potencjo-metru „response”.

Warto zwrócić uwagę na fakt, że terminy angielskie używane przez produ-centów syntezatorów dla różnych właściwości filtrów wykazują dość duże roz-

 bieżności. Termin „resonanse” bywa czasem zastępowany przez „regeneration”

(Moog) lub przez „response” (Synthi). Ten ostatni termin ma zresztą znaczenie

3 Najlepiej o charakterystyce z „garbem”, jak na il. 81.

168

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 169/381

Klawiatura napięciowa

szersze, najczęściej używany jest w określeniu „frequency response”, co po pol-sku tłumaczy się jako charakterystyka częstotliwości jakiegoś urządzenia, którawyraża stosunek napięć na wyjściu i na wejściu w funkcji częstotliwości. Podob-nie termin  notch  (szczerba, karb) może być zastępowany przez ogólniejszy  band

reject  (odrzucenie pasma).W muzyce elektronicznej filtry stanowią podstawowe narzędzie kształtowania barwy dźwięku. O ich znaczeniu pisaliśmy już w części drugiej poświęconejtechnice klasycznej.

Filtry sterowane napięciem stwarzają nowe możliwości. Barwa dźwięku może być teraz swobodnie zmieniana w trakcie trwania dźwięku nadając mu „we-wnętrzne życie”, lub być zmieniona z dźwięku na dźwięk równolegle do zmian

 jego wysokości. Kompozytor (realizator) może nadawać dźwiękom „obwiednie barwne” zgodnie z obwiednią dynamiczną lub od niej niezależne. Może tworzyćcoś na kształt   arpeggio  po harmonicznych (na dźwiękach bogatych w wysokieskładowe) lub glissanda (na materiale szumowym), a także inne efekty, w którychzmiany barwy mogą być niezależne od zmian wysokości i głośności filtrowanychdźwięków.

Filtry sterowane napięciem pozwalają ponadto na wprowadzenie szczególnegorodzaju modulacji, nazwiemy ją „modulacją widma”, którą osiąga się przez ste-rowanie filtrów napięciem cyklicznie zmiennym. Modulacja widma może nastę-pować albo przez cykliczne przesuwanie częstotliwości granicznej (środkowej)filtru, albo przez naprzemienne rozszerzanie i zwężanie pasma przepuszczanego(lub odrzucanego) przez filtr. Tak jak w poprzednio opisywanych rodzajach mo-

dulacji, tak i tutaj używanie sygnałów modulujących o częstotliwościach podaku-stycznych i akustycznych daje zupełnie różne efekty brzmieniowe. W przypadkuużycia pierwszych sama „zawartość” sygnału pozostaje nie zmieniona, w przy-padku drugich powstają nowe jakości brzmieniowe.

3.6. Klawiatura napięciowa

Klawiatury syntezatorów mają działanie odmienne od klawiatur instrumen-tów klawiszowych, akustycznych i elektronicznych. W klawiaturze instrumen-talnej każdemu klawiszowi podporządkowany jest osobny układ mechanicznylub elektryczny, który wprawia w ruch odpowiednie młoteczki, otwiera wlotypowietrza do odpowiednich piszczałek lub włącza obwody elektryczne odpo-wiadające określonym dźwiękom. Klawiatura syntezatora produkuje tylko stop-niowane napięcia stałe służące do sterowania parametrami innych modułów.Dlatego nazywamy ją klawiaturą napięciową (ang.  Keyboard Controller). Jej kla-wisze nie rozdzielają ról pomiędzy różne źródła dźwięku, jak to ma miejsce

w klawiaturach instrumentalnych, ale stopniują poziom napięcia, które ma słu-żyć do przestrajania tego samego źródła. Im „wyższy” jest naciśnięty klawisz,tym wyższy jest poziom napięcia wyjściowego klawiatury.

169

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 170/381

Studio analogowe (sterowane napięciem)

W klawiaturach jednogłosowych, przy naciśnięciu jednocześnie więcej niż jed-nego klawisza działa zawsze tylko jeden skrajny, zazwyczaj „najwyższy”, chociażw niektórych syntezatorach jest to klawisz „najniższy” z naciśniętych.

W układzie syntezatora klawiatura stanowi istotne ogniwo w łańcuchu: ge-

nerator VCO, wzmacniacz VCA, filtr VCF i generator obwiedni ADSR. Klawia-tura produkuje napięcia pozwalające na zgodne współdziałanie wymienionychmodułów, a przez podobieństwo do klawiatury tradycyjnych instrumentów mu-zycznych stanowi dla muzyka ogromne ułatwienie we wszystkich działaniachw czasie realnym.

Klawiatura napięciowa produkuje dwa lub trzy rodzaje napięć. Te dwa tonapięcie wyzwalająco-bramkujące i napięcie sterujące. Trzecie występuje tylkow niektórych typach klawiatur, jest to tzw. napięcie dynamiczne.

Napięcie wyzwalająco-bramkujące może mieć różną postać, zależnie od przyję-tego przez producenta rozwiązania elektrycznego. Może to być napięcie bramki(ang.   gate), bramki i szpilki (ang.   gate and trigger) lub zwarcie (ang.  S-trigger,

 jak w syntezatorach Mooga). Napięcie wyzwalająco-bramkujące pojawia się nawyjściu wyzwalającym w momencie zagłębiania dowolnego klawisza, ale tylkowówczas, kiedy żaden inny klawisz nie pozostaje naciśnięty. Tak więc przy naci-skaniu szeregu klawiszy na sposób legato, impuls wyzwalający pojawi się tylkoprzy pierwszym naciśniętym klawiszu grupy legatowej. Jak już wiemy, impulstaki przyłączony do generatora obwiedni wyzwoli pojedynczy cykl obwiedni,a otwarta przez przyciśnięcie klawisza (lub szeregu klawiszy legato) bramkawpłynie na czas podtrzymywania w cyklu obwiedni.

Napięcie sterujące zależne od wybranego klawisza przeznaczone jest do stero-wania częstotliwością generatorów, częstotliwością graniczną filtrów lub ampli-tudą wzmacniaczy. Może ono być użyte poza tym wszędzie tam, gdzie w mo-dule przewidziane jest sterowanie pewnych parametrów napięciem. Klawiaturaz naciśniętym najwyższym klawiszem produkuje jedno napięcie stałe. Kolejneklawisze włączają do obwodu dzielniki tego napięcia. Dzielniki te są tak do-

 brane, że naciśnięcie kolejnego (chromatycznie) klawisza powoduje zależnie odkierunku spadek lub wzrost napięcia o stały współczynnik  q. Dzięki temu sto-sunek dwóch napięć odpowiadający na klawiaturze temu samemu interwałowimuzycznemu będzie na obszarze całej klawiatury jednakowy.

Współczynnik q  ustalający skok napięcia pomiędzy kolejnymi klawiszami jestregulowany (na wyjściu klawiatury lub na wejściu urządzenia przez nią sterowa-nego). Po podłączeniu wyjścia sterującego klawiatury na wejście sterujące gene-ratora możemy tak uregulować skok q, aby oktawie na klawiaturze odpowiadałstosunek częstotliwości 2 : 1. Wtedy interwałom na klawiaturze będą odpowia-dały interwały muzyczne wg 12-półtonowej skali temperowanej na wyjściu gene-ratora. Inne ustawienie współczynnika  q spowoduje, że interwały produkowaneprzez generator będą mniejsze lub większe od „granych” na klawiaturze, ale za-wsze równe. Ustawienie skoku napięcia w ten sposób, że oktawie na klawiaturze

odpowiadać będą dwie oktawy na wyjściu generatora, spowoduje, że grając pół-tony otrzymamy całe tony, a kiedy dwóm oktawom na klawiaturze odpowiadać

 będzie jedna oktawa na wyjściu generatora, uzyskamy skalę ćwierćtonową. Moż-

170

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 171/381

Klawiatura napięciowa

liwe do ustawienia są także skale równointerwałowe niewspółmierne z oktawą,a także podziały mikrotonowe znacznie mniejsze od ćwierćtonu.

Skokowo-zmienne napięcie sterujące produkowane przez klawiaturę może słu-żyć nie tylko do kształtowania przebiegów wysokościowych w czasie, choć wła-

śnie do tego celu jest ono najczęściej wykorzystywane. Przyłożenie tego napięciado wejścia sterującego wzmacniacza VCA spowoduje, że sygnał wprowadzonyna ten wzmacniacz będzie skokowo zmieniał swoje natężenie zgodnie z tym, czy

 będziemy naciskać wyższe czy niższe klawisze.Skokowe zmiany napięć sterujących są użyteczne wszędzie tam, gdzie chce się

uzyskać dźwięki o różnej, ale każdorazowo stałej wysokości, a więc zbliżone dodźwięków osiągalnych na instrumentach muzycznych. Skokowe zmiany możnauzyskiwać także i z innych źródeł napięciowych, np. z sekwencera, z układupróbkująco-pamiętającego (Sample & Hold), a nawet z generatora sygnału prosto-

kątnego w zakresie podakustycznym. Działania na klawiaturze są jednak o tylewygodniejsze, że podobnie jak przy grze na instrumentach klawiszowych mo-żemy wpływać na kilka parametrów dźwięku jednocześnie.

Klawiatury niektórych syntezatorów (Moog, Synthi) produkują dodatkowotrzecie napięcie, tzw. napięcie dynamiczne (ang.  dynamic voltage). Napięcie to,podobnie jak poprzednio opisywane, na charakter skokowo-zmienny. Jego ak-tualna wartość nie zależy jednak od tego, który z klawiszy jest naciśnięty, aleod prędkości, z jaką klawisz zostaje zagłębiany. Klawisze atakowane w sposób

 bardziej agresywny (szybsze zagłębianie) produkują napięcie wyższe od tych,które naciskane są delikatniej (wolniejsze zagłębianie).

Napięcie dynamiczne wykorzystywane jest przede wszystkim do sterowaniawzmocnieniem VCA. Szybsze atakowanie klawiszy daje w efekcie głośniejszedźwięki. Napięcie to można jednak użyć do sterowania innych parametrów, np.do odstrajania generatora od stałej częstotliwości, tak aby stopień tego odstrojenia

 był zależny od sposobu atakowania klawisza.Ponieważ niezależnie od obu napięć sterujących z każdym przyciśnięciem kla-

wisza wprowadzane jest napięcie bramki, klawiatura napięciowa staje się w su-mie narzędziem bardzo uniwersalnym. Różny sposób atakowania i przytrzymy-wania klawiszy pozwala na osiąganie bardzo dużej skali różnorodności produ-

kowanych w realnym czasie struktur dźwiękowych.Konstruktorzy syntezatorów wprowadzają nieraz do klawiatury szereg dodat-

kowych przełączników, regulatorów, a nawet samodzielnych urządzeń zbloko-wanych z klawiaturą. W ten sposób klawiatura napięciowa staje się centralnymukładem przekaźnikowym pomiędzy muzykiem wykonawcą a maszyną.

Dla sprawnego współdziałania syntezatora ze strojonymi instrumentami mu-zycznymi konieczne jest łatwe dostrajanie wszystkich generatorów i klawiaturydo aktualnego stroju innych instrumentów (a1

= 440Hz lub innego). GeneratoryMinimooga podobnie jak i innych tego typu syntezatorów dają się łatwo do-

stroić do kamertonu, a w niektórych syntezatorach możliwe jest równoczesneprzestrojenie wszystkich generatorów za pomocą centralnego dostrojnika (ang.master tune control) znajdującego się zazwyczaj w module klawiatury.

171

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 172/381

Studio analogowe (sterowane napięciem)

Niemal wszystkie klawiatury napięciowe zawierają też prosty układ   p o r -t a m e n t o. Pozwala on na przechodzenie od jednego stopnia napięcia do dru-giego nie schodkowo, ale krótkim glissandem, stąd takie angielskie nazwy, jak glider, slider, a najwłaściwiej portamento.

Il. 82

3.6.1. Inne źródła napięciowe

W systemach syntezatorowych terminem „źródła napięciowe” określamy urzą-dzenia, które same nie produkują sygnałów fonicznych, lecz dostarczają innymurządzeniom napięć sterujących o kontrolowanym poziomie. Modelem źródłanapięciowego jest układ zawierający źródło prądu stałego i dzielnik napięciaw postaci potencjometru lub drabinki oporników (il. 83, 84).

W układzie elektrycznym źródła napięciowego umieszczone są zazwyczaj dwieregulacje: R1  wprowadzająca płynne lub stopniowe tłumienie napięcia  u0   i R2

ustalająca zakres tych zmian, czyli stosunek umin  do umax.

Il. 83 Il. 84

Źródła napięciowe, które miały służyć do sterowania poszczególnych para-metrów (głównie częstotliwości i amplitudy) były budowane w różnej postacizewnętrznej. Jedną z nich była opisana wcześniej klawiatura napięciowa. Innym— popularny także w technice komputerowej — joystick, który jest rodzajempotencjometru działającego wychylnie w dwóch płaszczyznach, stąd jego polskanazwa dźwignia X–Y. Obwody elektryczne związane z ruchami dźwigni zo-stały tak skonstruowane, że wychylenia dźwigni w prawo i w lewo działają na

 jeden obwód (napięcie X), a wychylenia w przód i w tył na drugi obwód (na-

pięcie Y). Możliwe są ruchy okrężne, ukośne, na krzyż itd., a więc wpływającena oba obwody równocześnie. Dźwignia zatrzymana w pewnej pozycji ustalanapięcia X i Y na określonych przez jej położenie poziomach (il. 85).

172

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 173/381

Układ próbkująco-pamiętający (Sample & Hold)

Il. 85

Innym źródłem napięć sterujących była wprowadzona przez firmę Moogwst ęga ste ru ją ca (ang. Ribbon Controller). W urządzeniu tym, notabene zasto-sowanym po raz pierwszy w falach Martenota, sterowanie napięciem odbywałosię przez przyciskanie metalizowanej wstęgi do podłoża wykonanego z mate-riału trudno przewodzącego. Im dłuższy odcinek tego materiału włączony byłdo obwodu, tym większa była jego oporność i tym mniejsze napięcie na wyjściu.Wstęga i podłoże działały więc jak potencjometr, pozwalając na płynne zmianynapięcia. Zaletą wstęgi sterującej była możliwość „grania” na niej jak na gryfieinstrumentu smyczkowego, stosowanie dowolnych skoków, glissand, portamentalbo wprowadzanie wibracji.

Prostszym rozwiązaniem było duże pokrętło umieszczane na frontowej płyciesyntezatora (określane czasem ang. pitch bend), które było po prostu odpowiedniodobranym potencjometrem.

3.7. Układ próbkująco-pamiętający (Sample & Hold)

W wielu syntezatorach jako źródło napięć sterujących zastosowano układ prób-kująco-pamiętający. Nazywać go będziemy w skrócie układem próbkującym.Działanie jego jest następujące:

 Jeżeli na jedno wejście urządzenia wprowadzimy dowolny sygnał elektryczny,a na drugie wejście krótki impuls zwany próbkującym, to na wyjściu pojawi się

napięcie stałe równe poziomowi napięcia sygnału wejściowego w momencie za-działania impulsu próbkującego. Napięcie to będzie przez układ „zapamiętane”i trwać będzie nie zmienione aż do pojawienia się następnego impulsu, któryustali nową wartość napięcia, równą poziomowi sygnału wejściowego w mo-mencie zadziałania tego drugiego impulsu. W przedziale czasu między kolej-nymi impulsami sygnał wejściowy nie ma żadnego wpływu na poziom napięciawyjściowego.

Sygnałem poddawanym próbkowaniu może być dowolny sygnał foniczny (sy-gnał z generatora, głos mówiony, dźwięk lub struktura dźwiękowa pochodzeniainstrumentalnego, szum, odgłosy natury itd.), a również napięcie wolno zmienne

w zakresie podakustycznym. Jako źródło impulsów służy zazwyczaj wbudowany w urządzenie generator

nazywany „generatorem zegarowym” lub po prostu „zegarem” (ang.  clock). Daje

173

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 174/381

Studio analogowe (sterowane napięciem)

on bardzo krótkie impulsy o kształcie „szpilki” lub prostokąta. Czas próbko-wania jest rzędu kilku mikrosekund. Układ działa więc prawidłowo zarównoprzy sygnałach o częstotliwościach podakustycznych, jak i akustycznych. W przy-padku pierwszych, dobierając odpowiednio częstotliwości sygnału i próbkowa-

nia, można pokusić się o pewną regularność uzyskiwanych na wyjściu napięćsterujących (il. 86).

sygnał wejściowy

impulsypróbkujące

napięciewyjściowe

Il. 86

Przy próbkowaniu szumu białego wartości napięć na wyjściu wykazywać będązmienność losową o równomiernym rozkładzie prawdopodobieństwa. Układpróbkujący stanie się generatorem napięć przypadkowych.

sygnał foniczny

impulsypróbkujące

napięciewyjściowe

Il. 87

Napięcia skokowo-zmienne pojawiające się na wyjściu układu próbkującego są bardzo użyteczne w technice syntezatorowej. Przesłane jako napięcia sterujące dogeneratora VCO lub do wzmacniacza VCA, służą do tworzenia ciągów dźwiękówo trudnym do przewidzenia układzie wysokości, czyli aleatorycznych strukturdźwiękowych, lub do nadawania dźwiękom złożonych profilów dynamicznycho mniej lub bardziej przypadkowym przebiegu. Napięcie wyjściowe z układupróbkującego może być w pewnych warunkach traktowane jako sygnał foniczny.Próbkowanie jakiegokolwiek sygnału z częstością większą niż 50 na sekundę spo-woduje, że napięcie wyjściowe przybierze kształt sygnału schodkowego o często-

tliwości akustycznej i o nierównomiernym rozkładzie amplitudy (il. 88, s. 175).Ponieważ przy niekontrolowanym przebiegu napięć przejścia przez zero będąz reguły niemiarowe, otrzymany na wyjściu sygnał będzie słyszalny jako dźwięk

174

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 175/381

Generator napięć przypadkowych (Random Voltage Generator)

o nieokreślonej wysokości, zależnie od próbkowanego sygnału i od częstotliwo-ści próbkowania — bliższy szumom lub dźwiękom „zgrzytliwym”. Sygnał takimoże być poddawany dalszym przekształceniom (filtrowanie, obwiednia) lubsłużyć jako sygnał modulujący. Rozmaitość zastosowań jest tu ogromna.

sygnał foniczny

impulsypróbkujące

napięcie

wyjścioweIl. 88

Trzeba jeszcze dodać, że sama gęstość próbkowania nie musi być stała, gdyżczęstotliwość „zegara” może być zmieniana w trakcie przebiegu próbkowaniaalbo ręcznie potencjometrem ustalającym jego częstotliwość, albo napięciem ze-wnętrznym powodującym modulację jego częstotliwości.

3.8. Generator napięć przypadkowych(Random Voltage Generator)

 Jest to urządzenie służące do generowania ciągów napięć przyjmujących war-tości losowe w określonych granicach. Zazwyczaj są to ciągi napięć skokowozmiennych, uzyskiwane przez próbkowanie szumu białego. W pewnym typieurządzeń możliwe jest także uzyskiwanie napięcia losowo-zmiennego o prze-

 biegu ciągłym (ang. random voltage).

Dobrym przykładem urządzenia pierwszego typu może być generator na-pięć przypadkowych firmy EMS London „Dual output random voltage source”(dosł.: dwuwyjściowe źródło napięć przypadkowych), stosowany jako modułstały w syntezatorze Synthi 100 i jako urządzenie peryferyjne dla innych synte-zatorów. Dla uzyskania napięć przypadkowych zastosowano tu dwa niezależneukłady próbkująco-pamiętające: pierwszy pozwala na modulowanie częstotliwo-ści zegara wewnętrznego, drugi — na uzyskiwanie przypadkowych poziomównapięcia zmieniającego się skokowo w takt impulsów zegarowych. W rezultacietego dwa parametry: czas i napięcie mogą tu przybierać niezależne od siebie war-tości losowo-zmienne. Konstruktor wprowadził tu jeszcze kilka udogodnień dla

użytkownika, jak możliwość wstrzymania biegu „zegara” (przełącznikiem „inhi- bit”) i wyzwalanie kolejnych próbek przyciskiem ręcznym lub impulsami wpro-wadzanymi z zewnątrz. Płytka czołowa urządzenia pokazana jest na il. 89 (s. 176).

175

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 176/381

Studio analogowe (sterowane napięciem)

Il. 89

Częstotliwość średnia zegara wewnętrznego ustalana jest regulatorem „meanrate”, a zakres zmienności regulatorem „variance”. Jeżeli zakres zmienności usta-wić na „0”, zegar produkować będzie impulsy wyzwalające w regularnych od-stępach czasu z częstotliwością ustaloną za pomocą regulatora „mean rate”. Za-kres tej regulacji wynosi od 0,1 do 100Hz. Przy stopniowym otwieraniu regu-latora zakresu, równomierność impulsów zegarowych zostaje zachwiana. Od-cinki czasu pomiędzy poszczególnymi impulsami przybierają wartości zmienne

losowo o równomiernym rozkładzie prawdopodobieństwa. Zakres zmiennościzależy od pozycji regulatora. Przy jego maksymalnym otwarciu stosunek naj-krótszego do najdłuższego z możliwych odcinków czasu ma się jak 1:1000.Przy mniejszym otwarciu tłumika „variance” rozrzut czasów będzie odpowied-nio mniejszy, zaś przy ustawieniu bliskim zera, nieregularność impulsów będzieledwie zauważalna.

Typowym zastosowaniem generatora napięć przypadkowych jest użycie produ-kowanych przez niego napięć do równoczesnego sterowania kilku parametramitego samego sygnału fonicznego. W przykładzie przedstawionym na il. 90 sy-gnał z generatora VCO przekazywany jest na wejście sygnałowe kształtownikaobwiedni ESh, sygnał z kształtownika obwiedni na wzmacniacz VCA, a sygnałz tego wzmacniacza na wyjście syntezatora. Generator napięć przypadkowychRVG steruje tymi trzema urządzeniami: napięcie  V 1  częstotliwością generatoraVCO, napięcie V 2  — amplitudą wzmacniacza VCA, a impulsy napięciowe z wyj-ścia „trg” zapoczątkowują kolejne cykle obwiedni w kształtowniku ESh.

Il. 90

Efektem tego działania będzie ciąg dźwięków, w którym wysokość, głośnośći rytm przybierać będą wartości losowe w określonym dla każdego z nich prze-dziale. Wprowadzenie napięcia V 2  na wejście sterujące częstotliwością granicznąfiltru VCF (na il. 90 kreski przerywane) i włączenie tego filtru w tor sygnałupozwoli na uzyskanie dodatkowej zależności barwy dźwięku od jego głośności.

Możliwości „komponowania” przez generator napięć przypadkowych mogą

 być znacznie rozszerzone przez sprzężenie go z innymi urządzeniami produku- jącymi ciągi napięć zmiennych w sposób losowy lub pseudolosowy, takich jakukład próbkująco-pamiętający, konwerter częstotliwości na napięcie itp.

176

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 177/381

Modulator kołowy (Ringmodulator)

Źródłem napięć przypadkowych jest też znany nam ze studia klasycznegogenerator szumu (ang. noise generator).

Elektryczny sygnał szumu białego przedstawia się jako napięcie losowo--zmienne o normalnym (Gaussowskim) rozkładzie gęstości i równomiernym roz-

kładzie widma na całym obszarze akustycznym. Filtr dolnoprzepustowy odci-nający wyższe częstotliwości powoduje „wygładzenie” tego napięcia. Zmiany„wygładzonego” napięcia, chociaż przebiegające znacznie wolniej, zachowują tesame cechy co zmiany w szumie białym: są ciągłe i mają ten sam rozkład warto-ści chwilowych. Napięcie takie określane bywa jako wolny przebieg losowy(ang. slow random).

Il. 91

Użycie slow random do sterowania generatora lub wzmacniacza powoduje nie-regularne, ale płynne zmiany częstotliwości lub odpowiednio amplitudy genero-

wanego sygnału. Na przykład można za pomocą tego napięcia wprowadzić dogenerowanego dźwięku nieregularne, podobne do instrumentalnego  vibrato, lubuzyskiwać nieregularną pulsację leżącego dźwięku lub bloku dźwiękowego.

3.9. Modulator kołowy (Ringmodulator)

Modulatory kołowe, inaczej ringmodulatory, powodujące modulację amplitudy

z wytłumionym sygnałem nośnym (ang. AM-SC  =

  Amplitude Modulation withSuppressed Carrier), opisaliśmy w studiu klasycznym. Przypomnijmy, że modula-cja AM-SC równoważna jest mnożeniu dwóch napięć, a wprowadzenie dwóchnapięć na dwa wejścia modulatora kołowego powoduje pojawienie się na jegowyjściu sygnału złożonego, którego widmo zawiera częstotliwości stanowiącesumy i różnice częstotliwości obu sygnałów wejściowych.

Ringmodulatory należały do najwcześniej używanych urządzeń przekształca- jących. Nie mogło ich zabraknąć także w syntezatorach.

Współczesne ringmodulatory budowane są przeważnie nie na pierścieniu diod,lecz w oparciu o tzw. układy mnożące czteroćwiartkowe, realizowane na obwo-

dach scalonych. Ich działanie jest dokładniejsze niż klasycznych modulatorówkołowych (lepsze tłumienie sygnału nośnego, mniejsze zniekształcenia i mniej-sza wrażliwość na nagłe zmiany temperatury). Wielu producentów zachowało

17712 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 178/381

Studio analogowe (sterowane napięciem)

 jednak starą nazwę ringmodulator, chociaż w układzie nie ma już „pierścienia”diod, od którego pochodzi ta nazwa.

W technice syntezatorowej ringmodulator jest mniej użyteczny w pracy namateriale czysto elektronicznym. Możliwości przekształcania sygnału fonicznego

i to już „u źródła” zwiększały się bowiem przez wprowadzenie na szerszą skalęmodulacji częstotliwości i modulacji amplitudy dzięki generatorom i wzmacnia-czom sterowanym napięciem. Z modulatora kołowego korzysta się jednak nadal

 jako z ważnego narzędzia do przekształcania dźwięków naturalnych.

3.10. Detektor obwiedni (Envelope Follower)

Zadaniem tego urządzenia jest wytwarzanie napięcia, którego zmiany byłyby

proporcjonalne do zmian amplitudy sygnału wprowadzanego na wejście. Dzia-łanie jego jest więc podobne do działania detektora amplitudy w odbiornikuradiowym, który wyprostowuje i wygładza modulowane amplitudowo napię-cie zmienne dużej częstotliwości. W przypadku detektora obwiedni demodulacjipodlegają zmiany amplitudy w zakresie częstotliwości podakustycznych. Poja-wiające się na wyjściu urządzenia napięcie jest więc jakby reprodukcją obwiednisygnału wejściowego.

Il. 92

Il. 93

Przedstawiony na il. 93 Envelope Follower firmy Moog (mo-duł 912) spełnia dwie funkcje: pierwszą z nich jest opisanepowyżej reprodukowanie obwiedni sygnału wprowadzonegona wejście „signal in”, a drugą — produkowanie impulsów

wyzwalająco-bramkujących w takt zmian napięcia wprowadzo-nego na wejście „control in”. Te dwie funkcje mogą być wyko-rzystywane niezależnie od siebie lub równocześnie.

Demodulacja obwiedni jest sprawą prostą. Sygnał (najczęściej jest to sygnał ze źródła naturalnego) wprowadzany jest na wej-ście sygnałowe, a napięcie będące odwzorowaniem obwiednipojawia się na wyjściu napięciowym „control out”. Przełącz-nik „response time” (czas reakcji) pozwala na ustalenie bez-władności układu detekcji, a potencjometr C — skali napięciawyjściowego.

Układ produkujący napięcie wyzwalająco-bramkujące działa pod wpływemnapięcia sterującego wprowadzonego na wejście „control in”. Przekroczenieprzez to napięcie określonego poziomu progowego otwiera bramkę i powoduje

178

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 179/381

Konwerter częstotliwości na napięcie (Pitch-to-Voltage Converter)

poziomprogowy

napięciesterujące

napięcie bramki

Il. 94

powstanie impulsu wyzwalającego. Spadek napięcia poniżej poziomu progowegopowoduje zamknięcie bramki (il. 94). Poziom progu ustalany jest ręcznie poten-cjometrem „threshold” (próg).

 Jeżeli na wejście „control in” nie zostanie wprowadzone napięcie z zewnątrz,to układ bramki jako napięcie sterujące będzie traktował napięcie wyjściowez układu detektora obwiedni. Gniazda „control out” i „control in” połączone są

 bowiem wewnętrznym okablowaniem (patrz linia przerywana na płytce czołowej,il. 93). Ten sam sygnał wejściowy będzie więc źródłem dwóch napięć: sterującego

i wyzwalającego, odzwierciedlających każde na swój sposób przebieg amplitu-dowy sygnału. Wprowadzenie zewnętrznego napięcia na wejście „control in”przerwie (przez włożenie wtyku) wewnętrzne połączenie obu gniazd i obwód

 bramkujący będzie działał niezależnie do obwodu detektora obwiedni.Detektor obwiedni jest urządzeniem prostym, ale niezwykle użytecznym. Znaj-

duje zastosowanie wszędzie tam, gdzie sygnały pewnego typu, np. dźwięki zeźródeł elektronicznych, mają być sterowane za pomocą sygnałów innego typu,np. dźwięków naturalnych, i w ten sposób przejmować pewne ich cechy. Sygna-łami sterującymi mogą być zarówno struktury dźwiękowe uformowane wcześnieji dostarczane do urządzenia w postaci sygnałów fonicznych z magnetofonu, jak

też struktury formowane w czasie realnym i przekazywane do urządzenia zapośrednictwem linii mikrofonowej. Ten drugi sposób jest szczególnie chętniewykorzystywany w muzyce elektronicznej na żywo.

3.11. Konwerter częstotliwości na napięcie(Pitch-to-Voltage Converter)

Podobnie jak detektor obwiedni, konwerter częstotliwości na napięcie (bę-

dziemy go określać skrótem P-VC) jest urządzeniem służącym do przetwarzaniapewnych parametrów sygnału akustycznego na napięcie służące do sterowa-nia różnych modułów syntezatora. Zadaniem konwertera jest produkowanie na-

17912∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 180/381

Studio analogowe (sterowane napięciem)

pięcia, którego zmiany byłyby proporcjonalne do zmian częstotliwości sygnałuwejściowego.

Działanie konwertera P-VC jest więc odwrotne do działania generatora VCO,który rozpatrując w tych kategoriach jest konwerterem napięcia na częstotliwość.

 Jeżeli oba te urządzenia połączyć w szereg, to przy odpowiednim dopasowaniunapięć generator VCO będzie produkować sygnał elektryczny o takim samymprzebiegu częstotliwości, jaki miał sygnał wprowadzony na wejście P-VC. Naj-prostszym wykorzystaniem takiego układu będzie imitowanie przez generator

 jednogłosowej melodii śpiewanej lub granej do mikrofonu.

Il. 95

Dla uzyskania identyczności obu przebiegów konieczne będzie takie uregulo-wanie napięcia sterującego (tłumikiem  R1), aby interwały sygnału z generatora

 były zgodne z interwałami sygnału wejściowego, oraz zestrojenie obu sygnałóww unisonie (tłumikiem   R2). Przestrojenie generatora da w efekcie transpozy-cję melodii, a zmiana poziomu napięcia sterującego spowoduje zwiększanie lub

zmniejszanie wszystkich interwałów.W przykładzie tym sygnał akustyczny jest wzorem dla napięcia sterującego,

a w efekcie dla sygnału wyjściowego. Tak proste połączenia są rzadko stoso-wane w praktyce. O wiele ciekawsze rezultaty daje wykorzystanie tego samegosygnału-wzoru do wytwarzania bardziej złożonych sygnałów elektrycznych. Po-zwala to na uzyskiwanie dźwięków o pewnych cechach sygnału oryginalnego,ale o nowej, elektronicznej zawartości dźwiękowej.

„Prawidłowe” działanie konwertera P-VC, tzn. „czytające” częstotliwość wzoru,możliwe jest tylko dla dźwięków o pojedynczej wysokości i to tylko takich, w któ-

rych pierwsza składowa harmoniczna zawiera co najmniej 10% energii dźwięku.Wprowadzanie na wejście dźwięków złożonych (akordów), dźwięków z prze-wagą szumów, trzasków, impulsów itd. spowoduje, że konwerter będzie wybierałw sposób dosyć przypadkowy jedną z zawartych w tym dźwięku częstotliwościi zamieniał na napięcie. I tak na przykład klaskanie do mikrofonu da na wyj-ściu konwertera serię pseudolosowych napięć sterujących, podobnie zresztą jakgranie na fortepianie akordów. Ponieważ ta właściwość konwertera P-VC może

 być z punktu widzenia muzycznego bardzo pożyteczna, słowo „prawidłowe” napoczątku tego akapitu zostało umieszczone w cudzysłowie.

180

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 181/381

Sekwencery

3.12. Sekwencery

Sekwencery (ang. sequence = ciąg, uszeregowanie) są to urządzenia do produ-kowania ciągów zdarzeń. W technice analogowej sekwencery zostały pomyślane

 jako urządzenia mające za zadanie zastąpienie pętli magnetofonowej przy produ-kowaniu ciągów powtarzalnych typu ostinato. Możliwość sterowania napięciempozwala na wykorzystanie ich do bardziej złożonych zadań.

Terminem „sekwencer” określane bywają trzy typy urządzeń:1. urządzenia do produkowania szeregu wcześniej „zaprogramowanych”

napięć stałych w postaci sekwencji, której kolejne stopnie uruchamiane sąimpulsami wyzwalającymi pochodzącymi z wewnętrznego „zegara”, albo do-starczanymi z zewnątrz; jest to sekwencyjne urządzenie sterujące (ang.Sequencial Controller).

2. urządzenie do automatycznego przełączania kolejnych torów elektrycznychza pomocą impulsów wyzwalających dostarczanych z zewnątrz lub z wewnętrz-nego „zegara”; jest to se kwe nc yjn e urz ąd ze nie pr ze łą cz aj ące (ang.Sequencial Switch);

3. urządzenie analogowo-cyfrowe pozwalające na kodowanie i umieszczaniew pamięci cyfrowej od kilkudziesięciu do kilkuset „zdarzeń” i reprodukowanietych zdarzeń po zdekodowaniu w postaci napięć sterujących i napięć wyzwala-

 jąco-bramkujących; jest to se k we n ce r c yf r ow y (ang. digital sequencer).Wszystkie trzy typy sekwencerów pozwalają na uzyskiwanie określonych (a nie

przypadkowych) ciągów dźwiękowych z możliwością wielokrotnego ich powta-rzania w postaci pętli. Sposób przygotowania (programowania) ciągu zdarzeń,czyli sekwencji, jest w każdym typie urządzenia inny.

W typie pierwszym ustalanie poziomu napięcia stałego dla każdego stopniasekwencji dokonuje się ręcznie przez ustawienie odpowiednich potencjometrówi przełączników. Ustalanie czasów trwania każdego stopnia sekwencji — ręcznieprzez ustawienie częstotliwości „zegara” i napięciowo przez wprowadzenie mo-dulacji częstotliwości „zegara” lub przez zastosowanie impulsów wyzwalającychdostarczanych z zewnątrz.

W typie drugim (przełącznik sekwencyjny) ustalanie napięć lub częściej zda-

rzeń dźwiękowych stanowiących poszczególne stopnie sekwencji odbywa siępoza urządzeniem. Sekwencer wybiera tylko automatycznie wprowadzone na jego wejścia sygnały włączając je po kolei — jednorazowo lub w cyklu wielo-krotnym. Czasy trwania poszczególnych stopni sekwencji regulowane są alboimpulsami elektrycznymi wprowadzanymi z zewnątrz, albo ręcznie.

W typie trzecim (sekwencer cyfrowy) wartości parametrów poszczególnychzdarzeń zostają z reguły zaprogramowane za pomocą „grania” na klawiaturzenapięciowej. Mikroprocesor przetwarza wówczas dane ze stanów klawiatury (np.który klawisz naciśnięty i przez ile impulsów zegara został przytrzymany) naciągi cyfrowe, które zostają umieszczone w pamięci sekwencera. Zapamiętanemogą być również napięcia z zewnątrz, np. z konwertera częstotliwości na na-pięcie. Przy reprodukowaniu sekwencji rytm następowania kolejnych zdarzeńregulują impulsy „zegara”.

181

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 182/381

Studio analogowe (sterowane napięciem)

Przeskakiwanie ze stopnia na stopień sekwencji odbywa się normalnie w za-kresie częstotliwości podakustycznych, dzięki czemu ciągi zdarzeń układająsię w tempie pozwalającym na rozróżnienie słuchowo poszczególnych stopni.Znaczne przyspieszenie „zegara” przy reprodukcji może jednak przesunąć wie-

lokrotny cykl sekwencyjny do zakresu akustycznego. Na wyjściu sekwencerapojawi się wówczas napięcie cykliczne zmienne, które można będzie potrakto-wać jako sygnał foniczny o kształcie schodkowym, a ten może być bezpośrednimźródłem dźwięku. Częstotliwość takiego sygnału równa będzie ilości cyklów se-kwencyjnych w ciągu sekundy.

Sekwencer cyfrowy zapowiada już następną epokę muzyki elektronicznej. Zo-stał on wprowadzony po raz pierwszy przez firmę SYNTHI jako stały modułsyntezatora Synthi 100, już w roku 1969, a więc na przeszło 10 lat przed wypusz-czeniem na rynek pierwszych syntezatorów cyfrowych. Był on jednak urządze-

niem cyfrowo-analogowym. Miał za zadanie cyfrowe zapamiętywanie zdarzeńanalogowych — napięć sterujących z klawiatury napięciowej, wraz z czasami, jakie upływały od kolejnych impulsów wyzwalających. Dokładnie mówiąc, se-kwencer ten zapisywał w pamięci cyfrowej kolejno numery naciśniętych klawiszyi zapamiętywał cyfrowo ilość impulsów zegara, jakie upływały od początku se-kwencji do kolejnego naciśnięcia klawisza, oraz puszczenia klawisza, a więc nu-mery pulsów zegara, które określały otwarcie i zamknięcie bramki. Dodatkowosekwencer zapamiętywał szybkość z jaką uderzano w klawisz, co pozwalało nazapamiętanie jeszcze jednego parametru muzycznego — dynamiki. Zapisywaniew pamięci i odczytywanie z pamięci następowało w takt impulsów „zegara”,znanego już z poprzednich urządzeń. Impulsy zegarowe przekazywane były dolicznika. Odczyty licznika powodowały umieszczanie w odpowiednich komór-kach pamięci danych liczbowych dotyczących kolejnych zdarzeń, a przy odtwa-rzaniu pobieranie z pamięci tych danych w odpowiednich jednostkach czasuliczonych pulsami „zegara”. Z uprzednich doświadczeń z napięciami sterują-cymi wiadomo, że sekwencje mogą być odtwarzane z inną prędkością niż byłyzapisane — nawet wielokrotnie szybciej lub wielokrotnie wolniej — od oryginal-nego zapisu, wystarczało tylko zmienić częstotliwość pulsu „zegara”. Można też

 było wprowadzić zmienny puls zegarowy (przyspieszanie, zwalnianie lub inne

funkcje w czasie). Późniejszy sekwencer cyfrowy Synthi 256 (il. 96, s. 183) był jużsamodzielnym modułem dużego syntezatora i pozwalał na zapamiętywanie nienumerów klawiszy, lecz konkretnych napięć dostarczanych z dowolnego źródłanapięciowego — z klawiatury lub innego źródła napięć sterujących. Następowałotu próbkowanie zgodne z pulsem „zegara”, a następnie konwersja analogowo--cyfrowa (jak w późniejszych urządzeniach komputerowych) i zapamiętywaniedanych dotyczących poziomu napięcia w punkcie próbkowania. Przy rejestracjitego typu rytm muzyczny z klawiatury czy innego źródła zostawał zakłócony,gdyż ulegał zaokrągleniu do całkowitych wartości impulsów zegarowych. Naci-

śnięcie klawisza np. pomiędzy trzecim i czwartym impulsem było rejestrowanetak, jak gdyby wypadało dokładnie równo z czwartym impulsem. Dokładnośćrejestracji była więc tym większa, im szybszy był bieg „zegara”.

182

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 183/381

Sekwencery

    I    l .    9    6 .    S   e    k   w   e   n   c   e   r

   c   y    f   r   o   w   y    S   y   n   t    h    i    2    5    6

183

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 184/381

Studio analogowe (sterowane napięciem)

Najprostsze użycie sekwencera polegało na „zagraniu” na klawiaturze określo-nej „melodii” i zarejestrowaniu jej przebiegu — wysokościowego, dynamicznegoi rytmicznego w jednej z warstw pamięci, w celu jej późniejszego odtworzenia.Notabene sekwencer Synthi 256 pozwalał na rejestrowanie zdarzeń w trzech war-

stwach. Do odtwarzania takiej 3-głosowej sekwencji konieczne było oczywiścieprzyłączenie wyjść trzech warstw napięć sterujących z sekwencera do wejść steru- jących trzech urządzeń generujących i kształtujących dźwięk. Takie sekwencyjneodtwarzanie przydawało się do tworzenia warstw ostinatowych i innych powta-rzalnych, ponieważ sekwencery pozwalały na powtórne rozpoczynanie sekwencjiw dowolnym momencie lub automatyczne tworzenie pętli. Innym użytecznymzastosowaniem było rejestrowanie sekwencji w wolniejszym tempie, a następ-nie odtwarzanie jej z prędkością, jaka wykraczałaby poza manualne możliwościnajlepszego nawet wykonawcy.

Sekwencery cyfrowo-analogowe znalazły tylko ograniczone zastosowanie

w późnym stadium techniki analogowej. Odegrały natomiast ważną rolę w roz-woju myśli technicznej. Stały się wzorem dla późniejszych sekwencerów i pro-gramów sekwencyjnych stosowanych w technice cyfrowej, o czym będzie mowaw czwartej części tej książki.

3.13. Moduły pomocnicze

Oprócz modułów podstawowych, których układy służą do generowania lubmodyfikowania sygnałów i napięć sterujących, syntezatory zawierały jeszczeróżne moduły pomocnicze służące do komutacji, przełączania, mierzenia sy-gnałów itd.

Najwięcej takich modułów znajdziemy w studyjnych syntezatorach Mooga.Będą to zwielokrotnienia gniazd, przełączniki źródeł napięciowych, przełącznikiimpulsów sterujących i napięć obwiedni, moduły tłumiąco-mieszające i moduływyjściowe. Większość z nich nie wymaga bliższego wyjaśnienia.

Moduły mieszające działają identycznie jak układ kilku tłumików i sumy na

stole mikserskim. Jednak ze względu na małe wymiary tych modułów tłumikite mają przeważnie postać pokręteł.Również p r z e mi e n n i k n a pi ę ć („Interface”, Moog moduł 961) zaliczymy

do modułów pomocniczych, chociaż modyfikuje on napięcia doprowadzone na jego wejścia.

Rozbudowany system modułów pomocniczych w studyjnych syntezatorachMooga związany jest z przyjętym przez konstruktora otwartym układem ko-mutacji, w którym wyjścia i wejścia wszystkich urządzeń mogą być łączonew dowolny sposób, jak w ręcznej centralce telefonicznej. Ten system komuta-cji spotkamy w wielu syntezatorach innych firm, np. BUCHLA, EMS, ROLAND

seria 700, ARIES Keyboard System III i wielu innych.Konstruktorzy Synthi przyjęli inny system komutacji: jako model pomocniczy

wprowadzili miniaturową krosownicę, do której szyn poziomych przyłączyli na

184

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 185/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 186/381

Studio analogowe (sterowane napięciem)

Il. 99

która wymagała przekomutowania układu i przestrojenia szeregu elementówregulacyjnych, w trakcie wykonywania utworu.

Stąd poszukiwania dalszych uproszczeń podejmowane przez niemal wszyst-kie wytwórnie syntezatorów, w których łatwość komutacji uzyskiwana jest na-wet kosztem ograniczenia ilości możliwych połączeń. Działo się to pod naci-skiem głównych odbiorców syntezatorów — muzyków rockowych, którzy trak-tując syntezator jako jeden z instrumentów klawiszowych w sytuacji koncertowejczy nagrania na żywo, nie mogli sobie pozwalać na przerwy dla przestrajaniai przekomutowywania syntezatora. Idealnym dla nich byłby instrument o wła-

snościach syntezatora, ale pozwalający się przestrajać jak organy elektroniczne.Instrument taki musiałby mieć ustawiane wcześniej „rejestry”, czyli „głosy” (ang.voices,  presets), które mogłyby być „wywoływane” naciśnięciem jednego przyci-sku. Ideał ten miał spełnić dopiero syntezator wielogłosowy typu Polymoog,którym zajmiemy się oddzielnie.

Tymczasem konstruktorzy poszli śladami Roberta Mooga i zbudowanego przezniego w roku 1970 małego syntezatora Minimoog. W różnych wytwórniach po-wstaje szereg małych syntezatorów bardzo prostych i pewnych w obsłudze, a jed-nocześnie niezbyt kosztownych. Należą do nich m.in. ARP Odyssey, Roland 101,Yamaha CS-10, Korg 800 CV.

Zasada komutacji w tych syntezatorach jest uproszczona do minimum. Istniejew każdym z nich jeden ustalony przez konstruktora układ zasadniczy, wykorzy-stujący wszystkie urządzenia zawarte w danym syntezatorze. Zestaw przełącz-ników i regulatorów pozwala na korzystanie z całego układu lub tylko z jegoczęści, jednakże z pominięciem pewnych w danym momencie nieprzydatnychurządzeń.

Wszystkie zmiany w układzie następują albo przez zamykanie jednych poten-cjometrów, a otwieraniu drugich, albo przez ustawianie odpowiednich przełącz-ników, które służą do wybierania jednego z kilku możliwych połączeń. Gniazda

i kable zewnętrzne potrzebne są tylko do wyprowadzania sygnału końcowegona zewnątrz i do wprowadzania sygnałów zewnętrznych na syntezator. Ilośćmożliwych kombinacji jest tu oczywiście mniejsza niż w syntezatorach z otwar-

186

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 187/381

Moduły pomocnicze

tym układem komutacyjnym, ale i tak wachlarz możliwości, jakie pozostają dodyspozycji użytkownika, jest bardzo urozmaicony.

Producenci syntezatorów używający z reguły nomenklatury angielskiej dzieliliswoje wyroby na:

1. mo du l a r s yn th e s i z e r s — systemy z wymiennymi modułami; były to naogół duże syntezatory studyjne (Moog 35, ARP-2500, Polyfusion, Aries KeyboardSystem III);

2. quasi-modular synthesizers — syntezatory z modułami umieszczonymina stałe, ale o swobodnym dostępie do każdego modułu; były to na ogół synteza-tory uniwersalne o niewielkich rozmiarach (Synthi AKS, ARP-2600, Roland 100);

3. hard-wired synthesizers (o stałym okablowaniu) — syntezatory prze-znaczone przede wszystkim dla muzyki rozrywkowej (Minimoog, ARP Odyssey,Korg Sigma); należały do nich również tzw. syntezatory polifoniczne, które omó-wione zostaną w następnym rozdziale.

3.13.1. Generator specjalny (Voltage Processor)

Wśród modułów pomocniczych spotkać można urządzenia, które normal-nie umieszczane są w stołach mikserskich, jak urządzenia do panoramowa-

nia sygnału, ograniczniki amplitudy, kom-presory i ekspandery. Przykładem może

Il. 100. Control Voltage Processor firmy BUCHLA

 być moduł „Voltage Processor” w synteza-

torach Korg 3200 (3300) zawierający dwapodwójne ograniczniki amplitudy. Zresztątermin   Voltage Processor   (można to tłu-maczyć jako: urządzenie do przekształ-cania napięć) nie jest jednoznaczny. Nie-którzy producenci obejmują nim równieżmieszacze sygnałów, modulatory, a nawetwzmacniacze sterowane napięciem (ARP),inni ograniczają zakres tego terminu dourządzeń wprowadzających zmiany do na-pięć sterujących. Tu przykładem niech bę-dzie „Voltage Processor” w syntezatorzeBuchla EMS (il. 100).

187

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 188/381

Studio analogowe (sterowane napięciem)

3.13.2. Odwracanie napięć i „obcinanie” (clipping)

Układy odwracające napięcie nie stanowią osobnych modułów w syntezato-rach. W niektórych odwrócone napięcie dostępne jest od razu na wyjściu pew-

nych modułów, np. generator obwiedni ARP-a (moduł 1003a) daje do wyborunapięcie obwiedni wprost lub odwrócone (il. 101). W innych syntezatorach od-wrócone napięcie może być uzyskane ze specjalnych gniazd, np. w Synthi AKSz gniazd „Control Outputs” lub „Scope”, w jeszcze innych dostępne jest poprzełączeniu odpowiedniego przełącznika oznaczonego słownie „inverte” albo„reverse” (Korg PS 3300).

Il. 101

Odwrócenie biegunowe napięcia ma duże znaczenie dla sygnałów podaku-stycznych traktowanych jako napięcia sterujące. Korzystanie z tego samego na-pięcia, np. o kształcie piłowym, raz wprost, a raz odwróconego do sterowaniaczęstotliwością dwóch generatorów, da w efekcie glissanda w przeciwstawnych

kierunkach. Sterowanie dwóch wzmacniaczy, na które podano ten sam sygnałfoniczny, jednego napięciem sinusoidalnym, a drugiego tym samym napięciemodwróconym, da w efekcie sterowane napięciem panoramowanie sygnału, po-nieważ w okresach, kiedy jeden wzmacniacz będzie wzmacniał sygnał, drugi

 będzie go tłumił i na odwrót.Odwracanie napięcia może być jednak użyteczne również w stosunku do

sygnałów fonicznych. Dla sygnałów okresowych odwrócenie napięcia równo-znaczne jest z przesunięciem fazowym o 180◦. Sygnał wprost i ten sam sygnałodwrócony przy sumowaniu znoszą się wzajemnie dając na wyjściu napięcie

zerowe. Jeżeli jednak na jedno wejście urządzenia mieszającego podamy sygnałpiłowy, a na drugie sygnał prostokątny tego samego generatora, ale odwrócony biegunowo, to przy wyrównanych poziomach obu generatorów w sygnale zsu-mowanym zniosą się składowe nieparzyste, bowiem tylko takie zawierał sygnałprostokątny, a z sygnału piłowego pozostaną tylko składowe parzyste. W ten spo-sób bez modulatora kołowego przez proste dodawanie uzyska się przesunięciewidma sygnału prostokątnego o częstotliwość równą częstotliwości podstawowejgenerowanego sygnału.

Innym procesem wpływającym na barwę jest „obcinanie” szczytów sygnałuelektrycznego (ang. clipping). Jest to pewien rodzaj zniekształcenia nieliniowego,

które występuje w wielu urządzeniach elektroakustycznych, kiedy poziom sy-gnału przekracza pewien właściwy dla danego urządzenia próg, co się określapotocznie jako pr z e s te r owa n i e. W nagraniach fonograficznych przesterowanie

188

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 189/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 190/381

Studio analogowe (sterowane napięciem)

umieszczanych w różnych modułach syntezatora (np. w klawiaturze napięcio-wej). W dużym modelu studyjnym Synthi 100 wydzielony został osobny mo-duł „Slew Limiter” zawierający trzy niezależnie działające ograniczniki zbocza,w których czas „poślizgu” może być regulowany ręcznie lub napięciowo.

W odniesieniu do sygnałów fonicznych ogranicznik zbocza daje efekt zbliżonydo korektora o stałym tłumieniu dolnoprzepustowym.

3.13.4. Moduły pogłosowe

W ramach syntezatorów umieszczane bywają również m od uł y po gł os ow e.Są one najczęściej oparte o układ sprężyn (Synthi, Buchla). Ze względu na małerozmiary ich możliwości są ograniczone. Dlatego w studiu korzysta się raczejz profesjonalnych urządzeń zewnętrznych (płyta, magnetofon pogłosowy, pogłos

cyfrowy). Tym niemniej wewnętrzne urządzenia pogłosowe oddają niemałe przy-sługi zwłaszcza w muzyce elektronicznej na żywo, kiedy dostęp do zewnętrznychurządzeń jest utrudniony.

Niektóre firmy próbowały bardziej zintegrować moduły pogłosowe z resztąmodułów syntezatora. w modułach Synthi czas pogłosu sprężyny jest stały, alestosunek sygnału wprost i po pogłosie (zmiana tego stosunku daje złudzeniekrótszego lub dłuższego czasu pogłosu) może być regulowany zarówno ręcznie,

 jak i napięciem wprowadzanym na szynę „reverb mix” (il. 98, s. 186). Pozwalato traktować pogłos jako jeden z elementów sterowanych napięciem.

3.14. Polymoog i inne syntezatory polifoniczne

 Jeśli syntezatory zaczęły szybko przyjmować się w „zelektronizowanych” ze-społach rockowych i rozrywkowych, to przede wszystkim dzięki temu, że można

 było posługiwać się nimi na żywo i grać na nich w sposób podobny jak na or-ganach elektrycznych. W zespołach takich zazwyczaj jeden muzyk, specjalista

od instrumentów klawiszowych, grał na przemian na pianinie Fendera, na or-ganach elektrycznych i na małym syntezatorze traktowanym jako rozszerzeniemożliwości organów. Niedogodnością było jednak to, że wczesne syntezatory,oferujące urozmaicony repertuar dźwięków i efektów dźwiękowych, z punktuwidzenia użytkownika były instrumentami jednogłosowymi, a co najwyżej dwu-głosowymi, i to w zakresie bardzo ograniczonym. Nieraz więc można było ob-serwować muzyka grającego prawą ręką solową partię na syntezatorze, a lewąpotrzebne mu w tym czasie akordy na organach.

Skonstruowany w połowie lat siedemdziesiątych Polymoog wychodził naprze-ciw potrzebom muzyków rozrywkowych. Pozwalał na wykonywanie na jednej

klawiaturze struktur polifonicznych i akordowych, jak na organach elektronicz-nych, bez rezygnowania z możliwości indywidualnego kształtowania dźwiękóww sposób właściwy dla syntezatorów. Miał pewne ustalone przez konstruktora

190

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 191/381

Polymoog i inne syntezatory polifoniczne

gotowe rejestry (jakby organowe) oraz część syntezatorową, w której wszystkieparametry dźwięku były ustawiane przez użytkownika. Polymoog to jakby dwainstrumenty w jednym. W sumie jednak jego koncepcja bliższa była nowocze-snym organom elektronicznym niż typowemu syntezatorowi.

Il. 104. Polymoog

W wielkim skrócie koncepcja ta jest następująca:

1. źródłem dźwięku są dwa generatory kwarcowe pracujące w zakresie po-nadakustycznym (częstotliwości rzędu megaherców). Jeden z nich produkuje sy-gnał o przebiegu piłowym, drugi o przebiegu prostokątnym. Normalnie gene-ratory te zestrojone są w unisonie i sprzężone synchronicznie w fazie. Możliwe

 jest jednak ich „rozstrojenie”, np. dla uzyskania tzw. „efektu chóralnego” (ang.chorus effect) poprzez modulację fazy.

2. Zsumowany sygnał z obu generatorów (proporcje mogą być regulowaneaż do wyłączenia jednego z generatorów) wchodzi na dzielniki częstotliwości.Najpierw są to dzielniki „chromatyczne”, dające półtonową skalę temperowaną

w ramach jednej oktawy, a potem dzielniki oktawowe, transponujące sygnał o od-powiednią ilość oktaw w dół. Naciśnięcie każdego klawisza prowadzi sygnałna wyjście poprzez odpowiadające temu klawiszowi dzielniki. Przy naciśnięciukilku klawiszy jednocześnie włącza się tyle torów, ile naciśnięto klawiszy, a sy-gnały po dzielnikach odpowiadających tym torom sumują się na wyjściu. Takwięc, patrząc od strony użytkownika, źródeł dźwięku jest tyle, ile klawiszy naklawiaturze. To jakby w pionie (il. 105, s. 192). W poziomie znajdują się zwielo-krotnione urządzenia modyfikujące dźwięk: filtry, generatory obwiedni, wzmac-niacze VCA, układy modulujące itd., których regulacje działają na wszystkieurządzenia danego typu jednocześnie (przed lub po dzielnikach).

3. Klawiatura Polymooga jest 6-oktawowa (skala od  E  do   e4). Wybranie kla-wisza nie przestraja generatora, jak to miało miejsce w klawiaturze napięcio-wej znanej nam z poprzednich rozdziałów, lecz włącza obwód z odpowiednimi

191

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 192/381

Studio analogowe (sterowane napięciem)

Il. 105

192

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 193/381

Polymoog i inne syntezatory polifoniczne

dzielnikami napięcia (system przejęty z organów elektronicznych). Ponadto na-ciśnięcie każdego klawisza wyzwala osobny układ obwiedni i przesyła napię-cie „dynamiczne”, zależne od szybkości zaatakowania klawisza do odpowied-niego wzmacniacza VCA. Włączanie klawiszami niezależnych źródeł, niezależ-

nych układów obwiedni i niezależnych wzmacniaczy pozwala nie tylko na gręakordową, ale i na prawdziwą grę polifoniczną (il. 105, s. 192).4. Istnieje osiem przygotowanych przez konstruktora gotowych układów filtra-

cji, modulacji i obwiedni zwanych „modes” lub „voices” (głosy), które włączanesą przyciskami z numerami 1–8. Włączenie przycisku działa na obszarze ca-łej klawiatury podobnie jak włączenie rejestru na organach. Gotowe „głosy” nienaśladują instrumentów orkiestry, lecz są rejestrami elektronicznymi odpowiada-

 jącymi typowym brzmieniom muzyki rozrywkowej i przypominają odpowiednierejestry organów elektronicznych.

5. Każdy z gotowych „głosów” może być modyfikowany indywidualnie przezużytkownika (służą do tego przyciski „variable” przy regulatorach poszczegól-nych urządzeń). Możliwe są:

a) zmiana kształtu generowanego sygnału (proporcja prostokąta do piły, wpro-wadzenia modulacji częstotliwości lub fazy),

 b) zmiana sposobu filtrowania (również rezygnacja z wszelkiego filtrowania),dodanie lub zmniejszenie wzbudzenia rezonansowego filtrów itd.,

c) ręczne zadysponowanie kształtu obwiedni ADSR,d) zmiana rejestru oktawowego całej klawiatury (lub jej części) na 4- lub 16-

-stopowy.

Parametry, które w danym „głosie” zostały zmodyfikowane, mogą zostać za-pamiętane (naciśnięcie przycisku z kropką) i potem przywołane (naciśnięciemponownie przycisku z danym „głosem”).

6. Włączenie przycisku numer 9 ustawia cały instrument w pozycji „variable”.Wszystkie gotowe rejestry zostają wyłączone i użytkownik ustawia swój własny„głos”, mając do dyspozycji cały szereg potencjometrów umieszczonych nad kla-wiaturą. Oczywiście ustalone barwy i kształty dynamiczne będą takie same dladźwięków osiąganych na całym obszarze klawiatury (w niektórych przypadkachmogą być różne dla każdej z trzech par oktaw).

7. Częstotliwość tonów podstawowych (tak jak i czas) jest w rękach muzyka„grającego” na klawiaturze. Zmiany wysokości dźwięków następują zgodniez ustaloną przez układ dzielników 12-półtonową skalą chromatyczną i interwałutego nie można zmienić. Jednak dzięki umieszczonej nad klawiaturą wstędze ste-rującej możliwe jest wprowadzenie efektów  vibrato, glissando, portamento, a takżealterowanie wysokości poza skalę temperowaną. Również generatory główne(master oscillators) mogą być w niewielkim zakresie przestrajane, co pozwala do-stroić Polymooga do kamertonu lub do stroju używanego aktualnie przez inneinstrumenty na estradzie.

Tak więc Polymoog działa na trzy sposoby:

1. jako organy elektroniczne (głosy 1–8 nie modyfikowane),2. jako organy z indywidualnie modyfikowanym dźwiękiem (głosy 1–8) i przy-

ciski „variable” dla zmienianych parametrów),

19313 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 194/381

Studio analogowe (sterowane napięciem)

3. jako syntezator wielogłosowy (głos 9, który stawia wszystkie parametryz wyjątkiem częstotliwości w pozycji „variable”).

Polymoog jako syntezator ma jednak ograniczone możliwości działania. Ope-ruje tylko dwoma podstawowymi kształtami drgań, brak mu generatora sygna-

łów sinusoidalnych i trójkątnych, brak generatora szumów, brak generatora im-pulsów i możliwości operowania zakresem podakustycznym.Posiada jednak nad syntezatorami monofonicznymi jedną niezaprzeczalną

przewagę — pozwala na grę akordową i polifoniczną. Ma to pierwszorzędneznaczenie we wszelkich działaniach na żywo, kiedy syntezator traktuje się nie

 jako zminiaturyzowane studio muzyki elektronicznej, ale jako klawiszowy in-strument muzyczny.

Il. 106. Polymoog — tablica „głosów” i fragment układów regulacjnych

Zgodnie z przewidywaniami konstruktorów Polymoog znalazł swoje miejscew muzyce rozrywkowej. Jego zastosowanie w poważnie traktowanej live electronic

i w studiu syntezatorowym jest dosyć ograniczone. Może być jednak bardzoużyteczny do uzyskiwania gęstych klasterów dźwiękowych, w których dźwiękiskładowe mają mieć taką samą charakterystykę brzmienia, ale niekoniecznie tensam czas.

 Jednak dla rozwoju tej specyficznej gałęzi muzyki elektronicznej, jaką jest elek-troniczna muzyka rozrywkowa, istotną okazała się nie tyle konkretna realizacja,ile sama idea stworzenia nowego instrumentu klawiszowego o cechach zarazemi organów, i syntezatora. Wkrótce podobne „syntezatory polifoniczne” zaczęływypuszczać inne firmy specjalizujące się w instrumentach elektronicznych, głów-

nie japońskie.W końcu lat siedemdziesiątych wydawało się, że analogowe syntezatory po-lifoniczne, coraz bardziej rozbudowywane i przystosowywane do potrzeb kon-certujących muzyków rozrywkowych, opanują na długie lata rynek w tej dzie-dzinie. Rzeczywistość okazała się jednak mało łaskawa dla konstruktorów tychurządzeń. Na początku lat osiemdziesiątych pojawiły się syntezatory cyfrowe,które w ciągu krótkiego czasu zupełnie wyparły z rynku syntezatory analo-gowe. Precyzja, absolutna powtarzalność wszystkich układów, a nadto ułatwionawspółpraca z komputerem, systemem MIDI, programami sekwencyjnymi, pro-gramami pozwalającymi na drukowanie nut itd., dały syntezatorom cyfrowym

niekwestionowaną przewagę nad ich analogowymi poprzednikami. Trzeba jed-nak przyznać, że wiele pomysłów wykorzystanych w syntezatorach polifonicz-nych tamtej generacji znalazło natychmiast swoje zastosowanie w syntezatorach

194

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 195/381

Technika syntezatorowa

cyfrowych. Takimi były np.  presety   (układy zaprogramowane wcześniej przezproducenta; zapamiętywanie układów i wywoływanie ich jednym naciśnięciemprzycisku; zastosowanie pamięci magnetycznej na wymiennych kasetkach itd.)Syntezatory analogowe, a w szczególności syntezatory polifoniczne były więc

ważnym ogniwem pomiędzy manualną techniką studia klasycznego a nowocze-snym systemem cyfrowym, opartym o układy sterowane komputerowo.

3.15. Technika syntezatorowa

Wprowadzenie syntezatorów do muzyki elektronicznej przyniosło szereg wi-docznych korzyści. Pierwszą z nich było wyeliminowanie lub przynajmniejznaczne złagodzenie uciążliwości wynikających ze stosowania pracochłonnejtechnologii właściwej dla studia klasycznego. Przypomnijmy, że podstawą tejtechnologii było:

1. tworzenie lub wyodrębnianie z otoczenia pojedynczych dźwięków (przed-miotów dźwiękowych) i rejestrowanie ich na taśmie magnetofonowej,

2. kilkustopniowe przetwarzanie nagranych dźwięków połączone z kolejnymiprzegraniami,

3. łączenie pojedynczych dźwięków w sekwencji za pomocą montażu odcin-ków taśmy magnetofonowej,

4. tworzenie struktur wielowarstwowych przez zgrywanie zmontowanych se-

kwencji (warstw) w jedną całość.Większość tych czynności, a zwłaszcza montaż i przygotowanie taśm do prze-

grywania i zgrywania zabierały ogromną ilość czasu. Dołączały się do tego:kłopotliwa w wielu przypadkach komutacja i konieczność dostrajania urządzeńo różnych parametrach wejścia i wyjścia. Wielokrotne przegrywanie i zgrywaniewpływały niekorzystnie na jakość produktu końcowego.

Przy użyciu syntezatora wiele z tych czynności można było ominąć, inne upro-ścić. Komutacja dostępna w ramach samego syntezatora pozwalała na wielostop-niowe kształtowanie zdarzenia dźwiękowego bez potrzeby nagrywania produk-

tów przejściowych na taśmę. Sterowanie urządzeń napięciami z klawiatury lubinnych źródeł napięciowych czyniło montaż pojedynczych dźwięków zbędnym.Ponadto sekwencję złożoną z szeregu zdarzeń dźwiękowych można było terazsprawdzać słuchowo jeszcze przed jej nagraniem i w razie potrzeby korygowaćposzczególne stopnie przekształceń, a także stosunki wysokościowe i czasowetworzących je elementów.

W ten sposób praca, która zajmowała przedtem dnie i tygodnie, dawała sięteraz wykonać w ciągu minut i godzin; przy tym efekt końcowy był technicz-nie lepszy, gdyż nie obarczony szumami i zniekształceniami powstającymi przywielokrotnym przegrywaniu.

Drugą i chyba ważniejszą korzyścią, jaką dawało wprowadzenie syntezatorado studia, było uzyskanie nowych możliwości produkowania dźwięków. Kla-wiatura napięciowa i łatwość sterowania jednych modułów napięciem z drugich

19513∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 196/381

Studio analogowe (sterowane napięciem)

pozwoliły nie tylko na przyspieszenie prac planowanych w trybie dotychcza-sowym, ale umożliwiły tworzenie struktur i sekwencji dźwiękowych w czasierealnym, co stanowiło zupełny przewrót w sposobie pracy kompozytora mu-zyki na taśmie. Sekwencje muzyczne, które dotąd trzeba było sklejać, można

 było teraz przepróbowywać, zapamiętywać lub nawet notować w pewien spo-sób, a następnie odtwarzać w czasie równym ich czasowi trwania. Co więcej,możliwe stały się działania spontaniczne polegające na improwizowaniu pew-nych przebiegów na klawiaturze i regulatorach, lub nakładanie, np. przy uży-ciu magnetofonu wielośladowego, przebiegów improwizowanych na fragmentyuprzednio zarejestrowane. We wszystkich tych przypadkach syntezator przyj-mował rolę instrumentu muzycznego, i to instrumentu bardzo wielostronnego,który pozwalał na wykonywanie zróżnicowanych zadań: tworzenie tradycyjnychstruktur muzycznych, jakby naśladujących grę na znanych instrumentach mu-zycznych, tworzenie nowych jakości dźwiękowych powstałych z przekształcaniadźwięków tradycyjnych i wreszcie tworzenie dźwięków i struktur dźwiękowychwłaściwych tylko muzyce elektronicznej.

Kształtowanie struktur elektronicznych w czasie realnym wprowadziło ważnyczynnik ludzki do tworzonej muzyki. Zamiast mierzenia taśmy centymetrem ar-tysta mógł teraz, jak na instrumencie, kształtować przebiegi rytmiczne zgodniez własnym poczuciem czasu muzycznego, stosować drobne zachwiania równo-mierności, wprowadzać tempo rubato, a także wpływać w sposób spontanicznyna kształt dynamiczny tworzonych struktur.

Nie trzeba dodawać, że te właściwości syntezatora przyczyniły się walnie do

wyjścia z muzyką elektroniczną poza studio i to zarówno w muzyce rozrywko-wej, jak i w różnych typach  live electronic.Zupełnie nowe możliwości kształtowania struktur dźwiękowych otworzyła

przed kompozytorami możliwość uzyskiwania napięć przypadkowych o regu-lowanym zakresie zmienności. Sterowanie takimi napięciami urządzeń wytwa-rzających i przekształcających dźwięki pozwoliło na tworzenie struktur aleato-rycznych o różnym stopniu zagęszczenia i rozpiętości — od gęstych „chmurdźwiękowych” wchodzących w sferę mikrostruktury dźwięku, poprzez struk-tury aleatoryczne właściwe muzyce instrumentalnej, aż do tworów o wyraźnierozróżnialnym rysunku melorytmicznym. W pewnych układach i przy staranniedobranych zakresach zmienności dawało to możliwość „automatycznego kompo-nowania” sekwencji dźwiękowych, tworzenia ich jakby bez udziału kompozytora,to znaczy bez konieczności decydowania przez niego o wartościach parametrówposzczególnych stopni sekwencji.

I wreszcie sekwencer, produkt rozwiniętej techniki syntezatorowej, pozwoliłna rejestrowanie ciągów zdarzeń dźwiękowych bez konieczności zapisywaniaich na taśmie magnetofonowej. Zastępowało to z jednej strony klasyczną pę-tlę taśmy, a z drugiej strony otwierało nowe możliwości wytwarzania strukturwielowarstwowych.

Nie wszystkie operacje właściwe dla techniki klasycznej dawały się zastąpićdziałaniami na syntezatorze. Jeżeli produkt końcowy miał mieć postać nagraniana taśmie, to nadal konieczny był przynajmniej montaż porządkujący. Spośród

196

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 197/381

Technika syntezatorowa

wielu wersji jednego fragmentu trzeba było wybrać najlepszą lub zmontowaćwersję z fragmentów kilku nagrań. Przy tworzeniu struktur wielowarstwowychnie zawsze wystarczało kanałów, a czasem po prostu rąk do uzyskania kom-pletnej struktury za jednym razem i, jak w dawnej technice klasycznej, trzeba

 było przygotowywać najpierw pojedyncze warstwy, a potem je zgrywać, zapew-niając uprzednio wzajemną synchronizację. Wielce pomocne okazały się w tymmagnetofony wielośladowe, pozwalające na wgrywanie na ten sam odcinek ta-śmy kolejnych warstw przygotowywanej struktury. Korzystanie z magnetofonuwielośladowego, oprócz pewności w utrzymywaniu raz uzyskanego synchronu,dawało też lepszą jakość techniczną. Wieloślady wyposażone były już wówczasw nowoczesne systemy redukcji szumów i nawet kilkakrotne przegrywanie sy-gnału nie dawało w tych warunkach słyszalnego wzrostu zakłóceń.

3.15.1. Syntezator w studiu

Przestudiowanie tego rozdziału pozwoli nam może lepiej zrozumieć różnekoncepcje „instrumentalne”, jakie zastosowano później w dobie syntezatorówcyfrowych i stwierdzić, że są one właściwie nadal aktualne, ponieważ samo my-ślenie muzyczne nie jest zależne od aparatury, jaką się dysponuje, ale jest w jakiśsposób zdeterminowane uprzednimi doświadczeniami. I właśnie te doświadcze-nia z aparaturą analogową wywarły ogromny wpływ na powstanie koncepcjielektronicznej muzyki cyfrowej, korzystania z syntezatorów cyfrowych i progra-mów sekwencyjnych. Przenieśmy się jednak na chwilę w lata siedemdziesiąte

i zobaczmy jak funkcjonuje ówczesne analogowe studio syntezatorowe.Duży syntezator studyjny, taki jak Synthi 100, Polyfusion lub Roland 700, jest

urządzeniem na tyle kompleksowym, że może właściwie zastąpić całe studiomuzyki elektronicznej. Spełnia on niemal wszystkie funkcje potrzebne kompo-zytorowi do produkowania i przekształcania dźwięków, pozwala na tworzeniemuzyki w czasie realnym, a w pewnych przypadkach również na rejestrowanieciągów zdarzeń dźwiękowych. Czego mu brak?

Po pierwsze tego, co w studiu klasycznym dawała rozwinięta technika ma-gnetofonowa, po drugie pewnych urządzeń specjalnych. Technika nagrań wielo-

śladowych daje wprawdzie możliwość kolejnego dogrywania nawet kilkunastuwarstw, ale i teraz w studiu, w którym znalazł się syntezator, zachodzi nierazpotrzeba zgrywania z kilku taśm. Dlatego w nowoczesnym studiu syntezatoro-wym instaluje się zazwyczaj jeden lub dwa magnetofony wielośladowe, np. jedenszesnastoślad i jeden ośmioślad, a obok nich kilka magnetofonów stereofonicz-nych dwuśladowych, na których rejestruje się materiały przejściowe wymagającemontażu za pomocą nożyczek i taśmy klejącej.

Urządzenia specjalne, o których wspomnieliśmy, to znane nam ze studia kla-sycznego i z muzycznego studia nagraniowego ostro tnące filtry wielopasmowe,korektory, urządzenia pogłosowe, urządzenia opóźniające, przyrządy pomia-

rowe, a także drobne urządzenia pomocnicze, umieszczane albo w stole mik-serskim (limitery, ekspandery, mierniki wysterowania), albo w magnetofonach(systemy redukcji szumów).

197

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 198/381

Studio analogowe (sterowane napięciem)

Mimo rozbudowanego własnego układu krosowniczego i dużego zakresu re-gulacji w ramach samego syntezatora, studio nie może się obejść bez konsoletymikserskiej i studyjnego pola krzyżowego ułatwiającego komutację syntezatoraz konsoletą, z magnetofonami i z urządzeniami dodatkowymi.

Stół mikserski nie zajmuje już jednak centralnej pozycji w układzie studia. Jego miejsce zajmuje teraz syntezator. Wokół niego gromadzą się urządzenia ze-wnętrzne — linie mikrofonowe, dodatkowe źródła sygnałów i napięć sterujących,studyjne urządzenia przekształcające (filtry, urządzenia pogłosowe itd.). Stół mik-serski wraz z krosownicą stanowi tylko element łączący syntezator i zgrupowanewokół niego urządzenia dodatkowe z magnetofonami i kontrolnymi urządze-niami odsłuchowymi. Ilustracja 107 przedstawia schemat ogólny studia synteza-torowego. Połączenia między urządzeniami i grupami urządzeń zostały na nimprzedstawione jako „drogi” ze strzałkami w jednym albo w obu kierunkach. Sąto z reguły połączenia wielokanałowe przenoszące w jedną lub w obie stronycały pakiet informacji równolegle. Dla większej przejrzystości pominięto w tymschemacie krosownicę.

Il. 107

Ilość połączeń i kombinacji możliwych do uzyskania w ramach jednego synte-zatora wyraża się w dziesiątkach i setkach tysięcy. Praktycznie żaden użytkow-nik, nawet w ciągu wielu lat intensywnego eksperymentowania, nie będzie w sta-nie przepróbować wszystkiego, co potencjalnie jest możliwe, bo nawet w tym sa-mym układzie komutacyjnym niewielkie zmiany wartości parametrów poszcze-gólnych urządzeń dać mogą zupełnie odmienny efekt dźwiękowy. Trzeba jednakzdawać sobie sprawę z tego, że zakres możliwości każdego syntezatora, chociaż

ogromny i trudny do objęcia, jest jednak ograniczony, choćby jego konstrukcjąi właściwościami materiału wyjściowego. Istnieją zatem kategorie dźwięków, któ-rych wyprodukować się na nim nie da. Niektóre z nich można jednak uzyskać ze

198

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 199/381

Technika syntezatorowa

źródeł akustycznych. Kompozytorowi pozostaje wówczas nagranie mikrofonowei ewentualne skorzystanie z syntezatora jako urządzenia przekształcającego.

Do sięgania po źródła akustyczne skłania kompozytora nie tylko absolutnaniemożność uzyskania pewnych kategorii dźwiękowych w sposób syntetyczny,

ale i względy praktyczne: chęć wprowadzenia żywego wykonawcy, instrumenta-listy lub wokalisty, na estradę albo po prostu większa łatwość wyprodukowaniapewnych dźwięków przez przekształcanie niż przez syntezę.

Drugim ograniczeniem jest wyobraźnia kompozytora, dość mocno związanaz tradycyjnymi pojęciami dźwięku muzycznego czy nawet dźwięku „elek-tronicznego”, i dosyć wolno się z tych przyzwyczajeń wyzwalająca. Mówiąco dźwięku „elektronicznym” myślimy o pewnych stereotypach, które wytwo-rzyły się w świadomości muzyków i słuchaczy przez obcowanie z dotychczaspowstałą muzyką elektroniczną, szczególnie z muzyką nie najwyższych lotów,operującą dźwiękiem mało wyszukanym, jak to ma miejsce w muzyce rockowej,

ilustracyjnej muzyce filmowej itp.Tym niemniej do tych właśnie stereotypów będziemy musieli nawiązać, aby

mieć jakiś punkt wyjścia dla dalszych poszukiwań. Dają one bowiem przeglądkierunków myślenia, właściwych dla muzyki elektronicznej tworzonej za pomocąsyntezatorów. Z myślą o tych stereotypach działali również konstruktorzy, wy-chodząc w ten sposób naprzeciw oczekiwaniom większości potencjalnych użyt-kowników tych urządzeń.

Spróbujmy wyodrębnić kilka takich stereotypów. Każdy z nich będzie przeja-wem określonego sposobu myślenia, wyrazem tego, czego kompozytor oczekuje

od danej mu do dyspozycji aparatury, tego, co podsuwa mu jego wyobraźniadźwiękowa. Będzie odbiciem stosunku artysty do wielofunkcyjnego narzędzia, jakim jest syntezator.

3.15.2. Różne podejścia do syntezy

Typ I — myślenie inst rume ntal ne

Najczęściej spotykanym jest traktowanie syntezatora jako instrumentu muzycz-

nego. Mamy tu do czynienia z innym typem myślenia niż przy komponowa-niu „klasycznej” muzyki na taśmę, bliższym raczej temu, jaki występuje przykomponowaniu utworu instrumentalnego. Kompozytor 4 myśli tu o określonych

 barwach, sposobach artykulacji, frazach melodycznych, strukturach akordowychi polifonicznych. Każdy układ komutacyjny i ustawienie regulatorów traktuje jakogłos instrumentalny, posiadający określone, właściwe jemu cechy stałe: barwęi artykulację, i zmienne: wysokość i dynamikę. Artykulacja w ramach danegogłosu może również wykazywać pewną zmienność, np. w postaci różnych cza-sów trwania lub w postaci różnych sposobów łączenia dźwięków. Zmienną też

4 Używamy tu terminu „kompozytor”, gdyż jest on najczęściej użytkownikiem syntezatora, alewszystko, co tu napisano, dotyczy w równej mierze muzyka-wykonawcy i realizatora dźwięku w stu-diu elektronicznym.

199

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 200/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 201/381

Technika syntezatorowa

Il. 108

ciową. Jednak dla poszerzenia skali możliwych do uzyskania barw i większego„urealnienia” dźwięku, to znaczy zbliżenia jego kompleksowości do złożonej na-tury dźwięków instrumentów akustycznych, układ ten bywa poszerzany o dalszeurządzenia formujące i przekształcające: a więc generator drugi, spełniający rolęgeneratora modulującego Gmo, czasem jeszcze o modulator kołowy RM, o drugifiltr  F2   i urządzenie pogłosowe  P. Domieszkę szumów barwnych, nieodzownądla charakterystyki brzmienia niektórych instrumentów, zapewnia zestaw: ge-

nerator szumu  Gsz   i filtr pasmowy  F3. Drogę dodatkowych napięć sterującychi alternatywną drogę sygnałów fonicznych, które notabene mogą być sumowanew dowolnej proporcji z sygnałem głównym, znaczą linie przerywane.

Rola klawiatury jest tu wyraźna. Napięcie  S przestraja skokowo częstotliwośćgeneratora   Gs   i równolegle częstotliwość graniczną filtru   F1   (możliwe jest teżrozgałęzienie powodujące sterowanie tym napięciem również generatora   Gmo

i filtru  F2). Napięcie w wyzwala kolejne cykle obwiedni i ustala dla każdegodźwięku (lub grupy dźwięków) czas otwarcia bramki. I wreszcie napięcie   D(pamiętajmy, że występuje ono tylko w niektórych klawiaturach napięciowych)

wchodzi na wejście sterujące wzmacniacza WZM, gdzie sumowane jest z na-pięciem obwiedni, i ustala szczytowy poziom amplitudy kolejnych „nut”. Dlawiększej przejrzystości schematu na il. 108 pominięto ręczne regulacje genera-torów, filtrów i wzmacniacza. Odgrywają one jednak w tym układzie, jak tozobaczymy dalej, istotną rolę.

Zanim muzyk przystąpi do grania na klawiaturze, musi przygotować swój„głos”, nadać mu cechy swoistego instrumentu. Skalę wysokościową ustali przezustawienie zakresu napięcia wyjściowego S  z klawiatury. Będzie to skala równo-interwałowa, niekoniecznie wynikająca z podziału oktawy na 12 równych części,ale w przypadku, kiedy syntezator ma współpracować z innymi instrumentami

muzycznymi, skala 12-półtonowa będzie preferowana. Potem dostroi tę skalęprzez ustawienie średniej częstotliwości samego generatora Gs. Typowym będziedostrojenie środkowego a do częstotliwości kamertonu (440 Hz) lub którejś z jego

201

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 202/381

Studio analogowe (sterowane napięciem)

oktawowych transpozycji, ale równie dobrze może to być inna, dowolnie wybranaczęstotliwość.

Teraz następuje część operacji najistotniejsza dla osiągnięcia zamierzonej cha-rakterystyki instrumentu — poszukiwanie właściwej barwy dźwięku i specy-

ficznych dla niego cech obwiedni.Tu znajomość fizycznych właściwości brzmień instrumentów muzycznychi głosu ludzkiego okaże się bardzo przydatna, nawet wówczas, kiedy nie mamyzamiaru naśladować tych brzmień w sposób dosłowny. Trzeba jednak zdawaćsobie sprawę, w jakim kierunku prowadzone są poszukiwania. Czy celem ichsą dźwięki przypominające w jakiś sposób dźwięki skrzypiec, klarnetu, dzwon-ków orkiestrowych, kontrabasu grającego pizzicato, a może chciałoby się uzyskaćdźwięki syntetyczne, zbliżone raczej do śpiewanej samogłoski u, do bezdźwięcz-nego, ciągłego   s  lub dźwięcznej spółgłoski  b. Trzeba zdawać sobie sprawę, jakkształtuje się widmo każdego z tych dźwięków, które z harmonicznych w nimprzeważają, czy istnieją w nim formanty stałe i na jakich wysokościach, a dalej,

 jak kształtują się profile narastania i wybrzmiewania poszczególnych dźwięków,i to przy różnej ich artykulacji, np. branych w sposób miękki, zwykły lub sil-nie akcentowany. Dalej, czy dźwięki te mają domieszki szumów lub składowychnieharmonicznych, a jeżeli tak, to jakie.

Oprócz studiów podręcznikowych wskazane jest po prostu analityczne słu-chanie interesujących nas zjawisk dźwiękowych, zwracanie bacznej uwagi na ichspecyficzne, odbierane słuchem cechy „materii” i „formy” (trzymając się okre-śleń Pierre’a Schaeffera). To wszystko pozwoli nam łatwiej sprecyzować własne

wyobrażenie o brzmieniu naszego „instrumentu”.Do urzeczywistnienia tego wyobrażenia najłatwiej będzie dojść przez dwaetapy — w pierwszym dążyć będziemy do znalezienia ogólnej kategorii dźwięku,o jaki nam chodzi, w drugim będziemy pracować nad ustaleniem ostatecznej jegopostaci przez finezyjne dopracowanie barwy i profilu dynamicznego, dodaniedrobnych zmienności ożywiających elektroniczną martwość brzmienia (różnychrodzajów vibrato, portamento i innych fluktuacji wysokości barwy), wreszcie przezumiejscowienie naszego „instrumentu” w wyimaginowanej przestrzeni dźwięko-wej przez dozowanie pogłosu, filtracji i drobnych korekcji barwy.

Właściwą materię dźwięku zapewni nam:1. wybranie odpowiedniego kształtu sygnału lub odpowiedniej mieszanki, np.

sygnału prostokątnego i piłowego,2. dobranie właściwego rodzaju i stopnia modulacji (jeżeli taka jest nam po-

trzebna),3. odpowiednie filtrowanie: a) zmienne, równoległe ze zmianą wysokości,

i b) stałe, odpowiadające pasmom formantowym,4. dozowanie domieszki szumowej i jej właściwe filtrowanie, zakładając, że

taka domieszka powinna się w naszym dźwięku znajdować.Formę, czyli dynamiczny profil dźwięku, ustalimy przez precyzyjne ustawienie

cząstkowych czasów i poziomów generatora obwiedni. Dla bardziej złożonychprofilów konieczne będzie włączenie równolegle kilku generatorów obwiedni lubuzyskanie tych profilów innymi środkami, np. przez modulację amplitudy sy-

202

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 203/381

Technika syntezatorowa

gnałami podakustycznymi (włączając na przykład modulator kołowy sterowanynapięciem bramki z klawiatury).

Układ komutacyjny przedstawiony na il. 108 (s. 201) wraz z wariantami za-znaczonymi liniami przerywanymi pozwala na uzyskanie ogromnej gamy barw

i kształtów dynamicznych. Zależnie od wyboru źródeł dźwięku, skali wysoko-ściowej, rejestru, sposobu filtrowania i zadanego kształtu obwiedni, „granie” naklawiaturze wyzwalać będzie dźwięki parainstrumentalne o bardzo różnych ce-chach morfologicznych (dźwięki niby perkusyjne, szarpane, dęte, smyczkowe),zbliżone bardziej do dźwięków instrumentów akustycznych lub do idiomów ty-powo „elektronicznych”. W przypadkach skrajnych efektem tych operacji mogą

 być dźwięki nie przypominające żadnych brzmień instrumentalnych, ale „instru-mentalne” przez stałość swoich cech i skokowo-zmienną wysokość brzmienia.

Istnieje szereg wariantów tego układu podstawowego. Do sterowania częstotli-wością generatora i do wyzwalania obwiedni mogą być użyte inne źródła napię-ciowe, np. sekwencer, układ próbkująco-pamiętający, generator napięć przypad-kowych, a obwiednia może być kształtowana przez detektor obwiedni lub innysygnał podakustyczny. Zresztą źródłem sygnału może być inne źródło: generatorszumu lub filtr ze wzbudzonym układem rezonansowym. Sprawą podstawową

 jest tu zamiar kompozytora (wykonawcy). Sekwencje dźwięków osiągane z tegoukładu mają przypominać sposobem zaatakowania, wiązania i wybrzmiewaniagranie na instrumentach muzycznych.

Także   vibrato   można pozbawić mechanicznej regularności, obcej dźwiękomnaturalnym. Źródłem nieregularnego  vibrato  może być napięcie wolno-zmienne

z generatora szumu lub nisko filtrowany szum biały (częstotliwość granicznaponiżej 16Hz), jak też „zaokrąglony” przez ogranicznik zbocza sygnał z układupróbkująco-pamiętającego (Sample & Hold).

Posiadacze sekwencerów chętnie korzystają z możliwości przygotowywania natym urządzeniu sekwencji do ich późniejszego odtwarzania. Najbardziej typo-wym dla omawianego przez nas instrumentalnego traktowania syntezatora jesttworzenie krótkich sekwencji o wyraźnym rysunku melorytmicznym i reprodu-kowanie ich w cyklu wielokrotnym jako muzycznego ostinato.

Przy „instrumentalnym” korzystaniu z syntezatora w studiu duże usługi od-

daje magnetofon wielośladowy. Synchroniczne dogrywanie kolejnych „głosów”z syntezatora pozwala na tworzenie złożonych struktur polifonicznych o zróżni-cowanym charakterze poszczególnych linii melodycznych. Notabene w ten spo-sób powstawały syntezatorowe wersje słynnych utworów muzyki klasycznej (J. S.Bacha, Beethovena, Debussy’ego i in.)

Typ II — myś len ie son ory st ycz ne

Spróbujmy teraz scharakteryzować drugi typ myślenia, oddalający się od tra-dycyjnego formowania dźwięków na sposób instrumentalny czy wokalny, a skon-centrowany bardziej na samym dźwięku, na tym, co Pierre Schaeffer nazywał

„przedmiotem muzycznym”5.

5 Patrz cz. II, rozdz.: 2.10.2. Przedmioty dźwiękowe (wg P. Schaeffera).

203

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 204/381

Studio analogowe (sterowane napięciem)

Zamiarem kompozytora nie jest w tym przypadku wytworzenie złożonejz „nut” struktury muzycznej, ale uzyskanie ef e ktu dź w i ę kow e go, i to efektuzdecydowanie elektronicznego. Ten rodzaj działania zbliżony jest zatem doznanego nam z początków muzyki elektronicznej dążenia do odrealniania

dźwięków znanych. Ale tym, co ma być odrealniane, nie są teraz dźwięki instru-mentów naturalnych ani odgłosy natury, ale „instrumentalne” dźwięki elektro-niczne.

Niemożliwe byłoby ustalenie jednego schematu, ogólnie ważnego dla dźwię-ków tego typu. Damy więc kilka przykładów konkretnych realizacji i postaramysię wskazać drogi dalszych poszukiwań.

W przykładzie pierwszym, którego schemat przedstawiony jest na il. 109,mamy do czynienia z układem pozwalającym na tworzenie kompleksów dźwię-kowych, wychodzących co prawda z elementów zbliżonych naturą do „nut”, alew całości mocno odrealnionych, i — według pojęć muzyki tradycyjnej — udziw-nionych. Przyczyną tego są liczne iteracje i pokrywający wszystko nadnaturalnypogłos, na dodatek również „nienaturalnie” modulowany.

Il. 109

Materiałem jest dźwięk harmoniczny wzbogacony przez modulator kołowy(ten sam sygnał na obu wejściach). Podwójną pulsację o niewspółmiernych ryt-mach zapewniają: generator obwiedni Gob, produkujący napięcia w cyklu wielo-krotnym (ok. 2 cykli na sekundę), i generator modulujący Gmo, z którego napięciema jedną gałąź odwróconą biegunowo (symbol

−1). Dwa wzmacniacze sterowane

przeciwbieżnie dają efekt zmiennego pogłosu. Grane na klawiaturze pojedyn-cze nuty lub krótkie frazy przedzielane dłuższymi pauzami przybierają postaćprzebiegów gasnących, które „ożywiane” są każdym nowym zaatakowaniemklawisza. Tajemnicą tego efektu jest właściwe ustawienie czasów i poziomówgeneratora obwiedni tak, aby tylko sygnał wywoływany wyzwoleniem z kla-wiatury (dłuższa bramka) powodował wrażenie pełnego wysterowania sygnału.Czasy narastania i pierwszego opadania muszą być bardzo krótkie, a poziompodtrzymywania dosyć niski, tak aby bardzo krótkie zaatakowania dźwięków,wynikłe z cyklu wielokrotnego, robiły wrażenie słabszych od wywoływanych

z klawiatury.W tym samym układzie drobne zmiany poszczególnych parametrów mogą

znacznie zmienić obraz końcowy. Można sam układ jeszcze skomplikować przez

204

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 205/381

Technika syntezatorowa

dodanie innych napięć sterujących (z sekwencera, z generatora napięć przypad-kowych), przez dodatkowe filtrowanie, modulacje sygnału pierwotnego itd.

Przykład drugi (il. 110) przedstawia prosty układ do uzyskiwania pogłoso-wych efektów glissandowych o dużej rozpiętości. W wyniku szybszego lub wol-

niejszego glissandowania w urządzeniu pogłosowym powstaje przemieszczającesię szersze lub węższe pasmo nakładających się na siebie częstotliwości, co ra-zem z sumowaniem się długiego pogłosu z długim czasem zanikania wywo-łuje wrażenie dźwięku „niesamowitego” czy „pozaziemskiego”. Te określeniasą oczywiście naiwne, odwołują się jednak do znanych od dawna stereotypów.Przypomnijmy „niesamowite” efekty, używane w latach trzydziestych i czter-dziestych do ilustrowania scen filmowych, osiągane za pomocą fal Martenotai aeterophonu Theremina.

Il. 110

W układzie tym umieszczona jest klawiatura z wyjściowym obwodem  porta-

mento, ale na dobrą sprawę nie jest ona konieczna. Opisane wyżej efekty możnaosiągać i bez niej, wywołując kolejne cykle obwiedni ręcznym przyciskiem-wy-zwalaczem i ustalając skrajne punkty  glissand samym napięciem z dźwigni X-Y.

Przykład trzeci daje „receptę” na dźwięk burdonowy o stałej częstotliwości, aleo wolno zmiennej barwie. Rozwiązanie opiera się na zjawisku znanym z akustyki

 jako z du dn i e n i e dwóch dźwięków o bliskiej sobie częstotliwości. Zjawiskoto daje efekt podobny do modulacji fazy, ponieważ zdudniające się dźwiękiwystępują na przemian w tej samej fazie i w fazie przeciwnej, przechodzącprzez stadia przejściowe. Wyjaśnia to il. 111, na której przedstawione są dwa

przebiegi trójkątne o małej różnicy częstotliwości i sygnał będący sumą tychdwóch przebiegów.

Gen. 1

Gen. 2

Sygnał sumacyjny

Il. 111

205

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 206/381

Studio analogowe (sterowane napięciem)

 Jeżeli sumowanie to będzie miało bardzo długi cykl, rzędu kilku do kilkunastusekund, to przy zdudnianiu się dźwięków o stałym widmie i stałej amplitudzie(a takimi są sygnały produkowane przez generatory) z łatwością będziemy mo-gli śledzić powolne zmiany barwy, od bardzo jasnej do właściwej dla danego

kształtu sygnału. Rzut oka na kształt sygnału sumacyjnego na il. 111 (s. 205)wyjaśni nam, skąd się te zmiany biorą. Zwróćmy uwagę, że operacja ta wpro-wadza też cykliczne zmiany amplitudy sygnału sumacyjnego, a sygnały w fazieprzeciwnej znoszą się wzajemnie, co powoduje właśnie zdudnienie.

Przykłady te można by jeszcze mnożyć, przedstawiając sposoby wytwarza-nia różnych efektów bliższych dźwiękom perkusyjnym czy odgłosom natury,utrzymanych w odpowiedniej „elektronicznej” atmosferze, efekty bliższe różnymdzwonieniom, poświstom i poszumom, ale czytelnik, który już posiadł podsta-wową umiejętność operowania aparaturą syntezatorową i mający za sobą pewnedoświadczenie na tym polu, znajdzie bez trudu odpowiadające swoim wyobra-żeniom rozwiązania.

Typ III — myś le nie br uit yst ycz ne

Zmiana postaw estetycznych, która nastąpiła w wyniku rozwoju sztuki na-szego stulecia, kazała odrzucić bezwzględne twierdzenie o istnieniu rozdziel-nych kategorii dźwięków muzycznych i niemuzycznych. Włączenie do muzykidźwięków uważanych tradycyjnie za niemuzyczne stało się koniecznością. Przy-pomnijmy poczynania futurystów-bruitystów, kompozycje perkusyjne i niektóre

koncepcje kompozytorów muzyki konkretnej. Również i w muzyce elektronicz-nej wytworzyła się potrzeba poszukiwań tworów dźwiękowych, które zbliżałybysię charakterem do dźwięków „niemuzycznych” — różnego typu stuków, szczę-ków, zgrzytów, chrobotań, skrzypień, huków i łomotów. Nie chodziło przy tymo realistyczne naśladowanie odgłosów naturalnych, ale o znalezienie elektronicz-nych odpowiedników tego typu i o zagospodarowanie tych dźwięków w ramachkompozycji muzycznej.

Istnieją dwa przeciwstawne sobie sposoby traktowania dźwięków bruitystycz-nych w muzyce elektronicznej. Jeden wyznacza im pierwszoplanową rolę ma-teriału głównego, z którego budowana jest cała kompozycja, drugi traktuje tedźwięki jako szumowe uzupełnienie kompozycji tworzonej w konwencji para-instrumentalnej lub sonorystycznej, co sprowadza ich rolę do tej, jaką w mu-zyce instrumentalnej spełniają szmerowe dźwięki perkusyjne. Sama realizacjadźwięków tego typu jest jednak niezależna od zamiaru ich późniejszego użyciaw kompozycji.

Syntezator pozwala na produkowanie dużej gamy dźwięków-szmerów i dźwię-ków-hałasów. Nie sposób omówić je wszystkie. Podobnie więc jak przy dźwię-kach typu II ograniczymy się tu do kilku przykładów, które powinny zasugero-wać różne drogi prowadzące do rozwiązań jednostkowych.

Przykład pierwszy (il. 112, s. 207) obrazuje układ umożliwiający generowaniedźwięku „brudnego”, zrytmizowanego, zmieniającego swój charakter w dośćdużym zakresie, zależnie od ustawienia ręcznych regulacji — od kompleksu sta-

206

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 207/381

Technika syntezatorowa

   r   e   g   u    l   a   c    j    e   r   ę   c   z   n   e

    (    b   e   z   m   o    d   u    l   a   c    j     i   c   z   ę   s   t   o   t    l    i   w   o    ś   c    i    )   :     G        1

  —

   z   m    i   e   n   n   e   o    d    4    d   o    4    0    H   z

     G        2

  —

    3    H   z

     G        3

  —

    1 ,    8    H   z

     F

  —

   z   m    i   e   n   n   e   o    d    5    0    0    d   o    4    0    0    0    H   z

    I    l .    1    1    2

207

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 208/381

Studio analogowe (sterowane napięciem)

nowiącego ciąg nieregularnych stuków do chropowatego dźwięku o charakterzeprawie ciągłym.

Najistotniejsze są tu zmiany częstotliwości generatora   G1   wprowadzane po-tencjometrem R1. Zmiany wprowadzane potencjometrami R2–R6 powodują tylko

drobne retusze materii tego tworu dźwiękowego. Nieregularna rytmizacja jestskutkiem niewspółmiernych częstotliwości dwóch generatorów pracujących w za-kresie podakustycznym, i jednego na granicy częstotliwości akustycznych i po-dakustycznych. „Zabrudzenia” dodają dwie pętle sprzężenia zwrotnego  Z1  i Z2,wykorzystujące modulowany szum i rytmizowany sygnał po pogłosie.

Zwróćmy uwagę, że w układzie tym nie skorzystano ani z klawiatury, aniz generatora obwiedni, jak pamiętamy, niemal wszechobecnych we wszystkichdziałaniach na syntezatorze. W tym przypadku ich użycie okazało się zbędne.

Drugim przykładem jest układ służący do wytwarzania pojedynczych efektówo charakterze strzału, huknięcia, trzasku (il. 113). Układ ten jest bardziej złożony

niż poprzednie. Trzeba jednak powiedzieć, że dźwięki tej kategorii należą donajtrudniejszych do uzyskania w sposób syntetyczny. Na przykład próby two-rzenia potężnych huków przez nadawanie obwiedni filtrowanym szumom dają

 bardzo mizerne efekty. W ogóle pojedyncza obwiednia jest w tych przypadkachmało efektywna.

Il. 113

Materia dźwiękowa formowana jest przez wibracje o nieregularnej zmienności.

Zwróćmy uwagę, że układ próbkująco-pamiętający Sample & Hold jest jednocze-śnie źródłem sygnału (pracuje przecież w zakresie częstotliwości akustycznych)i źródłem napięcia modulującego częstotliwość generatora  G2, który na skutektej modulacji generuje sygnał o losowo-zmiennej częstotliwości na styku zakresuakustycznego i podakustycznego.

Prawa strona układu formuje złożony profil dynamiczny charakteryzujący siępotrójnym bardzo ostrym atakiem i łagodnymi, nakładającymi się na siebie wy-

 brzmieniami. Impulsy do rozpoczęcia cyklu obwiedni wywoływane są bardzokrótkim naciśnięciem ręcznego przycisku-wyzwalacza, z tym, że impulsy wy-zwalające dla generatorów OB2   i OB3  przychodzą z pewnym opóźnieniem po-

wstałym w opóźniaczu impulsów OP-W. Jeżeli opóźnienia są większe niż 50ms,powstaje wrażenie „wystrzału” z podwójnym echem. Przy mniejszych opóźnie-niach ataki zlewają się ze sobą dając wrażenie jednego „wystrzału”. Modulator

208

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 209/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 210/381

Studio analogowe (sterowane napięciem)

Proces poszukiwań przejawiał się w trzech stadiach: wyobrażenia o dźwięku,ustalenia cech morfologicznych wyobrażonego dźwięku i poszukiwania moż-liwości realizacyjnych w ramach posiadanej aparatury. Ten tryb działania wy-nikał z pewnej postawy wobec tworzonego materiału dźwiękowego, nazwijmy

 ją po st a wą e k sp e r t a. Ekspert zna możliwości swojej aparatury, wie, co sięna niej da uzyskać, ma jasne wyobrażenie o tym, czego od aparatury oczekujei nie próbuje szukać niczego poza tym. Jest to postawa dosyć powszechna, od-powiadająca kompozytorowi przyzwyczajonemu do podobnych działań na polumuzyki instrumentalnej.

Wyobraźmy sobie jednak zupełnie inne podejście do muzyki elektronicznej,nazwijmy to po s ta w ą e ks pe r y me nt a l n ą. Eksperymentator zna aparaturęi zdaje sobie sprawę z jej możliwości i ograniczeń. Siadając przed syntezatoremnie ma jednak żadnego z góry powziętego planu działania ani jasnego wyobra-żenia o dźwięku, który chciałby uzyskać. Próbuje różnych połączeń, różnychzakresów i regulacji, wprowadza korekty, które prowadzą nieraz do zupełnie in-nych pomysłów, coś dodaje, czegoś ujmuje, działa powodowany bardziej intuicjąniż rutyną, jakby się bawił aparaturą, aż do momentu, kiedy zaczyna trakto-wać uzyskany efekt jako swoje znalezisko, coś bardzo ważnego i potrzebnego.Wtedy włącza magnetofon, rejestruje dźwięki, notuje komutacje i pozycje tłu-mików, stara się zachować to, co znalazł, a potem szuka dalej. Devarahi, autorksiążki The Complete Guide to Synthesizers,6 działania takie nazywa rodzajem kon-templacji. I jest w tym coś z prawdy. Syntezator stanowiący jednocześnie studioi instrument, jest jakby stworzony do improwizacji, do wszelkich działań sponta-

nicznych. Jako studio ma niezmierzone możliwości formowania dźwięku, a jakoinstrument reaguje natychmiast na każdy ruch wykonawcy.Lecz na syntezatorze, tak jak na każdym instrumencie, aby dobrze improwi-

zować, aby móc dać się wodzić chwilowym pomysłom, a jednocześnie działaćskutecznie, trzeba osiągnąć pewną biegłość techniczną. Po prostu trzeba ćwiczyćniemal codziennie, tak aby zdobyć sprawność palców i ucha, aby wiedzieć na pa-mięć, w którą stronę wyciągnąć rękę, co i na ile pokręcić, przesunąć, aby dźwiękzmierzał w tym, a nie innym kierunku. Dopiero tak osiągnięta biegłość pozwolina pełną swobodę tworzenia rzeczy, których nie było, dźwięków niewyobrażal-

nych, a nawet nieprzeczuwalnych.Oczywiście każdy model syntezatora wymagać będzie osobnych ćwiczeń. Aledo nowego instrumentu łatwo będzie przywyknąć, tak jak organista przywykaszybko do nie znanego sobie modelu organów.

Tutaj nie będzie żadnych opisów, przykładów ani schematów. Postawie eks-perymentalnej obce są wszelkie gotowe schematy. Chcąc tworzyć, trzeba działaći słuchać. Trzeba siąść przed syntezatorem i grać: na klawiaturze, bez klawiatury,korzystając z największej ilości urządzeń, albo ograniczając się do wybranych.Nawet jeżeli kompozytor nie hołduje improwizacji, lecz tworzy wszystko we-dług ustalonego przez siebie porządku, to polecalibyśmy mu mimo wszystko

6 The Complete Guide to Synthesizers by Devarahi. Prentice-Hall, Inc., Engelwood Cliffs (New Jersey)1982.

210

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 211/381

Technika syntezatorowa

takie nie ukierunkowane poszukiwania — jako ćwiczenia dla wyobraźni, sposóbna wewnętrzne otwarcie się i na przyjęcie nieoczekiwanego.

Wszystko co mówiliśmy dotąd o różnych postawach twórczych przy reali-zacji muzyki elektronicznej w studiu analogowym, można odnieść niemal bez

zmian do muzyki realizowanej na aparaturze cyfrowej. Zmieniła się wpraw-dzie technika, aparatura jest doskonalsza i łatwiejsza w obsłudze, łatwiejszestało się zapamiętywanie sekwencji i układów modularnych, nie zmieniło się

 jednak podstawowe myślenie muzyczne i postawa kompozytora wobec czeka- jącego go zadania. Nie bez znaczenia jest też fakt, że nowoczesne syntezatorycyfrowe, a także programy komputerowe, pozwalające wykonywać szereg opera-cji na cyfrowej postaci dźwięku, konstruowane były w oparciu o doświadczeniaz aparaturą analogową i o moduły ze studia syntezatorowego. Sądzę więc, żeprzestudiowanie tego rozdziału przez współczesnego kompozytora nie będziedla niego w żadnej mierze stratą czasu. Dzisiejsza muzyka realizowana cyfrowo

 jest bowiem tylko unowocześnioną wersją tego, co realizowane było wcześniejza pomocą aparatury analogowej.

3.15.3. Realizacja utworu muzycznego

W analogowym studiu syntezatorowym utwór na taśmie powstaje w podobnysposób jak w studiu klasycznym: realizacja na aparaturze, nagrania cząstkowe,zgranie. Jednak dzięki ułatwieniom, o których pisaliśmy na początku tego roz-

działu, praca przebiegała znacznie szybciej. Skrócony został zwłaszcza pierwszyokres realizacji — od decyzji co do materiału wyjściowego aż do ukształtowaniacząstkowych struktur muzycznych. Nie będziemy go tu bliżej opisywać, ponie-waż właściwie wszystko co pisaliśmy dotąd o syntezatorach i technice synteza-torowej dotyczyło tego właśnie etapu, prowadzącego do wytwarzania gotowychstruktur muzycznych, które mogłyby stanowić część kompozycji: cały epizod,

 jedną warstwę, fragment warstwy itd.W pewnych przypadkach, przy zaangażowaniu sporej ilości urządzeń i kilku

co najmniej wykonawców, można było zrealizować nawet cały utwór za jednym

razem, tak jak przy wykonaniu instrumentalnym. Zdarzało się to jednak niezwy-kle rzadko i to raczej w produkcjach elektronicznych na żywo, częściej w produk-cjach mieszanych, gdy syntezator występował obok instrumentów muzycznych.W warunkach pracy studyjnej była to metoda nieekonomiczna i krępująca fan-tazję kompozytora. Prostszym i pewniejszym było rozłożenie procesu realizacjina kilka etapów.

Pierwszy etap — wytwarzanie struktur muzycznych — rozkłada się na dwiefazy:

a) wymyślenie układu komutacyjnego i ustalenie pozycji elementów regula-cyjnych (w niektórych przypadkach — zakresu zmienności), przepróbowanie

układu, b) wykonanie zamierzonego fragmentu (epizodu, warstwy), co może mieć

formę improwizacji — na klawiaturze, przyciskach, tłumikach, albo stanowić

21114∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 212/381

Studio analogowe (sterowane napięciem)

wykonanie fragmentu zakomponowanego, nawet uprzednio zapisanego. Nota- bene przy korzystaniu z klawiatury przydatna jest tradycyjna notacja nutowa,mimo że efekt końcowy często nie pokrywa się z zapisem nutowym.

Etap pierwszy kończy się rejestracją na taśmie magnetofonowej, a niekiedy

tylko dokładnym zapisem dla późniejszego odtworzenia.Etap drugi to złożenie całej kompozycji, traktowanej na razie jako materiał su-rowy, na szerokiej taśmie magnetycznej. Następuje to przez wgrywanie kolejnychstruktur uzyskanych w etapie i na różnych ścieżkach wielośladu, poczynając odściśle ustalonych miejsc na taśmie, które znaczą punkty czasu od początku kom-pozycji. Te punkty startowe mogą być kontrolowane przez sprzężony z wielośla-dem licznik zegarowy. Struktury uznane za udane zostają od razu zapisane nawłaściwych ścieżkach wielośladu. Struktury, które wymagają dalszego opracowa-nia (przemontowania, dodatkowego przekształcenia), nagrywane są na wąskiejtaśmie i po właściwym opracowaniu przegrywane na wieloślad. We wszystkich

etapach nagraniowych i przegraniowych stosuje się systemy redukcji szumów. Jak widzimy na przykładzie przedstawionym na ilustracji 115, nie wszyst-

kie struktury dadzą się wiązać w łańcuch jedna za drugą. Potrzebne jest nieraznałożenie dwóch lub więcej struktur na sposób polifoniczny. Przenikania przy łą-czeniu struktur następujących sukcesywnie, a także nakładania na siebie strukturczęściowych (warstw), dają w sumie jedną strukturę homofoniczną. To ostatniedaje kompozytorowi dodatkowo swobodę kształtowania akordu, klasteru lub ru-chomego klasteru w ten sposób, żeby poszczególne warstwy-głosy zachowywaływłaściwe im cechy barwy, obwiedni, przebiegu rytmicznego i wysokościowego.

Il. 115

Z myślą o przyszłej projekcji przestrzennej utworu, niektóre struktury są jużw pierwszym etapie rozdzielane na dwa lub więcej kanałów nieznacznie róż-niących się barwą, pogłosem itp. Te wielokanałowe struktury rejestrowane sąoczywiście równolegle na odpowiedniej ilości ścieżek wielośladu, co pozwala napóźniejsze ich ukierunkowanie w ostatecznym układzie dwu- lub czterokanało-wym.

Etap III to ustalenie ostatecznego kształtu i brzmienia kompozycji. Polega onna zgraniu całości z magnetofonu wielośladowego na tzw. taśmę-matkę, z któ-rej robione będą kopie koncertowe (radiowe, płytowe). Obecnie standardowymistały się nagrania koncertowe czterokanałowe (kwadrofoniczne), które dla celów

radiowych i płytowych, a także do demonstracji w warunkach uproszczonych,redukowane są do stereofonii dwukanałowej. Taśma-matka kodowana jest w tymsamym systemie redukcji szumów, co poprzedni materiał.

212

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 213/381

Technika syntezatorowa

Dla celów specjalnych, jak wielkie spektakle audiowizualne, projekcje prze-strzenne na wolnym powietrzu lub w pawilonach wystawowych, przygotowy-wane są od razu wersje wielokanałowe na kilkunastu lub nawet kilkudziesięciuścieżkach magnetycznych.

Normalnie są to jednak zgrania z szesnastu lub mniej śladów na cztery lubdwa. Ich realizacja nie odbiega specjalnie od zgrań końcowych opisanych w tech-nice klasycznej. Wyważa się tu dynamikę warstw i kolejnych epizodów, kształtujeprzestrzeń dźwiękową za pomocą stereofonii, dozowania pogłosu i drobnych ko-rekcji barwy. Problemem nowym, wynikającym zresztą ze stosowania wielośladu,a nie techniki syntezatorowej, jest rozdzielanie ścieżek na kierunki w ramach ste-reofonii czterokanałowej.

Podział na trzy etapy realizacyjne przedstawiony został w sposób trochę sche-matyczny, tak aby lepiej uzmysłowić przebieg pracy nad utworem. W praktyce

 bardzo często etapy I i II realizowane są na przemian. Część struktur jest już na

przykład nagrana na właściwych miejscach taśmy wielościeżkowej, a kompozy-tor dopiero w myśli dopasowuje dalsze struktury, których układy realizacyjnenie zostały jeszcze skonstruowane.

Oczywiście kompozycja syntezatorowa może być zrealizowana w całości zgod-nie z powziętą z góry koncepcją i według ściśle rozpisanego planu szczegóło-wego. Ale trzeba pamiętać, że technika syntezatorowa, odmiennie od technikiklasycznej, pozwala na stworzenie całej nawet kompozycji drogą improwizacji.Improwizacji samych struktur, ich przebiegu rytmicznego, wysokościowego, dy-namicznego, a także układu struktur, który może powstawać ex promptu w trakcie

pracy nad kolejnymi stadiami kompozycji.Studio syntezatorowe, spadkobierca klasycznego studia muzyki elektronicz-nej, zwane czasem s tu di e m a na l ogow ym (dla odróżnienia od studia stero-wanego cyfrowo), jest tylko jednym z miejsc, w którym znajduje zastosowaniesyntezator muzyczny. Znacznie częściej spotykamy go na estradzie koncertowej.O współdziałaniu syntezatorów z organami elektronicznymi i „zelektryfikowa-nymi” instrumentami muzyki rozrywkowej różnych odmian pisaliśmy już przyokazji syntezatorów polifonicznych. Powszechne zastosowanie znalazły synte-zatory w różnych formach muzyki   live electronic, gdzie ich zalety, a głównieprzydatność do działań spontanicznych, zostały właściwie docenione i wykorzy-stane. Ich domeną jest wytwarzanie dźwięków nieosiągalnych innymi sposobami,dźwięków elektronicznych, jeżeli nawet instrumentopodobnych, to jednak „odre-alnionych”. Przekształcanie głosu ludzkiego i instrumentów akustycznych nie jestz pewnością najmocniejszą stroną syntezatorów. Tylko niewiele jego modułówpozwala na tego typu transformacje (ringmodulator, konwerter wysokości na na-pięcie, detektor obwiedni, układ Sample & Hold), jednak w połączeniu z trikamiznanymi z techniki klasycznej, takimi jak pętla taśmy, sprzężenie i opóźnienie ma-gnetofonowe, nadnaturalny pogłos itd., syntezator stanowi ważne narzędzie dlazespołów traktujących elektronikę jako jeden ze środków wyrazu, pomoc w two-

rzeniu nowych brzmień i kreowaniu nowych sytuacji w odwiecznym układziekompozytor–wykonawca–słuchacz.

213

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 214/381

Studio analogowe (sterowane napięciem)

3.15.4. Syntezator na estradzie

W realizacji muzyki elektronicznej na żywo tylko pierwszy etap pozostaje takisam, jak w realizacji utworu studyjnego: przygotowanie i przepróbowanie ukła-

dów; zamiast rejestracji zapisuje się układ i pozycje tłumików. Na estradzie jest już tylko realizacja dźwiękowa. Jednak i tu stosuje się triki polegające głównie natym, że część dźwięków, np. jedna warstwa, nagrywana jest uprzednio w studiu,i na estradzie odtwarzana z magnetofonu.

To korzystanie z wcześniej przepróbowanych układów związane jest z pewnymkłopotem. Jest nim konieczność nawet kilkakrotnej zmiany układu syntezatoraw czasie trwania jednego utworu. Potrzeba na to czasu. Niezbędne są więc albodłuższe pauzy w partii syntezatora, albo kilka syntezatorów (każdy wcześniejustawiony we właściwym układzie), albo — i to jest już dostępne w najnowszych

syntezatorach estradowych — automatyczne ustawianie kolejnych układów, zapa-miętywanych przez moduł pamięci podczas wcześniejszych prób i wywołanychw trakcie wykonywania utworu dotknięciem jednego z przycisków lub sensorów.

Dalsze udoskonalenie techniki syntezatorowej to sterowanie syntezatorów ana-logowych przez program komputerowy — albo przez automatyczne ustalanieukładów, na których wykonawca produkuje swoją partię na żywo, albo przezcałkowite przejęcie kontroli nad realizacją dźwiękowych zadań syntezatora. To

 już jednak należy do techniki cyfrowej, ściślej mówiąc do zastosowań technikicyfrowej i programowania komputerowego w układach hybrydowych: cyfrowo--analogowych, o czym będzie mowa w następnej części książki.

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 215/381

IV. Studio cyfrowe (komputerowe)

4.1. Muzyka komputerowa

Zastosowanie komputerów w muzyce datuje się od pierwszych prób Hillerai Isaacsona, które zaowocowały w roku 1956 kompozycją   Illiac Suite  na kwar-

tet smyczkowy. W tym samym czasie rozpoczęto próby komputerowej syntezymowy, które z kolei przyczyniły się do powstania nowej technologii w muzyceelektronicznej — cyfrowej syntezy dźwięku (Max Mathews,  MUSIC IV , 1960).W roku 1983 było już na świecie ponad 100 ośrodków, w których zajmowanosię produkcją muzyki za pomocą komputerów. To co jeszcze przed dwudziestukilku laty wydawało się mrzonką, urzeczywistniło się: muzyka komputerowastała się faktem i weszła jako hasło do encyklopedii.

Tymczasem wokół samego terminu narosło mnóstwo nieporozumień. Zaczętonim obejmować zupełnie różne dziedziny, zapominając o tym, że komputer jako

narzędzie uniwersalne może służyć rozmaitym celom, ale jego użycie nie wpro-wadza żadnych cech specyficznych do produkowanej czy reprodukowanej za jego pomocą muzyki. Inaczej mówiąc, że muzyka komputerowa jako gatunekw ogóle nie istnieje. Istnieją tylko różne zastosowania komputerów w muzyce.Trzy najważniejsze z nich to:

1. wykorzystanie komputera jako narzędzia w procesie komponowania,2. użycie komputera do generowania dźwięku i jego przetwarzania (ang. Digital

Sound Processing),3. użycie komputera do sterowania analogowych i cyfrowych urządzeń elek-

troakustycznych.Dalszymi zaś są:4. zastosowanie komputera do analizy dźwięku w badaniach akustycznych,

fonetyce, budowie instrumentów muzycznych itd.,5. do analizy dzieła, stylu muzycznego,6. do sterowania nagrań muzycznych lub przestrzennej projekcji dźwiękowej,7. do kreślenia partytur, także w zapisie tradycyjnym,8. pomoc komputera w procesie dydaktycznym.Głównym tematem niniejszej, czwartej części książki, będzie cyfrowa synteza

dźwięku. Wyróżnimy tu klasyczną syntezę cyfrową polegającą na bezpośred-

nim wyznaczaniu kształtu krzywej sygnału dźwiękowego, systemy hybrydowepolegające na cyfrowym sterowaniu urządzeń analogowych i systemy cyfrowemieszane.

215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 216/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 217/381

Cyfrowa synteza dźwięku

Przez niemal 100 lat od wynalazku Edisona zadowalano się tym, że dźwięk dasię schwytać i zatrzymać, a potem odtworzyć w innym miejscu i czasie. Wpro-wadzano kolejne ulepszenia i doprowadzono technikę nagrywania i odtwarzaniado bardzo wysokiej wierności Hi-Fi, ale sama natura dźwięku złożonego pozo-

stawała nie poznana.Przyczyna tej niewiedzy była prosta. Ilość zmian zachodzących w złożonejfali dźwiękowej jest nieporównywalnie wielka w stosunku do upływu czasupostrzeganego przez człowieka. Zanalizowanie rysunku sygnału akustycznegozawierającego ponad 20 tysięcy załamań na przestrzeni odpowiadającej upły-wowi jednej sekundy nie mieści się po prostu w granicach ludzkich możliwościrozpoznania wizualnego. Sygnał taki zamieniony na falę ciśnieniową nasz aparatsłyszenia analizuje jednak bez trudności. Kontrola słuchowa pozostawała więc

 jedynym sposobem kontroli nagrywania i odtwarzania sygnałów akustycznych.Dopiero użycie komputerów, których szybkość operowania jest wielokrotnie

większa od częstotliwości zmian fali akustycznej, pozwoliło na przybliżenie sze-regu dotąd nierozwiązalnych problemów i na wniknięcie w strukturę przebiegufali dźwiękowej.

Komputer jest jednak urządzeniem cyfrowym i wszelkie funkcje może rejestro-wać tylko w sposób nieciągły (dyskretny). Aby więc dokonać analizy dźwięku,trzeba najpierw zamienić analogową postać funkcji ciągłej, będącej odwzorowa-niem fali akustycznej, na f un kc j ę dys kr e tn ą, czytelną dla komputera, alezachowującą te same cechy, co funkcja ciągła, czyli będącą jej przybliżeniem(aproksymacją).

a) funkcja ciągła b) funkcja dyskretna

Il. 117

4.2.1. Konwersja analogowo-cyfrowa i cyfrowo-analogowa

Najprostszym rozwiązaniem takiej zamiany okazało się zastosowanie znanego

z techniki syntezatorowej procesu zwanego próbkowaniem (ang.  Sample & Hold). Próbkowanie dokonywane z regularną częstotliwością, mierzenie warto-ści kolejnych próbek z ustaloną dokładnością (kwantyzowanie) i, na koniec,

217

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 218/381

Studio cyfrowe (komputerowe)

ko do wa ni e — nazwane zostało ko nw er sj ą an al og ow o-cy fr ow ą, a urzą-dzenia służące do tego k on we rt er am i an al og ow o-cy fr ow ym i (ang.  Ana-log-to-Digital Converter, w skrócie: ADC).

Il. 118

Konwerter analogowo-cyfrowy jest urządzeniem dosyć skomplikowanym. Im-pulsów do próbkowania dostarcza „zegar” kwarcowy o dużej stabilności. Po-miary próbek dokonywane są przez porównanie i przedstawiane binarnie w po-staci ciągu liczb zero-jedynkowych. Kwantyzowanie polega na ujednoliceniuskoku wartości oraz formatu liczby do określonej ilości znaków. I tak na przy-kład, jeżeli przy pomiarze wartości napięcia elektrycznego ustalimy, że prze-działem kwantowania ma być 1 mV, to urządzenie musi być tak skonstruowane,żeby wszystkie rzeczywiste wartości napięcia leżące pomiędzy 1,5 mV a 2,4999...mV były odczytywane jako 2 mV, wszystkie wartości leżące w przedziale 2,5 do3,4999...mV jako 3mV itd., z tym że najwyższą wartością mierzoną może byćnp. 999mV. W takim układzie wszystkie pomiary będą mogły być wyrażanew postaci trzycyfrowej jako np.: 001, 273, 028, 999. Komputer, aby móc przetwa-

rzać dane, musi je otrzymywać w postaci skwantyzowanej. Zamiast w liczbachdziesiętnych, stosowanych w pomiarach analogowych, dane te muszą być wy-rażone w postaci zero-jedynkowej. W przypadku zastosowania kodu binarnegokwant (rozmiar liczby) określany będzie ilością znaków binarnych stanowiącąobowiązujący format dla przedstawiania danych, np. liczby całkowite dodatnie10-bitowe (od 0000000000 do 1111111111).

 Jeżeli przyjrzymy się raz jeszcze ilustracji 117 (s. 217), zorientujemy się łatwo,że przybliżenie cyfrowe funkcji ciągłej będzie tym lepsze, im większa będziegęstość próbkowania i im dokładniejsze będzie kwantyzowanie. Niestety, każde

zwiększenie gęstości próbkowania i zmniejszenie przedziału kwantyzacji zwie-lokrotni ilość operacji elementarnych, które muszą być wykonane w ciągu tegosamego czasu. Powoduje to komplikacje techniczne oraz podraża koszty, tymsamym więc czyni analizę cyfrową mniej ekonomiczną. Trzeba zatem znaleźćwarunki optymalne.

Wyliczenia teoretyczne poparte testami słuchowymi wykazały, że dla dobregoodwzorowania funkcji sygnału akustycznego niezbędna jest gęstość próbkowa-nia przekraczająca podwójną częstotliwość najwyższego występującego dźwięku.Dla przeniesienia pełnego pasma akustycznego (od 16Hz do 16kHz) będzie togęstość nieco przekraczająca 32 000 próbek na sekundę. To dużo! Ale współcze-

sne komputery przeprowadzają operacje elementarne z prędkością kilkudziesię-ciu nanosekund (miliardowych części sekundy) i są w stanie podołać takiemuzadaniu.

218

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 219/381

Cyfrowa synteza dźwięku

Przy tej gęstości próbkowania dźwięki niskie będą reprezentowane lepiej (więk-szą ilością próbek), a dźwięki wysokie gorzej, np. częstotliwość 8kHz tylko 4próbkami, podczas gdy częstotliwość 220 Hz aż 160 próbkami. Będzie to jednakzgodne z właściwościami naszej percepcji słuchowej. Nasz aparat słyszenia po-

zwala bowiem na odbieranie niskich i średnich dźwięków w całości, to znaczywraz z wieloma składowymi harmonicznymi i nieharmonicznymi, tymczasempercepcja dźwięków najwyższych jest ograniczona. Np. w zagranym na fortepia-nie dźwięku  c5 (4186Hz) słyszymy tylko trzy pierwsze składowe harmoniczne(4183, 8372 i 12558), bo już czwarta i następne składowe wychodzą poza za-kres naszego słyszenia. Barwa dźwięków najwyższych (ta spowodowana skła-dem widma harmonicznego) jest przez nasz słuch niemal pomijana i dlatego brakdokładności w cyfrowym kodowaniu najwyższych składowych harmonicznychnie będzie miał praktycznie żadnego znaczenia.

Co do kwantyzowania, to przyjął się kod binarny 12-cyfrowy, 2 przedstawia-

 jący dane z dokładnością trochę większą niż trzycyfrowe przybliżenie w kodziedziesiętnym (212−1  = 4095). Wymaga on zarezerwowania znacznej ilości miejscaw pamięci komputera, ale zmniejsza tzw. szumy kwantyzacji powodowane zbytmałą dokładnością odczytu przy stosowaniu większych kwantów. Kod 12-bitowynie był rozwiązaniem idealnym, lecz kompromisowym ze względu na ogranicze-nia techniczne obecnie już coraz częściej możliwe do pokonania. Lepsze rezultatydają stosowane ostatnio kody 16- i 32-bitowe 3.

Czynnością odwrotną do konwersji analogowo-cyfrowej jest kon we r s j ac yf r o wo-a n a l ogo wa odgrywająca zasadniczą rolę w procesie cyfrowej syn-

tezy dźwięku. Urządzeniem przetwarzającym jest ko nw e r te r c yf r ow o--an al og ow y (ang. Digital-to Analog Converter, w skrócie: DAC), zmieniający ciągiliczb binarnych na analogowe stany napięć elektrycznych. Liczby binarne w torzeprzekazowym komputera mają postać zunifikowanych grup impulsów (impuls= 1, brak impulsu = 0)4 reprezentujących kwanty informacji. Jeżeli na wejście kon-wertera cyfrowo-analogowego zostanie wprowadzony ciąg takich grup impulso-wych (reprezentujący zakodowane wartości próbek) z prędkością równą gęstościpróbkowania, to na jego wyjściu pojawiać się będą stany napięć elektrycznych bę-dące odwzorowaniem funkcji sygnału pierwotnego, oczywiście w formie schod-kowej i skwantyzowanej. Jeżeli powstały w ten sposób sygnał elektryczny zosta-nie teraz przepuszczony przez filtr dolnoprzepustowy o częstotliwości granicznejleżącej poniżej połowy częstotliwości próbkowania (np. 16 kHz), wówczas sygnałschodkowy ulegnie „wygładzeniu” i będzie do złudzenia przypominał sygnałpierwotny. Co więcej, jakość tak osiągniętej reprodukcji będzie znacznie wyższaod reprodukcji tego samego sygnału, osiągniętej przez nagranie i odtworzeniez taśmy magnetofonowej.

2 12-cyfrowy kod binarny jest wygodny również ze względu na łatwą konwersję na 4-cyfrowy kodósemkowy (cyfry 0, 1... 7) stosowany w komputerach niektórych wielkich firm (np. PDP).3 W niektórych systemach: 1 — impuls dodatni, 0 — impuls ujemny.4 Generalnie można przyjąć, że odstęp sygnału od szumów (signal-to noise ratio)  ≈   ilość bitów kon-

wertera  × 6dB.

219

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 220/381

Studio cyfrowe (komputerowe)

Il. 119. Konwersja cyfrowo-analogowa

4.2.2. Cyfrowa rejestracja dźwięku

Opisane tu dwie operacje: rejestracja sygnału fonicznego poprzez konwersjęanalogowo-cyfrową na nośniku cyfrowym (np. cyfrowej taśmie magnetycznej)i reprodukcja sygnału z nośnika cyfrowego poprzez konwersję cyfrowo-analo-gową na postać elektryczną i dalej akustyczną, są podstawą dla niezwykle ważnejtechniki fonograficznej, jaką stała się c yf r owa r e j e s t r a c j a d ź wi ę k ów zwanapopularnie na g r a ni e m c yf r ow ym (ang. digital recording). Eksperymenty z cy-frową rejestracją dźwięków dokonywane były w pracowniach komputerowych

 już na początku lat sześćdziesiątych (J. R. Pierce i M. Mathews w LaboratoriachBella). Potrzeba było jednak kilkunastu lat na to, aby technika komputerowai technika konwersji osiągnęły poziom gwarantujący wysoką jakość przy eko-nomicznie uzasadnionych kosztach. Główne trudności we wcześniejszym wpro-wadzeniu nagrań cyfrowych sprawiały znaczne zakłócenia, tzw. szumy prób-kowania i szumy kwantyzacji. Powodem ich były stosowane początkowo zbyt

niskie częstotliwości próbkowania (uzasadnione względami technicznymi) i nie-dostateczne poznanie samej natury tych zakłóceń. Dopiero użycie superszybkichkomputerów i specjalnie budowanych do tego celu mikroprocesorów oraz opra-cowanie systemów redukcji zakłóceń doprowadziło technikę nagrań cyfrowychdo poziomu, który pozwolił na jej zastosowanie w komercyjnych nagraniachfonograficznych, w których „magnetofon cyfrowy”, czyli system komputerowydo cyfrowej rejestracji i reprodukcji dźwięku, zastąpił zwykły magnetofon, do-tychczas najsłabsze ogniwo w procesie produkcji płyty gramofonowej. Nagraniecyfrowe nie tylko eliminuje szumy wprowadzane przez analogową taśmę magne-tyczną, ale poprawia także inne parametry przekazywanego sygnału fonicznego.W sumie daje to duży skok jakości w stosunku do tradycyjnego nagrania ma-gnetofonowego5.

Posiadanie dźwięku zarejestrowanego w postaci cyfrowej, tzw. PCM (ang. PulseCode Modulation), pozwoliło też na łatwe wprowadzenie do sygnału różnych mo-dyfikacji, np. sztucznego pogłosu, a także eliminowanie z sygnału niepożądanychelementów, np. trzasków ze starych płyt gramofonowych. Modyfikacje te były

5 Komercyjne magnetofony cyfrowe wykorzystywały pierwotnie do zapisu zwykły magnetowid.Od lat 90. wprowadzono specjalistyczne urządzenie do zapisu dźwięku pod nazwą DAT (od ang.

Digital Audio Tape), w którym zapis stereofoniczny dwuścieżkowy dokonywany jest na taśmie 5 mmumieszczanej w kasetkach. Istnieją też profesjonalne DAT-y wielokanałowe: 4-, 8-, 16- i nawet 24--kanałowe, dokonujące zapisu na szerokiej taśmie magnetycznej. We wszystkich zastosowano wirującegłowice zapisujące i czytające, a to dla zagęszczenia zapisu sygnałów cyfrowych.

220

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 221/381

System komputerowy

osiągane nie dzięki urządzeniom, ale dzięki operacjom arytmetycznym przepro-wadzanym na liczbach wyrażających wartości próbek. Kuszącym też stało sięwykorzystanie techniki cyfrowej do wprowadzania za pomocą działań liczbo-wych przekształceń podobnych do tych, które były osiągane dzięki analogowym

urządzeniom przekształcającym, a więc filtrowania, modulacji, mieszania sygna-łów, a także takich, które osiągane były przez działania mechaniczne, jak zmianaprędkości, montaż, opóźnienie. Wprowadzenie takich przekształceń wymagałostworzenia specjalnych programów i wprowadzenia ich do komputera.

I tu musimy przerwać na chwilę nasze rozważania o syntezie dźwięku, abyuświadomić sobie lepiej zasady współdziałania poszczególnych elementów sys-temu komputerowego i zasady współpracy człowiekaz systemem.

4.3. System komputerowy

W potocznym języku mówimy: działanie komputera, pomoc komputera, ste-rowanie za pomocą komputera; mówiąc tak, zapominamy często, że nie chodzitu tylko o komputer jako maszynę. Komputer jest bowiem maszyną, do którejużytkownik nie ma bezpośredniego dostępu. Maszyna ta nie będzie działać, je-żeli nie zostanie spełniony cały szereg warunków nieodzownych dla współpracyużytkownika z komputerem. Bez tego komputer-maszyna będzie jak telewizor,który nie otrzymuje z anteny żadnego programu.

W nauce o komputerach i sposobach posługiwania się nimi, czyli w infor-matyce, wyróżnia się część fizyczną — sprzęt (ang.  hardware) i część intelek-tualną — oprogramowanie (ang. software). Sprzęt i oprogramowanie składająsię w sumie na system komputerowy. Dlatego zamiast o różnych komputerachczęściej będziemy mówić o różnych systemach komputerowych.

4.3.1. Sprzęt komputerowy (hardware)

Sprzęt komputerowy składa się z trzech zasadniczych bloków: pa m i ę c i,p r oc e so r a i u r z ą d z e ń z e wn ę t r z ny c h (inaczej: urządzeń wyjścia-wejścia).

Il. 120

Urządzenia wejścia przekazują dane i rozkazy do procesora. Procesor pobieradane z urządzeń wejścia i z pamięci, przetwarza dane wykonując działania aryt-

metyczne, logiczne i operacyjne i przekazuje dane do pamięci lub do urządzeńwyjścia. Pamięć rejestruje dane otrzymane z procesora i pozwala procesorowi naszybkie wyszukiwanie i pobieranie zarejestrowanych danych.

221

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 222/381

Studio cyfrowe (komputerowe)

Urządzenia wyjścia otrzymują dane z procesora i przekształcają je na językczytelny dla użytkownika. Użytkownik ma dostęp do maszyny jedynie poprzezurządzenia wejścia i wyjścia.

W informatyce słowem da n e określa się reprezentację informacji. Dane

mogą mieć postać alfanumeryczną (literowo-cyfrową), postać ciągu znaków b i n a r n ych (zero-jedynkowych, także ósemkowych i szesnastkowych), ciągu im-pulsów elektrycznych, zapisów magnetycznych itp. Operacje dokonywane na da-nych i za pomocą danych (mogą być nimi zarówno argumenty, jak i rozkazy ope-racyjne) noszą nazwę pr z e t wa r z a n i a da n yc h. Przetwarzanie danych, zwłasz-cza przy użyciu środków automatycznych, jest przedmiotem informatyki.

Głównymi urządzeniami wejścia i wyjścia są dzisiaj klawiatura i monitore kr a n ow y. Klawiatura zawiera zestaw klawiszy, jak w elektrycznej maszynie dopisania, plus kilka do kilkunastu klawiszy o funkcjach specjalnych i urządzeniekodujące. Tekst pisany na klawiaturze jest automatycznie kodowany i przesy-łany do procesora w postaci grup impulsów binarnych, a jednocześnie pojawiasię w postaci alfanumerycznej na ekranie monitora 6. Na ekranie pojawiają sięrównież dekodowane sygnały z procesora (informacje, wyniki, dane z pamięci),zasadniczo w postaci alfanumerycznej, rzadziej jako wykresy funkcji itp.

W dawniejszych komputerach podstawowymi urządzeniami wejścia i wyjścia były: maszyna drukująco-kodująca (dalekopis), czytnik kart perforowanych i dru-karka wierszowa. Pierwsze dwa urządzenia wyszły już całkowicie z użycia. Dru-karka (ale już raczej rozetkowa 8- lub 24-igłowa, atramentowa albo laserowa) sta-nowi nadal ważne urządzenie uzupełniające, nieodzowne wszędzie tam, gdzie

użytkownik chce mieć na papierze wydruk tekstu, rysunku czy nut.Do urządzeń wejścia i wyjścia zalicza się także różnego rodzaju urządzeniaperyferyjne, przetwarzające od razu dostarczane z procesora ciągi impulsów

 binarnych na analogowe postaci informacji, potrzebne do sterowania różnymiprocesami fizycznymi, lub do przedstawiania wyników procesów obliczenio-wych w postaci bardziej dogodnej dla użytkownika, np. w formie wykresów.Te same lub analogicznie zbudowane urządzenia peryferyjne mogą służyć dowprowadzania danych do komputera. Przykładem takich urządzeń mogą byćomawiane wcześniej konwertery analogowo-cyfrowe i cyfrowo-analogowe. Dla

wszystkich działań, w których obliczenia nie są celem, a tylko środkiem douzyskania pewnego „obrazu” (rysunku, projektu, wykresu), bardzo ważnymi sąurządzenia peryferyjne pozwalające na porozumiewanie się z komputerem zapomocą wykresu, czyli komputerowe urządzenia graficzne.

Pierwszym tego typu było urządzenie rysujące firmy Calcomp o nazwie Cal-comp Plotter. Działało ono podobnie do oscylografu pozostawiając na przesu-wającym się papierze wykresy funkcji. Bardziej nowoczesnym rozwiązaniem jesturządzenie Calcomp 835, w którym rolę rysika odgrywa plamka świetlna pozo-stawiająca ślad na materiale światłoczułym. Pozwala to na kreślenie nawet dośćskomplikowanych rysunków. Urządzenia typu Plotter stosowane są do uzyski-

6 W niektórych mikrokomputerach przy zastosowaniu techniki ciekłego kryształu ekran taki wyko-nywany jest w postaci cienkiej płytki.

222

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 223/381

System komputerowy

wania grafiki komputerowej o znaczeniu artystycznym. Mają także zastosowaniew wielu innych dziedzinach.

 Jeśli chodzi o optyczne urządzenia wejścia, do najważniejszych należy zaliczyćanalizatory obrazu, tzw. skanery, pozwalające między innymi na wykonywanie

kopii rysunków, portretów komputerowych, oraz optyczne czytniki dokumentów,stosowane na wielką skalę w bankowości.Dla użytkowników muzycznych szczególną rolę odgrywają g r a f i c z ne

u r z ą dz e n i a z wr o tn e (konwersacyjne). Składają się one z ekranu kinesko-powego, pióra świetlnego i klawiatury (il. 121)

Il. 121

Pi ór o ś wi et ln e (ang. light pen) jest czujnikiem fotoelektrycznym połączonymkablem z resztą aparatury. Czujnikiem tym można wodzić po ekranie kineskopu,

a przebiegająca jak w telewizorze plamka świetlna wyszukuje pozycję „pióra”na ekranie i przekazuje dane o jego współrzędnych do komputera. „Wykreślony”za pomocą pióra świetlnego rysunek zostaje zapamiętany i może na polecenieoperatora być ponownie wyświetlony na ekranie. Komputer może wyświetlać naekranie kineskopu wykresy funkcji, a nawet — przy odpowiednim zaprogramo-waniu — rysunki perspektywiczne projektowanych przedmiotów. Użytkownik zapomocą „pióra” może wnosić poprawki do wyświetlanego rysunku, które zostająwprowadzone do projektu i zapamiętane. Istnieje więc możliwość rzeczywistej„konwersacji” graficznej pomiędzy użytkownikiem a komputerem. Klawiatura

służy do przekazywania poleceń operacyjnych, a także do przesyłania znakówalfanumerycznych, które mogą być również wyświetlane na ekranie.Kompozytor pracujący w systemie uwzględniającym ekran graficzny i pióro

świetlne może bezpośrednio „rysować” pożądany kształt sygnału dźwiękowego,zarys obwiedni, albo wykreślać przebieg zmian częstotliwości, tempa, rozmiesz-czenia zdarzeń dźwiękowych itd. Odpowiednio ułożony program przetworzydane zebrane z ekranu na odpowiadające im wartości w kodzie binarnym orazprzekaże do procesora, a ten następnie do pamięci i ewentualnie do urządzeńwyjścia.

Podobną rolę, co pióro świetlne odgrywa urządzenie z ekranem magnetycz-

nym i czujnikiem elektromagnetycznym, przekazującym dane o pozycji czujnikana dwuwymiarowej tablicy, takie jak zastosował np. Iannis Xenakis w systemieUPIC.

223

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 224/381

Studio cyfrowe (komputerowe)

We współczesnych systemach komputerowych nieodzownym elementem słu-żącym do komunikowania się z komputerem jest tzw. m y sz (ang. mouse). Jest tospecjalny czujnik umieszczony w małym pudełeczku z przyciskiem. Przesuwa-nie pudełeczka po powierzchni np. kartonu, stołu itp. powoduje przesuwanie się

w tym samym kierunku plamki na ekranie, tzw. kursora, a naciśnięcie przycisku(w niektórych systemach puszczenie przycisku) utrwala wskazaną pozycję i wy-wołuje zaprogramowany efekt, np. wyświetlenie wskazanej strony na ekranie,dokonanie wyboru z kilku możliwych, odczytanie współrzędnych. Za pomocąmyszy można też kreślić krzywe, ustalać pozycję wprowadzanego lub poprawia-nego tekstu itd.

Posługiwanie się językiem graficznym rozszerza znacznie możliwości porozu-miewania się kompozytora z maszyną i otwiera nowe perspektywy dla projek-towania nieznanych z brzmienia struktur dźwiękowych. Dotyczy to szczególnietych systemów, w których odpowiednio ułożony program powoduje, że odpo-

wiedzią na narysowaną krzywą (obrzucającą kształt obwiedni, wykres strukturywysokościowej itp.) jest jego akustyczna realizacja przez układ konwertera. Nary-sowaną krzywą można niemal natychmiast usłyszeć, a przez wielokrotne wpro-wadzanie drobnych modyfikacji do rysunku zbliżyć się w bardzo krótkim czasiedo idealnego dla danego przedmiotu muzycznego brzmienia.

4.3.2. Rodzaje pamięci

Pamięć znajduje się w wielu zespołach komputera i poza nim. Ze względu

na usytuowanie rozróżnia się pamięć wewnętrzną i zewnętrzną. Pamięci we-wnętrzne (główna, operacyjna, buforowa) umieszczone są w jednostce centralnejwraz z procesorem i podzespołami operacyjnymi. Pamięci zewnętrzne uloko-wane są w osobnych jednostkach — stacjach pamięci magnetycznej (dyskowej) 7.Wśród pamięci zewnętrznych rozróżnia się pamięć ROM (ang.  Read Only Me-mory), pamięć niezmazywalna, służąca tylko do odczytywania programów, blo-ków danych itp., i pamięć RAM (ang.  Random Access Memory), pamięć ogólniedostępna, umożliwiająca zarówno zapisywanie jak i odtwarzanie.

Zadaniem pamięci w komputerze jest przechowywanie dużych ilości informa-cji i udostępnianie małej części tych informacji na każde żądanie innym zespo-łom komputera. Cechami pamięci ważnymi dla użytkownika są jej pojemnośći łatwość dostępu do zapamiętanych informacji. Pojemność pamięci określa sięw kilobajtach, megabajtach lub gigabajtach (Kbytes, Mbytes i Gbytes), co ozna-cza ilość tysięcy (milionów, miliardów) umownych słów binarnych (bajtów), któremogą być jednocześnie „zapamiętane”. Dostęp to czas potrzebny na wyszuka-nie potrzebnej informacji i pobranie jej z pamięci. Wielkości te mogą w różnychtypach komputerów i pamięci wykazywać znaczne różnice.

Tu przypomnijmy, że maszyny cyfrowe pracują wyłącznie w systemie binar-nym, czyli dwójkowym. Wszystkie informacje kierowane do komputera w po-

staci alfanumerycznej (lub analogowej) zamieniane są w urządzeniach wejścia7 Obecnie w niektórych komputerach stacje pamięci zewnętrznej (głównie dyskowej) umieszczane

 bywają konstrukcyjnie w korpusie głównego urządzenia.

224

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 225/381

System komputerowy

na ciągi bitowe. Bit (skrót od ang.   binary digit) jest elementarną jednostką in-formacji8 i wyrażany jest jedną z dwóch możliwych cyfr dwójkowych: 0 lub 1.Ciąg złożony z kilku bitów reprezentujący jedną literę alfabetu, jedną cyfrę dzie-siętną lub jeden z symboli specjalnych (znaków arytmetycznych, przestankowych

itp.) nazywany jest znakiem. Ustalone porcje bitów, które mogą być jednora-zowo zapisywane lub odczytywane z pamięci głównej komputera noszą nazwęs ł ow a b i n a r ne go. Słowo binarne może zawierać więcej niż jeden znak. Takimumownym słowem binarnym jest bajt (ang.  byte), złożony z 8 bitów.

Dla bezpośredniego działania komputera najważniejsza jest p a mi ę ć w e w-nętrzna. W starszych systemach była to z reguły pamięć rdzeniowa (core me-mory). Jej komórki pod wpływem impulsów elektrycznych ulegają namagneso-waniu dodatniemu lub ujemnemu, co odpowiada „jedynkom” lub „zerom” in-formacji elementarnych. Określenia core memory używa się dzisiaj na oznaczeniewszelkiej pamięci wewnętrznej, która w nowszych komputerach nie korzysta już

z układów rdzeniowo-ferrytowych (od czego nazwa), ale oparta jest na innychzasadach, np. półprzewodnikowych.

Szybki dostęp ma również pamięć dyskowa. Działa ona podobnie do gra-mofonu: płyta (dysk) pokryta jest dwustronnie warstwą magnetyczną, a zapisumieszczany jest na ścieżkach biegnących w koło na płaszczyźnie płyty.

Popularne we wcześniejszych stadiach techniki cyfrowej magnetyczne pamięcitaśmowe wyszły już zupełnie z użycia. Obecnie stosuje się właściwie wyłączniepamięć dyskową, albo w postaci tzw. twardych dysków (ang. hard discs) o bardzodużej pojemności (np. od 500 Mbytów do 40 Gigabajtów, tj. 40 miliardów bajtów),

umieszczanych najczęściej w stacjach znajdujących się wewnątrz korpusu kom-putera, albo w postaci dysków elastycznych (ang.  floppy discs), inaczej zwanychdyskietkami, o stosunkowo małej pojemności pamięci (do 1,4 Mbyte), które są zato łatwo przenośne i wygodne do przechowywania poza komputerem.

4.3.3. Procesor

Centralną jednostką komputera jest pr o ce s or. Składa się on z jednostki aryt-metyczno-logicznej, z szeregu układów sterujących i przełączających oraz z nie-wielkiego obszaru pamięci wewnętrznej, tzw. rejestrów, potrzebnych do chwi-lowego przechowywania danych, na których wykonywane są operacje arytme-tyczne i logiczne. Sam procesor jest częścią większego bloku, w skład któregowchodzą jeszcze: c e n tr a l n e s te r ow a n i e, czyli system przekazywania da-nych i uruchamiania poszczególnych podzespołów wewnętrznych i zewnętrz-nych, oraz p a mi ę ć op e r a c y j na, obszar pamięci wewnętrznej potrzebny do

 bezpośredniej współpracy z procesorem.Ten blok określany jest mianem: ce nt r a ln a j e dn os tk a op e r a cy jn a (ang.

Central Processing Unit) lub krócej: jednostka centralna (CPU). Jednostka cen-tralna stanowi jakby „mózg” całego urządzenia. Działa zgodnie z programem

dostarczonym przez użytkownika, ale w sposób całkowicie zautomatyzowany.8 Dokładnie mówiąc, jest to ilość informacji, którą można uzyskać zadając takie pytanie, na które

możliwa jest tylko jedna z dwóch odpowiedzi: tak lub nie.

22515 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 226/381

Studio cyfrowe (komputerowe)

Nowoczesny komputer, nawet jeżeli jest to mikrokomputer typu PC lub jesz-cze mniejszy notebook, wykonuje kilkadziesiąt milionów operacji elementarnychna sekundę. Jego „zegar” działa z częstotliwością od kilkudziesięciu do kilkusetmegaherców (rok 1999). Uzyskuje dane z pamięci operacyjnej w ciągu kilku na-

nosekund i z podobną prędkością przekazuje je z jednych zespołów do drugich.Nieco wolniej pracują urządzenia do wprowadzania i wyprowadzania danych.Najwolniej działa sam użytkownik, wystukując na elektrycznej maszynie do pi-sania w najlepszym razie około 10 znaków na sekundę. Komputer po prostu„nudzi się” czekając na informację i rozkazy od użytkownika.

We współczesnych komputerach typu IBM PC lub Apple MacIntosh ważnymelementem są tzw. karty (graficzne, dźwiękowe i inne), montowane wewnątrzkorpusu komputera na specjalnych szynach, które mogą być stosowane wymien-nie. Są to wąsko wyspecjalizowane mikroprocesory ułatwiające użytkownikowikorzystanie z komputera bez włączania urządzeń zewnętrznych. W wielu kom-

puterach wmontowane są też konwertery cyfrowo-analogowe i porty wyjścioweMIDI (por. str. 278), co szczególnie interesuje użytkujących komputer muzyków.

4.4. Języki programowania

Dla porozumiewania się człowieka z komputerem konieczne było stworze-nie systemów kodowania zwanych językami programowania. W odróżnieniu od

 języków potocznych, w których mogą występować synonimy i wyrażenia wie-loznaczne, języki programowania są językami sformalizowanymi. W językusformalizowanym każdemu wyrażeniu odpowiada jedno i tylko jedno znaczenie.Za pomocą języków programowania można przekazywać komputerowi rozkazy,argumenty (dane liczbowe) i komentarze (komentarze służą użytkownikowi doorientacji w różnych fazach programowania, są one pomijane przez komputerw obliczeniach, ale drukowane przy podawaniu wyników).

 Języki programowania budowane są na kilku stopniach: j ę z y ka we w n ę tr z -n e g o, j ę z y k ó w s y m b o l ic z n y c h, j ę z y k ó w a l g o r y tm i c z n y c h i j ę z y -

ków probl emowych.Użytkownik nie potrzebuje znać języka wewnętrznego, zwanego także j ę z yki e m m a sz y ny, w którym wszystkie wyrażenia kodowane są w po-staci zero-jedynkowej. Czasem korzystać będzie z języka symbolicznego, czyliasemblera, który operuje skrótami literowymi i cyframi dziesiętnymi, ale wy-maga podawania dużej ilości bardzo ścisłych instrukcji. Najczęściej użytkownikposługuje się jednym ze standardowych języków algorytmicznych, takich jakFORTRAN, C, które operują wyrażeniami bliskimi sposobowi myślenia matema-tycznego i pozwalają formułować zadania dla komputera za pomocą wyrażeńalgebraicznych, liczb dziesiętnych i symboli arytmetycznych. Cechą wspólną ję-

zyków algorytmicznych jest podatność na formułowanie zadań w sposób ogólnyoraz na wprowadzanie ułatwień w postaci tzw. p od pr o gr a mów (ang. subrou-tines   lub   procedures), które albo mogą być zawarte w programie głównym, jak

226

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 227/381

Języki programowania

np. podprogramy służące do obliczania funkcji trygonometrycznych, pierwiastkakwadratowego, logarytmu naturalnego, lub też mogą być formułowane indywi-dualnie przez użytkownika, np. dla obliczania często powtarzających się zadańcząstkowych. Odwołanie się w treści programu do określonego podprogramu

powoduje jego automatyczne wykonanie, zaoszczędzając w ten sposób czas pro-gramującemu.Po to aby język algorytmiczny mógł być zrozumiały dla maszyny, w pamięci

komputera umieszczany jest odpowiedni program tłumaczący, czyli translator,który prostsze ciągi rozkazów w języku algorytmicznym będzie przekładał na

 bardziej złożone ciągi rozkazów w języku maszyny. Języki problemowe są językami tworzonymi do konkretnych celów i mają

na względzie wygodę użytkownika. Ich wyrażenia są z zasady bliskie tym, ja-kimi użytkownik posługuje się w swojej pracy na co dzień. Dla kompozytorawygodniejsze będzie na pewno posługiwanie się takimi pojęciami, jak „instru-

ment”, „nuta”, „częstotliwość”, „czas trwania”, które znajdzie w formie skróconejw języku MUSIC V, niż wyrażeniami matematycznymi i logicznymi używanymiw językach algorytmicznych.

Użytkownik może więc napisać swój program w języku problemowym, trans-lator umieszczony czasowo w pamięci komputera tłumaczyć go będzie na językalgorytmiczny, a następny translator umieszczony na stałe w pamięci przetłuma-czy go na język maszyny. Komputer bowiem jako maszyna niezwykle szybka,ale nieinteligentna, nie rozumie żadnego innego języka oprócz własnego.

4.4.1. Oprogramowanie systemowe

Współczesne komputery wielozadaniowe pozwalają na współpracę z różnymiużytkownikami posługującymi się różnymi językami programowania. Aby jed-nak tę pracę umożliwić, konieczne jest uprzednie wprowadzenie do pamięcipewnych instrukcji, które na stałe będą pozostawać w maszynie i służyć będą dozarządzania całością maszyny traktowaną jako zbiór zespołów i podzespołów. Taczęść nazywa się o p r og r a mo w a ni e m s ys te mo wy m i musi być dokonana

w języku maszyny. Oprogramowanie systemowe dostarczane jest przez produ-centa wraz ze sprzętem, może być jednak modyfikowane i rozwijane przez służbyspecjalistyczne zgodnie z potrzebami użytkownika.

Elementami oprogramowania stałego są także translatory z języków symbolicz-nych i algorytmicznych na język maszyny. Większość komputerów pozwala nastałe posługiwanie się kilkoma językami algorytmicznymi; niektóre z nich mogąstanowić specjalną wersję języka ogólnie znanego, przystosowaną do współpracyz określoną maszyną.

Zmiennymi elementami oprogramowania są p r ogr a my uż y tkow n i ków,służące do rozwiązywania konkretnych problemów matematycznych, fizycznych,

rachunkowych, analitycznych, do symulacji działań fizycznych, do sterowaniaurządzeniami analogowymi itd. Programy użytkowników umieszczane są za-zwyczaj w pamięci dyskowej i mogą być przechowywane poza komputerem.

22715∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 228/381

Studio cyfrowe (komputerowe)

Wprowadza się je do obiegu maszyny dopiero w momencie, kiedy użytkownikprzystępuje do realizacji swoich zadań. Większość tych programów pisana jestw językach wyższego rzędu: algorytmicznych lub specjalnych językach proble-mowych.

Zarówno program użytkownika, jak i jego podprogramy są powtarzalne. Niemuszą one zawierać konkretnych danych liczbowych. Przykładowy program Xzawiera np. zadanie sformułowane w sposób ogólny:

I  j  = (K + N )K ,   K  = 1, 2, . . . J .   (1)

Dopiero wraz z rozkazami „start”, „czytaj”, „drukuj”, „stop” podane zostająkonkretne argumenty liczbowe, np. N  = 1,  J  = 8.

Po jednorazowym obliczeniu wartości I 1, dla K  = 1 program zostanie automa-tycznie powtórzony osiem razy dla coraz wyższych wartości  K  i wynik zawierać

 będzie tablicę złożoną z ośmiu pozycji (2, 9, 64, ... 43 046 721). Wynik ten zostanieprzekazany przez procesor do urządzenia wyjścia i — zależnie od rodzaju tegourządzenia — utrwalony w postaci:

— wyświetlenia w postaci alfanumerycznej na monitorze kontrolnym,— wydruku na drukarce,— wykresu funkcji na ekranie monitora graficznego,— zapisu w formie cyfrowej na twardym dysku.Wprowadzenie nowych danych liczbowych i rozkazu ponownego uruchomie-

nia spowoduje wykonanie tego samego programu i obliczenie tablicy nowychwyników.

Możliwość powtarzania programu i jego części oraz łatwość przeskakiwaniaz jednej części programu do innej w zależności od otrzymanych wyników chwi-lowych (częściowych) stanowi istotną zaletę pracy na komputerach.

Wszystko ma jednak swoje blaski i cienie. Tak jak niezwykła jest szybkośćwykonywania poszczególnych operacji komputera, tak niewspółmiernie wolny

 jest proces przygotowania i uruchomienia nawet najprostszego programu.

4.4.2. Algorytm — programowanie

Problem, który ma zostać rozwiązany za pomocą komputera, trzeba najpierwprzedstawić w postaci algorytmu, to jest skończonego szeregu ściśle określo-nych kroków prowadzących do rozwiązania. Algorytm powinien być możliwieogólny, to jest pozwalający na rozwiązywanie pewnej klasy zadań, i efektywny,to znaczy powinien prowadzić do rozwiązania drogą możliwie prostą.

Algorytmy mogą być opisywane w języku potocznym. Jednak nie jest to prak-tyczne. Najczęściej przedstawia się je w postaci schematów blokowych, czyli siecidziałań. W przyjętej powszechnie konwencji kolejne instrukcje umieszczane sąw ramkach. W ramkach owalnych — instrukcje rozpoczęcia i zakończenia, w ram-

kach prostokątnych instrukcje operacyjne i instrukcje podstawiania, w ramkacho kształcie rombu — instrukcje wykonania operacji, od wyniku których zależydalszy bieg postępowania. Strzałki łączące ramki wskazują na kolejność operacji,

228

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 229/381

Sprawa modelu akustycznego

strzałka prowadząca z powrotem do jednej z poprzednich ramek wskazuje nakonieczność powtórzenia pewnej części działań (pętlę).

Nasz przykładowy problem wyrażony równaniem (1) na s. 228 da się przed-stawić w postaci algorytmu, którego sieć działań będzie miała postać jak na

il. 122.

Il. 122

Pierwsza instrukcja w ramce prostokątnej, to podstawienie dowolnej liczbyrzeczywistej  A  (dla zmiennej  N ) i dowolnej liczby naturalnej  M   (dla zmiennej J ). Dla uproszczenia przyjęliśmy, że zarówno   A, jak i   M   są większe od zera.Zmienna K  przybiera na początku wartość 1. Następuje obliczenie wartości  I  dlaK  = 1 i zapisanie tej wartości. W ramce o kształcie rombu podana jest instrukcjamająca na celu sprawdzenie, czy aktualna wartość  K   równa jest maksymalnejwartości indeksu  J . Jeżeli tak, program zostaje w tym miejscu zakończony, jeżelinie, następuje powiększenie wartości K  o 1 (instrukcja K  ← K +1) i część operacji

począwszy od I  ← K +

N  zostaje powtórzona. Pętla będzie teraz powtarzana takdługo, jak długo  K  nie osiągnie wartości równej  J .Za pomocą algorytmów można wyrażać nie tylko zadania obliczeniowe, ale

również zadania analityczne, zadania, których wynikiem jest sterowanie, symu-lowanie działań fizycznych, projektowanie itd.

Programując w językach wyższego rzędu: algorytmicznych, ukierunkowanychproblemowo itd., można układać algorytmy uproszczone. W takich algorytmachinstrukcje w ramkach mogą obejmować zadania złożone, tzw. makrorozkazy,które w translatorze z danego języka na język niższego rzędu realizowane będąza pomocą odpowiednich podprogramów.

229

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 230/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 231/381

Sprawa modelu akustycznego

Opieranie modeli akustycznych na dźwiękach naturalnych, mimo niezwyklecennych prac w tym zakresie, m.in. M. Mathewsa, Johna Chowninga, Jean--Claude’a Risseta, nie przyniosło dotąd spodziewanych rezultatów, a za takiemożna by uznać stworzenie zupełnie nowych „instrumentów” o kompleksowo-

ści nie mniejszej niż instrumenty naturalne, i o podobnej jednolitości i spoistości brzmienia, mimo znacznych różnic widmowych poszczególnych „granych” natym instrumencie dźwięków. Przyczyny tego niedostatku trzeba chyba szukaćw ciągle jeszcze niedostatecznym poznaniu natury tego, co powoduje, że pewnedźwięki uważamy za „piękne” lub „brzydkie”, „szlachetne” lub „pospolite”,a więc tych cech, które ucho nasze pozwala określić bez najmniejszych trudno-ści. Wysiłki w tym kierunku jednak nie ustają i kto wie, czy w niedługim czasienie zostaniemy zadziwieni niezwykłymi rezultatami.

Drugim typem modelu akustycznego, dosyć szeroko stosowanym, jest przyję-cie za wzór dźwięków typowo elektronicznych, a więc dźwięków, które możnauzyskać w studiu analogowym, np. za pomocą syntezatora. Zakłada to myślenieza pomocą „urządzeń”, takich jak generatory, modulatory, filtry, mieszacze itd.,z tym, że „urządzenia” te istnieją tylko w sferze pojęć, a w rzeczywistości są onezastępowane przez podprogramy, które symulują działania odpowiadających imurządzeń fizycznych.

Dla kompozytora mającego doświadczenia w studiu analogowym przyjęcie ta-kiego modelu oznacza poruszanie się po terenie dobrze znanym. Konfiguracjetego terenu są bardzo przejrzyste, a symulacja za pomocą programu pozwala na

 budowanie układów bardzo złożonych bez ograniczeń, jakie w studiu analogo-

wym stwarza istniejący zestaw aparatury. W odróżnieniu od modeli opartych nadźwiękach naturalnych, przy pracy na modelu „elektronicznym” symulacja kom-puterowa pozwala na uzyskiwanie dźwięków przewyższających pierwowzór, za-równo pod względem kompleksowości, jak i precyzji. Pozwala to na odejście odstruktur prymitywnych i zbliżenie przez to dźwięków elektronicznych do na-turalnych. Precyzja oznacza w tym przypadku większą stabilność i mniejszezniekształcenia, czyli szerzej pojętą czystość brzmienia.

Wadą tego modelu jest mała operatywność systemu komputerowego w po-równaniu z działaniami na aparaturze analogowej.

Przyjęcie trzeciego typu modelu, modelu abstrakcyjnego, nie mającego odnie-sienia do żadnego ze znanych nam z doświadczenia dźwięków, ma jedną podsta-wową zaletę: otwiera przed nami nie poznane dotąd obszary dźwiękowe. Drogądo nich są m.in. nielinearne systemy syntezy. Wśród nich wyróżnia sięoryginalnością system SSP Koeniga, opierający się na przeniesieniu makroczaso-wych elementów kompozycji, takich jak powtórzenie, wariacja, tendencja, seria,przypadkowość, do struktur mikroczasowych stanowiących o przebiegu sygnałufonicznego. Trzeba mieć tylko świadomość, że stosując ten system, z największymtrudem uda nam się wytworzyć dźwięki tradycyjnie muzyczne (o określonej bar-wie i wysokości), za to świat szmerów, zgrzytów i wszelkich brzmień niezwy-

kłych okaże nam całe swoje nie poznane jeszcze bogactwo. Niestety, nieprzewi-dzianym efektem działań w tym systemie mogą być szeregi dźwięków szarych,

 brudnych i nijakich, przypominające nieartykułowane szumy i zakłócenia.

231

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 232/381

Studio cyfrowe (komputerowe)

Możliwe są do przyjęcia jeszcze inne modele akustyczne, nie dające się zakwa-lifikować do żadnego z wymienionych wyżej typów. Do takich zaliczymy modelzaproponowany przez Wernera Kaegi w systemie VOSIM9. Model ten jest opartyna układach formantowych przejętych z analizy dźwięków wokalnych, ale mają-

cych zastosowanie także do tworów dźwiękowych nie mających nic wspólnegoz imitacją głosu ludzkiego.Tak czy inaczej, przyjęcie pewnego modelu akustycznego dla zamierzonej

pracy nad syntezą dźwięku decydować będzie o wyborze aparatury i metodyprogramowania. Przynajmniej tak być powinno. Niestety w praktyce bywa raczejna odwrót. Aparatura, do której aktualnie mamy dostęp, i wypracowane przezpoprzedników metody programowania i komunikowania się z komputerem, de-cydują najczęściej za nas o wyborze takiego, a nie innego modelu akustycznego.

4.6. Języki ukierunkowane muzycznie

W dotychczasowych pracach nad muzyką komputerową najwięcej miejsca za- jęły poszukiwania ekonomicznego, z punktu widzenia wkładu pracy, sposobuporozumiewania się kompozytora z komputerem.

Układanie programów w jednym z ogólnie przyjętych języków programowa-nia, jak ALGOL lub FORTRAN nastręczyło wiele kłopotów. Języki te, stworzonew zasadzie do rozwiązywania problemów matematycznych, z trudem dawały

się naginać do zadań muzycznych. Aby uzyskać jakikolwiek dźwięk, kompo-zytor musiał przyswoić sobie sporą dawkę wiedzy informatycznej i opanowaćpraktyczną umiejętność programowania przynajmniej w jednym z tych języków.A i tak przy układaniu programów muzycznych nie mógł się nieraz obyć bezpomocy wyspecjalizowanego informatyka-programisty.

Stąd też w wielu ośrodkach muzyki komputerowej od samego początku po-szukiwano:

— języków łatwiejszych do opanowania przez muzyka, a jednocześnie po-zwalających na uproszczone przedstawianie zamierzonych działań (ang.  music

oriented languages), i— innych sposobów komunikowania się z komputerem; chodziło tu głównieo możliwość wpływania na przeprowadzane przez komputer działania jeszczeprzed zakończeniem całego procesu obliczeniowego przez systemy konwersa-cyjne (ang. interactive systems), urządzenia graficzne i w końcu analogowe urzą-dzenia, np. klawiatury, podobne do fortepianowych.

 Języki ukierunkowane muzycznie tworzono w zależności od maszyn, z jakimimiano do czynienia, a także stosownie do zamierzeń kompozytorów i naukow-ców, którym miały one służyć. Inne były języki tworzone z myślą o symulacjiprocesów komponowania, jak PROJECT 1 (Koenig, 1964), ST (Xenakis, 1963) czy

9 W. Kaegi, S. Tempelaars, VOSIM, a New Sound Synthesis System. „Journal of the Audio EngineeringSociety”, 1978 nr 6.

232

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 233/381

Języki ukierunkowane muzycznie

MUSICBOX (Wiggen, 1972), inne z myślą o hybrydowej syntezie dźwięku za po-mocą urządzeń analogowych, jak GROOVE (Mathews, 1970), MUZYS (Grogono,1976), HYBRID IV (Kobrin, 1975), a jeszcze inne tworzone z myślą o cyfrowejsyntezie bezpośredniej, jak MUSIC V (Mathews, 1968), IRMA (Clough, 1971)

i POD (Truax, 1972).Tu trzeba powiedzieć, że słowo „język” nie jest jedynym określeniem tegotypu pakietu programowego. W literaturze znacznie częściej używa się określenia„program”, np. Program GROOVE, Program ST, lub słowa „system”, rozumiejącprzez to program i odpowiedni zestaw urządzeń.

Instrukcje występujące w językach ukierunkowanych problemowo mają po-stać tzw. makrorozkazów (makroinstrukcji) realizowanych przez odpowiada-

 jące im podprogramy napisane w językach algorytmicznych lub (albo częściowo)w językach bliższych językowi wewnętrznemu maszyny (asemblerach). Zbiór ta-kich podprogramów wraz z programem głównym (sterującym) napisanym w ję-zyku algorytmicznym, np. w FORTRAN-ie jest w istocie programem. Z punktuwidzenia systemu komputerowego jest to program tłumaczący (translator), sta-nowiący jedno ogniwo w łańcuchu translatorów prowadzących od kodu, którymposługuje się użytkownik, do języka wewnętrznego maszyny.

Z punktu widzenia użytkownika twory takie, jak MUSIC V, GROOVE są jednak j ę z yka m i, ponieważ po wprowadzeniu do pamięci komputera odpowiedniegoprogramu głównego (translatora), programy użytkowników pisane są nie w ję-zyku programu głównego, ale właśnie w języku wyższego rzędu, przy użyciuspecyficznego kodu i specyficznej „gramatyki” (układu wierszy, znaków prze-

stankowych, symboli specjalnych, symboli odwoływania się do podprogramówitd., właściwych tylko dla danego języka).Dla cyfrowej syntezy dźwięku historycznie najważniejszymi były programy

tworzone w kolejnych wersjach przez M. Mathewsa w Laboratoriach Bellaw Murray Hills (New Jersey), których dojrzałą postać reprezentuje program (ję-zyk) MUSIC V (z 1968 roku). Jego konstrukcja i narzucony przez niego sposóbmyślenia stały się wzorem do tworzenia innych programów syntezy dźwięku(MUSIC 7, MUSIC 11, MUSIC 360, MUSICOM itd.).

Współcześnie bardzo rzadko, i to tylko w wyspecjalizowanych instytucjachzajmujących się rozwojem muzyki komputerowej, pracuje się nad uruchamia-niem programów syntezy i innych programów muzycznych „od zera”. Kom-pozytorzy zarówno w studiach muzyki komputerowej, jak i w domowych stu-diach syntezatorowo-komputerowych korzystają prawie wyłącznie z programówkomercyjnych, przygotowanych przez biegłych informatyków współpracującychz muzykami, sprzedawanych wraz z obszernymi podręcznikami. Są to na ogółprogramy pozwalające z jednej strony na sekwencyjne umieszczanie w pamięciposzczególnych „zdarzeń” muzycznych (nut), a z drugiej strony na wyrażanie za-pamiętanych „zdarzeń” w postaci zapisu w tradycyjnej notacji muzycznej, układu

 blokowego, lub listy „zdarzeń”. Takimi programami są np. NOTATOR (C-Lab),

CUBASE (Steinberg), czy FINALE (Op-Code). W programach tych, a przynaj-mniej w pewnych ich częściach, możliwe jest też sterowanie procesami syntezydźwięku. Jednak w zasadzie synteza odbywa się w wyspecjalizowanych urządze-

233

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 234/381

Studio cyfrowe (komputerowe)

niach analogowo-cyfrowo-analogowych, czyli cyfrowych syntezatorach muzycz-nych. O nich szerzej będzie w rozdziale 4.10. Obok syntezatorów, oferującychróżne systemy syntezy, popularne są również tzw. samplery, urządzenia po-zwalające na cyfrową rejestrację krótkich odcinków dźwiękowych (próbek, ang.

sample), które mogą być potem traktowane jako „nuty” i umieszczane w sekwen-cerze w różnych miejscach czasu i na różnych „wysokościach”.W obu przypadkach systemem umożliwiającym szybkie porozumiewanie się

kompozytora z urządzeniami cyfrowymi stał się wprowadzony na początku latosiemdziesiątych system MIDI (od ang. Musical Instruments Digital Interface), dziśwłaściwie standardowy system przekazu pomiędzy komputerem i różnymi cy-frowymi systemami muzycznymi (patrz rozdział 4.13). Sprawa opłacalności syn-tezy dźwięku w przypadkach syntezatorów cyfrowych stała się właściwie nie-istotną — jest ona bardzo ekonomiczna. Nie wymaga od użytkownika prawieżadnego wysiłku, ponieważ proces syntezy odbywa się poza jego świadomościąi jest całkowicie automatyczny. Zadaniem użytkownika jest tylko dostarczenieodpowiedniej ilości danych, często poprzez działania analogowe, jak naciskaniewyłączników, przyciskanie klawiszy i pedału lub dodatkowo kilku pokręteł napłycie syntezatora.

4.7. MUSIC V

Max Mathews w swoim MUSIC V wprowadził podział na „instrumenty”i „nuty”, co oznaczało, że kompozytor w pierwszym etapie ustalał kształt sy-gnału, poprzez ułożenie procedur określających generowanie i modyfikowaniesygnałów cyfrowych, budując w ten sposób swój „instrument”. W drugim etapiekompozytor określał kolejne „nuty” wpisując odpowiednie wartości parametrówdla każdej z nich. Mathews wprowadził następnie ważne pojęcie jednostek ope-racyjnych (ang. operators), takich jak generatory, sumatory, mnożniki, modulatoryitd., które w rzeczywistości były jednostkami programowymi (podprogramami)służącymi do szybszego osiągnięcia rezultatu końcowego.

Podstawową jednostką operacyjną był „generator” (ang.  oscillator), który po-zwalał na dowolnie długie powielanie określanego przez kompozytora przebiegucyklicznego, np. sygnału sinusoidalnego. Generator miał dwa wejścia — pierw-sze określało amplitudę, drugie częstotliwość, oraz jedno wyjście. Dla funkcjo-nowania „generatora” trzeba było jeszcze określić funkcję, jaka miała wyzna-czać jeden cykl generowanego sygnału. Mogły to być odcinki prostej (F1), suma

funkcji sinusoidalnych i cosinusoidalnych (F2), mogła to być dowolna,określona przez kompozytora funkcja, wprowadzająca np. przebiegi lo-sowe. Warto tu pokazać blokowy schemat najprostszego „instrumentu”

składającego się z jednego tylko generatora. Dobrze też będzie to zrozu-mieć, ponieważ w późniejszych systemach stosowano często schematy blokowe, przejęte wprost z MUSIC V.Il. 123

234

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 235/381

MUSIC V

Zbudowanie „generatora” polegało na oznaczeniu funkcji nieciągłej przezwskazanie (wyliczenie) wartości 512 pozycji w układzie  x. y  i umieszczeniu ichw pamięci w postaci tablicy. Generowanie było powtarzaniem szeregu wynikówczytanych z tablicy funkcji. Amplitudę sygnału wyznaczał mnożnik poszczegól-

nych jej wartości. Częstotliwość powtarzania cyklu, a w rezultacie częstotliwośćgenerowanego sygnału, określana była w jednostkach „przyrostu” (ang.   incre-ment), parametru, który określał, co ile pozycji (spośród 512) miała być czytanadana funkcja z tablicy.

Na wejściu „generatora” oprócz (czy obok) parametrów

Il. 124

stałych mogły się pojawiać wyniki z poprzedniego „genera-tora”, powodując albo obwiednię (pojedynczy cykl funkcji),albo modulację częstotliwości lub amplitudy, w zależnościod tego, na które wejście wprowadzany był sygnał z genera-tora modulującego. Możliwe też było sumowanie sygnałów

z kilku generatorów. Schemat blokowy nieco bardziej złożo-nego „instrumentu”, z obwiednią amplitudową i modulacjączęstotliwości pokazuje il. 124. Blok AD2 to sumator, którydodaje do wartości z generatora 2 wartość wyjściową (śred-nią częstotliwość modulowanego sygnału). Il. 125 przedsta-wia wykresy trzech funkcji dla generatorów 1, 2 i 3. Takokreślony układ nosił nazwę „instrumentu”.

Il. 125

Na „instrumencie” można było „grać” wpisując wartości parametrów poszcze-gólnych „nut”. Pojęcie „nuty”, potem bardzo przydatne w systemie MIDI, niemiało nic wspólnego z graniem na klawiaturze, czy z innymi działaniami fi-zycznymi, lecz stanowiło listę wartości parametrów dla poszczególnych jedno-stek dźwiękowych. Parametrami tymi były: numer „instrumentu”, czas wejścia

liczony od początku utworu (sekwencji), czas trwania — oba liczone w sekun-dach i ułamkach sekund, amplituda szczytowa (w umownych jednostkach od 0do 2047 i częstotliwość (w jednostkach przyrostu I).

235

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 236/381

Studio cyfrowe (komputerowe)

MUSIC V składał się z programu głównego (ang. main program) i programówwejściowych. Program główny, obejmujący ponad 3000 instrukcji, napisany byłczęściowo w FORTRAN-ie, a częściowo w asemblerze (języku symbolicznym kon-kretnego komputera). Zawierał on instrukcje przeprowadzania kolejnych opera-

cji oraz podprogramy i tablice symulujące działania poszczególnych „urządzeń”.Spełniał więc zarazem rolę translatora z kodu użytkownika na język zrozumiałydla maszyny.

Określenie „instrumentów” oraz lista „nut” stanowiły program wejściowyzwany też programem muzycznym (w oryg. score  = zapis, partytura). W pierwot-nej wersji MUSIC V program wejściowy musiał być wpisywany alfanumerycznieprzez kompozytora. Jedynymi ułatwieniami były podprogramy CNVT (od  con-vert   =   przemieniać), które pozwalały używać w pisanym programie wyrażeńmuzycznych, np. wysokości   a3,   c4 itd., a czasów trwania w postaci wartościmuzycznych według wskazanego na początku „metronomu”. Podprogramy teprzeliczały automatycznie wartości muzyczne na odpowiednie wartości przyro-stu, amplitudy czy czasu, zgodnie z wyrażeniami MUSIC V. Niedogodnością

 było to, że podprogramy takie kompozytor musiał sam skonstruować i wpi-sać do programu głównego MUSIC V. Potem do wprowadzania danych zaczętostosować także urządzenia graficzne.

Ciąg cyfr (dwójkowych oczywiście) reprezentujący końcowy, sumaryczny sy-gnał foniczny (możliwy także w wersji dwukanałowej) zostawał umieszczanyw pamięci, np. na twardym dysku i mógł być odtworzony w każdej chwili po-przez konwerter cyfrowo-analogowy i filtr wygładzający. Jednak czas wyliczania

ciągu cyfr był w tym okresie znacznie dłuższy od czasu trwania odpowiadają-cego mu przebiegu dźwiękowego. Program ten nie mógł więc działać w czasierealnym, i dlatego kontrola słuchowa skomponowanego utworu (fragmentu) byłamożliwa dopiero po uprzednim zapisaniu sygnału cyfrowego na nośniku.

MUSIC V miał służyć kompozytorom posiadającym wcześniejsze doświad-czenie w studiu analogowym i wiedzącym dokładnie, jak ma przebiegać ichkompozycja. Synteza cyfrowa zapewniała precyzję i absolutną powtarzalnośćkażdego przebiegu oraz sprawność (wirtuozerię) nieosiągalną w studiu analo-gowym. Inną zaletą pracy w MUSIC V był bardzo elastyczny zestaw „instru-

mentów” oraz podatność na rozwijanie strony programowej bez rozbudowywa-nia aparatury. Wadami były stosunkowo duża pracochłonność przygotowywaniaprogramu muzycznego i mała operatywność związana z oddzieleniem procesuobliczeniowego od realizacji akustycznej. Nowsze systemy syntezy, prowadzącedo działań w czasie realnym, pozwoliły uniknąć większości tych wad. Trzeba

 jednak pamiętać, że MUSIC V był pierwszym kompleksowym programem 10 po-zwalającym nie tyle na doświadczenia komputerowe, ile na kontynuowanie do-świadczeń muzycznych wyniesionych z analogowego studia syntezatorowego.Stworzony w roku 1968, przystosowany był do pracy w specyficznie korzystnych

10 Poprzednie wersje tego języka: MUSIC I do MUSIC IV stanowiły tylko etapy wstępne do wersjipiątej.

236

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 237/381

Rodzaje cyfrowej syntezy dźwięku

warunkach, jakie dawały jego autorowi Laboratoria Bella 11. Program ten zyskałw następnych latach ogromną popularność, tak w swojej wersji pierwotnej, jaki w postaci języków pochodnych (MUSIC 7, MUSIC 11, MUSIC 360, MUSICOLitd.). Używany był w kilkunastu studiach muzyki komputerowej i przez wiele

lat nie tracił na znaczeniu. Co więcej, zasugerował konstruktorom późniejszychurządzeń hardwarowych (generatorów, filtrów cyfrowych), a także konstrukto-rom syntezatorów cyfrowych przyjęcie koncepcji wynikającej z właściwego dlaMUSIC V pojmowania „instrumentów” i „nut”. Sama zaś lista „nut” dała suge-stię w późniejszym tworzeniu kodu MIDI.

4.8. Rodzaje cyfrowej syntezy dźwięku

Aby rozeznać się w ogromie materiału, z jakim przyjdzie się spotkać kompozy-torowi zainteresowanemu tworzeniem muzyki za pomocą komputera, a szczegól-nie tworzeniem nowych „komputerowych” barw dźwiękowych, pora uporządko-wać stosowane obecnie różne rodzaje cyfrowej syntezy dźwięku. Niektóre z nichsą przeniesieniem znanych wcześniej analogowych systemów syntezy na gruntoperacji cyfrowych. Inne noszą cechy typowo komputerowych, ponieważ ich re-alizacja możliwa stała się dopiero przy zastosowaniu szybkich maszyn liczących,lub choćby wyspecjalizowanych cyfrowych obwodów scalonych o bardzo dużejskali integracji (mikroprocesorów).

Wymienimy tu najpierw najbardziej rozpowszechnione:1. Synteza addytywna2. Synteza subtrakcyjna3. Synteza przez próbkowanie (sampling)4. Synteza przez modulację częstotliwości5. Synteza za pomocą formowania kształtu sygnału (wave shaping)6. Synteza formantowa

dalej rzadziej stosowane systemy jak:7. Synteza ziarnista

8. Przekształcenia nieliniowe9. Synteza sygnałów losowych

10. Modelowanie fizyczne

4.8.1. Synteza addytywna

 Jest to chyba najstarsza metoda syntezy, stosowana powszechnie jeszcze w tech-nice klasycznej — przypomnijmy Stockhausena Studie I  i Studie II  z lat pięćdzie-siątych. Wywodziła się ona z przyjętego założenia, że jeżeli każdy dźwięk można

11 Czytelników zainteresowanych głębiej tym programem odsyłam do I wyd. niniejszej książkiz 1989 r., dostępnego jeszcze w wielu bibliotekach muzycznych, oraz do pracy źródłowej: Max V.Mathews, The Technology of Computer Music. MIT Press, Cambridge (Mass.) i Londyn 1969.

237

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 238/381

Studio cyfrowe (komputerowe)

rozłożyć na sinusoidalne składowe harmoniczne (analiza Fouriera), to można teżkażdy dźwięk złożyć przez dodanie, czyli nałożenie na siebie odpowiedniej ilo-ści składowych sinusoidalnych (synteza). To składanie dźwięku przez dodawaniesygnałów sinusoidalnych (i nie tylko) nazwano syntezą addytywną.

W technice analogowej synteza addytywna napotkała pewną istotną barierętechniczną. Analizowane dźwięki naturalne wykazują istnienie ogromnej ilościskładowych, w każdym razie kilkudziesięciu składowych znaczących, tzn. ta-kich, których obecność lub ich brak są zauważalne przy odbiorze słuchowym.Tymczasem aparatura analogowa z lat pięćdziesiątych i nawet siedemdziesiątychpozwalała na dodawanie najwyżej kilkunastu składowych. Przy większej ilościpoziom szumów powstających przy nakładaniu sygnałów uniemożliwiał uzyska-nie klarownego efektu końcowego. Poza pierwszymi próbami z lat pięćdziesią-tych, kiedy stosowano blokowe nakładanie składowych o niezmiennej w czasie,chociaż różnej dla poszczególnych składowych amplitudzie, jasne było, że otrzy-mywane tą metodą dźwięki mogły być wprawdzie dosyć oryginalne, ale niestety

 bardzo ubogie i nie wytrzymywały „konkurencji” z bogatymi i niezwykle zmien-nymi dźwiękami naturalnymi. Toteż często, zamiast mało efektywnej (wówczas)syntezy addytywnej, stosowano chętnie inne metody, np. subtrakcyjną lub przezmodulację kołową, co prowadziło mniejszym nakładem pracy do otrzymania

 bardziej urozmaiconych tworów dźwiękowych.Synteza addytywna nabrała nowego znaczenia przy zastosowaniu cyfrowej

syntezy dźwięku. Teraz, ponieważ wszystkie operacje dodawania sygnałów od- bywają się w sferze działań arytmetycznych, ilość składowych ograniczona być

może jedynie pojemnością pamięci, a ta jest na ogół wystarczająco duża, aby po-mieścić nawet kilkadziesiąt składowych. Ewentualne niepożądane przydźwiękiszumowe nie zależą i tak od ilości dodawanych składowych, ale od innych czyn-ników. Co więcej, znaczny postęp w Fourierowskiej analizie dźwięków natu-ralnych pomógł rozbudzić większą świadomość kompozytorów co do naturydźwięku i koniecznego charakteru zmienności. To pozwoliło przybliżyć światdźwięków syntetycznych do bogactwa dźwięków naturalnych. Zresztą pierwszepróby z syntezą addytywną, przeprowadzane jeszcze w końcu lat sześćdziesią-tych, szły właśnie w kierunku resyntezy, czyli możliwie wiernego odtworzeniaanalizowanych uprzednio dźwięków instrumentalnych. Dziś już wiadomo z całąpewnością, że dla uzyskania dźwięków syntetycznych o kompleksowości po-równywalnej z dźwiękami naturalnymi, każda ze składowych powinna posiadaćwłasny przebieg amplitudowy w czasie, czyli własną obwiednię, różną od ob-wiedni pozostałych składowych.

W technice cyfrowej wzrosło znaczenie syntezy addytywnej i rozszerzył się jejzakres. Łatwym do osiągnięcia stało się to, co w technice analogowej napotykałorafy techniczne niemal nie do przebycia. Dostępne dla syntezy stały się sygnałyo widmie złożonym z kilkunastu do kilkudziesięciu składowych, z których każdamogła być kontrolowana, i to z dużą precyzją, pod względem częstotliwości,

amplitudy i fazy, a także sygnały o widmach „dynamicznych”, to jest takich,w których zmiany amplitudy (czasem również częstotliwości) poszczególnychskładowych mają niejednakowe przebiegi w czasie.

238

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 239/381

Rodzaje cyfrowej syntezy dźwięku

Niedogodnością syntezy addytywnej jest konieczność podawania ogromnej ilo-ści danych potrzebnych do szczegółowego określania przebiegu amplitudy każdejze składowych. W przypadku widm „dynamicznych” o dużej ilości składowychprowadzić to musi do ograniczeń wynikłych z zajmowania znacznych obszarów

pamięci i spowolnienia procesu obliczeniowego, nie mówiąc już o komplikacjachw samym programowaniu.Bardziej ekonomiczne okazały się metody przekształceń nieliniowych, w tym

metoda uzyskiwania widm „dynamicznych” za pomocą modulacji częstotliwości.Realizacja syntezy addytywnej możliwa jest na kilka sposobów. Najprostszym,

chociaż niekoniecznie najbardziej ekonomicznym, jest synteza bezpośrednia zapomocą programu podobnego do MUSIC V. Wystarczy zaprogramować dosta-teczną ilość „instrumentów”, z których każdy produkowałby jedną składową,i nadać każdej składowej odpowiednią obwiednię, aby uzyskać dowolnie bogatyi zróżnicowany obiekt dźwiękowy. Oczywiście ilość danych potrzebna do uzyska-

nia takiego dźwięku będzie ogromna. Innym sposobem jest korzystanie z dużejilości generatorów cyfrowych w postaci wyspecjalizowanych obwodów scalonychpozwalających na wprowadzenie indywidualnych obwiedni dla każdego sygnału.Takie możliwości dają opisane dalej syntezatory cyfrowe, np. Fairlight CMI, czyznajdujący się w studiach IRCAM-u syntezator 4X (Quatre X).

Zaletą syntezy cyfrowej jest znaczna dokładność odwzorowania i pełna kon-trola wszystkich elementów składowych dźwięku. Wadą — znaczny nakład pracyprzy programowaniu i określaniu dużej ilości danych. W syntezie cyfrowej moż-liwe są pewne uproszczenia, np. kiedy nie każda składowa, ale pewne grupy

składowych, np. sąsiadujących ze sobą, otrzymują wspólną obwiednię (tzw.grupowa synteza addytywna). Pozwala to na znaczną redukcję danych, a róż-nica efektu akustycznego w stosunku do dźwięku otrzymanego klasyczną me-todą syntezy addytywnej jest prawie niezauważalna. Syntezę addytywną możnaprzedstawić w postaci blokowej następująco:

Il. 126

Ponieważ ograniczenia sprzętowe są coraz mniejsze, synteza addytywna możemieć coraz większe znaczenie praktyczne, zwłaszcza jako resynteza poprzedzonaanalizą widmową i modyfikacją. Tak działa ogromna liczba używanych dziś

programów i urządzeń. Tyle tylko, że w tym przypadku należałoby mówić ra-czej o przekształcaniu dźwięku realizowanym w dziedzinie częstotliwości a nieo syntezie.

239

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 240/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 241/381

Rodzaje cyfrowej syntezy dźwięku

Synteza subtrakcyjna jest podstawową metodą transformacji liniowej, tj. takiej,która nie zmienia układu i przebiegu widma akustycznego, a tylko powodujewytłumienie lub uwydatnienie pewnych obszarów częstotliwości, np. formantów.Synteza taka jest bardzo przydatna przy przekształcaniu sygnałów pochodzących

z rejestracji dźwięków naturalnych, tego co historycznie nazywane było muzykąkonkretną.

4.8.3. Synteza za pomocą modulacji częstotliwości

Modulacja częstotliwości należy do grupy, którą określa się mianem nielinio-wych przekształceń sygnału, a więc przekształceń, które zmieniają zawartośćwidma akustycznego, wprowadzając do istniejącego sygnału składowe, którychw nim uprzednio nie było. W zależności od dobranych warunków może to pro-

wadzić do zniekształceń (dystorcji), do wzbogacania istniejącego sygnału lub dotworzenia zupełnie nowych barw dźwiękowych. Jedną z bardziej interesujących metod jest zastosowanie modulacji częstotliwo-

ści do tworzenia sygnałów bogatych w składowe harmoniczne i nieharmoniczne.Modulacja częstotliwości znana była i stosowana jeszcze w studiu analogowym.Prowadziła ona do bardzo interesujących rezultatów brzmieniowych. Jednak jejefekty były wykorzystywane tylko w ograniczonym zakresie, głównie z powoduniedoskonałości samej aparatury i niedostatecznej precyzji w sterowaniu po-szczególnymi parametrami. Wykluczało to możliwość stosowania jej w przypad-kach, kiedy wymagana była idealna synchronizacja sygnałów pod względem

częstotliwości i fazy. Technika cyfrowa zniosła te ograniczenia. Przy generowaniusygnałów cyfrowych ich równoczesność, równoległość czy przesunięcie fazowewyznaczane są danymi liczbowymi z dokładnością do jednej próbki.

Potrzebę tworzenia dźwięków o widmach „dynamicznych” odczuwało wielukompozytorów muzyki elektronicznej jeszcze we wcześniejszych stadiach jej roz-woju. Wynikało to z obserwacji i analizy dźwięków naturalnych, i porównywaniaich z typowymi dla tamtych czasów dźwiękami elektronicznymi. Czyniono teżpróby wyjścia z impasu, niekiedy przez stosowanie wymyślnych technik addy-tywnych, częściej jednak przez korzystanie z naturalnych źródeł akustycznych

 jako materiału do przekształceń elektronicznych. John M. Chowning we wstępie do swojego słynnego artykułu13 o synteziezłożonych widm dźwiękowych za pomocą modulacji częstotliwości pisał tak:

„Dotychczasowe próby syntezy dźwięków naturalnych nie dawały zadowa-lających rezultatów. Jednak prowadzone od niedawna prace nad komputerowąanalizą i syntezą dźwięków instrumentalnych dały wgląd w sprawy, które mogąokazać się istotne dla wszelkich dźwięków naturalnych, i pozwoliły sformuło-wać tezę, że charakter czasowych zmian składowych widma posiada decydująceznaczenie dla określenia barwy dźwięku.

13

 J. M. Chowning, The Synthesis of Complex Audio Spectra by Means of Frequency Modulation . „Journalof Audio Engineering Society”, 1973 nr 1. Wyd. Synteza złożonych widm akustycznych za pomocą modu-lacji częstotliwości, w: Modulacja częstotliwości jako metoda syntezy dźwięków złożonych, W. Kotoński (red.i tłum.), „Zeszyt Naukowy” nr 31 Akademia Muzyczna im. F. Chopina w Warszawie 1995.

24116 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 242/381

Studio cyfrowe (komputerowe)

W widmach dźwięków naturalnych amplitudy składowych są zmienne w cza-sie, mają więc charakter dynamiczny. Energia poszczególnych składowych zmie-nia się często w sposób bardzo złożony, szczególnie w trakcie narastania i wy-

 brzmiewania dźwięków. Niekiedy śledzenie zmienności widma jest łatwe, jak np.

w przypadku dzwonów. Kiedy indziej, gdy zmiany następują bardzo szybko posobie, stają się one trudno uchwytne; są jednak zawsze dostrzegalne i stanowiąistotny wyznacznik rozpoznawalności barwy dźwięków. Wydaje się, że charak-terystyczny przebieg zmian widmowych, właściwy dla wielu dźwięków natu-ralnych, ma nie tylko znaczenie «identyfikujące», ale w dużym stopniu wpływarównież na to, co odczuwamy jako «żywość» brzmienia. I odwrotnie, stałe pro-porcje dynamiczne składowych widma, właściwe dla większości dźwięków syn-tetycznych, ponoszą winę za to, że słuchacz klasyfikuje je jako «elektroniczne»i «martwe»...”.

Właśnie John M. Chowning, kierownik centrum muzyki komputerowej na

Stranford University w Kalifornii,14  był twórcą metody, która okazała się naj- bardziej ekonomiczną, a jednocześnie bardzo skuteczną w symulacji dźwiękówinstrumentalnych. Metoda ta wyszła dawno poza laboratoria, stając się podstawątworzenia tzw. „głosów” w komercyjnych syntezatorach cyfrowych, np. firmyYAMAHA.

Metoda Chowninga wykorzystuje pewną właściwość modulacji częstotliwo-ści dwóch sygnałów prostych, kiedy oba znajdują się w zakresie częstotliwościakustycznych (zob. rozdz. 3.2.1., str. 161), a mianowicie tę, że szerokość pasmawidma zmodulowanego sygnału zmienia się w zależności od jednego czynnika,

tzw. wskaźnika modulacji, pozostawiając układ częstotliwości nie zmieniony. Je-żeli więc wartość wskaźnika modulacji wyrażać się będzie funkcją w czasie, to barwa syntetyzowanego dźwięku zmieniać się będzie w sposób ciągły i kontro-lowany bez zmiany wysokości tego dźwięku.

W technice analogowej widmo zmienne w czasie przy nie zmienionej „mate-rii” dźwięku można było uzyskać przez zmienne filtrowanie sygnału, lecz byłto efekt prymitywny i nienaturalny. Metoda zastosowana przez Chowninga da-wała efekty zaskakujące naturalnością uzyskiwanych przebiegów i dużym po-dobieństwem do naśladowanych dźwięków instrumentalnych. Pozwalała też natworzenie nowych dźwięków syntetycznych o złożoności zbliżonej do dźwię-ków naturalnych. Była przy tym ekonomiczna, to znaczy wymagała podawanianiewielkiej ilości danych dla uzyskania przebiegów o dużej złożoności.

Aby zrozumieć, jak to było możliwe, musimy się zwrócić do matematycznejinterpretacji tego zjawiska. Modulacja częstotliwości dwóch sygnałów sinusoidal-nych da się przedstawić za pomocą równania:

c  = Ac sin[2 f ct + I  sin(2 f mt)] (1)

gdzie: c   jest wartością chwilową sygnału zmodulowanego,  Ac  — amplitudą sy-gnału nośnego,   f c  — częstotliwością sygnału nośnego,   f m  — częstotliwością sy-

gnału modulującego (częstotliwością modulującą),  I  — wskaźnikiem modulacji.14 Pełna nazwa instytutu brzmi: Center for Computer Research in Music and Acoustics, w skrócieCCRMA.

242

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 243/381

Rodzaje cyfrowej syntezy dźwięku

Ponieważ 2 f  oznacza pulsację sygnału (można ją wyrazić jako prędkość ką-tową w rad/s), to wyrażenia 2 f c   i 2 f m  można zastąpić przez symbole  ωc   i  ωm,a równanie (1) wyrazić prościej jako

c  = Ac sin(ωct + I  sinωmt) (2)

Prawa strona równania wskazuje, że pulsacja sygnału zmodulowanego zwięk-sza się lub zmniejsza (przy ujemnych wartościach sinusa) zgodnie z pulsacjąsygnału modulującego sin ωmt. Powoduje to odchylenia od częstotliwości nośnej,która staje się tu częstotliwością średnią, o pewne wartości w górę i w dół.Maksymalna wartość tego odchylenia, czyli odchylenie szczytowe, oznaczanesymbolem d  (od ang.  deviation) jest równe iloczynowi parametru  I , określanego

 jako wskaźnik modulacji (modulation index) oraz częstotliwości sygnału modulu- jącego   f m. Zmienność pulsacji fali zmodulowanej zależy od stosunku d :   f m, czyliwskaźnika modulacji   I . Dlatego w rozważaniach nad modulacją częstotliwości

najczęściej opuszcza się współczynniki Am i d jako mniej wygodne w operowaniu,i operuje tylko wskaźnikiem modulacji  I .

Równanie (2) można też przedstawić w postaci sumacyjnej:

e  = J 0(I )sinωct +x

k =1

 J k (I )sin(ωc  + kωm)t + (−1)k sin(ωc − kωm)t

  (3)

gdzie:   J 0  oznacza funkcję Bessela rzędu zerowego,   J k  — funkcję Bessela  k-tegorzędu. We wzorze tym opuszczono  Ac  przyjmując, że równa się 1.

Z równania (3) wynika, że sygnał zmodulowany da się przedstawić jako sumę

składowych sinusoidalnych, z których pierwsza ma częstotliwość równą często-tliwości nośnej, a następne różnią się od niej o kolejne wielokrotności częstotli-wości modulującej w górę i w dół. Widmo sygnału zmodulowanego zawieraćwięc będzie składowe o częstotliwościach   f c,   f c+ f m,   f c− f m,   f c+2 f m,   f c−2 f m... itd.

Ponieważ składowe rozchodzą się symetrycznie od częstotliwości nośnejw górę i w dół, określane bywają jako wstęgi boczne górna i dolna (il. 127).

Il. 127

Amplitudy poszczególnych składowych wyznaczane są przez funkcję Bessela15

k-tego rzędu dla zmiennej niezależnej I . Wykresy funkcji Bessela od  J 0 do J 5 obra-

15 Ogólny wzór na funkcję Bessela ma postać:

 J λ(z)  =

z2λ   ∞

k =0

(−1)k   z2 2k 

k!Γ(λ + k + 1) ,

gdzie:  Γ  — jest funkcją gamma Eulera,  z  — zmienną niezależną,  λ — parametrem zespolonym.

24316∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 244/381

Studio cyfrowe (komputerowe)

zuje il. 128 (s. 247; podajemy je za Chowningiem 16). Amplitudę składowej nośnej, jak to wynika z równania (3), określa funkcja Bessela rzędu zerowego, amplitudyskładowych pierwszej bocznej górnej i pierwszej dolnej, funkcja Bessela rzędupierwszego   J 1(I ), drugich składowych bocznych górnej i dolnej — funkcja   J 2(I )

itd. Ponieważ dla małych wartości I  funkcje Bessela wyższych rzędów przybierająwartości bliskie zera, można przyjąć, że składowe te w widmie nie występują i żeo szerokości pasma widma sygnału zmodulowanego decydują tylko składoweo „znaczących” amplitudach, to jest takich, których wartość względna przekraczapewien próg, np. 0,01, przyjmując amplitudę sygnału nośnego jako 1,0.

Przyjmując takie uproszczenie, można powiedzieć, że liczba składowych bocz-nych k  zależy od wielkości wskaźnika modulacji. Kiedy wskaźnik  I  = 0, to J 0  = 1,a J 1... J k  mają wartość zerową i modulacja nie występuje. Kiedy wskaźnik  I  rośnieod zera, ilość znaczących składowych bocznych rośnie i wynosi w przybliżeniu

k  = I  + 2,4 · I 0,

27,

w zupełnie zgrubnym przybliżeniu można przyjąć, że  k ≈ I  + 1.Zobrazujmy powyższe rozważania kilkoma konkretnymi przykładami. Prze-

konamy się wkrótce, że na obraz widma wpływa w dużej mierze stosunek czę-stotliwości nośnej do modulującej, czyli   f c :   f m.

Przykład 1.

 f c  = 500,   f m  = 100 Hz  f c

 f m=

51

Składowe boczne będą się układać wokół częstotliwości nośnej następująco:600 700 800 900 itd.500 Hz

400 300 200 100 itd.Produktem modulacji będzie sygnał o widmie harmonicznym i częstotliwości

podstawowej 100 Hz.

Przykład 2.

 f c  = 200,   f m  = 500 Hz  f c

 f m=

23

układ składowych bocznych będzie następujący:500 800 1100 1400 1700 itd.200 Hz

−100   −400   −700  −1000   −1300 itd.Można zapytać, co stanie się z częstotliwościami ujemnymi. Otóż nastąpi ich

„odbicie” od zera: częstotliwości przybiorą swoje wartości absolutne, a sygnały będą odwrócone w fazie o 180, albowiem − sinα   =   sin(−α). Widmo sygnałuz przykładu drugiego zawierać będzie składowe o częstotliwościach

100 200 400 500 700 800 1000 1100 1300 1400 itd. HzBędzie to więc widmo o składzie harmonicznym z brakującą co trzecią skła-

dową, z tym, że składowe nieparzyste (odbite) będą odwrócone w fazie.

16 Op. cit. s. 241.

244

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 245/381

Rodzaje cyfrowej syntezy dźwięku

Il. 128. Funkcje Bessela

W przykładach powyższych pominęliśmy amplitudy składowych, ponieważnie ustaliliśmy amplitudy sygnału modulującego odchylenie   d, a tym samymi wielkości współczynnika  I .

Przykład 3. f c  = 400,   f m  = 200Hz, I  = 3

Układ składowych widma będzie następujący:600 800 1000 1200 1400 itd.

400 Hz200 0

  −200

  −400

  −600 itd.

Widać tu, że niektóre składowe bocznego pasma dolnego po odbiciu od zera będą miały te same częstotliwości co niektóre składowe „dodatnie”, a tylko prze-ciwne fazy. Na il. 129a (s. 246) składowe „ujemne” zostały przedstawione jako

245

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 246/381

Studio cyfrowe (komputerowe)

kreski skierowane w dół. Amplitudy składowych o tych samych częstotliwościachdodadzą się do siebie (algebraicznie), co wpłynie na ostateczny obraz widma sy-gnału zmodulowanego (il. 129b). Amplitudy poszczególnych składowych pasm

 bocznych zostały odczytane z tablic funkcji Bessela odpowiadających im rzędów

dla zmiennej I  =

 3 (por. il. 128, s. 245).Zwróćmy uwagę, że   f c   = 400Hz miała już z funkcji Bessela wartość ujemną.Dodała się jeszcze do niej ujemna składowa odbita. W widmie ostatecznie skła-dowa 400 Hz ma dość wysoką amplitudę, ale jest odwrócona w fazie w stosunkudo pozostałych składowych.

a)

 b)

Il. 129

Przykład 4.Częstotliwości   f c   i   f m  zostały tak dobrane, że ich stosunek wyraża się liczbą

niewymierną:   1√ 2. Składowe „odbite” nie będą teraz trafiać na składowe dodat-

nie i widmo będzie miało skład nieharmoniczny. Na il. 130 przedstawiającej to

widmo pominięto odwrócenie fazy składowych odbitych, ponieważ nie ma tow tym wypadku większego znaczenia.

Il. 130

Przykład 5. f c  = 555, f m  = 155 Hz,

246

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 247/381

Rodzaje cyfrowej syntezy dźwięku

i  = 4, f c f m

=

11131

Widmo będzie zawierać składowe:

710 865 1020 1175 1330 itd.555 Hz400 245 90   −65   −220 itd.

Będzie to widmo harmoniczne o podstawie 5Hz i o nieregularnie rozłożo-nych składowych wyższego rzędu: 13, 18, 44, 49, 80, 111 składowa itd. Sygnałtaki będzie jednak odbierany słuchowo jako wieloton nieharmoniczny. Nie tylkodlatego, że jego podstawa leży poniżej 16 Hz, ale i ze względu na brak w widmiepierwszych składowych harmonicznych, które pozwoliłyby na umiejscowienie gona skali wysokości.

Były to przykłady widm stacjonarnych otrzymanych przez modulację często-tliwości przy stałym wskaźniku   I . Były one konieczne do zrozumienia zasady.Dla omawianej metody ważniejsze są widma, w których wartość  I   jest zmiennaw czasie.

Przykład 6. Jest przykładem widma dynamicznego. f c  =   f m Ac   jest stałe.I  jest funkcją w czasie mającą przebieg liniowy w przedziale od 0 do 8.

Ilustracja 131 przedstawia to widmo w rzucie perspektywicznym: na osi   xczęstotliwość, na osi y  amplitudę, a na osi z czas. Pominięto tu informację o fazie.

Il. 131

Analiza powyższych przykładów upoważnia nas do dwóch ważnych wnio-sków:

1. że produktem modulacji dwóch sygnałów sinusoidalnych o częstotliwościachakustycznych mogą być sygnały o widmach:

a) harmonicznych, b) nieharmonicznych,

c) harmonicznych, ale „brzmiących jak nieharmoniczne”;decyduje o tym stosunek   f c   :   f m   i w pewnej mierze wskaźnik   I   (od którego

zależeć będzie występowanie lub niewystępowanie składowych odbitych),

247

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 248/381

Studio cyfrowe (komputerowe)

2. że zmiany zachodzące w widmie pod wpływem zmiany wskaźnika  I  nie sąliniowe, zachowują jednak ogólnie ten sam kierunek rozwoju — wzrost wskaź-nika modulacji wzbogaca widmo i uwydatnia wyższe składowe.

Powinno nam to wyjaśnić zasadę, na jakiej Chowning oparł swoją metodę.

Na podstawie szeregu eksperymentów doszedł on do wniosku, że w symulacjinaturalnych dźwięków instrumentalnych mniej istotnym jest naśladowanie rze-czywistego przebiegu zmian zachodzących w widmie, natomiast ważniejszymi właściwie zupełnie wystarczającym jest oddanie „istoty” tych zmian, ich kie-runku i specyficznej nieregularności w odniesieniu do poszczególnych składo-wych, w krytycznych dla oceny słuchowej odcinkach czasu, głównie narastaniai wybrzmiewania dźwięków.

Dla panowania nad składem i przebiegiem widma wystarczy tylko odpowied-nio dobrać stosunek częstotliwości   f c :   f m, określić funkcję amplitudy A(n) i funk-cję wskaźnika I (n). Naprawdę bardzo niewiele. Szczególnie jeżeli się to porównaz ilością danych, jakich wymagałoby uzyskanie analogicznego przebiegu widmaw syntezie addytywnej (osobno częstotliwość kilkunastu składowych, amplitudyszczytowe tych składowych i funkcje amplitudy dla każdej z nich).

W cytowanym powyżej artykule John M. Chowning podaje szereg „recept” nauzyskanie za pomocą regulacji częstotliwości sygnałów imitujących brzmienieniektórych instrumentów blaszanych, dętych drewnianych i perkusyjnych.

Na przykład dla dźwięku klarnetu proponuje przyjęcie stosunku   f c :   f m  = 3 : 2(da to w efekcie szereg samych nieparzystych składowych harmonicznych), przy-

 jęcie funkcji wskaźnika I (n) jako odwrotnie proporcjonalnej do funkcji amplitudy

 A(n) i utrzymanie wartości I  w granicach od 2 do 4. Mimo iż procedura ta nie pro-wadzi do ścisłego naśladowania zjawisk zachodzących w dźwięku naturalnym,pozwoli jednak oddać efekt zadęcia pojedynczego dźwięku klarnetowego, w któ-rym po bogatym w składowe stanie narastania następuje ustalenie się dźwiękui przewagę zyskują niższe składowe harmoniczne.

Lepsze przybliżenie do dźwięku naturalnego da wprowadzenie pewnych mo-dyfikacji, np. dodanie do częstotliwości modulującej stałej wartości ok. 0,5 Hz.Spowoduje to przesunięcie częstotliwości odbitych wobec dodatniej części widmao ok. 1Hz, dając zdudnienie, a w efekcie wrażenie wolnego   vibrato. Również

funkcję I (n) można poprawić zachowując tylko pierwsze opadanie i utrzymując ją dalej płasko, jak na il. 132 (s. 249).

Do realizacji tego typu widm dynamicznych proponuje Chowning „instru-ment”, który w MUSIC V miałby następującą postać (il. 133, s. 249):

Parametry: P3 — czas trwania „nuty”,P4 — amplituda sygnału nośnego  Ac,P5 — częstotliwość nośna   f c,P6 — częstotliwość modulująca   f m,P7 — wskaźnik modulacji  I min,

P8 — wskaźnik modulacji  I max.Sygnał generowany jest przez generator G3. Jego amplituda ustalana jest przez

P4 i funkcję  A(n) realizowaną przez generator  G1. Do częstotliwości nośnej P5

248

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 249/381

Rodzaje cyfrowej syntezy dźwięku

Il. 132 Il. 133

dodawane są i odejmowane odchylenia wyznaczane przez parametry P6, P7 i P8oraz funkcję I (n).

Przedstawiony powyżej „instrument” ma tę zaletę, że przy łatwym do ustale-nia w systemie cyfrowym stałym stosunku   f m :   f c  można zaprogramować szereg„nut” o różnej wysokości, dynamice i czasie trwania, charakteryzujących się tąsamą „barwą instrumentalną”, rozumiejąc przez ten termin specyficzny dla da-nego instrumentu dynamiczny obraz widma.

„Instrument” ten daje się też wykorzystać do tworzenia bardzo różnych zjawiskdźwiękowych, zapewniając ich powtarzalność na różnych wysokościach. Czynnik

a =

  f c/ f m ustalać będzie skład widma, dobranie parametrów P7 i P8 wyznaczyprzedział dla wskaźnika   I , a funkcje   A(n) i   I (n) określą przebiegi amplitudyi widma w czasie.

Metoda zaproponowana w roku 1973 przez Chowninga została następnie roz-winięta i ulepszona. Świadczą o tym liczne artykuły zamieszczane w pismachfachowych i praktyczne realizacje.

I tak Bill S c ho t ts t a e dt, współpracownik Chowninga z CCRMA w Stanford,zaproponował modulację częstotliwości jednej nośnej przez sumę kilku sygnałówmodulujących (uproszczony schemat obrazuje il. 134) 17.

Il. 134

17 B. Schottstaedt, The Simulation of Natural Instrument Tones using Frequency Modulation with a Complex Modulating Wave. „Computer Music Journal” 1977 nr 4, s. 46–50.

249

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 250/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 251/381

Rodzaje cyfrowej syntezy dźwięku

cały szereg takich wzorów oraz przytacza przykłady praktycznego ich zastoso-wania do syntezy dźwięków o widmach dynamicznych.

Najprostszym wzorem tego typu jest:

k =0

ak sin(α + k β)  = sinα − a sin(α − β) − aN +1

sin[α + (N  + 1) β] − a sin(α + N  β)

1 + a2 − 2a cos β(4)

Podstawiając doń oznaczenia przejęte z modulacji częstotliwości,α  = 2π f ct β  = 2π f mt

i przyjmując, że  a  wyraża stosunek (ang.  ratio) kolejnej składowej do składowej ją poprzedzającej, czyli że

a  = Am

 Am−1

 będziemy już mieli narzędzie do wyznaczenia przebiegu sygnału o złożonymwidmie harmonicznym lub nieharmonicznym zależnie od stosunku  α : β.

Wskazuje to na drogę syntetycznego tworzenia sygnałów o widmach dyna-micznych, w których stosunek amplitudy sąsiadujących że sobą składowychmoże być regulowany funkcją w czasie i to bez konieczności wprowadzaniawartości odchylenia, wskaźnika modulacji itd. Zwróćmy uwagę, że formuła po-wyższa (4) pozwala na ograniczanie pasma do  N   składowych.

Przykładem zastosowania wzoru tego typu niech będzie dźwięk przypomi-

nający brzmienie instrumentu dętego blaszanego. Podajemy go za Moorerem19

(il. 135). Ponad wykresem perspektywicznym przebiegu amplitudy składowych

Il. 135

19  J. A. Moorer, op. cit., s. 250.

251

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 252/381

Studio cyfrowe (komputerowe)

w czasie podano wykresy trzech funkcji, według których takie widmo zostałouformowane. Są to: funkcja a(t), tu oznaczona jako „ratio”, funkcja amplitudy ca-łości (obwiednia) i trzecia funkcja określona mianem „normalizacji”. Jest tu onanieodzowna dla wyrównania ogólnej amplitudy sygnału końcowego i strzeże

przed tym, co w analogowej aparaturze określane byłoby jako „przesterowanie”.Uwzględniono tu również arbitralnie wybrany kąt fazowy, ograniczono liczbęskładowych do 9, i użyto wzoru zapewniającego powstawanie dwóch pasm skła-dowych bocznych.

Modulacja częstotliwości jest tylko jedną z technik nieliniowej syntezydźwięku, trzeba to przyznać — najbardziej rozpowszechnioną. Obok niej zna-czenia nabierają:

1. formowanie sygnału(ang.  wave shaping), znane z techniki analogowej, tutajuzyskiwane przez zastosowanie pewnych algorytmów przekształcających sygnałprosty, najczęściej sinusoidalny, zgodnie z przebiegiem pewnej funkcji przekształ-cającej;

2. przyjęcie jako generatora algorytmu prowadzącego do innych wyników niżcykliczne powtarzanie jednej funkcji, np. wywołującego jednorazowe wzbudze-nia z wygasaniem (drganie tłumione), lub generowanie w zakresie akustycz-nym ciągów wynikających z generowania liczb pseudolosowych, układającychsię w serie, permutacje itd.

4.8.5. Metoda formowania sygnału (Wave shaping)

Ciekawe propozycje, a jednocześnie rozwiązania w postaci gotowych podpro-gramów dla funkcji kształtujących, daje praca Marca LeBruna 20 z 1979 roku.Proponowane przez niego funkcje kształtujące (ang. shaping functions) prowadządo uzyskiwania kontrolowanych widm harmonicznych lub nieharmonicznych.

Przykładem niech będzie funkcja

T n+1(x)  = 2xT n(x) − T n+1(x) (5)

która pozwala na obliczenie szeregu funkcji kształtujących T n:T 0(x)  = 1T 1(x)  = xT 2(x)  = 2x2 − 1T 3(x)  = 4x3 − 3xT 4(x)  = 8x4 − 8x2

+ 1 itd.

Są to tzw. wielomiany Czebyszewa. Kolejne funkcje kształtujące stopnia   j pro-wadzą do przekształcania sygnału cosinusoidalnego o częstotliwości   f 0 w sygnałsinusoidalny o częstotliwości równej   j

× f l0, czyli w jego   j-tą harmoniczną. Wy-

20 M. LeBrun,  Digital Waveshaping Synthesis. „Journal of the Audio Engineering Society” 1979 nr 4,s. 250–265.

252

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 253/381

Rodzaje cyfrowej syntezy dźwięku

starczy więc dodać do siebie kolejne wielomiany Czebyszewa mnożąc je przezh j   (które wyrażać będzie amplitudy),

F(x) =

 j=0 h j · T  j(x) (6)

aby otrzymać widmo harmoniczne o kontrolowanej amplitudzie składowych.Sposób przekształcania funkcji cosinus w nowy sygnał za pomocą funkcji

kształtującej   f  pokazany jest na ilustracji 136.

Il. 136 Il. 137

Ilustracja 137 pokazuje prosty sposób uzyskiwania widma dynamicznego;funkcja   a  przedstawia zmienny w czasie współczynnik, przez który mnożona

 jest funkcja x .Niekonwencjonalnymi metodami uzyskiwania sygnałów złożonych, o których

wspomnieliśmy w punkcie 2., zajmiemy się w następnych dwóch rozdziałach.

4.8.6. Synteza ziarnista (Granular synthesis)

Synteza ziarnista jest jedną z doskonalszych metod syntezy cyfrowej, gdyżodpowiada naszemu postrzeganiu wszelkich zjawisk dźwiękowych. Niestety jestona również jedną z najmniej ekonomicznych, ponieważ wymaga dostarczeniaogromnych ilości danych, a więc i zajmowania bardzo dużych obszarów pamięci.W syntezie ziarnistej generowanych jest tysiące bardzo krótkich próbek, zwanychziarnami (ang. grains), do tworzenia pojedynczych zdarzeń dźwiękowych.

Podstawy syntezy ziarnistej dały prace brytyjskiego fizyka Dennisa Gaboraz lat 1945–1947, w których autor opierając się na teorii kwantowej, wysunął hi-potezę, że wszelkie zjawiska dźwiękowe dadzą się opisać za pomocą kwantów

dźwiękowych, albo „ziaren” (zwanych też „ziarnami Gabora”)21. Teoria ta zo-

21 D. Gabor, Acoustical Quanta and the Theory of Hearing.  „Nature” nr 159, 1947.

253

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 254/381

Studio cyfrowe (komputerowe)

stała potem poparta matematycznie przez M. Bastiaansa (1980), 22 a praktyczniewcielona przez Daniela Arfiba (1979)23 i Curtisa Roadsa (1982)24.

Hipoteza Gabora opierała się na dwóch przesłankach:1) analiza dźwięku przedstawiona teoretycznie przez Fouriera i udowodniona

przez doświadczenia Helmholtza dotyczyła dźwięku jako zjawiska stacjonar-nego, obserwowanego poza czasem. Była to jakby fotografia zjawiska akustycz-nego, które w rzeczywistości przebiega w postaci zmiennej w czasie.

2) podobnie jak nieruchome klatki filmu wyświetlane z pewną prędkością dająwrażenie ruchu, tak i szybkie następowanie nieruchomych „klatek” dźwiękowychpowinno dawać wrażenie ciągłej zmienności postrzeganego dźwięku.

Według Gabora każdy dźwięk może być uformowany przez właściwą kombi-nację tysięcy elementarnych „ziaren”, przy czym „ziarno” takie jest niezwyklewygodnym obiektem dla reprezentacji dźwięków muzycznych, ponieważ zawierainformację zarówno w obszarze czasu (obwiednia), jak i obszarze częstotliwo-

ści (częstotliwość i kształt sygnału ziarna). Stanowi to przeciwstawność metodyopartej na próbkowaniu, która pomija element częstotliwości, jak i metody opartejna analizie Fouriera, która zajmuje się tylko częstotliwościami.

Elastyczność reprezentacji kwantowej (ziarnistej) prowadzi do rozmaitych pro-pozycji organizacji ziaren w czasie. Można je z grubsza podzielić na dwie grupy:takich, które za model biorą tradycyjne dźwięki instrumentalne i wokalne, i ta-kich, które nie przyjmują a priori żadnych modeli opartych na analizie. W pierw-szej z tych metod dźwięk poddawany jest komputerowej analizie i dzielony naopisywane dalej podstawowe kwanta. Określając właściwe proporcje i rodzaje

tych kwantów dźwięk może być resyntezowany z dużą dokładnością. Cały proceszwany jest „analizą-syntezą” (lepiej byłoby nazwać „analizą-resyntezą”). W tymprocesie „ziarno” funkcjonuje w analizie jako detektor kształtu, a w resyntezie

 jako jednostka generująca. Czysta analiza-resynteza nie jest muzycznie intere-sująca, ponieważ stanowi tylko powielenie dźwięków już istniejących. Staje się

 jednak interesująca w momencie, kiedy pomiędzy analizą a resyntezą wprowa-dzane są modyfikacje, które mogą w istotny sposób zmieniać charakter dźwię-ków, przy zachowaniu jednak bardzo „realistycznej”, kompleksowej zmiennościwłaściwej dźwiękom naturalnym.

Druga grupa nie przyjmuje żadnych tradycyjnych modeli instrumentalnych(wokalnych). Jej zastosowanie daje w efekcie różnorodne zjawiska dźwiękowetypowo elektroniczne, szczególnie w zakresie dźwięków szmerowych i różnychnieskoordynowanych „chmur dźwiękowych”.

Same „ziarna” są zjawiskami bardzo krótkimi. Ich czasy trwania leżą na gra-nicy percepcji rozróżnialności czasu, częstotliwości i amplitudy, i mieszczą sięgdzieś w granicach od 5–50ms. D. Green sugeruje, że rozróżnialność dźwięku

22 M. Bastiaans,  Gabor’s Expansion of a Signal into Granular Elementary Signals. „Preceedings of theIEEE” 68, 1980.23

D. Arfib  Digital Synthesis of Complex Spectra by Means of Multiplication of the Non-Linear DistortedSine Waves. „Journal of the Audio Engineering Society” 27, 1979, s. 757–768.24 C. Roads, Granular Synthesis of Sound. W: C. Roads i J. Strawn (red.),  Foundations of Computer Music,MIT Press, Cambridge (Mass.) 1985.

254

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 255/381

Rodzaje cyfrowej syntezy dźwięku

może istnieć już przy czasach rzędu 1–2 ms. Są to już jednak tylko trzaski, z tymże trzaski mogą rzeczywiście mieć jeszcze różną barwę.

Każde „ziarno” posiada specyficzną obwiednię amplitudową. Według kon-cepcji Gabora obwiednia ta powinna mieć obrys rozkładu Gaussa (w kształcie

 jakby podwyższonego dzwonu). W praktycznych realizacjach przyjmuje się rów-nież inne kształty obwiedni: quasi-gaussowski, Hanninga (poszerzony dzwon),trapezoidalny i trójkątny, te dwa ostatnie ze względu na łatwiejszą realizacjękomputerową (il. 138).

a) b)

c)

d) e)

Il. 138. Obwiednie syntezowanych „ziaren”: a) funkcja rozkładu Gaussa, b) zmodyfikowana funkcjaGaussa, c) funkcja Hanningsa, d) obwiednia trapezoidalna, e) obwiednia trójkątna

Syntezę ziarnistą można podzielić na dwie części: 1. generowanie „ziaren”,2. organizację ziarnistej tkanki dźwiękowej.

1. Do generowania „ziaren” służyć może prosty „instrument” składający sięz dwóch oscylatorów, w którym pierwszy oscylator, produkujący sygnał o ob-wiedni gaussowskiej, moduluje amplitudowo drugi oscylator, produkujący sy-gnał sinusoidalny (albo inny sygnał typowy, il. 139). Pojedyncze „ziarno” po-wstaje po jednym cyklu pierwszego oscylatora. Sam generator jest bardzo prosty,ale wymaga wprowadzenia sporej ilości danych potrzebnych do jego działania,takich jak: amplituda szczytowa sygnału gaussowskiego, długość okresu tegosygnału, wreszcie częstotliwość sygnału sinusoidalnego.

2. Organizacja „ziaren” to albo sklejanie ich po kolei, albo nakładanie na sie- bie kolejnych z opóźnieniem wykorzystującym przenikanie. Pierwszy typ przed-stawia il. 140 (Szczyty amplitudy kolejnych „ziaren” wyznaczają częstotliwośćpodstawową sygnału, a częstotliwość sygnału sinusoidalnego — boczne pasmaczęstotliwościowe). Ten system określany jest jako synteza synchroniczna ( pitch-

-synchronous granular synthesis). Jego realizacja wymaga kilkuwarstwowej reali-zacji z zastosowaniem złożonego filtrowania warstw. Możliwa jest tu technikaredukcji danych, ograniczająca obliczenia i zajmowanie miejsca w pamięci.

255

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 256/381

Studio cyfrowe (komputerowe)

Il. 139

Il. 140. Synteza ziarnista synchroniczna z obwiednią według zmodyfikowanejfunkcji Gaussa i z sinusoidalnym sygnałem ziarna

Przy równym odstępie pomiędzy „ziarnami” sygnał wyjściowy ma charak-ter funkcji periodycznej podobnej do formantowej funkcji systemu VOSIM, coobrazuje il. 141.

Il. 141. Synteza ziarnista synchroniczna z nakładaniem na siebie kolejnych„ziaren” (obwiednia według funkcji rozkładu Gaussa)

Pewną modyfikację pierwszego typu stanowi pseudosynchroniczna syntezaziarnista (quasi-synchronous granular synthesis). W tym typie syntezy strumień„ziaren” następuje z lekko zmienną częstotliwością sterowaną generatorem liczblosowych. Przy zastosowaniu pseudosynchronicznej organizacji strumienia „zia-ren”, nałożenie na siebie kilku równolegle biegnących warstw powoduje „odstro-

 jenia” od częstotliwości podstawowej i efekt złożonego, zagęszczonego dźwiękuo specyficznej, jakby zniekształconej charakterystyce.

Drugi typ stanowi synteza asynchroniczna. W tym typie „ziarna” rozrzuconesą na zasadzie probabilistycznej w określonych granicach częstotliwości i czasu,

dając w efekcie różne rodzaje „chmur dźwiękowych”, które stanowią materiałprzyszłej kompozycji. Podobnie jak w przypadku wcześniej omawianych typówsyntezy ziarnistej, duże ilości danych muszą być dostarczone do programu syn-

256

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 257/381

Rodzaje cyfrowej syntezy dźwięku

tezującego. Parametry takie jak częstotliwość sygnału wewnątrz „ziarna”, kształtobwiedni, gęstość średnia i granice rozrzutu dla liczb losowych sterujących od-stępy między „ziarnami” itd. wpływają w decydującym stopniu na końcowykształt sygnału i — co za tym idzie — na charakter brzmienia otrzymywanych

w ten sposób „chmur dźwiękowych”.Niezwykle interesujące efekty daje zastosowanie dźwięków naturalnych jakomateriału dla „ziaren”. Tworzy się to metodą tzw. „klatek” (ang.  windows), która

 jest uderzająco podobna do produkcji wizualnego obrazu filmowego. Przy cyfro-wej rejestracji dźwięku (lub z materiału wcześniej zarejestrowanego) wybieranesą w pewnych odstępach czasu bardzo krótkie próbki-klatki czyli okienka. Po-traktowanie tych klatek jako „ziaren” przy resyntezie granularnej może dać różneefekty, zależnie od zastosowanej metody i wartości użytych parametrów:

1. Umieszczenie „ziaren” w tych samych odstępach czasu, w jakich zostaływychwytywane z ciągu sygnałów cyfrowych spowoduje prostą reprodukcję na-

grywanego sygnału.2. Modyfikacja polegająca na powtarzaniu, np. dwukrotnym, każdej próbki

powodować będzie dwukrotne wydłużenie czasu sekwencji bez zmiany wyso-kości reprodukowanego dźwięku. Możliwe do otrzymania są też inne modyfi-kacje zarejestrowanego materiału, podobne do tych, jakie uzyskiwało się kiedyśz użyciem analogowego regulatora czasu.

3. Przy zastosowaniu asynchronicznej syntezy ziarnistej modyfikacje stają sięcoraz dalsze od oryginału. Możliwe jest bowiem stosowanie zmiennej losowoczęstości umieszczania „klatek”, a dalej stosowanie np. naprzemiennych „kla-

tek” wziętych z dwóch różnych nagrań, albo też losowe wprowadzanie „klatek”z wielu różnych nagrań. Jeżeli dołożymy do tego zmienność kształtu obwiedni,zmienność amplitudy itd., to ilość i rodzaj otrzymywanych w ten sposób efektówmoże być naprawdę kopalnią nowych zjawisk dźwiękowych, nieosiągalnych zapomocą innych rodzajów syntezy.

Konkludując ten pobieżny opis syntezy ziarnistej, trzeba przyznać, że jest onaniezwykle obiecująca i pozwala na ogromne poszerzenie wachlarza dostępnychw muzyce komputerowej zjawisk dźwiękowych. Zasadniczym mankamentem

 jest natomiast wielka pracochłonność tej metody, i to zarówno dla kompozytora, jak i dla samego procesu obliczeniowego. Nawet najszybsze dzisiaj komputerymogą mieć kłopoty z realizacją wielu tych procesów w czasie realnym. Jednakuczeni, kompozytorzy i programiści pracują usilnie nad istotną redukcją danychpotrzebnych do syntezy ziarnistej i może niedługo synteza ta stanie się jednąz bardziej popularnych metod cyfrowego tworzenia i przetwarzania dźwięków.

4.8.7. Sampling i samplery

 Jedną z najpopularniejszych obecnie metod cyfrowej syntezy dźwięków jest

resynteza pojedynczych dźwięków naturalnych w celu ich późniejszego wyko-rzystania, czyli sampling. Z opisu urządzeń analogowych wiemy, że samplingto po prostu próbkowanie sygnału, czyli odczytywanie wartości jego amplitudy

25717 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 258/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 259/381

Rodzaje cyfrowej syntezy dźwięku

przeprowadzane za pomocą klawiszy i pokręteł znajdujących się na ściance czo-łowej samplera, który ponadto posiada małe okienko ekranowe do wyświetlaniakomunikatów o aktualnym stanie urządzenia. Zazwyczaj jednak sampler stero-wany jest z komputera przez specjalny współpracujący z nim programu.

Wprowadzanie „próbek” do pamięci operacyjnej możliwe jest na dwa sposoby:1. tworzenie ich samemu przez nagrywanie za pomocą mikrofonu i konwerteraADC lub wgrywanie ich do pamięci z innych nagrań cyfrowych (płyta kompak-towa, rejestracja na magnetofonie DAT),

2. korzystanie z przygotowanych przez producenta gotowych „próbek”, tzw.presetów. Dostarczane są one wraz ze sprzętem, przeważnie w postaci dyskie-tek do umieszczania w odpowiednich stacjach dyskietek w samplerze. Zakrestych presetów może być dowolnie rozszerzany przez zakup dodatkowych dys-kietek z „próbkami”. Jako presety sprzedawane są przede wszystkim dźwiękiinstrumentów muzycznych, w tym także szeroki wachlarz dźwięków perkusyj-nych, czasem efektów akustycznych (klaśnięcie w dłonie, szczek psa, zamknięciedrzwi itp.).

Samo korzystanie z krótkich „próbek” nie byłoby na tyle interesujące, gdybynie to, że w samym samplerze (albo w dołączonych urządzeniach peryferyjnych)możliwe są daleko idące przekształcenia dźwięków, ich szeregowanie i nawar-stwianie w wielogłosowe sekwencje muzyczne.

Pierwszą taką operacją jest transpozycja „próbki” na inną wysokość brzmienia.Odbywa się to przez zmianę częstotliwości „zegara” przy odtwarzaniu próbki.

 Jest to więc transpozycja całkowita (częstotliwości i czasu trwania) odpowiada-

 jąca zmianie prędkości przesuwu taśmy magnetofonowej w technice analogowej.Tu istnieją jednak znaczne ograniczenia. Ze względu na mechaniczność tej trans-pozycji zmieniają się nie tylko częstotliwości tonów podstawowych dźwięku, alerównież częstotliwości pasm formantowych, co powoduje natychmiast odczuciezmiany barwy dźwięku. Niektóre dźwięki dają się transponować nawet o oktawęw górę i w dół bez odbieranej negatywnie zmiany tożsamości, inne, jak np.dźwięki fortepianu, dźwięki mowy ludzkiej, dadzą się transponować co najwy-żej o małą tercję, gdyż przy dalszej transpozycji następują już zmiany widmadające wrażenie innego rodzaju dźwięku, co może być czasem wykorzystane ce-lowo (np. efekt „Kaczora Donalda”). Ze względu na te ograniczenia w presetachumieszcza się bardzo często kilka, a nawet kilkanaście „próbek” tego samegoinstrumentu. Przy przenoszeniu dźwięku na różne wysokości program automa-tycznie wybiera „próbkę” najmniej oddaloną.

Drugą transformacją, niemal równie użyteczną co transpozycja, jest możliwośćmikromontażu dźwięku. Ponieważ zapis ma formę listy odwzorowującej licz-

 bowo przebieg sygnału, można polecić „czytanie” zapisu nie od początku, aleod pewnego miejsca i — albo korzystać z tak skróconego zapisu (np. odcinającpoczątkowe przydźwięki i stuki), albo „wycinać” dowolne fragmenty i łączyć

 je z innymi, przy pomijaniu niektórych, albo po wycięciu montować je w innej

kolejności niż w oryginale, wreszcie — i tu jest najciekawszy efekt mikromon-tażu — można np. po uwzględnieniu początkowej fazy narastania, kazać czytaćsygnał od pewnej próbki tylko przez ułamek sekundy, za to wielokrotnie, powta-

25917∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 260/381

Studio cyfrowe (komputerowe)

rzając ten sam fragment nawet w nieskończoność. Jest to tzw. pętla (ang.   loop). Jej efektem jest albo cykliczna wibracja dźwięku, albo, przy odpowiednim do- braniu miejsc „sklejki”, ciągły, długi dźwięk powstały z dźwięku krótkiego, np.perkusyjnego. Tak uzyskany dźwięk może jeszcze otrzymać nową obwiednię dy-

namiczną. Po przekształceniu dźwięki mogą być znowu umieszczone w pamięcisamplera i traktowane jako nowe „próbki”. Operacje montażu i pętli ułatwiająprogramy komputerowe pozwalające na graficzne przedstawianie próbek w po-staci krzywej ich przebiegu. Możliwe w tych programach rozciąganie obrazuw czasie, aż do poszczególnych pulsów zegarowych, pozwala na bardzo precy-zyjne wybieranie momentów „cięcia”, które zresztą wykonuje się najczęściej zapomocą „kliknięcia” myszą. Nie trzeba przypominać, że cały ten mikromontażodbywa się na reprezentacji cyfrowej dźwięku. Dalsze operacje na „próbkach”to filtrowanie, dodawanie pogłosu (też w operacjach cyfrowych) i wreszcie for-mowanie sekwencji.

Do formowania sekwencji służy najczęściej klawiatura, podobna do fortepiano-wej. Klawiatura ta, tak jak klawiatura syntezatora, pozwala na umieszczanie w se-kwencerze (programie sekwencyjnym komputera) danych dotyczących numeruklawisza, czasów włączenia i wyłączenia oraz dynamiki uderzenia (prędkościzagłębiania klawisza), wreszcie (nie we wszystkich klawiaturach) docisku klawi-sza już zagłębionego (ang.   after touch), co ma wpływ na przebieg dynamicznydźwięków dłuższych. Komunikacja wewnątrz samplera może odbywać się drogąwprost, poprzez reagowanie urządzenia na naciśnięcie przycisków (startu, reje-stracji, czytania itd.) i na naciskanie klawiszy. Komunikacja samplera z sekwen-

cerem (programem komputerowym) lub klawiaturą zewnętrzną odbywa się zapomocą kodu MIDI, o czym szerzej będzie w rozdziale 4.9.Korzyści z posługiwania się samplerami odnieśli przede wszystkim kompozy-

torzy traktujący komputer i cyfrową syntezę dźwięku jako pomoc w pracy nadmuzyką instrumentalną. Dla kompozytorów tworzących małe formy użytkowew rodzaju sygnałów, ilustracji muzycznych do reklam telewizyjnych itp. użyciesamplera ogromnie skraca czas tworzenia i wydatnie ogranicza koszty nagrania.Kompozytor może w ciągu zaledwie kilku godzin stworzyć sygnał (ilustrację)przygotowując poszczególne głosy „instrumentalne”, a następnie zgrywając jena jeden lub dwa ślady magnetofonu cyfrowego DAT. Efekt będzie łudząco po-dobny do nagrania żywych instrumentów, natomiast czas przygotowania o wielekrótszy, odpadnie bowiem pisanie partytury, rozpisywanie głosów, organizacjinagrania itd., a wszystko to będzie mógł zrobić w studiu domowym, bez anga-żowania muzyków i ekipy nagrywającej. Z drugiej strony, kompozytorzy przygo-towujący partyturę muzyki instrumentalnej przeznaczonej do wykonania przezżywych wykonawców mogą ułatwić sobie proces komponowania. Za pomocągłosów samplingowych będą mogli naśladować w dużym przybliżeniu przebiegkompozycji, łącznie z jej instrumentacją, lub choćby tylko wypróbować bardziej„ryzykowne” pomysły rytmiczne czy instrumentacyjne. To może dotyczyć rów-

nież kompozytorów muzyki artystycznej, pracujących nad partyturami, którychpróbki chcieliby usłyszeć, choćby w nieco uproszczonym brzmieniu, bez anga-żowania w to muzyków wykonawców.

260

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 261/381

Rodzaje cyfrowej syntezy dźwięku

Korzystanie z samplingu, szczególnie w formie uproszczonej, tj. bez wprowa-dzania istotnych przekształceń dźwięku, jest niezwykle efektywną formą korzy-stania z urządzeń cyfrowych w działaniach muzycznych na żywo. Stąd ogromnawśród muzyków rozrywkowych popularność samplerów, które obok syntezato-

rów stanowią podstawę wykonawstwa na tzw. klawiszach. Kompozytorzy mu-zyki elektronicznej, którzy poważnie traktują swoją pracę, korzystają też częstoz ułatwień oferowanych im przez samplery. Chętniej jednak pracują nad samymdźwiękiem i wynajdywaniem struktur dalekich od typowych brzmień instru-mentalnych. Dla nich bowiem działanie w kierunku tego, co moglibyśmy na-zwać „cyfrową muzyką konkretną”, nie polega na naśladowaniu dźwięków jużistniejących, ale na tworzeniu nowych jakości brzmieniowych i nowych sposo-

 bów kształtowania struktur muzycznych. A w tym samplery okazują się bardzoużytecznym narzędziem.

4.8.8. Modele formantowe

Omawiane w poprzednich rozdziałach „klasyczne” metody cyfrowej syntezydźwięku opierały się na modelach akustycznych wzorowanych na dźwiękach in-strumentalnych. W widmie syntezowanych za ich pomocą dźwięków składowe,ich częstotliwości i amplitudy mają stały punkt odniesienia w postaci tonu pod-stawowego. Zmiana częstotliwości tego tonu przesuwa cały układ w górę lubw dół 25. Takie traktowanie widma, szczególnie przy uwzględnieniu jego zmien-ności w czasie, wystarcza do opisywania wielu zjawisk dźwiękowych interesują-

cych kompozytora. Mimo uproszczeń, jakie ze sobą niesie, pozwala na tworzeniełatwych do zidentyfikowania kategorii dźwiękowych. W językach syntezy nosząone zwykle nazwę „instrumentów”.

Nie wszystkie rodzaje dadzą się jednak zakwalifikować do tych kategorii.Z akustyki wiadomo, że w widmach dźwięków wokalnych i niektórych dźwię-ków instrumentalnych wyodrębniają się pewne strefy uprzywilejowania zwanepa sm am i fo r ma nt ow ym i lub krócej f or ma nt am i, których położenie naskali częstotliwości nie zależy od częstotliwości tonu podstawowego, ale odwłaściwości układu rezonansowego, w przypadku dźwięków wokalnych — od

kształtu komory rezonansowej utworzonej przez język, podniebienie i kanał no-sowy śpiewającego. Zmiana częstotliwości tonu podstawowego nie powodujew tym przypadku automatycznego przesunięcia widma, bowiem przy nie zmie-nionym układzie rezonansowym położenie pasm formantowych pozostaje takiesamo.

Chcąc opisywać dźwięki o widmach formantowych, trzeba zbudować modelakustyczny, który uwzględniać będzie również układy rezonansowe.

Układ rezonansowy można przedstawić jako aktywny filtr środkowoprzepu-stowy. Jego parametrami będą:

częstotliwość środkowa   f c,

maksymalna amplituda  A,

25 Chodzi tu o przesunięcia na skali logarytmicznej.

261

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 262/381

Studio cyfrowe (komputerowe)

szerokość pasma BW mierzona −6dB od szczytu, iszerokość „koszulki” SW — pasma mierzonego −40dB od szczytu (il. 142).

Il. 142

W kategoriach sygnału — odpowiednikiem układu rezonansowego jest tłu-miona sinusoida (il. 143).

Il. 143

Mechanizm powstawania śpiewanej (a także mówionej) samogłoski jest nastę-pujący: drgające struny głosowe tworzą szereg impulsów, których częstotliwość

określa ton podstawowy śpiewanej (mówionej) głoski. Kształt komory rezonan-sowej określa pasma formantowe, ich częstotliwości środkowe, amplitudy, szero-kości pasma i szerokości „koszulki” 26.

Najprostszym modelem, który będzie odzwierciedlał tego typu dźwięk, jestszereg tłumionych sinusoid (albo cosinusoid) traktowanych jako impulsy z wy-gasaniem (podobne do pojedynczych szarpnięć struny) (il. 144, s. 263).

W sygnale takim częstotliwość impulsów równa jest częstotliwości podstawo-wej   f 0, a częstotliwość sinusoidy   =  częstotliwości środkowej pasma rezonanso-wego   f 0. Widmo takiego sygnału zawiera szereg składowych harmonicznycho uwydatnionej amplitudzie tych składowych, które będą leżeć najbliżej często-tliwości rezonansowej   f 1  (il. 145, s. 263).

26  Jest to celowe uproszczenie złożonego w rzeczywistości mechanizmu powstawania głosek.

262

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 263/381

Rodzaje cyfrowej syntezy dźwięku

Il. 144

Il. 145

 Jeżeli w takim sygnale częstotliwość impulsów będzie się zmieniać, a często-tliwość sinusoidy pozostanie nie zmieniona, to w widmie częstotliwość   f 0  i całyukład składowych przesunie się na skali częstotliwości. Jednak nadal zapewne

 już inna składowa harmoniczna leżąca najbliżej częstotliwości   f 0   będzie miaławyższą amplitudę. Dźwięk uzyska inną wysokość, ale zachowa tę samą charak-

terystyczną „barwę samogłoskową”. I odwrotnie, przy zachowaniu nie zmienio-nej częstotliwości impulsów, a zmiennej częstotliwości sinusoidy, dźwięk będziemiał tę samą wysokość, a różna będzie jego „barwa samogłoskowa”.

Model ten można rozbudować wprowadzając wyzwalanie każdym impulsem,sygnału złożonego z kilku tłumionych sinusoid o różnych częstotliwościach i róż-nych amplitudach początkowych. Widmo sygnału wyjściowego zawierać będzietyle formantów, ile tłumionych sinusoid zostanie jednorazowo wyzwolonych.Częstotliwość środkowa każdego formantu równa będzie częstotliwości każdejz sinusoid składowych.

V O S I MWłaściwości dźwięków o widmach formantowych można było odtwarzać sto-

sując znane systemy syntezy. Wymagało to jednak dużej ilości danych dla każ-dego syntezowanego dźwięku i było mało ekonomiczne. Pomysł stworzenia mo-delu formantowego i programu generującego opisany przed chwilą sygnał po-wstał jakby na marginesie prac Wernera Kaegi z Instutytu Sonologii w Utrechcienad redukcją danych niezbędnych dla opisywania znaków lingwistycznych 27.Termin „znak” rozumiany jest tu jako pewien charakterystyczny zespół cech wy-starczający do identyfikowania obiektu. W fonetyce odpowiednikiem tego jest fo-

nem. Kaegi pracując nad maksymalną redukcją danych w odniesieniu do mowy,27 W. Kaegi, A Minimum Description of the Linguistic Sign Repertoire. Cz. 1: „Interface” 1973 nr 2, cz. 2:„Interface” 1974 nr 3.

263

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 264/381

Studio cyfrowe (komputerowe)

doszedł do stwierdzenia, że redukcja ta może być posunięta dość daleko bezzmniejszenia rozpoznawalności poszczególnych znaków. Np. obraz samogłoskia z czterema formantami da się zredukować do pojedynczego impulsu o kształ-cie sin2.28 Metoda ta okazała się przydatna również w odniesieniu do znaków

muzycznych.Werner Kaegi wespół z inżynierem i akustykiem Stanem Tempelaarsem za-proponowali metodę syntezy opartą na rozbudowanym modelu formantowym.Dali jej nazwę VOSIM (od Vox Simulation). Zbudowali generator sygnału VOSIMi stworzyli program pozwalający na generowanie dużej skali dźwięków wokal-nych i instrumentalnych, programowanych za pomocą niewielkiej ilości danych 29.

Funkcja VOSIM ma kształt sin2 o malejącej amplitudzie, przechodzącej naglew stan zerowy (il. 146). Można ją rozpatrywać jako szereg impulsów o kształciesin2, przedłużony o czas pauzy.

Il. 146

Szereg impulsów i pauza stanowią w sumie jeden cykl sygnału VOSIM. Para-metrami jego są:

T  = czas trwania jednego impulsu (w  µs),N  = liczba impulsów, A = amplituda pierwszego impulsu (w jednostkach umownych w skali linear-

nej),b = czynnik stałego spadku amplitudy kolejnych impulsów, wyrażany w pro-

centach, M  = czas pauzy (w  µs).

Il. 147

28

Funkcja sin

2

ma przebieg analogiczny do funkcji sin, ale w granicach od 0 do  +

1 i z cyklemo połowę krótszym.29 W. Kaegi, S. Tempelaars, VOSIM, a New Sound Synthesis System, „Journal of the Audio EngineeringSociety” 1978 nr 6.

264

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 265/381

Rodzaje cyfrowej syntezy dźwięku

Sygnał VOSIM składa się z szeregu takich cyklów (il. 147, s. 264). Jego widmoma skład harmoniczny z wyróżniającym się jednym pasmem formantowym.Częstotliwość tonu podstawowego wyraża się odwrotnością czasu trwania cy-klu   f 0  =   1

NT + M , a częstotliwość środkowa pasma formantowego — odwrotnością

czasu trwania impulsu   f 1  =

  1

T . Szerokość „szczytu” pasma formantowego zale-żeć będzie od stromości spadku amplitudy (większy spadek powoduje szerszy„szczyt”). Ilość impulsów w cyklu wpływa na szerokość „koszulki” pasma (mniejimpulsów — szersza „koszulka”).

Najprostszy model VOSIM zawierał tylko 5 parametrów:  T , N , A, b i  M, i da-wał w efekcie widmo stałe o jednym pasmie formantowym. Dla uzyskania widmdynamicznych wprowadzono model rozszerzony o modulację parametru M  (po-woduje to cykliczne albo losowe odchylenia ) i o stany przejściowe (narastaniai wybrzmiewania, ewentualnie przejścia z dźwięku na dźwięk).

Ten ulepszony model VOSIM wymagał dodatkowych parametrów. Trzy nich

określają modulację:S = wybór funkcji modulującej (1  = sinus, 0  = zmienna losowa),D = maksymalne odchylenia dla  M  (w  µs),NM  = liczba okresów N , w których zamyka się jeden cykl modulacji.Trzy następne określają funkcje  T , M  i  A w stanach przejściowych:DT  = przyrost (dodatni lub ujemny)  T ,DM  = przyrost M,DA = przyrost  A.Dwunasty parametr NP  = ilość cykli, określa czas trwania jednego zdarzenia

dźwiękowego lub jego wyodrębnionej części, np. stanu narastania.Ten model pozwala na tworzenie zdarzeń dźwiękowych o bardzo różnych ce-chach. Wychodzi się tu wprawdzie od opisu zdarzeń poprzez pasma formantowe,i to w parametrach czasu, a nie częstotliwości, ale metoda jest na tyle elastyczna,że za pomocą jednego generatora VOSIM (w wyjątkowych przypadkach dwóchlub trzech zsynchronizowanych generatorów takiego sygnału) można wytwarzać(symulować) zarówno dźwięki wokalne: samogłoski i spółgłoski właściwe dlaróżnych języków, dźwięki śpiewane, dźwięki większości instrumentów muzycz-nych, jak i dźwięki elektroniczne mające odniesienia lub nie mające żadnychodniesień do dźwięków wokalnych i instrumentalnych.

Kaegi i Tempelaars w artykule: VOSIM — nowy system syntezy dźwięku, 30 skądczerpiemy te przykłady, opisują znacznie więcej różnych typów zdarzeń dźwię-kowych za pomocą VOSIM, w tym również pierwszych dziewięć nut fagotuotwierających  Święto wiosny Strawińskiego.

Pomysł jest fascynujący. Format opisu jest dosyć prosty zważywszy, że nie wy-maga wstępnego opisu „instrumentu” ani określenia „funkcji”, jak w językachz rodziny MUSIC V. Wszystko da się tu wyrazić za pomocą 12 liczb. Jednakżemetoda pozwalająca na znalezienie właściwych liczb dla określonych właściwościposzukiwanego tworu dźwiękowego nie jest bynajmniej prosta. Tylko niektóre

cechy przyszłego dźwięku dadzą się dobrze przewidzieć na podstawie znajo-

30 W. Kaegi, S. Tempelaars, op. cit.

265

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 266/381

Studio cyfrowe (komputerowe)

mości akustyki i znajomości zachowań sygnału VOSIM przy różnie dobranychparametrach. Często najlepszą jest metoda kolejnych przybliżeń, a więc ekspe-rymentowanie i sprawdzanie — słuchowo i poprzez wykresy widma, na ilesyntezowany dźwięk przybliża się do wyimaginowanego czy też rzeczywistego

wzorca. Osiągane w ten sposób rezultaty są jednak zaskakująco dobre. Przykła-dem niech będzie dźwięk c1 fagotu. Na il. 148a widzimy analizę widma dźwiękunaturalnego a, na il. 148b zaś analizę dźwięku syntetycznego uzyskanego za po-mocą funkcji VOSIM.

a) b)

Il. 148

Przy uwzględnieniu w zapisie stanów narastania i wybrzmiewania, w realizacjiakustycznej oba te dźwięki są do siebie łudząco podobne.

CHA NTPraca w systemie VOSIM, mimo niezaprzeczalnych jego zalet, była jednak nie-

zbyt wygodna. Duża uniwersalność systemu stawała się przeszkodą dla dalekoidących uproszczeń, które dały się wprowadzać w innych systemach.

Kompozytorzy są jednak z natury leniwi. Wolą, aby większość pracy wyko-nywał za nich komputer, a przedtem wyspecjalizowani programiści. Ustalaniewartości 12 parametrów dla każdego zdarzenia dźwiękowego, lub nawet tylko

 jego cząstki, okazywało się zbyt żmudne, tym bardziej że układ zmiennych w VO-SIM był nieprzejrzysty, a żaden z parametrów nie miał odniesienia wprost dofizycznych cech projektowanego dźwięku.

Tym wadom miał zaradzić wywodzący się z VOSIM-u system CHANT, opra-cowany przez Xaviera Rodeta i Geralda Bennetta w IRCAM w Paryżu.

CHANT, podobnie jak VOSIM, opiera się na modelu formantowym. Jest jed-nak bardziej wyspecjalizowany od swego poprzednika, ukierunkowany na sy-

mulowanie dźwięków wokalnych, chociaż pozwala także na generowanie innychdźwięków charakteryzujących się widmem o uprzywilejowanych strefach for-mantowych.

266

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 267/381

Rodzaje cyfrowej syntezy dźwięku

Il. 149

Najprostszy sygnał w CHANT ma przebieg funkcji sinus o zmiennej ampli-tudzie. Jego obraz zbliżony jest do powtarzanych periodycznie harmonicznychdrgań tłumionych (il. 149).

W każdym okresie takiego sygnału można wyróżnić cztery fazy: narasta-nia (A), opadania (B), tłumienia (C) i stanu spoczynku (D) (il. 150, s. 268). Można

to przyrównać do czterech stanów uderzonej, a następnie stłumionej struny for-tepianu, którymi są: wzbudzenie, naturalne wybrzmiewanie, stłumienie i pauzadzieląca stłumienie od następnego wzbudzenia.

Dokładny przebieg takiego sygnału może być zdefiniowany za pomocą 7 pa-rametrów. Są nimi:

— częstotliwość sinusoidy,— amplituda szczytowa,— stromość opadania,— czas trwania wzbudzenia (odcinek A),— czas trwania sumy odcinków A i B,— czas tłumienia (odcinek C),— częstotliwość wzbudzania (odwrotność czasu trwania sumy odcinków A, B,

C, D).Opisany powyżej sygnał przedstawia widmo harmoniczne z jednym pasmem

formantowym. Częstotliwość wzbudzania określa częstotliwość tonu podstawo-wego, a częstotliwość sinusoidy — częstotliwość środkową pasma formantowego.Tak uproszczony model akustyczny nie wystarcza do symulowania dźwiękówwokalnych. Toteż program CHANT jest tak skonstruowany, że sygnał końcowypowstaje przez zsumowanie szeregu sygnałów prostych (jednoformantowych)

przy zachowaniu tej samej częstotliwości wzbudzania i zgodności fazy. Każdysygnał prosty określa wówczas jedno pasmo formantowe.

W programie CHANT dane wejściowe określają wartości parametrów, takich

267

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 268/381

Studio cyfrowe (komputerowe)

Il. 150

 jak: częstotliwość wzbudzania, częstotliwości środkowe kolejnych formantów, am-plitudy tych formantów, czas trwania kolejnych zdarzeń dźwiękowych itd. War-tości te mogą być stałe dla każdego zdarzenia, albo też mogą być określanew postaci funkcji.

Na wyjściu programu pojawiają się wartości amplitudy w czasie, które pokonwersji cyfrowo-analogowej przybierają postać sygnału. Da to w efekcie nutęlub szereg nut o cechach wyznaczonych przez dane wejściowe.

Zaletami programowania w CHANT są:1. jasna korelacja pomiędzy parametrami wejściowymi a fizycznymi cechami

dźwięku, i2. łatwość tworzenia szeregu podobnych zdarzeń dźwiękowych, ponieważ ze-

spół danych może być powtarzany wielokrotnie, bez zmian, albo tylko z mody-fikacjami, jakie są potrzebne dla następnej nuty.

CHANT jest programem konwersacyjnym. Cały system obejmuje: klawiaturęz monitorem, szybki komputer VAX/VMS, zewnętrzną pamięć dyskową i kon-werter cyfrowo-analogowy przekazujący sygnał do urządzeń odsłuchowych, ma-gnetofonów itd. System nie działa w czasie realnym, co jest uciążliwe dla użyt-kownika, gdyż czas oczekiwania na realizację akustyczną zaprogramowanegoprzebiegu jest niezbyt krótki, od kilkunastu sekund dla prostych dźwięków dokilkudziesięciu minut dla złożonych sekwencji.

Po wystartowaniu programu użytkownik otrzymuje od komputera szereg py-tań, na które odpowiada wystukując na konsoli odpowiednie dane. Na przykład:na pytanie „parametr” odpowiada „f1 = 230”. Jeżeli zamiast odpowiedzi użyt-

kownik cofnie tylko wałek do nowego wiersza (ang. carriage return), to komputerprzejdzie do następnego pytania lub do dalszej części programu. Realizację aku-styczną wywołuje wystukanie hasła PLAY.

268

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 269/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 270/381

Studio cyfrowe (komputerowe)

dźwięków wokalnych, jak i wtedy, kiedy programowanie ma służyć tworzeniuabstrakcyjnych przedmiotów dźwiękowych.

Przy wielu zaletach tego systemu nie można przeoczyć pewnego niebezpie-czeństwa, jakie ze sobą niesie. Jest nim znacznie zawężenie pola dźwiękowego

do pewnej kategorii zjawisk natury rezonansowej. Ale trzeba przyjąć to z do- brodziejstwem inwentarza. System CHANT jest po prostu tak ukierunkowany.Zjawiska dźwiękowe nie mieszczące się w tym polu są wprawdzie osiągalne, aleuzyskiwanie ich jest na tyle pracochłonne, że przestaje być opłacalne. Ci, którzychcieliby częściej wychodzić poza ten ograniczony krąg, powinni raczej zwrócićsię do innego rodzaju syntezy.

4.8.9. SSP — system niekonwencjonalny

 Jakkolwiek ograniczamy się w tej książce do omawiania tych systemów i ro-dzajów syntezy, które są najbardziej rozpowszechnione, tym razem odstąpimy odtej zasady, ponieważ system SSP, mimo iż jego zasięg ograniczył się do jednegostudia, wydaje się nam na tyle oryginalny i niepodobny do systemów szerzejstosowanych, że omówienie go będzie chyba pożyteczne dla przyszłych użyt-kowników komputerowej syntezy dźwięku.

System SSP (ang.  Sound Synthesis Project) powstał w jednym z najbardziej li-czących się ośrodków muzyki komputerowej w Europie, w Instytucie Sonolo-gii uniwersytetu w Utrechcie. Autorami SSP są kierownik Instytutu GottfriedMichael Koenig i jego współpracownik Paul Berg. Oryginalność systemu po-lega na pominięciu wszelkich analogii z elektronicznymi układami generowa-nia i przekształcania sygnałów fonicznych. Wychodząc z prostego założenia, żeskoro sygnał cyfrowy jest w swej istocie dwuwymiarowy i jest określany przezdyskretną funkcję amplitudy w czasie, najlogiczniejszym rozwiązaniem cyfrowejsyntezy dźwięku jest zbudowanie takiego modelu matematycznego, dla któregoparametrami wejściowymi byłyby jedynie czas i amplituda.

W systemie SSP nie ma więc mowy o częstotliwościach, kształcie sygnału, fil-trowaniu, modulacji itd. Podstawą tworzenia złożonego sygnału cyfrowego, którypo przetworzeniu w konwerterze cyfrowo-analogowym na sygnał foniczny i na-

stępnym przetworzeniu w głośniku stanie się sygnałem akustycznym, jest szeregoperacji na wartościach czasu i amplitudy prowadzących wprost do określeniasamego sygnału.

Projekt syntezy dźwięku SSP stanowi przeniesienie w sferę mikroczasu zasadtworzenia kompozycji w makroczasie, które legły u podstaw programów kom-pozycyjnych Koeniga PROJECT 1 i PROJECT 2 31. Szczegółowy opis programuSSP i przykłady jego zastosowania możemy znaleźć w zbiorowej pracy InstytutuSonologii z roku 198132.

Zadaniem użytkownika SSP jest opisanie mikrostruktury dźwięku przez okre-

ślenie elementów, zasad wyboru i funkcji.31 G. M. Koenig, Project I . „Electronic Music Reports” 1970 nr 3, University of Utrecht.32 P. Berg, R. Rowe, D. Theriault, SSP and Sound Description. Institute of Sonology, Utrecht 1981.

270

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 271/381

Rodzaje cyfrowej syntezy dźwięku

Elementami są wartości lub indeksy. Zasady wyboru, to reguły, według którychnastępuje wybieranie kolejnych elementów. Funkcje są to działania określoneprzez zasady wyboru.

Istnieje pewna hierarchia funkcji:

1. wartości czasu i amplitudy, z których może być dokonywany wybór, zostająułożone w postaci listy (funkcja LIST),2. z listy dokonywany jest wybór wartości roboczych (funkcja SELECTION),3. wyselekcjonowane wartości formowane są w odcinki (funkcja SEGMENT),4. odcinki zostają uszeregowane w sekwencje (funkcja PERMUTATION),5. sekwencje zostają wykonane (funkcja SOUND).Komponowanie dźwięku (zdarzenia dźwiękowego) polega na dokonywaniu

wyboru z określonych zasobów. Zasoby te musi określić użytkownik w postacidwóch list: listy amplitud i listy czasów. Elementami listy są wartości amplitudylub czasu wybrane przez użytkownika albo kolejno, co jeden stopień amplitudy,albo przez zastosowanie jednej z zasad wyboru. Lista amplitud może zawieraćwartości od 0 do 4095 (są to jednostki umowne). Lista odcinków czasu może za-wierać wartości w granicach od 38 µs (czas trwania jednej próbki przy konwersjicyfrowo-analogowej) do 131071µs≈ 1.8s). W liście amplitud i w liście czasówelementom zostają przypisane kolejne numery (indeksy):  A1  do  AN   i  T 1  do  T N .W następnych etapach wyborowi poddawane są numery indeksów.

Każdy wybór dokonywany jest za pomocą jednej z następujących procedur:ALEA — wybór losowy z równomiernym rozkładem prawdopodobieństwa,SERIES — wybór losowy grup po   N   elementów, tak aby w ramach grupy

żaden z elementów nie był powtórzony (seria),RATIO — wybór losowy z rozkładem prawdopodobieństwa określonym przezużytkownika za pomocą proporcji, w jakiej powinny pojawić się poszczególneelementy,

TENDENCY — wybór losowy z nałożoną „maskownicą” ograniczającą mak-symalne i minimalne wartości indeksów,

GROUP — wybór losowy jak w ALEA, ale z powtarzaniem elementów pokilka razy (co tworzy grupy jednakowych elementów),

SEQUENCE — arbitralny wybór dokonywany przez użytkownika w postaciokreślonej kolejności elementów,

COPY — przepisanie elementów w takiej kolejności, w jakiej znajdowały sięw poprzednim etapie.

Il. 151. „Maskownica” w wyborze TENDENCY

Zgodnie z hierarchią funkcji programowanie w SSP przebiega w kilku etapach.Pierwszym etapem jest określenie dwóch LIST: amplitudy i czasów.

271

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 272/381

Studio cyfrowe (komputerowe)

Drugim etapem (SELECTION) jest dokonanie wyboru z obu list. Część ele-mentów z list wchodzi do drugiego etapu. Ustalona zostaje ich nowa kolejność.Elementy otrzymują nowe indeksy.

Trzecim etapem jest formowanie SEGMENT-ów. Dobrane zostają pary: jedna

amplituda, jeden czas. Kolejne segmenty mogą być identyczne, podobne (formo-wane według tych samych zasad wyboru i tych samych danych) lub różne.Czwartym etapem jest PERMUTACJA, czyli ułożenie odcinków wybranych

w poprzednim etapie w sekwencje.W etapie SOUND następuje konwersja cyfrowo-analogowa sekwencji ustalo-

nych w IV etapie. Wartości amplitudy i czasu zostają skwantyzowane metodą in-terpolacji linearnej. Ilość sekwencji, jaka może być wykonana jednorazowo przezfunkcję SOUND, zależy od pojemności pamięci komputera.

Sygnał dźwiękowy powstaje w etapach III i IV. W etapie SEGMENT zostajeukształtowany jednorazowy przebieg sygnału (jakby jeden okres), w etapie PER-MUTACJA określony zostaje typ sygnału (periodyczny, nieperiodyczny) i charak-terystyka jego zmienności.

Nietrudno się zorientować, że jeśli w etapie III zostanie określony tylko je-den segment, to w etapie IV każdy wybór da w wyniku ciąg identycznychsegmentów, a efektem tego będzie sygnał periodyczny o widmie stacjonarnym.Częstotliwość tego sygnału równa będzie odwrotności czasu trwania pojedyn-czego segmentu, na który składa się suma czasów wszystkich jego elementów.O widmie tego sygnału decydować będzie układ amplitud w czasie w ramachsegmentu (il. 152). Oczywiście, aby sygnał taki mógł być słyszalny jako dźwięk,

czas trwania segmentu musi się mieścić w granicach wyznaczonych przez czę-stotliwości akustyczne. Jeżeli segmenty wybrane w etapie III nie będą identyczne, a tylko podobne,

ale za to będą miały jednakowe czasy trwania, to efektem permutacji będziesygnał periodyczny o określonej częstotliwości, ale o zmiennym widmie. Podob-nie, dopuszczenie małych różnic czasów trwania poszczególnych segmentów, daw efekcie fluktuację częstotliwości sygnału w niewielkich granicach. Zwiększenieróżnic czasów spowoduje większe rozchwianie się częstotliwości prowadzące dozatracenia wrażenia określonej wysokości otrzymanego w ten sposób dźwięku.Nie ma tu, jak widzimy, ścisłego rozgraniczenia pomiędzy zjawiskami perio-dycznymi i nieperiodycznymi. Wszystko zależy od przyjętych zasad wyboru i odokreślonych parametrów wejściowych. Im większy spowodujemy rozrzut czasówi amplitud i im mniejsza będzie nasza kontrola nad wartościami poszczególnychelementów, tym sygnał wyjściowy bliższy będzie zjawiskom szumowym.

Stosując krótsze czasy trwania dla poszczególnych segmentów, przeniesiemypowstawanie sygnału dźwiękowego o jeden szczebel wyżej w hierarchii funk-cji. Teraz sygnał powstawać będzie w etapie IV (sekwencja   =  okres), a widmosygnału określone będzie przez „treść” segmentów uformowanych w III etapiei od układu tych segmentów w sekwencji.

Tworzenie dźwięków o określonych cechach fizycznych wiedzie przez:a) ograniczanie liczby elementów i swobody wyboru,

 b) uprzywilejowanie pewnych elementów lub pewnych obszarów,

272

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 273/381

Rodzaje cyfrowej syntezy dźwięku

Il. 152

c) arbitralne uszeregowanie elementów, a więc uniezależnienie się od działańprzypadkowych.

Drastycznym ograniczeniem może być np. przyjęcie jednakowych odcinkówczasu dla wszystkich wartości amplitud, innymi — ograniczenie amplitud doniewielkiej liczby wybranych wartości, ograniczenie elementów wchodzącychw skład jednego odcinka. Ograniczeniem wyboru jest przyjęcie małego prze-działu, z jakiego mogą być wybierane elementy (aż do A =Z), stosowanie ma-skownic przy wyborze typu TENDENCY, stosowanie wyboru SERIES zamiastALEA.

Uprzywilejowanie można uzyskać przez stosowanie wyboru RATIO lubGROUP z takim doborem parametrów, aby pewne elementy powtarzały sięo wiele częściej od pozostałych. Innym sposobem uprzywilejowania jest np. uło-żenie listy czasów zgodnie z przebiegiem funkcji sin2, co wyeksponuje wartościśrodkowe na niekorzyść skrajnych.

Korzystanie z wyboru SEQUENCE na każdym etapie pozwala na ukształto-wanie szczegółowe dowolnego dźwięku. Ale postępowanie takie byłoby bardzo

pracochłonne i niecelowe. Działania losowe służą właśnie do tego, aby zdać naprzypadek to, co nie musi być dokładnie określone, zachowując dla siebie tylkomożliwość sterowania tymi działaniami.

27318 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 274/381

Studio cyfrowe (komputerowe)

Sterowanie działaniami losowymi przez ograniczanie, uprzywilejowanie i ar- bitralne wyznaczanie pewnych działań może być prowadzone na różnych eta-pach, począwszy od formowania list, a skończywszy na formowaniu sekwen-cji i wykonaniu. Jednak, nie licząc skrajnie uproszczonych przypadków, wynik

końcowy operacji będzie zawsze trudny do przewidzenia. Dopiero liczne do-świadczenia przeprowadzane przez użytkownika-kompozytora dadzą większeszanse poprawnego przewidywania. Pozostanie jednak zawsze pewien marginesniepewności. Bowiem, jak dotąd, nie znaleziono dla tego systemu jednoznacz-nej odpowiedniości między układem wejścia (dane, funkcje) a układem wyjścia(sygnał).

Praca w systemie SSP jest przygodą. Poszukiwaniem rzeczy nieraz niewyobra-żalnych. Współtwórca systemu Paul Berg wyraził to tak:

„SSP nie wskazuje prostych sposobów na uzyskanie dźwięku klarnetu. Nie jest też wygodnym narzędziem do stosowania różnych technik syntezy. Byłobytrudno z jego pomocą wyprodukować  Międzynarodówkę   lub nastrojową elektro-niczną tapetę dźwiękową. Ci, którzy wolą malować za pomocą liczb powinni sięzwrócić do innego programu”, i dalej:

„... SSP nadaje się przede wszystkim dla tych, którzy chcą budować strukturyi słuchać, co z tego wynika, a nie dla tych, którzy za wszelką cenę muszą uzyskaćwiadomy dźwięk”33.

 Jako hardware system SSP zawierał następujące urządzenia:komputer PDP 15 z konsolą konwersacyjną,czytnik taśmy perforowanej,

kreślące urządzenie graficzne (ASCII),konwerter cyfrowo-analogowy z wyjściem na głośnik.Do komunikowania się z komputerem służyła użytkownikowi konsola kon-

wersacyjna i program SERVE (il. 153, s. 275).Sprawdzenie napisanego tekstu następuje po wywołaniu funkcji: STATUS. Za-

uważony błąd można wówczas poprawić, zastępując błędnie napisany wiersznowym, lub przepisując błędnie napisany fragment programu. Użytkownik ma

 jeszcze do dyspozycji dwie dalsze funkcje sprawdzające: PRINT i PLOT. Pierwszapowoduje wydruk obliczonych przez komputer danych, druga — wykreślenie na

urządzeniu graficznym odpowiadającej im funkcji.System SSP funkcjonuje w czasie realnym. Konwersja następuje równocześniez obliczaniem krzywej dźwięku, tak że użytkownik nie potrzebuje czekać na jejrealizację akustyczną.

Ogólny schemat systemu przedstawiony jest na ilustracji 153 (s. 275). Na sche-macie tym kwadrat „main” oznacza główny program SSP, prostokąty oznaczone„functions” i „selection” — podprogramy kształtujące sygnał cyfrowy. Podpro-gram „random”, generujący ciągi liczb pseudolosowych, znajduje się poza sys-temem. Podobnie jak inne podprogramy, z których może korzystać użytkownik,znajduje się on w stałej „bibliotece” (library) Instytutu.

33 P. Berg, Background and Foreground. W: SSP, a Bi-parametric Approach to Sound Synthesis. Utrecht 1979,s. 10 i 11.

274

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 275/381

Rodzaje cyfrowej syntezy dźwięku

Il. 153

27518∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 276/381

Studio cyfrowe (komputerowe)

Koncepcja systemu SSP jest, jak to już mówiliśmy, kontynuacją programówkompozycyjnych G.M. Koeniga, w których takie same funkcje i sposoby wy-

 borów odnosiły się do makroczasu, do elementów takich jak nuty, segmentyi sekwencje muzyczne aż do całej kompozycji włącznie. Koenig należał w latach

pięćdziesiątych do zagorzałych zwolenników ścisłego serializmu w muzyce. Po-dobnie jak Stockhausen, Eimert i Pousseur, był typowym przedstawicielem tzw.kolońskiej szkoły w muzyce elektronicznej. Odmiennie od pozostałych, ideomserializmu i ścisłej organizacji dźwiękowej pozostał wierny przez długie lata.Przypomnijmy, że jednym z pomysłów, który przewijał się w różnych realiza-cjach elektronicznych tamtych lat, była tzw. „kompozycja integralna”, w której tesame zasady serializacji odnosiły się zarówno do zjawisk w mikroczasie (struk-tura wewnętrzna dźwięku), jak i makroczasie (struktura muzyczna). Przykłademmogą być Stockhausena Studie I   i Studie II 34.

Program SSP jest pewnym odbiciem tamtych idei. Obok serializacji wprowa-

dzono tu inne typy organizacji materiału (aleatoryzm, wybór w ramach zmien-nych granic itd.). Idealnym narzędziem do realizowania takiej koncepcji okazałsię komputer. Poprzez działania ograniczonego przypadku i przez wypełnianieprzestrzeni pomiędzy rzadko rozrzuconymi punktami, komputer służy pomocąkompozytorowi, wykonując za niego „czarną robotę”. Kompozytor komponuje

 jednak każdą strukturę i panuje przez cały czas nad przebiegiem działań. Takiepostępowanie stanowiło zresztą zasadę, także w programie Koeniga przeznaczo-nym dla makroczasu, w jego PROJECT 2. Toteż najciekawszymi koncepcyjnie sąte realizacje, które łączą program w mikroczasie z programami kompozycyjnymi

w makroczasie (np. R. Rowe, Blue Flute, 1979).SSP nie jest na pewno systemem najporęczniejszym, ani też specjalnie łatwymdo przyswojenia przez kompozytora. Jest jednak ważnym przyczynkiem do roz-woju muzyki komputerowej, chociażby przez wskazanie, że synteza cyfrowa niemusi posługiwać się modelami dźwięków naturalnych ani kopiować procedurstudia analogowego. Twórcy SSP pokazali, że można to zrobić zupełnie inaczej.

4.8.10. Modelowanie fizyczne

W ostatnich latach dużą popularność zaczyna zjednywać sobie inny rodzaj syn-tezy opartej nie na postaci dźwięku, lecz na sposobie jego formowania. Systemyprogramowo-sprzętowe przyjmują za model fizyczne właściwości wydobywaniadźwięków — instrumentalnych, wokalnych i innych. Próbują zatem odtwarzaćspecyficzne gesty muzyczne, jak pociągnięcie smyczkiem, zadęcie instrumentalne,szarpnięcie struny, uderzenie perkusyjne czy zaatakowanie głoski wokalnej. Od-twarzają też właściwości płyt i komór rezonansowych instrumentów muzycznychlub traktów głosowych śpiewającego. Nie jest to więc synteza efektów produko-wanych przez dany obiekt, lecz raczej symulacja stanów wewnętrznych i zacho-

wań samego obiektu.

34 Por. także: K. Stockhausen, ...wie die Zeit vergeht... W: „Die Reihe” 3, Universal Edition 1957.

276

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 277/381

Rodzaje cyfrowej syntezy dźwięku

Symulacja jest formą naśladowania, tu za pomocą mediów elektronicznych,przedmiotów lub czynności, które istnieją w świecie rzeczywistym, niezależnieod naszej wiedzy na ich temat. Jednak kluczem do symulacji jest poznanie zasad,na jakich te rzeczywiste przedmioty działają. I to właśnie określa się terminem

modelowanie (ang. physical modelling).Systemem, który posługuje się modelowaniem fizycznym, jest na przykładCORDIS-ANIMA, wypracowany w ciągu lat osiemdziesiątych przez zespół pra-cowników ACROE w Grenoble35.

Koncepcja CORDIS-ANIMA opiera się na kilku ważnych stwierdzeniach:1. przedmioty fizyczne (instrumenty) zostają zmuszone do działania poprzez

czynności zewnętrzne dwojakiego rodzaju: wyrażane przez siłę (nacisk) i przezruch (prędkość). W symulacji komputerowej konieczne jest odzwierciedlenie obutych czynników. W omawianym programie oznaczane są one jako wyjścia-wejściaM i L;

2. przedmioty fizyczne składają się z szeregu elementów współdziałających zesobą. Dla właściwego odtworzenia takich układów w symulacji komputerowejistnieje potrzeba stworzenia prostszych elementów — modułów, których kombi-nacja tworzyć będzie wirtualny przedmiot złożony. Będą to z jednej strony mo-duły „fizyczne”, przedstawiające realne części przedmiotu (instrumentu), a z dru-giej strony moduły funkcjonalne obrazujące owe naciski i ruchy. Oba typy mo-dułów muszą oczywiście posiadać pary wyjść-wejść typu M i L;

3. istnieje wzajemna zależność w postaci akcji i reakcji, oraz rodzaj sprzę-żenia zwrotnego pomiędzy przedmiotem (instrumentem) a operatorem (muzy-

kiem). Te typy reakcji i sprzężenia też muszą być odzwierciedlone w algoryt-mie symulującym działanie przedmiotu. To trzecie stwierdzenie zaowocowałowprowadzeniem modułów dynamicznej zmienności, zależnych od parametrówwejścia wprowadzanych przez operatora i od parametrów modyfikacji wprowa-dzonych przez kontrolę wewnętrzną (akcja-reakcja) i przez operatora (sprzężeniezwrotne).

Trzy podstawowe pojęcia w algorytmie CORDIS-ANIMA to: masa, sprę-ż ys t oś ć i ta r c i e. Każde z nich tworzone jest przez specyficzny algorytm,a kombinacja tych algorytmów tworzy s i e ć. Sieć lub kombinacja kilku sieci two-rzy nadrzędny algorytm, odpowiadający jednemu instrumentowi.

Ideą, jaka przyświecała autorom CORDIS-ANIMA, było stworzenie wirtual-nego instrumentu, który odpowiadałby na gesty muzyczne operatora i pozwalałna instrumentalne tworzenie struktur muzycznych, wychodząc nie od ostatecz-nej postaci dźwiękowej, ale od zachowań samego instrumentu i od jego reakcjina gesty operatora. System wymagał stworzenia odpowiedniej ilości przetwor-ników (fizyczno-cyfrowych), pozwalających na przełożenie działań fizycznych(ruchu smyczka, zadęcia, szarpnięcia) na dyskretny ciąg wartości liczbowych,zrozumiały dla komputera i jego algorytmu.

Podobny system, ale w odniesieniu do śpiewanego głosu ludzkiego, stworzony

został w instytucie CCRMA w Stanford University, pod nazwą SPASM (skrót od35 C. Cadoz, A. Luciani i J. L. Florens  CORDIS-ANIMA: A Modelling and Simulation System for Soundand Image Synthesis  — The General Formalism. „Computer Music Journal” 17/1, 1993, s. 19–29.

277

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 278/381

Studio cyfrowe (komputerowe)

ang.  Singing Physical Articulatory Synthesis Model)36. Chodzi w nim o symulacjękomputerową strun głosowych i traktu głosowego wraz z jego rezonatorami w ja-mie ustnej i nosowej, jakie formują się w czasie śpiewania. Sam model fizyczny,a zatem i jego komputerowe odtworzenie poprzez szereg modułów fizycznych

i funkcjonalnych, są bardzo skomplikowane. Modelowanie śpiewanych głosek od- bywa się poprzez ustawianie na ekranie szeregu wirtualnych „potencjometrów”,a efekt takiego programowania widoczny jest w okienku roboczym w postacischematu przewodu głosowego, wykresu sygnału dźwiękowego i jego widmadynamicznego. System pozwala na precyzyjne odtworzenie śpiewanych głosek.Po przygotowaniu repertuaru głosek system może działać w czasie rzeczywi-stym. Istnieją też inne systemy, symulujące specyficzne działania instrumentalne,

 jak szarpanie struny, uderzanie w membranę, zadęcie klarnetu itp. Takim jest np.system MOSAIC (IRCAM, Paryż).

4.9. System MIDI

System MIDI (skrót od  Musical Instrument Digital Interface) został stworzonyprzez grupę inżynierów amerykańskiej firmy Sequential Circuits. Technicznierzecz biorąc, jest to linia przekazowa pomiędzy urządzeniami cyfrowymi, zdolnaprzekazywać szeregowo i niesynchronicznie 31,25 Kbitów informacji na sekundę.System MIDI pomyślany był do przekazywania kodowanych danych pomiędzy

syntezatorami, sekwencerami, komputerami i klawiaturami cyfrowymi różnychfirm. W styczniu 1982 roku na konferencji zorganizowanej przez National As-sociation of Music Manufactuers (NAMM) wynegocjowano pierwszy wspólnystandard MIDI. W konferencji wzięli udział przedstawiciele Sequencial Circuits,Roland, Oberheim, CBS/Rhodes, Yamaha, E-mu, Unicord (Korg), Music Techno-logy Inc. (Crumar), Kawai, Octave Plateau, Passport Design i Syntauri, a więcpraktycznie wszystkich większych producentów sprzętu elektronicznego audio.W tym samym roku powołano Międzynarodowe Stowarzyszenie MIDI — IMA(International MIDI Association), którego zadaniem miało być normalizowanie,

systematyczne rozszerzanie i kontrolowanie kompatybilności produkowanychprzez różne firmy instrumentów. Pierwsze urządzenia z wyjściami i wejściamiMIDI wyprodukowane były w grudniu 1982 przez Sequential Circuits i przezYamaha Inc. (słynne syntezatory DX-7 i DX-9). Wkrótce potem praktycznie wszy-scy producenci sprzętu cyfrowego przyjęli standard MIDI. Okazało się, że naj-większą zaletą systemu, która zapewniła mu szerokie rozpowszechnienie, byłoto, że pozwalał on na łatwe rejestrowanie wykonywanych przebiegów muzycz-nych w pamięci sekwencera w kilkunastu warstwach (kanałach) i na odtwarzaniezarejestrowanych sekwencji w postaci wielogłosowej i wielobarwowej. Kodowa-niu podlegały następujące parametry: numer naciskanego klawisza, szybkość

36 P. R. Cook, SPASM, a Real-Time Vocal Tract Physical Model Controller and Singer, the Companion SoftwareSynthesis System, „Computer Music Journal” 17/1, 1993, s. 30–44.

278

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 279/381

System MIDI

zaatakowania klawisza i dwa punkty czasowe: czas naciśnięcia i czas zwolnieniaklawisza, a ponadto numer kanału MIDI, któremu zdarzenie dźwiękowe miało

 być przypisane. Do ustalenia punktów czasowych służył licznik impulsów „ze-gara”. Tak więc za pomocą kilku zaledwie liczb rejestrowane były podstawowe

parametry muzyczne dźwięku: wysokość (numer klawisza — od 1 do 127, z tymże dla klawisza   c1 przyjęta została wartość 60), dynamika początkowa (w po-staci liczby od 1–127 określającej szybkość atakowania klawisza; ang.  velocity),i wreszcie umiejscowienie dźwięku w czasie przez określenie liczby impulsów„zegara” upływających od początku sekwencji (rejestracji) oraz liczby impulsówwyznaczających czas trwania dźwięku. System ulegał stopniowemu rozbudo-wywaniu. Obejmował też coraz więcej urządzeń: tych które mogły służyć dorejestracji i sterowania, i tych, które pozwalały się sterować przekazami MIDI.Obok sekwencerów sprzętowych, jakie znane były jeszcze w poprzednim okresie(zob. rozdz. 3.13.), coraz powszechniejsze stało się symulowanie tych urządzeńprzez odpowiednie programy sekwencerowe w ramach muzycznych programówkomputerowych. Stało się więc możliwe z jednej strony rejestrowanie sekwencjiMIDI w pamięci komputera, a z drugiej tworzenie nowych sekwencji, lub korygo-wanie zarejestrowanych, przez wpisywanie odpowiednich danych do programukomputerowego i następnie realizowanie ich na dowolnym syntezatorze odbie-rającym sygnały MIDI.

W systemie MIDI wszystkie dane przekazywane są w równolegle biegnącychpasmach zwanych kanałami. Jest ich w zasadzie 16, ale w niektórych nowszychsystemach mogą znajdować się dwie lub trzy grupy po 16 kanałów. Ten system

pozwala na rejestrowanie i odtwarzanie przebiegów wielogłosowych i wielobar-wowych, bowiem każdemu z kanałów może być przypisany inny „instrument”,a więc i inna barwa w syntezatorze. Warto też zauważyć, że w każdym kanalekilka „nut” może otrzymać ten sam czas startu, co powoduje powstanie akordu,a operowanie czasami startów i czasami trwania poszczególnych zdarzeń po-zwala budować struktury polifoniczne w ramach tego samego kanału.

Kolejna rozbudowa systemu wprowadziła możliwość przekazywania danychdodatkowych, potrzebnych dla automatycznego realizowania sekwencji, tzw. Con-trol Changes. Są to dane o naciśnięciu i puszczeniu pedału (sustain), o staniei zmianach regulatorów odstrojenia ( pitch bend), stopnia modulacji (modulationwheel), głośności (volume), a dalej o zmianie „instrumentu” przez podanie jegonumeru ( program change). Ważnym elementem kontroli dźwięku są zmiany dy-namiki w czasie jego trwania. Na klawiaturze MIDI (posiadającej taką opcję),zmiana nacisku na klawisz po jego uderzeniu powoduje zmiany dynamicznetrwającego dźwięku (ang. after touch); w ten sposób mogą być uzyskiwane efektywibrata dynamicznego i podobne. W pewnych warunkach dane  after touch mogą

 być przełożone na zmiany innych parametrów dźwięku, np. na zmiany wysoko-ściowe. Do zmian crescenda i diminuenda używany jest raczej kontroler  volume.

W programach komputerowych współpracujących z urządzeniami MIDI wpro-

wadzono podprogramy pozwalające na transpozycję, zmiany dynamiczne i wyso-kościowe (np. crescendo, glissando), a także na zmiany tempa. Tak więc synteza-tor, który odtwarzał przebieg MIDI, mógł otrzymać od razu odpowiednio zmie-

279

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 280/381

Studio cyfrowe (komputerowe)

nione wartości wyznaczające podstawowe parametry realizowanego dźwięku lubsekwencji dźwiękowych. W programach komputerowych wprowadzono jeszczedodatkowe przekazy, które nie są czytane przez urządzenie generujące dźwięk,lecz służą dla pamięci pracującego i do umieszczania ich w drukowanej przez

program partyturze. Są to tytuły, teksty słowne, oznaczenia metronomicznetempa, znaki dynamiczne, staccata, akcenty, łuki frazowe, znaki smyczkowa-nia itp.

Proszę zwrócić uwagę, że w MIDI nie są rejestrowane konkretne wysokości,głośności, ani czasy trwania. Rejestracji podlegają tylko dane o stanach klawia-tury MIDI lub analogiczne dane z komputera. Realizacja tych danych może byćzupełnie inna na różnych syntezatorach lub na różnych ustawieniach wstępnychtego samego syntezatora. Poszczególnym numerom klawiszy mogą odpowia-dać inne wysokości dźwięków zależnie od wstępnego nastrojenia konkretnego„instrumentu” lub całego syntezatora. Podobnie, skala dynamiczna jest skaląwzględną i realizacja stopni głośności zależy od konkretnych ustawień „instru-mentu”. Czasy wejść i czasy trwania są również względne, ponieważ każdy se-kwencer posiada regulacje częstotliwości pulsów zegarowych, które wyznaczajątempa metronomowe. Zatem sekwencja zarejestrowana w jednym tempie może

 być odtwarzana w innym — szybciej, albo wolniej, także wyżej lub niżej, ciszejlub głośniej. Jednak proporcje czasowe, dynamiczne i wysokościowe pozostająnie zmienione.

Dane MIDI przekazywane są szeregowo, jedne za drugimi. W każdym punkcieczasu, oznaczonym numerem impulsu, przekazywane są po kolei dane dotyczące

zmian w danym kanale (pedał, modulacja), następnie dane dotyczące nuty lubkolejnych nut w akordzie. Po kolei też przekazywane są dane dla kolejnych ka-nałów przypadające na te same punkty czasu. Można by się więc obawiać, żepodczas tej operacji w czasie realnym dane dotyczące jakiegoś akordu, lub danedla kolejnych kanałów, będą przekazywane dla jednych nut równo z pulsem ze-gara, a dla następnych z opóźnieniem. Tak też jest w rzeczywistości. Jednak zewzględu na szybkość przekazu i stosunkowo niewielką ilość danych, opóźnienieto nie będzie w ogóle zauważalne. Ze względu na pewną bezwładność naszegoaparatu słyszenia, dźwięki, których opóźnienie w stosunku do pierwszego jestmniejsze niż 20ms, są przez nas postrzegane jako równoczesne, a w urządze-niach, o których tu mówimy, opóźnienia w przekazywaniu danych nawet dlakilkunastu kanałów są przynajmniej o rząd mniejsze (np. dane dotyczące 10-gło-sowego akordu przekazywane są w ciągu 6,7 ms). Przekazywanie sukcesywne

 jest za to wielokrotnie tańsze od równoległego i pozwala na stosowanie pro-stych kabli przyłączeniowych i tanich wtyczek typu DIN. Dla połączenia kilkuurządzeń MIDI w szereg stosowane są wszędzie wyjścia dublujące sygnały wej-ściowe, oznaczane jako   thru. Kabel przyłączony do tego wyjścia przekazuje donastępnego urządzenia taki sam sygnał MIDI, jaki otrzymał na wejściu.

Aby móc korzystać z dobrodziejstw systemu MIDI, potrzebne są z jednej strony

urządzenia wysyłające i przyjmujące strumienie danych, a z drugiej programypozwalające na sterowanie tymi danymi. Jeśli chodzi o te drugie, to większośćwspółczesnych programów muzycznych pozwala na przyjmowanie, zarządzanie

280

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 281/381

System MIDI

i tworzenie ciągów zdarzeń dźwiękowych w formacie MIDI. Co do pierwszego,współczesne komputery albo posiadają fabrycznie wbudowane wyjścia-wejściaMIDI, albo dają możliwość prostego zainstalowania interfejsów MIDI. Tymcza-sem od połowy lat osiemdziesiątych właściwie wszystkie urządzenia do cyfro-

wej produkcji i przekształcania dźwięku firm amerykańskich, dalekowschodnichi europejskich przystosowane są do pracy w systemie MIDI i posiadają odpo-wiednie wejścia i wyjścia dla połączenia z innymi urządzeniami.

W tym miejscu trzeba powiedzieć o przekazach niesynchronicznych (ang. Sys-tem Exclusive Data, w skrócie  SysEx). Są to dane, które przekazywane są pozaczasem realnym, w zasadzie przed rozpoczęciem właściwych działań i służą dokomunikacji pomiędzy urządzeniami lub pomiędzy programem komputerowyma urządzeniami. W  SysEx  przekazywane są np. dane dotyczące tworzenia po-szczególnych „instrumentów” i modyfikacji w „instrumentach” już istniejących.w  SysEx  przekazywane mogą być całe banki (bulk data) z dyskietki, karty lubz pamięci komputera do syntezatora, samplera lub innego urządzenia cyfrowego.Długość takiego przekazu nie jest limitowana i może zabierać wiele czasu. Na-zwa  System Exclusive  pochodzi stąd, że dane o których mówimy, powinny byćczytane tylko przez te urządzenia, do których są skierowane. Przekazywanieich innym byłoby zbyteczne, mogłoby też być odczytywane fałszywie lub wy-woływać zaburzenia. Do przekazywania takich danych urządzenie przyjmującemusi być ustawione w pozycji   receive   (bulk data receive), a urządzenie wysyła-

 jące musi dać rozkaz transmit (albo send). Ponieważ na ogół nie dwa, ale szeregurządzeń jest do siebie przyłączonych na stałe kablami MIDI, zachodzi nieraz

potrzeba oznaczenia, dla którego z nich przeznaczony jest rozkaz  transmit. Wów-czas rozkaz ten trzeba poprzedzić informacją  SysEx  wraz z numerem, którymoznaczone jest fabrycznie odbierające urządzenie. Numery identyfikacyjne (ID)przydzielane są poszczególnym producentom przez stowarzyszenie międzyna-rodowe IMA. Wyjątkowo rozkaz  SysEx  użyty być może w czasie realnym, np.wówczas gdy informacja o zmianie „instrumentu” w danym kanale dotyczyćma tylko jednego urządzenia (syntezatora), a przyłączonych do tego kanału jestaktualnie kilka.

Współcześnie produkowane syntezatory i inne urządzenia cyfrowe mają dołą-czone wykazy zwane  MIDI Implementation Chart, określające, które z rozkazówMIDI są przez dany instrument przyjmowane, a które pomijane, oraz które mogą

 być przekazywane do innych. Dotyczy to szczególnie ilości numerów klawiszy,rozkazów  after touch, rozpoznawania sygnałów zmiany „instrumentu” ( programchange). Wiele instrumentów budowanych jest obecnie jako moduły bez klawia-tury. Pracują więc tylko przy dostarczaniu im ciągu danych MIDI z klawiaturyzewnętrznej, sekwencera lub komputera. W tym przypadku ważną dla użytkow-nika jest informacja, czy instrument ten jedynie przyjmuje dane, czy też może

 je także wysyłać, np. w System Exclusive — dane o konfiguracji „instrumentów”,o korektach wprowadzonych do fabrycznych presetów lub o nowo stworzonych

 barwach.System MIDI znalazł swoje zastosowanie do tworzenia sekwencji i dalej ca-

łych kompozycji w muzyce, która za model przyjmuje muzykę instrumentalną,

281

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 282/381

Studio cyfrowe (komputerowe)

niezależnie od rodzaju syntezy i od stosowanego sprzętu. Nic więc dziwnego,że system MIDI, tak jak poprzednio syntezatory i samplery, znalazł powszechnezastosowanie w muzyce rozrywkowej. Tu bowiem syntezatory stały się po pro-stu instrumentami, a dodatkowa możliwość rejestrowania sekwencji, czy zamiany

improwizowanych fragmentów na tradycyjny zapis nutowy leżały jak najbardziejw kręgu zainteresowania kompozytorów uprawiających ten rodzaj muzyki.Przydatność MIDI w elektronicznej muzyce artystycznej okazała się dopiero

później, kiedy stwierdzono, że programowanie barw dźwiękowych i przebiegówsekwencyjnych bezpośrednio w komputerze jest zajęciem pracochłonnym i nie-zbyt opłacalnym dla kompozytora. Z uciążliwości tej może uratować go systemMIDI, w którym przekazywać będzie dane nie tylko dotyczące nut i tworównutopodobnych, ale także złożonych struktur dźwiękowych, które mogą nawetnie przypominać klasycznych nut instrumentalnych.

MIDI okazało się też niezwykle użyteczne w pracy kompozytora w obszarzenie związanym z muzyką elektroniczną. Kompozytor tradycyjnej muzyki instru-mentalnej może ustawić w syntezatorze (samplerze) szereg barw imitujących

 brzmienia instrumentów akustycznych i komponować utwór zapisując poszcze-gólne warstwy, akordy i całe fragmenty kompozycji w sekwencerze, albo grając

 je w czasie realnym na klawiaturze MIDI, albo wpisując je za pomocą myszyi klawiatury alfanumerycznej komputera do programu. Program przedstawia tefragmenty w postaci blokowej, lub od razu w postaci tradycyjnego pisma nuto-wego z podziałem na takty i na wartości nutowe. Możliwe są korekty, kopiowa-nie i przenoszenie w inne miejsce zarejestrowanych fragmentów, zmiany tempa,

transpozycje itd. System ten pozwala na kontrolę słuchową aktualnie kompo-nowanych fragmentów, na łączenie tych fragmentów w większe całości, aż dogotowej kompozycji, wreszcie po uzupełnieniu zapisu o znaki dynamiczne, łukii oznaczenia słowne — na wydruk kompletnej partytury utworu.

Innym udogodnieniem, na które pozwala system MIDI, jest możliwość pracynad samym dźwiękiem w syntezatorze lub samplerze przez wprowadzanie da-nych dotyczących zmian i modyfikacji w sterującym programie komputerowym,współpracującym z danym urządzeniem. Tego typu programy dostarczane sązazwyczaj jako opcje wraz ze sprzętem cyfrowym. Niektóre z nich pozwalająprzedstawiać dźwięki w postaci widma (przez szybką transformantę Fouriera)lub w postaci graficznej pokazującej aktualny stan strojenia, obwiedni itd. po-szczególnych składowych generowanego dźwięku, jak i połączeń pomiędzy nimi.Ponieważ w czasie pracy nad komponowaniem dźwięku istnieje stałe połączeniekomputera z syntezatorem (samplerem) poprzez system MIDI exclusive, równieżi tu możliwa jest kontrola słuchowa otrzymywanych wyników, a po uzyskaniu za-dowalającego brzmienia zarejestrowanie tak otrzymanego nowego „instrumentu”w pamięci komputera i w pamięci RAM syntezatora.

Czytelnik może spotkać się z określeniem  General MIDI , w skrócie GM. Jest towprowadzone w 1991 roku rozszerzenie standardu MIDI, dla ułatwienia pracy

użytkownikom półprofesjonalnych urządzeń syntezatorowych. Chodzi tu o użyt-kowników, którzy traktują syntezatory i MIDI jako namiastkę akustycznych in-strumentów. W syntezatorach tych, które pracują na fabrycznie przygotowanych

282

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 283/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 284/381

Studio cyfrowe (komputerowe)

i przystosowaniem do praktyki wykonawczej większych systemów studyjnych,od których przyjęły zasadę konstrukcji.

Wczesnym przykładem systemu studyjnego był mieszany system kompute-rowy DMX-1010 (firmy Digital Music System w Bostonie). Pracowały w nim dwa

komputery, z których jeden sterował wszystkimi procesami i strukturą kompo-zycji, a zadaniem drugiego była tylko produkcja dźwięków (synteza). W póź-niejszych systemach uproszczona została szczególnie część syntezująca. Genera-tory w postaci podprogramów zostały zastąpione generatorami hardwarowymi,umieszczanymi w grupach po kilkanaście do kilkudziesięciu sztuk w jednymobwodzie scalonym.

Bardziej rozbudowane systemy tego typu, np. Synclavier II i Fairlight CMI,miały już klawiaturę MIDI, ponadto wejścia analogowe z własnym konwerteremADC dla wprowadzania sygnałów fonicznych z zewnątrz. Wprowadzone sygnały

 były analizowane przez komputer i mogły być resyntezowane, modyfikowane,modulowane, filtrowane, mieszane z sygnałami syntetycznymi itd.

Sercem mieszanego systemu komputerowego był syntezator, czyli układ ge-neratorów cyfrowych z sumatorami i mnożnikami sygnałów. Rolę syntezatoraspełniał w tym przypadku odpowiednio zaprogramowany mikroprocesor, zło-żony z kilku, a w skrajnych przypadkach nawet tylko z jednego obwodu scalo-nego o wielkiej skali integracji. Działanie generatora cyfrowego wyjaśniliśmy jużw opisie MUSIC V (str. 234). Różnica polega tylko na tym, że teraz generatory(tablice funkcji i systemy ich czytania) mają postać hardwarową, czyli zaprogra-mowanego sprzętu. W syntezatorach umieszcza się pewną ilość niezależnie od

siebie działających generatorów, z których sygnały sumują się na wyjściu. Sy-gnały z jednych generatorów mogą być też używane do sterowania parametraminastępnych, do mnożenia ich z innymi itd. Pozwala to stosować różne rodzajesyntezy zależnie od potrzeb użytkownika.

Dysponując np. 16 generatorami, ma się do wyboru:1. produkowanie pojedynczego sygnału złożonego z 16 składowych sinuso-

idalnych o niezależnych obwiedniach (synteza addytywna),2. korzystanie z syntezy addytywnej w różnych kombinacjach wykorzystują-

cych niezależnie grupy generatorów (razem nie więcej niż 16),3. produkowanie 8 niezależnych sygnałów z wykorzystaniem modulacji czę-

stotliwości (tworzenie 8-głosowej polifonii o różnych barwach poszczególnychgłosów),

4. produkowanie kilku sygnałów wykorzystujących tylko część generatorów,które kolejno: jeden steruje częstotliwością drugiego, a te trzeciego itd., tworząctzw. modulację kaskadową,

5. produkowanie 16 niezależnych głosów; w tym przypadku o barwie każdegogłosu decydować będzie wyłącznie wcześniej zaprogramowany kształt sygnału(funkcja umieszczona w tablicy).

 Jeżeli sygnały z kilku generatorów mają ten sam punkt początkowy w czasie,

a wartości funkcji każdego czytane są od początku tablicy, to sygnały takie sąidealnie zgodne w fazie. Ma to ogromne znaczenie zarówno w syntezie addy-tywnej, jak i w metodzie wykorzystującej modulację częstotliwości lub modulację

284

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 285/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 286/381

Studio cyfrowe (komputerowe)

Il. 154

„wydajny” syntezator cyfrowy Samson Box, skonstruowany dla studia CCRMAna uniwersytecie Stanforda. Zawiera on aż 256 generatorów, 128 urządzeń prze-kształcających, filtry cyfrowe i urządzenia opóźniające.

4.10.1. Synclavier II

W odróżnieniu od poprzednio omawianych Synclavier produkowany był ko-mercyjnie i sprzedawany jako „instrument”. Obok opisanego w następnym roz-

dziale syntezatora Fairlight CMI był to najstarszy cyfrowy syntezator muzycznysprzedawany studiom muzyki elektronicznej i indywidualnym odbiorcom. Obapowstały pod koniec lat siedemdziesiątych i skierowane były przede wszystkimdo wymagających odbiorców muzyki artystycznej.

Synclavier jest systemem uniwersalnym, wychodzi jednak naprzeciw użytkow-nika amatora (w dziedzinie komputerowej, a nie muzycznej). Głównymi urzą-dzeniami wejścia są tu przeto klawiatura muzyczna i umieszczony z nią w jednejobudowie zespół przełączników i regulatorów. Typowo komputerowe urządze-nia wejścia — konsola konwersacyjna i monitor, przeznaczone są dla bardziejwymagających użytkowników, którzy chcieliby korzystać z systemu nie tylko do

grania, ale również do poważniejszej pracy twórczej lub eksperymentów z dźwię-kiem. (Nb. Synclavier sprzedawany jest również w wersji „instrumentalnej”, bezmonitora i konsoli.)

286

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 287/381

Syntezatory cyfrowe

Il. 155.Synclavier II

Pewną ciekawostką w systemie Synclavier jest to, że stosując metodę addy-tywną nie określa się obwiedni poszczególnych składowych indywidualnie, leczogólnie, traktując ją jako wzbogacanie tonu podstawowego o wyższe tony harmo-niczne. To, co nazwalibyśmy „charakterystyką instrumentu” (producent określato terminem „partial timbre”), uzyskuje się tu przez:

1. ustalenie proporcji amplitudy wszystkich składowych (maksymalnie 24), jakdla dźwięków stacjonarnych,

2. określenie obwiedni dynamicznej (3 czasy i 2 poziomy),3. określenie obwiedni „harmonicznej”, która działa jak filtr dolnoprzepustowy

i ustala zawartość wyższych harmonicznych w stosunku do składowej podsta-wowej.

Ponieważ te dwie obwiednie mają z reguły niejednakowy przebieg, nałożenieich na siebie daje bardzo zróżnicowane efekty brzmieniowe (il. 156, s. 288). Takuzyskany sygnał ma widmo dynamiczne, tzn. zmienne w czasie. Zmienność ta

 jest jednak znacznie prostsza niż w widmach uzyskiwanych za pomocą modulacjiczęstotliwości.

Kształt obu obwiedni, jak również kształty sygnałów cyklicznych rzutowanesą w postaci wykresów na monitorze. Brak jednak urządzeń do graficznegoprojektowania lub korygowania funkcji.

Duża pojemność pamięci wewnętrznej (a także zewnętrznej — dyskowej) po-

zwala zapamiętać do 120 różnych „charakterystyk instrumentalnych” i utrwalićcyfrowo do późniejszego wykorzystania to, co było grane na klawiaturze. Temuostatniemu służy 16-kanałowy sekwencer cyfrowy, który w przypadku Synclaviernie jest osobnym urządzeniem, ale stanowi część oprogramowania systemowego.

Konstruktorzy z New England Digital Co (w skrócie NED) nie ustają w pra-cach nad unowocześnianiem systemu Synclavier. Projektują nowe jednostki pro-gramowe i rozszerzają zestaw istniejących urządzeń. Model Synclavier II z roku1984 ma w standardowym wyposażeniu sekwencer 32-kanałowy i układ po-zwalający na resyntezę dźwięku metodą „klatek dźwiękowych”. W wersji roz-szerzonej o stację twardych dysków (typu Winchester) i nowy sampler, system

powoduje cyfrową rejestrację sygnału w oparciu o szybką transformantę Fourieraz możliwością wyświetlania perspektywicznego widma w przebiegu czasu naekranie monitora (50 sekund na jednym dysku) i pozwala na resyntezę tego

287

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 288/381

Studio cyfrowe (komputerowe)

a) propozycjeskładowychharmonicznych

 b) obwiedniadynamiczna

c) obwiednia„harmoniczna”

d) widmo dźwiękuw funkcji czasu

Il. 156. Efekt obwiedni „harmonicznej” w Synclavier

288

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 289/381

Syntezatory cyfrowe

sygnału połączoną z przetwarzaniem w czasie realnym. Program SCRIPT umoż-liwia zaprogramowanie sekwencji muzycznej lub nawet całego utworu przezpodanie listy „nut”. Inny program o nazwie MAX pozwala na automatyzacjęstudia i na łączenie systemu Synclavier z innymi urządzeniami cyfrowymi.

4.10.2. Fairlight CMI

Podobnym do Synclavier IIjest australijski system produkowany seryjnie przezfirmę Fairlight Instruments pod nazwą Computer Musical Instrument, w skró-cie CMI, powstały w latach 1976–1978. W szczegółach konstrukcji i w działaniuróżni się on nieco od poprzednio opisanego. Głównym pośrednikiem międzyużytkownikiem a maszyną jest tu graficzne urządzenie zwrotne w postaci moni-tora z piórem świetlnym. Akcentuje zatem komputerową proweniencję systemu.

Fairlight CMI pozwala na stosowanie różnych metod syntezy:1. syntezę addytywną z możliwością uzyskiwania widm dynamicznych,2. syntezę metodą kształtowania sygnału (wave shaping),3. resyntezę dźwięków naturalnych, zarejestrowanych cyfrowo jako próbki.Tworzenie ciągów kompozycyjnych (struktur muzycznych lub nawet całych

kompozycji) dostępne jest również na kilka sposobów:a) przez zapisanie wcześniej przygotowanej kompozycji w pamięci komputera

za pomocą ukierunkowanego muzycznie języka o nazwie COMPOSER (zapisw postaci alfanumerycznej),

 b) przez wpisywanie sekwencji i pojedynczych zdarzeń dźwiękowych z klawia-

tury do pamięci sekwencera cyfrowego o dużej pojemności (ok. 30 min. średniogęstego, wielogłosowego przebiegu),

c) przez improwizowanie poszczególnych partii na klawiaturze i rejestrowanieich w postaci analogowej na kolejnych ścieżkach magnetofonu,

d) przez przetwarzanie na żywo sygnałów z linii mikrofonowej lub odtwarza-nych z magnetofonu.

Możliwe jest również łączenie i krzyżowanie wyżej wymienionych sposobów,np. odtwarzanie z sekwencera zarejestrowanej struktury i równoczesne dogry-wanie na żywo partii improwizowanej na klawiaturze.

Na urządzenia Fairlighta składają się:— klawiatura alfanumeryczna (konsola),— klawiatura muzyczna 6-oktawowa z mikroprocesorem tłumaczącym na dane

cyfrowe wybór klawiszy, szybkość zaatakowania i stopień zagłębienia,— monitor z piórem świetlnym,— wejście dla sygnałów zewnętrznych z konwerterem analogowo-cyfrowym,— komputer sterujący, w skład którego wchodzą: główny procesor (złożony

z dwóch jednakowych mikroprocesorów typu MC 6800), dwukierunkowa liniaprzesyłowa (ang. data and address bus), stacja pamięci dyskietek (ang. floppy discsdrive), dodatkowe moduły pamięci RAM,

— 8 niezależnych jednostek syntezujących, z których każda jest wyspecjalizo-wanym mikroprocesorem z własnym obszarem pamięci,

— dystrybutor kanałów do projekcji wielokanałowej.

28919 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 290/381

Studio cyfrowe (komputerowe)

Ilustracja 157 przedstawia zestaw aparatury CMI. Widzimy na nim dodatkowądrugą klawiaturę i pakiet wymiennych dyskietek. Cała część komputerowa mie-ści się w widocznym u góry skrzynkowym pojemniku. Dwie pionowe, czarneszuflady, to stacje pamięci dyskowej.

Il. 157. Fairlight CMI

Praca w systemie Fairlighta jest łatwa nawet dla początkujących w dziedziniemuzyki komputerowej. Producent przygotował wszystko tak, aby użytkownik

nie mający pojęcia o komputerach, ani o ich programowaniu, mógł korzystaćz CMI jak z instrumentu muzycznego, i aby stopniowe wprowadzanie w tajnikisyntezy cyfrowej było dla niego przyjemną zabawą.

Po włączeniu systemu do prądu na monitorze wyświetlana jest pierwsza„strona” programu — spis problemów (czynności). Użytkownik wskazaniempióra świetlnego wywołuje stronę problemową, która pojawia się na monitorzena miejsce poprzednio wyświetlanej. Teraz nadal za pomocą pióra świetlnegoalbo wskazuje odpowiednie nazwy (symbole), które mają być opracowywane —wówczas wyświetlane są dalsze strony lub odpowiednie wykresy, albo, skoropokazała się na ekranie siatka stanowiąca przestrzeń do wypełnienia wykresem,

„rysuje” za pomocą pióra świetlnego pożądany kształt funkcji i w ten sposóbprogramuje przebieg obwiedni, kształt sygnału lub kreśląc koryguje kształt przezsystem wyświetlony.

290

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 291/381

Syntezatory cyfrowe

Tak jak w większości syntezatorów cyfrowych, programowanie służy tu doprzygotowania materiału dźwiękowego i do modelowania dźwięku pod wzglę-dem charakterystyki instrumentalnej. Do tworzenia sekwencji służy z kolei kla-wiatura; za jej pomocą przekazywane są do pamięci wprowadzane ręcznie dane

dotyczące czasów i dynamiki projektowanych zdarzeń dźwiękowych. Do określa-nia zmiennych funkcji klawiatury, a także do wprowadzania programu w językuCOMPOSER służy konsola z klawiaturą alfanumeryczną.

Dla ułatwienia działań muzykom, którzy chcieliby wykorzystywać CMI jakoestradowy syntezator do koncertowania z innymi instrumentami, producent od-dał do dyspozycji cały „katalog” gotowych „instrumentów” na dodatkowychdyskach magnetycznych. Zawartość dysków przedstawiana jest na monitorze.Użytkownik wskazaniem pióra świetlnego wybiera sobie „instrumenty” jak go-towe głosy w syntezatorze analogowym i krosuje je (również wskazaniami pióraświetlnego) z odpowiednimi urządzeniami sterującymi oraz wybranymi kana-

łami wyjściowymi. W takim przypadku sterowanie za pomocą klawiatury po-dobne jest do grania na 12-półtonowym instrumencie nastrojonym do kamertonu440Hz. Użytkownik może jednak bez trudu przestroić cały instrument albo teżwprowadzić inny podział oktawy, nawet w stosunkach niewspółmiernych.

Il. 158

Specyficznym dla CMI jest programowanie dźwięków o widmach dynamicz-nych przez rysowanie piórem świetlnym obwiedni kolejnych składowych harmo-nicznych. Maksymalnie jest ich 64; po 8 z nich może być jednocześnie wyświe-tlanych na monitorze. Programowany w ten sposób dźwięk może być kontrolo-

wany słuchowo w miarę jego powstawania, a niewłaściwie narysowane obwied-nie można korygować przez wrysowanie w ich miejsce nowych.Nie jest to jednak typowa synteza addytywna, kiedy sygnały z szeregu ge-

neratorów cyfrowych sumują się w sygnał końcowy. Projektanci CMI posłużylisię niezwykle oryginalnym rozwiązaniem. Narysowane przez użytkownika ob-wiednie składowe są próbkowane w 128 punktach czasowych (gęstość próbko-wania wyznacza użytkownik). Procesor przelicza stosunki amplitud składowychdla kolejnych próbek na współrzędne funkcji dyskretnej obrazującej jeden cyklsygnału. Dane 128 takich funkcji zostają przekazane do pamięci jako charaktery-styka widma dynamicznego i mogą być wywołane każdorazowym naciśnięciem

klawisza lub odpowiednim sygnałem z sekwencera. Jak więc widzimy, w pamięci pozostają nie obwiednie składowych, lecz wy-

znaczone przez nie chwilowe kształty sygnału, które w trakcie trwania dźwięku

29119∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 292/381

Studio cyfrowe (komputerowe)

mogą zmieniać się 128 razy. Sygnał powstaje jako sekwencja oscylacji o okre-ślonych kształtach. Zależnie od częstotliwości podstawowej i od czasu trwaniadźwięku, kształt oscylacji zmienia się co ileś okresów.

Ta metoda tworzenia sygnału pozwala na projektowanie sygnału wprost przez

rysowanie kształtu oscylacji na monitorze. Przydaje się to szczególnie przy pro- jektowaniu dźwięków o widmach nieharmonicznych i szumowych. Równieżi w tym przypadku dla każdego zdarzenia dźwiękowego zapamiętana zosta-nie sekwencja do 128 kształtów.

W metodzie syntezy przyjętej przez konstruktorów CMI obraz dźwięku po-wstaje tak jak ruchomy obraz w filmie. Szybkie zmiany nieruchomych obrazówcząstkowych — dzięki bezwładności naszego układu percepcji — dają wrażeniezmiany ciągłej. Nieruchome (statyczne) sygnały cząstkowe zmieniają się podob-nie jak klatki w filmie (il. 159). Jest to więc specyficzne zastosowanie syntezyziarnistej, przy znacznie mniejszej częstotliwości „klatek” niż w klasycznej syn-tezie opisanej w rozdziale 4.8.6.

Il. 159

Ponieważ projektowanie kształtu oscylacji dla poszczególnych „klatek” jest

trochę działaniem po omacku (z wyjątkiem przypadków najprostszych trudno bowiem przewidzieć skutki takiego projektowania), konstruktor dał możnośćużytkownikowi oparcia się o wzory dźwięków naturalnych. Dźwięki te mogą

 być wprowadzane do systemu przez linię mikrofonową, analizowane, zapamię-tywane i resyntezowane. Sygnał przedstawiający pojedyncze zdarzenie dźwię-kowe próbkowany jest w 128 punktach czasowych, a do pamięci przekazywanesą dane o kształtach sygnałów cząstkowych. Użytkownik może obserwować namonitorze widmo trójwymiarowe całego sygnału w rzucie perspektywicznymalbo wywołane z pamięci próbki sygnałów cząstkowych. Nie musimy dodawać,

 jak pouczające jest studiowanie takiej analizy.Metodą tą można, teoretycznie, zarejestrować i zanalizować każdy dźwięk elek-

troniczny, instrumentalny, naturalny zgrzyt czy stukot. Trzeba jednak pamiętać,że przy ograniczeniu ilości próbek do 128 dobrze odwzorowane w tym konkret-nym systemie mogą być albo dźwięki bardzo krótkie, albo dźwięki dłuższe, aleo małej zmienności w czasie.

Zapamiętane dźwięki naturalne mogą być traktowane tak jak zdarzenia projek-towane przez użytkownika. Można je umieścić w pamięci zewnętrznej (dyskuużytkownika), można ich używać jako materiału do „grania” na klawiaturze,można je wreszcie dowolnie korygować i przerabiać, zmieniając piórem świetl-

nym kształty sygnałów cząstkowych.Realizację sygnału zapewniają moduły syntezujące. Są to właściwie małe, wą-

sko wyspecjalizowane mikroprocesory. Każdy z nich zawiera generator cyfrowy,

292

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 293/381

Syntezatory cyfrowe

własny obszar pamięci (16 Kbytes) oraz konwerter cyfrowo-analogowy. W pa-mięci modułów syntezujących umieszczane są czasowo dane dotyczące sekwencjisygnałów cząstkowych, a generator „czyta” te dane zgodnie z treścią sygnałówsterujących. Sygnały sterujące, dotyczące częstotliwości, czasów, amplitudy,   vi-

brato,  portamento   itd. dostarczane są via centralny procesor z klawiatury (lubz sekwencera albo z programu). Sygnały foniczne z 8 modułów syntezujących sąsumowane (mieszane) w dystrybutorze kanałów i otrzymują postać sygnału koń-cowego. Każdy z modułów syntezujących może mieć wpisaną inną charaktery-stykę instrumentalną, czyli inną sekwencję sygnałów cząstkowych. Z klawiatury(sekwencera, programu) można sterować strukturami muzycznymi do 8 głosówrealnych lub nakładać na siebie (mieszać) dźwięki o 8 różnych charakterystykach.

CMI już w wersji standardowej jest urządzeniem bardzo uniwersalnym. Po-siada jeszcze możliwości rozbudowywania go o moduły dodatkowe (następneklawiatury, pedał, drukarkę alfanumeryczną). Dodatkowy przemiennik (Inter-

face) zamienia CMI w urządzenie do sterowania innego syntezatora analo-gowego. Inny przemiennik umożliwia przekształcanie na żywo sygnałów ze-wnętrznych (dźwięków instrumentalnych, wokalnych itd.). Wreszcie umieszcze-nie w nim jednego modułu dodatkowego oraz jednego dysku zamienia systemw komputer ogólnego zastosowania, na którym można dokonywać obliczeń, pro-wadzić kartotekę, rozwiązywać problemy logiczne itd., używając jednego z ogól-nie znanych języków, jak BASIC, COBOL lub PASCAL.

4.10.3. Yamaha DX7

Synclavier i Fairlight wprowadziły istotną zmianę w podejściu do cyfrowejsyntezy dźwięku. Praca w systemach cyfrowych przestała być wyłączną domenąwąskiej grupy specjalistów. Dostęp do komputera i tworzenia muzyki w oparciuo układy cyfrowe mógł mieć teraz każdy, kto miał w tym kierunku zaintereso-wanie. Do posługiwania się nową aparaturą wystarczało pewne doświadczeniesyntezatorowe i trochę wiadomości z akustyki. Biegłość w programowaniu i per-fekcję w „graniu” można było uzyskać już w bezpośrednim kontakcie z urzą-

dzeniem, które na wszystkie propozycje użytkownika odpowiadało natychmiastdźwiękowo. Dla muzyka instrumentalisty był to po prostu syntezator, coś jakbyunowocześniona wersja Polymooga, dla kompozytora poważniej podchodzącegodo pracy — niezwykle podatne i wygodne narzędzie do eksperymentowaniaz dźwiękiem, mogące zastąpić całe studio muzyki elektronicznej — wprost wy-marzone urządzenie do pracy w domu i na estradzie.

Posiadanie takiego urządzenia byłoby rozwiązaniem idealnym, gdyby... nie jego cena. W roku 1984 Fairlight CMI kosztował ponad 20 tys. dolarów, a Syn-clavier II między 21 a 40 tysięcy, zależnie od wyposażenia. Cena dostępna wła-ściwie dla każdego studia uniwersyteckiego czy radiowego, ale przekraczająca

możliwości finansowe przeciętnego użytkownika.Wydawało się, że koszty materiałów i wytwarzania tak złożonego instrumentu

nie pozwolą nigdy na znaczne obniżenie jego ceny. Tymczasem ogromny postęp

293

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 294/381

Studio cyfrowe (komputerowe)

w mikroelektronice pozwolił nie tylko zdecydowanie zmniejszyć wymiary ele-mentów, ale też i gwałtownie obniżyć ceny. Niezależnie od tego ogromny popytna małe syntezatory ze strony muzyków rozrywkowych i pogoń za nowościaminakłoniły wiele firm do eksperymentowania i oparcia produkcji małych synte-

zatorów muzycznych na układach cyfrowych. Takich produktów powstało mnó-stwo: syntezatorów-przystawek, syntezatorów zabawek (celuje w nich japońskafirma CASIO) i programowanych instrumentów wykorzystujących generatoryi sekwencery cyfrowe. Również producenci małych „komputerów osobistych”oferowali, bardziej dla zabawy niż dla użytku, programy muzyczne.

Znaczącym osiągnięciem na tym polu jest syntezator cyfrowy firmy YAMAHAo nazwie DX7, łączący w sobie nowoczesną myśl konstrukcyjną z najnowszymiosiągnięciami techniki mikroelektronicznej. DX7 jest oczywiście nowocześniejszyod Synclaviera i od CMI, powstał o 5–6 lat później. Oferuje inny, ale nie mniej

 bogaty wachlarz możliwości. Jest za to 10-krotnie tańszy. Jego cena, jak na urzą-

dzenie tej klasy rewelacyjna, wynosiła w pierwszym roku produkcji niecałe 2tys. dolarów.

Il. 160. Syntezator Yamaha DX7

DX7 nazwany został przez producenta syntezatorem algorytmicznym. W pro-cesie syntezy wykorzystywane są bowiem różne kombinacje podstawowych jed-nostek operacyjnych, których związki tworzą jakby algorytmy programowe.

Całość urządzenia mieści się w płaskiej obudowie klawiatury, ale część cy-frowa jest jeszcze mniejsza i zawarta w dwóch obwodach scalonych o olbrzymiejskali integracji (zastępujących kilka milionów tranzystorów każdy). Uproszczeniesystemu i redukcję rozmiarów umożliwiła przyjęta przez konstruktorów metoda

syntezy oparta o modulację częstotliwości (patrz rozdz. 4.8.3.).Koncepcja systemu jest prosta. W układzie mikroprocesora zawartych jest 6 ge-

neratorów cyfrowych, określanych jako jednostki operacyjne (ang.  operators), i 32

294

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 295/381

Syntezatory cyfrowe

drogi łączenia ze sobą tych jednostek, określane mianem „algorytmów”. W ra-mach algorytmów sygnały albo są sumowane (na il. 161 przedstawiają to łącze-nia poziome), albo służą do modulowania częstotliwości następnych generatorów(łączenia pionowe). Istnieją też łączenia zwrotne pozwalające na modulowanie

częstotliwości sygnałem z tego samego generatora (na il. 161 klamry).

Il. 161. Niektóre algorytmy w systemie DX7

Użytkownik wybiera typ algorytmu (dotknięciem jednego z 32 sensorów)

i określa wartości parametrów dla poszczególnych jednostek operacyjnych (ge-neratorów). Możliwe jest pomijanie niektórych jednostek. Dlatego liczba dostęp-nych dla użytkownika kombinacji jest wielokrotnie wyższa niż liczba gotowychalgorytmów.

 Jak widzimy z przykładów przedstawionych na il. 161, algorytmy w tym sys-temie umożliwiają złożoną modulację częstotliwości: modulowanie częstotliwo-ści jednego generatora sygnałami z kilku generatorów, modulację „kaskadową”,a także synchroniczne sumowanie dwóch (lub kilku) prostych lub zmodulowa-nych sygnałów.

Te operacje pozwalają na generowanie sygnałów o bardzo złożonych widmachdynamicznych. Użytkownik ma nad nimi kontrolę przez ustalanie stosunku czę-stotliwości generatorów 2, 3,   . . . , 6 do generatora 1, którego częstotliwość wy-znacza naciśnięty aktualnie klawisz, oraz przez określanie obwiedni dla każdegoz generatorów.

W odróżnieniu od typowych generatorów ADSR, w których czteroodcinkowaobwiednia określana jest przez 3 czasy i jeden poziom (podtrzymywania), ob-wiednia jednostki operacyjnej DX7 jest pięcioodcinkowa i wyznaczana przez 4czasy i 4 poziomy (piąty czas zależy od czasu przytrzymania naciśniętego kla-wisza). Pokazuje to il. 162a.

a) b) Il. 162

Poziomy te są niezależne. Poziom początkowy L4 może być np. wyższy niż

poziom „szczytowy” L1. W ten sposób obwiednia modulującego sygnału możeprzybrać kształt jak na il. 165b. Jest to niezmiernie ważne, gdyż zmiany ampli-tudy w czasie sygnału modulującego sterują wskaźnikiem modulacji I, a tym

295

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 296/381

Studio cyfrowe (komputerowe)

samym decydują o czasowych zmianach widma sygnału zmodulowanego. Tym-czasem nieraz pożądane jest, aby ten wskaźnik był wyższy na początku jednostkidźwiękowej (nuty) niż w dalszym jej przebiegu. Dalej, sumując kilka sygnałówo identycznej częstotliwości, możemy uzyskać obwiednię o znacznie większej

ilości odcinków.Zaoferowany przez Yamahę system jest niezwykle bogaty. Ilość kombinacjii wariantów spowodowana różnym dobraniem parametrów szczegółowych —wprost oszałamiająca. To bogactwo stojących do dyspozycji środków jest jed-nocześnie niebezpieczne. Programowanie własnych charakterystyk instrumental-nych („głosów”) jest dla początkującego w zasadzie działaniem na ślepo. Metodaprób i błędów może go nawet doprowadzić do zadziwiająco interesujących rezul-tatów, ale nie będzie nigdy w stanie uzyskać dźwięków o określonych cechach.Do tego potrzebna jest spora dawka wiedzy matematycznej, bez której nie da

się przewidzieć skutków wzajemnego oddziaływania wielu czynników, decydu- jących o końcowym rezultacie dźwiękowym. DX7 może za to oddać nieocenioneusługi przygotowanemu od strony teoretycznej kompozytorowi, który w krótkimczasie będzie mógł wypróbować setki wariantów syntezy FM prowadzących douzyskania właściwego brzmienia, co przy korzystaniu z wielkich komputerówi programów typu MUSIC X zajęłoby mu wiele dni, a może i tygodni.

Dla „zwykłych” użytkowników producent przewidział rozwiązanie typowosyntezatorowe: gotowe „głosy”, przygotowane fabrycznie przez programistów.Tych „głosów” użytkownik ma do dyspozycji: 32 w pamięci wewnętrznej, a powłączeniu dodatkowych dwóch kaset z pamięcią ROM — w sumie aż 128. Sąmiędzy nimi imitacje instrumentów orkiestry, imitacje niektórych instrumentówegzotycznych (vina, koto, shakuhachi), instrumentów perkusyjnych, a także ty-powe brzmienia „syntezatorowe”. Charakterystyki głosów są świetne, bo widmadynamiczne osiągane dzięki modulacji częstotliwości i czystość brzmienia wła-ściwa cyfrowej syntezie dźwięku dają im niezaprzeczalny walor żywości i szla-chetności brzmienia.

Gotowe „głosy” nie są w tym systemie czymś zupełnie sztywnym. Każdywybrany „głos” może być poddawany indywidualnym modyfikacjom, co jest

 jednocześnie najprostszym sposobem wprowadzania użytkownika w tajniki pro-

gramowania. Wychodzi się bowiem od brzmień już uformowanych. Zmodyfiko-wany „głos”, podobnie jak każdy „głos” zaprogramowany poprzez algorytmy,może być zakodowany w pamięci i potem wywoływany jednym dotknięciemsensora.

Do programowania i modyfikowania „głosów” służy zespół  data entry   (wej-ście danych), złożony z suwaka do ustawiania zgrubnego i precyzera w postacidwóch przycisków „+1” i „−1”, zmieniających skokowo dane o jedność. Progra-mowane dane oraz nazwy wybranych parametrów wyświetlane są w okienkuminimonitora umieszczonego na górnej płycie instrumentu.

Do wykonywania struktur muzycznych służą:— pięciooktawowa klawiatura, czuła na szybkość zaatakowania i na stopień

zagłębienia klawisza po naciśnięciu (ang.  after touch response),

296

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 297/381

Syntezatory cyfrowe

— dwa pokrętła, jedno służące jako  pitch bend  (płynna zmiana wysokości douzyskiwania vibrato, portamento, glissando) i drugie modulation wheel, którego ruchypowodują zmienną wariacyjność wskaźnika modulacji,

— pedał „dynamiczny” jak w organach elektrycznych,

— dodatkowy pedał sustain (podtrzymywanie) działający podobnie jak prawypedał w fortepianie.System jest 16-głosowy, to znaczy odpowiada sygnałami na naciskanie do 16

klawiszy równocześnie. Wyjście jest monofoniczne.DX7 nie ma własnego sekwencera. Posiada natomiast standardowy port MIDI,

pozwalający na sterowanie DX7 za pomocą komputera, sekwencera lub na ste-rowanie za pomocą DX7 innych urządzeń z wejściem MIDI.

W celu lepszego wykorzystania możliwości syntezatora DX7, firma Yamahawprowadziła na rynek szereg urządzeń współpracujących z syntezatorami seriiDX, przede wszystkim specjalny mikrokomputer CX5M z programami: Music

Composer, DX7-Vocing Program, Yamaha Music Macro itd., dalej sekwencer cy-frowy QX1 pozwalający na ośmiokanałową rejestrację zarówno z klawiatury syn-tezatora, jak i z klawiatury alfanumerycznej, oraz cyfrową „maszynę rytmiczną”(przeznaczoną raczej dla celów muzyki rozrywkowej). Skonstruowała też więk-sze i droższe modele syntezatorów, jak DX1, DX5 i ośmiokanałowy (a więc gra-

 jący jednocześnie 8 różnych głosów) syntezator bez klawiatury TX816, wszystkieoparte na zasadzie modulacji częstotliwości.

4.10.4. Inne syntezatory

Od czasu wypuszczenia na rynek słynnego Yamaha DX7 upłynęło już sporoczasu. Sama wytwórnia Yamaha, dysponująca wyłącznością na stosowanie mo-dulacji częstotliwości, skonstruowała najpierw model stereofoniczny, dokładniejmówiąc, o dwóch niezależnych wyjściach, o nazwie DX7II. Model ten miał tzw.split, czyli podział klawiatury na dwie części, z których każda mogła zarządzaćinnym kanałem MIDI, zatem i innymi głosami, przy tym split miał przesuwalnypunkt podziału. DX7II dawała też możliwość różnego strojenia klawiatury: po-

działu oktawy według 12-półtonowej skali temperowanej, albo według jednegoz historycznych strojów: średniotonowego, Werkmeistra lub naturalnego, ewen-tualnie stroju zaprojektowanego przez użytkownika. Strój ustalony w ramach

 jednej oktawy powtarzał się we wszystkich pozostałych.Inne firmy elektroniczne, od lat konkurujące z Yamahą, jak Roland, Korg, E-mu,

Ensoniq wprowadziły w swoich syntezatorach cyfrowych inne systemy tworzeniadźwięków instrumentopodobnych. Były to systemy oparte na syntezie addytyw-nej, subtrakcyjnej, bądź mieszanej, to znaczy z wykorzystaniem zarejestrowanych„próbek” z instrumentów akustycznych (Roland D-50). Wprowadzono też terminsyntezy wektorowej, która oznaczała możliwość mieszania kilku „próbek” i to

w dowolnych proporcjach oraz zmiennością w czasie. Roland wprowadził doswoich wyrobów z lat osiemdziesiątych syntezę mieszaną polegającą na wyko-rzystaniu krótkich „próbek” instrumentów akustycznych do tworzenia stanów

297

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 298/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 299/381

Syntezatory cyfrowe

smyczka, czy oddających właściwości oddechu grającego na instrumentach dę-tych. Pojawiły się też moduły pozwalające na kodowanie dźwięków akustycznychw postaci ciągu sygnałów MIDI. Jest to np. Pitch-to-MIDI Converter pozwala-

 jący na zamianę jednogłosowych sekwencji akustycznych, np. dźwięku trąbki lub

śpiewanego głosu ludzkiego na sygnały MIDI, które mogą następnie służyć doprodukowania analogicznych sekwencji dźwiękowych na dowolnych syntezato-rach lub samplerach, albo też być wykorzystywane w sposób mniej konwencjo-nalny, np. jako sygnały sterujące innymi przebiegami.

4.10.5. Moduły specjalne

Obok typowych syntezatorów, z klawiaturą MIDI lub bez, zaczęto budowaćmoduły specjalne, mające służyć do współpracy z syntezatorem, rozszerzając

w ten sposób możliwości brzmieniowe sygnałów cyfrowych. Wszystkie te mo-duły stanowią osobne urządzenia, które z syntezatorami i z komputerem łączysię za pomocą kabli MIDI. Do takich urządzeń należą instrumenty przetwarza-

 jące i opóźniające, zwane ogólnie sound processors.Urządzenia opóźniające (sound delay systems) mają za zadanie wprowadzać

efekty echa. Odbywa się to przez wewnętrzne wielokrotne kopiowanie sygnałui nakładanie skopiowanych sygnałów na sygnał oryginalny z pewnym opóźnie-niem i ewentualnym spadkiem dynamiki. Zależnie od ilości powtórzeń i od ichzagęszczenia w czasie uzyskuje się efekty echa, reiteracji lub pogłosu. Stosuje siętu różne rozwiązania techniczne (np. filtry rekursywne ze sprzężeniem zwrot-

nym) lub po prostu wielokrotne linie opóźniające. Użytkownik musi mieć jednakmożliwość kontroli nad poszczególnymi parametrami opóźnień.

Do bardziej znanych urządzeń uniwersalnych należy PCM-80 Digital EffectsProcessor firmy Lexicon. PCM-80 zawiera dwa „chipy” — jeden dający wielo-krotne i kontrolowane opóźnienia typu pogłosowego, drugi — efekty specjalne

 jak filtry wielopasmowe, generatory sygnałów podakustycznych (do efektów vi-brato i podobnych) itd. Procesor ten pozwala na pracę w czasie realnym i przyj-muje wszelkie przekazy MIDI. Umożliwia to współpracę z wszelkimi urządze-niami cyfrowymi. Kontrola parametrów opóźnień, filtrów itd. może odbywać się

albo poprzez przyciski na panelu procesora, z kontrolą na małym monitorze LED(Light Emiting Diode), albo poprzez komputer z pomocą specjalnego programuułatwiającego kontrolę. Efekty echa, z opóźnieniem od kilkudziesięciu ms do2,6s mogą być przedłużone przez urządzenie dodatkowe do 42s. KonwerteryDAC i ADC pracują w próbkach 18-bitowych, a wewnętrzne przetworzenia —w 24-bitowych.

Inny moduł zewnętrzny to tzw. harmonizer. Nazwa jest dla polskiego czytelnikanieco myląca, urządzenie to bowiem niczego nie harmonizuje. Jest to system po-zwalający na odstrojenie sygnału wejściowego o pewien interwał, z możliwościąreprodukowania go jednocześnie z sygnałem oryginalnym. Odstrojenie, w gra-

nicach od interwału mniejszego od małej sekundy do około oktawy w góręi w dół, może przebiegać w czasie realnym, tworząc dwudźwięki lub, przy wie-lokanałowym odstrojeniu, coś w rodzaju równoległych akordów. Harmonizer

299

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 300/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 301/381

Syntezatory cyfrowe

wodujących płynną zmianę parametrów. W klawiaturze  master keyboard  możnaz reguły wprowadzić podział obszaru klawiszy na 2 lub więcej części (split), także każdej z tych części może być przypisana inna barwa lub inny kanał MIDI.W większości przypadków klawiatura MIDI ma ograniczoną liczbę klawiszy np.

49 lub 61 (4 lub 5 oktaw). Rzadziej spotykana pełna klawiatura MIDI ma 88klawiszy, tj. tyle, ile klawiatura fortepianu.

4.10.6. Stacje robocze (Workstations)

Terminem Workstation określa się urządzenia kompletne zastępujące całe studiocyfrowe. Z wyglądu przypominają syntezatory z wbudowaną klawiaturą, zawie-rają jednak szereg dodatkowych elementów, np. procesorów, pozwalających napracę bez włączania w szereg osobnych modułów przetwarzających. Worksta-

tion zawiera z reguły sampler, sekwencer, filtry, urządzenia opóźniające (pogłos,chorus, flanger), dużą pamięć RAM i port do wprowadzania danych z dyskietek.Właściwie wszystkie opisane wyżej urządzenia do przetwarzania dźwięku

mogą być umieszczone jako moduły wewnętrzne. Dodatkowo workstation za-wiera układ sterujący, pozwalający na włączanie w szereg i odłączanie poszcze-gólnych urządzeń wewnętrznych, ma kilka wejść — audio i MIDI, oraz wyjściawielokanałowe — cyfrowe i analogowe (po własnym DAC). Częstość próbko-wania jest na ogół unormowana i ma dwie opcje: 44.1kHz (standard płyt CD)i 48 kHz (standard DAT). Mikroprocesory stanowiące poszczególne urządzeniastacji roboczej mogą być sterowane z klawiatury własnej, z urządzeń zewnętrz-

nych MIDI oraz z komputera. Ideą workstation jest stworzenie takiego urządzenia,które pozwoliłoby kompozytorowi (albo improwizującemu wykonawcy) wyko-nanie lub zarejestrowanie całego utworu bez wychodzenia poza ten instrument.

Przykładem stacji roboczej może być syntezator Yamaha SY77 RCM Synthe-sizer, zaawansowany produkt tej wytwórni. Jest to urządzenie zawierające kla-wiaturę MIDI (76 klawiszy czułych na szybkość i na docisk po zagłębieniu),rząd generatorów i zanotowanych w pamięci „próbek” dźwięków naturalnych,pozwalających na syntezę RCM (Realtime Convolution and Modulation), polegającąna łączeniu i przenikaniu sygnałów z „próbek” i sygnałów otrzymanych z modu-

lacji częstotliwości. W stosunku do syntezatorów z serii DX ilość „algorytmów”,czyli sposobów łączenia generatorów, jest rozszerzona o możliwość modulacji sy-gnałów sinusoidalnych (z generatorów) sygnałami z „próbek”. SY77 zawiera teżwbudowany wielokanałowy sekwencer. Generatory pozwalają na produkowanieaż 16 różnych kształtów sygnału (wave shape), od prostej sinusoidy do sygnałuzawierającego aż do 300 składowych harmonicznych. Sygnał z generatora może

 być modulowany przez inny generator, przez generator szumów lub przez próbkisamplingowe. Ilość dostępnych „algorytmów” powiększona jest do 45. SY77 po-siada też duży zestaw filtrów cyfrowych, strojenie mikrointerwałowe i czteryprocesory specjalne: dwa dla efektów  chorus,   flanger  i tremolo, i dwa dla efek-

tów pogłosu i opóźnień. SY77 posiada 128 fabrycznie przygotowanych presetówi miejsce na 64 układy użytkownika. Instrument stanowi więc kompletne studioelektroniczne, gotowe do produkcji całych kompozycji.

301

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 302/381

Studio cyfrowe (komputerowe)

Podobnym układem urządzeń wewnętrznych odznacza się też W-30 Worksta-tion firmy Roland, Korg T-1 Workstation, a także Proteus/2XR firmy E-mu, z tymże ten ostatni jest modułem bez klawiatury.

Sporo miejsca poświęciliśmy urządzeniom proponującym gotowe rozwiąza-

nia przeznaczone przede wszystkim dla muzyków rozrywkowych. Tymczasemksiążka skierowana jest do kompozytorów (muzyków), mających ambicję two-rzenia sztuki elektronicznej przez duże „S”, i którzy rzadko korzystać będąz rozwiązań podsuniętych im przez inżynierów i programistów pracującychdla wytwórni instrumentów elektronicznych. Z opisów programów takich jakMUSIC V i opisów różnych sposobów syntezy można wywnioskować, że progra-mowanie bezpośrednie, tj. przez pisanie własnych programów oraz korzystaniez syntezy bezpośredniej, jest zajęciem ogromnie pracochłonnym. Tylko niewielkiprocent kompozytorów może sobie pozwolić na taką rozrzutność, rozumianąpodwójnie, bo po pierwsze — trzeba dysponować niewspółmiernie wielką,

w stosunku do osiąganych wyników, ilością czasu, a po drugie — liczyć sięz kosztami, ponieważ działania takie wymagają dostępu do drogich urządzeń,które trzeba kupować, albo mieć możliwość pracy w wielkich studiach kompu-terowych. Korzystanie z nich kosztuje, jeżeli nie bezpośrednio to pośrednio (np.zakwaterowanie w oddalonym mieście).

Nic więc dziwnego, że nawet ambitni kompozytorzy, a także ci, którzy zewzględu na swą pracę mają bezpłatny dostęp do drogich urządzeń i progra-mów, wykorzystują, i to nieraz w dużym procencie, urządzenia ułatwiające —syntezatory, samplery, sekwencery, urządzenia pogłosowe itp. Przyspieszają one

pracę i zdejmują trud działań prymitywnych i powtarzalnych. A przecież zamiastkorzystać z gotowych presetów można komponować barwy i zestawy przekształ-cające według własnych potrzeb, albo — korzystając z presetów, czy gotowych„próbek” — traktować je tylko jako materiał wyjściowy, który zostanie poddanyszeregowi modyfikacji i przekształceń, tak aby rezultat końcowy był zgodnyz wyobrażeniami kompozytora.

4.11. Systemy hybrydowe

Hybrydowymi nazywamy ogólnie systemy niejednorodne (od strgr. hybryda —stworzenie powstałe z pomieszania różnych gatunków, jak syrena, gryf). W na-szym przypadku chodzi o urządzenia (systemy) analogowo-cyfrowe, a więc po-wstałe z połączenia części analogowej i części cyfrowej. Czasami hybrydowymiokreśla się też systemy cyfrowo-cyfrowe, ale złożone z dwóch różnych systemów.

4.11.1. Piper i Groove

Najstarszymi systemami hybrydowymi były PIPER i GROOVE. Pierwszy z nich

zrealizowany został w roku 1967 na Uniwersytecie w Toronto i służył do sterowa-nia za pomocą komputera oraz wcześniej przygotowanego programu aparaturąanalogową Mooga. Jego autorami byli J. Gabura i G. Ciamaga.

302

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 303/381

Systemy hybrydowe

Bardziej rozwinięty był system GROOVE, zaproponowany przez M. Mathewsai zrealizowany w Laboratoriach Bella w Murray Hills w 1968 roku. Ideą Ma-thewsa było wprowadzenie interaktywnego sterowania wcześniej zapisanegoprogramu, co w tamtym czasie stanowiło zupełne novum, ponieważ bezpośred-

nia synteza komputerowa nie pozwalała wówczas na żadne działania w czasierealnym. W systemie GROOVE użytkownik występował najpierw w roli kompo-zytora, pisząc stronę po stronie „partyturę” w specjalnym kodzie, a przy realizacjidźwiękowej programu zamieniał się w „dyrygenta”, który interpretuje partyturę;mógł zmieniać w sposób płynny tempo odtwarzania, wzmacniać lub wyciszaćpewne „głosy” itd. Mógł ponadto, co już wykraczało poza klasyczną rolę dyry-genta, dodawać w czasie realnym poszczególne dźwięki, a nawet cały nowy głos,którego nie było w „partyturze”. Co więcej, komputer był w stanie zapamiętaćtę „interpretację”. Jej szczegóły mogły być krok po kroku korygowane i w końcu„partytura” w ostatecznej interpretacji mogła być ponownie wykonana.

Ilustracja 163 (s. 304) przedstawia uproszczony schemat działania systemu. Pro-gram główny służy tu jako translator z kodu „Groove”, w którym zapisywana jest„partytura”, na język bliższy komputerowi. Program użytkownika, który zawieradane dotyczące komutacji i przebiegów dźwiękowych w czasie, jest realizowanyprzez komputer w czasie realnym, zgodnie z impulsami „zegara”. Program tenmoże być modyfikowany interaktywnie (to jest w trakcie jego realizacji) sygna-łami pochodzącymi z urządzeń analogowych, które są zamieniane w konwerte-rach analogowo-cyfrowych na dane cyfrowe. Tymi urządzeniami są: klawiaturanapięciowa (KL), zespół potencjometrów (P) i dźwignia sterująca (X-Y). Do in-teraktywnego sterowania służyć może także „zegar”, to jest generator impulsówo zmiennej częstotliwości, regulowanej ręcznie lub automatycznie.

W wyniku przetwarzania danych procesor produkuje impulsy przełączającedla krosownicy i sygnały cyfrowe dla syntezatora. System pozwala na jednocze-sne przekazywanie 16 rozkazów przełączających i 14 sygnałów sterujących. Teostatnie po zamianie w wielokanałowym dekoderze cyfrowo-analogowym stająsię napięciami sterującymi dla generatorów, wzmacniaczy, filtrów itd., produku-

 jących sygnał foniczny syntezatora.Innymi znanymi systemami hybrydowymi były: EMS (Wiggen; Sztokholm

1970–1972), MUZYS (Grogono; Londyn 1970), HYBRID IV (Kobrin; La Jolla 1975),PATCH IV (Buchla, 1976), VOCOM (Zinovieff, Grogono; Londyn 1972), IMPAC(Hinton; Sztokholm 1981).

4.11.2. Vocodery i VOCOM

Peter Zinovieff, jeden z głównych konkurentów Mooga, producent znanych

syntezatorów analogowych Synthi, ma również ważny wkład w rozwój muzykikomputerowej. Zaprojektowany przez niego hybrydowy system VOCOM stano-wił unowocześnioną koncepcję starego VOCODER-a, analizująco-syntezującego

303

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 304/381

Studio cyfrowe (komputerowe)

    I    l .    1    6    3 .    S   c    h   e   m   a   t   s   y   s   t   e   m   u    G    R    O    O    V    E

304

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 305/381

Systemy hybrydowe

urządzenia do produkowania sztucznej mowy, znanego już w latach trzydzie-stych naszego stulecia37.

Lata powojenne przyniosły dalszy rozwój VOCODER-ów. Urządzenia te bu-dowano opierając się na różnych zasadach. Stąd podział na vocodery kanałowe,

harmoniczne, formantowe, fonematyczne itd. Vocodery znalazły zastosowaniew filmie, w słuchowisku radiowym i w telewizji, gdzie były pomocne do tworze-nia efektów mowy zniekształconej lub udziwnionej (np. głosy „marsjan”, niby--ludzkie zwierząt, głosy z zaświatów itd.). Znalazły też pewne zastosowaniew muzyce elektronicznej do tworzenia efektów specjalnych (np. w dawnym stu-diu Siemensa w Monachium).

Klasyczny vocoder kanałowy, zwany także kanałowo-pasmowym, np. taki, jaki produkowany był komercyjnie przez firmę Siemens w latach sześćdzie-siątych, jest urządzeniem analogowym. Składa się z dwóch części: analizują-cej i syntezującej (il. 164). Część analizująca zawiera: układ rozpoznający głoski

dźwięczne i bezdźwięczne (na rysunku onaczony systemem D-B), ekstraktor tonukrtaniowego (ETK) oraz — jako główne urządzenie — zestaw filtrów pasmowo--przepustowych i towarzyszących im wtórników obwiedni. W części syntezującejznajdują się: generator impulsów prostokątnych, generator szumu i, identyczny

 jak w części analizującej, zestaw filtrów zaopatrzonych we wzmacniacze stero-wane napięciem.

Il. 164. Schemat VOCODER-a kanałowego

Sygnał foniczny mowy, np. z mikrofonu, rozdzielany jest w części analizują-cej na kilkanaście kanałów, zdejmowana jest obwiednia każdego z filtrowanych

37 B. Rostkowska, Mowa przekształcona i syntetyczna w słuchowisku radiowym. Praca magisterska w Aka-demii Muzycznej w Warszawie, 1983.

30520 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 306/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 307/381

Systemy hybrydowe

Kod cyfrowy zawierający dane z 64 filtrów przekazywany jest do kompu-tera i przetwarzany zgodnie z programem MUZYS na kod uproszczony. Koduproszczony zawiera znacznie mniej danych niż kod pierwotny, bowiem daneidentyczne podawane są w nim w zapisie skróconym. Np. zamiast wypisywać

24 razy „filtr 17=

28 dB” powstaje jeden zapis „filtr 17=

28dB→24 s” (przy często-ści próbkowania 100 Hz) lub „pauza→1.13 s”. Podobnie, dane dotyczące wzrostuamplitudy mogą być zapisywane w postaci przyrostu na określonej przestrzeniczasu. Dzięki temu zamiast 64 × 9 × 100  = 57600 bitów na sekundę (przy prób-kowaniu 100 Hz), w kodzie uproszczonym do pamięci przekazywanych jest od200 bitów/s, potrzebnych dla przenoszenia mowy, do ok. 3000 bitów/s dla mu-zyki. Redukcja danych jest więc ogromna.

Część syntezująca jest również cyfrowa. To właściwie specjalnie ukierunko-wany komputer, którego zadaniem jest przyjmowanie niewielkich ilości danychi wytwarzanie na ich podstawie bardzo złożonego sygnału cyfrowego. Jego kon-struktorami byli David Cockerell i Peter Easty, bliscy współpracownicy PeteraZinovieffa. Sygnał końcowy w tym syntezatorze zostaje złożony punkt po punk-cie z gęstością 46 kHz. Powstaje on w wyniku sumowania sygnałów cyfrowychz 64 generatorów. Sygnał w każdym z generatorów powstaje przez odczytywaniewartości amplitudy z tablic przedstawiających (każda w 1024 punktach z precy-zją 9-bitową) zaprogramowane wcześniej kształty drgań: sinusoidalny, piłowy lubdowolnie zadany. Zakres częstotliwości każdego z 64 generatorów rozciąga sięod 0 do 116 kHz ze skokiem równym 0.25 Hz. Dane z komputera przekazywanesą z częstością od 10 do 100 Hz i ustalają częstotliwości poszczególnych gene-

ratorów oraz wartości szczytowe amplitudy, względnie wartości jej przyrostu.Również amplituda sygnału końcowego kontrolowana jest przez dane cyfrowez komputera.

Do porozumiewania się użytkownika z systemem służą dwa makroprogramy(języki): MUZYS (ostatnia wersja MUZYS-3) i VOCAB. Ten drugi przeznaczony

 jest do interaktywnego sterowania syntezatora w warunkach koncertowych, alesłuży także w pracy studyjnej.

Program MUZYS pozwala na dwojaki typ pracy.1. Na tworzenie cyfrowej „muzyki konkretnej”. Sygnały wprowadzane na ana-

lizator podlegają różnym transformacjom. MUZYS pozwala na wprowadzanietakich operacji jak: resynteza z innym niż oryginalny materiałem brzmienio-wym, modulacja częstotliwości i amplitudy, przesuwanie widma, zmiana tempa

 bez zmiany wysokości itd. Oczywiście każda resynteza sygnału pochodzącegoze źródeł naturalnych stanowić będzie pewną transformację, nawet jeżeli danez analizatora nie będą w ogóle modyfikowane, gdyż materiałem do resyntezy

 będą teraz generatory i nowy sygnał, chociaż w zasadzie identyczny z sygna-łem oryginalnym, nie będzie jednak wolny od specyficznego, „elektronicznego”zabarwienia.

2. MUZYS może być wykorzystywany do tworzenia oryginalnej muzyki elek-

tronicznej, a także sztucznej mowy i syntetycznych efektów akustycznych, bezwprowadzania sygnału z zewnątrz, a więc i bez wykorzystywania analizatora.W takim przypadku cały program dla syntezatora musi być przygotowany przez

30720∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 308/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 309/381

Programy zarządzające

Takie rozwiązanie znalazł Miller Puckette, amerykański matematyk pracującyw Instytucie IRCAM w Paryżu. W latach 1986–1988 stworzył on program pozwa-lający w sposób łatwy (ściślej mówiąc — stosunkowo łatwy) rozwiązać wszelkiete niedogodności. Stworzył program MAX.

4.12.1. Max

Max jest właściwie programem otwartym, pozwalającym na pracę w różnymzakresie, wszędzie tam, gdzie do czynienia mamy z modułami posiadającymiwejścia i wyjścia. Najczęściej wykorzystywany jest jako graficzny program zarzą-dzający do pracy w środowisku MIDI. Max pozwala na dowolne wiązanie zesobą urządzeń MIDI oraz na transformację sygnałów MIDI za pomocą procedurznajdujących się w samym programie. Pozwala na działanie w czasie realnym.Znajduje więc szerokie zastosowanie w wykonawstwie muzyki komputerowejna żywo. Również w pracy studyjnej oddaje wielorakie usługi. Przede wszyst-kim dlatego, że posługując się językiem graficznym, pozwala na szybkie łączeniei rozłączanie urządzeń, na wprowadzanie procedur transformujących, a także,co może najważniejsze, na natychmiastową orientację w sytuacji oraz w powią-zaniach sprzętowych i programowych zestawu, na którym się pracuje. Notabenepierwsza wersja Maxa nie miała jeszcze formy graficznej i była przeznaczonanie dla urządzeń MIDI, lecz do sterowania syntezatorem 4X. Istnieje też wersjaMaxa dla komputerów NeXT, która oprócz sterowania MIDI może służyć do

syntezy programowej i przetwarzania dźwięku na żywo. Koncepcja programu była w dużym stopniu wzorowana na językach typu MUSIC N. Zresztą samanazwa programu pochodzi od imienia Maxa Mathewsa, pomysłodawcy językówMUSIC N. Z drugiej strony na jego koncepcję wywarły wpływ stosowane chęt-nie w tym czasie tzw. języki obiektowe (ang.   object oriented languages). ProgramMax pracuje za pomocą obiektów, którymi są bloki programowe. Max jest do-starczany komercyjnie przez firmę Opcode Systems, Inc. Ostateczną jego wersjęprzygotowali David Ziccarelli i Miller Puckette z IRCAM-u.

Podstawowym obszarem programu jest okienko robocze ( patcher window). Na

górnej listwie na ekranie znajdują się ikony przedstawiające różne rodzaje obiek-tów, a w środku jest miejsce na ustawianie i łączenie ich ze sobą. Obiekty „ściąga”się z górnej listwy myszą, wyznaczając im odpowiednie miejsca na ekranie. Naj-

 bardziej ogólny rodzaj obiektu (object box) ma kształt prostokąta z podwójnymiobrysami na górze i na dole. Zaczernione części tego podwójnego obrysu ozna-czają — na górze wejścia, na dole wyjścia. W prostokąt użytkownik wpisuje na-zwę obiektu. Do drugiej grupy obiektów należą elementy interfejsu użytkownika(user interface objects), które służą do sterowania działaniem programu za pomocąmyszy oraz do przedstawiania na ekranie informacji dotyczących działania pro-gramu. Poszczególne rodzaje tych elementów różnią się wyglądem i sposobem

posługiwania się nimi przez użytkownika. Są to np. obiekty przechowujące po- jedyncze wartości liczbowe, przedstawiane w postaci tekstowej (number boxes)lub graficznej. Niektóre z nich mają wrysowany obraz tarczy (dials), inne postać

309

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 310/381

Studio cyfrowe (komputerowe)

podobną do potencjometru (sliders). Argumenty mogą być w nich wpisywane jakby analogowo, przez przesuwanie „wskazówki” lub „suwaka” myszą. Inneobiekty mogą przechowywać dowolną informację tekstową, przekazywaną dokolejnych obiektów jako polecenie lub komunikat (message boxes). Specjalnym ro-

dzajem komunikatu jest „bang”, czyli polecenie wysyłane do obiektów, które pootrzymaniu jego mają wykonać przypisane im czynności.

Il. 166. Program MAX — okienko robocze z różnymi obiektami i łączącymi je liniami

Niektóre z obiektów mają tylko wyjście, inne — tylko wejście. Znajdują się teżprostokąty bez wyjść-wejść, np. obiekt „comment”, który nie powoduje żadnych

czynności, lecz stanowi tylko orientację dla użytkownika. I jeszcze „boxy” mającekształt przycisku, które przy kliknięciu myszą działają jak rzeczywiste przyciski.Dolna listwa okienka stanowi przestrzeń kontrolną (assistance area), na której

— po wskazaniu myszą któregokolwiek z umieszczonych wcześniej obiektów— pokazuje się informacja o nim wraz z ewentualnymi danymi liczbowymi(argumentami). Niektóre z argumentów są nieodzowną częścią obiektu, bez nichobiekt nie może zostać zainstalowany. Przykład: „delay 240” (opóźnij o 240 ms).Dla innych argumenty są nieobowiązkowe: jeżeli użytkownik nie poda swojejwartości, to program wpisze wartość domyślną (default value); przykład: „metro”(domyślnie 5, czyli „bang” co każde 5ms). Argumenty mogą mieć postać   list

(listy),  int (liczby całkowitej) lub  float (liczby dziesiętnej).Łączenie zainstalowanych obiektów odbywa się przez kreślenie myszą linii łą-

czących wyjście poprzedniego z wejściem następnego obiektu. Czasem z jednego

310

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 311/381

Kompleksowe działania na komputerze

wyjścia może wychodzić kilka linii „wysyłających”, czasem odwrotnie. Każde ta-kie połączenie powoduje wysyłanie do następnych obiektów ciągów danych, np.kodu MIDI. Jeżeli pomiędzy obiektami rzeczywistymi znajduje się obiekt czyn-nościowy (np. „dodaj  x”), to na danych liczbowych sygnału wykonane zostaje

działanie wskazane w tym obiekcie. Obiekty w okienku roboczym są zazwyczajtak umieszczone, aby obiekt wysyłający znajdował się nieco powyżej obiektuprzyjmującego ciąg danych. Polecenia znajdujące się w prostokątach (obiektach)wykonywane są w ciągu od prawej do lewej.

Nowe obiekty można pobierać z okienka  New Object List. W tym okienku polewej stronie znajdują się nazwy typów obiektów, a po prawej nazwy konkretnychobiektów.

Nie kasując okienka roboczego, można otworzyć szereg następnych okienek,np. okienko tekstowe, w którym umieszcza się komentarze lub zmienia się napisyw ramkach konkretnych obiektów. W okienku tym pojawiają się też ciągi danychliczbowych. Dla zobrazowania tych ciągów można otworzyć okienko table window,na którym te ciągi zostają uwidocznione w postaci wykresu.

W okienku roboczym umieszczać można specjalne polecenia MIDI w postaciobiektów. I tak, obiekty „midiin” i „midiout” przyjmują i przekazują ciąg MIDI

 bez żadnych zmian. Inne obiekty mogą grupować dane MIDI przekazując da-lej tylko pożądane, np. „notein” przekazuje dalej tylko te dane, które dotycząnut, a pomija wszystkie inne, okienko „bendin” przekazuje tylko dane dotyczącezmian wysokościowych  pitch bend. Każdy z tych wyspecjalizowanych obiektówMIDI posiada swojego kontrpartnera w postaci obiektów wysyłających „note-

out”, „bendout” itd. Obiekt „seq” jest sekwencerem, który zapamiętuje ciągiMIDI otrzymane z obiektu „midiin” i może je odtwarzać poprzez obiekt „mi-diout”. Jednym z okienek może być ikona przedstawiająca klawiaturę i z niej,

 jak z realnej klawiatury, można uzyskiwać za pomocą myszy pożądane danedotyczące numeru klawisza i szybkości zaatakowania.

Aby Max mógł skutecznie działać na zewnątrz, potrzebne jest zainstalowaniena twardym dysku sterownika OMS (Opcode MIDI System) i dołączenie interfejsuMIDI do komputera. OMS i interfejs zapewniają komunikację pomiędzy Maxema urządzeniami zewnętrznymi MIDI.

4.13. Kompleksowe działania na komputerze

W rozwoju muzyki komputerowej rysują się w latach dziewięćdziesiątych dwietendencje, które w gruncie rzeczy prowadzą do jednego celu. Jedną jest tworzeniekompleksowych urządzeń syntezatorowych w rodzaju stacji roboczych. Drugą —zawieranie wszystkiego w jednym programie komputerowym. W obu wypad-

kach chodzi o pominięcie wielości niewygodnych w pracy połączeń współpracu- jących ze sobą modułów i umożliwienie muzykowi pracy na jednym urządzeniu.Czytając poprzednie rozdziały, czytelnik mógł się zapoznać z rozbudowanymi

311

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 312/381

Studio cyfrowe (komputerowe)

stacjami roboczymi i z programami służącymi do zarządzania różnymi urządze-niami z pozycji operatora jednego komputera.

W tym rozdziale chcemy przybliżyć czytelnikowi najnowsze tendencje (rok1997) w muzyce komputerowej, jakimi są próby zintegrowania działań syntezy,

przekształcania i rejestracji muzyki w ramach jednego programu komputero-wego. Takimi są wszystkie programy służące do nagrań dźwięku, sekwencjidźwiękowych i wreszcie całych kompozycji na jednym twardym dysku o dużejpojemności. Pierwsze realizacje tej koncepcji znajdziemy w programach kalifor-nijskiej firmy Digidesign o nazwach Sound Tools, Sound Disigner i Pro Tools.Były to lata 1991–1993. Rozwinięciem i przygotowaniem tych idei do miejsco-wych urządzeń i oprogramowania były GRM Tools (GRM Paryż), APB Tools(Technische Universitat Berlin), czy Sonic Solution (Polskie Radio).

4.13.1. Cyfrowa rejestracja na twardym dysku

Cyfrowa rejestracja na twardym dysku łączy pomysły samplingu, przetwarza-nia (sound processing), montażu i nagrania cyfrowego (jak na DAT-cie). Zasadapozostaje zawsze taka sama. Dźwięk pochodzący z zewnątrz (z nagrania aku-stycznego, z syntezatora, próbek samplingowych) zostaje zarejestrowany w sys-temie PCM na twardym dysku komputera. Program pozwala na różne operacjena nagranej sekwencji dźwiękowej, takich jak transpozycja, filtrowanie poszcze-gólnych pasm (kanałów), dodawanie pogłosu i efektów opóźnienia, precyzyjny

montaż zarówno całych sekwencji, jak i mikromontaż pozwalający na wycina-nie, powtarzanie, zapętlanie i przekładanie istniejących fragmentów, wreszciena miksowanie warstw i ostateczne zarejestrowanie nowej, opracowanej wersjikompozycji.

Różnica pomiędzy nagraniem na taśmie (także cyfrowym), a nagraniem natwardym dysku jest taka, że na taśmie mamy do czynienia z płynną rejestra-cją wydarzeń, a powracanie do poprzedniego miejsca lub przeskakiwanie doinnej części nagrania wiąże się z koniecznością przewijania taśmy i znalezienia(słuchowo, lub automatycznie) miejsca w nagraniu, do którego chcemy się od-

nieść. W przypadku nagrania na twardym dysku rejestracja następuje sektoramii niekoniecznie w postaci sukcesywnej. Dostęp do kolejnych próbek nagrania jestswobodny (random access). Wobec tego, tak jak na płycie kompaktowej, w spo-sób niemal natychmiastowy można znajdować dowolne miejsca nagrania i łączyć

 je z innymi, bez potrzeby nawet przegrywania, i bez potrzeby niszczenia wersjipierwotnej (non destructive editing). Po prostu komputer może czytać tak „zmonto-waną” kompozycję przeskakując z jednego miejsca nagrania w drugie i włączającodpowiednie podprogramy modyfikujące, mimo iż materiał pierwotny pozostajenie zmieniony. Możliwe to jest oczywiście dlatego, że wszystko odbywa się nacyfrowej postaci dźwięku, a wybieranie odpowiednich miejsc na dysku zajmuje

tak mało czasu, że jest po prostu niezauważalne.Te zalety nagrania na twardym dysku cenione są zarówno przez reżyserów

dźwięku i montażystów przygotowujących ostateczną wersję nagrania, np. płyto-

312

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 313/381

Kompleksowe działania na komputerze

wego muzyki instrumentalnej lub instrumentalno-elektronicznej, jak i przez kom-pozytorów muzyki elektronicznej cyfrowej. Dla obu praca na systemie umożli-wiającym rejestrację, opracowanie i ostateczne nagranie utworu stanowi ogromneułatwienie i przyspiesza uzyskanie efektu końcowego. Poza tym, jak w innych

działaniach na urządzeniach cyfrowych, system umożliwia kontrolę słuchowąna każdym etapie pracy, pozwala na pozostawienie w pamięci wielu wersji,a więc i na powrót do wersji pierwotnej, lub jednej z poprzednich. Aby jednakpraca mogła przebiegać bez zakłóceń, potrzebny jest odpowiedni sprzęt: kompu-ter o szybkim zegarze wewnętrznym, twardy dysk o bardzo dużej pojemności(np. rzędu 20 gigabajtów, pasujące karty dźwiękowe lub inne urządzenia pracu-

 jące w komputerze, no i oczywiście obszerny program sterujący całą tą pracą.Zapoznajmy się bliżej z jednym z nich.

4.13.2. Program Pro Tools II

Program Pro Tools II, wersja 3,2., jaką dysponuje Akademia Muzyczna w War-szawie i Studio Eksperymentalne Polskiego Radia, jest ulepszoną i rozbudowanąwersją programu Pro Tools firmy Digidesign. Datowana jest na rok 1996. Douruchomienia wymaga komputera Apple Quadra lub Power, dalej karty I/0, pro-cesora  TSP-Farm   i miksera TDM, również w postaci kart, interfejsu audio (888lub 882) i zainstalowania bloku programowego TDM-bus (Time Division Multiple-xing Card), który jest 256-kanałową, 24-bitową linią przesyłową. Tych urządzeń

(np. procesorów w postaci specjalnych kart, urządzeń   plug in   itp.) może byćwięcej. Zależnie od potrzeb użytkownika, służą one jako miksery, wzmacnia-cze, korektory, opóźniacze lub dodatkowe pamięci. Zazwyczaj oprócz twardegodysku stanowiącego integralną część MacIntosha, na którym znajdują się rezy-dentnie różne programy użyteczne, dołącza się dodatkową, zewnętrzną stacjędysku twardego (disc drive), która służy tylko do zapisywania zdarzeń audiow systemie Pro Tools. Tych zewnętrznych stacji może też być kilka. PosiadaczeMacIntosha Power mogą pominąć wiele kart pośrednich, jeżeli zainstalują Digi-design DAE Power Mix. Warunkiem jednak jest, że ich MacIntosh ma co najmniej

24 megabajty RAM.System działa w dwóch trybach operacyjnych:  direct output mode  (wyjścia napojedyncze kanały) i   stereo output mode   (wyjścia na pary kanałów, z możliwo-ścią wyważenia dynamicznego pomiędzy kanałami). Jednostką operacyjną jestsesja (session), odpowiadająca song w programach sekwencerowych. Mniejszymi

 jednostkami są   region   i   playlist. Sesja odpowiada pracy jednego dnia. Aby do-konane w czasie tej sesji operacje nie zostały stracone po wyłączeniu kompu-tera z prądu, sesja musi być zapamiętana na twardym dysku. Rozpoczynającsesję, trzeba najpierw załadować sekwencje audio lub treść poprzedniej sesjiz pamięci, albo dokonać „nagrania” i skierować te nagrania do jednej lub kilku

warstw. Poszczególne warstwy (tracks) mogą zawierać nagrania audio lub kodMIDI, w tym drugim przypadku należy wpisać, do którego z 16 kanałów MIDIma być skierowana dana warstwa. Okienko „mixer” symuluje obraz fragmentu

313

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 314/381

Studio cyfrowe (komputerowe)

    I    l .    1    6    7 .    O    k    i   e   n    k   o

     E     d     i     t   w   p   r   o   g   r   a   m    i   e    P   r   o    T   o   o    l   s    I    I

314

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 315/381

Kompleksowe działania na komputerze

stołu mikserskiego, na którym „suwaki” mogą wpływać na amplitudę noto-wanego sygnału lub na jego skierowanie w układzie stereo (ang.  panning   albow skrócie PAN ). W okienku ukazuje się też obrazek przypominający miernik wy-sterowania dla każdej z warstw. Najważniejszym w programie jest okienko  Edit

window, przedstawiające na obrzeżach jakby przyciski, a wewnątrz wybrany frag-ment dźwięku w postaci dwuwymiarowego wykresu funkcji amplitudy w czasie.Właśnie w tym okienku za pomocą myszy, „przycisków” i odcięć na ekranie do-konuje się podstawowych operacji montażu i przekształcania dźwięku. Wycinkiwykresu mogą być rozciągane funkcją zoom, a do dokładnego ustalenia miejsca,w które chciałoby się ingerować, służą dodatkowo   scrubber,   trimmer   i   selector.W przypadku warstw zawierających dane MIDI, na ekranie zamiast wykresufunkcji pokazują się poziome kreski, obrazujące zakodowane „dźwięki”. Wirtu-alny przesuw w czasie symulują „przyciski” oznaczone piktogramami podob-nymi do tych, jakie znajdują się na magnetofonie: naprzód, stop, szybko wstecz,szybko w przód i powrót do początku. Można też „przeskakiwać” do dowolniewybranego miejsca w czasie, oznaczanego w minutach, sekundach i milisekun-dach. Inny „przycisk” w postaci kółka oznacza nagranie.

Pracując w Pro Tools, mamy do czynienia z wirtualnymi warstwami. Zależ-nie od posiadanego sprzętu ilość tych warstw jest następująca: w podstawowymzestawie jest 16 warstw rzeczywistych (kanałów) i 53 warstwy wirtualne, przyzastosowaniu kart rozszerzających, 2 dysków i dwóch interfejsów uzyskuje się32 kanały i 106 warstw wirtualnych. Używając trzech kart, interfejsów i dysków,ilość kanałów rośnie do 48, a warstw — do 128. Ta mnogość warstw wirtual-

nych (niemożliwych do jednoczesnego odtworzenia) daje sposobność rejestrowa-nia wielu wersji tego samego fragmentu (utworu), z tym że jedna wersja możesię składać z kilku, kilkunastu, lub kilkudziesięciu warstw wirtualnych. Nie wy-maga to kasowania wersji poprzednich. Przy odtwarzaniu dla kontroli słuchowej,a później dla zarejestrowania wersji ostatecznej, warstwy wirtualne zostają zmik-sowane i są wysyłane na odpowiednie warstwy rzeczywiste na dysku (czyli ka-nały). Pojemność dysku twardego musi być wystarczająco wielka. Jedna minutarejestracji dwukanałowej w tym systemie zajmuje około 10 megabajtów, zare-

 jestrowanie 1 minuty w wersji 16-kanałowej zajmie już 80 megabajtów. Chcącwięc zarejestrować 30-minutową kompozycję w wersji 16-kanałowej potrzebnych

 byłoby 2,4 gigabajta. W praktyce jest to raczej nie spotykane. Do pierwotnego„nagrania” wystarczą warstwy wirtualne i krótsze odcinki (regions). Przy ko-rzystaniu z warstw wirtualnych nie trzeba zajmować aż tyle miejsca, ponieważsegmenty „puste” w poszczególnych warstwach mogą służyć do zapełnienia ichtreścią innych warstw, które poprzednio nie były używane. Przy zgraniu osta-tecznym korzysta się z dwóch, co najwyżej czterech kanałów, a to już zmniejszadrastycznie potrzebny obszar pamięci na twardym dysku.

System Pro Tools pracuje w kodzie czasowym SMPTE (jest to skrót od ang.Society of Motion Picture and Television Engineers). Kod ten służy do synchronizacji

różnych urządzeń audio i wideo, zarówno analogowych jak i cyfrowych. Chodzio jednoczesne startowanie tych urządzeń, o synchronizację w czasie nagrywaniai reprodukcji, a także o wynajdywanie ważnych miejsc wewnątrz rejestracji (np.

315

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 316/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 317/381

Różne aspekty techniki komputerowej — współczesność i perspektywy

oczywistych pomyłek wykonawcy. Tak „oczyszczony” zapis stanowi następnienową wersję nagrania służącą do dalszej obróbki i montażu. W technice ana-logowej takiemu celowi służył tzw. montaż porządkujący nagrania instrumen-talnego, dokonywany na taśmie magnetofonowej za pomocą nożyczek i taśmy

klejącej.Nagranie na twardym dysku za pomocą Pro Tools lub podobnego programuzapisująco-przekształcająco-montażowego pozwala na opracowywanie uprzed-nio dokonanych nagrań cyfrowych (czy wcześniejszych analogowych), wyczysz-czenie ich z przydźwięków i trzasków, dodanie im pogłosu czy wrażenia spe-cyficznego pomieszczenia, i w końcu zmontowanie wersji ostatecznej, gotowejdo skopiowania na płycie kompaktowej; do produkcji filmowej i telewizyjnejoraz do zachowania jako nagrania archiwalnego. Wszystko to w ramach jednegourządzenia (nazywanego czasem  Digital Audio Workstation). Pamiętajmy też, żetwardy dysk i dostępna już powszechnie zapisywalna i zmazywalna płyta kom-paktowa są dzisiaj najtrwalszymi nośnikami do przechowywania archiwalnychnagrań na długie lata. Przy tym ilość odtwarzań nie wpływa w najmniejszymstopniu na jakość następnych reprodukcji.

Dziś nagrania na twardym dysku i praca w jednolitym systemie kompute-rowym stanowią dla kompozytorów muzyki elektronicznej najwyższy stopieńwygody, eliminujący całe obszary pracy pośredniej, koniecznej w technikachomawianych uprzednio, do uzyskania ostatecznej i wysoko zadawalającej wersjikompozycji.

4.14. Różne aspekty techniki komputerowej — współczesność i perspektywy

Dzisiejsza technika muzyki komputerowej rozwija się w kilku płaszczyznach.Pierwsza jest związana z muzyką rozrywkową i szerzej pojętą muzyką użyt-kową. Tu chodzi o jak największe ułatwienia dla użytkownika, dostarczenie muaparatury przystosowanej do pracy na estradzie i w studiu nagraniowym oraz

 jak największej ilości gotowych presetów, czy to w MIDI, czy też presetów dlasamplerów, ponadto dostosowanie istniejących systemów montażu, mieszaniai zapisu do potrzeb szybkiej pracy kompozytora (muzyka) rozrywkowego. Coś,co z jednej strony ma być jak najbardziej profesjonalne, jeśli chodzi o jakość,a z drugiej strony możliwie jak najprostsze z myślą o użytkowniku na wpółamatorze.

Druga płaszczyzna ma otwierać nowe możliwości dla kompozytora muzykielektronicznej (cyfrowej) traktującego poważnie swoje zadanie. A jest nim od-krywanie nowych światów dźwiękowych i tworzenie kompozycji, jakich nigdy

nie było. Taki użytkownik nie będzie myślał o oszczędzaniu czasu. Chętnie się-gnie do trudnych i pracochłonnych systemów syntezy i transformacji, aby tylkoosiągnąć wymarzony efekt końcowy.

317

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 318/381

Studio cyfrowe (komputerowe)

Wreszcie trzecia płaszczyzna — dostępna tylko dla wysoko wtajemniczonych:kompozytorów-informatyków, matematyków i inżynierów, autentycznie zafascy-nowanych tworzeniem nowych narzędzi i nowych metod uzyskiwania i organi-zacji dźwięków.

Niełatwo jest pisać o perspektywach rozwoju muzyki elektronicznej. Rozwójtechniki cyfrowej, a przede wszystkim mikroelektroniki i związanych z nimirozwiązań praktycznych, przebiega tak szybko, że nie sposób śledzić wszystkichnowinek w tym zakresie. Każdy rok przynosi nowe rozwiązania i ulepszeniarozwiązań z lat poprzednich. Pojawiają się nowe urządzenia produkowane nadużą skalę, a więc i coraz tańsze. Pięć lat to już epoka. Jakżeż więc trudno pro-rokować, jak się potoczą losy muzyki elektronicznej, w jakim kierunku poniesie

 je zmieniająca się na naszych oczach fala technicznych przemian.Stanęliśmy oto w obliczu tego, co groziło już w końcu lat siedemdziesiątych

— rozwój techniki wyprzedza o dobrych kilka lat myśl kompozytorską. Zanimnowa aparatura zostanie należycie przyswojona, już pojawiają się inne rozwią-zania, które następnie, jeszcze nie w pełni wykorzystane, stają się nieaktualne,

 bo nadchodzą nowsze, lepsze, wygodniejsze, tańsze. A z drugiej strony, łatwośćuzyskiwania dzięki tej aparaturze niemal każdego dźwięku, jaki kompozytor jestw stanie sobie wymyślić, powoduje rozleniwienie, za którym idzie otępienie, za-tracenie wrażliwości na szlachetność i charakter dźwięku, na te najdrobniejszeodchylenia i odmiany, dzięki którym nadal nieprześcignionymi wzorami pozo-stają dźwięki naturalne: skrzypiec, fletu, fortepianu i głosu ludzkiego. Niewielu

 już kompozytorów, i to nie zawsze za pomocą najnowszej aparatury, poszukuje

nadal idiomu elektronicznego — dźwięku syntetycznego, który by niczego nienaśladował, a jednocześnie był na tyle bogaty, zróżnicowany i elastyczny, abywytrzymywał próbę z dźwiękami naturalnymi.

 Jaka będzie więc przyszłość muzyki elektronicznej? Jakie kierunki rozwojuprzewidywać można na najbliższe lata? Jak zwykle, część tego co rozwinąć sięmoże w przyszłości istnieje w zalążku już dzisiaj. Są to pomysły i pierwszepróby, o których dowiadujemy się z prasy fachowej, a także z demonstracji naróżnych festiwalach oraz konferencjach naukowych. I tylko o tym możemy w tymmiejscu pisać. Bo jaka aparatura i jakie udogodnienia programowe pojawią sięza kilka lat, tego naprawdę nikt nie jest w stanie dzisiaj przewidzieć.

 Jedno wydaje się niemal pewne, że będzie to aparatura cyfrowa. Wydaje sięteż bardzo prawdopodobne, że wspólne dotychczas działania kompozytorówi naukowców zostaną w przyszłości rozdzielone. Z jednej strony wielkie studiai instytuty, jak paryski IRCAM czy CCRMA ze Stanfordu, operujące dużymi bu-dżetami i gromadzące najlepszych fachowców z całego świata, prowadzić będą,nazwijmy to, badania podstawowe — pionierskie prace służące rozwojowi no-wych technologii, nowych koncepcji, a w efekcie i nowej aparatury. Jednak ak-tywność tych ośrodków w dziedzinie twórczości i produkcji muzycznych będzieograniczona, stanowiąc tylko eksperymentalne sprawdzenie i demonstrację za-

 biegów technologicznych i koncepcji teoretycznych.Z drugiej strony większość kompozytorów wycofa się do małych studiów lub

po prostu do pracy w domu. Syntezatory cyfrowe i złożone nawet systemy mikro-

318

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 319/381

Różne aspekty techniki komputerowej — współczesność i perspektywy

komputerowe staną się wkrótce ogólnie dostępne, jak dzisiaj magnetofony DAT,odtwarzacze CD i urządzenia hi-fi. Syntezatory staną się bardziej elastyczne:obok powszechnej dzisiaj klawiatury dysponować będą wejściami graficznymi,a także innymi wejściami, pozwalającymi na uzyskanie dźwięków nietempero-

wanych, dźwięków o zmiennej wysokości i głośności. Programy dostępne dlaużytkowników zostaną udoskonalone i uproszczone, tak że nie będą wyma-gać żadnej znajomości informatyki, a tylko intuicji muzycznej i umiejętnościposługiwania się instrumentami (w tym szerszym znaczeniu tego słowa). Pod-stawowym warsztatem kompozytora, miejscem, gdzie będą powstawać utworymuzyki elektronicznej, stanie się studio domowe lub małe studio akademickie(radiowe).

Należy się liczyć z szybkim rozwojem programów mieszanych: kompozycyjno--syntezujących. Mikrokomputer sprzężony z jednostką generującą dźwięk (byćmoże będzie to jedno całościowe urządzenie) stanie się jakby asystentem kompo-zytora. Pozwoli mu komponować nie tyle szybko, bo to nie zależy od aparatury,ale rozważnie, ponieważ uzyskanie kilku lub nawet kilkudziesięciu wariantówtego samego problemu kompozycyjnego i natychmiastowe sprawdzenie słuchoweich brzmienia zajmie mu nie więcej czasu niż wysłuchanie tych wariantów. Kom-puter pozwoli mu też na prowadzenie aktualnego notatnika, wracanie do wersjipoprzednio porzuconych, a także na wydrukowanie ostatecznej wersji partyturyutworu, jeżeli taka będzie potrzebna. Czy praca kompozytora w takim studiu

 będzie łatwiejsza niż w obecnych studiach muzyki elektronicznej? Chyba nie!Będzie po prostu inna. Będzie wymagała innych predyspozycji i poświęcenia

większej ilości czasu na inne czynności, i to niekoniecznie związane z samątechnologią, ale na przykład z nowym procesem twórczym.Systemy nagrań na twardym dysku lub na zmazywalnej płycie CD, a może

 jeszcze lepszym nośniku, pozwolą na improwizowanie struktur z możliwościąpowrotu do nich dla ich modyfikowania, przestawiania, mieszania z innymi;umożliwią korzystanie z dźwięków naturalnych i wcześniej zarejestrowanych,przetwarzanie ich w czasie realnym, opóźnianie, mieszanie z dźwiękami synte-tycznymi lub wykorzystywania jako modeli dla tworzenia podobnych (lub nie-podobnych) dźwięków syntetycznych.

Przyjęta jako podstawowa praca w studiu domowym nie wykluczy przy-padków, kiedy to szczególne pomysły kompozytorskie wymagać będą droższej,profesjonalnej aparatury (o większej szybkości działań, dysponującej większymiobszarami pamięci i większą ilością jednostek generujących), a także rozbudo-wanych środków wykonawczych. Naturalne będzie wówczas wykonywanie tychzłożonych zadań w wielkich, zasobnych w sprzęt i pomoc techniczną studiach-in-stytutach. Czy kompozytorzy w przyszłości będą poszukiwali przede wszystkimnowych jakości brzmieniowych, owych idiomów elektronicznych, czy też zajmąich głównie problemy samej kompozycji, dla której otworzą się nowe drogi dziękipomocy komputera-asystenta, a może jeszcze zupełnie inne problemy, których

nie jesteśmy jeszcze w stanie przewidzieć? Czy i na ile komputer-syntezator prze-niesie się na estradę jako instrument wykonawczy? Czy muzyka elektronicznapoczątku nowego stulecia będzie nadal w przeważającej części muzyką „aku-

319

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 320/381

Studio cyfrowe (komputerowe)

smatyczną”, produkowaną zza zasłony, z konserwy, z taśmy? Na te pytania i nawiele innych nie potrafimy dać dzisiaj odpowiedzi.

Wydaje się jednak niemal pewne, że technika cyfrowa, „komputeryzacja”i wszystko, co z tym jest związane, wywierać będą znaczący, jeżeli nie decy-

dujący wpływ na obraz muzyki elektronicznej następnych dziesięcioleci, a taz kolei wywierać będzie coraz większy wpływ na przyszłą muzykę instrumen-talną i wokalną.

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 321/381

V. Zapis i projekcja

5.1. Notacja muzyki elektronicznej

W dotychczasowych rozważaniach pominęliśmy dosyć istotny problem zwią-zany z tworzeniem muzyki elektronicznej, a mianowicie jej notację. Poświęcimy

 jej teraz trochę uwagi.Tradycyjne pismo nutowe, adekwatne do struktur muzycznych wieków minio-

nych, a z pewnymi rozszerzeniami użyteczne także we współczesnej muzyce in-strumentalnej i wokalnej, dla muzyki elektronicznej okazało się zupełnie nieprzy-datne. Wynikało to stąd, że jednostkami dźwiękowymi w muzyce elektronicznej

 były z reguły twory o dość złożonej konfiguracji wewnętrznej: wielotony, pasmaszumowe, a także zdarzenia dźwiękowe trudne do określenia pod względem wy-sokości lub wykazujące dużą zmienność w czasie. Tych zdarzeń („przedmiotówdźwiękowych” jak je nazywał P. Schaeffer) nie dawało się z reguły zapisywaćw postaci nut — na pięciolinii, czy nawet bez. Zachodziła potrzeba znalezienia

innej notacji.Ale czy notacja tej muzyki była w ogóle potrzebna? Muzyka tworzona była

przecież wprost na taśmie. Kompozytor, będący najczęściej sam realizatoremswego dzieła, mógł szereg działań podejmować w sposób bezpośredni. Jednaki w tym przypadku nie mógł obejść się bez notowania pewnych pomysłów napapierze. Nieraz tylko po to, aby nie umknęły z pamięci, innym razem, aby mócwizualnie sprawdzić rezultaty pewnych koncepcji teoretycznych przed ich reali-zacją dźwiękową. Jakaś notacja była też nieodzowna przy planowaniu montażui przygotowywaniu warstw kompozycji do zgrywania.

Nic też dziwnego, że niemal od pierwszych prób z muzyką na taśmę zaczętoposzukiwać sposobów notacji, które odpowiadałyby nowym potrzebom, i to za-równo w przypadkach, kiedy materiałem były dźwięki pochodzenia naturalnego,

 jak i w tych, kiedy chodziło o struktury uzyskiwane ze źródeł elektronicznych. Jednym ze sposobów, który niejako sam się narzucał, było przyjęcie zasady

graficznej, zgodnie z którą czas przedstawiany jest na jednej osi (z reguły po-ziomej), proporcjonalnie do jego upływu, a inne parametry: np. częstotliwośći amplituda na osi pionowej. Stosowano też notacje uproszczone, w którychzdarzenia dźwiękowe przedstawiano w postaci linii, bloków lub innych zna-ków graficznych z dodatkiem licznych określeń słownych, skrótów literowych,

cyfrowych itd.Najprostszą taką notacją, służącą jako pomoc przy montażu i zgrywaniu, jest

przedstawienie warstw dźwiękowych w postaci równoległych półprostych, na

32121 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 322/381

Zapis i projekcja

których odkładane są odcinki odpowiadające długością czasom poszczególnychzdarzeń dźwiękowych. Przyjęta skala, np. 1 cm  = 1 s, wyznacza tempo przebiegu.„Zawartość” tych odcinków może być oznaczona w kodzie literowo-cyfrowym,który ułatwia orientację w materiale i przebiegu kompozycji. Przykład takiej

notacji widzimy na il. 168.

Il. 168

Na wykresie tym grubszą linią oznaczono odcinki zawierające dźwięk, a cień-szą pauzy między dźwiękami. Jeżeli zapis taki ma służyć do montowania taśmy,wygodnie jest przy każdym odcinku podać jego długość w sekundach lub jesz-cze lepiej od razu w centymetrach taśmy magnetofonowej dla przyjętej prędkościprzesuwu.

 Jeśli taśma po zmontowaniu wymaga korekcji dynamicznej, to wprowadza sięniekiedy dodatkowy wykres w skali decybelowej, obrazujący tłumienie zmonto-

wanego odcinka, tak jak na il. 169.

Il. 169

Idąc o krok dalej, obraz dynamiki można nanosić na same zdarzenia dźwię-kowe, pokazując na wykresie nie tyle czynności realizatora, co rzeczywisty prze-

 bieg dynamiczny zdarzeń dźwiękowych, czyli ich obwiednie (il. 170, s. 323).Wykres taki, wprawdzie dobrze przedstawiający przebieg dynamiczny struk-

tury, nie daje żadnego pojęcia o stosunkach wysokościowych pomiędzy poszcze-gólnymi zdarzeniami, ani o zawartości brzmieniowej samych dźwięków. Dla ichprzedstawienia potrzebny jest wykres dwuwymiarowy, obrazujący układ często-

tliwości w funkcji czasu. Zgodnie z naszą percepcją wysokości dźwięku, czę-stotliwości przedstawia się w skali logarytmicznej, tak aby równym interwałomodpowiadały równe odstępy na skali częstotliwości (il. 171, s. 324).

322

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 323/381

Notacja muzyki elektronicznej

Il. 170

Na tym rysunku brak z kolei informacji o stosunkach dynamicznych w ramach bloków dźwiękowych, o ich obwiedni itd. Tymczasem pełna „partytura” musi

zawierać informacje o jednym, i o drugim. Częstotliwość, amplituda i czas dałybysię bez trudu przedstawić w modelu trójwymiarowym lub w jego rzucie per-spektywicznym, stosowanym niekiedy dla demonstracji pojedynczych zdarzeńi interesującej zmienności w czasie (por. il. 156, s. 288). Kompozytorzy znaleźli

 jednak wyjście prostsze, pozostawiające partyturę w przestrzeni dwuwymiaro-wej. Klasycznym przykładem jest tu wczesna partytura muzyki elektronicznejStudie II  Stockhausena, wydana drukiem przez Universal Edition, która stała sięwzorem dla wielu następnych (il. 172, s. 325).

W partyturze tej każda strona podzielona jest na dwie części: w części gór-nej, na osi pionowej przedstawione zostały częstotliwości, a w dolnej amplitudy.Oś pozioma, wspólna dla obu części, przedstawia czas. Najmniejsza podziałkana skali częstotliwości odpowiada najmniejszemu użytemu interwałowi   q  =

25√ 

5a najmniejsza podziałka na skali amplitudy — najmniejszemu stopniowi tłu-mienia równemu 1 dB. Każdy dźwięk odwzorowany jest dwukrotnie: raz przezumiejscowienie go na skali częstotliwości, a drugi raz przez zobrazowanie jegoprzebiegu dynamicznego na skali amplitudy. Stockhausen zastosował tu kilkauproszczeń, możliwych do wprowadzenia ze względu na niezbyt złożony i po-wtarzalny materiał dźwiękowy, na który składają się bloki dźwiękowe o iden-tycznej strukturze (pogłos po wielotonach równointerwałowych złożonych każdy

z 5 tonów prostych). Każdy blok przedstawiony został w postaci prostokąta, któ-rego pionowe boki wyznaczają początek i koniec zdarzenia w czasie, a poziome— najwyższy i najniższy ton w bloku z pominięciem środkowych. Stockhau-

32321∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 324/381

Zapis i projekcja

Il. 171

sen pominął też informacje o warstwach dźwiękowych (niezbędnych przy mon-tażu i zgrywaniu), umieszczając wszystkie dźwięki na jednym wykresie. Uzyskałw ten sposób interesujący obraz graficzny, odpowiadający w dobrym przybliże-niu muzycznemu przebiegowi utworu.

Zdawałoby się, że w kilka lat po rozpoczęciu prób z nowym medium muzycz-nym wynaleziono nowe pismo nutowe i że tym samym sprawa zapisu muzykielektronicznej została rozwiązana. Rzeczywistość okazała się bardziej prozaiczna.Efektowna partytura Stockhausena i kilka jej replik stworzonych przez innychkompozytorów okazały się użyteczne tylko w odniesieniu do bardzo specyficz-nych pomysłów muzycznych, dających się wyrazić w sposób aż tak uproszczony.Większość produkowanych w tym czasie utworów (lata pięćdziesiąte i sześćdzie-siąte) nie dawała się zapisywać w ten sposób. Najlepszym dowodem jest fakt,że sam twórca tego zapisu nie zastosował go w żadnym ze swoich następnychutworów, ograniczając się albo do roboczych zapisów realizacyjnych, albo doprzedstawiania przebiegu muzyki na taśmie w sposób szkicowy, powiedzieli-

 byśmy „mnemotechniczny”, w utworach instrumentalno-elektronicznych (vide:Kontakte na fortepian, perkusję i taśmę).

Zastanówmy się przez chwilę, do czego właściwie ma służyć partytura muzykielektronicznej. Otóż cele, dla jakich powstaje zapis na papierze, mogą być różne,

i różne też bywają formy zapisu. Spróbujmy je bliżej określić:1. pierwszą formą jest zapis szkicowy, potrzebny kompozytorowi do zaplano-

wania utworu; nie może bowiem zdawać się tylko na swą pamięć. Ma to swój

324

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 325/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 326/381

Zapis i projekcja

odpowiednik w szkicach do utworów instrumentalnych. Kompozytor posługujesię sobie tylko wiadomym kodem: rysunkowym, rytmicznym, nutowym, a cza-sem po prostu opisem słownym. Jest to niejako prywatny notatnik kompozytora,rzadko ujawniany nawet najbliższym współpracownikom. Nie jest więc środkiem

porozumiewania się z innymi muzykami (realizatorami). Do tego służy raczej2. zapis precyzyjny, określający sposoby realizacji poszczególnych zdarzeńdźwiękowych, struktur muzycznych wyższego rzędu i wreszcie całej kompo-zycji. Może on mieć postać szeregu osobnych „receptur”: wykresów widma,dokładnych danych co do składowych, ich amplitud i obwiedni. „Receptury”mogą zawierać schematy połączeń modułów syntezatora, schemat „instrumentu”(w przypadku programu komputerowego), lub nawet opis słowny procedur słu-żących do spreparowania danego dźwięku czy struktury dźwiękowej. Tak okre-ślone zdarzenia dźwiękowe zostają następnie umiejscowione w czasie i w odnie-sieniu jedne do drugich w formie „partytury”, która stanowi graficzne odwzo-rowanie przebiegu kompozycji. W partyturze muzyki elektronicznej kompozytorposługuje się innymi symbolami niż w tradycyjnej partyturze instrumentalnej.Zamiast głosów wyodrębnia tu warstwy dźwiękowe, zamiast nut — graficzneodpowiedniki zdarzeń (przedmiotów dźwiękowych).

Zapis precyzyjny, a więc zawierający zarówno opisy zdarzeń, jak i dokładnąpartyturę, potrzebny jest tylko w przypadkach kompozycji, będących wynikiemkoncepcji matematycznych lub ścisłych koncepcji muzycznych.

W innych przypadkach opisy zdarzeń (wykresy, receptury) mają znaczenie po-mocnicze. Służą kompozytorowi do zaprojektowania pewnych dźwięków, albo

do utrwalenia danych i procedur w odniesieniu do dźwięków, uzyskanych nadrodze empirycznej, po prostu dla pamięci, aby móc je później powtarzać, mo-dyfikować itd. W tych przypadkach szczegółowy zapis partyturowy jest na ogółniepotrzebny. Bywa on najczęściej zastępowany uproszczonymi wykresami, które— podobnie jak „graficzne” partytury instrumentalne — mają wskazywać tylkoogólny kierunek działań muzycznych. Działania te są potem realizowane w dro-dze improwizacji lub stopniowego dochodzenia do postaci ostatecznej przezróżne modyfikacje wcześniej wyobrażonego i przedstawionego graficznie mo-delu. Przykładu takiej „graficznej” partytury elektronicznej dostarczają strony

Symfonii Bogusława Schaeffera (zob. reprodukcja na il. 177, s. 332). W tym przy-padku kompozytor zrezygnował z realizowania dźwiękowego utworu na rzeczwybranego przez siebie realizatora-wykonawcy. Wykonawca miał za zadanie zin-terpretować graficzne sugestie kompozytora zgodnie ze wskazaniami, zawartymiw części opisowej partytury 1.

Wielu kompozytorom zapis precyzyjny w ogóle nie jest potrzebny. Przy reali-zacji utworu zadowalają się zapisami typu szkicowego.

3. Partytura do zgrywania. Dla tej, tak ważnej dla muzyki elektronicznej czyn-ności zapis, oddający wszystkie szczegóły realizacyjne, nie jest konieczny. Aleteż opieranie zgrania jedynie na pamiętaniu o zawartości i przebiegu każdej

1 Realizatorem   Symfonii   B. Schaeffera był Bohdan Mazurek ze Studia Eksperymentalnegow Warszawie.

326

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 327/381

Notacja muzyki elektronicznej

z warstw, których może być i kilkanaście, oraz o tym, co w której warstwiei kiedy należy uwydatnić lub wytłumić, co podfiltrować, gdzie i kiedy przydaćpogłosu itd., może znacznie przekraczać możliwości sterującego zza konsoletyczłowieka, jeżeli nie da mu się do ręki pomocy w postaci szkicowego choćby

zapisu z naniesionym planem działań. Zapis taki może być bardzo uproszczony,gdyż służyć ma tylko jako pomoc dla pamięci zgrywającego, którym jest przecieżnajczęściej sam kompozytor. Ważne jest, aby oddawał on treść poszczególnychwarstw i aby uwydatnione w nim były punkty czasu, w których przeprowadzane

 będą poszczególne czynności reżyserskie.4. Partytury wykonawcze. Są one nieodzowne w muzyce przeznaczonej na in-

strumenty (lub głosy) i taśmę. Zapis ma tu umożliwić muzykowi (dyrygentowi)synchronizację partii wykonywanych na żywo z partiami odtwarzanymi z taśmy,i to zarówno przy studiowaniu utworu, jak i przy jego produkcji na koncercie, na-graniu radiowym itd. W partyturach tego typu partie instrumentów zapisywanesą na ogół tradycyjnym pismem nutowym, co najwyżej w zapisie beztaktowym;natomiast partia taśmy zapisana jest w sposób schematyczny (szkicowy) bezwdawania się w nieistotne dla wykonawcy szczegóły, jednak na tyle dokładnie,aby mu umożliwić precyzyjne wejścia.

5. Wreszcie piąta, najmniej liczna grupa partytur muzyki elektronicznej, to tzw.partytury do słuchania (niem. H   orpartituren). Zapisy przejrzyste, sugestywne gra-ficznie, mające nieraz samodzielny walor estetyczny. Zadaniem ich jest ułatwie-nie percepcji utworu zaawansowanym melomanom lub muzykom, przywykłymdo słuchania czynnego z partyturą w ręku. Pozwalają też zainteresowanym na

głębsze wniknięcie w strukturę muzyczną dzieła. Stanowią wreszcie materiał doanalizy muzycznej. Muszą one być rzetelne, bez przekłamań, bo uważny słu-chacz natychmiast to odkryje, dezawuując tym kompozytora. Ale nie mogą też

 być zbyt szczegółowe, bo nadmierna ilość mało ważnych detali sprawi, że party-tura przestanie być czytelna. Partyturę taką sporządza się z reguły po ukończeniukompozycji. Dla twórcy, zaprzątniętego w tym momencie myślami o następnychkompozycjach, jest to praca uciążliwa i właściwie niekonieczna. Dzieło jest prze-cież już gotowe. Rzadko więc się na nią decyduje i to raczej w przypadku utworu,który uważa za szczególnie ważny i nadający się do efektownego przedstawieniagraficznego. Trzeba pamiętać, że zasadniczą formą zapisu muzyki elektronicznej

 jest nadal taśma magnetyczna (ew. zapis cyfrowy), i wszelkie formy notacji napapierze, tak chętnie określane mianem „partytur”, mają tylko znaczenie pomoc-nicze w różnych etapach realizacji lub przy odbiorze utworu. Utwór jako takiistnieje dzięki zapisowi na taśmie (płycie CD).

Istnieją oczywiście formy notacji nie mieszczące się w żadnej z powyższychkategorii: zapisy służące wykonywaniu   live electronic, zapisy nutowe służące dowykonywania określonych struktur muzycznych na klawiaturze syntezatora, par-tytury widowisk mixed media itd.

Sądzimy, że dokładniejsze przyjrzenie się przykładom partytur, zamieszczo-

nym na s. 328, 330, 331 (il. 173, 174, 175, 176), wyjaśni czytelnikowi znaczniewięcej, niż obszerne opisy słowne. Widzimy z nich, że kompozytorzy posłu-gują się bardzo różnymi symbolami i odpowiednikami graficznymi przedstawia-

327

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 328/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 329/381

Projekcje wielokanałowe

Te różne notacje mają jednak kilka cech wspólnych. I tak: czas przedstawiany jest z reguły na osi poziomej w skali linearnej. Przy małym wypełnieniu strony,kilka systemów umieszczanych jest jeden pod drugim, jak w tradycyjnym za-pisie nutowym. Zdarzenia o brzmieniach „wysokich” umieszczane są z reguły

u góry strony (systemu), a o brzmieniach „niskich” u dołu, chociaż niekoniecz-nie precyzyjnie na skali częstotliwości. W partyturach do zgrywania warstwyumieszczane są jedna nad drugą w poziomie i czytane od lewej do prawej,

 jak głosy w partyturze instrumentalnej. Zdarzenia bardzo złożone, trudne dodokładnego przedstawienia graficznego, notowane są w postaci bloków lub gę-stej gmatwaniny kresek itd. Dzięki tym wspólnym cechom, spoglądając po razpierwszy na nieznaną partyturę muzyki elektronicznej można dosyć szybko siędomyślić, na jakiej zasadzie funkcjonuje zapis i jak należy go czytać. Jednak wła-ściwa interpretacja możliwa jest dopiero po zaznajomieniu się z tekstem autora,zawierającym szczegółowe objaśnienie użytych znaków.

W muzyce komputerowej odpowiednikiem partytury może być program kom-pozycji. Występuje to przede wszystkim w tych systemach, w których kompozy-tor musi określić „instrumenty” i „nuty”. Część programu zawierająca te określe-nia staje się więc rodzajem „partytury”, która jest łatwo czytelna dla komputera,

 jednak nie dla człowieka. Nie sposób jest bowiem objąć wzrokiem jednocze-śnie większego bloku programowego ani też wyobrazić sobie na jego podstawieprzebiegu kompozycji czy nawet jej fragmentu. Wyjątkiem są tu programy wpro-wadzane do komputera poprzez urządzenia graficzne. I tak np. w systemie UPIC(Xenakisa) poszczególne „strony” programu graficznego stanowią odwzorowa-

nie w aspekcie czasu i wysokości kolejnych fragmentów kompozycji, przez coprzypominają graficznie partytury elektroniczne (il. 185, s. 340).

5.2. Projekcje wielokanałowe

Momentem zaistnienia muzyki elektronicznej jest jej rejestracja (zapis) na ta-śmie magnetycznej (analogowej lub cyfrowej) albo na innym nośniku, i to nie-

zależnie od tego, czy istnieje jakikolwiek zapis tej muzyki na papierze. Tak jestprzynajmniej w odniesieniu do ogromnej większości utworów elektronicznych 2. Jedynym sposobem prezentacji tej muzyki jest natomiast projekcja dźwiękowa

poprzez głośniki.Zastanówmy się przez chwilę, jaką rolę spełnia zapis, a jaką projekcja. Czy

można tu znaleźć bezpośrednie analogie do roli, jaką spełniają one w muzyceinstrumentalnej? Tradycyjny zapis nutowy zawiera podstawowe dane kompozy-cji: określa instrumenty, wysokości, rytmy, dynamikę, artykulację. Zapis ten jesttylko potencjalnym utworem. Jego postać ostateczną, stanowiącą pełną realizacjęmyśli kompozytora, nadają mu żywe wykonania, z których każde jest indywidu-

alną interpretacją zapisu nutowego. Interpretacji tych jest tyle, ile wykonań. Mogą

2 Wyjątek stanowi tu live electronic.

329

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 330/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 331/381

Projekcje wielokanałowe

Il. 176. A. Dobrowolski,  Muzyka na taśmę nr 1   — zapis precyzyjny. PWM, s. 24

331

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 332/381

Zapis i projekcja

Il. 177. B. Schaeffer,  Symfonia, muzyka elektroniczna   — partytura graficzna, zapis niedookreślony.PWM, s. 1

332

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 333/381

Projekcje wielokanałowe

Il. 178. K. Stockhausen,   Kontakte   — partytura wykonawcza. UE, s. 32

333

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 334/381

Zapis i projekcja

Il. 179. A. Dobrowolski,  Muzyka na taśmę magnetofonową i fortepian solo   — partytura wykonawcza.PWM, s. 11

334

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 335/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 336/381

Zapis i projekcja

    I    l .    1    8    1 .    W .    K   o   t   o    ń   s    k    i ,     A

     E     L     A

  —

   p   a   r   t   y   t   u   r   a    d   o   s    ł   u   c    h   a   n    i   a ,

    P    W    M ,   s .    1    2

336

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 337/381

Projekcje wielokanałowe

    I    l .    1    8    2 .    J   e   a   n    S   c    h   w   a   r   z ,     S

   y   m   p     h   o   n     i   e ,   s .    2    (   z   a   r   c    h    i   w   u   m

    G    R    M

    )

33722 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 338/381

Zapis i projekcja

    I    l .    1    8    3 .    A .    S   a   v   o   u   r   e   t ,     L     ’   a   r     b   r   e   e     t

   c   a   e     t   e   r   a  —

   p   a   r   t   y   t   u   r   a    d   o   s   t   e   r   o   w   a   n

    i   a   n   a    k   o   n   c   e   r   c    i   e    (   z   a   r   c    h    i   w   u   m    G    R

    M    )

338

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 339/381

Projekcje wielokanałowe

Il. 184. V. Radovanović,   Un petit lac   ´ eternel, kantata radiowa na głosy, chór, orkiestrę i taśmę —partytura wykonawcza i do czytania. Wyd. wewn. Radia Beograd z okazji Prix Italia 1984

33922∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 340/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 341/381

Projekcje wielokanałowe

uznamy jej publiczną prezentację, to jakie miejsce w ciągu od kompozytora dosłuchacza zajmuje jej zapis na taśmie magnetofonowej?

Tak postawione pytania zawierają już częściowe odpowiedzi. Każdy, kto wie-lokrotnie słuchał muzyki elektronicznej, wie z doświadczenia, jak kiepska apa-

ratura, nie dostosowana do akustyki sali czy w ogóle wnętrza, w którym się jejsłucha, może zepsuć wrażenie nawet najlepszego utworu, i odwrotnie: jak dobraprojekcja dźwiękowa, sterowana z sali przez wrażliwego muzyka, może podnieśćwalory nawet mało efektownej muzyki. Niemal każdy także odpowie, że słucha-nie tej muzyki w domu z płyty, nawet kompaktowej, na najlepszej aparaturzeodtwarzającej, nie zastąpi słuchania w sali koncertowej lub w innym specjalniedo tego przystosowanym pomieszczeniu wraz z innymi słuchaczami. Słuchaniepubliczne będzie więc autentycznym odbiorem tej muzyki, słuchanie w domuczy w warunkach studyjnych — reprodukcją. Zapis na taśmie — materiałem,który umożliwi jedno i drugie: wykonanie i reprodukcję.

Aby wykonanie na sali nie było tylko martwym odtworzeniem, potrzebuje ste-rowania, a więc interpretacji. Na czym ma ona polegać? Zdania są podzielone.

 Jedni uważają, że zapis na taśmie jest ostateczną wersją zamiaru kompozytora,który interpretacji autorskiej dokonał w trakcie ostatecznego zgrywania. Dla nichinterpretacja na sali jest raczej adaptacją do lokalnych warunków i ma polegaćna przystosowaniu projekcji do właściwości akustycznych pomieszczenia: uwy-datnieniu pewnych pasm częstotliwości, wytłumieniu innych, dodaniu pogłosui ustaleniu średniego poziomu odsłuchu. Wszelkie inne czynności stanowić będąingerencję w treść gotowego, zarejestrowanego na taśmie dzieła.

Dla drugich projekcja na sali jest ostatnim etapem pracy, stanowiącym ukoro-nowanie wszystkich wysiłków kompozytora muzyki na taśmę. Zapis na taśmietraktują oni nadal jako materiał, podobny do zapisu nutowego, którego inter-pretacja ma się odbywać w pełnej napięcia atmosferze publicznego wykonania.Będzie to oczywiście projekcja wielokanałowa, w której ilość oraz układ kanałówniekoniecznie muszą odpowiadać ilości i układowi ścieżek na taśmie, projekcjasterowana spoza konsolety umieszczonej wśród słuchaczy, tak aby wrażenia ste-rującego były podobne do tych, jakie odbierają słuchacze.

Niewielkie nawet zmiany wysterowania w poszczególnych kanałach mogąwprowadzić zdecydowane zmiany wyrazu rzutowanej przez aparaturę muzyki.Zupełnie nowe, a niezwykle ważne pole otwiera się dzięki projekcji przestrzenneji rozmieszczeniu głośników w różnych punktach sali. Interpretujący utwór z ta-śmy realizator może umiejscawiać poszczególne fragmenty zarejestrowanej kom-pozycji w różnych punktach przestrzeni, przesuwać je z lewa na prawo, z przoduna tył, przybliżać je i oddalać. Za pomocą korektorów może je przytłumiać lubdodawać im ostrości. Interpretacja muzyki na taśmie nie może zmieniać tempaani kolejności zarejestrowanych zdarzeń dźwiękowych. Może jednak zdecydo-wanie wpływać na charakter interpretowanej muzyki, jej ekspresję, wyrazistośćszczegółu itd.

Przy sterowaniu projekcją na koncercie duże usługi oddaje zapis na papie-rze. Jest to najczęściej uprzednio sporządzona partytura typu zapis precyzyjny,partytura do miksażu, albo partytura do słuchania. W przypadku braku takiej

341

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 342/381

Zapis i projekcja

kompozytor (lub realizator projekcji) sporządza sobie ad hoc szkic partytury,umożliwiający mu orientację w złożonym nieraz materiale na taśmie, na którymoże nanieść projekt realizacji przestrzennej i dynamicznej.

Do prostego odtwarzania muzyki na taśmie wystarczają dwa głośniki (lub

cztery, jeżeli taśma nagrana jest czterokanałowo) umieszczone w wypróbowa-nych miejscach sali. W większych pomieszczeniach dla polepszenia odsłuchustosuje się grupy po kilka głośników na jeden kanał, tak by bez zniekształceńi odbić wypełnić dźwiękiem całą salę. Prosta reprodukcja nie wymaga działańw trakcie odtwarzania taśmy. Potrzebne jest za to uprzednie wypróbowanie roz-stawienia głośników, średniego poziomu wysterowania i ewentualnych korekcjinieodzownych ze względu na warunki akustyczne sali.

Il. 186

Do sterowania wykonaniem z sali nieodzowna jest konsoleta: albo specjalna,z przeznaczeniem do projekcji wielokanałowej, albo niewielka konsoleta mik-serska, przystosowana do spełniania nowej roli. Przy projekcji sygnały z dwóchlub czterech ścieżek magnetofonu rozdzielane są na większą ilość kanałów. Kon-soleta musi zatem umożliwiać dowolne krosowanie źródeł (ścieżek) z kanałamiwyjściowymi, prowadzącymi na poszczególne głośniki lub grupy głośników orazzapewniać sygnałom wyjściowym regulację wysterowania i barwy. Konsoleta do

projekcji musi mieć co najmniej tyle wejść, ile jest ścieżek na taśmie oraz co naj-mniej tyle wyjść, ile jest kanałów projekcji. Większe konsolety posiadają jeszczedodatkowe wejścia mikrofonowe dla wzmacniania dźwięków produkowanych

342

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 343/381

Projekcje wielokanałowe

na żywo, a czasem także wejścia liniowe dla syntezatora lub innych źródeł elek-tronicznych. Ilustracja 186 przedstawia schemat systemu projekcji sześciokanało-wej dla nagrań dwu- i czterościeżkowych, z możliwością dołączenia sygnałówz dwóch linii mikrofonowych.

Dotychczasowe doświadczenia z projekcją wielokanałową preferują dwa pod-stawowe układy: frontalny i dookolny (zwany też przednio-tylnym). W pierw-szym przypadku wszystkie głośniki ustawione są przed słuchaczami — na estra-dzie i ewentualnie po jej bokach. Stanowią jakby rozszerzoną difonię, pozwalającąna lokalizowanie przestrzenne dźwięku w panoramie od lewej poprzez środekdo prawej (il. 187). W drugim przypadku podstawą układu jest rozmieszcze-nie głośników w czterech rogach sali, tak aby dźwięk dochodził do słuchaczazarówno z przodu, jak i z tyłu (il. 188).

Il. 187. Frontalny układ głośników Il. 188. Przednio-tylny układ głośników

Oba te systemy mają swoich zwolenników. Umieszczenie całego dziania sięmuzycznego przed słuchaczem ma swoje uzasadnienie psychologiczne. Człowiekma dwoje uszu, które muszlami są skierowane do przodu, i dla lepszego słysze-nia zwraca bezwiednie głowę w kierunku źródła dźwięku. Słuchanie w układziefrontalnym jest więc bardziej naturalne, poza tym utrwalone jest wielowiekowąpraktyką koncertową.

Umieszczenie części działań dźwiękowych poza głową słuchacza rozszerzakrąg jego doznań. Pozwala mu znaleźć się jakby w środku dramatu: na sce-nie, a nie na widowni. Stwarza ponadto nową sytuację akusmatyczną, bardziejwłaściwą dla odbioru przebiegów dźwiękowych, których źródło nie jest słucha-czowi znane. Oczywiście pod warunkiem, że słuchacz nie traktuje głośnika jakoźródła, lecz jako przekaźnik — jakby zasłonę, zza której słychać niewidoczne źró-dło. System dookolny pozwala też kompozytorowi na wprowadzenie pewnychefektów przestrzennych, np. pozornego ruchu, jakby obiegania dźwięku dokołasłuchacza, albo przenoszenia dźwięku po przekątnej sali — od lewej z tyłu naprawo w przód i od lewej z przodu w prawo na tył. Istnieją więc przesłanki

natury artystycznej przemawiające za pełną kwadrofonią w muzyce elektronicz-nej. Jest ona tu bardziej usprawiedliwiona niż w przypadku reprodukcji muzykiinstrumentalnej. Toteż wielu kompozytorów muzyki na taśmę tę właśnie formę

343

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 344/381

Zapis i projekcja

projekcji wyraźnie preferuje, przygotowując taśmy finalne w wersji czteroścież-kowej. Trudno jest im jednak odeprzeć zarzut, jaki stawiają zwolennicy projekcjifrontalnej, że nagłe pojawianie się dźwięków z tyłu jest dla słuchacza czymśnienaturalnym. Że pierwszym odruchem w takim przypadku jest odwracanie

się słuchającego do tyłu, co go oczywiście dekoncentruje, a także przeszkadzainnym, którzy w tym czasie starają się nie poruszać głowami.W obu systemach wprowadza się nieraz dodatkowe głośniki, tzw. wspierające.

Ustawiane są one w różnych punktach sali, zależnie od kształtu i właściwościakustycznych wnętrza, a to dla polepszenia wypełnienia dźwiękiem całej nagła-śnianej przestrzeni, a także dla zatarcia często niemiłego dla słuchacza, „punk-towego” odbierania źródła. Te dodatkowe głośniki krosowane są albo w tensposób, że dublują sygnał najbliższego im źródła (głośnika) kierunkowego, alboodwrotnie — tak, aby tworzyły echo tego źródła rzutując jego odbicie z przeciw-ległej strony sali. Taki układ przeciwległy widzimy na il. 189. Głośniki oznaczone

symbolami 1– 4 to głośniki główne (kierunkowe), a głośniki 1a–4a to głośnikiwspierające. Głośnik 1a rzutuje ten sam sygnał co głośnik 1, tylko z niższympoziomem. Tak samo pozostałe.

Il. 189

Stosuje się wiele innych sposobów rozstawiania głośników. Ich układ zależyi od zamiarów kompozytora, i od kształtu sali. Nieraz np. wiszące balkony nie

pozwalają na swobodne rozmieszczanie głośników z tyłu i po bokach. Stock-hausen przy pierwszych wykonaniach swoich   Kontakte   zaproponował układ,w którym grupy głośników umieszczone były: przód środek, lewa ściana, tyłśrodek, prawa ściana. Nie wyklucza się umieszczania głośników pod sufitem,a nawet pod podłogą, chociaż to ostatnie możliwe jest tylko w specjalnie skon-struowanych wnętrzach. Natomiast dość często spotkać można układ, w którymgłośniki wspierające skierowane są nie w stronę widowni, ale odwrócone kuścianom, lub skierowane ku sufitowi, co w obu przypadkach sprzyja większemurozproszeniu odbić.

 Jeszcze inną koncepcję prezentują twórcy a co us mon i u m. Francois Bayle

i Jean-Claude Lallemand z Groupe de Recherches Musicales w Paryżu. Two-rząc tę — jak sami ją nazwali — „orkiestrę głośników”, wykazali dbałość nietyle o uprzestrzennienie dźwięku, ile o jego uplastycznienie. Rozdzielenie sy-

344

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 345/381

Projekcje wielokanałowe

gnałów na szereg filtrowanych pasm dźwiękowych, które są kierowane do od-powiadających tym pasmom głośników, ma za zadanie jakby „demiksaż” warstwdźwiękowych, a jednocześnie chronić ma przed niekorzystnym zjawiskiem ma-skowania jednych dźwięków przez drugie poprzez rozrzucenie poszczególnych

grup głośników w przestrzeni sali. Jest to konstrukcja mobilna. Rozstawienie gło-śników, a nawet sama koncepcja kompozycji przestrzennej mogą ulegać zmianiew zależności od sali (lub innego wnętrza), w którym odbywać się ma projekcjaakustyczna.

Il. 190. Acousmonium

Acousmonium preferuje system frontalny. Jeżeli realizatorzy decydują się naprojekcję również z tyłu sali, to dotyczy to w zasadzie głośników wspierających.Dwa zestawy szerokopasmowe, złożone z kilku głośników w jednej obudowiekażdy, spełniają rolę głównych, czyli „solistów”, jak je nazywa Bayle. Są one usta-

wiane na przodzie estrady, mniej więcej w tych miejscach, w których ustawiasię głośniki do odsłuchu płyt stereofonicznych z muzyką instrumentalną. Na niekieruje się pełne pasma z lewej i prawej ścieżki magnetofonu. Grupy pomocniczeto: wielki głośnik superniskotonowy (contrebasse), grupa głośników wysokotono-wych (sur-aigu), oraz trzy grupy głośników przenoszących pasma średnie, każdao innym zabarwieniu: bardzo jasnym (brillant), średnio jasnym (clair) i nosowym(creux). Na te grupy głośników przekazywana jest albo suma obu kanałów, albosygnały osobno z lewej i osobno z prawej ścieżki, lub jakiś miksaż między nimi.

Ta główna, przednia projekcja wspomagana jest głośnikami wspierającymi

umieszczanymi po bokach sali, z tyłu lub nawet na wysięgnikach ponad słu-chaczami (grupy skierowanych w różne strony głośników wysokotonowych).W pomieszczeniach o dużej głębi (np. w kościołach) ustawiane są dodatkowegłośniki „odległe”, z których dźwięk będzie dochodził do słuchaczy z pewnymopóźnieniem w stosunku do głośników głównych.

Podstawową ideą acousmonium jest stworzenie wachlarza rejestrów barwnychi rozłożenie ich możliwie szeroko w pomieszczeniu odsłuchowym, co pozwalana tworzenie w sposób kontrolowany mobilnej kompozycji przestrzennej. Acous-monium zostało pomyślane przede wszystkim jako instrument do projekcji prze-strzennej utworów zapisanych dwukanałowo. Nie wyklucza to możliwości pro-

 jekcji z taśm zapisanych czterościeżkowo lub z taśm wielościeżkowych.Ważną część acousmonium stanowi konsoleta do projekcji dźwiękowej. Po-

siada ona duże pole komutacyjne, regulacje wejść i 16 kanałów wyjściowych

345

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 346/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 347/381

Konstrukcje specjalne

z możliwości, jakimi dysponuje i zaadaptować do nich koncepcję kompozycjiprzestrzennej. Drugi etap — sterowanie w trakcie odtwarzania taśmy na koncer-cie — jest tylko wykonywaniem ustalonego wcześniej planu. Ale i teraz, tak jakwirtuoz na koncercie, będzie poddawał się specyficznej magii sali i da wyko-

nanie „żywe”, być może inne niż zaplanowane, i będzie to jego „interpretacja”utworu.Nie chcemy tu wdawać się w spór, czy najlepszym miejscem słuchania mu-

zyki elektronicznej jest sala koncertowa, czy też zacisze domowe, bowiem jeston jak dotąd nie rozstrzygnięty. Tym, którzy przedkładają słuchanie tej muzykiz płyt — a jest ich niemało — pozostawmy delektowanie się nią w samotności,czy też w wąskim gronie przyjaciół. My zajmiemy się jeszcze pewnym rodzajemgigantomanii, jakim jest budowanie specjalnych obiektów służących do urzeczy-wistnienia pewnych idei przestrzennych kompozycji dźwiękowych.

5.3. Konstrukcje specjalne

Nową muzykę drugiej połowy XX wieku cechuje przypływ zainteresowaniawszystkim co niebanalne, niecodzienne, odbiegające od tradycji dziewiętnasto-wiecznej: wykorzystanie dźwięków dotąd uważanych za niemuzyczne, aleato-ryzm, formy otwarte, teatr instrumentalny, multimedia. Pojawiają się też pomysły

wykorzystania przestrzeni dokoła słuchaczy jako elementu kompozycji. Odno-tujmy próby jeszcze z lat pięćdziesiątych — Stockhausena   Gruppen f   ur 3 Or-chester, Beria  Allelujah II , a także próby innych kompozytorów, prowadzące douprzestrzennienia muzyki i do przełamania tradycyjnego sposobu odbieraniamuzycznych wrażeń dźwiękowych, jako płynących z jednego punktu (solista)lub jednej płaszczyzny (orkiestra). Sposobem przełamania jest dzielenie zespołui rozstawianie muzyków lub grup muzyków w różnych punktach sali: przedsłuchaczami, po bokach i poza nimi, a nawet pośród publiczności.

Główną przeszkodą w realizowaniu takich koncepcji stanowią kształty i urzą-dzenia sal koncertowych. Zarówno bowiem te stare, pamiętające jeszcze wiekXIX, jak i te nowe, powstałe już w naszych czasach, mimo pokaźnych nierazrozmiarów i wymyślnych kształtów architektonicznych, budowane były z myśląo muzyce tradycyjnej, z zachowaniem zasady: jedna estrada i jedna widownia.Dzielenie muzyków na grupy i rozmieszczanie ich w różnych częściach sali z re-guły jest niemożliwe w normalnym układzie sceny i widowni. Wymaga budowa-nia dodatkowych podiów, usuwania części miejsc siedzących, wykorzystywania

 balkonów itd. Stąd częste przenoszenie tak pomyślanych utworów do sal niemu-zycznych: muzeów, pawilonów, hal fabrycznych, kościołów itd., gdzie warunkiakustyczne są z reguły niedobre i zabijają nieraz w zarodku przestrzenną myśl

kompozytora.Sytuację rozwiązałyby nowe sale wielofunkcyjne, budowane zgodnie z wyma-

ganiami autorów pomysłów przestrzennych. Niestety, nie ma ich kto budować.

347

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 348/381

Zapis i projekcja

Muzyka na taśmę, a także wszelka muzyka przeznaczona choćby do częścio-wego przekazywania przez głośniki, nie ma tych ograniczeń. A w każdym razienie w tym stopniu co muzyka instrumentalna i wokalna. Łatwiej bowiem i mniej-szym kosztem można rozmieścić głośniki zarówno na estradzie, jak i w odległych

od niej punktach sali, aniżeli budować specjalne podia dla wykonawców. Łatwiejteż jest za pomocą dodatkowych głośników i korekcji barwy zrekompensowaćniedostatki akustyczne pomieszczeń niekoncertowych, niż to czynić można meto-dami tradycyjnymi. Mając do dyspozycji odpowiednią moc nagłaśniającą, możnateż wyjść poza wnętrza i emitować tę muzykę w przestrzeni otwartej.

 Jednak także w przypadku muzyki elektronicznej (czy innej, opartej o wzmoc-nienie elektroakustyczne) okazuje się, że im większe są wymagania kompozytoraco do uprzestrzennienia muzyki, pozornych ruchów dźwięku dokoła i ponadsłuchaczami, tym przedsięwzięcie staje się droższe, a jego realizacja trudniejsza,możliwa jedynie w warunkach szczególnie pomyślnych zarówno dla kompozy-

tora, jak i dla organizatora (sponsora), który podejmie się takie przedsięwzięciesfinalizować.

Takie szczególnie sprzyjające warunki miały miejsce w Brukseli w 1958 roku,kiedy to dla przygotowanej w tym mieście Wystawy Światowej firma Philipspostanowiła wznieść pawilon, obrazujący najnowsze zdobycze elektroniki i elek-trotechniki. Stałby się on być może jednym z setek podobnych pawilonów wysta-wowych, gdyby szefom firmy nie przyszło do głowy, aby zwrócić się o projekt do

 będącego wówczas u szczytu sławy Le Corbusiera. Nie zaskoczony tą propozycjąarchitekt, po kilku minutach rozmowy miał oświadczyć: „Ja nie stworzę pawi-

lonu, ja wam stworzę poemat elektroniczny, z butelką która go będzie zawierać.Butelka będzie pawilonem...”3. Co było dalej, wiemy. Le Corbusier, nie mając zawiele czasu, zostawił wolną rękę swemu pierwszemu asystentowi, był nim IannisXenakis, a ten zamiast „butelki” wyczarował wspaniały pawilon-muszlę, czy teżpawilon-namiot z cienkiego sprężonego betonu, jedno z najdziwniejszych i naj-doskonalszych dzieł architektury XX wieku. Muzykę, wypełniającą ów „Poematelektroniczny” skomponował zgodnie z życzeniem Le Corbusiera Edgar Varese.Sędziwy nowator, któremu pomysły muzyki przestrzennej zaprzątały głowę jużw latach dwudziestych, postanowił wykorzystać „muszlę” jako niekonwencjo-nalną przestrzeń do projekcji swojej muzyki. Ponieważ pawilon zbudowany był

na planie koła o ścianach hiperboloido-paraboidalnych z trzema niesymetryczniepołożonymi wierzchołkami, nie miał oczywiście żadnej osi symetrii, a w środkużadnych wydzielonych sektorów. Varese postanowił więc wykorzystać spojeniaścian biegnące od podłogi śmiałymi łukami ku górze jako linie, które wyzna-czać będą szkielet przestrzeni dźwiękowej. Wzdłuż tych linii umieszczonychzostało 350 głośników, na które kierowana była muzyka z trzech ścieżek ma-gnetofonu. Dodatkowy rząd głośników umieszczony był wokół ścian przy pod-łodze. Niestety dokumentacja dotycząca projekcji przestrzennej „Poematu” jestniekompletna. Trzeba raczej przyjąć, że była to projekcja statyczna, choć efekt

przestrzenny był na owe czasy niezwykły.3 „Je ne ferai pas de pavillon; je ferai un Poeme electronique avec la bouteille qui le contiendra. La

 bouteille sera le pavillon...” W: Odile Vivier, Varese.  Editions du Seuil, Paryż 1973, s. 161.

348

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 349/381

Konstrukcje specjalne

Il. 191. Pawilon Philipsa w Brukseli

Towarzysząca dźwiękom muzyki kompozycja świetlna, pomysł samego LeCorbusiera, będąca swoistym kolażem przeźroczy i urywków filmowych rzu-towanych na zakrzywienia ścian oraz gry świateł i błysków, nie była ani zsyn-

chronizowana z muzyką, ani nie tworzyła z nią jakiegoś widocznego związku.W stosunku do muzycznych pomysłów Varese’a była po prostu zbyt „staro-świecka”. I tak ów pawilon-poemat, który miał stanowić swoisty „Gesamtkun-stwerk”, stał się tylko wspaniałym zespoleniem architektury i muzyki. Warstwaświetlna spełniała w nim tylko rolę sztafażu. Warto przypomnieć, że Le Corbusierzamierzał firmować architekturę „Poematu” tylko swoim nazwiskiem. Dopieropo zdecydowanych żądaniach Xenakisa zgodził się na wymienienie jego nazwi-ska jako współautora. Pozwolił też Xenakisowi na umieszczenie w charakterze„antraktu” dwuipółminutowej kompozycji elektronicznej, która rozbrzmiewałaprzy wchodzeniu i opuszczaniu pawilonu przez publiczność. Była nią  ConcretePH . Sprawa o autorstwo pawilonu stała się początkiem końca współpracy obuwielkich artystów.

„Poemat elektroniczny” był przedsięwzięciem jednorazowym. Po zakończeniuWystawy aparatura została zdemontowana, a pawilon zburzony, pomimo pew-nych, niezbyt zresztą energicznych, protestów świata artystycznego. Nie wiemydzisiaj, jak brzmiała oryginalna wersja trzykanałowa, gdyż utwór Varese’a pre-zentowany był potem już tylko w zredukowanej wersji dwukanałowej, znanejz nagrań płytowych.

 Jedną z nielicznych, a może w ogóle jedyną dotąd salą koncertową wzniesioną

specjalnie dla nowej muzyki według pomysłu jednego kompozytora, było kuli-ste audytorium pawilonu RFN na Wystawie Światowej w Osace w roku 1970.Zbudowano je według projektu architekta F. Bornemanna opartego na pomy-

349

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 350/381

Zapis i projekcja

śle Karlheinza Stockhausena. Wspaniałą aparaturę nagłaśniającą i stół do pro- jekcji przestrzennej wykonała, również według projektów Stockhausena, firmaSiemens z Monachium przy wydatnej pomocy ze strony Uniwersytetu Technicz-nego w Berlinie. Od połowy marca do połowy września 1970 roku rozbrzmie-

wały w nim przez 6 godzin dziennie utwory Stockhausena:   Spiral  na jednegosolistę,  Telemusik,  Kurzwellen,   Hymnen   i inne, a także kilka kompozycji innychkompozytorów.

Audytorium miało kształt jakby częściowo zagłębionej w ziemi kuli. Ścianyi strop stanowiła więcej niż półkolista kopuła, zbudowana z siatki rur stalowychpokrytych poszyciem z płyt metalowych. Trochę poniżej średnicy kuli umiesz-czona była płaszczyzna widowni. Podłogę tej widowni stanowiła przepuszcza-

 jąca dźwięki kratownica, na której umocowano poduszkowe ławy, rozmieszczonew postaci klinowatych sektorów dokoła centrum widowni (il. 192b, s. 351). Stółdo projekcji dźwiękowej oraz wykonawcy partii instrumentalnych lub wokalnychumieszczani byli na nieco podwyższonych podiach na zewnątrz kręgu widownioraz na podwieszonych balkonach na obwodzie wewnętrznej płaszczyzny kuli.

 Jeden wielki głośnik niskotonowy (TL na il. 192a) umieszczony był pod podłogąwidowni. Również trzy pierwsze kręgi głośników uniwersalnych (z numeramiL1–L5, L6–L10 i L11–L20) znajdowały się poniżej poziomu widowni. Następnekręgi głośników wznosiły się na ścianach coraz wyżej ku górnemu spojeniu ko-puły. Stół projekcyjny i związane z nim specjalne urządzenie „Rotationsmuhle”(dosł.: młyn rotacyjny) pozwalały na wysyłanie dźwięków (nagranych cztero-ścieżkowo oraz przetworzonych elektronicznie dźwięków produkowanych przez

wykonawców odbiorników krótkofalowych) na dowolnie łączone grupy głośni-ków, oraz na wywoływanie pozornego ruchu tych dźwięków, albo koliście wo-kół słuchaczy, albo spiralnie poczynając od dołu ku górze lub od góry do dołu.W pierwszym przypadku „młyn” powodował kolejne włączanie i wyłączaniepionów głośników, w drugim włączały się pojedyncze głośniki wokoło i corazwyżej, symulując w ten sposób ruch spiralny. Szybkość i kierunek wirowania mo-gły być sterowane ręcznie zza konsolety. Trzeba przypomnieć, że efekt wirowa-nia dźwięku w przestrzeni wokół słuchaczy był pewnym obsesyjnym pomysłemStockhausena. Kompozytor próbował wprowadzać go już na początku lat sześć-dziesiątych: instrumentalnie w Carr´ e  na 4 orkiestry, a elektronicznie w  Kontakte,używając w tym przypadku tylko 4 głośników i bardzo prymitywnego „młyna”.Kulisty pawilon w Osace pozwolił na pełne urzeczywistnienie idei przestrzen-nych Stockhausena i przyczynił się w niemałym stopniu do spopularyzowania

 jego nazwiska wśród szerokich kręgów pozamuzycznych.Audytorium w Osace spotkał ten sam los co pawilon Xenakisa w Brukseli.

Mimo szeroko zakrojonej akcji w Republice Federalnej Niemiec na rzecz zacho-wania tej budowli i przeniesienia jej, np. do Kolonii, pawilon-audytorium zostałpo zakończeniu Wystawy rozebrany i zniszczony.

Wystawy Światowe okazały się wyjątkowo dobrymi okazjami do realizacji nie-

zmiernie kosztownych przedsięwzięć akustycznych i audiowizualnych. Z okazjiŚwiatowej Wystawy w Montrealu w roku 1968 Xenakis mógł zrealizować swójniezwykły pomysł audiowizualny, który nazwał Polytope de Montr´ eal. Organizato-

350

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 351/381

Konstrukcje specjalne

   a    )   p   r   z   e    k

   r    ó    j    p    i   o   n   o   w   y

    b    )

   p   r   z   e    k   r    ó    j    p   o   z    i   o   m   y

    I    l .    1    9    2 .    A   u    d   y   t   o   r    i   u   m

    S   t   o   c    k    h   a   u   s   e   n   a   w    O   s   a   c   e

351

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 352/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 353/381

Konstrukcje specjalne

setki pochodni, warstwę muzyczną tworzyła muzyka elektroniczna zrealizowanaw studiach GRM w Paryżu, emitowana z 8 ścieżek magnetofonu na setkę głośni-ków rozstawionych w ruinach starożytnego Persepolis. Następnym był  Polytopede Cluny, przygotowany na zamówienie francuskiego ministerstwa kultury na

otwarcie „Festival d’automne” w roku 1972 w Paryżu. Kompozytor wykorzystałtu jako scenerię pozostałości rzymskich term koło Muzeum Cluny w centrumParyża. Ruchome rzeźby świetlne tworzone były przez setki lamp błyskowychoraz trzy wiązki promieni laserowych, odbijających się wielokrotnie od stałychi ruchomych luster. Stosunkowo prosta muzyka elektroniczna tworzyła ze spek-taklem świetlnym specyficzny kontrapunkt. Rozrząd świateł, tak jak i projekcjadźwiękowa (z 7 ścieżek magnetofonu na 12 głośników zamontowanych na ścia-nach term), były całkowicie zautomatyzowane i sterowane przez komputer.

Xenakis stworzył jeszcze dwie inne kompozycje audiowizualne: w roku 1970 Hibiki-Hana-Ma   dla pawilonu Japońskiej Federacji Stali na Wystawie Światowej

w Osace (spektakl laserowy był w tym przypadku dziełem japońskiego rzeźbia-rza Keiji Usami) oraz  Diatope dla własnej konstrukcji pawilonu-namiotu wysta-wionego w Paryżu na placu Beaubourg na otwarcie Centrum Pompidou w roku19784.

Wszystkie te wielkie i niezmiernie kosztowne konstrukcje nie okazały siętrwałe. Żadna z nich nie przetrwała do dzisiaj. Spełniły jednak doniosłą rolęw rozwoju sztuki audiowizualnej i otworzyły nowe horyzonty traktowania prze-strzeni muzycznej.

4

Zainteresowanym spektaklami audiowizualnymi Xenakisa polecam dwie publikaje w języku fran-cuskim: Xenakis, Les Polytopes avec illustrations, dessins et partitions de Iannis Xenakis et text de Revaultd’Allonne.  Editions Balland, Paryż 1975 oraz Nouritza Matssiana, Iannis Xenakis. Fayard/Sacem, Paryż1981.

35323 – Muzyka elektroniczna/PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 354/381

Bibliografia

I. HISTORIA I ROZWÓJ

Appleton Jon H., Perera C. (wyd.),   The Development and Practice of Electronic Music.Autorzy: O. Luening, A. W. Slawson, G. Ciamaga, J. Chadabe, J. E. Rogers, G. Mumma.Engelwood Cliffs (New Jersey) 1975, Prentice-Hall.

Baker Ray Stannard, New Music for an Old World. „McClure’s Magazine” June 1906 (opisdynamophonu Cahilla).

Barbaud Pierre,  La musique, discipline scientifique. Paris 1971,  Ed. Dunod.—  Initiation  a la Composition Musicale Automatique. Paris 1966.

Baumgarth Christa,  Futuryzm. Tłum. Jerzy Tatarski. Warszawa 1978, WAiF.B u so n i Ferruccio,  Entwurf einer neuen   ¨  Asthetik der Tonkunst. Trieste 1907.Ch io n Michel, Re ib el Guy,   Les musiques   ´ electroacoustiques. Aix-en-Provence 1976,

INA/GRM, Edisud.Deutsch Herbert A.,  Synthesis, an Introduction to the History, Theory and Practice of Elec-

tronic Music. Port Washington (New York) 1976, Alfred.Dibelius Urlich,  Moderne Musik 1945–1965. Munchen 1966, R. Piper and Co Verlag.E im er t Herbert, Hu m pe r t Hans Ulrich, Das Lexikon der elektronischen Musik. Regensburg

1973, Bosse Verlag.Ernst David, The Evolution of Electronic Musik. „Darmstadter Beitrage zur neuen Musik”,

Mainz 1964, Schott’s Sohne.Hiller Lejaren A., Informationstheorie und Musik. „Darmstadter Beitrage zur neuen Musik”

Mainz 1964, Schott’s Sohne.

Hiller Lejaren A., Isaacson Leonard M.,   Muzyka eksperymentalna — komponowaniez pomocą komputera. Tłum. Jacek Rajkow-Krzywicki. „Res Facta” z. 5, Kraków 1971,PWM. Wyd. oryg.: Experimental Music — Composition with an Electronic Computer. NewYork–Toronto 1959, McGraw-Hill.

Kaegi Werner,  Was ist elektronische Musik. Zurich 1967.Ka rk os ch ka Erhard,  Das Schriftbild der Neuen Musik. Celle 1966, Moeck Verlag.Kr up o w icz Stanisław, O pewnej metodzie komputerowej symulacji procesu kompozycji. Praca

magisterska w Akademii Muzycznej w Warszawie, 1981 (maszynopis).La ch ar tr e Nicole,  Les musiques artificielles. „Diagrammes du Monde”, Monaco 1969.La ur en de au Jean,  Maurice Martenot. Luthier d’Electronique. b.r. i w.L ebl Vladimir,  Elektronick´ a hudba. Praha 1966, SHV.Lu en in g Otto,  Some Random Remarks about Electronic Music. W:  Contemporary Composers

on Contemporary Music, wyd. E. Schwartz i B. Childs, New York 1967, Holt, Reinehartand Winston.

354

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 355/381

Bibliografia

Meyer-Eppler Werner,  Elektrische Klangezeugung, elektronische Musik und synthethischeSprache. Bonn 1949, Dummers Verlag.

—  Sichtbar gemachte Musik. „Gravesaner Blatter” Mainz, 1955 nr 1.Mo le s Andre Abraham, Les machines  a musique. „La Revue Musicale” 1954 nr specjalny.—  Les musiques exp´ erimentales, revue d’une tendence importante de la musique contemporaine.

Paris–Zurich–Bruxelles 1960,  Ed. du Cercle d’Art Contemporaine.—   Muzyka, maszyny, kompozytor. Tłum. Anna Skrzyńska. W:  Horyzonty muzyki, Kraków

1970, PWM.Ny m a n Michael, Experimental Music, Cage and beyond. New York 1974, Schirmer Books.P a r t ch Harry, Genesis of Music, Madison (Wisconsin) 1949, University of Wisconsin Press.Patkowski Józef,  O muzyce elektronicznej i konkretnej, „Muzyka” 1956 nr 1.— Aktualne problemy muzyki konkretnej i elektronicznej. W: Horyzonty muzyki, Kraków 1970,

PWM.—  Harry Partch — nie znany kompozytor amerykański. W:  Horyzonty muzyki, Kraków 1970,

PWM.

—  Nowy kierunek eksperymentów dźwiękowych Stockhausena. W:  Horyzonty muzyki, Kraków1970, PWM.

— „Concert Collectif” Grupy Badań Muzycznych ORTF. W: Horyzonty muzyki, Kraków 1970,PWM.

Pierce John, David Edwards E.,   Świat dźwięków. Tłum. Andrzej Rakowski. Warszawa1967, PWN. Tyt. oryg.:  Man’s World of Sound. New York 1958.

Pi ot ro ws ki Zbigniew,  Muzyka na taśmę, „Muzyka” 1975 nr 4.Pr en de ga st Roy M.,  A neglected Art. New York 1972.Prieberg Fred,  Musica ex Machina. Berlin 1960.—  Musik des Technischen Zeitalters. Zurich-Freiburg 1956, Atlantis Verlag.

—   Versuch einer Bilanz der elektronischen Musik. Freudenstadt 1980, Rohrdorfer Verlag.R ak ow s ki Andrzej,  Muzyka konkretna we Francji w latach 1949–1955. „Muzyka” 1958 nr1 (cz. 1) i nr 2 (cz. 2).

R us s co l Herbert,  The Liberation of Sound, an Introduction to Electronic Music. EngelwoodCliffs (New Jersey) 1972, Prentice Hall.

Russolo Luigi,  L’art des bruits. Paris 1954. Wyd. oryg.:  L’arte dei rumori. Milano 1913.Schaeffer Bogusław,  Dźwięki i znaki. Warszawa 1969, PWN.—   Nowa muzyka. Problemy współczesnej techniki kompozytorskiej. Kraków 1958, wyd. II,

PWM.—  Mały informator muzyki XX wieku. Kraków 1958. Wyd. IV 1987, PWM.

—  Z notatnika. «Forum Musicum» nr 2, Kraków 1968.Sc ha ef fe r Pierre, La musique m´ ecanis´ ee — Introduction a la musique concrete. „Polyphonie”Paris, 1950 nr 1.

—  A la recherche d’une musique concrete. Paris 1952,  Editions du Seuil.—  La musique concrete. W serii «Que sais-je», Paris 1967, Presse Universitaire de France.Schwartz Elliot, Electronic Music, a Listener’s Guide. New York–Washington 1973. Praeger

Publishers.Sk o w r o n Zbigniew,   Muzyka elektroniczna Karlheinza Stockhausena. Praca magisterska

w Akademii Muzycznej w Warszawie, 1980 (maszynopis).Skr zyń ska Anna,   Próba charakterystyki muzyki eksperymentalnej w Polsce w latach

1957–1967. „Forum Musicum” nr 2, Kraków 1968, PWM.—  Świat przedmiotów dźwiękowych Pierre’a Schaeffera. „Ruch Muzyczny” 1974 nr 1.Stockhausen Karlheinz,  Sprache und Musik. „Darmstadter Beitrage zur neuen Musik”,

Mainz 1958, Schott’s Sohne.

35523∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 356/381

Bibliografia

—   Elektronische und instrumentale Musik. „Die Reihe” z. 5, Wien 1959, Universal Edition.—   Texte, zur elektronischer und instrumentaler Musik. T. I Koln 1963, t. II 1964, t. III 1966.

DuMont Verlag.Stockhausen Karlheinz, Eimert Herbert (wyd.),  Elektronische Musik. „Die Reihe” z 1.

Autorzy: H. Eimert, K. Goeyvaerts, H. H. Stuckenschmidt, G. Klebe, W. Meyer-Eppler,

G.M. Koenig, E. Krenek, P. Gredinger, H. Pousseur, P. Boulez i K. Stockhausen. Wien1955, Universal Edition.

Sc hr ad er Barry,   Introduction to Electro-Acoustic Music. Engelwood Cliffs 1982,Prentice-Hall.

T ra ut w ei n Friedrich,  Elektrische Musik, Berlin 1930.Ussachevsky Vladimir,  La „Tape Music” aux   ´ Etats Unis. „La Revue Musicale” 1957 nr

specjalny.V a r e se Edgar, The Liberation of Sound, excerpts from lectures of 1936–62, edited by Chou Wen-

-Chung. W: Contemporary Composers on Contemporary Music, red. E. Schwartz, B. Childs,New York 1967, Holt, Reinehart and Winston.

Vinton John (red.)  Dictionary of Contemporary Music. New York 1971, Dutton Co.Wh it ne y John, Bewegungsbilder und elektronische Musik. Tłum. z ang. Ruth Cardew. „Die

Reihe” z. 7, Wien 1960.Winckel Fritz,  Osobliwości słyszenia muzycznego. Tłum. J. Patkowski i K. Szlifirski. War-

szawa 1965, PWN. Wyd. org.:   Ph¨ anomene des musikalischen H   orens. Berlin 1960, MaxHesses Verlag.

W orner Karl Heinz,   Karlheinz Stockhausen. Werk   +   Wollen. Rodenkirchen Rhein 1963,Tonger-Verlag.

Xenakis Iannis,  W stronę filozofii muzyki. Tłum. Maria Nosowska i Anna Romanowska.„Res Facta” z. 2, Kraków 1968. Wyd. org.: Vers une philosophie de la musique. „GravesanerBlatter” Mainz, 1960 nr 29.

Zieliński Tadeusz,   Style, kierunki i twórcy muzyki XX wieku. Wyd. II popr. i uzup.,Warszawa 1980, COMTUK.

II. STUDIO KLASYCZNE

E n g el Georg, Elektromechanische und Vollelektronische Musikinstrumente. Berlin (NRD) 1975. J a s se m Wiktor,  Mowa a nauka o łączności. Warszawa 1974, PWN. J o s ep h s Jess J.,  Fizyka dźwięku muzycznego. Tłum. A. Rakowski i R. Stemplowski, War-

szawa 1970, PWN. Wyd. oryg.:  The Physics of Musical Sound. Princeton (New Jersey)1967, Van Nostrand Co.

 J u dd F. C.,  Electronic Music and Musique Concrete. London 1961, Neville Spearman.Ge is le r Jerzy,  Techniczne problemy nagrań muzycznych. Warszawa 1979, WKŁ.Mazurek Bohdan,   Realizacja muzyki eksperymentalnej, «Forum Musicum» nr 2;   Muzyka

w studio, Kraków 1968, PWM.— Materiał dźwiękowy w muzyce elektronicznej i technologiczne metody kształtowania. «Forum

Musicum» nr 6:  Technologia muzyki elektronicznej. Kraków 1969, PWM.Natanson Tadeusz, Współczesne techniki kompozytorskie. Cz. II, Wrocław 1972, PWSM we

Wrocławiu, Katedra Kompozycji 1972 (skrypt).Patkowski Józef,  Metody realizacji muzyki konkretnej. „Muzyka” 1958 nr 4.—   Kompozytor a technika studia muzyki eksperymentalnej. W:   Horyzonty muzyki, Kraków

1970, PWM.Rajewski Marian, Kwadrofonia, opis aktualnych systemów rejestracji i emisji audycji kwadro-

 fonicznych. „Zeszyty Naukowe COBRiTV”, Warszawa 1976.Rakowski Andrzej,  Metody realizacji muzyki konkretnej. „Muzyka” 1958 nr 3.

356

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 357/381

Bibliografia

Sc ha ef fe r Pierre,  Trait´ e des objets musicaux, essai interdisciplines, Paris 1966,  Editions duSeuil.

Schaeffer Pierre, Reibel Guy, Solf ege de l’object sonore. Paris 1967, GRM (tekst i 3 płytygramofonowe).

Szlifirski Krzysztof,   New Technology and Training of Composers in Experimental Music.

„La Revue Musicale” 1971 nr specjalny:  Music and Technology.U r b a ń s ki Bolesław, Technika zapisywania i odczytywania dźwięków. Warszawa 1978, WKŁ.Winckel Fritz (red.),  Klangstruktur der Musik, neue Erkenntnisse musik-elektronischer For-

schung. Autorzy: B. Blacher, H. H. Drager, W. Lottenmoser, W. Meyer-Eppler, O. Sala,H. H. Stuckenschmidt, F. Winckel, F. Enkel, J. Poulin, H. W. Steinhausen. Berlin 1955,Verlag f. Radio-Foto-Kinotechnik.

III. STUDIO SYNTEZATOROWE

 ARP Electronic Music Modules   (nie sygn.). Newton Highlands (Massachusets) 1970, ARPElectronic Music Synthesizers.

Babbitt Milton,  An Introduction to the RCA Synthesizer. „Journal of Music Theory” 1964nr 1.Chadabe Joel,   Le Principe du Voltage-Control. „Musique en jeu” nr 8:   Les Musiques

´ electroacoustiques, Paris 1972.Devarahi ,   The Complete Guide to Synthesizers. Engelwood Cliffs (New Jersey) 1982,

Prentice-Hall.Do ug la s Allan,  The Electronic Musical Instrument Manual, a guide to Theory and Design.

London 1968, wyd. VI 1976, Pitman Publishing Corp.EMS London,  The SYNTHI 100 Manual  (nie sygn.) London b.r. (ok. 1969).EMS London,  The SYNTHI Sequencer 256  (nie sygn.) London 1970.Experimentalstudio der Heinrich Strobel Stiftung des S ¨ udwestfunks  (nie sygn.). Freiburg im

Breisgau 1971–1973.Howe Hubert S., User’s Guide to the Buchla Electronic Music System. Fullerton (Kalifornia)

1971 (?), CBS Musical Instruments.Ki r k David, SYNTHI AKS: Field Trial. „Studio Sound” 1973 nr 3.Ko e n ig Gottfried Michael, Voltage Control: Diagrams and Circuitry. Utrecht 1974, Institut

of Sonology (skrypt).Lorentzen Bengt,  An Introduction to Electric Music. New York 1970, Praeger.Moog Robert A.,   Electronic Music: its Composition and Performance. „Electronic World”

1967 nr 2.Risset Jean-Claude,  Musical Acoustics, „Rapports IRCAM” 1978 nr 8.

St ra ng e Allen, Electronic Music: Systems, Techniques and Controls. Wyd II, Dobuque (Iowa)1983, W. C. Brown Publishers.

Tempelaars Stan,   C.A.G.M.,   Sound Signal Processing. Tłum. z holend. Ruth Koenig.Utrecht 1977, Institute of Sonology (skrypt).

Vink Jaap, Buxton Bill,  Studio Manual. Utrecht 1974, Institute of Sonology (skrypt).Wy ma n Dan,  Moog Modular Owner’s Manual. Los Angeles 1981, Sound Arts.Wells Thomas H.,  The Technique of Electronic Music. New York 1981, Schirmer.

Ponadto katalogi i materiały firm produkujących syntezatory, jak np.: ARIES, ARP, KORG,MOOG, OBERHEIM, POLYFUSION, ROLAND, SYNTHI, YAMAHA.

IV. STUDIO CYFROWE (KOMPUTEROWE)A r f ib Daniel, Digital Synthesis of Complex Spectra by Means of Multipliction of the Non-Linear

Distorted Sine Waves. „Journal of the Audio Engineering Society” 27, 1979.

357

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 358/381

Bibliografia

Banks J. D., Berg P., Theriault D.,  SSP, a Bi-parametric Approach to Sound Synthesis.„Sonological Reports” Utrecht, 1979 nr 5.

Bańkowski Jacek, Fiałkowski Konrad,   Wprowadzenie do informatyki, Warszawa 1978,PWN.

Bańkowski Jacek, Fiałkowski Konrad, Odrowąż-Sypniewski Zbigniew,   Progra-mowanie w języku FORTRAN . Wyd. V, Warszawa 1978, PWN.

Bas tia ans M., Gabor’s Expansion of a Signal into Granular Elementary Signals . „Proceedingsof the IEEE” 68, 1980.

B at em an Wayne, Introduction to Computer Music. New York 1980, Johne Wiley Inc.B er g Paul, PILE — a Language for Sound Synthesis. „Computer Music Journal” 1978 nr 1.Bu śk o Bernard, Śl iw ie ńs ki Janusz,   1000 słów o komputerach i informatyce. Warszawa

1982, Wydawnictwa MON.Buxton William A. S.,   A Composer’s Introduction to Computer Music. „Interface” June

1977.Buxton William A. S., Fedorkov Guy,  The Structured Sound Synthesis Project   (SSSP).

„Technical Reports University of Toronto” 1978 (skrypt).Ca d oz Claude, L uc ia ni Annie i Fl or e ns Jean Loup CORDIS-ANIMA: A Modeling and

Simulation System for Sound and Image Synthesis — The General Formalism. „ComputerMusic Journal” 1993 nr 1.

Ch ow ni ng John M.,   Computer Simulation of Music Instruments in Reverberant Environ-ments. Stanford 1974.

—   Synteza złożonych widm akustycznych przy pomocy modulacji częstotliwości. Tłum. W.Kotoński. „Zeszyt Naukowy” nr 31, Akademia Muzyczna w Warszawie, 1995. Wyd.oryg.: The Synthesis of Complex Audio Spectra by Means of Frequency Modulation. „Journalof the Audio Engineering Society” 1973 nr 1, przedruk w: „Computer Music Journal”

1977 nr 2.—  The Simulations of Moving Sound Sources. „Journal of the Audio Engineering Society”1971 nr 2–6.

—  Computer Synthesis of the Singing Voice. »KTH Skriftserie« Stockholm, 1981 nr 29.Cook Perry R.,   SPASM, a Real-Time Vocal Tract Physical Model Controller, and Singer, the

Companion Software Synthesis System. „Computer Music Journal” 1993 nr 1.Dashow J.,  Three Methods for the Digital Synthesis of Chordal Structure with Non-harmonic

Partials. „Interface” 1978 nr 2–3.De Po l i Giovanni,  Przewodnik po technikach syntezy cyfrowej. Tłum. E. Sielicki. „Zeszyt

Naukowy” nr 31, Akademia Muzyczna w Warszawie, 1995. Wyd. oryg.  A Tutorial on

Digital Sound Synthesis Techniques. „Computer Music Journal” 1983 nr 4.—  Digital Music Systems   (nie sygn.),  DMX-1000 Programming Manual. Boston 1979, wyd.II 1981.

Fo er st er Heinz von, Be au ch am ps James W. (red.),   Music by Computer. Au-torzy: J.W. Beauchamps, H. Brun, D. Freedmann, L. Hiller, M.V. Mathews, J. R. Pierce, J. K. Randall, A. Roberts, L. Rosler, G. Strang, H. Foerster. NewYork–London–Sydney–Toronto, b.r. (ok. 1967), John Wiley and Son Inc.

Gabor Dennis,  Acoustical Quanta and the Theory of Hearing, „Nature” 159, 1947.Gena Peter,  MUSICOL Manual, Version 1. Buffalo (New York) 1973, State University of 

New York in Buffalo, Technical Report No. 7 (skrypt).Getrich Frank, Gerlach Julia i F ollmer Golo,   Musik... verwandelt. Das elektronische

Studio der TU Berlin 1953–1995. Berlin 1996, Alex Meintker.Gr og o no Peter,  MUSYS, a Compiler for VOCOM. New York-London 1973, Informations

from International Voice Movement, Inc.

358

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 359/381

Bibliografia

Hiller Lejaren,   Muzyczne zastosowanie elektronicznych maszyn cyfrowych. Tłum. BarbaraRoehr. W:  Horyzonty muzyki, Kraków 1970, PWM.

— Z prac Studia Muzyki Eksperymentalnej University of Illinois. Tłum. Krystyna Dobrzyńska.W:   Horyzonty muzyki, Kraków 190, PWM.

Hinton Michael,  IMPAC, Stockholm 1979, Elektron Musik Studion (EMS) (skrypt).Ho l m Frode,   Zrozumieć realizacje FM, potrzeba standaryzacji. Tłum. W. Kotoński. „Zeszyt

naukowy” nr 31, Akademia Muzyczna w Warszawie, 1995. Wyd. oryg.:   UnderstandingFM Implementations: A Call for Common Standards. „Computer Music Journal” 1992nr 1.

Ho w e Hubert S.,  Electronic Music Synthesis. New York 1975, Norton and Co. J u n g le i b Stanley,  General MIDI , Madison (Wisconsin) 1995, A-R Editions.Kaegi Werner,  A Minimum Description of the Linguistic Sign Repertoire. Cz. I: „Interface”

1973 nr 2, cz. 2: „Interface” 1974 nr 3.Ka eg i Werner, Te mp el aa rs Stan,   VOSIM, a New Sound Synthesis System. „Journal of 

the Audio Engineering Society” 1978 nr 6.

Kotoński Włodzimierz (red.)  Modulacja częstotliwości jako metoda syntezy dźwięków złożo-nych. „Zeszyt Naukowy” nr 31, Akademia Muzyczna w Warszawie, 1995.

LeBrun Marc, Digital Waveshaping Synthesis. „Journal of the Audio Engineering Society”1979 nr 4.

Mathews Max V.,   The Electronic Sound Studio of the 1970’s. „La Revue Musicale” nrspecjalny:  Music and Technology, 1970.

—   The Technology of Computer Music   (współpr.: J. E. Miller, F. R. Moore, J. R. Piercei J.-C.Risset), Cambridge (Massachusetts) — London 1969, MIT Press.

Mathews Max V., Moore F.R.,  GROOVE a Program to Compose, Store and Edit Functionsof Time. Murray Hills (New Jersey) 1970, ACM Materials.

Ma th ew s Max V., Mo or e F. R., Ri ss et J.-C.,   Computers and Future Music, „Science”1974 nr 1.Misiurewicz Piotr,  Systemy mikrokomputerowe. Warszawa 1982, Wyd. Szk. i Ped.Moore F. Richard,   Computer Controlled Analog Synthesizers. Murray Hills (New Jersey)

1974, Bell Telephone Laboratories (skrypt).Mo or e r James A.,  Zastosowanie wzorów sumacyjnych w syntezie dźwięku  (tłum. K. Czaja).

„Zeszyt Naukowy” nr 31, Akademia Muzyczna w Warszawie, 1995. Wyd. oryg.:  TheSynthesis of Complex Audio Spectra by Means of Discrete Summation Formulae. Stanford1975, Department of Music Reports.

—  Signal Processing Aspects of Computer Music — a Survey . „Computer Music Journal”

1977 nr 1.—   The Use of Linear Prediction of Speech in Computer Music Application . „Journal of theAudio-Engineering Society” 1979 nr 3.

Moorer James A., Grey John, Lexicon of Analysed Tones. Cz. 1: A Violin Tone, „ComputerMusic Journal” 1977 nr 1; Cz. 2:  Clarinet and Oboe Tones, „Computer Music Journal”1977 nr 3.

Pi ot ro ws ki Zbigniew,  O zastosowaniu komputerów w muzyce. „Ruch Muzyczny” 1984 nr18.

Rakowski Andrzej,  O zastosowaniu cyfrowych maszyn matematycznych do muzyki. „Mu-zyka” 1962 nr 3.

Risset Jean-Claude,  An Introductory Catalog of Computer Synthesised Sounds. Murray Hill(New Jersey) 1969, Bell Telephone Laboratories.

Roads Curtis,  Granular Synthesis of Sound, W: C. Roads i J. Strawn (red.),  Foundations of Computer Music, Cambridge (Massachusetts) 1985, MIT Press.

359

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 360/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 361/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 362/381

Indeks rzeczowy

acousmonium   45, 344–346addytywna synteza zob. synteza

addytywnaADSR (attack, decay, sustain, release) zob.

generator obwiedni ADSRaeterophon   15, 19, 57, 105, 205after touch response   260, 279, 281, 296akusmatyzm   47, 320, 343aleatoryzm   38,  49,  53,  60,  128, 150–152,

174, 196, 276, 347alfanumeryczny (zapis, postać)   60,

222–224, 228, 236, 289

ALGOL   232algorytm   60, 228–229, 277, 294–296, 301algorytmiczna muzyka   61AM (amplitude modulation) zob. modula-

cja amplitudyAM-SC (amplitude modulation with

suppressed carrier) zob. modulacjaamplitudy z wytłumioną falą nośną(modulacja kołowa)

ambiofonia   31, 83

analiza(dźwięku)   217cyfrowa   230

analiza-synteza   254analizator

kanałowy   308obrazu   223

analogowestudio   157–214,  231, 236, 241, 276urządzenia   61, 63,  101, 105, 221, 227,232, 257, 303, 305, 315, 316

aproksymacja   217AR (attack release) zob. generator

obwiedni AR

argument   226, 228, 310Aries (syntezatory)   184, 187ARP syntezatory   59, 159, 186–189ASCII   274asembler zob. języki symboliczneASP   71audiowizualne spektakle   45,   47,   213,

352, 353„automatyczny dyrygent”   65„automatyczny kompozytor”   196AUTOPERFORM   72

 bajt (byte)   224, 225band pass  ( filter) zob. filtr środkowoprze-

pustowyband reject   ( filter) zob. filtr środkowo-

-tłumiący (środkowo-zaporowy)band reject  (odrzucenie pasma)   169band width   zob. szerokość pasmaBASIC   293bendout   311Bessela funkcja   243, 244, 246

 bezpośrednia (cyfrowa) synteza dźwięku233, 239, 258, 302, 303, 308 binarne

liczby   219, 222przedstawienie   218, 219, 222–224

 binarne słowo zob. bajtbio-feedback   56 bit   225, 299, 300, 306, 307 blank   79 blattnerphon   19 blok

(dźwiękowy)   38,  102,  133,  134,  138,145, 146, 148–150, 177, 323danych   224

362

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 363/381

Indeks rzeczowy

programowy   300, 313, 329 bramka, napięcie bramki ( gate)   109, 110,

150, 164,  165, 170, 171,  178, 179,  182,201, 203, 204

 bruitystyczne myślenie   206–209

 bruityzm   16, 17, 206Buchla (syntezatory)   184, 187, 190, 303

canon  (wtyk)   93carriage return   268,  269carrier   zob. sygnał nośnyCasio (syntezatory)   285, 294centralna jednostka operacyjna (central

 processing unit CPU )   225centralne sterowanie   225

CHANT   71, 266–270charakterystykaczęstotliwości ( frequency response)   169przenoszenia   113–114,  115, 118

chip   299„chmury dźwiękowe”   38,  39,  61,  196,

254, 256, 257chorus effect   122, 125, 191, 285, 300, 301cinch  (wtyk)   93clavioline   19clipping   zob. obcinanie sygnałówclock   zob. „zegar”COBOL   293collage   31, 46,  79colored noise   zob. szum barwnyCOMPOSER   289, 291console de m´ elange   zob. konsoleta (stół

mikserski)continuum dźwiękowe   131–133control input   zob. wejście sterująceCORDIS-ANIMA   277

cross field   zob. krosownicaCUBASE   233cut-off frequency   zob. częstotliwość

granicznacyfrowa rejestracja na twardym dysku

312–313,  317, 319cyfrowa synteza dźwięku   60, 62–64, 215,

216–221,  233,  236,   237–278,  285,  290,293, 296, 298

cyfrowymieszany system   63, 215zapis dźwięku (rejestracja)   77,   86,220–221,   228,  234,  257–259,   312–313,317, 327

czas realny (rzeczywisty)   59,   81,  150,157, 158, 170,  171, 179,  196,  197, 236,257, 268,  274,  280–283,  289,  299,  300,303, 309, 319

częstościomierz   107, 108

częstotliwośćgraniczna   114,  157, 167–170, 176, 203,209, 219modulująca   243, 244, 248, 250nośna (carrier frequency)   243,   244,248–250próbkowania (gęstość p.) (samplingrate)   175, 218–220, 291rezonansowa   118,  262środkowa (centre frequency)   114,

261–263, 265, 267, 268wzbudzenia   267, 268

czytnikkart perforowanych   222taśmy perforowanej   274

dalekopis (maszyna drukująco-kodująca)222

dane   222,  223,  225,  226,  228,  234,  236,239, 241, 242,  248, 253,  255,  256, 258,

263,  264,  267–269,  274,  279–281,  283,289, 291, 293,  296, 303,  306,  307, 311,315, 316, 326tymczasowe (default values)   269, 310

DBX   77, 78DCMP   71delay, sound delay   zob. opóźnieniedemodulacja   178demodulacja obwiedni   178destructive editing   316

detektoramplitudy   178obwiedni (envelope follower)   112,  158,178–179,  203, 213

detektor kształtu zob. detektor obwiednideviation   zob. odchylenie szczytowedifonia   343Digidesign DAE Power Mix   313Digital Audio Workstation   317digital recording   zob. cyfrowy zapis

(rejestracja) dźwiękudigital sequencer   zob. sekwencer cyfrowyDIN-Stecker (Norm-Stecker)   92, 280DISCORD   71

363

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 364/381

Indeks rzeczowy

DMX 1010   284Dolby   77, 78domieszka szumowa   201, 202drganie tłumione   252drukarka

alfanumeryczna   293wierszowa   222, 228

drum machine  (syntezator perkusji)   300dudnienie   146, 205, 206, 248Dynacord ADD TWO   300dynamic voltage  zob. napięcie dynamicznedynamophone   15, 18dysk

elastyczny ( floppy disc)   225twardy (hard disc)   225,  228, 236, 287,

311–313, 315, 317, 319dyskietka zob. dysk elastycznydyskretne wzory sumacyjne (discrete

summation formulae)   250–252dystrybutor kanałów   285, 289, 293dzielnik

częstotliwości   191napięcia   193

dźwiękelektroniczny   51,  52,  150, 199harmoniczny   27,  107,  120,  122,  137,144, 147–149, 163, 204konkretny   14, 40, 44, 79, 125, 149, 157naturalny   14,  21,  24,  27,  44,  50,  62,65, 73, 80, 119, 125, 126, 133, 138, 140,145, 147,  150, 164, 178,  179, 203,  230,231, 238,  241, 242, 248,  254, 257,  258,266, 270, 276, 289, 292, 301, 318, 319stacjonarny   27, 86, 287syntetyczny   27,  30,  46,  66,  125, 129,133, 144,  145, 202, 208,  230, 238,  242,

266, 318, 319ułomny   79dźwignia sterująca, dźwignia X–Y

( joystick)   158, 172, 205, 303

echo   21,  28,  56,   82–83,  86,  87,  122, 123,299, 344

editing   79efekt

 bramkowania   110, 111Larsena   56

efektydźwiękowe (akustyczne)   21,  67,  109,190, 198, 204, 269, 307

elektroniczne   50, 204ekran kineskopowy   223ekspander   187, 197ekstraktor tonu krtaniowego   305, 306electro-acoustic music   zob. muzyka

elektroakustycznaelectronic music   15elektrische Musik   14elektroniczny montaż   65elektronische Musik   14, 15elektronium   51, 52EMS   63, 71EMUS   70ENIAC   19envelope follower   (EF) zob. detektor

obwiednienvelope generator   (EG) zob. generatorobwiedni

envelope shaper   zob. kształtownikobwiedni

environment  (otoczenie)   53,  55

Fairlight CMI   239,   284–286,   289–293,294, 308

Fairlighta Computer Music System (CMS)63

falaakustyczna (ciśnieniowa)   88,   103, 105,123, 217nośna (carrier)   119, 142radiowa   103

fale Martenota (ondes Martenot)   14,  15,19, 105, 173, 205

 farbiges Rauschen   zob. szum barwnyFendera pianino   100, 190filtr

cyfrowy (rekursywny)   237, 240, 286,299–301dolnoprzepustowy   36,  58,  113,  116,122, 137, 167,  168, 177,  200,  219, 287,300górnoprzepustowy   36,  58,  113,  122,137, 167, 300pasmowo-przepustowy   305rekursywny zob. filtr cyfrowysterowany napięciem VCF (voltagecontrolled filter)   58, 158,   167–169,  170,176środkowo-tłumiący (środkowo-zapo-rowy)   113, 167

364

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 365/381

Indeks rzeczowy

środkowoprzepustowy (pasmowo--przepustowy)   113–115, 118, 122, 137,148, 167, 200, 201, 261wielopasmowy   114–118,   158,   197,299, 300

wygładzający   236FINALE   233FIR ( finite–impulse response) zob. filtr

cyfrowy flanger   301 floppy disc   zob. dysk elastycznyfonemy   263, 269„forma” (dźwięku)   136,   138–140,   149,

164, 202formanty (pasma formantowe)   115,

118,  167,  202,  232,  241,  259,  261–265,267–269, 305formowanie sygnału zob. kształtowanie

sygnałuFORTRAN   226, 232, 233, 236, 269Fouriera

analiza   238, 254szybka transformanta   282, 287teoria   143

frakcjonowanie dźwięków   79 frequency counter   zob. częstościomierz frequency response   zob. charakterystyka

częstotliwości frequency shifter   zob. przesuwnik widmaFrequenzumsetzer  zob. przesuwnik widmafunkcja

ciągła   217cosinus   234, 253dyskretna   217, 270, 291kształtująca   252, 253losowa   234

modulująca   265sin2 273sinus   234, 267

futuryzm   16, 17

 gate   zob. bramkagenerator

(jednostka programowa)   234–235, 237cyfrowy   63,  103,  105,  239,  284,  285,291, 292, 294dekadowy   104, 105drgań periodycznych (okresowych)104–105, 107, 108drgań piłowych   144, 148

hardwarowy   237, 284impulsów (prostokątnych)   27,  36,  74,103,   109–111,  138,  144,  149,  150,  194,305, 306kwarcowy   191

liczb losowych   256modulujący   201, 204, 235napięć przypadkowych (random voltage

 generator)   158, 174,   175–177,  203,  205obwiedni   58,   102,   139,   149,   158,164–167,  168,  170,  188,  189,  191,  200,202, 204, 208, 300obwiedni ADSR   165, 170, 193, 295obwiedni AR   164, 189specjalny zob. voltage processor

sterowany napięciem VCO (voltagecontrolled oscillator)   58,  103,  157,  158,159–162,  167,  170,  174,  176,  178,  180,209sygnałów sinusoidalnych (g. tonówprostych)   25, 36,  51,   104,  194sygnałów trójkątnych   194szumów (noise generator)   25,   58,111–112,  158,  177,  194,  201,  203,  301,305, 306zegarowy zob. „zegar”

gęstość próbkowania zob. częstotliwośćpróbkowania

gier teoria   61 glissando   84, 134, 136, 142, 150, 161, 169,

172, 173, 188, 193, 205, 269, 279, 297głębokość modulacji   209„głos” (syntezatora)   186,  193,  199–201,

242, 296, 303głowice

magnetyczne   82, 83,  86,  88–90

wirujące   85,  220GM  (General MIDI )   282, 283GMEBAPHONE   346GMEBOGOSSE   46graficzne urządzenia zwrotne   223

 graphic equalizer   zob. korektor wielopa-smowy

GROOVE   61, 63, 70, 233,   302–303

Hallerphone   346happening   53hardware   zob. sprzęt komputerowyharmonizer   299high-pass   zob. filtr górnoprzepustowy

365

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 366/381

Indeks rzeczowy

HYBRID IV   63, 71, 233, 303hybrydowy system   63, 214, 215,   302–308

I-Ching (I-Czing)   65IIR (infinite–impulse response) zob. filtr

cyfrowyIlliac   60IMPAC   71, 303impuls

(prostokątny)   82,  83,   109–111,   144,148–150, 153wyzwalająco-bramkujący (S-trigger)178wyzwalający (trigger,  V-trigger)   165,167, 170, 176, 179, 181, 182, 208, 300

zegarowy (próbkujący)   173,  175,  176,182IMSAI 8080   71increment   zob. przyrost zagęszczeniainstrukcja   228, 229, 233, 236„instrument”   9,  13,  59,  202,  227,  231,

234–237,  239,  248,  249,  255,  260,  261,265,  279–283,  286,  291,  298,  300,  326,329

interaktywne sterowanie   303, 307interfejs użytkownika   309interpolacja   272intonarumori   16IRMA   62, 233iteracja   74,  83, 125, 138, 143, 204

 jack plug  (wtyk telefoniczny)   93 JANUS   71 jednostka

arytmetyczno-logiczna   225operacyjna (operator)   234,   294,   295,

313 jednostka centralna zob. centralna jednostka operacyjna

 językgraficzny   309maszynowy (j. wewnętrzny)   226, 227,233programowania   62,  63, 226–229, 232

 językialgorytmiczne   226–229, 233obiektowe (object oriented languages)309problemowe   226–228sformalizowane   226

symboliczne (asemblery)   226,   227,233, 236ukierunkowane problemowo   62

 joystick   zob. dźwignia sterująca

kanały MIDI   279–281,   297,   298,   301,313–315

keyboard controller   zob. klawiaturanapięciowa

Klang  (dźwięk harmoniczny)   144Klanggemisch   zob. wielodźwięk„klatki” dźwiękowe   254, 257, 287, 292klawiatura

alfanumeryczna   222–223,   282,  289,

291, 297MIDI   279, 280, 282, 284, 285, 299–301muzyczna (w syntezatorach cyfro-wych)   289napięciowa   57–59, 158, 160, 165, 167,169–172,  181,  182,  184,  190–193,  195,196,  200,  201,  203–205,  208,  210–212,222, 232, 235, 260, 303

kod, kodowanie   218, 222, 226, 233, 236,237, 240, 260,  278, 299,  303,  307, 308,

311, 313, 315, 316, 322, 326komora pogłosowa   123,  138, 147kompresor   101, 187komputerowa synteza dźwięku   73, 145komutacja   50,  58,   91–93,   184–186,   195,

198, 210, 303konsola konwersacyjna (terminal)   268,

274, 286, 291konsoleta (stół mikserski)   22,  36,  40, 41,

50,  51,  58,  59,  73,  74,  77,  80,  82,  83,

87,  94–98

,  102,  108, 115, 124, 138, 139,146, 149–151, 154,  155,  184,  187,  197,198, 315, 327, 341, 342, 345, 346, 350

konwersja analogowo-cyfrowa   217–220konwersja cyfrowo-analogowa   182,

217–219,  220, 230, 268, 271, 272konwerter

analogowo-cyfrowy ADC(analog-to-digital converter)   218,222, 259, 284, 289, 299, 303, 306cyfrowo-analogowy DAC(digital-to-analog converter)   63,   219,222,  226, 236,  258, 268,  270,  274, 293,299–301

366

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 367/381

Indeks rzeczowy

częstotliwości na napięcie ( pitch-to--voltage converter)   176,   179–180,  181,213, 306

korektor   77,  89,  112, 115, 136, 137, 148,158, 190, 197, 313, 341, 346

wielopasmowy   118Korg (syntezatory)   159,   186–188,  278,

297, 298, 302Korg T-1 Workstation   302„koszulka” (shirt)   262, 265krosownica   40,  58,   91–93,  166,  184, 185,

198, 303kształt dynamiczny zob. obwiedniakształt obwiedni   257kształt sygnału   103,  104,   105–108,  165,

189, 193,  202, 206, 223,  234, 254,  257,270, 284, 287, 290–292, 298, 301kształtowanie sygnału (wave shaping)

237,   252–253,  289kształtownik obwiedni (envelope shaper)

30,  89,  121,   166–167,  176, 209kursor   224kwadrofonia   41, 76, 155, 212, 343kwant   218, 253, 254kwantowa teoria   253kwantyzowanie   217–219

LED (Light Emitting Diode)   299Lexicon PCM-80   299liczby losowe (pseudolosowe)   60,   61,

252, 257, 274licznik impulsów (zegarowych)   212light pen   zob. pióro świetlnelimiter   zob. ogranicznik amplitudyliniowe kodowanie predyktywne LPC

(a linear predictive coding)   240

liniowy sygnał   95lista   259, 271–274, 310live electronic   zob. muzyka elektroniczna

na żywoloop   zob. pętlalosowo-zmienne (wartości, przebiegi)

175low-pass   zob. filtr dolnoprzepustowy

macro (program)   62magnetyczna tablica (graficzna)   285magnetofon

cyfrowy (DAT)   220, 259, 260, 319o zmiennej prędkości   83–84

pogłosowy   86–88,  124, 143, 190wielośladowy   76,  77,  81,  89,  96–98,148, 196, 197, 203, 212, 213

magnetowid   220makrorozkazy   229, 233

Mark II (syntezator)   57, 59, 63Markova łańcuchy   60, 61„masa” (dźwięku)   61, 134,   136,   141–142,

150, 161, 277„maskownica”   271, 273master keyboard   300,  301master oscillator   193master tune control  (centralny dostrojnik)

171materia (dźwiękowa)   136–138,   140,

142–144, 147–149, 202, 208, 242materiałelektroniczny   128, 129,   143–151konkretny   128,   129–131,  142, 149, 151przejściowy   143wyjściowy   35,  36,  38,  40,  102,  127,129–130,   134,  137–139,  143,  145,  148,151, 198, 211, 302

MAX   289,   309–312melochord (Bodego)   25melodium (Bodego)   19metamuzyka   36MIDI ( Musical Instrument Digital Interface)

194, 226,  234,  235,  260,   278–283,  284,285, 297–301, 308,  309,  311,  313,  315,317

MIDI — IMA (International MIDI  Association)   278, 281

 MIDI Implementation Chart   281miernik

VU (volume unit meter)   97

wysterowania   77,  78,  89,  90, 315wysterowania szczytowego ( peak-to--peak meter)   97,  107, 108, 197

mieszacz   89,  94,  96,  119,  158,  162,  187,231

mikrofon kontaktowy   50,  60,   100,   123,124

mikrokomputer   222, 226, 297, 319mikromontaż   143, 259, 260, 312mikroprocesor   9,  62,  181, 220, 226, 237,

284, 289, 292, 294, 300, 301mikrostruktura   270mikser   313

cyfrowy   300

367

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 368/381

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 369/381

Indeks rzeczowy

MUZYS   63, 71,  233, 303, 307, 308„mysz”   224, 309–311

nagranie cyfrowe zob. cyfrowy zapisdźwięku

napięciedynamiczne (dynamic voltage)   170,171,  193losowo-zmienne (random voltage)175–177skokowo-zmienne   110, 171, 174, 175,200sterujące (control voltage)   58,   103,158–163,  165,  167,  168,   170–171,   172,174,  178–180,  182,  184,  187–189,  201,

205, 306wolno-zmienne   203wyzwalająco-bramkujące   170,   178,179, 181

NEDIT   71nielinearna charakterystyka przenoszenia

123nielinearne

przekształcenia sygnału   239, 241systemy syntezy   231

noise generator   zob. generator szumunon destructive editing   312„normalizacja”   252NOTATOR   233notch  (szczerba)   169notebook   226novachord   19NTSC (standard)   316„nuta”   200, 201, 204, 227,  234–237, 248,

249, 279, 289, 321, 329

obcinanie sygnałów (clipping)   188–189Oberheim (syntezator)   278obiekt   309–311, 347object sonores  zob. przedmioty dźwiękoweobwiednia

„harmoniczna”   287, 288amplitudowa   252, 255

obwiednia (envelope)   37,   73,   102,  136,139, 140,  147, 164, 166,  170, 175,  178,184,  188,  193,  200–203,  205,  208,  209,212, 223,  224, 235, 238,  239, 254,  257,284, 287,  290, 291, 295,  298, 305,  306,322, 323

odchylenie szczytowe   243

ODRA 1304   64odstęp sygnałów od szumów   219odwracanie napięcia   188–189ogranicznik

amplitudy (limiter)   101, 187, 197zbocza (slew limiter)   189–190, 197, 203

okienko robocze ( patcher window)   309–311onde sinuso¨ ıdale   zob. sygnał sinusoidalnyondes Martenot   zob. fale Martenotaoperator   zob. jednostka operacyjnaopóźnienie   52,  56,  63,   83,   86,  88,  124,

125, 139, 143,  150, 152,  213,  221, 280,299, 301, 312

oprogramowanie systemowe   221,227–228

optyczny zapis dźwięku   19, 66, 81organy elektryczne   52,  59,  62, 190organy Hammonda   14, 19, 51, 143„orkiestra głośników” zob. acousmoniumoscillator   zob. generatoroscylograf    36, 222oscyloskop   107, 108ostinato   82, 128, 134, 143, 181, 184, 203„otoczenie” zob. environment

 pad   300pamięć

 buforowa   224cyfrowa   221,   224–225,  227,  233,  235,236, 238, 239,  253, 255,  258,  272, 282,289, 291–293, 298,  300,  307,  313,  315,316, 319dyskowa   224, 225, 227, 268, 287, 290operacyjna   224–226, 258, 259RAM (random access memory)   224,

282, 289, 301, 313rdzeniowa (core memory)   225ROM (read only memory)   224,  296taśmowa   225wewnętrzna (główna)   224,  225,  287,296, 298zewnętrzna   224, 287, 292

panorama   96panoramowanie sygnału   94,  188parametry   26,  138,  145,  257,  279,  299,

300partytura

(muzyki elektronicznej)   27,   38,  39,51, 76, 79, 102, 128, 138, 145, 149, 152,

36924 – Muzyka elektroniczna/ PWM 20215

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 370/381

Indeks rzeczowy

153, 280,  282, 303, 319,  323, 324,  326,327, 329, 341do słuchania ( H   orpartitur)   327,  335,336graficzna   326, 332

PASCAL   293PATCH IV   303PCM (Pulse Code Modulation)   220, 258PDP-15   33, 274permutacja   254, 272peryferyjne urządzenia   175, 222, 259pętla (taśmy), pętla dźwiękowa   22,  39,

50,  54,  73,  74,   81–82,   84,  86–88,  118,143, 150,  154, 181, 184,  196, 208,  209,213, 229, 260

pętle sprzężenia zwrotnego   208 phone plug   zob.   jack plug phonogene   84–85,  86, 142 physical modelling   zob. modelowanie

fizycznePILE   71

 pink noise   zob. szum różowypióro świetlne   63,   223,  289–292PIPER   63, 302

 pitch bend   173,  279, 297, 300, 311

 pitch-to-voltage converter   (P-VC) zob.konwerter częstotliwości na napięciePLAY 1800   71,  268plotter   222płyta

dotykowa (touch sensitive plate)   52pogłosowa   123–124, 125, 138, 147, 190

POD   62, 71, 72, 233podakustyczny

sygnał   103, 203, 299

zakres   208, 209podprogram użytkownika (users subrouti-nes)   269

podprogramy   226–229,   231,   233,   234,236, 252, 269, 274, 279, 284, 312

podtrzymanie (sustain)   279, 297podział klawiatury (split)   297,  301poezja konkretna   57pogłos   21,  35,  38,  49,  52,  73,  81,  83,  87,

94,   99,   109,   115,   122–126,   130,   138,140, 147,  149, 150, 153,  154, 190,  202,204, 205,  208, 209, 212,  213, 220,  260,299, 301, 312, 317, 323, 327, 341

pogłos cyfrowy   124–125,  190

pogłosowe urządzenia   50,  89,   122–126,138, 149, 158, 197, 198, 201, 205, 302

pole krzyżowe (cross field)   198Polyfusion (syntezatory)   159, 187, 197Polymoog   159, 186,   190–195,  283,  293

 portamento   136,  150,  172,  173,  189,  193,202, 205, 269, 293, 297

postsynchron   67,  81poziom wysterowania   78,  94,   101–102,

146, 342preset   195, 259, 283, 298, 300–302, 317presynchron   67procesor   221–224,   225–226, 228, 289, 291,

293, 299, 301, 303, 313produkt modulacji   119–120, 122, 161–163,

244, 247profil dynamiczny   102,   138,  139,  145,

149, 150, 164, 174, 202, 203, 208, zob.obwiednia

programgłówny   233, 236, 303kompozycyjny   329komputerowy   214,   224,   227,   230,279–282, 311, 326sekwencerowy   279

użytkownika   227, 228, 233wejściowy   236 program change   279program tłumaczący zob. translatorPROJECT 1   71,  232, 270PROJECT 2   71,  270, 276projekcja

dźwiękowa (akustyczna)   74, 329, 340,341, 345, 346przestrzenna (wielokanałowa)   31,  32,

47, 48, 155, 289,  329–347

Proteus/2XR   302Pro Tools   312,   313–317próbka   253, 257–260, 289, 291, 292, 297,

298, 301, 302, 312próbkowanie   101,   173–175, 182, 217, 218,

237, 254, 258, 301, 307, 312próbkująco-pamiętający układ (sample

and hold)   158,  171,   173–175,  176, 203,208, 213

przedmiotydźwięczące   50, 99, 100,   130dźwiękowe   44,  80,   131–136,   138–143,151–153, 195, 270, 321, 326

370

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 371/381

Indeks rzeczowy

muzyczne   131,   134,   137,   142,   143,200, 203wyważone   133, 134

przemiennikkształtu sygnału   162

napieć (interface)   184, 281, 293przenikanie dźwiękowe   15, 21, 81przesterowanie   78,  99,   188–189,  252przestrzeń akustyczna   125, 154przesunięcie

fazowe   56,  125,  143,  148,   154,  188,241, 285widma   120, 121, 137, 188, 261, 307

przesuwnik widma   121–122,  137przetwarzanie danych   222, 303

przetwornik   88,  90, 100, 103, 123, 277przyrost zagęszczenia (increment)   235,236, 265, 307

pseudostereofonia   154 pulse   zob. sygnał impulsowy

quasi-modular synthesizer   187

rachunek prawdopodobieństwa   61random access   312random voltage   zob. napięcie losowo-

-zmienneRCA Sound Synthesizer (Mark II)   29RCM (Realtime Convolution and Modula-

tion)   301„receptura”   326, 328redukcja

danych   239, 255, 257, 263, 307szumów   48, 77,  78, 212

regulator czasu (Zeitregler)   84–86,   141,142, 257

reiteracja   299repetitives   zob. minimal musicresynteza   254,   257–261,  287,  307rezonansowy układ   168, 261, 262RHYTHM   71rhythmicon   19ribbon controller   zob. wstęga sterującaRoland (syntezatory)   159, 184, 186, 187,

197, 278, 285, 297, 302D-50   297, 298W-30 Workstation   302

rosa Rauschen   zob. szum różowyRotationsmuhle   350RTMS 1   71

SAIL   65SAMBOX   71sample and hold   zob. próbkująco-

-pamiętający układsampler   234,   257–261,   281,   282,   287,

298–302, 317sampling   zob. próbkowaniesampling rate   zob. częstotliwość próbko-

waniaSamson Box   286saw tooth wave   zob. sygnał piłowyschemat

 blokowy (sieć działań)   89,  94,  166,228, 229, 234, 235montażowy   152

SCIPS   71score   zob. „partytura”SCORE   71SCRIPT   289sekwencer   50, 52, 158, 171,   181–184, 196,

203, 205,  234,  260,  278–282,  287,  289,291, 293,  294,  297,  298,  300–302,  308,311

sekwencer cyfrowy (digital sequencer)181–184, 297

sekwencje (dźwiękowe)   83,  181 ,  182 ,  184,195,  196,  203,  211,  235,  257–260,  268,271, 272, 274,  278, 279,  280,  282, 283,289, 291, 292, 299, 300, 312, 316

sekwencyjne urządzenieprzełączające (sequencial switch)   181sterujące (sequencial controller)   181

seria   252serializm   26, 37,  276SERVE   274

shape   zob. kształt sygnałushirt   zob. „koszulka”sieć działań zob. schemat blokowysignal processing   zob. kształtowanie

sygnałusilon ferm´ e   22sine wave   zob. sygnał sinusoidalnysine wave oscillator   zob. generator

sygnałów sinusoidalnych (g. tonówprostych)

SING   71Sinustongenerator   zob. generator sy-

gnałów sinusoidalnych (g. tonówprostych)

37124∗

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 372/381

Indeks rzeczowy

skanery zob. analizatory obrazuskładowe

(tony)   26, 140, 144harmoniczne   100, 107, 108, 110,  115,119, 120,  122, 137, 146,  148, 161,  164,

167, 180,  189, 200, 219,  238, 240,  241,247, 248, 262, 263, 291, 301nieharmoniczne   115,  120,  122,  125,138, 147, 161, 164, 167, 202, 219, 241

slew limiter   zob. ogranicznik zboczaslope   zob. stromość charakterystyki

(tłumienia)slow random  zob. wolny przebieg losowySMPTE (kod)   315, 316software   zob. oprogramowanie

solovox   19, 59sonorystyczne myślenie   203–206sonorystyczne podejście   128sound processing   ( processor)   299SPASM (Singing Physical Articulatory

Synthesis Model)   277spectrum   zob. widmosplit   zob. podział klawiaturysprężyna pogłosowa   124,  125, 138, 190sprzęt komputerowy   221–224,  274,  284,

300

sprzężenia bio zob.  bio-feedbacksprzężenie

(elektryczne) magnetofonowe   28,  74,77,   82–83,  87,  96,  143, 154, 208, 213zwrotne   299

square wave   zob. sygnał prostokątnySSP   71, 231, 270–276SSSP   72, 285ST (program)   61, 232, 233stacja pamięci magnetycznej   224

stacje robocze zob.  workstationstandard MIDI   278, 283stereofonia   19,  20,  76,  95,   154–156,  212,

213sterowanie

cyfrowe   63, 215napięciem   41, 57, 139,   157,  173, 181

Stille’a taśma   19stochastyczna muzyka   61STOCHOS   71stół mikserski zob. konsoletastromość

charakterystyki (tłumienia)   114zbocza   164

strójnaturalny   297równomiernie temperowany   297średniotonowy   297Werkmeistra   297

subharmoniczny (szereg)   18, 26subroutine   zob. podprogramsubtractive synthesis   zob. synteza

subtrakcyjnasumator   234, 235, 284sumulacja działań fizycznych   227sustain   zob. podtrzymaniesygnał

akustyczny (dźwiękowy)   88, 101, 144,179, 180, 216–218

cosinusoidalny   252cyfrowy   98,  234,  236,  241,  250,  257,258, 270, 274, 299, 303, 307foniczny   58,  62,  76,  77,  88,  94,  101,103, 105,  110–113,  121,  123,  158,  159,161–164,  167,  172–174,  176,  178,  179,182, 188, 190,  200, 201,  209,  220, 230,231, 236, 270, 284, 293, 303, 305impulsowy   104, 110, 162, 209modulujący   161,   163,  169,  175,  242,

243, 245, 249, 250napięciowy   63, 89,  165nieperiodyczny   272nośny   103,   161,  163, 177piłowy   104–107,  144,  162,  167,  188,191, 193, 202, 240, 250, 298, 307prostokątny   98,   104–108,  148,   162,171, 188, 189, 191, 193, 202, 240, 305sinusoidalny   51,  62,  97,  98,  103–108,119, 144, 162,  168, 189,  234,  238, 242,247, 250, 252, 255, 301sterujący   179syntetyczny   284trójkątny   104–107, 148, 162, 189

symetryzowanie dźwięku   80symulacja

działań fizycznych   227, 229komputerowa   216, 231, 277, 278procesów komponowania   61, 216

symulacja działań fizycznych   227Synclavier   63,  285, 293, 294Synclavier II   284,   286–289,  293, 308SYNLOG   70SYNTAL   71

372

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 373/381

Indeks rzeczowy

syntezaaddytywna   148,   237–239,   248,   284,285, 287, 289, 291, 297formantowa   264mowy   215, 240

subtrakcyjna   115,   148,   237,   238,240–241,  297, 300wektorowa   297, 298ziarnista ( granular synthesis)   253–257,292

asynchroniczna, 256, 257pseudosynchroniczna (quasi-synchro-

nous),  256synchroniczna ( pitch-synchronous),

255

syntezatoralgorytmiczny   294analogowy   60, 283, 291, 293, 303cyfrowy   60,   182,  194,  195,  197,  211,234, 237, 239, 242,   283–302,  318

syntezatory polifoniczne   159,   187,190–195,  200, 213, 283

Synthi (syntezatory)   41,  52,  59,  60,  159,166,  168,  171,  175,  182–184,  187,  188,190, 303

Synthi 100   159, 175, 182, 190, 197SysEx (System Exclusive Data)   281,  308system

komputerowy   62,   221–224,  231,  233,284, 285konwersacyjny   232

SYTER   72szerokość pasma   114, 262, 265szpilka (impuls)   170, 174szpilka (wtyk)   185sztuczna mowa   24, 305–307

szum barwny   112,  115,  138,  142,  144,  147,148, 201 biały   111 ,  112, 115, 118, 142, 144, 148,149, 174, 175, 177, 203, 240różowy   111, 112taśmy   78, 83

szumykwantyzacji   219, 220próbkowania   220

tablice (funkcji)   235,  246, 284, 285tape delay system   zob. urządzenie

opóźniające

tape music   zob. muzyka na taśmęTAUNUS   71TDM-bus   313TEACH   71teatr instrumentalny   53

telegraphone   18telharmonium   15tendency (wybór z „maskownicą”)   271thereminovox   15thru   280TIMBRE-TUNING   71tłumik

sumy   94, 95suwakowy   94, 96, 103, 118

ton

podstawowy   105,  107, 120,  136,  137,144, 193, 250,  259, 261,  262,  265, 267,269, 287, 306prosty   27, 73,  107, 127, 140, 143–145,147, 148

TONEAN   70Tongemisch   zob. wielotontor

elektroakustyczny   88, 90, 159foniczny   59,  74,  77, 89, 101, 102, 103mikrofonowy   94

touch sensitive plate   zob. płyta dotykowatranslator   227, 229, 233, 236, 303TRANSM   70transmit (mode)   281trautonium   14, 15, 19triangle wave   zob. sygnał trójkątnytrigger   zob. impuls wyzwalającytuchel (wtyk)   92

ultraletryści   57

Ultra Proteus Sound Module   300UPIC   71, 223, 329, 340urządzenia

graficzne   222, 236, 274, 289, 329opóźniające   50,  87,  88,  197, 286, 299,301wejścia i wyjścia (zewnętrzne)   89,221–222,  223, 228, 281, 285, 286

urządzenia pogłosowe zob. pogłosoweurządzenia

VAX/VMS (komputer)   268VCA (voltage controlled amplifier) zob.

wzmacniacz sterowany napięciem

373

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 374/381

Indeks rzeczowy

VCF (voltage controlled filter) zob. filtrsterowany napięciem

VCO (voltage controlled oscillator) zob.generator sterowany napięciem

Verz¨ ogerungsmaschine   zob. urządzenie

opóźniającevibrato   177,  193, 202, 203, 248, 269,  293,

297, 299VOCAB   307Vocoder   71,   303–308VOCOM   303–308voltage processor   187,  189VOSIM   71, 232, 256, 263–266, 285VOYEL   269VU (volume unit meter) zob. miernik VU

warstwadźwiękowa   55,  151–154, 156, 321, 324,326, 345montażowa   151, 152, 154, 155

warstwy wirtualne   315wave shape   zob. kształt sygnałuwave shaping   zob. kształtowanie sygnałuweisses Rauschen   zob. szum białywejście

liniowe   95magnetofonowe   95sterujące (control input)   162, 163, 170,171, 176, 178, 201, 309, 310

white noise   zob. szum białywidmo

akustyczne   26ciągłe   136, 144, 147, 149dynamiczne   238,  239,  241,  247,  248,250, 251,  253, 265, 278,  287, 289,  291,

295, 296formantowe   261, 263harmoniczne   219,  244, 247,  250–253,267nieharmoniczne   246,  247,  250–252,292stacjonarne   247, 272szumowe   292

wielkich liczb teoria Bernoulliego   61wielodźwięk (Klanggemisch)   82, 102, 140,

144, 145, 148, 151wielokanałowa projekcja   154–156wielomiany Czebyszewa   252–253wieloślad zob. magnetofon wielośladowy

wieloton (Tongemisch)   26, 27, 38, 82, 102,144–150, 247, 321, 323, 328

Winchester zob. dysk twardy„wirowanie dźwięku”   76wolny przebieg losowy (slow random)

177workstation   301–302,  311, 312wskaźnik modulacji (modulation index)

242–244, 247–251, 295, 297wstęga boczna   161, 243

sterująca (ribbon controller)   158,  173,193

wtórnik obwiedni zob. detektor ob-wiedni

wyjście sterujące (control output)   170,

309, 310wzmacniaczoperacyjny   96pośredni   95rezonansowy   118sterowany napięciem VCA (voltagecontrolled amplifier)   58,   139,   149,157–159,   162–164,  166–168,  170,  171,174, 176, 178,  187, 191,  193,  200, 201,204, 305, 306wstępny (mikrofonowy)   95

wzory sumacyjne   250

Yamaha (syntezatory)   186, 242, 278, 298,301DX7   43, 278, 285,   293–297,  301DX7II   297, 301SY   298, 301TX802   298

zapisgraficzny   321, 324, 326, 327, 329, 332

precyzyjny   326,  330,  331zbitki dźwiękowe   79zdarzenie dźwiękowe   39,  67,  79,  129,

130, 143, 150,  153, 154,  181,  195, 197,223, 253, 258,  265, 266,  268,  271, 279,281, 289, 291,  292, 321,  322,  326, 329,341

zdudnienie zob. dudnienie„zegar” (generator zegarowy,   clock)   173,

175,  176,  181,  182, 218,  226,  258, 259,279, 280, 303

Zeitregler   zob. regulator czasuzgrywanie warstw   79,   80–81,  154,  195,

197

374

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 375/381

Indeks rzeczowy

„ziarna Gabora”   253„ziarno” ( grain)   145, 253–257zmienna prędkość przesuwu taśmy   15,

66,  74,  77, 83–85, 141znak   225

zniekształcenia nieliniowe (nielinearne)108

zoom   315

źródła (dźwięku)   99,  125, 130, 132, 169,191, 198, 203akustyczne   60,  74,   88,  121,  129, 130,199, 241

elektroniczne   24, 74,  88, 125, 149, 321,343napięciowe   160,  162,   172–173,   182,184, 195, 203napięć

przypadkowych, 175, 177sterujących,  162, 173, 182, 198

naturalne   178

4X (Quatre X)   239, 285, 309

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 376/381

Indeks nazwisk

Aharonian Coriun   46Aimes Charles   62, 71Allouis Jean-Francois   45,  72Anhalt Istvan   69Antheil George   16Appleton Jon   46,  64, 65, 71Arel Bulent   30Arfib Daniel   254Armstrong Louis Daniel   130Artaud Antonin   41Ashley Robert   30, 53, 56,  70Asuar Jose Vincente   68

Autunes Jorge   69

Babbitt Milton   29, 30Bach Johann Sebastian   58,  203Baculewski Krzysztof   42, 45Badings Henk   32Barbaud Pierre   61Barbizet Pierre   45Baron Beebe i Louis   30, 67, 68Barriere Francoise   45, 54, 70

Bastiaans M.   254Bauer Marion   29Bayle Francois   44, 45, 68,  72,  344, 345Beauchamps James W.   61, 70Beethoven Ludwig van   17, 122, 203Behrman David   56Bejart Maurice   23, 24Belar Herbert   29Bell Graham   18Belson Jordan   53Bennet Gerald   266Berberian Cathy   32Berg Paul   33, 64,  71,  270, 274Berger Jonathan   65

Berger Roman   41Berio Luciano   31, 32, 46,  48,  68, 347Berliner Emil   18, 216Berlioz Hector   17Bernas Richard   70Beyer Robert   25Biel Michael von   70Bielińska Hanna   36Bieżan Andrzej   42,  57Blacher Boris   31Blattner Ludwig   19Bode Harold   19,  25

Bodin Lars-Gunnar   64,  71Boeswillwald Pierre   46,  346Bornemann F.   349Borowczyk Walerian   35, 54Boucourechliev Andre   31, 44Boulanger Nadia   23Boulez Pierre   22, 24,  25,  46, 64, 70Braunmuhl H. J. von   19Briscoe Desmond   68Brown Earle   28

Brun Herbert   31, 41,  65,  70Bruynel Ton   33Bruzdowicz Joanna   45Buchla Donald   52, 59, 157, 303Busoni Ferruccio   15,  16, 18, 28Buxton William   64, 72

Cadoz Claude   277Cage John   15,  17,  28,  29,  31,  50,  51,  53,

65, 68, 70Cahill Thaddeus   15, 18Canton Edgardo   44Cardew Cornelius   51, 70Carlos Walter   13,  58

376

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 377/381

Indeks nazwisk

Carson Philippe   44Castiglioni Niccolo   32Cerha Friedrich   69Chadabe Joel   71Chamass-Kyrou Mireille   44

Childs Barney   18Chion Michel   45, 134Chołoniewski Marek   42Chopin Fryderyk Franciszek   132Chopin Henry   57Chou Wen-Chung   18Chowning John M.   62, 71, 231, 241, 242,

244, 248, 249Ciamaga Gustav   63,  64,  69, 72, 302Clementi Aldo   32

Clough J.   62, 233Clozier Christian   45, 54,  70,  346Cochini Roger   46Cockerell David   307Cohen Milton   53Conyngham Barry   72Cowell Henry   17, 19,  29Crosland A.   19Crumb George   52Cummings Edward Estlin   57Cunningham Merce   53

Czaja Krzysztof   11, 42,  43

Davidovsky Mario   30,  68Davies Hugh   51, 70Debussy Claude Achille   203Devarahi   210Dietrich Heinz-Paul   41Dissevelt Tom   32Długosz Magdalena   42Dobrowolski Andrzej   37, 38, 40, 48, 126,

150, 328, 331, 334

Dodge Charles   65, 71Dufour Dennis   335Dufrene Francois   57

Easty Peter   307Eberhard Dennis   41Edison Thomas Alva   18, 216, 217Egk Werner, właśc. W. Mayer   19Eimert Herbert   15, 25, 26, 48, 68, 76, 81,

82,  144, 276Einstein Albert   29Emmerson Keith   13Enkel Fritz   25Evangelisti Franco   27, 37,  41,  70

Feldman Morton   28Ferrari Luc   44Ferreyra Beatriz   45Fischinger Oskar   66Fleming John Ambrose   18Florens Jean Loup   277Foerster Heinz von   61Forest Lee de   18,  19, 66Fremiont Marcel   45Fritsch Johannes   51,  70Fukushima Kazuo   33

Gabor Dennis   253–255Gabura J.   63,  302

Gardner John   71Gauss Carl Friedrich   177, 255Geisler Jerzy   125Gelhaar Rolf   70Gelmetti Vittorio   41Ginastera Alberto   68Giunio Peppino di   71Gliniak Bartłomiej   42Globokar Vinko   46Goethals Lucien   69

Goeyvaerts Karel   25Goldoni Carlo   34Golec Ryszard   35Gredinger Paul   25Green D.   254Grogono Peter   63,  64,  71, 233, 303Grossi Pietro   69,  71Grudzień Jacek   42

Haller Hans Peter   69,  346Hammond Laurens   19Hanning   255Hansen Oskar   40Hanson Sten   54Haupe Włodzimierz   36Havteland Arnold   54Heidsieck Bernard   57Hein Folkmar   31, 68Helmholtz Hermann von   254Henry Pierre   23,  24,  43,  48,  57,  68,  125,

126, 346Hiller Lejaren A.   14,  28,  30,  41,  60,  61,

64, 65, 69–71, 215

377

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 378/381

Indeks nazwisk

Hindemith Paul   15, 19Hinton Michael   303Hołyński Marek   61Howe Hubert S.   71Humble Keith   69

Isaacson Leonard M.   14,  30,  60, 215Ishii Maki   34

 Jacobs Henry   53 Jaffrenou Pierre-Allain   45 Jankowski Bohdan   35 Janson Bengt Emil   41 Jolivet Andre   19 Jones Cameron   71

 Joyce James   32

Kaegi Werner   33,  64,  232, 263–265Kagel Mauricio   27,  52, 54Kang Sukhi   31Kaprow Allan   53Kapuściński Jarosław   42, 43Kaufmann Dieter   46Kayn Roland   41Kelemen Milko   31

Knittel Krzysztof   42,  54,  57Kobrin Edward   62, 63, 71,  233, 303Koenig Gottfried Michael   27,  33, 64,  65,

69,  71,  231, 232, 270, 276Kok I. W.   68Kolman Peter   69Kotoński Włodzimierz   35–40, 42,  45,  52,

64,  241, 328, 330, 336, 340Krenek Ernst   27Krupowicz Stanisław   64

Kulenty Hanna   43Kupper Leo   68

Lallemand Jean-Claude   344Lanza Alcides   69Laske Otto   71Le Caine Hugh   68Le Corbusier, właśc. Charles  Edouard

 Jeannevet   32,  53,  348, 349LeBrun Marc   252Lem Stanisław   37Lenica Jan   35Levenberg Garry   71Ligeti Gyorgy   27

Lincoln Harry B.   61Lorentzen Bengt   54Luciani Annie   277Lucier Alvin   56Luening Otton   28–30, 68

Mache Francois-Bernard   41, 44Machover Tod   71Mack Dieter   63MacLeod-Wilcox Fred   67Maddox Arthur   41Maderna Bruno   31,  32,  48, 111Maetzig Kurt   37Maiguashca Messias   70Makarczyński Tadeusz   35

Makowski Wojciech   40Malec Ivo   44,  65Marie Jean-Etienne   45Marinetti Filippo   16Markowski Andrzej   34, 35,  37Martenot Maurice   15, 19Martin Constant   19Martin Frank   25Mathews Max V.   46,  61–63, 69,  70,  215,

220, 231, 233, 234, 237, 303, 309Matossian Nouritz   353

Matsudaira Yori Aki   34Matsushita Shinishi   34Mayuzumi Toshiro   34,  68Mazurek Bohdan   39–42, 45,  326McLaren Norman   15, 66Meissner Alexander   18Mendes Gilberto   69Messiaen Olivier   23–25Meyer-Eppler Werner   15, 24, 25Michniewski Wojciech   54

Milhaud Darius   15,  19, 25Mioshi Akira   34Miszczak Tadeusz   37Moles Andre Abraham   14Moog Robert C.   57–59, 69, 157, 186, 302,

303Moore F. Richard   64, 71Moorer James A.   71, 240, 250, 251Moroi Makoto   34Morricone Ennio   70Mosołow Aleksandr   17Mumma Gordon   30, 52, 53, 56,  70Murzin Ewgenij   69Mykietyn Paweł   42

378

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 379/381

Indeks nazwisk

Nagorsky John   71Nilsson Bo   27Nono Luigi   25,  31, 32Nordheim Arne   41, 54

Oetvos Peter   70Oleszkowicz Jan   42Olive Joseph   70Oliveiros Pauline   53, 54, 71Olson Harry   29Orton Richard   70,  72Osborne Nigel   41Owczarek Andrzej   36

Pablo Luis de   69

Paccanini Angelo   32Parmegiani Bernard   44, 48, 54Partch Harry   17,  30Passeronne Felix   23Patkowski Józef   30,  35, 42, 43, 68Pedersen Paul   69Penderecki Krzysztof   13,  37,  38, 40, 49Piechurski Janusz   35Pierce John R.   70, 220Pongracz Zoltan   46,  70

Poullin Jacques   23Poulsen Valdemar   18,  20Pousseur Henri   25, 31, 68,  276Pratella Francesco   16Prendegast Roy M.   66Ptaszyńska Marta   45Puckette Miller   309

Raaijmakers Dick   32Radovanović Vladan   70,  339

Rakowski Andrzej   35Rampazzi Teresa   64,  65, 70Reibel Guy   44, 45, 134Reich Steve   52,  56Reynolds Roger   53,  64, 71Riedl Josef-Anton   54, 69Riley Terry   52,  56Risset Jean-Claude   45, 46, 62, 64, 65, 71,

231Ristos Yannis   40Roads Curtis   254Rodet Xavier   266Rogers Bernard   28Rosenboom David   71

Rostkowska Beata   305Rowe Robert   270, 276Rudnik Eugeniusz   36,  40–42, 45,  46Ruohomaki Jukka   71Russcol Herbert   28

Russolo Luigi   15,  16Rzewski Frederick   51,  70

Savouret Alain   46,  338Scavarda Donald   53Schaeffer Bogusław   31,  37,  39,  40,  54,

326, 332Schaeffer Pierre   14, 15, 21–24, 33, 43–45,

48, 68, 76, 81, 82, 84, 86, 127, 131–134,136, 141, 144,  155, 156,  161,  164, 200,

202, 203, 321, 335Schat Peter   33Scherchen Hermann   31, 68Schonbach Dieter   54Schonberg Arnold   29Schottstaedt Bill   249Schrader Barry   64Schroder Hermann   25Schwartz Elliot   18Schwarz Jean   337Seferis J.   40

Sender Ramon   54Sermila Jarmo   71Sessions Rogers   29,  30Shinohara Makoto   33, 34Sielicki Edward   42Sikora Elżbieta   42,  45,  46, 64Sikorski Tomasz   39, 40,  57Siwiński Jarosław   42Skriabin Aleksandr Nikołajewicz   53, 69Skrzyńska Anna   43,  134

Smalley Denis   72Smalley Roger   70Souster Tim   65, 70Springer A.M.   84–86Steiglith Kenneth   70Stevens Carl   72Stockhausen Karlheinz   13, 24–27, 34, 48,

51,  52,  54,  68,  70,  76,  109,  119,  125,126, 146,  147,  149,  237,  276,  323–325,333, 344, 347, 350–351

Stokowski Leopold   29Straszewicz Witold   35,  37Strauss Richard   19Strawiński Igor   265

379

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 380/381

Indeks nazwisk

Strawn John   254Subotnick Morton   30,  52, 54, 64,  69, 346Szeremeta Ryszard   42, 43, 45, 68Szlifirski Krzysztof   36,  40, 43, 68Szymański Paweł   42

Takemitsu Toru   33,  34Tempelaars Stan   64, 71,  232, 264, 265Tenney James   62, 71Termen Lew zob. Theremin LewTheremin Lew   15, 19, 57, 105, 205Theriault David   270Tisato Graziano   64Toch Ernest   15Tolana, inż.   84Toyama Mushiko   30,  34Trautwein Friedrich   14, 15, 19Truax Barry   62, 64,  71,  233Tudor David   28, 51,  70Turski Zbigniew   37

Ungvary Tamas   41Urbański Bolesław   37Urbański Kazimierz   54

Usami Keiji   353Ussachevsky Vladimir   28–30, 68

Vaggione Horacio   65Vandenbogaerde Fernand   45Varese Edgar   15–19,  24,  30,  32,  49,  53,

348, 349Vercoe Barry   62, 64,  65,  71Vermuelen Roeloef R.   68Vink Jaap M.   68

Vivier Odile   348

Wagner Richard   53Wallraff Dean   71Walter Arnold   69Warhol Andy   53Warren Philip   41

Weber W.   19Webern Anton   29Welles Orson   29Wessel David   64, 71Whitney James   66Whitney John   66Wielecki Tadeusz   42Wiggen Knut   63–65, 69,  71,  233, 303Winckel Fritz   25, 31, 68Wishart Trevor   72

Wiszniewski Zbigniew   37–40Wolff Christian   28Wolski Zbigniew   35Wourinen Charles   30

Xenakis Jannis   32,  44, 54,  61,  64, 65,  69,71, 223, 232, 329, 348–350, 352, 353

Young La Monte   55Yuasa Joji   33, 34

Zawadzka Anna   42, 43Zazeela Marian   55Ziccarelli David   309Zieliński Gerard   64Zinovieff Peter   59, 60, 63, 64, 69, 71, 157,

303, 306–308Zobl Wilhelm   41Zuckerman Marc   70Zumbach Andre   69

8/17/2019 Włodzimierz Kotoński - Muzyka Elektroniczna

http://slidepdf.com/reader/full/wlodzimierz-kotonski-muzyka-elektroniczna 381/381

Włodzimierz Kotoński (ur. 1925), kompozytor i profesor warszawskiej AkademiiMuzycznej, już w 1958 r. rozpoczął współpracę ze Studiem EksperymentalnymPolskiego Radia, a w 1959 r. zrealizował pierwszą partyturę muzyki konkretnejw Polsce — Etiudę na jedno uderzenie w talerz. Utwór ten stał się zaczątkiem rozwojumuzyki eksperymentalnej w naszym kraju. Kotoński realizował swoje kompozycje

także w wielu zagranicznych ośrodkach, m.in. w Kolonii, Paryżu, Bourges, Buffaloi Sztokholmie. Owocem jego wieloletnich praktycznych i teoretycznych doświadczeńkompozytorskich jest prezentowana w serii «Compendium Musicum» książka  Mu-zyka elektroniczna. Ta pierwsza w polskim piśmiennictwie muzycznym tak obszernapraca o muzyce elektronicznej, jej historii, rozwoju i najnowszych osiągnięciach prze-znaczona jest nie tylko dla zawodowych muzyków, lecz również dla tych wszyst-kich, którzy zainteresowani są wszelkimi „nowinkami” w tej dziedzinie: nowościamitechniki fonicznej, zastosowaniem komputerów w muzyce, wprowadzaniem technikicyfrowej do nagrań itd.