105
Orientierung im Surround- Raum mit Shockwave 3D Betreuer: Prof. Dipl. Ing. Eberhard Hasche Prof. Alexander Urban Berlin, den 13. August 2006 University of Applied Sciences Brandenburg Fachbereich Informatik und Medien -Diplomarbeit- von Clemens Diener Zur Erlangung des akademischen Grades Diplom Informatiker (FH)

Orientierung im Surround-Raum mit Shockwave 3D

Embed Size (px)

DESCRIPTION

Diplomarbeit an der FH Brandenburg

Citation preview

Page 1: Orientierung im Surround-Raum mit Shockwave 3D

Orientierung im Surround-Raum mit Shockwave 3D

Betreuer:

Prof. Dipl. Ing. Eberhard Hasche Prof. Alexander Urban

Berlin, den 13. August 2006

University of Applied Sciences Brandenburg

Fachbereich Informatik und Medien

-Diplomarbeit-

von Clemens Diener

Zur Erlangung des akademischen Grades Diplom Informatiker (FH)

Page 2: Orientierung im Surround-Raum mit Shockwave 3D

Ich versichere hiermit, dass ich die Diplomarbeit selbstständig ohne Hilfe Dritter verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel benutzt habe.

Berlin, den 13. August 2006

Page 3: Orientierung im Surround-Raum mit Shockwave 3D

�nhaltsverzeichnis

Page 4: Orientierung im Surround-Raum mit Shockwave 3D

��

�nhaltsverzeichnis

�nhaltsverzeichnis

1 Einleitung 2

2 Physik des Schalls 4

2.1 Schall 4

2.2 Sinuswellen 5

2.3 Klänge 6

2.4 SchallleistungundLautstärke 7

2.5 Welleneffekte 9

2.5.1 Doppler Effekt 9

2.5.2 ReflexionundAbsorption 10

2.5.3 Diffraktion 12

2.5.4 Interferenz 12

3 Digitales Audio 14

3.1 Einleitung 14

3.2 Abtastrate 14

3.3 Auflösung 15

3.4 Audio-Formate 15

4 Das Hören 17

4.1 PhysiologiedesGehörs 18

4.1.1 Außenohr 18

4.1.2 Mittelohr 19

4.1.3 Innenohr 20

4.1.4 Neuronale Vorgänge 22

4.1.5 Interaurale Merkmale 22

4.2 PsychoakustischeEffekte 23

4.2.1 Tonhöhe 23

4.2.2 Maskierte Klänge 23

4.3 OrientierungimKlangraum 24

4.3.1 Raumeindruck 24

4.3.2 Entfernung 26

4.3.3 Richtung 28

5 Surround Audio 37

5.1 Begriffsklärung 37

5.2 Historie 37

5.3 FormateimHeimbereich 39

5.3.1 Zweikanal-Stereophonie 40

5.3.2 Quadrophonie 40

5.3.3 Dolby Surround und Dolby Pro Logic 40

5.3.4 3/2 Formate 42

5.3.5 6.1 Format 42

5.3.6 7.1 Format 43

5.3.7 THX 43

5.4 RäumlichesHörenmitSurround-Sound 43

5.4.1 Optimale Höranordnung 43

5.4.2 Lokalisation mit dem 5.1 Format 45

Page 5: Orientierung im Surround-Raum mit Shockwave 3D

���

�nhaltsverzeichnis

6 DirectX Grundlagen 48

7 Shockwave 3D 51

7.1 3DVisualisierungmitShockwave 51

7.2 3DSound 55

8 Spiel-Entwicklung 61

8.1 Problemstellung 61

8.2 Konzept 62

8.2.1 Spielidee 62

8.2.2 Background-Story 62

8.2.3 Ziel des Spiels 63

8.2.4 Gameplay 63

8.3 Design 65

8.3.1 GUI 65

8.3.2 Setting 66

8.3.3 Charaktere 67

8.3.4 Sound und Musik 67

8.4 Realisierung 69

8.4.1 Shockwave 3D – Möglichkeiten und Einschränkungen 69

8.4.2 Erstellung der Szene 70

8.4.3 Benutzeroberfläche 78

8.4.4 Steuerung des Charakters 79

8.4.5 Programmierung der Spielfunktionen 81

8.4.6 Umsetzung interaktiver Sounds 82

8.4.7 Optimierung des Projekts 87

9 Zusammenfassung / Fazit 91

11 Glossar I

12. Abbildungsverzeichnis III

13 Literaturverzeichnis V

Page 6: Orientierung im Surround-Raum mit Shockwave 3D

Einleitung�

Page 7: Orientierung im Surround-Raum mit Shockwave 3D

Einleitung �

� Einleitung

Diese Diplomarbeit hat die Zielsetzung, die Lokalisationseigenschaften des menschlichen Gehörs bei der Mehrkanalwiedergabe von Klängen durch eine Surround-Anlage zu untersuchen. Bezüglich der dafür nötigen Grundvoraussetzungen wird ebenso auf die physikalischen Eigenschaften des Schalls, als auch die biologischen Merkmale des Menschen, die für das räumliche Hören relevant sind, eingegangen. Es wird eine Einleitung in die digitale Audiotechnik gegeben, ferner Entwicklung und Stand der verschiedenen Möglichkeiten für die Mehrkanalwiedergabe von Audiodaten recherchiert.

Mit den aus dem theoretischen Teil gewonnenen Erkenntnissen wird im Rahmen des praktischen Teils der Diplomarbeit der Prototyp eines 3D Computerspiels entwickelt. Dabei konzentriert sich die Arbeit vor allem auf die Integration von 5.1 Surround-Sound und eine Audio-Benutzerführung mit Hilfe von lokalisierbaren räumlichen Klängen. Das Spiel wird durch die Verwendung der Shockwave 3D Technologie mit vergleichsweise einfachen Mitteln umgesetzt. Im Rahmen der Diplomarbeit konnten aus zeitlichen Gründen nicht alle Aspekte, die für die Spielentwicklung relevant sind, umgesetzt werden. Die dabei auftretenden Probleme und deren mögliche Lösung sollten in dieser Arbeit vorgestellt werden. Ziel ist es nicht, das Computerspiel komplett fertig zu stellen, sondern das Spielkonzept und Spiellayout zu entwerfen und die Spielentwicklung mit Shockwave 3D sowie die Möglichkeit der Surround-Sound Einbindung in Director zu untersuchen.

Page 8: Orientierung im Surround-Raum mit Shockwave 3D

3

Physik des Schalls�

• Schall

• Sinuswellen

• Klänge

• Schallleistung und Lautstärke

• Welleneffekte

Page 9: Orientierung im Surround-Raum mit Shockwave 3D

Physik des Schalls �

� Physik des Schalls

Um die Zusammenhänge der akustischen Wahrnehmung zu verstehen, können die physikalischen Aspekte des Schalls nicht außen vor gelassen werden. Diese erstrecken sich von einfachen Grundgesetzen bis hin zu komplexen Berechnungen, wobei hier allerdings nur auf einige erweiterte Grundlagen eingegangen wird, die für das Verstehen der folgenden Abschnitte notwendig sind.

�.� SchallPhysikalisch gesehen besteht Schall aus Wellen. Vergleichbar mit Wellen, die sichaufeinerWasseroberflächehorizontalinalleRichtungausbreiten,wenneinKieselstein darauf fällt, breiten sich Schallwellen in alle Richtungen des Raums aus. Dabei gibt eine Quelle „ihre Schwingungen an ein schwingungsfähiges System ab“ [Bi02]. Im Fall der Luft als Übertragungsmedium pflanzt sich dieWelle fort, indem ein Luftteilchen das nächste anstößt. Entscheidend für diese Fortbewegung sind zwei Eigenschaften: Die Masse sowie die Elastizität der Luft, also die Fähigkeit sich komprimieren zu lassen. Ein Schallereignis „drückt die Luft der unmittelbaren Umgebung nach außen. Weil Luft jedoch eine träge Masse besitzt und elastisch ist, setzt sie einer Bewegung zunächst Widerstand entgegen und wird zusammengepresst. Ähnlich wie eine zusammengedrückte Feder expandiert die verdichtete Lufthülle aber sofort wieder und drückt nun ihrerseits auf allen Seiten nach außen“ [Pi99]. Diese Kugelschale komprimierter Luft breitet sich immer weiter in alle Richtungen des Raums aus, wobei sich die Luftteilchen selbst dabei nur geringfügig um einen mittleren Zustand bewegen. BeimSchallhandeltessich,andersalsbeidenWellenaufderWasseroberfläche,um eine Longitudinalwelle, also einer Welle, bei der die Bewegungsrichtung der schwingenden Teilchen (Luftmoleküle, etc.) in Ausbreitungsrichtung verlaufen. Die Wellen breiten sich in jedem Übertragungsmedium mit einer bestimmten Geschwindigkeit c aus. In Luft bei 20° C beträgt diese 343 m/s. Bei steigender Temperatur steigt auch die Fortbewegungsgeschwindigkeit des Schalls, da durch schnellere Molekülbewegung auch die Elastizität der Luft steigt.

Ein Knall ist ein Beispiel für kurzes Schallereignis, bei dem eine einzelne Schallwelle erzeugt wird, die sich schnell wieder verläuft. In Abbildung 2.1 verläuft die Zeitachse der Schallwelle horizontal von links nach rechts, die vertikale Achse zeigt die Luftdruckänderung.

 Abbildung 2.1 Vereinfachte Schallwelle eines Knalls

Luft

dru

ck

Zeit0

Page 10: Orientierung im Surround-Raum mit Shockwave 3D

Physik des Schalls �

Am Beispiel eines Lautsprechers lässt ein elektrischer Impuls die Membran plötzlich nach vorne schnellen und komprimiert die Luft direkt vor ihr leicht. Dabei erhöht selbst ein sehr lauter Ton den Luftdruck nur um weniger als ein Zehntausendstel. Diese Luftdruckwelle wandert dann durch den Raum. [Ro90]

�.� SinuswellenErst durch den periodischen Vorgang von Luftdruckänderungen entsteht ein gleichmäßiger Ton. Der Sinuston (Abbildung 2.2) ist ein künstlich erzeugter Ton, welcher durch eine bestimmte Frequenz f, in der die Schallwellen hintereinander auftreten,genaudefiniertwird.ErtrittinderNaturpraktischnichtauf.

Sinustöne klingen unnatürlich und sind für Sound-Produktionen eigentlich uninteressant. Auch lassen sie sich nur schwer orten und werden zusätzlich teilweise vom rechten und linken Ohr unterschiedlich wahrgenommen (diplacusis binauralis). Trotzdem haben die Sinustöne eine wichtige Bedeutung. Die Sinuswelle lässt sich mathematisch eindeutig in eine Formel fassen. Jeder periodische Klang lässt sich zudem mit mehreren Sinuswellen darstellen, wenn diese addiert werden.

Auch das Ohr besitzt einen Mechanismus, mit dem es komplexe Schallereignisse in einzelne sinusförmige Komponenten zerlegt. Unterschiedliche Frequenzen regen verschiedene Bereiche im Ohr an und geben uns so erst die Fähigkeit, Tonhöhen zu unterscheiden. [Pi99].

Eine Sinuswelle hat, außer der Frequenz, zwei weitere entscheidende Eigenschaften, diesiegenaudefinieren:AmplitudeundPhase(Abbildung2.3).DieAmplitudeistdie maximale Auslenkung der Schwingung vom Normalzustand. Bei der Schallwelle schwankt der Luftdruck von der Null-Lage gleichmäßig vom Positiven ins Negative. Die Amplitude wird als Lautheit wahrgenommen. Die Phase beschreibt den zeitabhängigen Schwingungszustand. Ein Phasenunterschied entspricht also einer zeitlichen Verschiebung des Nulldurchgangs beziehungsweise der maximalen oder minimalen Auslenkung.

Luft

dru

ck

Zeit0

 Abbildung 2.2 Wellenform eines Sinustons

Page 11: Orientierung im Surround-Raum mit Shockwave 3D

Physik des Schalls �

Außerdem ist die Periode (auch Schwingungsdauer) zu erwähnen. Hierbei handelt es sich um die Zeit, die verstreicht, während genau eine Schwingungsperiode durchlaufen wird, anders gesagt wenn das System sich wieder im selben Zustandbefindet.DerKehrwertderPeriodeistdieFrequenz,alsodieAnzahlderAuslenkungen pro Sekunde.

Die Wellenlänge λ für einen Schall kann mit der Frequenz f und der Schallgeschwindigkeit c über folgende Beziehung berechnet werden:

(2.1)

�.3 KlängeDer Ton in der Musik ist physikalisch gesehen eigentlich ein Klang, welcher sich aus mehreren Frequenzen zusammensetzt. Auf den subjektiven Eindruck von Klängen wird im Zusammenhang mit der Psychoakustik (Kapitel 4.2.1) näher eingegangen.

Jede periodische Schwingung, sei sie noch so kompliziert, und somit auch jeder Klang, lässt sich durch Zerlegen in eine Reihe von Sinuswellen mit korrekt gewählter Amplitude und Phase darstellen. Dies fand der französische Mathematiker und Physiker Jean Baptiste Joseph Fourier (1768 – 1830) heraus und wird aus diesem Grund auch Fourier-Analyse genannt. Es lässt sich also genauso durch die Addition mehrerer Sinuswellen jeder beliebige Klang erzeugen, auch Fourier-Synthese genannt. [Ro90]. Für die elektronische Erzeugung von Klängen ist dies von essenzieller Bedeutung, da es erst durch diese Erkenntnis möglich wurde, einen Klang in eine Formel zu fassen.

In Abbildung 2.4 wird die Fourier-Synthese anhand einer Sägezahn-Wellenform verdeutlicht. Die ersten sechs Frequenzen (f0, 2f0, 3f0, 4f0, 5f0, 6f0) sind

Luft

dru

ck

Schwingungsdauer

Zeit0

Amplitude

 Abbildung 2.3 Welleneigenschaften

Luft

dru

ck

Zeit

 Abbildung 2.4 Fourier-Synthese. Quelle: [Ro90]

fc

Page 12: Orientierung im Surround-Raum mit Shockwave 3D

Physik des Schalls �

in blau einzeln abgebildet. Die Summe dieser Frequenzkomponenten ist in rot eingezeichnet und ergibt die Sägezahn-Form. Die resultierende Kurve zeigt eine leicht geschlängelte Form, da es sich nur um eine Annäherung handelt, welche jedoch durch zusätzliche Addition höherer Frequenzen verbessert werden kann.

Jeder Klang besteht also aus einem Spektrum verschiedener Frequenzen, welche bestimmte Intensitäten besitzen. Eine Rechteckwelle lässt sich zum Beispiel aus den Frequenzkomponenten f0, 3f0, 5f0 usw. erstellen.

�.� Schallleistung und LautstärkeDie Lautstärke eines Schallereignisses wird durch die Intensität der Schallwelle, also dem Luftdruckunterschied zur Atmosphäre, definiert. Die Einheit derIntensität ist Watt pro Quadratmeter. Es handelt sich dabei um äußerst geringe Druckunterschiede, die das Ohr allerdings sehr präzise wahrnehmen kann. Schon ein Druckunterschied von einem Billionstel (10-12) vom normalen Luftdruck kann vom Menschen gehört werden. Die Schmerzgrenze dagegen beträgt ein Tausendstel (10-3) des normalen Luftdrucks, was zwar noch sehr wenig, aber doch eine Millionen mal mehr als die Wahrnehmungsgrenze ist. Um diesen gigantischen Zahlenbereich greifbarer zu machen, wurde eine logarithmische Skala eingeführt. Die Intensitätsverhältnisse werden in Dezibel (dB) angegeben. Die Dezibel-Skala vergleicht die Intensität zweier Schallereignisse. Im Falle der Skala für die menschliche Wahrnehmung wird die Hörschwelle bei etwa 1000 Hz von 2x10-5 Pa als Referenzwert und damit als Schalldruckpegel von 0 dB festgelegt. Der Schalldruckpegel Lpwirdalsodefiniertals:

(2.2)

wobei p der Schalldruck und p0 der Referenzdruck in Newton pro Quadratmeter ist. In folgender Tabelle 2.1 wird deutlich, wie Schalldruck und Schalldruckpegel zusammenhängen.

Tabelle 2.1 - Verhältnis von Schalldruck und Schallpegel

Schalldruck pSchalldruck-

verhältnis p/p0

Schalldruckpegel Lp

0,00002 N/m2 1 0 dB Hörschwelle

0,0002 N/m2 10 20 dB

0,002 N/m2 100 40 dB

0,02 N/m2 1 000 60 dB

0,2 N/m2 10 000 80 dB

2 N/m2 100 000 100 dB

20 N/m2 1 000 000 120 dB Schmerzgrenze

0

log20ppLp ⋅=

Page 13: Orientierung im Surround-Raum mit Shockwave 3D

Physik des Schalls �

Neben dem Schalldruckpegel werden zwei weitere Pegel, auch in Dezibel gemessen, verwendet. Zum einen ist hier der Schallleistungspegel zu nennen, welcher die Größe der Schallemission einer Schallquelle angibt. Der Vollständigkeit halber sei außerdemderSchallintensitätspegelerwähnt,welcherden„Energiefluss“aneinembestimmten Punkt beschreibt. Der Schallleistungspegel LWistdefiniertals:

. (2.3)

Wird die Schallleistung, beispielsweise durch zwei Schallquellen, verdoppelt, erhöht sich der Schallleistungspegel um 3 dB. Bei einer Verdopplung des Schalldrucks erhöht sich der Schalldruckpegel dagegen um 6 dB.

Eine weitere Eigenschaft des Schalldrucks ist seine Abnahme abhängig von der Entfernung zur Schallquelle. Im freien Feld nimmt der Schalldruck p der Schallwelle umgekehrt proportional zur Entfernung r, also mit 1/rab, die Intensität dagegen mit 1/r2. Bei Entfernungsverdopplung fällt der Schalldruck also auf die Hälfte, die Schallintensität entsprechend auf ein Viertel des Anfangswertes. Dies kommt einem Pegel von 6 dB gleich.

Besonders kompliziert wird es, wenn die empfundene Lautstärke als Einheit festgelegt werden soll. Jeder Mensch hört unterschiedlich und somit liegt die Intensitätsschwelle, ab der er einen Ton wahrnimmt, auch bei verschiedenen Werten. Erschwerend kommt hinzu, dass unser Gehör nicht für alle Frequenzen gleichempfindlichist.DassubjektiveLautstärkeempfindenwirdalsonichtnurdurchdieIntensitäteinesTons,sondernauchdurchseineFrequenzbeeinflusst.InderAbbildung 2.5 geben die einzelnen Kurven Pegel für unterschiedliche Frequenzen wieder, die als die gleiche Lautstärke empfunden werden. Die Kurven werden Isophone genannt. Auffällig ist, dass tiefe Frequenzen vor allem bei allgemein niedriger Intensität deutlich schlechter zu hören sind. Bei großer Intensität sind die Abweichungen der frequenzabhängig empfundenen Lautstärke nur gering.

Die empfundene Lautstärke wird in Phon angegeben. Jeder Kurve in der Abbildung 2.5 ist eine Phonzahl zugewiesen. Die Phonzahl entspricht dem Schalldruckpegel bei 1000 Hz. Töne mit dem gleichen Lautstärkepegel in Phon klingen auch

Lautstärkepegelin Phon

20 100 1000 2000 5000 10k 20k

0

10

20

30

40

50

60

70

80

90

100

110

120

130

Sch

alld

ruck

peg

el in

dB

Frequenz in Hz

120

110

100

90

80

70

60

50

40

30

20

10

 Abbildung 2.5 Kurven gleicher Lautstärke. Die Schalldruckpegel von Sinustönen, die gleich laut klingen, ergeben als Funktion der Frequenz eine Isophone. Jede davon ist durch einen bestimmten Lautstärkepegel (in Phon) gekennzeichnet. Quelle: [Ro90]

0

log10WWLW ⋅=

Page 14: Orientierung im Surround-Raum mit Shockwave 3D

Physik des Schalls �

(a) (b)

E P1 P2 P3 P4 P5Q

W4

W3

W2

W1

EE

gleich laut. Die Lautheit in Sone beruht auf diesem Lautstärkepegel, wobei dem Lautstärkepegel von 40 Phon die Lautheit 1 Sone zugeordnet wird. Bei einem Lautstärkepegel von mehr als 40 Phon führt die Steigung um 10 Phon zur Verdopplung des Lautheitswertes. Wie in Abbildung 2.6 zu erkennen ist, führen bei Werten unter 40 Phon schon kleinere Veränderungen des Lautstärkepegels zur Verdopplung der Lautheit. [Pi99]

�.� Welleneffekte

�.�.� Doppler Effekt

Als Doppler-Effekt wird die Veränderung der Frequenz, verursacht durch Bewegung der Quelle und/oder des Empfängers eines Schallereignisses, bezeichnet. Dabei wird eine Änderung der Entfernung zwischen den beiden vorausgesetzt. Bewegen sich Quelle und Empfänger nicht, kann davon ausgegangen werden, dass die Schwingung der Quelle den am Empfänger ankommenden Wellen entspricht. Bewegen diese sich aufeinander zu, wird die Frequenz erhöht. Entsprechend wird die Frequenz bei einer Entfernung voneinander verringert.

In Abbildung 2.7(a) bewegt sich der Empfänger E auf die stillstehende Quelle Q zu. Die Schallwellen werden in gleichmäßiger Frequenz ausgesendet. Durch die Bewegung des Empfängers erreichen diesen die Schallwellen

0 10 20 30 40 50 60 70 80 90 1000,01

0,05

0,02

0,5

0,2

5

2

50

20

0,1

1

10

100

Lautstärkepegel in Phon

Lau

thei

t in

So

ne

 Abbildung 2.6 Zusammenhang zwischen Lautstärkepegel in Phon und Lautheit in Sone. Quelle: [www1]

 Abbildung 2.7 Doppler-Effekt. Quelle: [Hö62]

Page 15: Orientierung im Surround-Raum mit Shockwave 3D

�0

Physik des Schalls �

schneller als im Stillstand, die Frequenz wird also erhöht. Passiert der Empfänger dieQuelle,„flieht“ervordenSchallwellen,dieihnnurnochingeringererFrequenzerreichen können.

In Abbildung 2.7(b) bewegt sich die Quelle auf den stillstehenden Empfänger E zu. Die Quelle hat an der Position P1 die Welle W1 ausgesendet, an Position P2 die Welle W2 usw. Da sich die Wellen kugelförmig von der aktuellen Position ausbreiten und keinen gemeinsamen Mittelpunkt mehr haben, bildet sich an der Stirnseite eine größere Dichte von Wellen und damit eine höhere Frequenz beim Empfänger.

�.�.� Reflexion und Absorption

Erreicht eine Schallwelle ein Hindernis, so wird sie von diesem reflektiert.VerglichenmiteinemSpiegel,welcherLichtwellenreflektiert,lässtsichdiesleichtverdeutlichen.AmBeispieleinerglattenWandhabendieReflexionswellenihrenMittelpunkt genau im gleichen Abstand zur Wand wie die Originalwellen, nur auf der gegenüberliegenden Seite der Wand. Es gilt Einfallswinkel gleich Ausfallswinkel.

Je nach Oberflächenbeschaffenheit des Hindernisses werden die Wellen teilsreflektiert und teils absorbiert. Diese Eigenschaftmacht es für denMenschenmöglich,eineVorstellungdesRaumszuerlangen,indemersichbefindet.Deraufdirektem Weg zum Empfänger gelangte Schall wird als Direktschall bezeichnet. Da von einer Schallquelle Wellen in alle Richtungen ausgesendet werden, erreicht derreflektierteSchall,auchDiffusschallgenannt,einePersondurchdiegrößerezurückgelegte Strecke erst einige Zeit später. Direktschall und Diffusschall zusammen ergeben dann ein gemeinsames Klangbild.

Eine der wichtigsten akustischen Größen ist die Nachhallzeit. Sie wurde von Wallace Clement Sabine (1868 – 1919) eingeführt und bezeichnet das Zeitintervall, in dem dieanfänglicheIntensitäteinesSchallereignissessamtallerReflexionenum60dBgefallenist.WeiterwirdderNachhallunterteiltinfrüheundspäteReflexionen,abhängigvonderZeit,zudersiedenEmpfängererreichen.FrüheReflexionensindsolche,dienureinmalaneinerWandoderamBodenreflektiertwerdenundden Empfänger innerhalb einer bestimmten Zeitspanne nach dem Direktschall erreichen. Je nach Quelle wird diese Zeitspanne zwischen 50 und 80 ms festgelegt [Be94][Ro90]. Die nach diesen 50 bis 80 ms ankommenden Schallwellen werden späteReflexionengenanntundwurdenmeist anmehrerenFlächen reflektiert,

Q

Q‘

 Abbildung 2.8 ReflexionswellenaneinerWand. Quelle: [Hö62]

Page 16: Orientierung im Surround-Raum mit Shockwave 3D

��

Physik des Schalls �

Direktschall

frühe Reflexionen

Späte Reflexionen

Zeit

Sch

alld

ruck

Echos

PD

bevor sie den Empfänger erreichen. Da an jedem Hindernis, sowie auch durch den zurückgelegten Weg durch die Luft, Schallenergie absorbiert wird, werden die Signale immer schwächer, bis sie nicht mehr zu hören sind (beziehungsweise um 60 dBabgeschwächtwurden).SpäteReflexionenmitherausstechendhoherAmplitudegegenüber dem Durchschnitt werden als deutliche Echos wahrgenommen.

Durch den zurückgelegten Weg des reflektierten Schalls verändert dieserzusätzlich seinen Klang. Der Widerstand der Luft hat größere Auswirkungen auf hohe Frequenzen als auf tiefe Frequenzen. Anders gesagt können tiefe Töne sich weiter fortbewegen als hohe Töne, bevor sie durch den Luftwiderstand eliminiert werden.DaherklingenspäteReflexionengenerelldumpferalsfrühe.Allerdingshängt die Veränderung des Frequenzspektrums zusätzlich stark von den AbsorptionskoeffizientenderreflektierendenMaterialienab,welchejedochinderRegeltiefeFrequenzenstärkerreflektierenalshoheFrequenzen.[Ru01][Ro90]

Der absorbierte Anteil der Schallwellen dringt in ein Hindernis, welches einen anderen Aggregatszustand hat, ein. Tieffrequenter Schall dringt dabei tiefer ein als hochfrequenter Schall, weshalb die verschiedenen Frequenzen sich an rauen Oberflächen auch in unterschiedliche Richtungen streuen. In dem Hindernisentstehen Reibungsverluste, die Schallenergie in Wärmeenergie umwandeln. Der nicht absorbierte Anteil wird wiederum als Körperschall weitergeleitet. Ist die Wellenlänge nun größer als die Ausdehnung (Tiefe) des Hindernisses, so wird die Ausbreitung der Schallwelle nicht gestört, sondern um den Gegenstand herumgebeugt. Tieffrequente Anteile mit großen Wellenlängen werden also von denmeistenHindernissennichtbeeinflusst,waszueinemdumpferenKlangbildhinter dem Hindernis führt.

Direktschall

Frühe ReflexionSpäte Reflexion

 Abbildung 2.9 Zurückgelegte Wege von direktemundreflektiertemSchall. Quelle: [Ro90]

 Abbildung 2.10 Zeitlicher Ablauf einer Raumimpulsantwort. PD (Pre-Delay) ist die Verzögerung vom Eintreffen des Direktschalls bis zum Eintreffen der ersten Reflexionen.Quelle:[Be94]

Page 17: Orientierung im Surround-Raum mit Shockwave 3D

��

Physik des Schalls �

Zwei Medien mit unterschiedlichem Aggregatszustand besitzen auch unterschiedliche Schallgeschwindigkeiten, es verändert sich aber nicht die Frequenz sondern die Wellenlänge. „Die Fortpflanzungsgeschwindigkeit der Schallwellen ist von derFrequenzunabhängig.“[Hö62].EbensoerwähntHöflingdazufolgendes:

„Da die Wellenlänge eines Tones sich beim Übergang von einem Medium in ein anderes ändert, die Frequenz dagegen nicht, verwendet man zur Charakterisierung eines Tones besser die Frequenz.“ [Hö62]

�.�.3 Diffraktion

Die „Diffraktion ist die ‚Ablenkung’ von Wellen […] an einem Hindernis“ [www1]. Ein Teil der am Hindernis vorbeilaufenden Wellen wird in den Bereich hinter ihm abgelenkt. Der Beugungswinkel ist frequenzabhängig und umso geringer, je höher die Frequenz ist. Abhängig von der Größe des Hindernisses erreicht Schall ab einer bestimmten Wellenlänge den Bereich hinter dem Hindernis, für Schall mit einer zu kleinen Wellenlänge entsteht ein „Schatten-Effekt“ hinter ihm.

�.�.� �nterferenz

Unter Interferenz versteht man die gegenseitige Überlagerung von Wellen. Im einfachsten Fall haben zwei Wellen die gleiche Frequenz, gleiche Wellenlänge und gleiche oder leicht verschobene Phasen. Sie nennen sich konstruktive Interferenzen und in diesem Fall addieren sich schlicht die Amplituden. Im oberen Bereich von Abbildung 2.11 werden die beiden blauen Kurven addiert und es ergibt sich neue rote Kurve mit einer höheren Amplitude. Haben die beiden Schallwellen nun die gleiche Frequenz, gleiche Wellenlänge aber um 180° verschobene Phasen, also so, dass genau Wellenberg und Wellental übereinander liegen, löschen sich die Wellen bei gleicher Amplitude gegenseitig aus (unterer Bereich von Abbildung 2.11). Bei mehreren ungünstig platzierten Schallquellen kann es zu Bereichen mit solchen „destruktiven Interferenzen“ kommen.

Luft

dru

ck

Zeit

λ2

λ2

 Abbildung 2.11 Interferenzen zweier identischer Wellen in einem eindimensionalen Medium. Quelle: [Ro90]

Page 18: Orientierung im Surround-Raum mit Shockwave 3D

�3

Digitales Audio3

• Einleitung

• Abtastrate

• Auflösung

• Audio-Formate

Page 19: Orientierung im Surround-Raum mit Shockwave 3D

��

Digitales Audio 3

3 Digitales Audio

3.� EinleitungFür die Verwendung von Audiosignalen auf dem Computer müssen die analogen Schallwellen digitalisiert werden. Dabei werden kontinuierliche analoge physikalische Größen in ein binäres Format gebracht. Diese digitale Signalverarbeitung entstand aus der Verteidigungsindustrie mit der Entwicklung von DSP-Chips (Digital Signal Processing Chips) für Anwendungen wie Radar-Systeme. Audio-DSP-Chips auf Soundkarten sind in der Lage, bestimmte Effekt-Berechnungen sehr schnell und CPU-unabhängig auszuführen und eignen sich somit für 3D-Echtzeit-Anwendungen. [Be94] Die Berechnungen setzen sich aus elementaren Operationen zusammen, wie zum Beispiel der Addition, Multiplikation oder Verzögerung von Signalwerten.

DieAuflösungundAbtastratebestimmendieGenauigkeitderdigitalenDarstellungeines analogen Signals.

3.� AbtastrateDie Abtastrate, auch Sampling-Frequenz genannt, gibt an, in welchen Intervallen Werte aus einem analogen Signal entnommen werden. Sie hat die Einheit Herz(Hz). In einem digitalen Audiosystem beträgt die höchste verwendbare Frequenz für Audiodaten etwas weniger als die Hälfte der Sampling-Frequenz. Diese Aussage wird auch das Nyquist Theorem oder Abtasttheorem genannt. Bei der Verwendung einer Abtastrate von 44,1 kHz lassen sich also auch noch Töne von 20 kHz wiedergeben, was der Hörgrenze des menschlichen Gehörs entspricht. Dieser Wert ist also in der Regel zufrieden stellend für digitale Audiosignale.

Bei Nichtbeachtung dieses Theorems, ergibt sich die Problematik des Aliasings. Dabei können aus zu hohen Frequenzen falsche Frequenzen ermittelt werden. Aus der Kurve mit höherer Frequenz als die Hälfte der Abtastrate in Abbildung 3.1 entsteht nach Digitalisierung eine neue Kurve mit falscher Frequenz.

Um zu hohe Frequenzanteile aus einem Signal herauszufiltern wird das Anti-Aliasingverwendet,welchesdieBandbreitedurcheinenTiefpassfilterbiszueinembestimmten Höchstwert einschränkt.

 Abbildung 3.1 Aliasing einer Welle. Quelle: [www2]

Page 20: Orientierung im Surround-Raum mit Shockwave 3D

��

Digitales Audio 3

Zur Bestimmung der enthaltenen Frequenzen in einem abgetasteten Signal, wird die Fourier-Transformation verwendet (vergleiche Fourier-Analyse in Kapitel 2.3). Sie ist eines der wichtigsten Werkzeuge in der digitalen Signalverarbeitung. Die Spektralanalyse in Abbildung 3.2 zeigt die Intensität der einzelnen Frequenzen eines Signals zu einem bestimmten Zeitpunkt.

3.3 AuflösungDie Auflösung oder auch Bittiefe eines digitalen Signals beschreibt dessenDynamik. Anders gesagt wird, ähnlich wie die Abtastrate die Genauigkeit der Frequenzabtastung festlegt, durch die Auflösung die AbstufungsgenauigkeitderAmplitudedefiniert.DieseGenauigkeitwird inBit angegeben und bedeutet beispielsweise bei 8 Bit 28 = 256 Amplitudenschritte. Die Schrittweite von null bis eins beträgt hier also 0,0039 oder 0,39%. Bei modernen Soundkarten sind jedoch bereits 16 Bit üblich, was demnach schon 65536 Schritten von 0,0015% entspricht.

Da immer nur eine endliche Anzahl an Signalschritten existiert, sollte der verfügbare Bereich weitestgehend ausgenutzt werden. Die so genannte Aussteuerungsreserve (auch Headroom) bezeichnet den Abstand zwischen dem maximalen Nennpegel und dem wirklichen Maximalpegel und sollte möglichst gering gehalten werden. Anderenfalls werden unnötigerweise Bereiche der Auflösungverschenkt.ErreichtwerdenkanndasmaximaleAusfüllenderDynamikmit einer Normalisierungsfunktion.

3.� Audio-FormateDieAudioformatedefinierendenAufbaueinesdigitalgespeichertenAudiosignals.Es wird zwischen verlustfreien und verlustbehafteten Formaten unterschieden. PCM (Puls-Code-Modulation) ist ein verlustfreies, unkomprimiertes Format. Es wird beispielsweise vom WAV-Container verwendet, welcher unterschiedliche Auflösungen, Abtastraten und Kanalanzahl unterstützt. WAV-Dateien könnenallerdings auch komprimierte Audiodaten enthalten. [www1] Zu den verlustbehaftet komprimierten Formaten gehören MPEG 1 Layer 3 (.mp3) und Dolby Digital (.ac3).

 Abbildung 3.2 Frequenzanalyse eines Sinussignals mit 3000 Hz (aus Adobe Audition)

Page 21: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören�

• Physiologie des Gehörs

• Psychoakustische Effekte

• Orientierung im Klangraum

Page 22: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

� Das Hören

Die Bedeutung des Hörsinns wird neben dem visuellen Sinn für die Informationsaufnahme und Interpretation unserer Umgebung oft unterschätzt. So sind wir allein mit unserem akustischem Sinn in der Lage, uns eine ziemlich genaue Vorstellung von unserer Umgebung sowie Richtung und Entfernung von Tonquellen zu machen.

Jedes Sinnesorgan des Menschen wandelt physikalische Größen in Reize um. Das Ohr, bestehend aus äußerem Ohr, Mittelohr und Innenohr, ist ein Organ, mit dem winzigste Luftdruckschwankungen wahrgenommen werden können. Das physikalische Ereignis Schall wird im Innenohr in Nervenimpulse umgewandelt, welchewiederumimGehirnverarbeitetwerden.DasEmpfindenundDeutendieserEreignisse durch das Gehirn wird auch Psychoakustik genannt. [Zw82][www3] Das menschliche Gehör kann akustische Ereignisse nur in einem bestimmten Frequenz-undSchalldruckpegelbereichwahrnehmen.Wieweit dieseHörflächebeim gesunden Menschen etwa reicht ist in Abbildung 4.1 erkenntlich. Die hörbaren Frequenzen liegen etwa zwischen 20 Hz und 20 kHz, der Pegelbereich etwa zwischen 0 dB und 120 dB. Die Schalldruckpegel sind senkrecht, die Frequenzen waagerecht aufgetragen. Die obere Kurve steht für den Pegel von ±120 dB bei dem gesundheitliche Schäden auftreten können, die untere Kurve markiert den Pegel, der durchschnittlich als gerade noch hörbar empfunden wird. Wie ersichtlich, ist der Pegelbereich stark frequenzabhängig. Der grau markierte Bereich kennzeichnet das Gebiet, in welchem sich die Sprache üblicherweise bewegt.

Um eine dreidimensionale akustische Welt als solche korrekt wahrzunehmen, sind einige anatomische und neuronale Voraussetzungen notwendig. Hierbei lassen sich die Hörorgane in mehrere wichtige Bereiche einteilen, die nur in Kombination eine korrekte Wiedergabe der Klangwelt garantieren können.

Zum einen muss unterschieden werden zwischen der Luftleitung, also dem Gehörgang, und der Knochenleitung zum Gehör. Ein kleiner Teil der im Innenohr ankommenden Schallwellen werden über den Schädelknochen aufgenommen und weitergeleitet. Wie bereits im vorigen Kapitel erwähnt, sind Töne mit tiefen Frequenzen am besten in der Lage, diesen Wechsel zwischen Luft und Festkörper

20 100 1000 2000 5000 10k 20k

Hörschwelle

Schmerzgrenze

Sprachwahrnehmbarkeit

0

20

40

60

80

100

120

140

Sch

alld

ruck

peg

el in

dB

Frequenz in Hz

 Abbildung 4.1 HörflächedesMenschen.Quelle: [Ze93][www1]

Page 23: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

zu vollziehen. Sehr tiefe Frequenzen nimmt der Körper auch zusätzlich über den Tastsinn war. So lassen Bässe in Diskotheken oder auf Konzerten beispielsweise die Bauchdecke zittern.

Die Unterscheidung von monauralen und interauralen Merkmalen hat eine deutlich höhere Komplexität. Monaurale Merkmale der Ohrsignale sind solche, für deren Empfang ein Ohr ausreicht, interaurale Merkmale dagegen benötigen für den Empfang zwei funktionsfähige Ohren. Obwohl vor allem interaurale Merkmal für die Ortung von Tonquellen zuständig sind, ist es bewiesen, dass monaurale Merkmale für Bildung eines Hörereignisortes mitverantwortlich sind. Hierbei sind vor allem Entfernung, Elevationswinkel und Hinten-Vorne-Differenzierung zu nennen. [Bl85]. Monaurale und interaurale Merkmale treten jedoch unter natürlichen Voraussetzungen niemals getrennt, sondern immer in Kombination auf.

�.� Physiologie des GehörsWie schon erwähnt lässt sich das Gehör in den monauralen und den interauralen Bereich einteilen. Es soll hier zuerst auf die monauralen anatomischen Merkmale des einzelnen Ohres eingegangen werden. Es lässt sich zunächst wieder grob zwischen zwei Bereichen unterscheiden. Das eigentliche Organ leitet die Schallschwingungen mechanisch weiter, um diese am Ende in elektrische Nervenimpulse umzuwandeln und im Gehirn zu verarbeiten. Das Organ lässt sich weiter in Außen-, Mittel- und Innenohr einteilen (siehe Abbildung 4.2). Die neuronale Verarbeitung der Impulse lösterstdaseigentlicheHörempfindenaus.

�.�.� Außenohr

Das von außen erkennbare Ohr ist das Außenohr. Es ist dafür zuständig, Schallwellen möglichst gut und konzentriert aus bestimmten Richtungen aufzufangen und zum Gehörgang weiterzuleiten. Bevor die Schallwellen das Trommelfell am Ende des Gehörgangs erreichen, finden einige physikalischeEffekte statt, die für die Ortung von Schallquellen unverzichtbar sind. Zu nennen

Hörnerv

Schnecke

Eustachische RöhreovalesFenster

rundesFenster

Trommelfell

Gehörgang

HammerAmboss

Steigbügel

AUSSEN OHR MITTEL OHR INNEN OHR

Gehörknöchelchen

 Abbildung 4.2 Schematische Darstellung des Gehörs [Zw82]

Page 24: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

wärenhierunteranderemReflexion,Beugung,AbschattungsowieResonanzen.Bedingt durch die Ohrmuschelgröße von etwa 6 cm werden hier nennenswerte Verzerrungen erst ab Frequenzen von 1500 Hz verursacht. Die Ohrmuschel ist bei jedem Menschen individuell leicht unterschiedlich geformt. Sie hat die Funktion eines richtungsselektiven Filters, so dass Töne aus unterschiedlichen Richtungen auch verschiedene Veränderungen des Frequenzspektrums bewirken. Jede Richtung hat also ein spezielles Resonanzmuster, welches von Mensch zu Mensch unterschiedlich ist, vom Gehirn verarbeitet wird und Aussagen über die Orientierung einer Schallquelle enthält. Nicht zu vergessen sei an dieser Stelle, dass auch der Kopf sowie der Torso eine entscheidende Beugewirkung vor allem auf Schallwellen mit Frequenzen unter etwa 2 kHz haben.

Bevor der Schall vom Trommelfell weitergeleitet werden kann, gelangt er durch den Gehörgang. Im Gehörgang selbst kann keine Richtungs- oder Entfernungsselektion stattfinden,dainihmimhörbarenFrequenzbereichlediglicheineeindimensionaleWellenausbreitung erfolgt. Der Gehörgang schützt das Trommelfell und hat den Sinn, dem Innenohr größere Nähe zum Gehirn und somit zu kürzeren, schnelleren Nervenbahnen zu verhelfen. Er ist beim Menschen gute zwei Zentimeter lang. Schallwellen mit einer Wellenlänge vom vierfachen der Gehörganglänge werden vom Trommelfell besonders gut aufgenommen. [Zw82] Wie bereits in Kapitel 2.2 erläutert gilt mit Schall-Frequenz f, Schallgeschwindigkeit c und Wellenlänge λ:

(4.1)

Tatsächlich ist das menschliche Ohr für Frequenzen zwischen 2000 Hz und 5000 Hz besondersempfindlich,auchaberbesondersanfälligfürSchädigungen.IndiesemFrequenzbereich befindet sich auch ein großer Teil der Sprachwahrnehmung.(siehe auch Abbildung 4.1)

�.�.� Mittelohr

Das Mittelohr reicht vom Trommelfell bis zum ovalen Fenster und ist mit Luft gefüllt. Es ist dafür zuständig, den am Trommelfell ankommenden Luftschall über die Gehörknöchelchen an die Lymphflüssigkeit, welche das Innenohr ausfüllt,weiterzuleiten.DieLymphflüssigkeithatdurchdiegrößereDichteundgeringereElastizität eine hohe Impedanz gegenüber der Luft und kann so Störwellen zu großen Teilen vermeiden. Verstärkt wird dieser Effekt durch den noch stärker Schall reflektierendenSchädelknochen.DurchdieGehörknöchelchenHammer,Ambossund Steigbügel muss also eine Impedanzanpassung durch Verstärkung der Signale stattfinden,diebeidirekterÜbertragungzwischenLuftundFlüssigkeitzu98%reflektiertwerdenwürden.DieswirdeinerseitsdurchdieFlächentransformationvom Trommelfell zum ovalen Fenster, also von einer großen zu einer kleinen Fläche, gewährleistet. Außerdem werden die Schallwellen durch das Hebelgesetz an den Gehörknöchelchen verstärkt. Der Hammer liegt am Trommelfell an, setzt den Amboss in Bewegung, welcher diese Bewegung an den Steigbügel weiterleitet. [Ze99] Hierzu folgende Berechnung:

kHzcm

smcf 45,8

/343≈==

λ

Page 25: Orientierung im Surround-Raum mit Shockwave 3D

�0

Das Hören �

Die Fläche des Trommelfells beträgt circa 55 mm² (A1) und der Steigbügel ungefähr 3,2 mm² (A2). Nimmt man nun an, dass auf beide Flächen eine gleich große Kraft wirkt (F1=F2)soerhältmaneinenVerstärkungsfaktorvon55/3,2≈17.DerFaktorwird durch die wirkenden Hebelgesetzte nochmals vergrößert. Die letztendliche Verstärkung des Drucks von Trommelfell auf Steigbügelplatte beträgt nun also 1,3·17≈22.[www4]

Der Mittelohrraum ist durch die Eustachische Röhre mit dem Rachenraum verbunden (siehe Abbildung 4.2). Wenn sich der Außenluftdruck ändert, wie zum Beispiel beim Aufsteigen eines Flugzeugs, entsteht am Trommelfell ein Unter- oder Überdruck. Dadurch verlagert sich die Stellung der Gehörknöchelchen derart, dass eine eingeschränkte Tonwahrnehmung spürbar wird. Die Eustachische Röhre öffnet sich beim Schlucken kurz, dadurch kann ein Druckausgleich hergestellt und die Tonwahrnehmung wieder normalisiert werden.

�.�.3 �nnenohr

Das Innenohr, bestehend aus Cochlea und Gleichgewichtsorgan, ist in einen extrem harten Knochen, dem Felsbein, eingelagert. Die Cochlea ist eine mit Lymphflüssigkeitgefüllte,2½windigeSchnecke.AneinerkleinenÖffnungdesFelsbeins befinden sich das runde Fenster und das ovale Fenster. Am ovalenFenster liegt der Steigbügel an und überträgt die Schallinformationen auf die Lymphflüssigkeit.ZumeinfacherenVerständnisdesInnenohrsstelltmansichdas„Schneckenhaus“ entrollt, also in der Form eines Schlauches vor (Abbildung 4.3).

Längs der Cochlea verläuft die kompliziert aufgebaute cochleäreTrennwand, die den Schlauch in den oberen Teil, der Scalavestibuli, und den unteren Teil, der Scalatympani, aufteilt. Mit der Scala vestibuli ist der Steigbügel über das ovale Fenster direkt verbunden. Schwingt nun also der Steigbügel gegen das nachgiebige ovale Fenster, wird die Perilymphe der Scala vestibuli ins Innere der Cochlea verdrängt. Da die cochleäre Trennwand sehr elastisch ist, wird diese nach unten gedrückt. Der Überdruck in der Flüssigkeit in der unteren Scala tympani wird durch die elastische Membran des runden Fensters ausgeglichen. Da der Steigbügel das ovale Fenster ständig vor und zurück bewegt, wird die cochleäre Trennwand ständig auf und ab bewegt. Dabei bleiben diese Schwingungen nicht auf einen Ort nahe dem ovalen Fenster beschränkt, sondern bilden eine Wanderwelle, welche

Helicotrema

cochleäre Trennwand

Scalatympani

Scalavestibuli

ovalesFenster

rundesFenster

Steigbügel Wanderwelle

 Abbildung 4.3 Cochlea des Innenohrs (entrollt). Quelle: [Ze93]

Page 26: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

bis zur Cochleaspitze ausläuft. Besser vorstellen lässt sich dies mit dem Vergleich eines gespannten Seils, welches, wenn mit der Handkante darauf geschlagen wird, eine Welle bildet, die das Seil entlang wandert. [Ze93]

Nun kommt hinzu, dass die cochleäre Trennwand nahe dem ovalen Fenster schmal und steif, nahe dem Helicotrema breit und elastischer ist. Zwar wandern alle erzeugten Wellen in gleichmäßiger Verteilung durch die Cochlea, jedoch ergibt sich je nach Tonhöhe an unterschiedlichen Stellen der Trennwand ein Wellenmaximum. JehöherdieFrequenzeinesTons,destonäherbefindetsichdiesesAmplituden-Maximum am Steigbügel. Diese Frequenz-Orts-Tranformation ist zuständig für die Unterscheidung verschiedener Tonfrequenzen. [Zw82]

Im Querschnitt der Cochlea (Abbildung 4.4) erkennt man zusätzlich zu den beiden bereits genannten Skalen einen weiteren parallelen Kanal innerhalb der cochleären Trennwand. Sie heißt Scala media und wird durch die sehr dünne Reissner-Membran von der Scala vestibuli getrennt. Auf der anderen Seite an der Scala media liegt getrennt durch die Basilarmembran die Scalatympani an. Die Skala media ist ein in sich abgeschlossener Teil und beinhaltet die kaliumhaltige Endolymphe mit vom restlichen Innenohr abweichender Ionenkonzentration. Die beiden anderen Skalen sind über das Helicotrema (Abbildung 4.3) an der Spitze der ausgerollten Schnecke miteinander verbunden.

Auf der Basilarmembran befindet sich das cortische Organ, welches die Sinneszellen beinhaltet. Diese teilen sich in drei Reihen äußere und einer Reihe innere Haarzellen auf. Über dem cortischen Organ sitzt die Tektorialmembran, welche mit den Stereozilien, den haarförmigen Fortsätzen der Sinneszellen, verbunden ist. Durch die Schwingungen der Basilarmembran entsteht zwischen ihr und der Tectorialmembran eine Scherbewegung. Da sich die Hörzellen zwischen diesen beiden Membranen befindet, werden an der für die jeweilige Frequenzentsprechenden Stelle die Hörzellen verbogen und dadurch aktiviert. Sie geben elektrische Impulse an den Hörnerv weiter.

Scala vestibulimit Perilymphe

ReissnerMembran

Scala mediamit Endolymphe

äußereHaarzellen

Basilarmembran

Scala tympanimit Perilymphe

Tektorial-membran

innereHaarzellen

Hörnerven-fasern

 Abbildung 4.4 Querschnitt durch die Cochlea. Quelle: [Ze93]

Page 27: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

�.�.� Neuronale Vorgänge

Die am Hörnerv ankommenden Impulse führen zu einer Kette neuronaler Erregungen über den Hirnstamm und der Hörbahn zum audiotorischen Kortex, der Verteilerstelle für die Weiterverarbeitung der Reize. Die Hörnervfasern sind mehr oder weniger direkt mit den frequenzspezifischen Haarzellen verbunden. EineNervenfaser wird also bei der Beschallung mit einer ganz bestimmten Frequenz optimalerregt(charakteristischeFrequenz,Abk.:CF).EswerdenfrequenzspezifischeInformationen weitergeleitet. Die Hörbahn dagegen besitzt bereits auf komplexe Schallmuster spezialisierte Nervenzellen (Neuronen). Sie können beispielsweise Nutzschall von Störschall trennen und selektiv weiterleiten.

Jedes Innenohr ist sowohl mit der rechten als auch mit der linken Hörrinde verbunden. Daher können auf beide Ohren auftreffende Schallereignisse relativ früh miteinander verglichen werden.

In den höheren Neuronen wird der Schall nicht mehr wie zuvor zum größten Teil lediglich weitergeleitet, die enthaltenen Informationen werden bereits für die Auswertungvorbereitet.NurderherausgefilterteNutzschallwirdbiszurHörrindetransferiert, Störschall dagegen wird eliminiert. Dabei setzt dies einen gewissen Lernprozess voraus, wie beispielsweise das Erlernen der Sprache, die dann als Nutzschall identifiziertwerden kann.Die dabei ablaufenden psychoakustischenVorgänge werden in Kapitel 4.2.2 näher beschrieben.

Da an dem Ohr, welches von einer Schallquelle weiter entfernt ist, der Schall später und leiser eintrifft, ist das auditorische System in der Lage, Abweichungen hinunter bis zu 3° zu orten. Für die Raumorientierung anhand dieser Daten sind hoch spezialisierte Neuronen zuständig. Ebenso werden durch die Ohrmuschel verursachte Verzerrungen mit erlernten Mustern von gerade auftreffendem Schall von hoch spezialisierten Neuronen in Hörbahn und Kortex verglichen, was die räumliche Wahrnehmung unterstützt. [Ze93]

�.�.� �nteraurale Merkmale

Wie zu Anfang dieses Kapitels erwähnt, wird die genaue Ortung eines akustischen Ereignisses vor allem durch die Existenz zweier unabhängiger Ohren, welche in bestimmtem Abstand und bestimmter Ausrichtung am Kopf angebracht sind, bestimmt. Interaural bedeutet „zwischen den Ohren“, interaurale Merkmale sind also Eigenschaften des Hörapparates, die mit einem Ohr nicht möglich sind. Es sind zwei interaurale Ohrsignalmerkmale zu nennen, die zu einer seitlichen Auslenkung von Hörereignissen führen. Einerseits werden im Gehirn Lautstärkeunterschiede, andererseits zeitliche Unterschiede zwischen den beiden Ohren verglichen. Lord Raleigh untersuchte bereits 1907 die Vorgänge, welche zum natürlichen Hören des Menschen beitragen. Ergebnis seiner Forschungen war unter anderem die „Duplex-Theorie“, welche im Zusammenhang mit der Psychoakustik näher erläutert werden soll.

Page 28: Orientierung im Surround-Raum mit Shockwave 3D

�3

Das Hören �

�.� Psychoakustische Effekte

�.�.� Tonhöhe

Die Tonhöhe bezeichnet im psychologischen Sprachgebrauch die empfundene Eigenschaft eines Klanges, nämlich die Klangfarbe. Es handelt sich nicht um die Frequenz eines einzelnen Tones, sondern um die Wirkung eines Klanges, der sich, wie in Kapitel 2.3 beschrieben, aus mehreren Frequenzkomponenten zusammensetzt. Die Wellenform wiederholt sich dabei periodisch und erzeugt einen Ton im musikalischen (psychologischen) Sinn. Dabei „[stehen] die Frequenzkomponenten in einem harmonischen Verhältnis […]: f0, 2f0, 3f0, 4f0 und so fort.“ [Pi99]. Dieses Gemisch von dem eigentlichen Grundton und den gleichzeitig erklingenden Obertönen macht unter anderem den charakteristischen Klang eines Instruments aus. Je nach dem, welche Frequenzkomponenten ausgeprägter sind, wirkt ein Klang eher hell oder eher dumpf. Verändert man die Einstellungen einesHöhen-oderTiefenreglershatdieskeinenEinflussaufFrequenzen,eswirdlediglich das Verhältnis der Intensitäten der Frequenzkomponenten verändert. Bei Sinustönen, die nur aus einer einzigen Frequenzkomponente bestehen, lässt sich die empfundene Tonhöhe für ungeschulte Ohren kaum bestimmen. Da eine Oktave aus den gleichen harmonischen Frequenzkomponenten besteht, sich also die Klangfarbe durch unterschiedliche Intensitätsverhältnisse ändert, werden auch diese leicht verwechselt.

Besonders interessant ist in diesem Zusammenhang, dass tiefe Frequenzkomponenten aus einem Klang weggelassen werden können, die Tonhöhe aber weiterhin als die gleiche empfunden wird. Außer einer leicht veränderten Klangfarbe, die etwas schriller sein wird, schränkt dies die Hörqualität nicht weiter ein. Diese Eigenschaft wird unter anderem beim eingeschränkten Frequenzspektrum des Telefons angewendet.

�.�.� Maskierte Klänge

Aus Erfahrungswerten versteht sich eigentlich von selbst, dass leise Klänge von lauten übertönt werden können. Unterhält man sich in ruhiger Umgebung, ist dazu keine allzu große Lautstärke notwendig. Erklingt nun ein Störschall, beispielsweise in Form lauter Musik, versteht man seinen Gesprächspartner nicht mehr. Dieser muss die Lautstärke des Gesprochenen schon deutlich erhöhen um die Hörbarkeitsgrenze wieder zu überschreiten. Der Störschall überdeckt den Nutzschall, welcher erst wieder wahrgenommen werden kann, wenn er die Mithörschwelle überschreitet. „Die Mithörschwelle gibt denjenigen Schalldruckpegel eines Testschalles […] an, den dieser haben muß [sic], damit er neben dem Störschall gerade noch wahrgenommen werden kann“ [Zw82]. Allerdings ist es nicht ganz richtig, dies ausschließlich von der Lautstärke eines Klanges abhängig zu machen. Klänge mit hohen Frequenzen werden leichter von Klängen mit tiefen Frequenzen überdeckt, als umgekehrt. Dieses Phänomen lässt sich mit der Kenntnis über die Wellenbewegung entlang der Basilarmembran im Innenohr erklären. Hohe Frequenzen regen bekanntlicherweise die Membran am basalen Ende zu einer Welle an, welche schnell wieder ausläuft. Tiefe Frequenzen lassen den Wellenberg vom basalen Ende bis kurz vor das apicale Ende der

Page 29: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

Schnecke ansteigen. Wellen einer hohen Frequenz erreichen auf ihrem Weg durch die Schnecke also niemals die Stellen, die durch tieffrequente Wellen angeregt werden. Wellen einer tiefen Frequenz dagegen durchlaufen auch den Teil der Schnecke, an dem hohe Frequenzen die Basilarmembran ins Schwingen bringen. Vermutlich ist dies der Grund dafür, dass unser Hörvermögen sich für hohe Klänge besonders stark verändert, wenn es durch tiefere Klängen in ausreichender Lautstärke gestört wird.

Wie sieht es nun aber aus, wenn nicht einzelne Frequenzen als Störschall betrachtet werden, sondern ein Rauschen mit breitem Frequenzband? Speziell wird hier das Weiße Rauschen betrachtet, welches in allen hörbaren Frequenzen eine gleich hohe Schallintensität besitzt. Verständlicherweise wirkt sich dieser Störschall, auch wieder stark abhängig von der Lautstärke, mehr auf hochfrequente als auf tieffrequente Klänge aus. Die Mithörschwelle von hohen Tönen liegt deutlich höher als die von tiefen Tönen. Allgemein maskiert Weißes Rauschen ein Signal besser als ein einzelner Sinuston. [Pi99]

Nun kommt aber noch ein weiterer Effekt hinzu, der von der Komplexität des Gehörs zeugt. Der Mensch ist mit dem zweikanaligen Hören in der Lage in einem Raum mit vielen unterschiedlichen Schallquellen beliebige Schallereignisse als Nutzschall auszuwählen und vom restlichen Störschall zu trennen. Bei diesem so genannten Cocktailparty-Effekt ist der Mensch also mit ein wenig Konzentration allein durch seinen Willen dazu fähig, verschiedene Quellen zu orten, zu trennen und im Gehirn zu verstärken. Natürlich ist dies nur innerhalb der Grenzen der Mithörschwelle möglich. Ist ein Ton für das Innenohr nicht mehr registrierbar, trägt auch die größte geistige Anstrengung nicht mehr zum Hören dieses Tones bei. Wird die Differenz zwischen Nutzschall und Störschall zu gering, wird auch die Lokalisationsschärfe beeinträchtigt. [Bl85]

�.3 Orientierung im KlangraumWie gut der Mensch sich über Klänge orientieren kann, sieht man an diesem einfachenBeispiel:BefindetmansichnachtsimfreienFeldundhörteinunerwartetesGeräusch, ist einem in der Regel sofort bewusst, woher das Geräusch kommt und wie weit sein Verursacher entfernt ist. Durch die Lokalisation des Geräusches ist man in der Lage, entsprechend instinktiv zu reagieren. Besonders betrifft dies plötzliche Schalländerungen, welche auch eine plötzliche Veränderung der Umwelt und damit für den Menschen eine mögliche Gefahr bedeutet. Nicht umsonst erschreckt man besonders leicht bei unerwarteten akustischen Reizen. Jedoch ist man nicht nur in der Lage, einzelne Schallquellen zu lokalisieren, sondern hat stets auch ohne unseren visuellen Sinn eine gewisse Vorstellung vom momentanen Aufenthaltsort.

�.3.� Raumeindruck

Der durch Schall entstehende Raumeindruck ist zum größten Teil das Resultat ausreflektiertenSchallwellen.WiebereitsimKapitel2.5.2beschrieben,werdenSchallwellen an Hindernissen je nach Oberflächenbeschaffenheit zum Teilreflektiert,zumTeilabsorbiert.BeirauenOberflächenwerdendieunterschiedlichen

Page 30: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

FrequenzkomponentendesreflektiertenAnteilszusätzlichgestreutundsomitimKlang verändert. Durch die unterschiedlichen Laufzeiten von Direktschall und Diffusschall, also reflektiertem Schall,macht sich das Gehirn ein Bild von derUmgebung.VorallemWandreflexioneninRäumenveränderndieKlangfarbesowieauch die Schallstärke. Dieser Effekt ist je nach Anwendung teils gewünscht, teils ungewollt. Ein Orgelkonzert in einem schalltoten Raum wäre beinahe undenkbar, da erst durch denNachhall die Töne ineinander überfließen und einen rundenKlangergeben.DieshatallerdingsauchseineGrenzen.FrüheReflexionen,alsodiejenigen, welche innerhalb von etwa 50 bis 80 ms nach dem Direktschall am Ohr eintreffen, können nicht bewusst getrennt vom Direktschall wahrgenommen werden (Präzedenz-Effekt) [Be94][Bl85]. Die frühen Reflexionen haben einenentscheidendenEinflussaufdieBildungderRäumlichkeit.DerZeitraumbevordererste Diffusschall beim Hörer eintrifft, ist die Anfangszeitlücke (Pre-Delay, siehe Abbildung 2.10). Ist diese relativ klein, entsteht auch ein kleinräumiger Eindruck, da dieerstenbeimHörerankommendenReflexionenkeinenweitenWegzurücklegenkonnten und somit eine geringe zeitliche Verzögerung haben. Als Nachhall wird der Diffusschall bezeichnet, der mindestens 80 ms nach dem Direktschall am Hörplatz eintrifft. Auch der Anteil an Diffusschall, der erst nach dieser Zeit eintrifft, ist signifikant für das Empfinden der Umgebung. Das Räumlichkeitsempfindenist außerdem abhängig von Pegel, Einfallswinkel und Spektrum des Nachhalls [Bl85]. Problematisch sind vor allem hohe Peaks im Nachhall, welche als Echo wahrgenommen werden.

In Abbildung 4.5 ist eine Grenzkurve für den Bereich der wünschenswerten Räumlichkeit bei der Musikwiedergabe aufgezeichnet. Er wird definiert durchVerzögerungszeit und der Differenz des Hallpegels zum Pegel des Direktschalls. Nach unten wird er durch die Wahrnehmbarkeitsschwelle begrenzt. Die Räumlichkeit wird mit steigendem Hallpegel stärker, ab einem bestimmten Pegel tritt jedoch die Summenlokalisation auf, welche auch bei sehr kurzen Verzögerungszeiten zu beobachtenist.DirektschallundreflektierterSchallwerdendannalseinSignalaus einer bestimmten Richtung wahrgenommen. Ab etwa 50 ms werden hohe Rückwurfpegel als störendes Echo wahrgenommen. Es handelt sich bei der Abbildung nur um ein Beispiel, wünschenswerte Räumlichkeit kann beispielsweise bei der Sprachwahrnehmung ganz anders aussehen.

Summenlokalisation

störendes Echo

Mithörschwelle

Sum

men

loka

lisat

ion

Bereich wünschenswerterRäumlichkeit

0 20 40 60 80 100

-20

-10

0

Peg

eld

iffer

enz

Rück

wu

rf m

inu

s Pr

imär

sch

all i

n d

B

Verzögerung des seitlichen Rückwurfs in ms

 Abbildung 4.5 Existenzbereich wünschenswerter Räumlichkeit sowie eine Kurve gleicher Räumlichkeit. Direktschall plus ein Einzelrückwurf aus 40°, 16°, Musiksignal, Gesamtpegel von Direktschall plus Rückwurf konstant ca. 75 dB. Quelle: [Bl85]

Page 31: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

Für einen Redner wäre eine zu lange Nachhallzeit in sofern schlecht, dass seine Worte durch den Hall, noch stärker durch Echos, zu sehr überdeckt und unverständlichwerdenwürden.ZusammenfassendempfindetderMenschdurchmäßigen Hall verursachte, an beiden Ohren unterschiedlich hörbare Klänge als angenehm und natürlich. Hall sollte also auch bei künstlich erzeugten Geräuschen nicht fehlen, jedoch unter Beachtung der soeben genannten Wirkungsweisen gezielt zur Bildung einer künstlichen Räumlichkeit eingesetzt werden. Fehlt jeglicher Hall wirken Klänge in der Regel unnatürlich und „trocken“. [Ru01]

Der Raumeindruck entsteht also durch mehrere Faktoren, welche am besten in Kombinationwirken.EntscheidendfürdasRäumlichkeitsempfindensindalso:

AnteilanfrühenReflexionenundderenräumlicheVerteilung

Länge der Anfangszeitlücke (Pre-Delay)

Länge der Nachhallzeit

Pegel, Einfallswinkel und Spektrum des Nachhalls

�.3.� Entfernung

Bei der Betrachtung der Distanz eines Empfängers von einer realen oder virtuellen Schallquelle muss zuerst zwischen der relativen und der absoluten Entfernung unterschieden werden. Die absolute Entfernung bedeutet, dass der Empfänger in der Lage ist, seinen Abstand zu einer beliebigen Schallquelle einzuschätzen, ohne vertraut zu sein mit den Schalleigenschaften des zugehörigen Objekts. Natürlich weiß eine Testperson aus Erfahrungswerten beispielsweise, wie laut ein Auto in einer Entfernung von zwei Metern klingen müsste. Bei der relativen Distanz werden lediglich Distanzen mehrerer Schallquellen oder zeitlich variierende Distanzen einer Schallquelle miteinander verglichen, ohne auf Maßeinheiten einzugehen. Im Falle von 3D-Sound Anwendungen interessieren vorrangig Entfernungseinschätzungen virtueller Klangbilder, nicht realer Schallquellen. Bei Multimedia-Anwendungen kommt zusätzlich die visuelle Komponente hinzu, also die Frage, inwiefern das Empfinden der Entfernung einer virtuellen Schallquelle durch die AnwesenheiteineszugehörigenvisuellenObjektesbeeinflusstwird[Be01].

GenausowiefürdieBildungderauditivenRäumlichkeitsindReflexionenfürdasEntfernungsempfindenvonentscheidenderBedeutung.Dabeisollteberücksichtigtwerden, dass dieses Empfinden durch andere, nachfolgend erwähnte Faktorenentscheidend beeinflusst wird. Die grundlegendste und gemeinverständlichsteGröße zur Bemessung der Distanz ist die Lautstärke. Unabhängig von anderen akustischen Faktoren betrachtet, lässt sich durch Anstieg oder Abfall der Schallintensität sowie durch erlernte Wechselbeziehung zwischen visuellen und akustischen Ereignissen, die Entfernung einer Schallquelle einschätzen. In einer Klangkomposition lässt sich allein durch die Lautstärke leicht zwischen Vordergrundgeräuschen und Hintergrundgeräuschen unterscheiden. Physikalische Grundlage dafür ist der Intensitätsverlust eines Schallereignisses abhängig vom zurückgelegten Weg.

Page 32: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

WirdimreflexionsfreienRaum,alsountereherunnatürlichenBedingungen,dieEntfernung zwischen Sender und Empfänger verdoppelt, sinkt die physikalische Größe des Schalldruckpegels um 6 dB. Mit der psychoakustischen Größe der Lautheit in Sone ausgedrückt wird diese bei einer Verdopplung der Entfernung halbiert, was in etwa äquivalent mit einem Abfall des Schalldruckpegels um 10 dB ist. (Die genaueren Hintergründe zu dieser Berechnung sind im Kapitel 2.4 zu finden.)DasphysikalischeModellwirdauchvondenmeisten3D-SoundSystemenzur Berechnung der Intensitätsreduktion verwendet, da das Modell der Lautheit im Zusammenhang mit der Entfernungsberechnung extrem durch Hall sowie Addition mehrerer komplexer Klänge gestört wird. Hinzu kommt, dass ein Produzent nie die Intensität eines Schallereignisses am Ohr eines Empfängers voraussagen kann, da der Benutzer als letzter die Kontrolle über den Lautstärkepegel seiner Anlage hat [Be01]. Weiterhin kommt der Effekt hinzu, dass bei weit entfernten Schallquellen HöhenstärkeralsBässedurchdieLuftgedämpftwerden,waszuspezifischenKlangmustern führt, die für die Entfernungsbestimmung genutzt werden.

In Räumen, in denen Reflexionen auftreten, haben diese einen stärkerenEinflussaufdasDistanzempfindenalsdieLautstärke[Be01].OhneausreichendeVergleichsmöglichkeiten mit anderen Klängen oder hinreichende Vertrautheit miteinemKlanglässtsichimreflexionsfreienRaumdieEntfernungnurschwereinschätzen. Für die Bildung des Distanzempfindens durch Reflexionen sindmehrere Phänomene verantwortlich. Die diesbezüglich ablaufenden physikalischen Prozesse wurden in Kapitel 2.5.2 bereits weitestgehend erläutert. Wichtig für das Distanzempfinden hat sich das Verhältnis zwischen reflektiertem unddirektem Schall, auch R/D-Verhältnis genannt, herausgestellt. Wird bei gleich bleibender Lautstärke und Anfangszeitlücke das R/D-Verhältnis verändert, kann eine Distanzdifferenz zur Schallquelle festgestellt werdend [Be94]. Je kleiner der Anteil an reflektiertem Schall ist, desto näher erscheint eine Schallquelle.NochentscheidenderfürdasEntfernungsempfindenalsdasR/D-VerhältnisistdieAnfangszeitlücke (ITDG = Initial Time Delay Gap, auch Pre-Delay). Sie bezeichnet die Zeit, die zwischen dem Eintreffen des Direktschalls und dem Eintreffen der erstenstarkenReflexionenliegt(sieheauchAbbildung2.10).DieAnfangszeitlückeist für einen Raum nicht konstant. Je nach der Entfernung zur Schallquelle sowie der Position des Empfängers in einem Raum ist die Anfangszeitlücke unterschiedlich lang. Die Schallquelle wirkt nahe, wenn der Pre-Delay lang ist und macht einen fernen und nebulösen Eindruck, wenn der Pre-Delay kurz ist. Je weiter man sich von einer Schallquelle entfernt, desto geringer wird die Laufzeitdifferenz zwischen DirektschallundreflektiertemSchall[pdf1].Esseizusätzlichbemerkt,dasssichdurch die Abhängigkeit der Anfangszeitlücke von der Größe eines Raumes auch das Empfinden der Entfernungmit der Raumgröße schwankt. Eine gleichweitentfernte Schallquelle wirkt in einem kleinen Raum näher, als in einem großen. [Be94]

Page 33: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

Der Unterschied eines am Empfänger eintreffenden Schallereignisses einer weit entfernten Schallquelle verglichen zu einer relativ nahen Schallquelle sind also zusammenfassend folgende:

Der Klang ist leiser (durch die größere zurückgelegte Strecke)

Geringerer Anteil an hohen Frequenzen (durch den Luftwiderstand)

Höhere Hallanteile

Kleinere Anfangszeitlücke

�.3.3 Richtung

Für eine eindeutige Richtungslokalisation einer Schallquelle sind zwei Angaben notwendig. Zum einen ist dies der Einfallswinkel des Schalls in der horizontalen Ebene (Transversalebene), zum anderen der in der halben Medianebene (Sagittalebene). Mit diesen beiden Angaben lässt sich der komplette Raum aufspannen, indem die sagittale Halbebene (von oben bis unten) um die Transversalebene gedreht wird.

Für jede der beiden Ebenen besitzt das Gehör einen eigenen Lokalisations-mechanismus.

Medianebene

Wie bereits in Kapitel 4.1.1 erläutert, wirken Ohrmuschel und Gehörgang als richtungsselektive Filter. Schallsignale werden je nach Richtung unterschiedlich verzerrt, wofür vor allem folgende physikalische Effekte verantwortlich sind: Reflexion und Diffraktion an Kopf und Ohrmuschel sowie Resonanzen imOhrkanal. Durch Auswertung der unterschiedlichen Verzerrungsmuster ist das Gehör in der Lage, den Elevationswinkel zu ermitteln sowie zwischen Vorne und Hinten zu differenzieren. Für die Lokalisation in der Medianebene werden also hauptsächlich monaurale Merkmale verarbeitet. Dies lässt sich durch ein einfaches Experiment zeigen: Im Ohrkanal einer Versuchsperson werden Schallereignisse aus unterschiedlichen Positionen der Medianebene aufgenommen. Diese Mono-Aufnahme wird der Versuchsperson dann diotisch (beidohrig, linkes oder rechtes Signal auf beiden Ohren) vorgespielt. Es ergibt sich also in beiden Ohrkanälen das gleiche Signal wie bei der Aufnahme. Die Versuchsperson ist in der Lage, die Richtung ohne größere Abweichungen im Vergleich zum Hören mit freien Ohren festzustellen. Werden zusätzlich interaurale Merkmale hinzugefügt, welche beim natürlichenHören stets vorhanden sind, beeinflusst auch dies die Lokalisationnicht zum negativen. Dies ist leicht durch dichotisches Vorspielen (linkes Signal

0˚ 0˚

oben

unten

links

rechts

 Abbildung 4.6 Links: Horizontale Ebene (Transversalebene), Rechts: halbe Medianebene (Sagittalebene)

Page 34: Orientierung im Surround-Raum mit Shockwave 3D

��

Das Hören �

auf rechtes Ohr und rechtes Signal auf linkes Ohr) der zuvor aufgenommenen Signale möglich. Das Hörereignis wirkt so sogar „natürlicher“. [Bl85] Es kann also davon ausgegangen werden, dass die Lokalisation in der Medianebene nicht abhängig vom binauralen Hören ist.

Wie wichtig die Form der Ohrmuscheln bei der Lokalisation in der Medianebene ist, zeigt sich, wenn einer Versuchsperson die Höhlen des Ohrs ausgefüllt werden. Das Richtungshören wird hierdurch erheblich gestört. Besonders gut werden in der Medianebene hochfrequente Signale (ab 4 kHz) lokalisiert, was vermutlich auch mit der feinen Struktur des Außenohres zusammenhängt. Für Weißes Rauschen beträgt die Richtungsschärfe bei null Grad Elevation (vorne sowie hinten) etwa ±4° und steigt für die Aufwärtsrichtung bei 90° Elevation auf ±10°. [Bl85]

Horizontale Ebene

Um eine Schallquelle in der horizontalen Ebene zu lokalisieren, sind vor allem zwei Mechanismen von Bedeutung, die beide durch die physikalischen Eigenschaften des Schalls in Kombination mit anatomischen Merkmalen des menschlichen Körpers wirken. Der erste Mechanismus ist die Laufzeitdifferenz zwischen den beiden Ohren, der zweite ist die Pegeldifferenz zwischen den beiden Ohren. Absolute Voraussetzung für das räumliche Hören sind zwei seitlich am Kopf befindlicheOhren, es handelt sich also bei beiden Mechanismen um interaurale Merkmale. Horizontale Lokalisation wird also hauptsächlich durch die Unterschiede der Signale an den beiden Ohren realisiert.

Da ein Schallereignis sich mit einer bestimmten Geschwindigkeit ausbreitet, der Weg einer Schallquelle zum rechten und linken Ohr aber nicht immer gleich weit ist, kommt der Schall teils zeitversetzt an den beiden Ohren an. Der Entfernungsunterschied ist abhängig vom Winkel der Abweichung der Schallquelle von der Null-Achse (Blickrichtung). Geht man davon aus, dass der Kopf eine perfekte Kugel ist und die Ohren genau auf ±90° sitzen (siehe Abbildung 4.7), lässt sich

linkes Ohr rechtes Ohr

SchallquelleBlickrichtung

 Abbildung 4.7 Interaurale Laufzeitdifferenz (ITD = Interaural Time Difference) für einen Zuhörer bei einer Schallquelle, die um 45° von der Blickrichtung (Null-Achse) abweicht. Quelle: [Ru01]

Page 35: Orientierung im Surround-Raum mit Shockwave 3D

30

Das Hören �

die Laufzeitdifferenz (ITD = Interaural Time Delay, auch IPD = Interaural Phase Difference) leicht errechnen. Mit dem Winkel von der Null-Achse θim Bogenmaß, dem Radius des Kopfes rund der Geschwindigkeit des Schalls c ergibt sich folgende Berechnung [Ru01]:

(4.1)

Versucht man nun, den Radius des Kopfes zu ermitteln, wird man feststellen, dass dieser nicht im Geringsten eine Kugel ist. Die Ohrkanäle sitzen zusätzlich nicht bei ±90°, sondern sind bei circa ±104° etwas nach hinten versetzt. Zwar kennen wir den anatomischen Abstand der Trommelfelder von durchschnittlich 14 Zentimetern, jedoch ist der Schall nicht in der Lage, diese auf direktem Wege (durch den Kopf hindurch) zu erreichen. Messungen am Gehörgang haben ergeben, dass die maximale Phasenlaufzeitverzögerung um den Kopf, also bei 90° Schalleinfall, 0,63 ms beträgt. Um nun den „wirksamen Ohrabstand“ zu berechnen, wird eine vereinfachte Formel verwendet, welche die Differenz der zurückzulegenden Strecke als Gerade annimmt. Somit lässt sich durch die Formel

(4.2)

mit sin 90° = 1 ein Durchmesser von 0,216 m berechnen. Der effektive Ohrenabstand für die Phasenlaufzeitdifferenz beträgt also 21,6 cm. [pdf2]

Wie Lord Raleigh bereits 1907 erkannte, sind interaurale Laufzeitdifferenzen vor allem bei tiefen Schallanteilen wirksam. Bei einer Frequenz ab 800 bis 1600 Hz tritt bezüglich der Laufzeit eine starke Lokalisationsunschärfe ein. Dies lässt sich folgendermaßen begründen: Wie zuvor ermittelt wurde, beträgt der effektive Ohrabstand 21,6 cm. Eine Schallwelle mit einer Wellenlänge derselben Ausdehnung besitzt eine Frequenz von rund 1600 Hz, da:

(4.3)

crt )sin( θθ +

=∆

cdt θsin⋅=∆

Hzmsmcf 1588

216,0/343

===λ

Page 36: Orientierung im Surround-Raum mit Shockwave 3D

3�

Das Hören �

Erreicht nun eine Schallwelle, deren halbe Wellenlänge dem Ohrabstand entspricht, den Zuhörer, tritt eine Phasenverschiebung von 180° auf. Das Gehör ist nicht mehr in der Lage zu unterscheiden, welches Ohr die Wellenfront zuerst erreicht hat, da beide Wellen zur gleichen Zeit die Null-Achse durchlaufen (Abbildung 4.8 C und D). Bei einer Frequenz von 1600 Hz tritt der gleiche Effekt durch eine Phasenverschiebung von 360° auf. [Ru01][pdf2][Be94] A und B dagegen zeigen eine Sinuskurve unter 800 Hz. Da die halbe Periode der Welle größer als der Ohrabstand ist, kann der Hörapparat die Phase der Signale eindeutig erkennen.

Bei Frequenzen oberhalb von 1,6 kHz ist es nicht mehr möglich, Zeitdifferenzen aus dem Schwingungsverlauf zu entnehmen. Es wurde lange fälschlicherweise angenommen, dass die ITD ab 1,6 kHz überhaupt keine Wirkung auf die Lokalisation einer Schallquelle hat. Zwar ist es richtig, dass die Phasen der Sinuswellen, welche kleiner als der Kopfdurchmesser sind, nicht mehr die Information über die erste Wellenfront übertragen können, also ob in Abbildung 4.8 E vor F oder F vor G gilt. Wenn nun allerdings die Amplitude einer Sinuswelle ansteigt, kann über die früher eintreffende Hüllkurve vom Gehör eine Laufzeitdifferenz ermittelt werden. Es werden also bei X und Y Informationen über den Amplitudenverlauf anstelle des Frequenzverlaufs verarbeitet. Da in hohen Frequenzbereichen Pegelunterschiede viel stärker auf die Lokalisationsschärfe wirken, ist der Laufzeitunterschied nicht wirklich relevant. [Be94]

Anhand der Laufzeitdifferenz ist eine Unterscheidung von wenigen Grad möglich, jedoch liefert diese Methode keine Lösung für eine Vorne-Hinten-Unterscheidung. Dieses Problem lässt sich durch die Kopfbewegung lösen. Ein Schallereignis, welchessichimgleichenWinkelvoroderhinterderPersonbefindet,verursachtbeim Drehen des Kopfes gegensätzliche Änderungen der Laufzeitdifferenz.

Gehen wir nun nicht mehr von einer einzelnen Schallquelle aus, sondern, wie es sich im Falle der Stereo oder Mehrkanal Wiedergabe ergibt, von mehreren Schallquellen an unterschiedlichen Positionen, die das gleiche Signal aussenden, jedoch zeitversetzt. Beide Ohren nehmen alle Schallquellen wahr, das Gehirn lokalisiert jedoch die Phantomquelle ausschließlich aus der Richtung, aus der das zuerst ankommende Signal gesendet wurde. Dieses Phänomen wird Präzedenz-Effekt oder auch „Gesetz der ersten Wellenfront“ genannt. Es wirkt ab einem bestimmten Verhältnis von Laufzeitdifferenz und Pegeldifferenz und wird von der grünen und der blauen Kurve in Abbildung 4.9 repräsentiert. In dem dargestellten Graphen verläuft die Laufzeitdifferenz in horizontale Richtung, die Pegeldifferenz

linkes Ohr

rechtes Ohr

linkes Ohr

rechtes Ohr

linkes Ohr

rechtes Ohr

linkes Ohr

rechtes Ohr

A

B

C

D

E

F

G

X

Y

 Abbildung 4.8 Laufzeitdifferenz von Hüllkurven. Quelle: [Be94]

Page 37: Orientierung im Surround-Raum mit Shockwave 3D

3�

Das Hören �

in vertikale Richtung. Der Effekt wirkt nur in einem Verzögerungsbereich zwischen den Signalen von etwa 2 bis 50 ms. Dies ist auch der Grund, weshalb früheReflexionendieLokalisationsschärfenichtstören.Jenseitsder50ms ist das Gehör in der Lage, die Schallereignisse bewusst getrennt wahrzunehmen. Das später ankommende Signal wird, bei ausreichendem Pegelunterschied auch schon mit weniger Laufzeitdifferenz als 50 ms, als Echo wahrgenommen.

Eine Sonderform des Präzedenz-Effekts ist der Haas-Effekt, benannt nach Helmut Haas. Seine Untersuchungen beziehen sich ursprünglich auf die Raumakustik und beschreiben die Einschränkung der Lokalisation durch verzögerten Schall mit erhöhtem Pegel bis 10 dB. Seine Ergebnisse zeigen, dass bei einer Verzögerungszeit von 10 bis 30 ms eindeutig der zuerst einfallende Schall für die Wahrnehmung der Richtung maßgeblich ist. Erst bei noch höherem Pegelunterschied wird das zweite Signal getrennt wahrgenommen. Die Ergebnisse seiner Untersuchungen werden durch die rote Kurve dargestellt. [pdf3]

Laufzeitdifferenz t in ms

Peg

eld

iffer

enz

L in

dB

links früherrechts später

rechts rüherlinks später

rechts lauterlinks leiser

10

20

10

20

30

10203040 10 20 30 40

Ech

o m

ög

lich

Ech

o m

ög

lich

links lauterrechts leiser

Summenlokalisation

Gesetz der 1. WellenfrontGesetz der 1. WellenfrontEchowirkung Echowirkung

Hörereignis direkt aus Richtung des linken Lautsprechers

Hörereignis direkt aus Richtung des rechten Lautsprechers

Beide Lautsprecher werdengleich laut empfunden (Haas)

 Abbildung 4.9 Bereich des Gesetzes der ersten Wellenfront und Summenlokalisation für Interchannel-Signale. Quelle: [pdf4]

Phantomquelle, wird nahe der früheren Quelle

wahrgenommen

linkes Ohr

rechtes Ohr

Schall-quelle

Delay

FrüherSpäter

Abbildung 4.10  Auftreten der

Summenlokalisation bei der interauralen

Laufzeitdifferenz. Quelle: [Ru01]

Page 38: Orientierung im Surround-Raum mit Shockwave 3D

33

Das Hören �

Unterhalb der 2 ms tritt ein Effekt ein, der sich Summenlokalisation nennt und bereits indirekt besprochen wurde: Die natürlich auftretende interaurale Laufzeitdifferenz von maximal 0,63 ms ist auch eine Form der Summenlokalisation. In Abbildung 4.10 geben die beiden Lautsprecher dasselbe Signal wieder, nur mit unterschiedlicher Zeitverzögerung. Der Zuhörer nimmt jedoch nur ein Phantomsignal wahr, welches zwischen den beiden Quellen wandert. Da die beiden Signale summiert werden, wird dies auch als Summenlokalisation bezeichnet.

Bei hohen Frequenzen dominiert die für die horizontale Lokalisation die interaurale Pegeldifferenz (ILD = Interaural Level Difference). Der Kopf stellt ein Hindernis für Schall mit kurzen Wellenlängen dar, Wellen dagegen, die länger als der Durchmesser des Kopfes sind, beugen sich um ihn herum (Diffraktion). Es entsteht für Frequenzen über 1,6 kHz eine Art „Schatten“ am weiter entfernten Ohr, in dem der Schall abhängig vom Einfallswinkel leiser wahrnehmbar ist. Weitere ÄnderungenderPegeldifferenzwerdenverursachtdurchReflexionenanKörper,Schultern und Ohrmuschel sowie durch Resonanzen des Außenohrs. Auch durch den zum einen Ohr weiteren zurückgelegten Weg wird die Lautstärke gering beeinflusst,wasjedochfürweiterentfernteSchallquellenvernachlässigbargeringist. Die Pegeldifferenz an den beiden Ohren ist stark abhängig von der Frequenz sowie von der Person selbst. Das Hören unterscheidet sich bei jedem Menschen ähnlich wie der Fingerabdruck. Wie die Pegeldifferenz beim natürlichen Hören vom Schalleinfallswinkel abhängt, zeigt Abbildung 4.11. Die abgebildete Kurve wurde durch ein Sprachsignal ermittelt. Bei 30° Schalleinfallswinkel, was der typischen Aufstellung von Zweikanal-Stereoboxen entspricht, wird beispielsweise zwischen den beiden Ohren eine Lautstärkedifferenz von etwa 4 dB gemessen, wenn nur eine Box Signale abgibt.

Alle frequenzabhängigen Amplituden- und Laufzeitunterschiede zusammengefasst, ergibt sich eine von Position und Einfallswinkel des Schallereignisses abhängige Funktion mit der Bezeichnung HRTF (Head-Related Tranfer Function). Sie enthält ÄnderungendesFrequenzspektrumsdurchReflexionenanKörper,SchulternundOhrmuschel sowie Resonanzen des Außenohrs. Diese HRTFs sind vor allem im Zusammenhang mit der Kunstkopfstereophonie wichtig. Kunstkopfaufnahmen

0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180

0,5

1

1,5

2

2,5

3

3,5

4

4,5

5

5,5

6

6,5

7

7,5

Schalleinfallswinkel in ˚

Inte

rau

rale

freq

uen

zab

hän

gig

e Pe

gel

diff

eren

z in

dB

 Abbildung 4.11 Zusammenhang von Pegeldifferenz und Einfallswinkel beim natürlichen Hören. Die durchgezogene Linie stelle ein Sprachsignal, die gestrichelte ein Musiksignal dar. Quelle: [pdf5]

Page 39: Orientierung im Surround-Raum mit Shockwave 3D

3�

Das Hören �

sind jedoch nicht lautsprecherkompatibel sondern nur über Kopfhörer korrekt wahrnehmbar. Allerdings erkennt man anhand von ihnen gut die frequenzabhängigen Pegeldifferenzen, die für die Position einer virtuellen Schallquelle nötig sind.

In welchem Ausmaß die in-teraurale Pegeldifferenz und die interaurale Laufzeitdiffe-renz bei der Stereo-Wiederga-be mit zwei Kanäle wirken, soll mit den Kurven der folgenden Grafiken (Abbildung 4.12,Abbildung 4.13) verdeutlicht werden. Aus den dargestell-ten Untersuchungsergebnis-sen lassen sich auch Schlüsse auf die Mehrkanal-Stereopho-nie ziehen. Bei der Aufstellung zweier Boxen in einem Winkel von 30° zur Blickrichtung wür-de in den Abbildungen eine Hörereignisrichtung von 30° bei 100% auf der horizonta-len Achse bedeuten. Es lässt sich ablesen, dass bei einer Pegeldifferenz von 18 dB ±2 dB, beziehungsweise 16 dB bis 20 dB, zwischen den Laut-sprechern das Hörereignis auf 30° lokalisiert wird. Entspre-chend geschieht dies bei einer Zeitverzögerung von 1,5 ms ±0,5 ms, also 1 ms bis 2 ms, zwischen den Lautsprechern. Das Signal wird in beiden Fäl-len direkt in Richtung Laut-sprecher gehört.

0 10 20 30 40 50 60 70 80 90 100

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

Hörereignisrichtung in %

Peg

eld

iffer

enz

in d

B

18 dB2 dB+–

hohe Töne,impulshafte Signale

tiefe Töne,sinusähnli-che Signale

0 10 20 30 40 50 60 70 80 90 100

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1,0

1,1

1,2

1,3

1,4

1,5

1,6

1,7

1,8

1,9

2,0

Hörereignisrichtung in %

Lau

fzei

tdiff

eren

z in

ms

1,5 ms0,5 ms+–

hohe Töne,impulshafte Signale

tiefe Töne,sinusähnli-che Signale

 Abbildung 4.12 Hörereignisrichtung in Abhängigkeit von der Pegeldifferenz von Interchannel-Signalen bei der Lautsprecher-Stereophonie. Quelle: [pdf6]

 Abbildung 4.13 Hörereignisrichtung in Abhängigkeit von der Laufzeitdifferenz von Interchannel-Signalen bei der Lautsprecher-Stereophonie. Quelle: [pdf7]

Page 40: Orientierung im Surround-Raum mit Shockwave 3D

3�

Das Hören �

Es sei nochmals ausdrücklich darauf hingewiesen, dass bezüglich des Lokalisati-onswinkels dringend zwischen dem Hören einer natürlichen Schallquelle und einer Phantomschallquelle durch die Stereophonie-Wiedergabe unterschieden werden muss. Sowohl die Laufzeitdifferenz als auch die Pegeldifferenz muss für die glei-che Lokalisationswirkung an den Lautsprechern höher sein, als die bekannten Werte für die interaurale Laufzeit- oder Pegeldifferenz an den Ohren. [pdf5]

Page 41: Orientierung im Surround-Raum mit Shockwave 3D

3�

Surround Audio�

• Begriffsklärung

• Historie

• Formate im Heimbereich

• Räumliches Hören mit Surround-Sound

Page 42: Orientierung im Surround-Raum mit Shockwave 3D

3�

Surround Audio �

� Surround Audio

�.� BegriffsklärungDie Begriffe rund um die räumliche Audiowiedergabe sind teils unpräzise und sollen hier kurz erläutert werden. Der Ausdruck „stereo“ bedeutet eigentlich körperlich oder plastisch. Stereofonie lässt sich dementsprechend als plastischer Klang übersetzen, was für ein möglichst realistisches Hörereignis steht. Da der Begriff Stereo allerdings zur Abgrenzung von der Mono-Wiedergabe eingeführt und damals in der Regel mit zwei Kanälen realisiert wurde, wird heute Stereo generell mit der Zweikanal-Stereofonie gleichgesetzt. Mit der Entstehung der Mehrkanalwiedergabe im Heimgebrauch wurde zur Abgrenzung vom Zweikanal-Stereo der Begriff des Surround-Sounds eingeführt, was so viel wie umgebender Klang bedeutet. Surround stand ursprünglich für das analoge Dolby Surround Verfahren, wird heute jedoch unter anderem für Mehrkanal-Stereo allgemein, verschiedene Pseudo-Surround-Verfahren oder auch für die rückwärtigen Kanäle der Mehrkanalwiedergabe verwendet. Es muss daher stets auf den Kontext des Begriffes geachtet werden.

�.� HistorieDie Entwicklung der Audiotechnik begann Mitte des 19. Jahrhundertes mit der ErfindungderEdisonwalzedurchThomasAlvaEdison.Dieser„Phonograph“konnteSchallwellen auf eine beschichtete Walze zeichnen und wieder reproduzieren. Ende des 19. Jahrhunderts begann die Entwicklung der Schallplatte, welche den Phonograph qualitativ weit übertraf. Selbstverständlich war nur eine Wiedergabe in Mono möglich. Im Kinobereich begann Anfang des 20. Jahrhunderts die Entwicklung desLichttonfilms.FürdiesynchronenAufnahmenvonBildundTonwurdendieAudioinformationen auf den gleichen Film wie das Bild aufgenommen. Durch unterschiedliche Lichtdurchlässigkeit konnten die Schallvorgänge gespeichert werden. Erst der Beginn der Elektrotechnik revolutionierte ab 1925 völlig die Entwicklung der Audiotechnik. Es entstanden unter anderem das Mikrofon und der Lautsprecher in Form eines elektromechanischern Wandlers, zur Übertragung der Schallsignale wurden erstmals Kabel verwendet.

1931 kann mit dem Patent der Stereo-Schallplatte von Alan Dower Blumlein als Beginn der Entwicklung der Stereophonie gesehen werden. Walt Disneys „Fantasia“ war 1941 der erste öffentlich in Stereo aufgeführte Film. Auch im Rundfunk begann 1950 das Stereozeitalter mit dem ersten UKW-Sender. Das Zweikanal-Stereo war eine enorme Verbesserung gegenüber Mono und erfuhr eine schnelle Akzeptanz. Stereo wurde schnell zum allgemeinen Begriff für die Zweikanal-Audiotechnik.

Mit der Entwicklung der Magnetbandaufzeichnung, welche bereits um 1900 begann, entstand ein wichtiges wiederbeschreibbares Medium. Durch eine ständige Verbesserung der Tonbänder und spätestens mit der Entwicklung der Compaktcassette und dem Rauschunterdrückungsverfahren von Ray Dolby (Dolby A) in den 60er Jahren wurden Magnetbänder voreilig als Folgemedium der Schallplatte prophezeit. Mit dem Tonband als Medium entstand zu dieser Zeit dann auch die Idee der Quadrofonie, bei dem das Zweikanal-Stereo durch zwei

Page 43: Orientierung im Surround-Raum mit Shockwave 3D

3�

Surround Audio �

rückwärtige Kanäle erweitert wird. Vier diskrete Audiokanäle konnten mit keinem anderen bekannten Tonträger als dem Tonband für den Heimbereich realisiert werden. Dieses jedoch war nicht weit genug verbreitet, um die Vierkanal-Stereofonie, welcher auch heute noch eine recht gute Räumlichkeit zugesprochen wird, entsprechend zu etablieren. Die Alternative zur diskreten Übertragung war ein Matrixverfahren, bei dem die hinteren Kanäle in den zwei vorderen Kanälen „versteckt“ wurden. Aufgrund konkurrierender, nicht kompatibler Matrix-Quadrosysteme setzten sich diese nicht durch, Audioanlagen mit Quadrosystem waren in einem sehr hohen Preissegment anzuordnen. Zweikanal-Stereo-Aufnahmen konnten mit dem Quadrosystem zwar wiedergegeben werden, ähnlich wie Monoaufnahmen, die als Stereo abgespielt werden, handelt es sich dann aber nicht um „echte“ Quadrophonie.

Im Kino dagegen, bedingt durch die Größe der Räume, setzten sich bereits sehr früh mehrere diskrete Audiokanäle durch. Der Filmton war von den üblichen Consumermedien unabhängig, da dieser als Licht- oder Magnetton direkt auf dem Filmstreifen gespeichert wurde. Um den Zuschauern an allen Positionen im Kinosaal ein möglichst gutes Klangerlebnis zu ermöglichen, begann man beim Film-Stereo-Ton gleich mit mehr als zwei Kanälen. Schon in den frühen 50er Jahren entwickelte die Firma Paramount das Filmformat Cinerama, welches sieben Tonspuren auf Magnetstreifen beinhaltete. Fünf der Kanäle wurden hinter der gekrümmten Leinwand, die durch drei Bildprojektoren bestrahlt wurde, platziert. Die anderen beiden Kanäle wurden je nach Bedarf auf seitliche oder rückwärtige Lautsprecher gelegt. Cinerama wurde wegen seiner hohen Komplexität und Kosten bald durch CinemaScope abgelöst, bei dem vier Audiokanäle als Magnetstreifen auf dem 35-mm-Film gespeichert wurden. Die vier Kanäle wurden auf drei Frontkanäle und einen qualitativ minderwertigen Surround-Effektkanal gelegt. Schon sehr früh war die Notwendigkeit des Centerkanals erkannt worden, da durch breite Leinwände seitlich sitzende Zuschauer Dialoge sonst nicht korrekt lokalisieren konnten. Wegen der schlechten Qualität von CinemaScope und der Komplexität von Cinerama verwendete das 1955 eingeführte Todd-A0-Format den 70-mm-Film mit einem Projektor und fünf Frontkanälen sowie einem Effektkanal. Auch ab 1970 wurde der 70-mm-Film verwendet, da der 70 mm breite Streifen neben den Bildern genügend Platz für die sechs diskreten Tonspuren bot. Aus diesen sechs Kanälen wurde dann auch von Dolby das 5.1-Format entwickelt. [pdf8] Um dem 35-mm-Film, welcher nur ein Bruchteil der Kosten verursachte, zu besserem Klang zu verhelfen, wurde Dolby Stereo entwickelt. Auf zwei Lichtspuren für die Front-Kanäle wurden zwei weitere Kanäle, Center und Surround, per Matrizierung gespeichert. [pdf9]

Mit der Einführung der Videokassette in den frühen 70er Jahren wurde auch im Heimbereich der Grundstein für Surround-Sound gelegt. Die Konsumenten waren von ihren Musikanlagen bereits an gutes Stereo gewöhnt und beeindruckt vom hoch qualitativen Surround-Sound im Kino. Nachdem Videorekorder anfangs nur Mono-Sound unterstützten, wurden diese später mit der „HiFi“ Technologie ausgestattet. Der Schritt zum Surround-Sound im Wohnzimmer war absehbar. Wieder waren es die „Dolby Laboratories“, welche es mit dem Dolby Surround Dekoder möglich machten, den Surround-Kanal zu Hause zu nutzen. Dolby Surround Pro Logic erweiterte das Klangerlebnis zusätzlich durch die Dekodierung

Page 44: Orientierung im Surround-Raum mit Shockwave 3D

3�

Surround Audio �

des Center-Kanals. Im Gegensatz zur Quadrophonie erfuhr Dolby Surround schnell eine große Marktakzeptanz, unter anderem dadurch, dass sich diese Technologie bereits im Kino bewährt hatte. [pdf9]

Als Anfang der 80er Jahre die ersten Compact-Disc-Player mit laser-optischer Abtastung auf den Markt kamen, lösten diese in kurzer Zeit die Schallplatte sowie die Kassette zumindest als vorbespieltes Medium ab. Die CD als erstes digitales Medium der Audiotechnik bot dem Endverbraucher eine bisher unerreichte Qualität und begann ihren weltweiten Siegeszug.

Auch im Kinobereich hielt die Digitaltechnik in den späten 80er Jahren Einzug. Um die analogen Audiospuren für größtmögliche Kompatibilität zu erhalten, wurden bei dem neuen Dolby Digital Verfahren die Abstände zwischen den Perforationslöchern belichtet. Die sechs zur Verfügung gestellten diskreten Kanäle enthielten nun Informationen für drei Front-Kanäle, zwei Surround-Kanäle und einen Subwoofer- oder LFE-Kanals. Das Dolby Digital 5.1 Format wurde spätestens mit der Einführung der DVD auch zum Hauptformat der Mehrkanal-Wiedergabe für die Unterhaltungselektronik.

�.3 Formate im HeimbereichDie Surround-Formate im Heimbereich haben zum größten Teil ihren Ursprung im Kinobereich. Dort wurde schon früh versucht, den Zuschauer durch umgebenden Klang mehr ins Geschehen hinein zu versetzen. Mit der Entstehung neuer und immer realistischerer virtueller Realitäten wurde auch der Wunsch nach immer effektvolleren Klangerlebnissen größer. Dies trieb die Entwicklung der Mehrkanalformate entscheidend voran. Selbstverständlich schwappte dies auch bald auf die Unterhaltungselektronik für den Heimgebrauch über. Durch sich stark unterscheidende räumliche Voraussetzungen entstand eine parallele Entwicklung der Mehrkanal-Wiedergabe für Heimanwendung. Neben dem Filmton fanden die Surround-Sound-Formate dadurch weitere Standbeine wie zum Beispiel im Musikbereich sowie in der Multimedia-Entwicklung, speziell für 3D-Visualisierungen.

Die Ansprüche an die Mehrkanal-Wiedergabe im Heimbereich unterscheiden sich deutlich von denen im Kinobereich. Da nicht ein ganzer Saal ideal beschallt werden muss, wird nur ein kleinerer Sweet-Spot (Bereich des idealen Hörerlebnisses) nötig. Die Notwendigkeit des Center-Kanals ist im Heimbereich umstritten, da dieser für einen realistischen Eindruck und korrekte Dialogortung bei breiten Leinwänden eingeführt wurde. Die drei bis fünf Frontkanäle werden beim Kino hinter der Leinwand positioniert. Die frontale Ausrichtung des Surround-Aufbaus blieb jedoch durch seine Anerkennung im Kinobereich und Kompatibilität zu bestehenden Formaten erhalten.

Page 45: Orientierung im Surround-Raum mit Shockwave 3D

�0

Surround Audio �

�.3.� Zweikanal-Stereophonie

Die Zweikanal-Wiedergabe ist das älteste der Raumklangverfahren und bildete den Ausgangspunkt der Mehrkanal-Stereophonie. Es ist bis heute das am weitesten verbreitete Format im Heimbereich und lässt sich sowohl mit Lautsprechern als auch Kopfhörern nutzen. Der ideale Aufbau für beste Lokalisationseigenschaften ist in Abbildung 5.1 zu sehen. Die beiden Lautsprecher werden in einem Winkel von ±30° zur Blickrichtung aufgestellt. Natürlich entsteht hierbei kein seitliches oder hinteres Klangbild, was jedoch je nach Anwendung auch nicht unbedingt wünschenswert ist.

Eine Spezialform der Stereophonie ist die Kunstkopf-Stereophonie. Sie unterscheidet sich durch eine spezielle Aufnahmetechnik, bei der Mikrophone in die Gehörgänge einer Nachbildung des menschlichen Kopfes inklusive Ohrmuscheln platziert werden. Durch realistische Nachbildung von Resonanzmuster, Laufzeitdifferenz und Pegeldifferenz entsprechen die Aufnahmen stark dem natürlichen Hören. Da dieses Verfahren ausschließlich für die Kopfhörer-Wiedergabe geeignet ist, soll hier nicht weiter darauf eingegangen werden.

�.3.� Quadrophonie

Wie bereits erwähnt wurde in den 70er Jahren versucht, die Zweikanal-Stereophonie durch zwei rückwärtige Kanäle zu erweitern. Zwar entstand hierdurch ein deutlich räumlicheres Klangerlebnis, jedoch konnte sich „Quad“ auf Grund fehlender Übertragungsmedien und unterschiedlicher, nicht kompatibler Systeme nicht durchsetzen. Bei der Quadrophoniewiedergabe werden die vier Lautsprecher in einem Winkel von je 90° zueinander aufgestellt. In der Mitte zwischen allen vier LautsprechernbefindetsichdieidealeHörposition(Sweet-Spot).

�.3.3 Dolby Surround und Dolby Pro Logic

Das erste Format, welches sich im Heimbereich durchsetzte war Dolby Surround. Entstanden war Dolby Surround aus dem analogen Mehrkanal-Format Dolby Stereo, welches von Dolby für die Kinowiedergabe entwickelt wurde. Mit Dolby Pro Logic wurde das Dekodierungsverfahren verbessert und es stellt die Grundlage fast aller Heimkinoanlagen dar. Im rechten und linken Stereosignal werden durch eine Matrix-Codierung insgesamt vier Kanäle übertragen. Diese vier Kanäle sind vorne links (L), vorne rechts (R), vorne mitte (C) und hinten (S). [www5]

L R+30˚-30˚

 Abbildung 5.1 Die ideale Zweikanal-Stereo-Abhöranordnung

Page 46: Orientierung im Surround-Raum mit Shockwave 3D

��

Surround Audio �

Bei der Kodierung werden die beiden vorderen Kanäle L und R unverändert übernommen. Der Centerkanal C wird um drei Dezibel abgeschwächt und auf die beiden Stereokanäle verteilt addiert. Der Surroundkanal S wird ebenfalls um drei Dezibel abgesenkt und um ±90° in der Phase gedreht. So transformiert wird er ebenfalls auf die Signale L und R addiert und man erhält die totalen Stereosignale Lt und Rt.

Da das Surroundsignal auf beiden Stereokanälen vorliegt, jedoch in umgekehrter Phase, erhält man durch eine Subtraktion von Lt- und Rt-Signal im Decoder den gewünschten Surroundkanal (Abbildung 5.4a). Wurde am Encoder nur ein Centersignal addiert, sind die Signale an Lt und Rt identisch, werden also bei einer Subtraktion ausgelöscht. Am Surroundkanal bewirkt dies nur Stille, was die Trennung von Center- und Surroundkanal zeigt. Bei beliebiger Zusammensetzung der totalen Kanäle Lt und Rt werden Differenzen zwischen linkem und rechtem Kanal teilweise auch auf dem Surroundkanal wiedergegeben. Daher wurde statt des passiven Decoders ein aktiver Decoder eingeführt (wie etwa Pro Logic), mit der Aufgabe, dominante Signale vom Surroundkanal fern zu halten und so die Kanaltrennung zwischen Front- und Surround-Signalen zu garantieren. Dies wird

CL R

Mono Surround(100 Hz - 7 kHz)

Analoge Zweikanal-Quelle

S S

Dolby Surround (Pro Logic)Decoder

L

C -3 dB -3 dB 90˚S

R

Lt

Rt

+

++ +

+-

+

+

Lt

Rt

L

S

R

+-

Lt

Rt

L

S

VCA

VCA

R

+

+

-

-

 Abbildung 5.2 Wiedergabe-Aufbau für Dolby Surround und Dolby Pro Logic. Quelle: [Bi02]

 Abbildung 5.3 Einfaches Encoder-Prinzip. Quelle: [pdf10]

 Abbildung 5.4(a) Einfacher Passiver Decoder. Quelle: [pdf10]

Abbildung 5.4(b)   Einfacher Aktiver Decoder. Quelle:

[pdf10]

Page 47: Orientierung im Surround-Raum mit Shockwave 3D

��

Surround Audio �

durch entgegengesetzte Verstärkung bei unterschiedlichem Pegel des linken und rechten Signals vor der Subtraktion erreicht (Abbildung 5.4b). Das Center-Signal wird durch Addition der angeglichenen Lt- und Rt-Signale gewonnen.

Durch die Übertragung der vier Kanäle über ein Zweikanal-Stereo Signal ist diese Technologie abwärtskompatibel zu herkömmlichen Stereoanlagen. Ein Dolby Surround-Signal kann problemlos auf jedem Stereo-Gerät wiedergegeben werden, durch die Phasenlage scheint das Surround-Signal sogar leicht von hinten zu kommen. Analoge Programmanbieter verwenden Dolby Surround nach wie vor, um Mehrkanalinformationen über Stereosignale zu übertragen. [www5][Ru01]

�.3.� 3/� Formate

Das 3/2 Format hat sich zu einem der wichtigsten Mehrkanal-Formate entwickelt und bildet die Grundlage für die ITU 775 Empfehlung [pdf12]. Es arbeitet mit drei Front- und zwei Surround-Kanälen. Es muss unterschieden werden zwischen diskreter Übertragung der Kanäle und matrizierten Signalen.

Dolby Pro Logic II ist eine Erweiterung des eben beschriebenen Pro Logic Decodierungsverfahrens und arbeitet ebenfalls mit einer Matrix-Surround-Decodierung.EsgarantiertdurchflexiblereSteuer-LogikeinebessereKanaltrennungals Dolby Pro Logic. Das Surround-Signal wird in Stereo ausgegeben und der Decoder bietet eine Bass-Management-Funktion zur korrekten Ansteuerung des Subwoofers oder nach Wunsch Wiedergabe der Bässe über die Haupt-Lautsprecher.

Das 5.1 Format ist eine weit verbreitete Variation des 3/2 Formates und erweitert dieses durch einen Tiefbasskanal (LFE = Low Frequency Effects), bezeichnet mit der Endung „.1“ oder auch „/1“. Die diskreten Übertragungsformate Dolby Digital (AC-3) und DTS-6 (Digital Theater Sound) sind die wichtigsten Anwendungen des 5.1 Formats. Sie werden praktisch von jedem DVD-Spieler unterstützt. Die beiden Formate liefern sowohl Mono-, Stereo oder bis zu 5.1 getrennte Surround-Sound-Kanäle. Die getrennt erstellten Kanäle werden von einem Encoder datenreduziert und verlustbehaftet zu einem einzigen digitalen Datenstrom kodiert, der sich dann unter anderem über DVDs, Filmbänder, PCs oder Fernseh-Signale abspielen lässt. Die Datenraten von DTS sind hierbei deutlich höher als die von Dolby Digital. Der ursprüngliche Mehrkanalton wird vom Decoder des jeweiligen Gerätes aus dem digitalen Datenstrom wieder hergestellt.

�.3.� �.� Format

Das 6.1 Format erweitert das 5.1 Format um einen Surround-Kanal, wobei es sich im Fall von Dolby Digital EX nur um ein Pseudo-6.1-Format handelt. Der siebte Kanal wird ähnlich wie bei Dolby Pro Logic mit einer Matrix in die beiden Surround-Kanäle codiert. Dadurch ist es kompatibel zur 5.1 Wiedergabe. DTS ES dagegen liefert für das hintere Centersignal einen diskreten Kanal.

Page 48: Orientierung im Surround-Raum mit Shockwave 3D

�3

Surround Audio �

�.3.� �.� Format

Das 7.1 Format erweitert das 5.1 Format um zwei weitere Surround-Kanäle. Die seitlichen Surround-Lautsprecher sollten dabei bei ±60°, die hinteren Surround-Lautsprecher bei ±150° aufgestellt werden. Das Klangbild der 7.1 Anordnung hat deutlich bessere Lokalisationseigenschaften, auf Grund eines viel höheren Installationsaufwandes hat es sich bis jetzt allerdings nicht wirklich durchgesetzt.

Mit dem neuen Dolby Digital Plus werden jetzt auch 7.1 diskrete Kanäle unterstützt, theoretisch sogar bis zu 13.1. Zusätzlich erhöht sich die Datenrate gegenüber Dolby Digital von 640 Kbps auf bis zu 6 Mbps. [www6] Weitere Übertragungsformate sind MPEG-2-Audio und PCM-Audio [Bi02]

SDDS (Sony Dynamic Digital Sound) nutzt die zwei weiteren Kanäle als Front-Signale. Dies ist vor allem bei sehr breiten Leinwänden im Kino sinnvoll. Dolby ProLogic IIx simuliert wiederum nur ein 7.1 System und hat nur sechs diskrete Kanäle.

�.3.� THX

THX ist kein Übertragungsformat sondern eine Zertifizierung. THX wurdevon George Lucas in den frühen 80er Jahren gegründet, da die meisten Kinos akustisch so unterschiedlich ausgestattet waren, dass das Klangerlebnis nicht denVorstellungendesRegisseursentsprechenkonnte.DieZertifikateenthaltenStandards zur Qualitätskontrolle der Audiowiedergabe und stellen im Kinobereich unter anderem hohe Ansprüche an die Raumakustik. Inzwischen gibt es THX Zertifikate für Home Cinema, Car Audio, DVD-Mastering, Spiele, Multimedia,Studios usw.

�.� Räumliches Hören mit Surround-Sound

�.�.� Optimale Höranordnung

Die ITU-Empfehlung ITU-R BS 775 [pdf12] enthält eine Beschreibung der Grundbedingungen einer optimalen Höranordnung für die Monophonie bis hin zur Mehrkanalwiedergabe. Der vollständige Titel der Empfehlung lautet „Multichannel Stereophonic Sound System with and without accompanying picture“ und wurde vom SSF (Surround Sound Forum) [www7] als Basis für die deutschsprachige Empfehlung „Hörbedingungen und Wiedergabeanordnungen für die Mehrkanal-Stereophonie“ [pdf13] verwendet. Für die folgenden Kapitel sowie für die praktische Anwendung dieser Arbeit wird eine Annährung an eine solche ideale Anordnung vorausgesetzt.Die3/2KonfigurationhatsichmitderZeitquasialsStandardfürden Heimbereich durchgesetzt und stellt einen akzeptablen Kompromiss zwischen Installationsaufwand zu Hause und idealem Hörereignis im Studio dar. [Bi02] Daher wird diese als Referenzanordnung für die Mehrkanal-Wiedergabe verwendet und gewährleistet bei Erfüllung der Empfehlungen ITU-R BS 775 [pdf12] sowie SMPTE [pdf14] eine standardgerechte Wiedergabe. [pdf13] Die Empfehlung des SSF gelten

Page 49: Orientierung im Surround-Raum mit Shockwave 3D

��

Surround Audio �

primär für Studios und beinhalten sowohl Angaben zu akustischen Eigenschaften des Hörraums als auch zur Anordnung der Lautsprecher im Hörraum. Vor allem durch diese beiden Faktoren wird die erreichbare Qualität des Schallfeldes gebildet und garantiert eine vergleichbare Wiedergabe an verschiedenen Orten.

Die Ansprüche an den Hörraum im Heimbereich weichen leicht von denen im Studiobereich ab, da diese meist nur schwer umsetzbar sind. Sie sollen hier nur kurzzusammengefasstwerden.DieGrundflächedesHörraumsimHeimbereichsollte 25 m2 nicht unterschreiten. Die frühen Reflexionen, also die der ersten15 ms, sollten 10 dB geringer als der Direktschall sein, die Nachhallzeit im Frequenzbereich von 200 Hz bis 4 kHz sollte zwischen 0,2 und 0,4 s liegen. SignifikanteAnomalien imSchallfeld,wieFlatterechosoderKlangverfärbungen,sollten vermieden werden. [pdf13]

Die Lautsprecheranordnung im Heimbereich entspricht weitestgehend der im Studio und besteht bei dem Format 3/2 (Referenzanordnung) aus den drei Frontkanälen L (links), C (center) und R (rechts) sowie den Surroundkanälen LS (Surround links) und RS (Surround rechts). Die Erweiterung des Modells durch einen zusätzlichen Basskanal (LFE = Low Frequency Extension) ist gemäß ITU 775 möglich. Dieser besitzt eine eingeschränkte Frequenzbreite von 20 bis maximal 120 Hz. Teilweise handelt es sich bei dem Subwoofer nicht um einen eigenen Kanal, sondern es werden lediglich tieffrequente Signalanteile durch ein Bass-Management-System separiert ausgestrahlt. Dies ist bei fünf Stereo-Lautsprechern keine 5.1 beziehungsweise 3/2/1 Anordnung sondern bleibt eine 3/2 Anordnung. Eine Kombination der beiden Nutzungsarten des Subwoofers ist möglich. Die Aufstellung von fünf identischen Lautsprechern in Kombination mit Bildwiedergabeeinrichtung ist in Abbildung 5.5 dargestellt. Die Positionierung des LFE-Kanals ist dabei mehr oder weniger beliebig.

BeieinerkleinerenBildfläche(1)solltederHörabstand(alsoRadiusdesKreises)das Dreifache der Bildhöhe und der Winkel α etwa 33° betragen, bei einer größeren Bildfläche(2)dasZweifachederBildhöheundderWinkelβ etwa 48°. Die drei Frontkanäle sollten sich etwa in einer Höhe von 1,2 mbefindenundnichtgeneigtsein.AbhängigvonFormundGrößederBildflächekannderCenterkanalinHöheund zugehöriger Neigung angepasst werden. Der linke und rechte Frontkanal wird bei einem Winkel von ±30°, der Centerkanal bei 0° angebracht. Die Surround-

C

L R

RSLS

100˚120˚

30˚

β

α

1 2

 Abbildung 5.5 Referenz-Lautsprecher-anordnung mit den Lautsprechern L/C/R und LS/RS in Kombination mit Bildwiedergabeeinrichtung gemäß ITU-R BS 775. Quelle: [pdf13]

Page 50: Orientierung im Surround-Raum mit Shockwave 3D

��

Surround Audio �

Kanäle LS und RS werden bei einem Winkel von ±100°-120° angebracht und sollten sich mindestens in einer Höhe von 1,2 mbefinden.DieNeigungwirdentsprechendder Höhe an die Hörerposition angepasst.

�.�.� Lokalisation mit dem �.� Format

Wie gut die Lokalisations- und Räumlichkeitseigenschaften dieser Referenzanordnung sind, soll im Folgenden beleuchtet werden. Als Grundlage dienen hierbei unter anderem Untersuchungen der Zweikanal-Stereophonie, anhand derer Schlüsse für die Mehrkanal-Stereophonie gezogen werden können. Da bei der im vorherigen Kapitel beschriebenen Anordnung nur ein sehr kleiner Sweet-Spot entsteht, sollte sichderZuhörer inder idealenPositionbefindenund stetsgeradenachvorne ausgerichtet sein. Wird bei einer Zweikanal-Stereophonie-Anordnung bei optimaler Hörposition auf beiden Kanälen dasselbe Signal ohne Laufzeit- oder Pegeldifferenz abgespielt, wird dieses als ein einziges Phantomsignal in der Mitte zwischen den Lautsprechern lokalisiert. Durch ITD und/oder ILD wandert das Signal zwischen den Lautsprechern auf einer Phantomlinie. Entsprechend wandert ein Signal in der 3/2-Anordnung auf einem Phantomkreis. [pdf15] Im Falle der Zweikanal-Stereophonie wird das Phantomsignal bei einer Pegeldifferenz von etwa 18 dB beziehungsweise einer Laufzeitdifferenz von etwa 1,5 ms vollständig aus der Richtung eines der Lautsprecher wahrgenommen (siehe Kapitel 4.3.3 sowie Abbildung 4.12 und Abbildung 4.13). Grundsätzlich kann sowohl bei Stereo- als auch Mehrkanal-Wiedergabe durch Pegeldifferenzen ein leichter zu lokalisierendes Phantomsignal festgestellt werden als durch Laufzeitdifferenzen. [pdf16]

In der 3/2-Anordnung funktioniert die korrekte Lokalisation von Phantomschallquel-len auf den Frontkanälen noch besser als bei herkömmlichen Stereo-Anordnungen. Dies begründet sich durch den zusätzlichen Centerkanal, welcher jedoch durch die ohnehin guten Lokalisationseigenschaften im Frontbereich des Zuhörers nicht unbedingt nötig wäre. Auch im hinteren Bereich kann eine zufrieden stellende Lokalisation empfunden werden. Besonders große Lokalisationsprobleme entstehen an den Seiten, vor allem bei ausschließlicher Verwendung von Laufzeitdifferenzen. [pdf16] Das Signal bleibt bei einer simulierten Kreisbewegung zu lange am Frontkanal hängen, um dann plötzlich zum Surroundkanal zu springen. Außerdem scheint das Phantomsignal teilweise näher an den Hörer heranzurücken, also eine Art Ovalbewegung zu vermitteln. [pdf15]

Die seitliche Vorne-Hinten-Unterscheidung geschieht mehr durch Resonanzmuster der Ohrmuschel als durch Laufzeit- oder Pegeldifferenzen. Wird ein Signal so ausgesendet, dass es an beiden Ohren aus einer ähnlichen Richtung ankommt, werdendiesevondenOhrmuschelnauchähnlichgefiltert.DieamTrommelfellankommenden Signale werden durch ihre Ähnlichkeit als eine Schallquelle interpretiert. Im Falle der rechten oder linken Phantomlinie zwischen Frontsignal und Surroundsignal ist dies nicht mehr der Fall. Das vordere Signal wird von der Ohrmuschelandersgefiltert,alsdashintere.VermutlichhabendiebeidenSignalenicht mehr genug gemeinsam, um als eine einzige Phantomquelle interpretiert zu werden. [pdf15] Durch ein zusätzliches seitliches Lautsprecherpaar, wie dies bei einer 3/4-Anordnung (7.1-Format) der Fall ist, könnte die seitliche Lokalisierung

Page 51: Orientierung im Surround-Raum mit Shockwave 3D

��

Surround Audio �

leicht verbessert werden. Im Fall dieser Diplomarbeit kommt dies jedoch nicht in Frage, da zwar bis zu 7.1 Kanäle von der verwendeten Programmier-Umgebung unterstützt werden, 7.1-Formate jedoch deutlich weniger verbreitet sind.

Die seitliche Lokalisation ist stark abhängig von der Frequenz des Signals. Auch dies hängt vermutlich mit den Resonanzmustern der Ohrmuschel zusammen. Zudem wird die Position der Phantomschallquelle extrem durch geringste Kopfbewegungen beeinflusst.BeieinerKopfdrehungmitgleichbleibendemTonlassensichsogarFrequenzveränderungen wahrnehmen, welche wohl durch vom Einfallswinkel abhängige Filterung an der Ohrmuschel entstehen. Zwar haben Kopfbewegungen durchdenkleinenSweet-SpotauchimvorderenundhinterenBereichEinflüsseauf die Lokalisation, jedoch nicht in dem Ausmaß wie bei seitlichen Schallquellen. Selbst ohne Kopfbewegung lässt sich keine stabile Phantommitte auf der Seite schaffen. [pdf15]

Page 52: Orientierung im Surround-Raum mit Shockwave 3D

��

DirectX Grundlagen�

Page 53: Orientierung im Surround-Raum mit Shockwave 3D

��

DirectX Grundlagen �

� DirectX Grundlagen

DirectX ist eine Sammlung von APIs (Application Programming Interfaces) die von Microsoft zur Multimedia-Programmierung zur Verfügung gestellt werden. DirectX stellt für Software-Entwickler eine Schnittstelle dar, die es ermöglicht, auf spezielle Hardwareeigenschaften zuzugreifen, ohne hardwarespezifischen Codeschreiben zu müssen.

Vor allem durch einschlägige Erfolge von Computerspielen Mitte der 90er Jahre bemerkte Microsoft die Notwendigkeit einer Multimedia-Programmierschnittstelle für das damalige Windows95. Unter MS-DOS wurde hardware-abhängig programmiert,somusstezumBeispiel für jedeGrafikkarteeineigenerTreibergeschrieben und mit dem MS-DOS-Programm mitgeliefert werden. Dies war zwar umständlich aber sehr performant. Mit der Einführung von Windows wurde den Entwicklern nicht mehr der gewünschte Ressourcenzugriff gewährt. Treiber wurden nun vom Hersteller der Hardware geliefert, Zugriffe durch Anwendungen wurden vom Betriebssystem verwaltet. Nachteil dieser zentralen Hardwareverwaltung vom Betriebssystem war ein starker Leistungsverlust, vor allem im Bereich der Grafikprogrammierung.ErstmitderEinführungvonDirectXkonntenEntwicklerauf alle Ressourcen des Win32-APIs mit entsprechender Performance zugreifen.

Die momentane Version 9.0c von DirectX besteht aus den Komponenten Direct3D/Direct3DX, DirectSound, DirectMusic, DirectInput, DirectPlay, DirectShow und DirectSetup. Bei allen Komponenten handelt es sich um Funktionsbibliotheken, die von verschiedenen Programmiersprachen genutzt werden können. Im Zusammenhang mit Shockwave 3D interessieren hier ausschließlich die beiden Komponenten Direct3D und DirectSound. Direct3D bietet direkten Zugriff auf die Grafikhardware und eignet sich für komplexe grafische Szenen mit hoherInteraktionsrate. Es beinhaltet Funktionen sowohl für 3D- als auch für 2D-Grafiken.DirectSoundwiederumermöglichtdenZugriffaufdieSoundhardware.DirectSound unterstützt Raumklang (also die Positionierung von Klängen im 3D-Raum) und stellt damit 3D-Effekte wie Rolloff (Abnahme der Lautstärke durch Entfernung), Amplitude Panning (Simulation der Interauralen Pegeldifferenz), Muffling (Richtungsabhängige Geräuschdämpfung), Arrival Offset (Simulationder Interauralen Laufzeitdifferenz) und Doppler-Effekt (Frequenzverschiebung durch Bewegung) zur Verfügung. Je nach Möglichkeiten der Soundhardware können mehrere diskrete Kanäle angesteuert werden. Mit einer Surround-Anlage und den oben genannten 3D-Effekten lässt sich ein beeindruckender Raumklang erzeugen.

Mit der von CreativeLabs entwickelten EAX (Environmental Audio Extension) wurde ein zusätzliches API geschaffen, mit welchem Klänge an räumliche Bedingungen angepasst werden können. Umgebungsgeräusche sollen mit diesem System so real wie möglich erscheinen. Durch unterschiedliche Reflexionseigenschaftenverschiedener Räume müssen Geräusche je nach Raumeigenschaften auch unterschiedlich klingen. EAX berechnet anhand von Hall-Parametern oder Umgebungs-Presets(z.B.Badezimmer,Halle,Gang)wieeinKlangdurchReflexionenverändert wird und gibt diesen auf die Soundkarte aus. Dadurch wird es in einem Computerspiel möglich, beim Eintreten in eine andere Umgebung auf ein anderes Reflexionsverhaltenumzuschalten,abVersion3.0sogarvoneinemzumanderen

Page 54: Orientierung im Surround-Raum mit Shockwave 3D

��

DirectX Grundlagen �

zu morphen. Wird EAX von der Soundhardware nicht unterstützt, so wird es durch Software emuliert. Microsoft hat die 3D-Sound-Technologie ab DirectX Version 8 übernommen. Ab EAX 2.0 wurde zusätzlich realisiert, dass Hindernisse zwischen Schallquelle und Empfänger den Klang realistisch dämpfen können. Die aktuellste Version ist EAX Advanced HD 5.0. [www8]

Als Alternative zu DirectX ist für die Entwicklung von 3D-Computergrafikvor allem die OpenGL-API (Open Graphics Library) zu nennen, welche im Gegensatz zu DirectX nicht auf Windows-Systeme beschränkt ist. OpenGL sowie die zugehörige 3D-Sound-API OpenAL (Open Audio Library) bieten ebenso wie DirectX Hardwarebeschleunigung und ermöglichen darüber hinaus eine plattformunabhängige Softwareentwicklung. Unter Mac OS X wird vor allem OpenGL und OpenAL für die 3D Spielentwicklung eingesetzt.

Page 55: Orientierung im Surround-Raum mit Shockwave 3D

�0

Shockwave 3D�

• 3D Visualisierung mit Shockwave

• 3D Sound

Page 56: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

� Shockwave 3D

Shockwave 3D ist eine 3D Engine, die für das Autorensystem Macromedia Director entwickelt wurde. Mit der von Intel Architechture Labs (IAL) gelieferten 3D-Erweiterung lassen sich 3D Inhalte in Director erstellen oder extern erstellte einbinden und für das Internet ebenso wie für Offline-Medien veröffentlichen.Die Skriptsprache Lingo bietet die volle Kontrolle über die 3D Szene. Erstmals implementiert wurde Shockwave 3D 2001 in der Version 8.5 von Director.

Vor allem für die Darstellung von interaktiven 3D Inhalten im Internet kann Shockwave 3D als führende Lösung gesehen werden. Die Shockwave 3D Darstellung wird durch ein Plug-In ermöglicht, welches vom Benutzer einmalig herunter geladen werden muss. Alternative Web3D Lösungen basieren auf offenen Standards wie VRML oder X3D und verwenden Java-Applets, benötigen also keine spezifischen Plug-ins. Vorteil des Shockwave-Players ist allerdingseine deutlich bessere Darstellungsqualität und Renderperformance. Hinzu kommt eine ohnehin weite Verbreitung des Plug-Ins [www9]. Im Vergleich zu anderen amMarkt befindlichen Plug-Ins wie Viewpoint [www10] oder Cult3D [www11],welche auch eine sehr gute Darstellungsqualität besitzen, bietet Shockwave die umfassendste Implementation von 3D Funktionen. Macromedias Einführung seiner 3D Technologie war gut geplant, was sich in der Partnerschaft zu führenden 3D Anwendungen (3DS MAX, Maya, Softimage, Lightwave, Truespace oder Cinema 4D) zeigt, welche alle einen Shockwave-Export unterstützen.

Shockwave 3D beschränkt sich nicht nur auf Anwendungen für das Internet. Aus dem Autorensystem Director können ebenso „Projektoren“ für die Verwendung auf CDs, DVDs oder anderen Medien erstellt werden. Egal für welches Medium, Shockwave 3D eröffnet die Möglichkeiten von Real-Time 3D (RT3D) ohne tief in die Programmierung mit C++ oder ähnlichen Programmiersprachen einsteigen zu müssen. Dabei handelt es sich nicht um vorgerenderte Bilder aus denen eine pseudo-3D Umgebungen (oft 2.5D genannt) erstellt wird, sondern um echte RT3D Umgebungen, welche während der Laufzeit berechnet werden.

�.� 3D Visualisierung mit ShockwaveShockwave unterstützt die Hardware-Renderer DirectX7 und DirectX5 sowie OpenGL. Damit ist die Engine eine 3D Umgebung, die sowohl auf Windows als auch auf MacOS Systemen läuft. Eine automatische Erkennung wählt den bestmöglichen Renderer ausund schaltetbei fehlendem3DChipsatzderGrafikkarteaufdenSoftware-Renderer um. Somit ist eine Darstellung der 3D Inhalte auf jeden Fall möglich. Beste Performance-Resultate werden mit DirectX7 erzielt, aber auch mit OpenGL oder dem Software-Renderer sind, je nach Komplexität der Szene, noch zufrieden stellende Ergebnisse möglich [www12]. Dabei ist die Leistungsfähigkeit der Engine zusätzlich abhängig von der im System genutztenGrafikhardware,welche bei neuerem Entwicklungsstand auch deutlich mehr Polygone darstellen kann. Als Richtwert gilt eine Anzahl von 10.000 Polygonen pro Szene, der für die Veröffentlichung im Internet nicht überschritten werden sollte [www13].

Page 57: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

Eine äußerst nützliche Methode zur Performancesteigerung (siehe auch Kapitel 8.4.7) ist die dynamische Anpassung der Geometrie. Abhängig vom Abstand einesModels von der Kamerawird die Auflösung (LOD= Level of Detail) derModellressource angepasst. Die LOD-Funktion kann sowohl automatisch mit der Entfernung des Modells arbeiten als auch manuell durch Lingo gesteuert werden. DesWeiterenlässtsichdieAuflösungabhängigvonderSystemgeschwindigkeitanpassen. Die umgekehrte Möglichkeit ist, durch SDS (Subdivision Surfaces) zusätzliche Polygonunterteilungen hinzuzufügen und damit die Details zu erhöhen.

Director ermöglicht es, die 3D Darsteller1 auf verschiedene Arten zu erstellen:

Die Szene wird mit einer externen 3D Anwendung erstellt und anschließend im W3D-Format exportiert. Mit Director wird diese Datei wiederum importiert und über Lingo kann direkt auf die 3D Objekte der Szene zugegriffen werden.

Die Szene wird von Grund auf mit der Programmiersprache Lingo erstellt.

Die durch eine externe Anwendung erstellte W3D Datei wird in Kombination mit aus Code generierten Modellen verwendet.

Werden 3D Darsteller ausschließlich durch Code generiert hat dies zum Vorteil, dass die Dateigröße extrem klein gehalten werden kann und bei der Veröffentlichung im Web keine Modelle herunter geladen werden müssen. Andererseits erweitern externe 3D Anwendungen die Möglichkeiten zur Erstellung komplexer Modelle und Animationen entscheidend. Ihre Generierung allein durch Code wäre nur schwer möglich, wenn nicht gar unmöglich. Eine Kombination der Methoden wie unter Punkt 3 beschrieben wird also bei komplexeren Szenen die ideale Lösung sein. [Ca02]

Werden die 3D Darsteller in einer externen Anwendung erstellt, sind dabei einige Dinge zu beachten. Das Shockwave 3D Format hat im Vergleich zu professionellen 3D Formaten nur eingeschränkte Darstellungsmöglichkeiten. Es ist zu empfehlen, die Modelle schon vor dem Export an die Möglichkeiten von Shockwave 3D anzupassen. Dabei sollte dringend auf möglichst starke Reduktion der Polygonzahl geachtet werden. Die Performance der erstellten Anwendung hängt stark von der Komplexität der Geometrie ab, da die einzelnen Polygone beim Hardware-Rendering imSpeicherderGrafikkarteverarbeitetwerdenmüssen.WirdSoftware-Renderingverwendet schlägt sich dies auf die Geschwindigkeit der CPU nieder, welche zusätzlich den Lingo-Programmcode ausführen muss. Die Anzahl der Polygone wirkt sich außerdem stark auf die Dateigröße aus, was bei der Veröffentlichung im Web von Bedeutung ist. Ebenso werden keine NURBS2 unterstützt, die zwar

1AllefüreinenDirectorfilmbenötigtenElementewerdenals„Darsteller“imAutorensytemabgelegt.Dabei können diese aus externen Programmen importiert oder in Director selbst erstellt werden.2 NURBS (Non-Uniform Rational B-Splines) basieren auf Splines, also Pfaden im 3D Raum. Sie umgehen das Modellieren auf der Grundlage von Polygonen und sind dadurch weitestgehend auflösungsunabhängig definiert. Sie lassen sich mit Vektoren in der 2D Grafik vergleichen,PolygonmodellierungentsprächesomitpixelbasiertenGrafiken.

1.

2.

3.

Page 58: Orientierung im Surround-Raum mit Shockwave 3D

�3

Shockwave 3D �

exportiert werden können, dabei aber in Polygone umgewandelt werden. Eine Kontrolle der Polygonanzahl sollte schon in der 3D Software vorgenommen werden.

Director verwendet für die Positionierung im 3D Raum ein rechtshändiges Koordinatensystem bei dem die Y-Achse nach oben, die X-Achse nach rechts und die Z-Achse nach vorn zeigt. Nicht alle 3D Programme verwenden diese Art von Koordinatensystemen. Cinema 4D verwendet ein linkshändiges Koordinatensystem, bei 3DS MAX handelt es sich zwar auch um ein rechtshändiges Koordinatensystem, trotzdem laufen die Achsen anders als bei Director: die X-Achse zeigt auch nach rechts, die Y-Achse jedoch zeigt nach hinten und die Z-Achse nach oben; importierte Darsteller sind in Director also um 90° um die X-Achse gedreht. Diese Unterschiede im Koordinatensystem müssen bei der Programmierung beachtet werden. Im Fall von aus Cinema 4D exportierten Shockwave 3D Darstellern, welche mit aus Code erstellten Modellen gemischt werden, muss bei der Lingo-Programmierung auf eine Anpassung des Vorzeichens der Z-Werte geachtet werden.

Um die Programmierung mit 3D-Lingo zu verstehen, sollte aber zuerst der genaue Aufbau eines Shockwave 3D Darstellers betrachtet werden. In ihm sind alle Informationen zur Darstellung der Szene enthalten. Dazu gehören Geometriedaten der Modelle, die Modelle selbst, eventuelle Gruppen, Texturen, Shader, Animationsdaten, Lichter und Kameras. [BLM01] In Director können diese Elemente ausschließlich durch Programmierung manipuliert werden. Die Grundelemente, welchedie3DUmgebungdefinierensindModelle,Kameras,LichterundeventuelleGruppen. Sie werden als Nodes (Knoten) bezeichnet. Jeder dieser Nodes kann als

LinkshändigesKoordinatensystem

RechtshändigesKoordinatensystem

Z-Achse

Y-Achse

X-Achse

Y-Achse

Z-Achse

X-Achse  Abbildung 7.1 Linkhändiges und Rechtshändiges Koordinatensystem. Quelle: [Ca02]

group(”world”)

Kamera Licht Modell 1

Shader

Textur

Modell-ressource 1

Modell 1 Klon

= Referenz auf

 Abbildung 7.2 Einfacher Shockwave 3D-Scenegraph

Page 59: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

eine Art Code-Objektmit spezifischen Eigenschaften und Funktionen gesehenwerden und besitzt eine bestimmte Position im dreidimensionalen Raum. Ergänzend werden untergeordnete Elemente in Verbindung mit diesen Nodes verwendet. SiedefinierendieGeometriederModelle(Modellressource)unddieErscheinungihrer Oberfläche (Shader) oder enthalten Eigenschafen für Animationen,Kollisionen sowie das Rendering (Modifier). Die Gliederung der Shockwave 3DSzenewirddurcheineArtBaumstrukturdefiniert,demsogenanntenScenegraph.Die Wurzel des Graphen bildet dabei die Gruppe group(„world“). Ihr sind alle weiteren Nodes untergeordnet. Anhand eines einfachen Beispiels (Abbildung 7.2) soll dies verdeutlicht werden. Die Beispielszene besteht aus einem Modell, einer Kamera und einem Licht. Die drei Nodes sind der Gruppe group(„world“) direkt untergeordnet. Das Modell erhält ihre Geometrie vom Node „Modellressource“ und ihreOberflächeneigenschaftenvomNode„Shader“.DerShader-Nodewiederumgreift auf den Textur-Node zu, welcher Bitmap-Daten für dieModelloberflächeliefert.

Dieser Aufbau hat zum Vorteil, dass die einzelnen Elemente wieder verwendbar sind. Existieren die Geometriedaten einer Modellressource so können aus ihr beliebig viele Modelle erzeugt werden. Dasselbe geschieht beim Klonen eines Modells: Es wird ein neuer Modell-Node erstellt, welcher auf die gleiche Modellressource und den gleichen Shader verweist wie das ursprüngliche Modell, jedoch eigenen Positions- und Rotationseigenschaften besitzt.1 Hierdurch wird die Größe der herunter zu ladenden Szene gering gehalten.

Da Shockwave 3D im Gegensatz zu den üblichen 3D Modeling Tools (Cinema 4D, 3DS MAX usw.) eine Echtzeit-3D-Engine ist, bei der eine Szene ständig neu berechnet wird, können die Oberflächen nicht im vollen Umfang nachgebildet werden.ShaderbestimmendurcheinenAlgorithmusdieOberflächenbeschaffenheiteinesModells,beziehungsweisewiesichdieOberflächeverhält,wennLichtdarauffällt.OberflächeneigenschaftensindunteranderemGlanz,ReflektiondesLichts,ArtdesGlanzlichts und Opazität. Shockwave 3D unterstützt lediglich Gouraud-Shading, ein weniger rechenintensiver Algorithmus [BLM01]. Die wichtigsten Parameter zur DefinitionderOberflächebeiderVerwendungdesStandard-Shaders2 sind:

„Ambient“ definiert die Schattenfarbe des Objekts abhängig von derFarbe des Ambient-Lichts.

„Diffuse“definiertdieFarbedesObjektsabhängigvonderFarbedesauftreffenden Lichts

„Specular“ ermöglicht die Farbwahl des Glanzlichts.

„Shininess“ legt die Größe des Glanzlichts fest.

1 Im Gegensatz zur herkömmlichen Funktion clone() dupliziert die Funktion clonedeep() zusätzlich auch Modellressourcen und Shader. Clonedeep() sollte nur verwendet werden, wenn die Modellressourcen auch separat bearbeitet werden sollen, da sonst unnötigerweise dieselben Geometriedaten in den RAM geladen werden.2 Der Standard-Shader unter Shockwave 3D ist ein fotorealistischer Shader und simuliert natürlich aussehendeOberflächen.Nebenihmstehendienicht-fotorealistischenShader„Painted“,„Newsprint“und „Engrave“ zur Verfügung, welche hier nicht weiter beachtet werden sollen.

Page 60: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

„Emissive“wirdverwendet,umdenEffekteinerglühendenOberflächezu simulieren. Dabei strahlt dieses kein Licht aus.

„Blend“definiertdieOpazität/TransparenzeinesObjekts.

„Transparent“ ist vom Typ Boolean und legt fest, ob die „Blend“-Einstellung ignoriert wird.

„Texture“ weist dem Shader ein Textur-Objekt zu.

[Ca02]

3D Modeling Tools besitzen eine deutlich größere Auswahl an Möglichkeiten zur Gestaltung des Erscheinungsbildes einerObjektoberfläche.Diesewerden beimExport jedoch entweder ignoriert oder meist nur schlecht nachgebildet. Wenn vom Modeling Tool unterstützt, sollte also schon hier mit dem Gouraud-Shader gearbeitet werden oder man entwirft die Materialien für die externen Objekte erst in Director.

Besonders bei den Texturen sollte auf das Sparen von Ressourcen geachtet werden.TexturenmüssenbeimHardware-RenderingindenVRAMderGrafikkartegeladen werden. Wenn dieser überlastet ist, schaltet Director in den Software-Render-Modus um, was in jedem Fall vermieden werden sollte.

Keyframe-Animationen werden im externen 3D-Modellingtool erstellt und mit der Szene importiert. Unter Director lassen diese sich dann steuern.

�.� 3D SoundHauptanliegen dieser Arbeit ist nicht die 3D Visualisierung mit Shockwave 3D, sondern eine interaktive 3D Umgebung mit umgebendem Klang auszustatten. Von Haus aus unterstützt Director allerdings weder die direkte Positionierung von virtuellen Schallquellen im 3D Raum, noch die Ansteuerung einer 5.1-kanaligen Soundkarte. Lokalisierung von Schallquellen lässt sich rudimentär für Zweikanal-Stereophonie durch Lautstärke und Panning (Rechts-Links-Schwenk) realisieren. Zusätzliche Effekte wie verschiedene Hallmuster, Laufzeitverzögerung oder Pitch Shifting (Doppler-Effekt) müssen in Lingo simuliert oder durch den Import mehrerer Varianten eines Klangs realisiert werden. [Ca02]

Specular

Ambient Diffuse

 Abbildung 7.3 Die Wirkung der Shader-Eigenschaften „Ambient“, „Diffuse“ und „Specular“ aufdieOberflächeeines3D Modells.

Page 61: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

Um solchen Grenzen des Funktionsumfangs vorzubeugen, lässt sich Director durch Softwarekomponenten nahezu endlos erweitern. Diese in C++ geschriebenen Plug-In Module werden bei Director und anderen Macromedia-Produkten Xtras genannt. Einige Xtras werden bereits mit Director installiert, andere werden von Macromedia selbst [www14] oder von Drittanbietern [www15] zum Download angeboten. Mit den nötigen Programmierkenntnissen können Erweiterungen auch selbst geschrieben werden [www16].

Es wird zwischen vier Arten von Xtras unterschieden:

Darsteller-Xtras erlauben den Einsatz zusätzlicher, von Director nicht unterstützter Medientypen als Darsteller.

Skript-Xtras erweitern Lingo um zusätzliche Elemente.

Übergänge-Xtras stellen eine Auswahl zusätzlicher Übergänge zwischen Szenen zur Verfügung

Werkzeug-Xtras erweitern das Programm in der Autorenumgebung um zusätzlicheFunktionenmiteigenenBenutzeroberflächen.

Für die Implementierung von Surround-Sound sind vor allem die Script-Xtras von Interesse.

Es existieren zwei Script-Xtras auf dem Markt, welche der Director Anwendung die Verwendung des DirectSound APIs von Microsoft ermöglichen. Das DirectSound Xtra wird von DirectXtras Inc. [www17] angeboten und wurde von Tomer Berder programmiert. Es ist ausschließlich mit Windows und dem zugehörigen DirectX kompatibel. Das BASS Xtra wird von Cube Software Solutions [www18] zum Download angeboten und basiert auf der BASS Sound Engine von un4seen Developments [www19]. Die BASS Sound Engine ist eine von Ian Luck entworfene Audio Bibliothek für die gängigsten Programmiersprachen (C/C++, Delphi, Visual Basic, MASM) und lässt sich sowohl unter Windows-Betriebssystemen als auch unter dem Mac-Betriebssystem OSX verwenden. Unter Windows benötigt die BASS Sound Engine DirectX3 oder höher und unterstützt bis zu 7.1 Kanäle, bei der Entwicklung unter OSX wird CoreAudio für die Ausgabe verwendet, jedoch keine Mehrkanalwiedergabe unterstützt. Das für Director entwickelte BASS Xtra hat die nahezu die gleichen Eigenschaften, wie die ursprüngliche BASS Sound Engine; in ihm wurden etwa 90% der Funktionalitäten der originalen BASS-Bibliothek implementiert [doc1]. Eine plattformübergreifende Entwicklung interaktiver Surround-Sounds ist somit auf der Grundlage von Shockwave 3D und den verfügbaren Xtras leider nicht möglich.

Betrachtet man die beiden Erweiterungen, so unterscheiden sich diese nur gering in den zur Verfügung gestellten 3D-Sound Funktionen. Beide nutzen die DirectX Komponente DirectSound und setzten somit auf die DirectX-Programmierung mit C++ oder ähnlichen Programmiersprachen auf. Das BASS Xtra unterstützt zusätzlich das EAX-API um Klänge an die räumlichen Bedingungen der 3D Umgebung anzupassen. Ob eine der Erweiterungen eine bessere Performance bietet bleibt unklar.

Page 62: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

Um 3D-Sounds nutzen zu können, muss die Position jeder einzelnen Schallquelle und die Position des Listeners angegeben werden. DirectX, und somit auch die auf ihm aufbauenden Xtras, verwenden im Gegensatz zu Director ein linkshändiges Koordinatensystem. Somit muss, wie schon beim Import von externen Shockwave 3D Darstellern erwähnt, auf korrekte Vorzeichen der Z-Werte geachtet werden. Entfernungen werden in Metern angegeben, welche jedoch auch auf andere Einheiten umgestellt werden können.

Die Klänge für die virtuellen Schallquellen sollten als Monosignal vorliegen, da Stereosignale ohnehin zu Mono heruntergemischt werden, was zusätzliche Rechenleistung beansprucht. Besitzt eine Schallquelle nur eine Position, jedoch keine Ausrichtung, handelt es sich um eine Punktquelle. Unabhängig in welche Richtung sich der Listener von der Schallquelle entfernt, wird er immer in gleichem Maße leiser. Hat die Schallquelle zusätzlich eine Richtung, handelt es sich um einen Schallkegel (Abbildung 7.4). Dieser Kegel besteht bei DirectSound aus einem inneren und einen äußeren Kegel, deren Winkel sich jeweils einstellen lassen. Betragen beide Winkel 360°, handelt es sich um eine Kugel, also wieder eine Punktquelle. Innerhalb des inneren Kegels entspricht die Lautstärke der maximalen Lautstärke relativ zum momentanen Abstand zu der Quelle. Zusätzlich zu den beiden Winkeln wird die Lautstärkedifferenz jenseits des äußeren Winkels relativ zur Lautstärke im inneren Kegel angegeben. Ein Wert von Null bedeutet

Stille, bei einem Wert von 100 entspricht die Lautstärke der des inneren Kegels. Zwischen innerem und äußerem Winkel geht die Lautstärke nach und nach von der inneren zur äußeren über. [www17][doc1]

Abhängig von der Entfernung zwischen einer Schallquelle und dem Listener verändert sich auch die empfundene Lautstärke. Dabei kann beispielsweise eine nahe Biene lauter klingen, als ein sehr weit entferntes Flugzeug. Standardmäßig wird unter DirectSound bei einer Verdopplung der Entfernung die Lautstärke halbiert, also um 6dB abgesenkt. [www20] Dies entspricht weitestgehend den natürlichen Bedingungen in der realen Welt. Da aus praktischen Gründen alle

 Abbildung 7.4 Das Konzept des doppelten Schallkegels. Quelle: [www20]

Schallquelle

Innerer Kegel Äußerer Kegel

Distan

z

Listenerbewegung

Innere Lautstärke

Innere Lautstärke x festgelegte Außenlautstärke in Prozent

Übergangslautstärke

Page 63: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

Sounddarsteller in der gleichen Lautstärke aufgenommen werden (16-bit Audio bietet nicht genug Kapazität für extrem unterschiedliche Lautstärkepegel) müssen unterschiedlich laute Schallquellen simuliert werden. Dazu lässt sich der minimale Abstand (minimum distance) jeder Schallquelle getrennt einstellen. Erst ab dieser Entfernung zwischen Listener und Schallquelle beginnt die empfundene Lautstärke abzufallen. Für ein Flugzeug würde beispielsweise ein minimaler Abstand von 100 Metern, für eine Biene von zwei Zentimetern eingestellt werden. [www17] Der minimale Abstand legt auch fest, wie schnell die empfundene Lautstärke ab dem minimalen Abstand sinkt. Im Fall des Flugzeugs halbiert sich die Lautstärke bei 200 Metern (doppelter Abstand), die Biene dagegen ist schon bei vier Zentimetern nur noch halb so laut. Die folgende Abbildung 7.5 zeigt für dieses Beispiel, wie die Lautstärke von Biene und Flugzeug mit wachsendem Abstand abfällt.

Die Standardeinstellung für minimum distance beträgt bei unverändertem Abstandsfaktor1 einen Meter. Dies bedeutet die volle Lautstärke bei einem Meter Abstand, bei vier Metern schon nur noch ein Viertel der Lautstärke und so weiter. Die Schallquelle wird also relativ schnell ausgefadet.

Der maximale Abstand (maximumdistance) ist der Abstand, ab der die Lautstärke nicht mehr weiter sinkt. Sein Standardwert beträgt eine Milliarde, was bedeutet, dass das Sinken der Lautstärke in vielen Fällen noch weiter berechnet wird, obwohl die Schallquelle längst nicht mehr wahrzunehmen ist. Um diese unnötige Rechenleistung zu vermeiden, sollte der maximale Abstand auf einen sinnvollen Wert gesetzt werden. Der maximum distance Wert kann jedoch auch dazu verwendet werden, einen Klang nie ganz unhörbar werden zu lassen. Wird der maximale Abstand so festgelegt, dass die Schallquelle bei dieser Entfernung noch hörbar ist, sinkt dessen Lautstärke nicht mehr weiter ab. [www20]

1 Standardmäßig werden die Maße in Metern angegeben. Wird eine andere Maßeinheit (zum Beispiel Zentimeter) erwünscht, lässt sich diese durch den Abstandsfaktor ändern.

0 100 200 300 400 500 600 700 800 900 1000

Entfernung in Metern

Lau

tstä

rke minimum distance

der Biene: 2 cm

maximum distance der Biene: 10 m

maximum distance des Flugzeugs: 1000 m

minimum distance des Flugzeugs: 100 m

 Abbildung 7.5 Unterschiedliche minimale und maximale Abstände beeinflussendasVerklingen verschiedener Schallquellen. Quelle: [www20]

Page 64: Orientierung im Surround-Raum mit Shockwave 3D

��

Shockwave 3D �

Der Rolloff Faktor legt den Effekt des Ausfadens im Verhältnis zum Abstand für alle Schallquellen fest. Er ist eine Eigenschaft des Listeners, nicht der einzelnen Schallquellen oder Kanäle. Ebenso wie der Kegel einer Schallquelle besitzt auch der Listener eine Ausrichtung. Sie wird benötigt, um die Illusion eines an einer bestimmten Stelle im Raum abgegebenen Klangereignisses zu erstellen und ist durch einen Top-Vektor und einen Front-Vektor festgelegt. Die Vektoren müssen im Fall einer Kamera als Listener (First-Person-Spiel) an die Richtungsvektoren dieser angepasst werden.

Page 65: Orientierung im Surround-Raum mit Shockwave 3D

�0

Spiel-Entwicklung�

• Problemstellung

• Konzept

• Design

• Realisierung

Page 66: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

� Spiel-Entwicklung

�.� ProblemstellungMit den obigen Erkenntnissen soll versucht werden, die Möglichkeiten der räumlichen Wahrnehmung durch das Gehör in einem Computerspiel anzuwenden. Mit einfachen Mitteln und möglichst geringem Zeitaufwand wird ein 3D Spiel entworfen, welches die Fähigkeit der horizontalen Ortung einer Tonquelle in einem Dolby Surround 5.1 System experimentell erforscht. Zwar ist es, vor allem bei First-Person-Shootern1, fast schon üblich geworden, Surround Sound zu unterstützen, jedoch stellt dies meist nur einen weiteren Schritt zu immer höherer Realitätsnähe dar. Die neuesten Entwicklungen von EAX [www8] und Dolby Digital Live [www21] ermöglichen hier eine beeindruckende Qualität. Nun soll versucht werden, dem Surround Sound nicht nur eine unterstützende Rolle zukommen zu lassen, viel mehr wird der räumliche Klang, der über eine 5.1 Anlage von allen Seiten des Spielers erklingt, den Kern des Computerspiels ausmachen. Erst durch den realistischen Raumklang wird das Spiel wirklich spielbar.

Die Klangwelt wird dabei nicht zuvor abgemischt, sondern mittels Macromedia Director aus der 3D Welt anhand fester und beweglicher Soundquellen sowie der Kamera als Listener in Echtzeit generiert. Der Anspruch an diesen interaktiven Sound-Mix betrifft also vor allem die bestmögliche Lokalisation von Soundquellen und die Vermittlung eines natürlichen Gefühls für den Raum. Verglichen mit einem „echten“ Surround Mix ist dieser interaktive Mix eher von eingeschränkter Qualität.

Eine wirklich naturgetreue Klangsimulation ist in den meisten Fällen ebenso ungewollt wie eine bis ins letzte Detail naturgetreue graphische 3D-Simulation. Viel mehr sollte die Natürlichkeit simuliert werden und kann durch gezieltes Einsetzen von Effekten für bestimmte Wirkungen sogar übertroffen werden. Dazu folgendes Zitat von Wilhelm Schlemm aus dem Surround-Sound-Forum:

„Das Naturtreue-Ideal, das sich durch immer diffizilere technische Tüfteleiender Realität des tatsächlichen Klangverhaltens anzunähern suchte, ist dem Gestaltungsidealder„artifiziellenNatürlichkeit“gewichen.ImBewußtsein[sic]desAbstandes vom lebendigen Moment bemüht sie sich um Gestaltungsergebnisse, die nicht „naturgetreu“ sind, sondern „natürlich“ wirken bzw. als „natürlich“ empfunden werden. Ziel der Tonregie ist es, einen „idealen“ Höreindruck zu simulieren, in dem sichKlangtotaleundKlangdetailsineinerfürdieMedienwiedergabespezifischen,oftmals die Realität überhöhenden Weise vereinen“. [pdf11]

Mittels dem BASS-Xtra und DirectSound wird die Klangwelt auf das Surround-System abgebildet. Durch EAX soll zusätzlich versucht werden, dem Spieler ein möglichst realistisches Raumgefühl zu vermitteln.

1 Als First-Person-Shooter (oder auch Ego-Shooter) wird eine Kategorie des Computerspiels bezeichnet, welche sich durch eine frei begehbare, dreidimensionale Spielwelt in der Ich-Perspektive sowie den Schwerpunkt auf den Kampf mit verschiedenen Schusswaffen gegen unterschiedlichste Gegner auszeichnet.

Page 67: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

�.� Konzept

�.�.� Spielidee

„Die Fliege“ ist ein 3D-Spiel, welches Surround-Sound in zwei Aspekten thematisiert. Zum einen macht das Spiel der interaktive Surround-Sound aus, zum anderen wird das Thema Surround-Sound in der Spielumgebung nochmals aufgegriffen. Als Setting wird das Innenleben eines Surround-Verstärkers verwendet. Der Spieler soll sich anhand einer 3D-Soundumgebung orientieren und so die gestellten Rätsel lösen, um Level für Level aus der Gefangenschaft in dem Verstärker zu entkommen.

Dem Spieler wird vermittelt, wie stark seine Wahrnehmung der Umgebung durch den akustischen Sinn beeinflusstwird. Die optische Ausgabe stellt zwar einenwichtigen Aspekt des Spiels dar, jedoch muss der Spieler sich teilweise völlig auf sein Gehör verlassen. Die Spannung des Spiels wird durch mehrere Faktoren aufrechterhalten. Die First-Person-Ansicht schränkt die Übersicht über das Spielfeld stark ein, die stets schwindende Sehkraft des Spielcharakters verstärkt diesenEffekt.DerSpielermusssichineinemLabyrinthzurechtfindenundmehrerespielentscheidendeOrtefinden.DiesistoftnuranhanddesGehörsmöglich.Umdie Rätsel zur Beendigung eines Levels zu lösen, muss der Spieler sich räumliche Audio-Informationen einprägen. Zusätzlich wird der Spielspaß durch einen kleine feindliche Roboter, der den Protagonisten einzufangen versuchen, erhöht. Im Laufe des Spiels können versteckte Waffen gefunden werden, mit denen der Spieler in der Lage ist, diese Roboter aufzuhalten. Bewegt sich der Spieler nicht vorsichtig genug über das Spielfeld, tappt er leicht in eine der zahlreichen tödlichen Fallen, die ihn zu einem Neustart des Spiels zwingen.

Beim Spiel „Die Fliege“ werden Aspekte aus mehreren Genre verwendet. Es handelt sich grundsätzlich um ein soundlastiges Adventure-Spiel, in welchem der Spieler unbekannte Spielwelten erforscht und Rätsel löst, um an das Spielziel zu gelangen. Auf dem Weg durch das Labyrinth werden jedoch ebenso Elemente von Actionspielen aufgegriffen. Durch das Trainieren des räumlichen Hörens beinhaltet es auch Aspekte eines Lernspiels.

Durch die Shockwave 3D Technologie eignet sich das Spiel für eine Publikation sowohlimInternetalsauchaufOffline-Medien.

�.�.� Background-Story

In den Tonlabors eines Surround-Sound Verstärkers wurde eine Fliege zur ErforschungdesdreidimensionalenHörensmodifiziert.DasWesenistmiteinembesonders feinen, menschlichen Gehörsinn ausgestattet worden, leider auf Kosten seiner restlichen Sinne. Das spärliche Gehirn, welches ihm gegeben wurde, hat mit der Zeit entgegen der Pläne der Forscher einen eigenen Willen entwickelt. Nun versuchtdasWesenzufliehen.EsentkommtderGefangenschaft,dochaußerhalbdes Labors wartet auf es ein Labyrinth aus Platinenbausteinen, welches zahlreiche Gefahren in sich birgt. Mit seinem guten Gehör ist das Wesen jedoch in der Lage, gefährlichen Situationen aus dem Weg zu gehen. Auf seine Sehkraft dagegen

Page 68: Orientierung im Surround-Raum mit Shockwave 3D

�3

Spiel-Entwicklung �

kann sich das Wesen nicht immer verlassen. Seine Augen wurden während der Versuche zerstört und durch einen künstlichen Sehapparat ersetzt. Dieser benötigt elektrische Energie um am Laufen gehalten zu werden, der eingebaute Akku hält jedoch nur einige Minuten.

�.�.3 Ziel des Spiels

ZieldesSpielverlaufsistes,denAusgangausdemVerstärkerzufinden,wobeisich das Versuchstier von Platine zu Platine weiterarbeitet. Jeder Ausgang ist durch einen speziellen Sicherheitsmechanismus geschützt. Der Spieler soll durch geschicktes Navigieren in der virtuellen 3D-Welt vermeiden, zu sterben oder wieder eingefangen und ins Labor zurückgebracht zu werden. Beides verursacht einen Neustart des Levels.

Das Spiel hat neben dem simplen Spielspaß folgende Zielsetzungen gegenüber dem Benutzer:

Stellen von Rätseln mit Hilfe verschiedener Geräuschkulissen

Schulung des direktionalen Hörens

Aufzeigen der Möglichkeiten einer Surround Anlage

Trainieren der Geschicklichkeit durch das Umgehen der versteckten Fallen

�.�.� Gameplay

Wird die Anwendung gestartet, gelangt der Benutzer zuerst zum Startmenü. Dort hat dieser die Möglichkeit, sich über das Spiel zu informieren, sein System auszutesten und Hilfe zu erhalten. Außerdem kann er ein beliebiges freigeschaltetes Level auswählen und starten.

Das Spiel selbst beginnt beim ersten Level mit einem Intro-Film, der den Spieler in die Vorgeschichte des Versuchstiers einführt und dessen Flucht aus dem Labor zeigt. Die Animation lässt sich durch drücken der Space-Taste abbrechen. Ab dem zweiten Level wird der Intro-Film nicht mehr gezeigt. Auf der Platine angekommen, übernimmt der Spieler die Kontrolle über das Wesen. Dazu verwendet dieser die Cursor-Tasten, um sich vor und zurück zu bewegen oder sich zu drehen. Eingeschränkt sind die horizontalen Bewegungen lediglich durch Kollisionen mit Hindernissen. In speziellen Bereichen der Spielumgebung sind Aktionen möglich, welche durch Overlay-Symbole auf dem Monitor angezeigt und durch die Enter-Taste aktiviert werden können. Es wird in der First-Person-Ansicht gespielt, ein Avatar1 ist also ausschließlich in den Videosequenzen sichtbar.

Um zur nächsten Platine, beziehungsweise zum nächsten Level zu gelangen, muss der Ausgang des jeweiligen Levels gefunden werden, welcher durch einen Code gesichert ist. Dieser Code wiederum kann am Codierer abgerufen werden und besteht aus einer Abfolge von direktionalen Tönen, welche der Spieler sich merken und am Ausgang wieder eingeben muss. Die drei wichtigsten Schlüsselstellen eines

1 Ein Avatar bezeichnet eine künstliche Person in der virtuellen Realität

Page 69: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Levels sind Codierer, Codeeingabe und Ausgang, welche durch eine Kombination von visuellen und akustischen Signalen auffindbar sind. Die Suche nach denSchlüsselstellen wird durch die stets schwächer werdende Sehkraft erschwert. Allerdings existiert an einer bestimmten Stelle der Platine ein loses Stromkabel, an welchem der Akku des Sehapparats erneut aufgeladen werden kann.

Außerdem muss sich das Wesen auch ständig vor einem kleinen Roboter in Acht nehmen, welcher ihm auf den Fersen ist. Er hat die Aufgabe es einzufangen, gibt aber glücklicherweise Geräusche von sich, die sein Herannahen ankündigen. Er hat keine nennenswerte KI (künstliche Intelligenz) und bewegt sich zufällig über das Spielfeld. Hat das Versuchstier sich mit dem auf der Platine versteckten Laser bewaffnet, ist es in der Lage, den Roboter aufzuhalten. Wird dieser getroffen, bleibt er für einige Zeit bewegungsunfähig.

Schafft der Spieler es zum Ausgang des letzten Levels, gelangt der Protagonist in ein Zimmer außerhalb des Verstärkers, in dem eine riesige 5.1 Anlage steht. Es beginnt eine Schlussanimation, in der sich die Fliege summend in die Luft erhebt. Der Ton ist nicht mehr interaktiv, sondern wurde zuvor abgemischt. Während die FliegeaufdasFensterdesZimmerszufliegtundesdurchdiesesverlässt,werdenKlang und Bild immer realistischer. Eine Stadt ist aus der Vogelperspektive zu sehen, von welcher die Töne zur Fliege hinauf klingen.

Der Schwierigkeitsgrad und die Anzahl der Level müssen derart gestaltet sein, dass es mehrere Stunden in Anspruch nimmt, das Spiel zu beenden. Der Schwierigkeitsgrad wird einerseits durch immer komplexere Rätsel gewährleistet, andererseits steigt die Wahrscheinlichkeit zu sterben durch die immer größere Dichte an Fallen und der steigenden Geschwindigkeit des feindlichen Roboters.

Das Flussdiagramm enthält neben den strukturellen Basisdaten zum Ablauf des Spieles weitere wichtige Informationen über logische Bedingungen, die erfüllt sein müssen, damit sich Spielende durch die Geschichte bewegen können. Um eine gesicherte Tür zu öffnen, benötigt man zum Beispiel einen Soundcode. Der Soundcode stellt damit die Ursache dar, das Öffnen der Tür eine daraus abgeleitete Wirkung. DasSpiel basiert grundsätzlich auf einer ganzen Kette solch einfacher Ursache-Wirkung-Verknüpfungen, wobei jedoch die Codeverwaltung den Kern des Spiels ausmacht. Sie stellt die Ablaufsteuerung der Geschichte dar und ist im Flussdiagramm strukturell ausformuliert.

Tür öffnet sich

Code Eingabe

Start

nächstes Level

Code gefunden

Code korrekt

nein

nein

ja

ja

t < 5 sec

ja

nein

Abbildung 8.1  Flussdiagramm der

Codeeingabe im Spiel

Page 70: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

�.3 Design

�.3.� GU�

Das Startmenü (Abbildung 8.2) besteht aus zwei Komponenten einer Musikanlage, welche die beiden Hauptbereiche des Menüs darstellen. Die obere Komponente enthält mehrere kleine Displays, welche für die unterschiedlichen Level des Spiels stehen. Wurde ein Level erfolgreich abgeschlossen, wird das nächste Level freigeschaltet. Statt des Störbilds, welches zeigt, dass ein Level noch nicht gespielt werden kann, wird eine Vorschau des Levels angezeigt. Wird das Vorschaubild eines Levels angeklickt, gelang der Benutzer direkt auf die jeweilige dreidimensionale Spielumgebung im Innern des technischen Gerätes.

Der untere Bereich des Menüs, der eigentliche Surround-Verstärker, beinhaltet verschiedene Hilfsfunktionen. Auf dem Display werden verschiedene Informationen ausgegeben. Durch ein „Rollover“ über einen Menüpunkt wird auf ihm die jeweilige Funktion des Elements ausgegeben. Ebenso werden Informationen über das verwendete System ausgegeben, zum Beispiel Warnmeldungen bei fehlender Unterstützung von Mehrkanalwiedergabe oder DirectX. Folgende Menüpunkte befindensichaufderunterenKomponente:

Help – Informationen zur Bedienung des Spiels wie Tastaturbelegung, Hintergrundinformationen und Ziel des Spiels

About – Informationen über Autor und Kontext des Spiels

5.1Info–HilfestellungzumkorrektenAufbaueiner5.1Konfiguration

Surround Test – Ermöglicht das Testen der Surround-Anlage vor dem Starten des ersten Levels. Durch Anklicken eines Boxen-Symbols erklingt auf dem jeweiligen Kanal ein Rauschen. Das Viereck steht für den Subwoofer.

Exit – Verlassen des Spiels

Levelauswahl

Hilfsmenü

Level 1 Level 2 Level 3

Rollover- und Systemmeldungen

Surround-Test

MenüpunkteExit

 Abbildung 8.2 Das Startmenü

Page 71: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Die eigentliche 3D Spielumgebung füllt das gesamte Anwendungsfenster aus. AnweisungenundspielrelevanteInformationenwerdengrafischeingeblendet,umdieKlangweltnichtzustören.BefindetsichdieSpielfigurineinemBereich,indemeine Aktion möglich ist, erscheinen ein entsprechendes Symbol und gegebenenfalls ein Erklärungstext. Durch drücken der Enter-Taste wird die mögliche Aktion dann ausgeführt.

�.3.� Setting

Als Setting wurde das Innenleben eines Audio-Verstärkers gewählt, um das Thema Surround Sound auch hier nochmals aufzugreifen. Das Labyrinth des Spiels gestaltet sich durch verschiedene Bauteile, die sich in mehrere Kategorien einteilen lassen:

Sicht- und Bewegungshindernisse DieseHindernisseversperrendenWegfürdieSpielfigurundesistnicht möglich über sie hinweg zu sehen.

Bewegungshindernisse SieversperrenauchderSpielfigurdenWeg,nichtjedochdieSicht.

Funktionale Bauteile In der Nähe dieser Bauteile sind bestimmte Aktionen möglich, wie zum BeispieldasEingebeneinesSoundcodes.SiegebeneinspezifischesGeräusch von sich, anhand dessen sie leichter gefunden werden können.

Fallen IsteineFalleaktiv,solltesichdieSpielfigurnichtinihremWirkungsbereichbefinden.AuchsiegebenspezifischeGeräuschevonsich, bevor sie aktiv werden.

Zusätzlich zur gewöhnlichen 3D Umgebung auf der Platine existieren mehrere Spezialumgebungen. Sie werden angezeigt, wenn eine Aktion ausgeführt wurde. UmdenSoundcodezuerhalten,betritt dieSpielfigureineneigenen3DRaum,in dem keine Umgebungsgeräusche mehr zu hören sind. Soll der Code wieder eingegeben werden, um zum Ausgang des Levels zu gelangen, wird ein Interface

 Abbildung 8.3(a) Aufbau und Design eines Levels - Aufsicht

 Abbildung 8.3(b) Aufbau und Design eines Levels - Spielansicht

Page 72: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

eingeblendet, auf welchem die Code-Töne platziert werden können. Hat der Spieler seine Waffe aktiviert, wird ein Fadenkreuz eingeblendet, das Laufen ist in diesem Fall nicht mehr möglich.

�.3.3 Charaktere

Im Verlauf des Spiels treten lediglich zwei Charaktere auf:

Das Versuchstier ist der Protagonist, welcher durch den Spieler gesteuert wird. Es handelt sich um eine Fliege, welche teilweise mit menschlichen Körperteilen ausgestattet wurde, wobei vor allem die menschliche Ohren von Bedeutung sind.

Der Betäubungsroboter stellt den Gegner des Protagonisten dar. Er versucht, das Versuchstier wieder einzufangen und trägt dafür eine Betäubungsspritze mit sich.

�.3.� Sound und Musik

Um erfolgreich eine 3D-Sound Anwendung entwickeln zu können, müssen schon in der frühen Designphase Kompromisse zwischen idealem Klangerlebnis und erforderlichem Aufwand geschlossen werden. Um ein System zu entwickeln, dessenUmsetzungsowohl im festgesetztenzeitlichenundfinanziellenRahmenliegt, als auch für möglichst viele Benutzer zugänglich ist, sollte zuerst festgelegt werden welchen Anforderungen der Klang genügen muss.

Zu großen Teilen haben Sounds in der Anwendung eine den Benutzer leitende oder warnende Funktion, teilweise dienen sie jedoch ausschließlich der Vertiefung im Spiel. Einige Klänge haben primär die Funktion, ein angenehmes Klangbild zu schaffen und sind nicht mit einem tieferen Sinn belegt. Sie sind atmosphärische Klänge und sind in der Regel nicht mit visuellen Ereignissen verknüpft. Gleichzeitig bilden sie den Störschall für die sinnbelegten Klänge, welche entweder direkt mit einem visuellen Spielereignis verbunden sind, oder eine der wichtigen Schlüsselstellen akustisch markieren. Die sinnbelegten Klänge sind Überträger komplexerer Bedeutungen, wie zum Beispiel das Geräusch einer sich öffnenden Tür, das die korrekte Eingabe eines Codes signalisiert. Die bedeutungsfreien Klänge verhelfen dem Klangerlebnis zu mehr Natürlichkeit.

Da sich die Position und Ausrichtung des Listeners ständig verändern, muss der räumliche Klang generell in Echtzeit erstellt werden. Dezente atmosphärische Umgebungsgeräusche können allerdings teilweise schon im Voraus abgemischt und bei Bedarf abgespielt werden, da diese ausschließlich einem volleren und realistischeren Klangraum dienen.

Eine realistische Räumlichkeitssimulation wäre mit Sicherheit erstrebenswert, jedoch kann diese durch Einschränkungen bei einem 5.1 System natürlich nicht gewährleistet werden. Es ist bekannt, dass auch bezüglich der Lokalisationseigenschaften vor allem im seitlichen Bereich Abstriche gemacht werden müssen. Viel bedeutender als die exakte Abbildung der Natur und perfekte Lokalisation ist allerdings die Tatsache, dass die 5.1 Konfigurationmittlerweile

Page 73: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

sehr weit verbreitet ist und somit die meisten Leute Zugang zu dieser Technologie haben. Auch existieren zur 5.1-Wiedergabe Programmierungs-Bibliotheken sowie Testdaten zu Klangeigenschaften dieser Systeme. Für den Zweck des Spiels, nämlichdemAuffindeneinesSoundobjekts,istein5.1-Systemausreichend.

Bei 5.1 ist relativ großer Verlass auf ein identisches Hörerlebnis bei unterschiedlichen Systemen, falls diese nach bekannten Empfehlungen [pdf13] korrekt installiert sind. Es muss garantiert sein, dass der Benutzer die gleiche Klangwelt geboten bekommt, wie der Produzent beim Entwickeln der Anwendung

Durch eingeschränkte Ressourcen wie Zeit, Geld und auch Soundhardware müssen zusätzlich geringe Abstriche an der Qualität des 3D-Sounds gemacht werden, welche jedoch den Spielspaß nicht weiter einschränken.

Die im Spiel verwendeten Sounds werden für unterschiedliche Zwecke eingesetzt. Dabei lassen sich diese in mehrere Kategorien einteilen:

Orientierung: Der größte Anteil der verwendeten Töne dient der Orientierung im 3D-Raum. Jedes spielrelevante Objekt gibt ein spezifischesGeräuschvonsichanhanddesseneserkanntundgefundenwerden kann. Dies können sowohl feste Orte wie der Ausgang sein, als auch bewegte Objekte wie der feindliche Roboter. Im Gegenspiel zu den Orientierungsgeräuschen stehen die Störgeräusche.

Störgeräusche: Um ein wirkungsvolles Klangbild zu schaffen, werden Geräusche abgespielt, die keinem speziellen spielrelevanten Objekt zugeordnet sind. Dies können Geräusche des elektronischen Geräts sein, als auch Geräusche außerhalb des Gerätes. Die Störgeräusche machen den Ambience-Klang aus. Auch Musik zählt zu den Störgeräuschen.

Warnung: Da die 3D-Welt mit diversen Fallen ausgestattet ist, benötigt der Spieler ein Frühwarnsystem, um diese umgehen zu können. Bevor eine Falle aktiv wird, ausgelöst durch zufällige Zeitintervalle oder eine bestimmte Position des Spielcharakters, gibt sie einen Warnton von sich.

Vermitteln von Stimmungen: Vor allem durch tieffrequente Töne können beim Spieler Stimmungen wie Angst oder Gefahr ausgelöst werden.

Rätsel: Die für ein Rätsel abgespielten Töne sind unabhängig von der restlichen Soundumgebung und werden von dieser isoliert abgespielt. Diese Töne muss der Spieler beispielsweise korrekt ausrichten oder sich einprägen.

Page 74: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

�.� RealisierungEntwicklungssystem:

Intel Pentium M 1,7 GHz 1 GB RAM Grafik:ATIMobilityRadeon9600ProTurbo(128MBVRAM) Audio: Terratec Aureon 5.1 USB MKII DirectX 9.0

Testsysteme:

Intel Pentium M 1,7 GHz 1 GB RAM Grafik:ATIMobilityRadeon9600ProTurbo(128MBVRAM) Audio: Terratec Aureon 5.1 USB MKII DirectX 9.0

AMD Athlon 800 MHz 384 MB RAM Grafik:NVIDIAGeForce4MX440(128MBVRAM) DirectX 9.0

Anforderungen Zielsystem:

PC mit DirectX und 5.1 Surround Support

Programmiersprache: Lingo

AuflösungderAnwendung: 800x600

�.�.� Shockwave 3D – Möglichkeiten und Einschränkungen

Bei der Umsetzung des Spiels sollte von Anfang an auf die Möglichkeiten und Einschränkungen, die Shockwave 3D bietet, geachtet werden. Dies gilt für die QualitätderGeometrien,derOberflächenundderAnimationenalsauchfürdiedes Sounds. Da das Spiel auch Online und auf Rechnern mit eingeschränkter Ausstattung spielbar sein soll, muss mit den verfügbaren Ressourcen sparsam umgegangen werden. Die Qualität des Echtzeit-Renderers muss im beabsichtigten Look mitbedacht werden. Riesige qualitativ hochwertige Texturen können selbstGrafikkartenneuererComputerindieKniezwingen.Eskannnichtdavonausgegangen werden, dass alle Features professioneller Modellierungssoftware ins Shockwave-Format übertragbar sind. Daher müssen Methoden gefunden werden, mit denen eine möglichst gute Annährung an die gewünschte Optik gewährleistet ist.

Page 75: Orientierung im Surround-Raum mit Shockwave 3D

�0

Spiel-Entwicklung �

�.�.� Erstellung der Szene

Vorbereitung der 3D Umgebung mit Cinema �D

Mit der 3D-Modellierungssoftware Cinema 4D werden alle Modelle erstellt, die aus komplexeren Meshes (Gitternetze) bestehen. Einfache Grundobjekte können direkt in Director erstellt werden. Dabei wird nicht die gesamt 3D-Szene erstellt, sondern nur je eine Instanz eines Objektes. Die Modelle werden alle im Ursprung des globalen Koordinatensystems platziert und später mit Lingo geklont und an diegewünschtePositionverschoben.NachdemModellieren inhoherAuflösungwerden die einzelnen Modelle so weit wie möglich reduziert. Hierzu eignet sich hervorragend das Deformations-Objekt „Polygonreduktion“. Dieses verringert die Polygonanzahl bei gleichzeitiger möglichst weitgehender Erhaltung der geometrischen Objektform. Es ermöglicht, die Stärke der Polygonreduktion jedes einzelnen Objekts genau einzustellen und sein sich daraus ergebendes Erscheinungsbild zu kontrollieren. Zusätzlich wird eine automatische Triangulierung im Verlauf der Reduktion vorgenommen, was in sofern von Vorteil ist, dass Shockwave 3D ausschließlich dreieckige Polygone unterstützt.

Die Texturierung der Modelle sollte erst nach der Reduzierung und Triangulierung geschehen. Sollen nur bestimmte Polygonselektionen texturiert werden, würden diese Selektionen bei der Polygon-Deformation verloren gehen. Allgemein sollten Texturen äußerst sparsam eingesetzt werden, da diese unter Shockwave 3D starkdiePerformancebeeinflussen.TexturenmitAlpha-Kanälensolltenbereitsin Cinema 4D vermieden werden, da bei der Verwendung von Alphakanälen mit einer guten Auflösung (8Bit pro Kanal) eine Farbtiefe von 32 Bit anstelle von 16 Bit ohne Alpha benötigt wird. Dies bedeutet etwa eine Verdopplung des Videospeicherbedarfs für die jeweilige Textur. Um die Größe der Bilder klein zu halten wird zusätzlich das komprimierte Jpeg-Format verwendet. Ohne die Verwendung von Alpha-Texturen ergeben sich erhebliche Schwierigkeiten beim bereichsbegrenzten mappen von Schriften oder ähnliche Elemente auf eine fertigeOberfläche. Shockwave 3D besitzt imGegensatz zuCinema4D keineneigenen Alpha-Kanal. Um dieses Problem zu umgehen, wird eine Polygonselektion erstellt, die den zu texturierenden Bereich eingrenzt. Auf diesen Bereich wird eine Kopie des Shader gemappt. Dem kopierten Shader wird zusätzlich die gewünschte Textur durch Multiplikation hinzugefügt. Unsichtbare Bereiche der Textur müssen also im Jpeg weiß sein. Weiterhin sollte beim Arbeiten mit Texturen für Shockwave 3D niemals eine Regel gebrochen werden, welche sich „Zweierpotenzen-Regel“ nennt. Sie bezieht sich auf die Maße, welche für Höhe und Breite der Bitmaps gewählt werden. Beide Maße sollten aus einer Zweierpotenz bestehen (diese sind 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024 usw.). Diese Regel leitet sich davon ab, dass der Shockwave 3D Renderer ausschließlich mit diesen Maßen arbeiten kann. Liegt eine Textur in einer anderen Größe vor, wird diese automatisch skaliert. Nicht nur, dass dies eine zusätzliche Performance-Belastung bedeutet, die Texturen können zusätzlich stark verzerrt werden, da eine unproportionale Skalierung möglich ist. [Ca02]

Wurden alle Modelle erstellt, optimiert und texturiert, kann die Szene als Shockwave 3D (W3D-Datei) exportiert werden. Die einzelnen Modelle können sowohl gemeinsam innerhalb einer Szene als auch in einzelnen, getrennten

Page 76: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Dateien zur Verfügung gestellt werden. Unter Director besteht die Möglichkeit, auf die Struktur einer oder mehrerer Szenen zuzugreifen und diese anzupassen. Daher sollte auch dringend auf eine sinnvolle und eindeutige Benennung der Objekte geachtet werden. Werden Animationen benötigt, können diese direkt auf die jeweiligen Modelle angewendet und mitexportiert werden. Es besteht auch die Möglichkeit, Animationen auf Dummy-Objekte anzuwenden und als eigene Shockwave 3D Datei zu exportieren. Unter Director können diese Animationen dann auf die gewünschten Modelle übertragen werden.

Zusätzlich zu den bereits getätigten Optimierungen an Modellen, Texturen und Animationen lässt sich über die Shockwave 3D Exporteinstellungen von Cinema 4D (Abbildung 8.4) ein optimales Verhältnis zwischen Qualität und Größe der Datei bewirken.

Aufbau der Szene in Director

Nachdem die komplexen Modelle mit Cinema 4D erstellt und in einer Shockwave 3D Datei gespeichert wurden, wird diese nach Director importiert. Um nachträgliche Änderungen an der Shockwave 3D Datei vornehmen zu können, wird sie als externer Darsteller verknüpft und somit bei jedem Start der Anwendung oder bei Bedarf von Hand neu eingelesen. Mit dem Shockwave 3D Fenster von Director kann eine Vorschau der Szene angezeigt werden. Als äußerst nützlich erweist sich das Werkzeug-Xtra „3DPI“ von Ullala [www22]. Es handelt sich dabei um einen zusätzlichen Eigenschaftsinspektor für 3D Darsteller, welcher eine schnelle Übersicht über alle Objekte einer Shockwave 3D Szene ermöglicht (Abbildung 8.5). Nahezu alle Eigenschaften lassen sich in Echtzeit inspizieren und einstellen sowie zusätzlich alle ihre Änderungen mit der „Trace“-Funktion als Lingo-Code ausgeben.

Der strukturelle Aufbau der 3D Szene ist überaus wichtig für das Verständnis verschiedener Darstellungsprobleme. Bei der Programmierung mit Lingo wird auf einzelne Elemente im Baum des Scenegraphs mit Hilfe der Punktsyntax

 Abbildung 8.4 Shockwave 3D Exporteinstellungen unter Cinema 4D

Page 77: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

zugegriffen. Auch daher sollte man sich über die Struktur der Szene bewusst sein. Um eine 3D Umgebung zu erhalten, kann diese in Director erstellt werden, oder eine komplette Umgebung inklusive Modelle, Lichter, Shader usw. importiert werden. Betrachtet man nun den Aufbau des aus Cinema 4D exportierten Shockwave 3D Darstellers, fällt auf, dass sich im Gegensatz zu einem unter Director erstellten Darsteller die Struktur leicht unterscheidet. Die Wurzel eines Shockwave 3D Strukturbaums stellt stets die Gruppe group(„world“) dar. Im Falle eines aus Cinema 4D exportierten Darstellers ist ihr jedoch zusätzlich die Gruppe group(„Scene Root“) untergeordnet. Die Ausrichtung der Z-Achse dieser Gruppe ist negativ im Vergleich zur Gruppe group(„world“). Dies hat seinen Ursprung im linkshändigen Koordinatensystem Cinema 4Ds (siehe Kapitel 7.1 sowie Abbildung 7.1). Alle Elemente, die der Gruppe group(„Scene Root“) untergeordnet sind, also alle aus Cinema 4D importierten, besitzen eine negative Z-Achse. Werden Elemente durch Lingo-Code erstellt, sind diese direkt der Gruppe group(„world“)

 Abbildung 8.5 3DPI-Xtra: Member-Tab, Model-Tab und Shader-Tab (von links nach rechts)

group(world)

group(Scene Root)

Gruppen Lichter

Modelle Modell-Klone Modell-Klone

Modell-ressourcen

Texturen

Texturen

Modelle

Shader

Texturen

Shader

Modellressourcen

Modelle

ShaderModell-ressourcen

 Abbildung 8.6 Vereinfachter Scenegraph des Spiels

Page 78: Orientierung im Surround-Raum mit Shockwave 3D

�3

Spiel-Entwicklung �

untergeordnet und besitzen somit positive Z-Achsen. Dies ist beim Umgang mit den Elementen stets zu beachten. In Abbildung 8.6 ist der vereinfachte Scenegraph der Spielumgebung dargestellt. Die importierte Umgebung wird als Container für die gesamte 3D Spielwelt verwendet und auf die Bühne1 gelegt. Durch Lingo-Programmierung werden diesem Container weitere Elemente hinzugefügt. Alle blau dargestellten Elemente wurden nicht unter Director erstellt, sondern sind Teil des originalen importieren Shockwave 3D Darstellers.

Um zusätzliche Modelle aus importierten Shockwave 3D Darstellern in diese vorhandene Umgebung einzufügen, kann unter anderem der Lingobefehl cloneModelFromCastmember() verwendet werden. Parameter dieses Befehls sind Zieldarsteller, Zielname des Modells, Quelldarsteller und Quellname des Modells. Handelt es sich um ein aus Cinema 4D exportieren Darsteller, ergibt sich allerdings ein vermutlich durch die Struktur verursachtes Problem. Das Modell wird samt seiner übergeordneten Gruppe group(„Scene Root“) zwar geklont, jedoch nicht der Gruppe group(„world“) hinzugefügt. Es wird als „removed from world“ markiert und daher auch nicht angezeigt. Das Modell muss also anschließen mit dem Befehl addToWorld() in die Gruppe group(„world“) verschoben werden.

Eine weitere sehr elegante Lösung zum Einfügen zusätzlicher Modelle in eine fertige Umgebung ist der Befehl loadFile(). Dieser 3D-Darstellerbefehl importiert die Elemente einer externen W3D-Datei in einen Darsteller. Diese Art des Imports eignet sich zur Download-Optimierung, da einzelne Teile der 3D Welt herunter geladen werden können, nachdem der Benutzer begonnen hat, das Projekt zu betrachten.

Um der Problematik der unterschiedlichen Z-Achsen entgegen zu wirken, besteht die Möglichkeit, sämtliche in der Gruppe group(„Scene Root“) befindlichenElemente direkt in die übergeordnete Gruppe group(„world“) zu verschieben. Das Vorzeichen der Z-Achse, also das linkshändige Koordinatensystem, wird allein durch diese zusätzliche Root-Gruppe verursacht. Ob die importierte Umgebung oder ein neu erstellter Darsteller als Container für die 3D Welt dient, macht keinen entscheidenden Unterschied.

Jegliche Änderungen, die mit Lingo an der 3D Welt gemacht werden, sind nicht persistent. Dies bedeutet, dass der 3D Darsteller zwar während der Laufzeit geändertwerdenkann,dieModifikationenjedochnichtmitderDateigespeichertwerden. Im Entwicklungsmodus dagegen bleiben Änderungen bei mehrmaligem Starten des Films erhalten. Wird beispielsweise ein Modell erstellt, existiert dieses beim zweiten Ausführen bereits und verursacht einen Error. Daher sollte der 3D Darsteller bei jedem Start mit der Funktion resetworld() auf seine Standardeinstellungen zurückgesetzt werden. Erst danach sollten Funktionen mit Lingo auf dem 3D Darsteller ausgeführt werden.

1 Erst wenn ein Darsteller auf der Bühne von Director liegt, wird dieser beim Abspielen des Films auchangezeigt.AndereinderBibliothekbefindlichenShockwave3DDarstellerkönnenElementezurVerfügung stellen, welche dann in die auf der Bühne liegende Umgebung kopiert werden müssen.

Page 79: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Besonders wichtig ist es, alle einfachen Geometrien direkt unter Director mit Lingo-Code zu erstellen. Dies verkleinert die Dateigröße, was besonders im Internet von Bedeutung ist, und es erhöht die Performance. Durch Code erstellte Modelle können auch zu Beginn eines Projekts als Platzhalter dienen, wenn die eigentlichen 3D Modelle noch nicht fertig erstellt sind. Mögliche Grundkörper (auch „primitives“) sind Ebenen, Kugeln, Quader, Zylinder und Partikel. Die Vorgehensweise beim Erstellen eines Modells ist stets die folgende:

Mit dem Befehl newModelResource() werden die geometrischen Informationen erstellt, welche auch als „Mesh“ (englisch für Netz) bezeichnet werden. Ein Mesh besteht aus Punkten im dreidimensionalen Raum und Flächen, die von jeweils drei dieser Punkte aufgespannt werden. Beim Erstellen der Modellressource werden dieser die Eigenschaften für den Grundkörper zugewiesen.

Die in der erstellten Modellressource enthaltenen Informationen werden verwendet, um ein Modell zu erstellen, welches schließlich sichtbar ist. Hierzu wird der Befehl newmodel() mit der gewünschten Modellressource als Parameter verwendet. Dabei ist es möglich, aus einer Modellressource beliebig viele Modelle zu erstellen.

Zuletzt benötigt das Modell eine Oberfläche. Dazu wird zuerst einShader-Node erstellt und dessen Eigenschaften wie zum Beispiel Farbe und Glanz eingestellt. Falls erwünscht, wird dem Shader zusätzlich ein Bitmap als Textur zugewiesen. Abschließend wird der Shader dem Modellzugewiesen.DieOberflächenlassensichameinfachstenmitdem3DPI-Xtra verändern, da sich die Auswirkungen der unterschiedlichen Parameter im 3D Fenster direkt überprüfen lassen. Mit der Trace-Funktion können die Änderungen dann als Lingo-Code ausgegeben und in das jeweilige Skript kopiert werden.

Wie der Benutzer die 3D Umgebung zu sehen bekommt, wird durch Kameras definiert.SiebewerkstelligendieProjektionderdreidimensionalenGeometrieaufeine zweidimensionale Ebene (entspricht dem 3D Sprite). In diesem Spiel stellt sie gleichzeitig den simulierten Spielcharakter dar, da es sich um ein Spiel in der Ich-Perspektive handelt. Bewegt der Benutzer sich über das Spielfeld, bewegt sich eigentlich die Kamera. Um die Projektion festzulegen, werden folgende entscheidende Elemente genutzt:

Position der Kamera in der 3D Welt

Richtung, in die die Kamera zeigt

Ausrichtung der Kamera

Größe der Projektionsebene

Art der Projektion

Blickfeld

[Ca02]

Page 80: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

DieAusrichtungdefiniert,wobeiderKameraobenist.BeiderimSpielgenutztenKamera entspricht dies der Y-Achse. Die Größe der Projektionsebene entspricht der Spritegröße. Bezüglich der Art der Projektion stehen die perspektivische und die orthogonale Projektion zur Verfügung. Da die perspektivische Projektion der Realität näher kommt, wird diese verwendet. Bei ihr lässt sich das Blickfeld einstellen, was übertragen auf eine Linsenkamera in der realen Welt dem Zoom entspricht. Bei einem kleinen Blickfeld wirkt die Projektion wie eine Teleaufnahme, ein großes Blickfeld gleicht einem Weitwinkel. Extreme Werte machen meist keinen natürlichen Eindruck, und da der Benutzer des Spiels einen gewissen Überblick über die 3D Welt benötigt, wird ein mittleres Blickfeld mit einem Wert von etwa 50 verwendet. Position und Richtung werden während des Spiels durch die Cursortasten verändert, was den Effekt des Laufens und sich Drehens simuliert.

Sowohl aus Code erstellte als auch importierte Modelle, Gruppen, Lichter und Kameras können durch Transformationen positioniert, ausgerichtet und skaliert werden. Jedes dieser Objekte (Nodes) besitzt eine transform-Eigenschaft, welche diezuseinemVater-ObjektrelativePosition,RotationundSkalierungdefiniert.Auf die Eigenschaft kann folgendermaßen über die Lingo-Punktsyntax zugegriffen werden:

member(whichCastmember).node(whichNode).transform.transformProperty

Die wichtigsten transformPropertys sind dabei folgende:

„translate“ führt anhand der aktuellen Positions-, Drehungs- und Skalierungsoffsets der Transformation eine Translation durch.

„rotate“ führt anhand der aktuellen Positions-, Drehungs- und Skalierungsoffsets der Transformation eine Drehung durch.

Mit „position“ kann der Positionsoffset der Transformation ermittelt und festgelegt werden.

Mit „scale“ kann der Skalierungsfaktor der Transformation ermittelt und festgelegt werden.

„rotation“ ermöglicht das Abrufen und Einstellen des Drehungsoffsets der Transformation.

[www22]

Mit transform.identity() wird die Transformation auf ihre Standardwerte (Einheitsmatrix) zurückgesetzt.

Um die 3D Umgebung für das Spiel aufzubauen, wird zuerst ein zweidimensionaler Grundriss mit allen Objekten, sortiert nach den unterschiedlichen Modellen, erstellt. Von diesem Grundriss, der der Größe der Platine im Spiel entspricht, werden die Positionen und Rotationen der einzelnen Objekte abgelesen und in eine Exceltabelle pro Modelltyp geschrieben. Aus jeder Exceltabelle wird eine zweidimensionale Liste mit Nummerierung und Transformationseigenschaften erstellt. Da in dem importierten Shockwave 3D Darsteller nur je eine Instanz eines Modells vorhanden ist, werden diese mit dem Befehl clone() vervielfacht

Page 81: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

und dann mit Hilfe der erstellten Liste automatisch transformiert. Bei Verwendung von clone() wird nur das jeweilige Modell kopiert, welches dann auf dieselbe Modellressource zugreift, wie das ursprüngliche Modell.

EinTeilderOberflächenwirddirektvonCinema4Dübernommen,wobeidieTexturenteilweise noch bezüglich Position und Skalierung angepasst werden müssen. Die restlichen Shader werden mit Lingo erstellt und den Modellen zugewiesen.

Um der 3D Welt ein wenig Leben einzuhauchen, werden diverse Animationen eingebaut. Dabei handelt es sich um Keyframe-Animationen, welche unter Cinema 4D erstellt und mit der Szene exportiert werden müssen. Neben Keyframe-Animationen sind unter Director auch Bone-Animationen möglich, welche nur als „Bone“ bezeichnete Modellsegmente animieren. Sie eigenen sich für komplexere Bewegungen und werden oft für Charakter-Animationen verwendet. Im Fall des Spiels werden diese allerdings nicht benötigt. Bei dem keyframePlayer handelt es sichumeinebestimmteArteinesModifizierers,welchereinemModellzugewiesenwird. Er lässt sich durch Lingo unter anderem starten, stoppen und in seiner Abspielgeschwindigkeit und seinem Looping-Verhalten variieren.

StarkenEinflussaufdieWirkungeiner3DSzenehatdieBeleuchtung.OhneLichtist in der 3D Welt nichts zu sehen. Die Ausstattung mit Lichtern kann bereits in der Modellierungs-Software vorgenommen als auch komplett in Director erstellt werden oder die Cinema 4D Beleuchtung erweitern. Es wird versucht, eine ausgewogene Beleuchtung ohne extreme Licht-Schatten Kontraste an den Modellen umzusetzen. Dabei muss unbedingt darauf geachtet werden, die Anzahl der Lichter möglichst gering zu halten. Die Anzahl und Art der Lichter haben einengroßenEinflussaufdiePerformancederSzene.VondenLichtartensinddieUmgebungslichter am wenigsten rechenintensiv, gefolgt von den direktionalen Lichtern, den Punktlichtern und zuletzt dem Lichttyp Spot. [Ca02] Da das Ziel nicht eine möglichst naturgetreue Beleuchtung ist, sondern eine gute Ausleuchtung der Szene, wird hauptsächlich mit direktionalen Lichtern gearbeitet. Direktionale Lichter simulieren das Sonnenlicht durch parallele Strahlen. Es muss darauf geachtet werden, dass komplexe Modelle durch die ausgeglichene Beleuchtung nicht zu flach wirken. Eventuell müssen zusätzliche „modellierende“ Lichtereingesetzt werden. Der Shockwave 3D Renderer unterstützt keinen Schattenwurf, Schatten werden nur an den Modellen selbst erzeugt. Schatten auf dem Boden oder an anderen Modellen können nur „von Hand“ simuliert werden, sind aber im Spiel nicht erwünscht.

Nun, da alle nötigen Elemente der Szene erstellt werden können, muss ein Ablaufplan für die Initialisierung der 3D Spielumgebung erstellt werden. Da das Spiel auch im Internet nutzbar sein soll, muss überprüft werden, ob der 3D Darsteller vollständig herunter geladen wurde, bevor auf ihn mit Lingo zugegriffen wird. Auch bei

 Abbildung 8.7 Director Drehbuch für Download und Initialisierung

Page 82: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

CD- oder HD-bezogenen Projekten sollte überprüft werden, ob der Darsteller korrekt geladen wurde. Dazu überprüft ein Handler den Zustand des Darstellers mit folgendem Skript:

on check3Dready(whichSW3D) if whichSW3D.state = 4 then return true else return false end if

end

Befindetsichder3DDarstellerimStatus4,istervollständiggeladen(Abbildung8.6) und der Handler gibt „true“ an das aufrufende Skript „HOLD until ready“ auf Frame 2 in Abbildung 8.7 zurück. Erst wenn dies geschehen ist, springt der Film zur Markierung „init“ (Frame 3).

Da der Status des Shockwave 3D Darstellers 4 beträgt, können nun bei der Markierung „init“ beliebige 3D Kommandos ohne Bedenken angewendet werden. Um den Darsteller in seinen ursprünglichen Zustand zu versetzten, wird als erstes die resetWorld()-Funktion aufgerufen. Anschließend wird die gesamte Welt einschließlich Kameras und Lichter aufgebaut. Dazu gehört auch das Klonen und Positionieren der unterschiedlichen Modelle. Ist dies abgeschlossen, springt der Film zur Markierung „run“, auf der eine Schleife ausgeführt wird. Sobald der Abspielkopf an dieser Markierung angelangt ist, ist der Benutzer in der Lage, sich durch die angezeigte 3D Landschaft zu bewegen. Da in allen Levels zum großen Teil dieselben Modelle verwendet werden, müssen diese beim Levelwechsel nicht neu geladen werden. Die Welt wird lediglich zurückgesetzt und neu initialisiert.

Die beschriebene Strategie eignet sich hervorragend zur zeitlichen Trennung der Initialisierung von 3D Inhalten und den restlichen Elemente des Films. Da für das Laden der 3D Darsteller kein startMovie-Ereignis verwendet wird, eignet sich dieses beispielsweise zur Initialisierung der 2D Inhalte oder in diesem Fall auch des BASS-Xtras. [Ca02]

Ladevorgang der Shockwave 3D Datei

Initial Loader

Segment

state = 1

stat

e =

2

stat

e =

4

state = 3

Rumpfteil mit verschachtelterGeometrie und Texturdaten (JPEG)

kein Zugriff auf Elemente

in der 3D-Welt per Lingo

Zugriff auf Elemente in der 3D-Welt per Lingo erlaubt Geometrie und Texturen

streamen - sichtbare Veränderung

Ladevorgangbeendet, alle

Daten vor-handen und

sichtbar

 Abbildung 8.8 Aufbau eines W3D-Files. Quelle: [Ca02]

Page 83: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

�.�.3 Benutzeroberfläche

Neben der 3D Welt des Spiels werden diverse zweidimensionale Elemente zur Benutzerführung verwendet. Die Elemente lassen sich grob in zwei Kategorien einteilen: dem Startmenü und der zweidimensionalen Elemente innerhalb des 3D-Spiels.

Das Startmenü besteht, wie schon im Designteil (Kapitel 8.3.1) beschrieben, aus der GrafikeinerSurround-Verstärker-Außenansicht.WährenddieOberflächeangezeigtwird, beginnen die externen 3D Inhalte bereits im Hintergrund vorzuladen, um die Ladezeit nach dem Starten eines Levels zu verringern. Dazu wird die Funktion preload() verwendet.

Wenn innerhalb der Spieloberfläche eine der Hilfsfunktionen aufgerufen wird,springt der Abspielkopf zum jeweiligen 2D-Menüpunkt und pausiert die 3D Umgebung des Spiels. Eine Hilfsfunktion ist zum Beispiel die Informationsansicht der Tastaturbelegung. Da das Shockwave 3D Sprite mit der Option directToStage abgespielt wird, kann kein anderer Darsteller vor diesem angezeigt werden. „Wenn die Sprite-Eigenschaft directToStage auf TRUE gesetzt ist, zeichnet Director das Sprite direkt auf dem Bildschirm, ohne es vorher im Offscreen-Puffer von Director zusammenzusetzen.“ [www22] Durch diese Eigenschaft wird die Wiedergabeleistung verbessert. Da eine das Anwendungsfenster ausfüllende 3D Welt erwünscht ist, sollen zur Lösung dieses Problems sämtliche 2D Elemente innerhalb des 3D Spiels mittels Overlays gelöst werden. Ein Overlay ist eine Kameraeigenschaft, welche es ermöglicht, eine Textur vor alle Nodes der Szene zu platzieren. Dadurch, dass die Opazitäten der einzelnen Overlays eingestellt und animiert werden können und Alpha-Kanäle in den Texturen verwendet werden können, lassen sich diverse Effekte erzielen. Zwar wurde zuvor erwähnt, dass Alpha-Kanäle weitestgehend vermieden werden sollen, doch lässt sich der gewünschte Eindruck nicht anders realisieren. Abbildung 8.9 zeigt einige der in unterschiedlichen Spielsituationen verwendeten Overlay-Elemente.

Statusanzeige für Sehkraft

Textanweisung

Fadenkreuz (Waffenmodus)

Press Enter

 Abbildung 8.9 Verschiedene Overlay-Elemente

Page 84: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

�.�.� Steuerung des Charakters

Vor der Umsetzung der Steuerfunktionen werden die nötigen Anforderungen festgelegt. Das Navigieren in der 3D Welt geschieht nur in zwei Dimensionen. Der Benutzer muss sich auf der von der X- und Z-Achse aufgespannten Ebene, also dem Platinenboden, frei bewegen können. Eine Auf- und Ab-Bewegung entlang der Y-Achse wird nicht benötigt. Die Cursor-Tasten sind also als Navigationsinstrument ausreichend. Die möglichen Bewegungen vor, zurück, Drehung nach rechts und Drehung nach links sind somit umzusetzen. Allein durch die Kollision mit allen Platinenbausteinen wird die Bewegungsfreiheit in der horizontalen Ebene eingeschränkt. Die Kollisionserkennung kann durch die zweidimensionale Bewegungsebene dementsprechend simpel gestaltet werden. Nähert sich die Kamera bis zu einem bestimmten Abstand einem Platinenbaustein, wird die Vorwärts- oder Rückwärtsbewegung gestoppt.

Die Steuerung der Spielfigur, beziehungsweise der Kamera,wird recht einfachrealisiert. Solange der Benutzer die Vorwärtstaste gedrückt hält, bewegt er sich durch die 3D Landschaft. Lässt er diese los, bleibt er augenblicklich stehen. DasSelbegilt fürdieRückwärtstaste.EineReibungsfunktion,diedieSpielfigurallmählich langsamer werden lässt, bewies sich durch den engen Bewegungsraum zwischendenHindernissenalsüberflüssigundwürdeunnötigerweisezusätzlicheRechenleistung verbrauchen. Auch die Drehung wird nur so lange vollzogen, wie die links/rechts-Tasten gedrückt sind. Dies ist sowohl während des Laufens als auch im Stehen möglich. Programmiertechnisch wird dies mit einer einfachen Transformation der Kamera realisiert. Diese wird ausgeführt, solange Lingo das Drücken der jeweiligen Taste registriert.

Zur Kollisionserkennung sind unter Director drei Methoden möglich: Die Erste ist der directorinterne Kollisions-Modifzierer, die Zweite das Havok-Xtra und die Dritte die selbst programmierte Bewegungseinschränkung.

Der Kollisions-Modifizierer deckt die Grundbedürfnisse der Kollisionserkennungfür die Modelle einer 3D Szene ab. Der Modifizierer wird beliebigen Modellenhinzugefügt und lässt sich somit auf eine ausgewählte Anzahl begrenzen. Dies ist hierwedererwünschtnochbietetderModifiziererselbstmitdieserEinschränkungeine zufrieden stellende Leistung bezüglich seiner Rechengeschwindigkeit. [Ca02]

Das Havok-Xtra ist eine Physiksimulation-Engine, welche uneingeschränkten Zugriff auf physikalische Eigenschaften und Ereignisse bietet. Zwar lassen sich mit ihm beeindruckende Effekte erzielen, für die simplen Kollisionsabfragen in diesem Spiel ist es allerdings eher übertrieben.

Am performantesten und auch am simpelsten ist es, die wenigen Abfragen nach Hindernissen zu programmieren. Grundlage hierfür bildet die modelsunderray()-Anweisung. Dieser 3D-Befehl sendet einen Strahl von einer bestimmten Position in die gewünschte Richtung aus. Er wird so aufgerufen, dass eine Eigenschaftsliste des ersten Modells, welches von diesem Strahl getroffen wird, zurückgegeben wird. Diese Liste enthält unter anderem Informationen über die Entfernung des

Page 85: Orientierung im Surround-Raum mit Shockwave 3D

�0

Spiel-Entwicklung �

getroffenenModellsunddenNormalenvektorderOberflächeandergetroffenenPosition. Diese beiden Informationen sind ausreichend für umfangreiche Kollisionsabfragen.

Bei der idealen Kollisionssteuerung für das Computerspiel, werden zwei Strahlen ausgesendet. Diese gehen von zwei der Kamera untergeordneten Child-Objekten, welchesichlinksundrechtsderKamerabefinden,aus.EineinzelnerStrahlausder Position der Kamera verursacht Fehler an den seitlichen Bildrändern, wenn ein Hindernis knapp vom Strahl verfehlt wird. Es ist sozusagen möglich, durch ein Hindernis hindurch zu laufen. Abbildung 8.10 verdeutlicht dies. Zusätzlich solleinezumNormalenvektorderOberflächerelativeKameradrehungvollzogenwerden,wenneinHindernisineinemflachenWinkelgetroffenwird.Diessimuliertein entlanggleiten an Wänden und erleichtert das Navigieren. In Abbildung 8.11 verursachtderschraffierteBereichkeinAbgleiten,dieKamerableibtstehenohnesich automatisch zu drehen.

Um den Aufwand gering zu halten, wird zunächst die vereinfachte Variante der Kollisionsabfrage mit einem Strahl aus der Kameraposition realisiert. Der Fehler, bei dem die Kamera teilweise durch die Objekte hindurch fährt, tritt nur an wenigen Stellen auf und wird vorerst hingenommen. Auch das automatische Umlenken beiKollisionenmiteinemsehrflachenWinkelwirdzunächstnichtumgesetzt.Dadie Objekte der Szene relativ kompliziert aufgebaut sind und oft nur auf dünnen Drähten stehen, werden zusätzliche unsichtbare Grundkörper zur Unterstützung der Kollisionen aufgebaut. Dadurch ist es nicht mehr möglich, durch schmale Lücken zwischen den Platinenbausteinen hindurchzugehen. Mit diesen Hilfswänden wird der unerwünschte Effekt des Hineinlaufens in Hindernisse weitestgehend vermieden.

Die Skripte für Steuerung und Kollisionsabfrage wurden mit objektorientierter Programmierung umgesetzt. Dabei werden die verschiedenen Funktionen in zwei Parent/Child-Skripte thematisch aufgeteilt. Parent-Skripte unter Director entsprechen der allgemein bekannten Bezeichnung der Klassen aus der objektorientierten Programmierung. Child-Skripte sind demnach Instanzen einer Klasse.

Hindernis

Projektionsfläche der Kamera

Ausgesendete Strahlen

Hindernis

 Abbildung 8.10 Die zwei möglichen Lösungen der Kollisionsstrahlen

Hindernis

Normalenvektor

Abbildung 8.11  Festlegung der

Bereiche für Stoppen mit Ablenkung und

ausschließliches Stoppen

Page 86: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Eines der Skripte enthält alle zur Navigation nötigen Elemente, wie zum Beispiel Tastaturabfragen und Aufrufe zur Anpassung der Soundumgebung. Im Kollisionsskript befinden sichdie Funktionen zur Abfrage nach Hindernissen. Die beiden Skripte kommunizieren ständig miteinander und rufen diverse Funktionen gegenseitig auf. Die Kommunikationsstruktur ist in Abbildung 8.12 schematisch dargestellt. Erstellt werden die Child-Skripte aus ihrem jeweiligen Eltern-Skript nach der Initialisierung der 3D Welt.

Für die Umsetzung der Programmierung, welche ohnehin objektorientiert aufgebaut ist, bieten sich weiterhin zwei unterschiedliche Ansätze für den Aufruf der Skripte an. Einerseits ist eine framebasierte Lösung möglich, andererseits lässt sich dies auch zeitbasiert lösen. Der Unterschied der beiden Ansätze soll hier kurz erläutert werden.

EinDirectorfilmdurchläuftseineZeitleisteimmerineinerbestimmtenFramerate.Zwar wird die gesamte 3D Welt nur auf einem Frame abgespielt, jedoch wird dabei eine ständige Schleife durchlaufen. Die Skripte für Steuerung und Kollision können dementsprechend auch einmal pro Schleife aufgerufen werden. Der Nachteil bei dieser Methode ist, dass das komplette Projekt auf manchen Rechnern abhängig von ihrer Leistung schneller oder auch auf anderen langsamer abgespielt wird.

Bei der zeitbasierten Lösung dagegen werden nun die Skripte unabhängig von der Framerate in einem bestimmten Zeitintervall, welches frei festlegbar ist, aufgerufen. Somit läuft die Steuerung auf allen Rechner gleich schnell und ein leichtes Ruckeln beim Drehen oder Laufen kann reduziert werden. Eine framebasierte Lösung liefert in diesem Fall ausreichende Ergebnisse, jedoch würde die zeitbasierte Lösung auf Zukunft gesehen eine bessere Kontrolle der Animationsabläufe ermöglichen.

�.�.� Programmierung der Spielfunktionen

Den wichtigsten Teil der Spielfunktionen macht das Erhalten und Wiedergeben direktionaler Soundcodes aus. Verbunden mit dem Hören und Einprägen dieser Tonabfolgen ist die Umsetzung zusätzlicher Funktionsräume, in denen keine Störgeräusche neben relevanten Klängen zu hören sind. Die Wiedergabe der Töne erfolgt mit einem Interface, welches innerhalb der 3D Szene eingeblendet wird.

Die Tonabfolgen, welche den Code ausmachen, werden zufällig generiert und in einer Liste, bestehend aus Klangname und Position, gespeichert. Im Coderaum werden diese wiedergegeben und können beliebig oft wiederholt werden. Ist der Benutzer der Meinung, dass er sich diese eingeprägt hat, verlässt er den Raum. Nachdem er das Wiedergabeinterface erreicht hat, positioniert er Symbole, welche für die einzelnen Klänge stehen per „Drag and Drop“. Die einzelnen Klänge

initialize()

Steuerung

Vorwärts-Taste aufrufen

holen

Hindernis abfragen

Kamera PositiongetCamPos()getCamDir()

stop()

Kamera Richtung

nahe bei Hindernisin Laufrichtung

Rückwärts-Taste

Hindernis

erstellt Modelle und Kamera

aufrufen

 Abbildung 8.12 Komunikation zwischen zwei Skripten

Page 87: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

werden erneut in einer Liste gespeichert. Anschließend werden die einzelnen Listenelemente mit denen der gespeicherten Liste verglichen, und somit ermittelt, ob jeder Klang an die richtige Position gezogen wurde. Wurden alle Klänge korrekt platziert, wird die gesamte Tonfolge abgespielt und die Tür zum nächsten Level öffnet sich.

Eine weitere Spielfunktion sind die Fallen und das aus ihnen resultierende Sterben und Zurückspringen zum Hauptmenü. Zu den Fallen gehören im ersten Level der Laser, der Ventilator und der feindliche Roboter. Findet zwischen ihnen und der Kamera eine Kollision statt, wird ein Skript aufgerufen, welches die Kamera seitlich umkippen lässt, das Geräusch eines am Boden aufschlagenden Körpers abspielt und anschließend ein schwarzes Overlay einblendet. Der Abspielkopf springt zurück zum Hauptmenü, wo der Benutzer erneut den gewünschten Level auswählen kann. Falls der Benutzer im Spiel weiter fortgeschritten ist, wird der momentane Level in einer globalen Variable gespeichert. Er muss das Spiel nicht komplett von neuem Beginnen, sondern kann einen der bereits frei geschalteten Level wählen.

Der Waffenmodus, welcher ermöglicht, den feindlichen Roboter für einige Zeit außer Gefecht zu setzen, ist bis jetzt noch nicht umgesetzt. Diese Funktion erweitert das Spiel um einen weiteren Reiz und wird mit einem Fadenkreuz ebenfalls über ein Kameraoverlay realisiert. Solange der Benutzer sich in diesem Modusbefindet,lässtsichdieKameraausschließlichdrehen.GibtderSpielermitder Space-Taste einen Schuss ab, wird mit dem modelsunderray()-Kommando ein Strahlausgesendet,welchertestet,obderRobotersichimFadenkreuzbefindet.

Über eine Zeitfunktion wird die Sichtstärke des Charakters konstant verringert. Dies wird mit der Kameraeigenschaft „Nebel“ realisiert. Je weiter die Sichtstärke sinkt, desto näher rückt der Nebeleffekt und dementsprechend kürzer reicht die Blickweite in der 3D Welt. Gleichzeitig kann anhand der Akkuanzeige, welche ein Overlay-Element der Kamera ist, abgelesen werden, in welchem aktuellen Sichtstatus der Charakter sich befindet. Nebel sowie Akku werden durch dieZeitfunktionberechnet.AuchdieseFunktionbefindetsichnochinEntwicklung

�.�.� Umsetzung interaktiver Sounds

Einführung in die BASS-Programmierung

Wie die meisten Script-Extras muss auch das BASS-Xtra zuerst durch einige Lingoskriptzeilen eingebunden werden. Durch den Aufruf der Funktion new() wird eine neue Instanz des Xtras erzeugt und die Referenz auf die BASS-Instanz in einer globalen Variable gespeichert. Dies geschieht zu Beginn der Anwendung im startMovie()-Ereignis. Sämtliche BASS-Funktionen stehen somit im gesamten Film zur Verfügung. Dies ist von großer Bedeutung, da BASS-Funktionen auch schon vor dem Start der 3D Umgebung verwendet werden sollen. Zum einen werden diese beim Starten des Films benötigt, um den Benutzer mit Systemmeldungen über seine Sound-Hardware zu informieren, zum anderen soll auf dem Startmenü eineTestoberflächefürdie5.1-Konfigurationrealisiertwerden.

Page 88: Orientierung im Surround-Raum mit Shockwave 3D

�3

Spiel-Entwicklung �

Zunächst soll jedoch auf einige Grundlagen für die Programmierung von 3D-Sound mit BASS eingegangen werden. BASS ermöglicht sowohl die Wiedergabe von mehrkanaligen WAV- oder OGG-Dateien, als auch die Verwendung von 3D Funktionalitäten mit Mono-Soundfiles. Mehrkanalige Audiodateien enthaltenInformationen über die Ansteuerung der 5.1 Audiokanäle und können für Ambient-Geräuschkulissen verwendet werden oder bieten die Möglichkeit, die Wiedergabe von Klängen auf einzelne Kanäle einer 5.1 Konfiguration zu beschränken. Siewerden in einer Soundbearbeitungssoftware wie zum Beispiel Adobe Audition erstellt und für die Mehrkanalwiedergabe abgemischt. Bei der Verwendung der 3D Funktionalitäten müssen die Quelldateien im Mono-Format vorliegen, die Ansteuerung der unterschiedlichen Kanäle wird dabei in Echtzeit berechnet. Dies wird durch die Positionierung des Soundlisteners und der einzelnen Soundquellen im3DRaumrealisiert.BeiMehrkanalformatenhatderSoundlistenerkeinenEinflussaufdieWiedergabe,dadieTöneimAudiofilebereitsräumlichfestplatziertsind.

Ein Audioereignis kann mit BASS durch ein Sample oder ein Stream erzeugt werden. In beiden Fällen wird eine Funktion der BASS-Instanz zum Erstellen beziehungsweise Laden der Audiodaten mit der Punktsyntax aufgerufen. Unter einem Sample (engl. für „Auswahl“, „Beispiel“) versteht man einen Ausschnitt einer Audioaufnahme, welcher in einem anderen Kontext verwendet wird. Mehrere Samples in einer 3D Welt positioniert ergeben gemeinsam abgespielt ein räumliches Klangereignis. Ein Sample wird mit dem Befehl xaBASS_SampleLoad() erstellt. Ein Stream dagegen ist ein Datenstrom, welcher aus einer Audiodatei erstellt wird. Streams sind unter BASS sehr nützlich, um große Mengen von Daten mit geringem Speicherbedarf abzuspielen. [doc1] Daher ist das Abspielen von Mehrkanal-Audioformaten, welche meist auch relativ große Dateien verursachen, unter BASS auch nur durch Streams möglich. Ebenso können mit Streams Daten im speicherintensiven 32-Bit Fließkommaformat (zum Beispiel Windows PCM 32-bit Normalized Float Typ 3) abgespielt werden. Um Fließkomma-Kanäle abspielen zu können, muss das Ausgabegerät WDM-Treiber installiert haben. Windows XP/2000 nutzt ohnehin ausschließlich WDM-Treiber, Windows ME/98SE kann sowohl WDM-Treiber als auch ältere VxD-Treiber verwenden. [doc1] Da WDM auch für Mehrkanal-Streams benötigt wird, sollte zu Beginn des Spiels auf vorhandenes WDM geprüft werden. Eventuell wird das Spiel auch gleich auf Windows XP/2000 beschränkt. Eine Audio-Quelldatei wird als Stream geladen, indem die Funktion xaBASS_StreamCreateFile() aufgerufen wird.

Wurde ein Stream erstellt, wird dieser direkt einem Channel vom Typ HSTREAM zugewiesen. Wurde ein Sample geladen, geschieht dies erst beim Abspielen mit dem Befehl xaBASS_SamplePlay3D() und ist dann vom Typ HCHANNEL. Was ein Channel ist, wird in der BASS-Xtra Hilfe folgendermaßen beschrieben:

Page 89: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

„A ‘Channel’ can be a playing sample (HCHANNEL) [or] a sample stream (HSTREAM) […]. Each ‘Channel’ function can be used with one or more of these channel types.

The types of channel

HCHANNEL Returned by xaBASS_SamplePlay, xaBASS_SamplePlayEx, xaBASS_SamplePlay3D, xaBASS_SamplePlay3DEx

HSTREAM Returned by xaBASS_StreamCreate, xaBASS_

StreamCreateFile, xaBASS_StreamCreateURL.”

Bevor jedoch Samples oder Streams erstellt werden, muss als erstes das Ausgabegerät initialisiert werden. Dabei wird unter anderem die Sample-Rate für die Ausgabe eingestellt (hier 44.100 Hz) und nach Bedarf mit einer Kombination der Flags die digitale Auflösung auf 8 Bit gesenkt (sonst 16 Bit) oder die 3D Funktionalität aktiviert:

xaBASS_Init(integer device, integer freq, integer flags)

Für die Wiedergabe von Mehrkanal-Formaten ist die Aktivierung der 3D Funktionalitäten für das Ausgabegerät (Flag = 4 - BASS_DEVICE_3D) nicht nötig. 3D Sound oder 3D Funktionalität steht im Zusammenhang mit BASS immer für die in Echtzeit berechnete Kombination mehrerer Mono-Samples. Laut Dokumentation des BASS-Xtras kann ein HSTREAM-Channel einen Monosound mit Hilfe des „speaker assignment flag“ auf beliebige Lautsprecher einesMehrkanal-Geräteslegen. Das Flag für einen der Lautsprecher wird beim Erstellen des Streams gewählt welches die 3D Funktionalität nicht aktiviert haben darf. Leider konnte dies aus unbekannten Gründen nicht realisiert werden. Daher wurde der Umweg über Surround-Dateien gewählt, die schon beim Abmischen in Adobe Audition nur auf den beliebigen Kanal beschränkt wurden. Dies erhöht zwar die Dateigröße, konnte aber nicht anders gelöst werden. Die Wiedergabe von fertig gemischten Surround-Sounds dagegen funktioniert einwandfrei. Mit BASS_GetInfo können die Informationen über das momentan genutzte Gerät ausgegeben werden. Entgegen aller Erwartungen beträgt die Anzahl der Ausgabekanäle hier, trotz einer 5.1 Soundkarte, nur zwei. Hier die ausgegebenen Daten des zu Testzwecken verwendeten Ausgabe-Gerätes:

[#size: 60, #flags: 3935, #hwsize: 0, #hwfree: 0, #freesam: 0,

#free3d: 0, #minrate: 100, #maxrate: 200000, #eax: 0, #minbuf: -

1, #dsver: 9, #latency: -1, #initflags: 4, #speakers: 2, #driver:

„usbaudio.sys“]

Die einzelnen Eigenschaften dieser Liste werden in der BASS-Xtra Hilfe [doc1] näher erläutert.

Die Informationen eines Channels werden von xaBASS_ChannelGetInfo() als Liste zurückgegeben. Sie enthält die Sample-Rate, die Anzahl der Kanäle, eine Kombination von Flags und den Typ des Kanals. Diese sieht bei einer im Spiel wiedergegebenen Mehrkanal-Datei folgendermaßen aus:

Page 90: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

[#freq: 44100, #chans: 6, #flags: 276, #ctype: 65537]

Aufgeschlüsselt bedeutet dies eine Sample-Rate von 44.100 Hz, sechs Wiedergabekanäle, eine Auflösung von 32 Bit (Flag = 256), kein Hardware-Mixing (Flag = 16) und der Channel läuft in einer Schleife (Flag = 4). Der „ctype“ bezeichnet den Typ des Kanals.

Für die Verwendung von 3D Sound werden mit xaBASS_Set3DFactors() die Größen eingestellt,welchedieBerechnungdes3DSoundsbeeinflussen.DerAbstandsfaktorlegtdieMaßeinheitenfürEntfernungenfest,derRolloff-Faktordefiniert,wiestarkdie Lautstärke mit der Entfernung abnimmt und der Dopplerfaktor bestimmt die Stärke des Doppler-Effekts.

Da bei der Echtzeitberechnung des 3D Sounds die Eigenschaften der virtuellen Schallquellen relativ zu einer bestimmten Position im 3D Raum, dem Soundlistener, bestimmt werden, muss auch dessen Position und Ausrichtung vor dem Abspielen einesSoundsdefiniertwerden.DieswirdmitderFunktionxaBASS_Set3DPosition() und deren Eigenschaften Position, Blickrichtung und der Richtung für die Oberseite des Listeners erreicht.

Jegliche Änderungen am 3D-System, die mit Hilfe von ChannelSet3DAttributes(), ChannelSet3DPosition(), Set3DFactors() oder Set3DPosition() gemacht wurden, müssen anschließend noch mit xaBASS_Apply3D() angewendet werden. Dabei steigert es die Leistung, wenn nicht jede kleinste Änderung getrennt angewendet wird, sondern alle erforderlichen Berechnungen zugleich aufgerufen werden. Diese Funktion wird automatisch aufgerufen, wenn ein Sample mit xaBASS_SamplePlay3D() gestartet wird.

Generell lassen sich alle Eigenschaften, die mit einer „Set“-Funktion festgelegt werden können, auch über die zugehörige „Get“-Funktion zum Beispiel zur Fehlerkontrolle ausgeben. Zusätzlich können einige Systemeigenschaften wie der CPU-Verbrauch von BASS ermittelt werden. Für das Spiel sind diesbezüglich vor allem die bereits erwähnten xaBASS_GetInfo() für die Hardwareeigenschaften und xaBASS_ChannelGetInfo() für die Channel-Eigenschaften von Bedeutung.

Programmierung des Spielsounds

Bei der Programmierung der unterschiedlichen Soundquellen für das Spiel muss eine harmonische Kombination der verschiedenen Soundtypen gefunden werden. Dies betrifft einerseits ein ausgewogenes Verhältnis von Funktionsgeräuschen und Umgebungsgeräuschen, wobei die Funktionsgeräusche nicht zu sehr überdeckt werden dürfen und die Umgebungsgeräusche ausreichend Klangvolumen verursachen sollen. Zusätzlich müssen die verschiedenen Funktionsgeräusche, deren Quelldateien aufgrund des in Kapitel 3.3 beschriebenen Headrooms auf die ideale Lautstärke normalisiert sind, in ihrer Lautstärke individuell angepasst werden. Es muss sozusagen die 3D Echtzeit Umgebung möglichst gut eingestellt werden, um schließlich einen zufrieden stellenden Soundmix zu erhalten. Weiterhin haben darauf die verschiedenen Soundquellen in Form von Punktquellen und kegelförmigenQuellen,derenWirkungsbereicheingeschränktist,Einfluss.Auch

Page 91: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Geräusche, die sich stets relativ zum Listener bewegen, haben eine spezielle Wirkung und dürfen nicht zu dominant sein. Zu ihnen gehören zum Beispiel Schrittgeräusche des Protagonisten.

Die verschiedenen Geräusche werden also zuerst in verschiedene Kategorien eingeteilt. Grob wird zuerst nach atmosphärischem Klangteppich und zu lokalisierenden Geräuschen unterschieden (Tabelle 8.1). Der atmosphärische Klang gliedert sich in die einzelnen Umgebungsgeräusche, die Geräusche des Charakters und einem eventuellen zusätzlichen Surround-Sound-File. Die Lokalisationsgeräusche bestehen aus richtungsunabhängigen Punktquellen und Quellen mit Richtungskegel. Um möglichst gute Lokalisationseigenschaften zu garantieren, werden für diese Geräusche geeignete Frequenzbereiche beachtet.

Tabelle 8.1 - Kategorien der Geräusche

Atmosphärischer Klang

Umgebungsgeräusche Ventilatorbrummen

Charaktergeräusche Schritte, Waffe

Surround-Sound-File Gemixtes Ambient-File

Lokalisierungsgeräusche

Punktquellen Codierer, Codeeingabe, Ausgangstür, Roboter

Gerichtete Quellen Laser, spezielle Fallen

Fast alle Geräusche bestehen aus sehr kurzen Mono-Samples (< 6 Sekunden), welche mit xaBASS_SampleLoad() aus einer externen Sounddatei geladen und mit xaBASS_SamplePlay3D() positioniert und abgespielt werden. Um den Soundkegel eines Samples einzustellen wird anschließend der zugehörige Channel, welcher denselben Handle1 verwendet, mit xaBASS_ChannelSet3DAttributes() angepasst. Die Eigenschaften dieser Funktion sind vor allem der minimale Abstand ab welchem die Lautstärke mit dem Abstand reduziert wird, der maximale Abstand ab welchem die Lautstärke nicht mehr reduziert wird und die Winkel von innerem und äußerem Schallkegel (siehe Kapitel 7.2). Mit xaBASS_ChannelSet3DPosition() kann die Position und Ausrichtung des Channels im 3D Raum nachträglich verändert werden.

Mit der Funktion xaBASS_ChannelSet3DAttributes() lässt sich zusätzlich ein Modus einstellen, der sich BASS_3DMODE_RELATIVE nennt. Die 3D Position und Ausrichtung ist mit diesem Modus relativ zum Listener. Verändert sich die Position des Listeners, bleibt der Abstand dieses Channels zum Listener der gleiche. Der Mode-Parameter ist vom Typ Integer, doch in der Hilfe ist kein zugehöriger Integercode angegeben. Da trotz mehrfacher Tests mit den üblichen Werten der BASS_3DMODE_RELATIVE nicht aktiviert werden konnte, der BASS_3DMODE_OFF dagegen schon, wurde dieser alternativ verwendet. BASS_3DMODE_OFF deaktiviert die 3D-Berechnungen eines

1 Der Begriff Handle wird in der Informatik vor allem für intelligente Zeiger verwendet. Sie stellen namentliche Referenzen auf Datenobjekte im Speicher dar und können über längere Zeit gültig bleiben.

Page 92: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

Channels und spielt diesen mittig auf allen Boxen ab. Vermutlich handelt es sich beim fehlenden Relativ-Modus um einen Fehler in der Umsetzung des BASS-Xtras. Die Geräusche des Charakters werden auf diese beschriebene Art abgespielt und von positionslosen Quellen wiedergegeben.

Die Position des Listeners muss stets mit der Position der First-Person-Kamera identisch sein. Daher wird bei jeder Aktualisierung der Kameraposition, welche durch die Steuerung der Spielfigur ausgelöst wird, auch die Listenerpositionangeglichen. Gleiches gilt für die Ausrichtung der beiden. Für Ausrichtung und Positionierung bedient man sich der Richtungsvektoren und Weltposition der Kamera. Diese werden mit getWorldTransform().position, getWorldTransform().zAxis und getWorldTransform().yAxis ermittelt und anschließend an die BASS-Funktion xaBASS_Set3DPosition() weitergegeben.

EAX

DieWahrnehmungvonvirtuellenSchallquellenwirdsignifikantdurchdasEinbindenvonHallbeeinflusst.HallschaffteinGefühlfürdieBeschaffenheitderUmgebungund kann in Verbindung mit dem R/D-Verhältnis die Entfernungswahrnehmung beeinflussen. Korrekte Simulation von Hallmustern kann äußerst schwierigumsetzbar sein.

Zur einfachen Simulation von Hallmustern wurde das EAX-API (siehe Kapitel 6) entwickelt. Auch BASS bietet EAX Unterstützung, wobei eine EAX-fähige Soundkarte benötigt wird. Bei der Realisierung von Hall unter BASS wird eine globale EAX-Umgebung eingestellt, welche dann ein bestimmtes Hallmuster auf die erstellten Geräusche anwendet. Dazu wird die Funktion xaBASS_SetEAXParameters() mit dem entsprechenden Umgebungs-Preset aufgerufen. Einige Beispiele sind „EAX_ENVIRONMENT_CITY“, „EAX_ENVIRONMENT_CAVE“, „EAX_ENVIRONMENT_FOREST“ oder „EAX_ENVIRONMENT_UNDERWATER“. Zusätzlich kann für jeden Channel der “Wet/Dry“-Mix eingestellt werden. „Wet“ ist der Hallanteil, „Dry“ dagegen das unveränderte Direktsignal. Das Verhältnis zwischen Hallanteil und Direktsignal ist entscheidend für die vom Hörer wahrgenommene Entfernung des jeweiligen Geräusches.

Die EAX Funktion konnte trotz Surround-Sound-Karte mit Unterstützung von EAX 2.0 nicht realisiert werden. Die Gründe dafür konnten leider nicht in Erfahrung gebracht werden. Die Lokalisation der einzelnen Schallquellen leidet darunter nur geringfügig, vermutlich sogar gar nicht. Die räumliche Wirkung und die Möglichkeit des Umschaltens zwischen verschiedenen Raumsimulationen könnten allerdings zu beeindruckenden Effekten verhelfen, auf die so leider verzichtet werden musste.

�.�.� Optimierung des Projekts

Die Optimierung eines Shockwave 3D Projekts lässt sich in die beiden Bereiche Performance-Optimierung und Download-Optimierung aufteilen, auch wenn einigeAnpassungenbeideOptimierungengleichermaßenbeeinflussen.Davorerstnur für HD- und CD-Wiedergabe, nicht dagegen die Veröffentlichung im Internet, produziert wird, wird vor allem auf die Optimierung der Leistung geachtet. Da der GrundgedankejedochdieNutzungvonOffline-alsauchvonOnline-Medienist,soll

Page 93: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

auch auf die Download-Optimierung kurz eingegangen werden. Die Optimierung findetallgemeinnichterstamEndederProduktionstatt,sondernwurdevonAnfangan, beginnend mit Überlegungen zum erwünschten „Look“ und der Erstellung von 3D-Objekten im externen Modellierungsprogramm, bedacht. Sowohl für die 3D Darstellung als auch für die Soundwiedergabe müssen Kompromisse zwischen Qualität und Performance geschlossen werden.

Bei der Betrachtung der Performance des Projekts wird davon ausgegangen, dassaufdemZielsystemeineGrafikkartemit3DBeschleunigungzurVerfügungsteht. Verwendet der Shockwave 3D Renderer den Softwaremodus, sind deutlich schlechtere Ergebnisse erzielbar.

Mit folgenden Methoden lässt sich die Performance der Szene verbessern:

Texturoptimierung

Optimierung der Geometrie

Optimierung der Beleuchtung

Kameraoptimierung durch Einstellen der „clipping planes“1

Größe des 3D Sprite und des Bildschirms

VorallemdieTexturenunddieGeometriebeeinflussenauchstarkdieDownload-Geschwindigkeit, da diese primär die Größe einer Shockwave-Datei ausmachen. Zusätzlich können für die Verbesserung der Downloadgeschwindigkeit Streaming-Methoden verwendet werden. Dazu gehören das Laden von Modellen aus externen Darstellern sowie die Verwendung von niedrig aufgelösten Modellen in Kombination mitSubdivisionSurface(SDS)Modifizierern.

Wie an der Cinema 4D-Analyse für exportierte Shockwave 3D Dateien (Abbildung 8.13) gut zu sehen ist, wird die Größe dieser Dateien am stärksten durch die Texturen beeinflusst.DieDateianalysezeigtdieZusammensetzungderSpiel-Szene,welchealle Platinenbausteine enthält. Über 70 Prozent der Datei machen die Texturen aus, obwohl diese bewusst klein gehalten wurden. Aus dieser Erkenntnis wird klar, dass bei der Optimierung des Projekts vor allem auf die Texturen geachtet werdenmuss.WenneineOberflächeohneTexturerstelltwerdenkann,solltediesstets vorgezogen werden. Wenn möglich sollten eingebundene Texturen wieder verwendet werden und nicht etwa mehrere Kopien derselben Textur eingesetzt

1DiebeidenDirector3DEigenschaftenHitherundYondefinierendie„near-clippingplane“unddie„far-clipping plane“. Für den Renderer existieren nur zwischen diesen beiden Ebenen Objekte, jenseits von ihnen wird nichts gezeichnet.

 Abbildung 8.13 Analyse der aus Cinema 4D exportierten Shockwave 3D Szene

Page 94: Orientierung im Surround-Raum mit Shockwave 3D

��

Spiel-Entwicklung �

werden. Es sollte stets die geringste akzeptable Bittiefe (meist 16 Bit) verwendet werden. Wenn es möglich ist, können Texturen mit Imaging-Lingo aus Code erstellt werden. Diese müssen dann natürlich nicht herunter geladen werden. Ein Beispiel für diese Methode im Spiel ist das dynamische Erstellen der Anzeigetexte. Einem Textdarsteller wird der gewünschte Inhalt zugewiesen und anschließend in eine Grafikumgewandelt,welchedannalsOverlay-Texturverwendetwerdenkann.

AuchaufdiePerformancehabendieTexturenbesondersgroßenEinfluss.Textureneiner3DUmgebungmüssenbeimHardware-RenderingindenVRAM(Grafikkarten-Speicher) geladen werden. Reicht dessen Größe dafür nicht aus, muss in den Software-Render Modus umgeschaltet werden, was auf jeden Fall vermieden werden soll. Aktuelle Grafikkarten besitzen meist einen Grafikspeicher vonmindestens 128 MB, was jedoch nicht unbedingt vorausgesetzt werden kann. Die Größe einer einzelnen Textur lässt sich über (Breite∙Höhe∙Farbtiefe) berechnen. So kann der benötigte Speicherbedarf für die Szene eingeschätzt werden. Zusätzlich beeinflussenSprite-GrößeundBildschirmauflösungdenBedarfanVRAM.

Nicht zu vergessen ist auch der Speicherbedarf der vielen verwendeten Sounds. Dabei handelt es sich ausschließlich um externe Dateien, welche bei Bedarf geladen werden. Dadurch müssen diese bei der Verwendung im Internet nicht zu Beginn herunter geladen werden. Große Mehrkanal-Formate werden gestreamt, wodurch sie früher wiedergegeben werden können. Die Datei kann abgespielt werden, bevor sie komplett vorhanden ist. Trotzdem sollten für die Veröffentlichung im Internet sämtliche Audiodateien in ihrer Größe reduziert werden.

Abschließend sei noch zu erwähnen, dass sich durch die Direktor-Funktion „Kompakt speichern“ redundante Daten von Besetzungen und Darstellern eliminieren lassen. Dadurch lässt sich die Größe der Datei teilweise zusätzlich reduzieren.

Page 95: Orientierung im Surround-Raum mit Shockwave 3D

�0

Zusammenfassung / Fazit�

Page 96: Orientierung im Surround-Raum mit Shockwave 3D

��

Zusammenfassung / Fazit �

� Zusammenfassung / Fazit

Zu Anfang des Projekts war noch unklar, ob mit Director überhaupt mehr räumliche Höreigenschaften als die interaurale Pegeldifferenz umsetzbar sein würden. Glücklicherweise hat sich mit Hilfe des BASS-Xtras ein enormer Funktionsumfang für den Einsatz von Surround-Sound unter Director aufgetan. Theoretisch besteht sogar die Möglichkeit von Raumsimulationen mit sich an die Raumart anpassenden Hallmustern durch die Implementierung von EAX. Leider war es durch einen unbekannten Fehler nicht möglich, EAX im Spiel umzusetzen. So bleibt nur zu hoffen,dasssichdafürvielleichtzukünftigeineLösungfindenwird.

Das entwickelte Computerspiel kann als ein äußerst zufrieden stellendes Ergebnis gesehenwerden,auchwennessichnochinderTestphasebefindet.Umeinwirklichspielreifes Produkt zu entwickeln, wären mit Sicherheit noch einige Stunden Arbeit aufzuwenden. Für weitere Levels müssen bezüglich der Soundcodes immer komplexere Klangrätsel erstellt werden, die der Benutzer zu lösen hat. Vorstellbar wären sogar Klangwelten mit bewegten Objekten, welche bei der Codeeingabe nachgebildet werden müssen.

Während der Arbeit an der Anwendung eröffneten sich viele Ideen für weitere Umsetzungen von 3D-Sound mit Director und ich hoffe, darauf noch mehr Zeit verwenden zu können. Möglich wären zum Beispiel Lernanwendungen mit räumlich gestalteten Anweisungen oder Multiuser-Chats mit Sprachübertragung aus diversen Richtungen.

Zusammenfassend stellt sich bei diesem Projekt die Frage, ob der geringere Entwicklungsaufwand mit Shockwave 3D gegenüber der Entwicklung mit Programmiersprachen wie C++ die Performanceprobleme wirklich kompensiert. Mit der Übernahme von Macromedia durch Adobe ist es fraglich, wie es um die Zukunft von Director steht. Große Weiterentwicklungen an der Software wurden bereits bei den letzten Versionen vermisst. Durch die Möglichkeit der Entwicklung von Xtra-Erweiterungen lässt sich Director aber weiterhin mit zusätzlichen Funktionen ausstatten. Mit der Shockwave 3D Engine bietet Director nach wie vor einen beeindruckenden Funktionsumfang, vor allem für die 3D Darstellung im Internet. Ob sich die Verwendung von Surround-Sound mit Director bewährt, bleibt abzuwarten und hängt unter anderem von der Weiterentwicklung der verfügbaren Module ab.

Page 97: Orientierung im Surround-Raum mit Shockwave 3D

Glossar ��

�� Glossar

Impedanz, akustische: Fasst alle Widerstände zusammen, die der Ausbreitung vonSchwingungen ineinembestimmtenUmfeldentgegenwirken.Einflüsseaufdie Impedanz haben die Eigenschaften des Ausbreitungsmediums, Hindernisse, Übergänge zu anderen Ausbreitungsmedien, sowie Gegenstände, Flächen bzw. Bereiche mit bestimmten akustischen Eigenschaften. [www1]

Binaural (lat. „mit beiden Ohren“): Binaurale Tonaufnahmen schaffen bei der Wiedergabe mit Kopfhörern einen natürlichen Höreindruck. Sie werden meist mit KunstköpfenaufgenommenundenthaltenunteranderemReflexionsmusterderOhren. Die Aufnahmen sind nicht für die Lautsprecher-Wiedergabe gedacht.

Diskretheit (von lat. discretus = unterschieden, getrennt) bezeichnet allgemein eine räumliche oder zeitliche Trennung von Objekten oder Ereignissen

Diplacusis binauralis: krankhafte Erscheinung, bei der ein Sinuston derselben Frequenz unterschiedliche Tonhöhe in dem einen und dem anderen Ohr hervorruft; ist in geringem Umfang auch bei Normalhörenden vorhanden.

Hüllkurve: Eine Hüllkurve (Envelope) ist eine Kurve, die jede Kurve einer Kurvenschar in einem Punkt berührt. [www1]

Interaural „von Ohr zu Ohr“, beide Ohren betreffend

Lautheit (Einheit Sone) gibt an, wie Laut Schall subjektiv empfunden wird. Lautheit ist ein psychoakustischer Begriff.

Die Lautstärke eines Schalls ist ein Maß dafür, wie laut ein bestimmter Schall vom Menschen empfunden wird. Die Lautstärke stellt der physikalisch messbaren Stärke oder Amplitude des Schalls (z.B. als Schalldruckpegel) das von Menschen wahrgenommene Lautheitsempfinden gegenüber. Die Lautstärke ist einepsychoakustische Größe. Die wahrgenommene Lautstärke hängt von mehreren Faktoren ab: dem Schalldruckpegel, der spektralen Zusammensetzung sowie dem Zeitverhalten des Schalls.

Lateralisation bezeichnet die seitliche Auslenkung des Hörereignisses im Kopf des Zuhörers. Zur Beschreibung der seitlichen Auslenkung wird meist eine Skala von -10(dasHörereignisbefindetsichamlinkenOhr)bis+10(dasHörereignisbefindetsich am rechtenOhr) verwendet, 0 bedeutet hierbei, dasHörereignis befindetsich in der Ebene mitten zwischen beiden Ohren. Der Begriff Lateralisation wird ausschließlich im Zusammenhang mit Test-Versuchen mit Kopfhörern verwendet und gilt nicht für das natürliche Hören oder die Stereofoniewiedergabe

Lokalisation ist die Raumorientierung anhand von Richtung und Entfernung einer Schallquelle.

Monaural: Ein Ohr betreffend

Page 98: Orientierung im Surround-Raum mit Shockwave 3D

��

Glossar ��

Schallschnelle gibt an, mit welcher Wechselgeschwindigkeit die Luftteilchen um ihre Ruhelage schwingen; also die Momentangeschwindigkeit eines schwingenden Teilchens.

Schallleistung beschreibt die Quellstärke eines Schallerzeugers in Watt

Schalldruck beschreibt die Druckschwankung der Luft bei der Ausbreitung von Schall in Pascal (NewtonproQuadratmeter)

Sweet-Spot (Optimaler Bereich) bezeichnet die Zone, in der die optimale Wirkung einerSurround-Anordnungzufindenist.

WDM (Windows Driver Model) ist ein Framework für Gerätetreiber, welcher mit Windows 98 und 2000 eingeführt wurde, um das alte VxD abzulösen.

Page 99: Orientierung im Surround-Raum mit Shockwave 3D

���

Abbildungsverzeichnis ��

��. Abbildungsverzeichnis

Abbildung 2.1 Vereinfachte Schallwelle eines Knalls 4

Abbildung 2.2 Wellenform eines Sinustons 5

Abbildung 2.3 Welleneigenschaften 6

Abbildung 2.4 Fourier-Synthese. Quelle: [Ro90] 6

Abbildung 2.5 Kurven gleicher Lautstärke. Quelle: [Ro90] 8

Abbildung 2.7 Doppler-Effekt. Quelle: [Hö62] 9

Abbildung 2.6 Zusammenhang zwischen Lautstärkepegel in Phon und Lautheit in Sone. Quelle: [www1] 9

Abbildung2.8ReflexionswellenaneinerWand.Quelle:[Hö62] 10

Abbildung2.9ZurückgelegteWegevondirektemundreflektiertemSchall.Quelle:[Ro90] 11

Abbildung 2.10 Ablauf einer Raumimpulsantwort. Quelle: [Be94] 11

Abbildung 2.11 Interferenzen zweier identischer Wellen. Quelle: [Ro90] 12

Abbildung 3.1 Aliasing einer Welle. Quelle: [www2] 14

Abbildung 3.2 Frequenzanalyse eines Sinussignals 15

Abbildung4.1HörflächedesMenschen.Quelle:[Ze93][www1] 17

Abbildung 4.2 Schematische Darstellung des Gehörs 18

Abbildung 4.3 Cochlea des Innenohrs (entrollt). Quelle: [Ze93] 20

Abbildung 4.4 Querschnitt durch die Cochlea. Quelle: [Ze93] 21

Abbildung 4.5 Bereich wünschenswerter Räumlichkeit. Quelle: [Bl85] 25

Abbildung 4.6 Horizontale Ebene und halbe Medianebene 28

Abbildung 4.7 Interaurale Laufzeitdifferenz. Quelle: [Ru01] 29

Abbildung 4.8 Laufzeitdifferenz von Hüllkurven. Quelle: [Be94] 31

Abbildung 4.9 Gesetz der ersten Wellenfront. Quelle: [pdf4] 32

Abbildung 4.10 Auftreten der Summenlokalisation. Quelle: [Ru01] 32

Abbildung 4.11 Pegeldifferenz und Einfallswinkel. Quelle: [pdf5] 33

Abbildung 4.12 Hörereignisrichtung in Abhängigkeit von der Pegeldifferenz. Quelle: [pdf6] 34

Abbildung 4.13 Hörereignisrichtung in Abhängigkeit von der Laufzeitdifferenz. Quelle: [pdf7] 34

Abbildung 5.1 Die ideale Zweikanal-Stereo-Abhöranordnung 40

Abbildung 5.4(a) Einfacher Passiver Decoder. Quelle: [pdf10] 41

Abbildung 5.4(b) Einfacher Aktiver Decoder. Quelle: [pdf10] 41

Abbildung 5.2 Wiedergabe-Aufbau für Dolby Surround. Quelle: [Bi02] 41

Abbildung 5.3 Einfaches Encoder-Prinzip. Quelle: [pdf10] 41

Abbildung 5.5 Referenz-Lautsprecheranordnung. Quelle: [pdf13] 44

Abbildung 7.1 Linkhändiges und Rechtshändiges Koordinatensystem. Quelle: [Ca02] 53

Abbildung 7.2 Einfacher Shockwave 3D-Scenegraph 53

Abbildung 7.3 Die Wirkung der Shader-Eigenschaften. 55

Abbildung 7.4 Das Konzept des doppelten Schallkegels. Quelle: [www20] 57

Page 100: Orientierung im Surround-Raum mit Shockwave 3D

�V

Abbildungsverzeichnis ��

Abbildung 7.5 Verklingen verschiedener Schallquellen. Quelle: [www20] 58

Abbildung 8.1 Flussdiagramm der Codeeingabe im Spiel 64

Abbildung 8.2 Das Startmenü 65

Abbildung 8.3(a) Aufbau und Design eines Levels - Aufsicht 66

Abbildung 8.3(b) Aufbau und Design eines Levels - Spielansicht 66

Abbildung 8.4 Shockwave 3D Exporteinstellungen unter Cinema 4D 71

Abbildung 8.5 3DPI-Xtra 72

Abbildung 8.6 Vereinfachter Scenegraph des Spiels 72

Abbildung 8.7 Director Drehbuch für Download und Initialisierung 76

Abbildung 8.8 Aufbau eines W3D-Files. Quelle: [Ca02] 77

Abbildung 8.9 Verschiedene Overlay-Elemente 78

Abbildung 8.11 Stoppen mit Ablenkung und ausschließliches Stoppen 80

Abbildung 8.10 Die zwei möglichen Lösungen der Kollisionsstrahlen 80

Abbildung 8.12 Komunikation zwischen zwei Skripten 81

Abbildung 8.13 Analyse einer Shockwave 3D Szene 88

Page 101: Orientierung im Surround-Raum mit Shockwave 3D

V

Literaturverzeichnis �3

�3 Literaturverzeichnis

Bücher:

[Be94] Bergault, Durand R.: 3-D sound for virtual reality and multimedia. AP Professional, 1994.

[Bi02] Birkner, Christian: Surround – Einführung in die Mehrkanalton-Technik. PPV Medien, 2002.

[Bl85] Blauert, Jens: Räumliches Hören. Hirzel Verlag, Stuttgart, 1985.

[BLM01] Biedorf, Thomas; Leske, Christophe; Müller, Regina: 3D-Programmierung mit Director. Galileo Press, 2001.

[Ca02] Catanese, Paul: Director’s Third Dimension. Que, 2002.

[Hö62] Höfling, Oskar: Lehrbuch der Physik. Ferd. Dümmler Verlag, Bonn, 1962; S. 213-217, S. 220-229.

[Ka03] Kaiser, Ulrich: Spieleprogrammierung in C++. Galileo Press GmbH, Bonn, 2003.

[Pi99] Pierce, John R.: Klang. Spektrum, Akad. Verl., 1999.

[PR00] Perez, Adrian; Royer, Dan: 3-D-Spieleprogrammierung mit DirectX, Deutsche Übersetzung von Volkmar Großwendt. Software & Support Verlag GmbH, Frankfurt, 2000.

[Ro90] Rossing, Thomas D.: The science of sound. Addison-Wesley, 1990.

[Ru01] Rumsey, Francis: Spatial Audio. Focal Press, 2001.

[Ze93] Zenner, H.-P.: Kapitel 11: Hören. In (Schmidt, Robert F. Hrsg.): Neuro- und Sinnesphysiologie. Springer-Verlag, Berlin / Heidelberg, 1993; S. 305-328.

[Zw82] Zwicker, Eberhard: Psychoakustik. Springer-Verlag, 1982.

�nternetseiten:

[www1] Wikipedia Enzyklopädie. Online im Internet [Stand 29.06.2006]: http://de.wikipedia.org

[www2] Professor Dipl.-Ing. Eberhard Hasche; „Medientechnik Audio - Vorlesung“. Online im Internet [Stand 03.07.2006]: http://zeus.fh-brandenburg.de/~hasche/semd6/semd6mtav.html

Page 102: Orientierung im Surround-Raum mit Shockwave 3D

V�

Literaturverzeichnis �3

[www3] Karl C. Mayer – Facharzt für Neurologie, Psychiatrie, Psychotherapie und Psychoanalyse; „Der Hör- und Gleichgewichtsnerv“. Online im Internet [Stand 23.06.2006]: http://www.neuro24.de/hirnerven_hoeren.htm

[www4] Webdesign die-beiden.com; „Einführung in die virtuelle Realität: Surround-Sound“. Online im Internet [Stand 15.06.2006]: http://www.die-beiden.com/stuff/Ausarbeitung/surround-sound.html

[www5] Dolby Technologien; „Dolby Surround“. Online im Internet [Stand 26.06.2006]: http://www.dolby.de/consumer/technology/surround.html

[www6] Dolby Technologien; „Dolby Digital Plus“. Online im Internet [Stand 26.06.2006]: http://www.dolby.de/consumer/technology /dolby_digital_plus.html

[www7] Verband deutscher Tonmeister; „Surround Sound Forum“. Online im Internet [Stand 28.06.2006]: http://www.tonmeister.de/vdt/modules.php?name=WebEditorContent&file=content/foren/surround

[www8] Creative’s Sound Blaster; “About EAX”. Online im Internet [Stand 29.06.2006]: http://www.soundblaster.com/eax/abouteax/

[www9] Adobe Products; „Kontinentale Verbreitung des Shockwave-Players“. Online im Internet [Stand 29.06.2006]: http://www.macromedia.com/software/player_census/shockwaveplayer/version_penetration.html

[www10] Viewpoint. Online im Internet [Stand 29.06.2006]: http://www.viewpoint.com

[www11] Cycore Systems Cult3D. Online im Internet [Stand 28.06.2006]: http://www.cult3D.com

[www12] Adobe Support; „Director TechNote zu 3D Rendering“. Online im Internet [Stand 29.06.2006]: http://www.macromedia.com/cfusion/knowledgebase/index.cfm?id=tn_15297

[www13] Shockwards Online; „Christophe Leske – Die dritte Dimension – Shockwave 3D (Artikel zur Shockwards 2002)“. Online im Internet [Stand 29.06.2006]: http://www.shockwards.de/2002/shockwave3d.html

[www14] Adobe Developer Center; “Director Exchange: Xtras”. Online im Internet [Stand 29.06.2006]: http://www.macromedia.com/cfusion/exchange/index.cfm?view=sn170

[www15] Xtrasy – Xtras von Drittherstellern. Online im Internet [Stand 29.06.2006]: http://xtrasy.com/index.cfm?module=xtras

Page 103: Orientierung im Surround-Raum mit Shockwave 3D

V��

Literaturverzeichnis �3

[www16] Adobe Products; „Macromedia Xtras Developer Support“; Informationen zum Erstellen von Xtra-Erweiterungen. Online im Internet [Stand 28.06.2006]: http://www.macromedia.com/support/xtras/

[www17] DirectXtras Inc; “DirectSound Xtra”. Online im Internet [Stand 27.06.2006]: http://directxtras.com/dsound_home.asp

[www18] Cube Software Solutions; “BASS Xtra”. Online im Internet [Stand 29.06.2006]: http://www.cubesoftwaresolutions.com/products.htm

[www19] un4seen Developments; “BASS audio library”. Online im Internet [Stand 29.06.2006]: http://www.un4seen.com/

[www20] MSDN Library Archive; “Using DirectSound”. Online im Internet [Stand 29.06.2006]: http://msdn.microsoft.com/archive/default.asp?url=/archive/en-us/directx9_c/directx/htm/usingdirectsound.asp

[www21] Dolby Technologien; „Dolby Digital Live“. Online im Internet [Stand 29.06.2006]: http://www.dolby.de/consumer/technology/dolby_live.html

[www22] 3DPI Xtra für Director. Online im Internet [Stand 29.06.2006]: http://www.3dpi-director.com

[www23] Macromedia Director Skriptreferenz (englische Version). Online im Internet [Stand 26.06.2006]: http://livedocs.macromedia.com/director/mx2004/release_en/wwhelp/wwhimpl/js/html/wwhelp.htm

PDF-Dokumente:

[pdf1] Eberhard Sengpiel (UdK Berlin): “Die Anfangszeitlücke (Initial Time Delay Gap ITDG) und der Näheeindruck”. Berlin, 1995. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/DieAnfangszeitlueckeNaeheeindruck.pdf

[pdf2] Eberhard Sengpiel (UdK Berlin): “Der Ohrabstand – welcher?”. Berlin, 1995. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/DerOhrabstand-Welcher.pdf

[pdf3] Eberhard Sengpiel (UdK Berlin): “Haas-Effekt und Präzedenz-Effekt (Gesetz der ersten Wellenfront”. Berlin, 2003. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/Haas-Effekt.pdf

[pdf4] Eberhard Sengpiel (UdK Berlin): “Bereich des Gesetzes der 1. Wellenfront und der Summenlokalisation für Interchannel-Signale”. Berlin, 1994. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/BereichDesGesetzesDerWellenfront.pdf

Page 104: Orientierung im Surround-Raum mit Shockwave 3D

V���

Literaturverzeichnis �3

[pdf5] Eberhard Sengpiel (UdK Berlin): “Pegeldifferenzen beim natürlichen Hören”. Berlin, 1998. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/PegeldifferenzenBeimNatuerlichenHoeren.pdf

[pdf6] Eberhard Sengpiel (UdK Berlin): „Hörereignisrichtung in Abhängigkeit von der Pegeldifferenz der Interchannel-Signale“. Berlin, 1994. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/HoerereignRichtungDL.pdf

[pdf7] Eberhard Sengpiel (UdK Berlin): „Hörereignisrichtung in Abhängigkeit von der Laufzeitdifferenz der Interchannel-Signale“. Berlin, 1994. Erhältlich unter [Stand 19.07.2006]: http://www.sengpielaudio.com/HoerereignRichtungDt.pdf

[pdf8] Sony Dynamic Digital Sound (SDDS): “History of Multi-channel Digital Sound ”. Erhältlich unter [Stand 19.07.2006]: http://www.sdds.com/pdfs/five.pdf

[pdf9] Joseph Hull (Dolby Laboratories Inc.): “Surround Sound – Past, Present and Future”. Erhältlich unter [Stand 19.07.2006]: http://www.dolby.com/assets/pdf/tech_library/2_surround_Past.Present.pdf

[pdf10] Dolby Information (Roger Dressler): „So funktionieren Dolby Pro Logic II Decoder“. 2000. Erhältlich unter [Stand 30.06.2006]: www.kenwood.de/download_home/prologic_dolby.pdf

[pdf11] Surround Sound Forum: „Sammlung der SSF-Email Diskussionen“. 1999-2002. Erhältlich unter [Stand 30.06.2006]: http://www.tonmeister.de/vdt/modules/WebEditorContent/fileSSF%20e-mail%20Disk.%2022.10.99-06.09.03.pdf und http://www.tonmeister.de/vdt/modules/WebEditorContent/fileSSF%20e-mail%20Disk.%2006.12.02-06.09.03.pdf

[pdf12] ITU-Empfehlung: Recommendation ITU-R BS. 775-1: “Multichannel Stereophonic Sound System with and without accompanying Picture”. Genf, 1992-1994. Erhältlich unter [Stand 29.06.2006]: http://www.itu.int/rec/R-REC-BS.775-1-199407-I/en

[pdf13] Surround Sound Forum (Dr. Günther Theile): „Hörbedingungen und Wiedergabeanordnungen für die Mehrkanal-Stereofonie“. 2002. Erhältlich unter [Stand 30.06.2006]: http://www.tonmeister.de/foren/surround/texte/SSF_01_1_2002_v2.PDF

[pdf14] SMPTE Recommended Practice: “Loudspeaker Placements for AudioMonitoringinHighDefinitionElectronicProduction”,SMPTEN 15.04/152-300B. 1991. Erhältlich unter [Stand 29.06.2006]: http://www.smpte.org

Page 105: Orientierung im Surround-Raum mit Shockwave 3D

�X

Literaturverzeichnis �3

[pdf15] Daniel Dettwiler: „Untersuchung zur Positionierung von Schallereignissen im Phantomfeld der Fünfkanal-Stereophonie bei der Mischung von U-Musik“. 2001. Erhältlich unter [Stand 29.06.2006]: http://www.esbasel.ch/Varia/Sourround/SouPos.PDF

[pdf16] Geoff Martin, Wieslaw Woszczyk, Jason Corey, René Quesnel (McGill University): “Sound Source Localization in a Five-Channel Surround Sound Reproduction System”. AES, 1999. Erhältlich unter [Stand 29.06.2006]: http://www.music.mcgill.ca/cirmmt/publications/pdf/martin99b.pdf

[pdf17] Suokuisma, P., Zacharov, N., and Beth, S.: “Multichannel Level Alignment,PartII:TheInfluenceofSignalsandLoudspeakerPlacement”, Audio Engineering Society Preprint 4815, 105th Convention. 1998. Erhältlich unter [Stand 29.06.2006]: http://lib.tkk.fi/Diss/2000/isbn9512252104/article3.pdf

[pdf18] Ziegelmeier, Wolfgang / Theile, Gunther (IRT): „Darstellung seitlicher Schallquellen bei Anwendung des 3/2-Stereo Formates“. Erhältlich unter [Stand 29.06.2006]: http://www.irt.de/wittek/hauptmikrofon/theile/Seitl.Lokalisation_TMT1996.pdf

[pdf19] Felderhoff Uwe, Mackensen Philip, Theile Günther (IRT): „Stabilität der Lokalisation bei verfälschter Reproduktion verschiedener Merkmale der binauralen Signale“. Erhältlich unter [Stand 29.06.2006]: http://www.irt.de/wittek/hauptmikrofon/theile/Stabilitaet_Lokalisation_TMT1998_.PDF

Weitere Dokumente:

[doc1] Hilfedatei zum BASS-Xtra. Erhältlich unter [Stand 20.06.2006]: http://www.cubesoftwaresolutions.com/products.htm