75
LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) BERNHARD HANKE Diese Vorlesung setzt die Vorlesung Lineare Algebra und Analytische Geometrie I aus dem WS 12/13 fort. Ein Skript dieser Vorlesung ist im Internet verf ¨ ugbar. Wir k¨ urzen diese Referenz mit [LinAlgI] ab. Die Referenz [Fischer] bezieht sich auf das Buch Lernbuch Lineare Algebra und analytische Geometrie von Gerd Fischer. 15.4.13 1. Eigenwerte, Diagonalisierung, Trigonalisierung Es seien K ein K¨ orper, V und W endlichdimensionale K -Vektorr¨ aume, n := dim V , m := dim W sowie f : V W eine K -lineare Abbildung. In Satz 5.13 (Normalform linearer Abbildungen) der Vorlesung Lineare Algebra I haben wir gesehen, dass nach geschickter Wahl von Basen B von V und C von W die darstellende Matrix M B C (f ) K m×n von f von der einfachen Gestalt M B C (f )= E r 0 0 0 ist, wobei r := Rang(f). Falls V = W , also f End(V ), so ist die Forderung naheliegend, nicht zwei Basen (f ¨ ur Quelle und Ziel von f ), sondern nur eine Basis von V zu variieren. In anderen Worten (siehe S. 28 im Skript zur Linearen Algebra I): K¨ onnen wir eine Basis B von V finden, so dass M B B (f ) K n×n , die darstellende Matrix des Endomorphismus f bez¨ uglich der Basis B von besonders einfacher Gestalt ist? Diese Frage kann nicht mehr einfach mit Satz 5.13. aus LinAlg 1 beantwortet werden. Es sei C eine Basis von V und A := M C C (f ) K n×n die darstellende Matrix von f bez¨ uglich C (f ¨ ur Quelle und Ziel von f ). Bezeichnet S := T C B die Matrix des Koordinatenwechsels von der Basis C in eine andere Basis B von V , so gilt M B B (f )= S · A · S -1 . Wir k¨ onnen unser Problemstellung also folgendermaßen variieren: Gegeben sei eine Matrix A K n×n . Man finde eine Matrix S GL(n, K ), so das SAS -1 eine besonders einfache Gestalt hat. In diesem Zusammenhang ist die folgende Sprechweise n¨ utzlich. Definition. Zwei Matrizen A, B K n×n heißen ¨ ahnlich, falls es eine Matrix S GL(n, K ) gibt mit B = SAS -1 . Dies definiert eine ¨ Aquivalenzrelation auf K n×n . Definition. Es sei A K n×n . Wir nennen A in Diagonalform oder eine Diagonalmatrix, falls A = λ 1 0 . . . 0 λ n 1

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) · LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) BERNHARD HANKE Diese Vorlesung setzt die Vorlesung Lineare Algebra und

  • Upload
    others

  • View
    11

  • Download
    1

Embed Size (px)

Citation preview

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13)

BERNHARD HANKE

Diese Vorlesung setzt die Vorlesung Lineare Algebra und Analytische Geometrie I ausdem WS 12/13 fort. Ein Skript dieser Vorlesung ist im Internet verfugbar. Wir kurzen dieseReferenz mit [LinAlgI] ab. Die Referenz [Fischer] bezieht sich auf das Buch Lernbuch LineareAlgebra und analytische Geometrie von Gerd Fischer.

15.4.13

1. Eigenwerte, Diagonalisierung, Trigonalisierung

Es seien K ein Korper, V und W endlichdimensionale K-Vektorraume, n := dimV ,m := dimW sowie f : V → W eine K-lineare Abbildung. In Satz 5.13 (Normalform linearerAbbildungen) der Vorlesung Lineare Algebra I haben wir gesehen, dass nach geschickter Wahlvon Basen B von V und C von W die darstellende Matrix MB

C (f) ∈ Km×n von f von dereinfachen Gestalt

MBC (f) =

(Er 00 0

)ist, wobei r := Rang(f).

Falls V = W , also f ∈ End(V ), so ist die Forderung naheliegend, nicht zwei Basen (furQuelle und Ziel von f), sondern nur eine Basis von V zu variieren. In anderen Worten (sieheS. 28 im Skript zur Linearen Algebra I): Konnen wir eine Basis B von V finden, so dassMBB (f) ∈ Kn×n, die darstellende Matrix des Endomorphismus f bezuglich der Basis B von

besonders einfacher Gestalt ist? Diese Frage kann nicht mehr einfach mit Satz 5.13. ausLinAlg 1 beantwortet werden.

Es sei C eine Basis von V und A := MCC (f) ∈ Kn×n die darstellende Matrix von f bezuglich

C (fur Quelle und Ziel von f). Bezeichnet S := TCB die Matrix des Koordinatenwechsels vonder Basis C in eine andere Basis B von V , so gilt

MBB (f) = S · A · S−1.

Wir konnen unser Problemstellung also folgendermaßen variieren: Gegeben sei eine MatrixA ∈ Kn×n. Man finde eine Matrix S ∈ GL(n,K), so das SAS−1 eine besonders einfacheGestalt hat. In diesem Zusammenhang ist die folgende Sprechweise nutzlich.

Definition. Zwei Matrizen A,B ∈ Kn×n heißen ahnlich, falls es eine Matrix S ∈ GL(n,K)gibt mit B = SAS−1.

Dies definiert eine Aquivalenzrelation auf Kn×n.

Definition. Es sei A ∈ Kn×n.

• Wir nennen A in Diagonalform oder eine Diagonalmatrix, falls

A =

λ1 0. . .

0 λn

1

2 BERNHARD HANKE

wobei λ1, . . . , λn ∈ K. Die Matrix A hat also von Null verschiedene Eintrage hochstensauf der Diagonalen.• Wir nennen A eine obere Dreiecksmatrix, falls

A =

λ1 ∗. . .

0 λn

mit λ1, . . . , λn ∈ K und ∗ bedeutet, dass die Eintrage oberhalb der Diagonalen beliebigeElemente aus K sind.• Wir nennen A diagonalisierbar, bzw. trigonalisierbar, falls A ahnlich zu einer Diago-

nalmatrix, bzw. zu einer oberen Dreiecksmatrix ist.• Wir nennen einen Endomorphismus f ∈ End(V ) diagonalisierbar, bzw. trigonalisier-

bar, falls es eine Basis von V gibt, bezuglich der die darstellende Matrix von f eineDiagonalmatrix, bzw. eine obere Dreiecksmatrix ist.

Proposition 1.1. Es sei A ∈ Kn×n. Dann ist A als Matrix genau dann diagonalisierbar(trigonalisierbar), wenn A als Endomorphismus Kn → Kn diagonalisierbar (trigonalisierbar)ist.

Beweis. Wir behandeln nur die Diagonalisierbarkeit, da die Trigonalisierbarkeit ganz analoggeht.

Sei zunachst A als Matrix diagonalisierbar. Dann gibt es ein S ∈ GL(n,K), so dassD := SAS−1 eine Diagonalmatrix in Kn×n ist. Es seien B die Basis von Kn bestehend ausden Spalten (v1, . . . , vn) der Matrix S−1 und C die Standardbasis von Kn. Dann gilt

TBC = S−1

und somit haben wir D = T CBATBC . Bezuglich der Basis B wird also der Endomorphismus A

durch die Diagonalmatrix D dargestellt.Sei umgekehrt B eine Basis von Kn, so dass bezuglich dieser Basis der Endomorphismus A

durch eine Diagonalmatrix D dargestellt wird. Es ist dann D = T CBATBC und mit S := T CB

erhalten wir D = SAS−1, so dass in der Tat A ahnlich zur Diagonalmatrix D ist.�

Beispiel.

• Jede Matrix A ∈ K1×1 ist automatisch in Diagonalgestalt. Ist A = (λ) so entsprichtA der linearen Abbildung K → K, x 7→ λ · x.• Ist allgemeiner V ein eindimensionaler K-Vektorraum und f : V → V eine lineare

Abbildung, so gibt es genau ein λ ∈ K, so dass f(v) = λv fur alle v ∈ V . Insbesondereist die darstellende Matrix von f bezuglich jeder Basis (v) von V die (1× 1)-Matrixgegeben durch (λ).

Diagonalmatrizen beschreiben also die einfachste mogliche Verallgemeinerung von Endo-morphismen eindimensionaler Vektorraume auf hoherdimensionale Raume.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 3

Es sei f ∈ End(V ) ein Endomorphismus, B = (v1, . . . , vn) eine Basis von V und A diedarstellende Matrix von f bezuglich dieser Basis. Ist dann

A =

λ1 0. . .

0 λn

in Diagonalgestalt, so gilt

f(vi) = λivi

fur alle i = 1, . . . , n. Also kann f nur dann diagonalisierbar sein, wenn es Vektoren v ∈ Vgibt, so dass v 6= 0 und f(v) = λv fur ein λ ∈ K.

Beispiel. Der Endomorphismus (0 −11 0

): R2 → R2

(Drehung um π/2 gegen den Uhrzeigersinn) ist nicht diagonalisierbar.

Definition. Es sei V ein beliebiger (nicht unbedingt endlichdimensionaler) K-Vektorraumund f ∈ End(V ). Wir nennen λ ∈ K einen Eigenwert von f , falls es ein v ∈ V gibt mitv 6= 0 und f(v) = λv. In diesem Fall heißt v ein Eigenvektor zum Eigenwert λ.

In dieser Definition mussen wir v 6= 0 fordern, da die Gleichung f(0) = λ · 0 fur alle λ ∈ Ktrivialerweise erfullt ist. Auf Eigenvektoren wirkt f in besonders einfacher Weise: Durch eineStreckung um einen gewissen Faktor.

Beispiel.

• v ist genau dann ein Eigenvektor von f zum Eigenwert 0, wenn v ∈ ker f .

• Mit A :=

9 −1 9 −526 −2 32 −18−7 1 −7 5−4 1 −5 6

∈ R4×4 und v :=

13−1− 1

∈ R4 gilt Av = 2v.

Also ist v ein Eigenvektor von A zum Eigenwert 2.• Wir betrachten den Vektorraum V := C∞(R) der unendlich oft differenzierbaren

Abbildungen R→ R und den R-linearen Endomorphismus f : V → V , f 7→ dfdx

. Furλ ∈ R ist dann fλ : R→ R, t 7→ exp(λt), ein Eigenvektor von f zum Eigenwert λ.

17.4.13

Lemma 1.2. Es sei V ein K-Vektorraum, f : V → V ein Endomorphismus und (vi)i∈I eineFamilie von Eigenvektoren von f zu paarweise verschiedenen Eigenwerten. Dann ist dieseFamilie linear unabhangig.

Beweis. Zum Testen der linearen Unabhangigkeit genugt es, endliche Teilfamilien der gegebe-nen Familie zu betrachten. Wir machen Induktion nach der Lange n dieser Teilfamilie. Ist (v)eine Familie bestehend aus einem einzigen Eigenvektor (v) zum Eigenwert λ ∈ K, so ist dieseFamilie linear unabhangig, da nach Voraussetzung v 6= 0 gilt.

4 BERNHARD HANKE

Es sei nun die Behauptung fur alle Familien der Lange n bestehend aus Eigenvektorenvon f zu paarweise verschiedenen Eigenwerten bewiesen. Es sei (v1, . . . , vn+1) eine Familiebestehend aus Eigenvektoren von f zu den paarweise verschiedenen Eigenwerten α1, . . . , αn+1.

Angenommen,

λ1v1 + · · ·+ λn+1vn+1 = 0.

Durch Multiplikation dieser Gleichung mit αn+1, beziehungsweise durch Anwenden von ferhalten wir die Gleichungen

αn+1λ1v1 + · · ·+ αn+1λnvn + αn+1λn+1vn+1 = 0,

α1λ1v1 + · · ·+ αnλnvn + αn+1λn+1vn+1 = 0.

Durch Subtraktion der zweiten Gleichung von der ersten haben wir

(αn+1 − α1)λ1v1 + · · ·+ (αn+1 − αn)λnvn = 0.

Nach Induktionsannahme folgt (αn+1 − αk)λk = 0 fur alle k = 1, . . . , n. Da die αi paarweiseverschieden sind, folgt λ1 = . . . = λn = 0. Wegen vn+1 6= 0 (denn vn+1 ist ein Eigenvektor)erhalten wir schließlich noch λn+1 = 0. �

Inbesondere kann ein n-dimensionaler Vektorraum hochstens n verschiedene Eigenwertehaben.

Eine weitere Folgerung ist:

Proposition 1.3. Es sei V ein n-dimensionaler K-Vektorraum und f ∈ End(V ) ein Endo-morphismus mit n paarweise verschiedenen Eigenwerten. Dann ist f diagonalisierbar.

Beweis. Es seien λ1, . . . , λn die Eigenwerte von f und v1, . . . , vn zugehorige Eigenvektoren.Dann ist nach Lemma 1.2 die Familie (v1, . . . , vn) linear unabhangig, wegen dimV = n alsoeine Basis von V . Also hat V eine Basis aus Eigenvektoren von f . �

Definition. Ist V ein K-Vektorraum und λ ∈ K, so setzen wir

Eig(f;λ) := {v ∈ V | f(v) = λv} ⊂ V .

Dies ist der zu λ gehorende Eigenraum.

Nach Definition ist also

Eig(f;λ) = ker(f − λ · idV)

und daher ist Eig(f;λ) ein Untervektorraum von V . Weiterhin folgt direkt aus den Definitionen:

• Eig(f; 0) = ker(f).• λ ∈ K ist Eigenwert von f ⇔ Eig(f;λ) 6= 0 ⇔ dim Eig(f;λ) > 0.• Ist λ ∈ K Eigenwert von f , so ist die Menge Eig(f;λ) \ {0} die Menge der zu λ

gehorenden Eigenvektoren.

Wir erhalten somit auch:

Proposition 1.4. Es sei V endlichdimensional und f ∈ End(V ). Es seien λ1, . . . , λk dieEigenwerte von f . Dann ist f genau dann diagonalisierbar, falls

dim Eig(f;λ1) + . . .+ dim Eig(f;λk) = dim V .

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 5

Beweis. Es sei dimV = n. Falls f diagonalisierbar ist, hat V eine Basis (v1, . . . , vn) vonEigenvektoren von f . Fur jeden Eigenwert λ von V bilden die Vektoren aus dieser Basis zumEigenwert λ eine Basis von Eig(f;λ). Da jeder Vektor aus der Basis (v1, . . . , vn) zu genaueinem Eigenwert gehort, folgt

dim Eig(f;λ1) + . . .+ dim Eig(f;λk) = dim V .

Ist umgekehrt diese Gleichung erfullt, fassen wir die Basen der Eigenraume Eig(f;λ1), . . .,Eig(f;λk) zu einer Familie von Vektoren in V zusammen. Diese Familie ist nach Lemma 1.2linear unabhangig und hat nach Annahme die Lange n. Sie bildet also eine Basis von V ausEigenvektoren. �

Es stellt sich die Frage, wie wir die Eigenwerte eines Endomorphismus bestimmen konnen.Wir untersuchen diese Frage hier nur fur endlichdimensionale Vektorraume. Es sei also abjetzt dimV = n und f ∈ End(V ).

Nach Definition ist λ ∈ K genau dann ein Eigenwert von f , falls

ker(f − λ · idV ) 6= 0 .

Es sei nun F ∈ End(V ) ein beliebiger Endomorphismus. Wir erinnern an die Definitionder Determinante von F (vgl. S. 72 im Skript zur Linearen Algebra I). Sei B eine beliebigeBasis von V . Wir setzen dann

det(F ) := det(MBB (F )) ∈ K

Wir haben in der Linearen Algebra I gesehen, dass diese Definition nicht von der Auswahlvon B abhangt. Weiterhin haben wir mit dem Rangsatz die Aquivalenz

kerF = 0⇔ Rang(F) = n⇔ F ∈ Aut(V)⇔ det(F) 6= 0 .

Indem wir nun F := f − λ · idV setzen, erhalten wir

Proposition 1.5. Die folgenden Aussagen sind aquivalent:

• λ ∈ K ist ein Eigenwert von f .• det(f − λ idV ) = 0.

Ist A die darstellende Matrix von f bezuglich einer (beliebigen) Basis von V , so ist

det(f − λ idV ) = det(A− λ · En)

mit der (n× n)-Einheitsmatrix En. Diese Formel konnen wir benutzen, um die Eigenwertevon f in systematischer Weise zu bestimmen:

Wir ersetzen dazu in der Matrix A− λ · En das Element λ ∈ K durch eine UnbestimmteX und betrachten die Matrix

A−X · En =

a11 −X · · · a1n...

. . ....

an1 · · · ann −X

mit Koeffizienten im Polynomring K[X].

Die durch die Leibnizformel

det(cij)1≤i,j≤n =∑σ∈Sn

sgn(σ)c1σ(1) · · · · · cnσ(n)

6 BERNHARD HANKE

definierte Determinante der Matrix A−X ·En ist ein Polynom in K[X] vom Grad n. Genauererhalten wir

det(A−X · En) = (−1)nXn + (−1)n−1(a11 + · · ·+ ann)Xn−1 + . . .+ detA.

Definition. Das Polynom det(A−X ·En) ∈ K[X] heißt das charakteristische Polynom vonA und wird mit PA(X) (in der Literatur auch mit χA(X)) bezeichnet.

Wir wollen zeigen, dass PA nicht davon abhangt, bezuglich welcher Basis von V wir diedarstellende Matrix A von f genommen haben. Arbeiten wir mit einer anderen Basis von Vund bezeichnet A′ die darstellende Matrix von f bezuglich dieser neuen Basis, so gibt es eineMatrix S ∈ GL(n,K) mit A′ = SAS−1 und wir erhalten

PA′ = det(A′ −X · En) = det(SAS−1 −X · En) = det(SAS−1 −X · (SEnS−1))

= det(S · (A−XEn) · S−1) = det(A−XEn) = PA

also andert sich das Polynom det(A−XEn) ∈ K[X] in der Tat nicht, wenn wir A durch diedarstellende Matrix von f bezuglich einer anderen Basis von V ersetzen.

Definition. Es sei f ∈ End(V ) und A ∈ Kn×n die darstellende Matrix von f bezuglich einerbeliebigen Basis von V . Wir setzen

Pf := PA(X) ∈ K[X].

Dieses (von der gewahlten Basis von V unabhangige) Polynom heißt charakteristischesPolynom von f .

Aus unseren Betrachtungen folgt:

Proposition 1.6. Es sei V ein endlichdimensionaler K-Vektorraum und f ∈ End(V ). Dannsind die folgenden Aussagen aquivalent:

• λ ∈ K ist ein Eigenwert von f .• λ ist Nullstelle des charakteristischen Polynoms Pf ∈ K[X] von f .

Die Bestimmung der Eigenwerte eines Endomorphismus lauft also auf die Nullstellenbe-stimmung von Polynomen hinaus.

Beispiel. Wir betrachten die Matrix

A :=

(0 −11 0

)∈ R2×2

die eine Drehung der Ebene gegen den Uhrzeigersinn um den Winkel π/2 beschreibt. Wirerhalten

PA = 1 +X2 ∈ R[X] .

Uber R hat dieses Polynom keine Nullstellen und somit hat A keine reellen Eigenwerte.Fassen wir jedoch A als Element von C2×2 auf, so hat das zugehorige charakterische Polyon

PA(X) = 1 +X2 ∈ C[X] die Nullstellen i und −i. Insbesondere ist dann A diagonalisierbarund ahnlich zur Diagonalmatrix (

i 00 −i

).

Dieses Beispiel zeigt, wie die Diagonalisierbarkeit einer Matrix vom zu Grunde liegendenKorper abhangen kann.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 7

Ist nun λ ∈ K ein Eigenwert von A ∈ Kn×n, so kann man eine Basis des zugehorigenEigenraumes bestimmen, indem man eine Basis von ker(A−λEn) berechnet. Dies macht manmit den Methoden aus dem Wintersemester, indem man unachst A−λEn auf Zeilenstufenformbringt.

Beispiel. Wir betrachten A :=

2 0 03 5 −36 6 −4

∈ R3×3. Das charakteristische Polynom ist

PA = −(X − 2)2 · (X + 1)

und wir erhalten die beiden Eigenwerte λ1 = −1 und λ2 = 2. Wir haben

Eig(A;−1) = span

012

, Eig(A; 2) = span

101

,

−110

.

Mit

S−1 :=

0 1 −11 0 12 1 0

(mit den Basisvektoren der Eigenraume als Spalten - vgl. den Beweis von Proposition 1.1)gilt somit

SAS−1 =

−1 0 00 2 00 0 2

.

22.4.13

Ist allgemeiner λ ein Eigenwert eines Endomorphismus f ∈ End(V ) (wie immer ist hierdimV = n), so wahlt man zunachst eine Basis B von V , berechnet die darstellende Matrix Avon f bezuglich dieser Basis und bestimmt anschließend eine Basis von ker(A− λEn) ⊂ Kn.Die Vektoren in dieser Basis sind die Koordinatenvektoren (bezuglich der Basis B) derBasisvektoren von Eig(f;λ).

Der im charakteristischen Polynom vor Xn−1 (bis auf ein Vorzeichen) auftretende Koeffizienta11 + · · ·+ ann hat einen besonderen Namen.

Definition. Es sei A = (aij) ∈ Kn×n. Wir setzen

spur(A) :=n∑

k=1

akk ∈ K.

Dies ist die Spur von A.

Die Spur erfullt folgende bemerkenswerte Identitat:

Proposition 1.7. Es seien A,B ∈ Kn×n. Dann gilt

spur(AB) = spur(BA).

Insbesondere haben ahnliche Matrizen die gleiche Spur.

Man beachte, dass in der Regel AB 6= BA gilt!.

8 BERNHARD HANKE

Beweis. Setze

C = (cij) = A ·B, cij =n∑

α=1

aiαbαj

C ′ = (c′ij) = B · A, c′ij =n∑

α=1

biαaαj.

Dann gilt

spur(A ·B) =n∑k=1

ckk =n∑k=1

(n∑

α=1

akαbαk

)=

n∑α=1

(n∑k=1

bαkakα

)=

n∑α=1

c′αα = spur(B · A).

Die letzte Aussage folgt daraus mit

spur(SAS−1) = spur(S−1SA) = spur(A).

fur alle S ∈ GL(n,K).�

Proposition 1.8. a) Es sei f ∈ End(V ) diagonalisierbar. Dann zerfallt Pf in Linear-faktoren.

b) Das charakteristische Polynom Pf zerfalle in Linearfaktoren, wobei jede Nullstelle mitVielfachheit 1 auftritt. Dann ist f diagonalisierbar.

Beweis. Die erste Aussage folgt daraus, dass det(A−XEn) in Linearfaktoren zerfallt, falls Aeine Diagonalmatrix ist. Fur die zweite Aussage beachte man, dass degPf = dimV = n, sodass unter der gegebenen Voraussetzung n paarweise verschiedene Eigenwerte von f existieren.Nach Proposition 1.3 ist dann f diagonalisierbar.

Teil b) ist ohne die Beschrankung an die Vielfachheit der Nullstellen im allgemeinen falsch:

Beispiel. Wir betrachten den Jordanblock der Große n zum Eigenwert λ

J(λ, n) :=

λ 1 0

. . . . . .. . . 1

0 λ

∈ Kn×n.

Wir erhalten fur das charakteristische Polynom

PJ(λ,n) = (λ−X)n.

Außerdem haben wirEig(J(λ, n);λ) = span(e1),

alsodim Eig(J(λ, n);λ) = 1,

und somit ist J(λ, n) nur dann diagonalisierbar, falls n = 1.

Wir mussen also die Dimensionen der Eigenraume mit der Vielfachheit der entsprechendenNullstelle des charakteristischen Polynoms vergleichen. Allgemein gilt

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 9

Proposition 1.9. Fur alle λ ∈ K gilt

dim Eig(f;λ) ≤ µ(Pf ;λ)

(die rechte Seite bezeichnet die Vielfachheit der Nullstelle λ des Polynoms Pf , vgl. S. 77 inLinAlg I).

Der Beweis findet sich in [Fischer] auf Seite 319.

Definition. Es sei V ein endlichdimensionaler K-Vektorraum und f ∈ End(V ). Es seiλ ∈ K eine Nullstelle von Pf (d.h. ein Eigenwert von f).

• Die Ordnung der Nullstelle λ von Pf , also die Zahl µ(Pf ;λ), heißt algebraischeVielfachheit von λ. Diese Bezeichnen wir auch mit µ(f ;λ).• Die Dimension d(f ;λ) := dim Eig(f;λ) heißt geometrische Vielfachheit von λ.

In Proposition 1.9 haben wir gezeigt, dass die geometrische Vielfachheit eines Eigenwertesimmer kleiner oder gleich seiner algebraischen Vielfachheit ist.

Wir erhalten nun eine abschließende Charakterisierung der Diagonalisierbarkeit.

Satz 1.10. Die folgenden Aussagen sind aquivalent:

• f ist diagonalisierbar.• Pf zerfallt in Linearfaktoren und fur alle Nullstellen λ von Pf gilt dim Eig(f;λ) =µ(Pf ;λ).• Sind λ1, . . . , λk die paarweise verschiedenen Eigenwerte von f , so gilt

V = Eig(f;λ1)⊕ . . .⊕ Eig(f;λk) .

Der Beweis findet sich in [Fischer], S. 320 f.

24.4.13

Wir haben damit ein praktisches Verfahren zur Hand, wie wir bestimmen, ob f diagonali-sierbar ist:

• In einem ersten Schritt pruft man, ob Pf in Linearfaktoren zerfallt (hierfur existiertkein allgemeiner Algorithmus; aber in vielen praktischen Fallen kann man trotzdementscheiden, ob Pf in Linearfaktoren zerfallt oder nicht). Falls dies nicht der Fall ist,so ist f sicher nicht diagonalisierbar.• Zerfallt Pf in Linearfaktoren, so berechnet man fur alle Nullstellen λ von Pf die

Dimension von Eig(f;λ). Gilt fur alle Nullstellen λ die Gleichheit dim Eig(f;λ) =µ(Pf ;λ), sind also alle geometrischen und algebraischen Vielfachheiten gleich, so ist fdiagonalisierbar.

Im Beispiel auf Seite 7 hat die Matrix A die Eigenwerte −1 und 2. Das charakteristischePolynom zerfallt in Linearfaktoren und fur die algebraischen und geometrischen Vielfachheitengilt

µ(PA;−1) = 1 = dim Eig(A;−1) und µ(PA; 2) = 2 = dim Eig(A; 2).

Dies zeigt noch einmal, dass A diagonalisierbar ist.

Beispiel. Sei V = span(1, cos(2x), sin(2x)) ⊂ C∞(R) und sei F : V → V die lineareAbbildung

f 7→ df

dx.

10 BERNHARD HANKE

Bezuglich der Basis B = (1, cos(2x), sin(2x)) hat die darstellende Matrix von F folgendeGestalt:

MB(F ) =

0 0 00 0 20 −2 0

und damit ist

PF (x) = −x(x2 + 4).

Es folgt, dass F (uber R) nicht diagonalisierbar ist. Der Endomorphismus G = F 2 istallerdings diagonalisierbar, denn er wird bezuglich der Basis B durch die Matrix

MB(F )2 =

0 0 00 0 20 −2 0

2

=

0 0 00 −4 00 0 −4

dargestellt.

Man fragt sich, was man im allgemeinen uber den Endomorphismus f sagen kann, falls Pfin Linearfaktoren zerfallt, aber die geometrischen und algebraischen Vielfachheiten seinerNullstellen nicht ubereinstimmen.

Das Hauptresultat dazu lautet:

Satz 1.11. Es sei f ∈ End(V ). Dann sind aquivalent:

a) Pf zerfallt in Linearfaktoren.b) f ist trigonalisierbar.

Mit dem Fundamentalsatz der Algebra folgt also

Korollar 1.12. Jeder Endomorphismus eines endlichdimensionalen komplexen Vektorraumesist trigonalisierbar.

Beweis von Satz 1.11. Da das charakteristische Polynom einer oberen Dreiecksmatrix inLinearfaktoren zerfallt, impliziert Aussageb b) die Aussage a).

Wir zeigen die Implikation von a) nach b) durch Angabe eines expliziten Verfahrens zurTrigonalisierung.

Nach Wahl einer Basis von V konnen wir uns auf den Fall beschanken, dass f durch eineMatrix A ∈ Kn×n gegeben ist und dass PA in Linearfaktoren zerfallt.

Wir setzen V1 := Kn und A1 := A. Es sei λ1 ein Eigenwert von A1 und v1 ∈ Kn einzugehoriger Eigenvektor. Wir erganzen nun die Familie (v1) zu einer Basis B1 von Kn. Einebequeme Moglichkeit ist

B1 := (v1, e1, . . . , ei1 , . . . , en),

wobei i1 so gewahlt wurde, dass die i1-te Komponente von v1 ungleich 0 ist. Das Hutchenbedeutet, dass der entsprechende Basisvektor ausgelassen wird.

Die darstellende Matrix MB1(A) hat die Blockgestaltλ1 · · · ∗ · · ·0... A2

0

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 11

mit einer Matrix A2 ∈ K(n−1)×(n−1). Es gilt also

PA = (λ1 −X) · PA2

und inbesondere zerfallt PA2 wieder in Linearfaktoren.Wir setzen

V2 := span(e1, . . . , ei1 , . . . , en) ⊂ V1

Die Matrix A2 stellt bezuglich der Basis (e1, . . . , ei1 , . . . , en) von V2 einen Endomorphismusf2 : V2 → V2 dar und wir haben bereits oben gesehen, dass Pf2 = PA2 wieder in Linearfaktorenzerfallt.

Es sei λ2 ein Eigenwert von f2 und v2 ∈ V2 ⊂ V1 ein zugehoriger Eigenvektor. Man berechnetv2, indem man einen Eigenvektor v′2 ∈ Kn−1 von A2 ∈ K(n−1)×(n−1) bestimmt und an deri1-ten Stelle eine Null einfugt (beachte, dass v′2 der Koordinatenvektor von v2 bezuglich derBasis B1 ist.)

Wir wahlen nun ein i2 6= i1, so dass

B2 = (v1, v2, e1, . . . , ei1 , . . . , ei2 , . . . , en)

wieder eine Basis von Kn ist.Die darstellende Matrix MB2(A) hat die Gestalt

λ1 ∗ · · · ∗ · · ·0 λ2 · · · ∗ · · ·0 0...

... A3

0 0

.

wobei A3 ∈ K(n−2)×(n−2). Es ist

PA = (λ1 −X) · (λ2 −X) · PA3 ,

und insbesondere zerfallt PA3 wieder in Linearfaktoren.Wir setzen nun

V3 := span(e1, . . . , ei1 , . . . , ei2 , . . . , en) ⊂ V

Die Matrix A3 stellt bezuglich der Basis (e1, . . . , ei1 , . . . , ei2 , . . . , en) von V3 einen Endo-morphismus f3 : V3 → V3 dar. Es sei λ3 ein Eigenwert von f3 und v3 ∈ V3 ⊂ Kn einzugehoriger Eigenvektor. Man bestimmt v3, indem man einen Eigenvektor v′3 ∈ Kn−2 vonA3 ∈ K(n−2)×(n−2) berechnet und an der i1-ten und i2-ten Stelle Nullen einfugt.

Nach n− 1 Schritten erhalten wir eine Basis (v1, . . . , vn) von Kn, bezuglich der A obereDreiecksgestalt hat. �

Bemerkung 1.13. Die f darstellende obere Dreiecksmatrix ist durch f nicht eindeutigbestimmt. Es ist jedoch klar, dass auf der Diagonalen genau die Eigenwerte stehen, und zwarmit der Haufigkeit ihrer algebraischen Vielfachheiten.

Wir kommen auf diesen Punkt spater noch einmal zu sprechen, wenn wir die JordanscheNormalform diskutieren.

12 BERNHARD HANKE

Beispiel. Wir betrachten die Matrix

A :=

3 2 −12 4 −15 6 −1

.

Das charakteristische PolynomPA = −(X − 2)3

zerfallt in Linearfaktoren, also ist A trigonalisierbar. Eine konkrete Rechnung ergibt (siehe[Fischer], Seite 327 f.), dass

SAS−1 =

2 2 30 2 10 0 2

wobei

S =

0 0 1/21/2 0 01/2 1 −1/2

, S−1 =

0 2 01 −1 12 0 0

Die Spalten von S−1 sind die Basisvektoren, bezuglich denen A die angegebene obere Drei-ecksgestalt hat.

Mit der Notation aus dem obigen Beweis von Satz 1.11 gilt fur die Rechnung in [Fischer],dass i1 = 3 und i2 = 1.

29.4.13

Die Diagonalisierung und Trigonalisierung von Endomorphismen hat eine wichtige Anwen-dung in der Theorie der gewohnlichen Differentialgleichungen. Wir skizzieren hier nur dieMethode ohne die entsprechende Theorie systematisch zu entwickeln. Naheres hierzu findetsich zum Beispiel in [O. Forster, Analysis 2, Vieweg Verlag, Kapitel 13 und 14].

Ziel ist es, Losungen φ eines Systems von homogenen linearen Differentialgleichungen mitkonstanten Koeffizienten der Gestalt

y′ = Ay

zu finden. Dabei ist A ∈ Cn×n eine quadratische Matrix mit komplexen Eintragen undφ = (φ1, . . . , φn) ist ein Tupel von komplexwertigen differenzierbaren Funktionen R → Cmit φ′(t) = Aφ(t) fur alle t ∈ R. Wahlen wir ein t0 ∈ R und einen

”Anfangswert“ c =

(c1, . . . , cn) ∈ Cn, so folgt aus der Theorie der gewohnlichen Differentialgleichungen, dasses genau eine Losung φ : R → Cn der Gleichung y′ = Ay gibt, die der Anfangsbedingungφ(t0) = c genugt. Diese Losung ist unendlich oft differenzierbar.

Aus diesen Betrachtungen folgt, dass die Menge L der Losungen der Differentialgleichungy′ = Ay ein komplexer Untervektorraum der Dimension n des Vektorraumes aller unendlichoft differenzierbaren Funktionen R→ Cn ist. Ein Isomorphismus L ∼= Cn ist dadurch gegeben,dass wir einer Losung φ ∈ L den Wert φ(t0) ∈ Cn zuordnen (die Linearitat ist klar; dieBijektivitat folgt aus dem oben zitierten Existenz- und Eindeutigkeitssatz).

Eine Basis des Losungsraumes bezeichnet man auch als Losungsfundamentalsystem desDifferentialgleichungssystems y′ = Ay. Ist (φ(1), . . . , φ(n)) ein Losungsfundamentalsystem, sofolgt aus der allgemeinen Theorie, dass die Familie (φ(1)(t), . . . , φ(n)(t)) aus Vektoren im Cn

fur alle t ∈ R linear unabhangig und somit eine Basis des Cn ist (nicht nur fur t = t0).Der Einfachheit halber wahlen wir im folgenden immer t0 := 0.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 13

Beispiel. Die eindeutig bestimmte Losung der Differentialgleichung y′ = λy mit Anfangs-wert c ∈ C zur Zeit t = 0 und λ ∈ C ist gegeben durch φ(t) = ceλt. Damit ist eλt einLosungsfundamentalsystem der Differentialgleichung y′ = λy.

Allgemeiner sei

A =

λ1 0. . .

0 λn

∈ Cn×n

eine Diagonalmatrix. Dann bilden die Funktionen φ(i)(t) = (0, . . . , 0, eλit, 0, . . . , 0), i =1, . . . , n, ein Losungsfundamentalsystem des Systems y′ = Ay. Wir sagen in diesem Fall, dasSystem ist vollstandig entkoppelt.

In unserem Zusammenhang ist nun folgende Beobachtung wichtig.

Proposition 1.14. Es sei S ∈ GL(n;C). Dann ist φ : R→ Cn genau dann Losung der obigenDifferentialgleichung, wenn die Funktion S · φ : R → Cn das Differentialgleichungssystemy′ = (SAS−1)y lost.

Beweis. Die Gleichung φ′(t) = Aφ(t) ist gleichbedeutend mit

Sφ′(t) = SAφ(t) = (SAS−1) · (Sφ(t)) .

Daher folgt die Behauptung aus der Gleichung (S · φ)′(t) = S · φ′(t), die aus der Tatsachefolgt, dass S konstante Eintrage hat. �

Ist also A ∈ Cn×n diagonalisierbar und c ∈ Cn, so bestimmen wir zunachst ein S ∈ GL(n;C),so dass B := SAS−1 Diagonalgestalt hat und bestimmen die Losung ψ : R → Cn desDifferentialgleichungssystems z′ = Bz mit Anfangswert Sc. Dann ist S−1 · ψ eine Losung desDifferentialgleichungssystems y′ = Ay mit Anfangswert c.

Im allgemeinen ist jedoch A nicht diagonalisierbar, sondern nur trigonalisierbar. Ist nunB ∈ Cn×n in oberer Dreiecksgestalt, so mussen wir also das Differentialgleichungssystem

z′1 = b11z1 + . . .+ b1nzn

z′2 = b22z2 + . . .+ b2nzn...

...

z′n = bnnzn

losen (mit einer passenden Anfangsbedingung). Dies kann man von unten nach obendurchfuhren, indem man die Losung

φn(t) = cebnnt

in die vorletzte Gleichung einsetzt und dann die entstehende inhomogene Gleichung

z′n−1 − bn−1n−1zn−1 = bn−1nφn

lost. Diese Losung ist bei gegebener Anfangsbedigung ebenfalls eindeutig und kann explizitermittelt werden. Dies macht man z.B. durch

”Variation der Konstanten“, indem man

zunachst die entsprechende homogene Gleichung

ψ′ − bn−1n−1ψ = 0

14 BERNHARD HANKE

lost und dann fur ψn−1 den Ansatz

ψn−1(t) = ψ(t) · u(t)

macht. Es ergibt sich fur u die Losung

u(t) =

∫ t

0

ψ(τ)−1bn−1nφn(τ)dτ + const.

Auf diese Weise arbeitet man das Differentialgleichungssystems von unten nach oben ab.Genauere Informationen zur hier benotigten Theorie der gewohnlichen Differentialgleichun-

gen findet man zum Beispiel in [O. Forster, Analysis 2, Kapitel 13 und 14].Wir illustrieren diese Methode am Beispiel der Differentialgleichung einer gedampften

Schwingung.Es handelt sich um eine lineare Differentialgleichung zweiter Ordnung mit konstanten

Koeffizienten

f ′′ + 2µf ′ + ω2f = 0

wobei 2µ (mit µ ≥ 0) den Dampfungsfaktor bezeichnet und ω2 die Federkonstante. Dabeiist f : R → C. Die Anfangsbedingungen sind gegeben durch f(0) = α und f ′(0) = β mitα, β ∈ R.

Diese Gleichung zweiter Ordnung schreiben wir in ein System von Gleichungen ersterOrdnung

y′ = Ay

um, wobei y = (y1, y2) : R→ C2 und

A =

(0 1−ω2 − 2µ

)und y1(0) = α und y2(0) = β. Insbesondere gilt also f = y1 und f ′ = y2. Das charakteristischePolynom von A lautet

PA(X) = X2 + 2µX + ω2

und dieses hat die Nullstellen

X1/2 = −µ±√µ2 − ω2 .

Es ergeben sich folgende Falle:

• µ > ω (starke Dampfung). In diesem Fall sind die Nullstellen verschieden und reellenegative Zahlen. Insbesondere ist A diagonalisierbar.• µ = ω (aperiodischer Grenzfall). Die beiden Nullstellen stimmen uberein. In diesem

Fall muss die Diagonalisierbarkeit von A noch eigens untersucht werden.• µ < ω (periodischer Fall). Die beiden Nullstellen sind rein komplex und verschieden.

Die Matrix ist also wieder diagonalisierbar.

Im ersten Fall erhalten wir mit der Transformationsmatrix

S−1 =

(1 1X1 X2

)dass

SAS−1 =

(X1 00 X2

)

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 15

und somit hat die Gleichung y′ = Ay das Fundamentalsystem von Losungen

φ(1) = S−1

(eX1t

0

)=

(eX1t

X1eX1t

)φ(2) = S−1

(0eX2t

)=

(eX2t

X2eX2t

)Da in der Gleichung zweiter Ordnung y = y1 gilt, haben wir also als allgemeine Losung derursprunglichen Gleichung

f(t) = c1eX1t + c2e

X2t ,

wobei die Konstanten c1, c2 ∈ C so zu bestimmen sind, dass die Anfangsbedingungen erfulltsind. Wir sehen insbesondere, dass fur reelle c1 und c2 die Losung φ fur alle t reell ist.

6.5.13

2. Der Satz von Cayley-Hamilton und die Jordansche Normalform

Wir wollen die theoretische Untersuchung der Struktur von Endomorphismen endlichdi-mensionaler Vektorraume noch weiter ausfuhren. Insbesondere werden wir sehen, wie sich dieDarstellung trigonalisierbarer Endomorphismen weiter vereinfachen lasst. Hierzu werden wirauch einige abstrakte Eigenschaften der Polynomringe K[X] erarbeiten.

Es sei V ein K-Vektorraum. Wir betrachten den Endomorphismenring(EndK(V ),+, 0, ◦, idV ) von V . Ist f ∈ End(V ), so definieren wir die Teilmenge

K[f ] := {a0 idV +a1f + . . .+ anfn | n ∈ N , a0, . . . , an ∈ K} ⊂ End(V ).

Hier benutzen wir die Kurzschreibweise

fk := f ◦ . . . ◦ f (k Faktoren)

(f 0 := idV ). Die Menge K[f ] ist ein Unterring mit 1 von End(V ), d.h. idV ∈ K[f ] und K[f ]ist abgeschlossen unter den Ringverknupfungen in End(V ). Dies ist der kleinste Unterringvon End(V ), der f enthalt. Man nennt ihn daher auch den von f erzeugten Unterring vonEnd(V ).

Obwohl End(V ) nicht kommutativ ist, falls dimV ≥ 2, ist K[f ] immer ein kommutativerRing.

Ist P ∈ K[X] ein Polynom, so konnen wir fur die Unbestimmte X den Endomorphismus feinsetzen und damit das Polynom bei f

”auswerten“. Ist P =

∑ni=0 aiX

i ∈ K[X] so setzenwir dazu

P (f) :=n∑i=0

aifi ∈ K[f ].

Die entsprechende Auswertungsabbildung

evf : K[X]→ K[f ], P 7→ P (f)

ist ein Ringhomomorphismus, es gilt also fur alle P,Q ∈ K[X]

• evf (P +Q) = evf (P ) + evf (Q),• evf (P ·Q) = evf (P ) ◦ evf (Q),• evf (0) = 0,• evf (1) = idV .

16 BERNHARD HANKE

Satz 2.1 (Satz von Cayley-Hamilton). Es sei K ein Korper, V ein endlichdimensionalerK-Vektorraum und Pf ∈ K[X] das charakteristische Polynom von f . Dann gilt Pf(f) = 0.Das heißt: Setzen wir den Endomorphismus f in sein eigenes charakteristisches Polynom ein,so erhalten wir die Nullabbildung V → V .

Beweis. Wir behandeln zunachst den Fall K = C. In diesem Fall zerfallt PA in Linearfaktoren

PA = (λ1 −X)µ1 · . . . · (λk −X)µk ,

also hat A die paarweise verschiedenen Eigenwerte λ1, . . . , λk und ist trigonalisierbar. NachWahl einer geeigneten Basis

B = (v11, . . . , v1µ1 , . . . , vk1, . . . , vkµk)

von V wird f durch eine obere Dreiecksmatrix der Form

A = MB(f) =

λ1

. . . ∗λ1

. . .λk

0. . .

λk

.

dargestellt.Wir machen Induktion nach k. Falls k = 1 hat f nur den Eigenwert λ1 mit algebraischer

Vielfachheit µ1 (insbesondere ist n = µ1) und wir erhalten

λ1 · En − A =

0

∗. . .

00

∈ Cn×n.

Somit ist

PA(A) = (λ1 · En − A)n =

0

∗. . .

00

n

= 0.

Der Satz von Cayley-Hamilton ist also erfullt.Im Induktionsschritt nehmen wir an, dass die Aussage fur k − 1 gezeigt ist. Es gilt

(λk · En − A)µk =

∗ · · · ∗. . .

... ∗0 ∗

0 · · · 0

0...

. . ....

0 · · · 0

.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 17

Oben links befindet sich eine quadratische Matrix der Große µ1 + . . .+µk−1 und unten rechtseine quadratische Matrix der Große µk.

Also gilt Bild(λk · idV −f)µk ⊂ W , wobei

W := span(v11, . . . , v1µ1 , . . . , vk−1 1, . . . , vk−1µk−1) ⊂ V.

Der Unterraum W ⊂ V ist f -invariant. Setzen wir

g := f |W : W → W

so gilt

Pg = (λ1 −X)µ1 · . . . · (λk−1 −X)µk−1 .

Nach Induktionsvoraussetzung gilt also

Pg(g)(w) = Pg(f)(w) = 0

fur alle w ∈ W . Die erste Gleichung folgt daraus, dass W invariant unter f ist und g = f |W .Ausgeschrieben heißt das

(λ1 · idV −f)µ1 ◦ · · · ◦ (λk−1 · idV −f)µk−1(w) = 0

fur alle w ∈ W .Setzen wir diese Aussagen zusammen, folgt

Pf (f)(v) = (λ1 · idV −f)µ1 ◦ · · · ◦ (λk−1 · idV −f)µk−1 ◦ (λk · idV −f)µk(v) = 0

fur alle v ∈ V . Dies schließt den Induktionsschritt ab.Als nachstes behandeln wir den Fall K = R. Da jede Matrix mit reellen Eintragen auch als

Matrix mit komplexen Eintragen aufgefasst werden kann, folgt dieser Fall aus dem bereitsGezeigten.

Den Fall allgemeiner Korper K folgt daraus, dass K immer Teilkorper eines weiterenKorpers K mit der folgenden Eigenschaft ist: Jedes Polynom mit Koeffizienten in K zerfallt inLinearfaktoren. Man sagt auch, K ist algebraisch abgeschlossen und nennt K den algebraischenAbschluss von K. Diese Aussage wird in der Algebra-Vorlesung bewiesen. Zum Beispiel giltR = C.

Wir konnen nun jede Matrix A ∈ Kn×n auch als Matrix in Kn×n

ansehen. Als solche ist Atrigonalisierbar und wir konnen den Beweis analog zum obigen Fall K = C fuhren.

Beispiel. Ist V endlichdimensional und f ∈ End(V ) diagonalisierbar mit Eigenwertenλ1, . . . , λk, so erhalten wir nach Theorem 1.10 eine direkte Summenzerlegung

V = Eig(f, λ1)⊕ . . .⊕ Eig(f, λk) .

Fur i = 1, . . . , k ist

Eig(f, λi) = ker(f − λi · idV) .

Setzen wir also

Φ := (λ1 −X) · . . . · (λk −X)

so ist fur alle i = 1, . . . , k die Abbildung Φ(f) gegeben durch

±(f − λ1 · idV ) ◦ . . . ◦ (f − λi · idV ) ◦ . . . ◦ (f − λk · idV ) ◦ (f − λi · idV )

18 BERNHARD HANKE

da K[f ] kommutativ ist. Insbesondere ist fur alle i = 1, . . . , k der Eigenraum Eig(f, λi) imKern von Φ(f) enthalten, es gilt also V = ker Φ(f) oder in anderen Worten

Φ(f) = 0 .

Das charakteristische Polynom von f lautet

Pf = (λ1 −X)µ1 · . . . · (λk −X)µk ,

wobei µ1, . . . , µk die algebraischen Vielfachheiten der Eigenwerte λ1, . . . , λk sind. Also folgtmit einer analogen Rechnung Pf (f) = 0. Fur diagonalisierbare Endomorphismen ist also derSatz von Cayley-Hamilton also recht einfach zu zeigen.

Es sei nun A := J(λ, n) ein Jordanblock der Große n zum Eigenwert λ (vgl. S. 8). Es giltdann

PA = (λ−X)n

und wir haben

(λ · En − A)i 6= 0

fur alle 0 ≤ i < n. Diese Beispiel zeigt , dass man im Satz von Cayley-Hamilton im allgemeinendie algebraischen Vielfachheiten der Nullstellen von Pf berucksichtigen muss.

8.5.13

Diese Beobachtung legt es nahe, neben den Eigenraumen noch die sogannten verallgemei-nerten Eigenraume eines Endomorphismus f : V → V zu betrachten (wie immer ist V einendlichdimensionaler K-Vektorraum).

Definition. Es sei λ ∈ K ein Eigenwert von f mit algebraischer Vielfachheit µ := µ(Pf , λ).Wir setzen

VEig(f, λ) := ker(f − λ · idV)µ ⊂ V .

Dies ist der verallgemeinerte Eigenraum zum Eigenwert λ.

Beispiel. Fur den Jordanblock A := J(n, λ) : Kn → Kn ist

VEig(A, λ) = Kn,

im Gegensatz zu Eig(A, λ) = span(e1).

Die folgenden Eigenschaften sind klar:

• VEig(f, λ) ist ein f -invarianter Untervektorraum, d.h. f(VEig(f, λ)

)⊂ VEig(f, λ).

• Es gilt Eig(f, λ) ⊂ VEig(f, λ).

Entscheidend ist nun die folgende Aussage.

Satz 2.2. Es zerfalle Pf in Linearfaktoren,

Pf = ±(X − λ1)µ1 · . . . · (X − λk)µk .

Dann gilt

V = VEig(f, λ1)⊕ . . .⊕ VEig(f, λk) .

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 19

Dies zeigt, dass wir fur beliebige Endomorphismen eine direkte Summenzerlegung inverallgemeinerte Eigenraume haben, so lange das charakteristische Polynome in Linearfaktorenzerfallt. Fur Vektorraume uber C ist dies zum Beispiel immer der Fall.

Wenn wir hier mit mit den gewohnlichen Eigenraumen arbeiten wollen, mussen wirzusatzlich voraussetzen dass die algebraischen und geometrischen Vielfachheiten der Eigenwer-te ubereinstimmen, vgl. Theorem 1.10. Dies zeigt die Vorteil verallgemeinerter Eigenraume.

Fur den Beweis von Proposition 2.2 entwickeln wir noch etwas Theorie.Es bezeichne fortan R einen kommutativen Ring mit 1.

Definition. Eine Teilmenge I ⊂ R heißt Ideal, falls I eine additive Untergruppe von R istund fur alle r ∈ R und x ∈ I gilt, dass r · x ∈ I.

Nach Definition ist jedes Ideal auch ein Unterring von R (moglicherweise nicht mit 1).Es ist aber nicht unbedingt jeder Unterring auch ein Ideal:

Beispiel.

• Die Diagonalmatrizen in R2×2 bilden einen Unterring von End(R2), jedoch kein Ideal.• Z ⊂ Q ist ebenfalls ein Unterring, aber kein Ideal.

Ist S ⊂ R eine Teilmenge, so ist die Menge

{r1s1 + . . .+ rksk | k ≥ 0, s1, . . . , sk ∈ S, r1, . . . , rk ∈ R}ein Ideal in R. Dieses heißt das von S erzeugte Ideal und wird mit (S) bezeichnet. Dieses istdas kleinste Ideal in R, das die Menge S enthalt, d.h. S ⊂ (S) (dies gilt wegen 1 ∈ R) undist I ⊂ R ein beliebiges Ideal mit S ⊂ I, so gilt (S) ⊂ I.

Definition. Wir nennen I ⊂ R ein Hauptideal, falls I von einem einzigen Element a ∈ Rerzeugt wird. Wir nennen R einen Hauptidealring, wenn jedes Ideal in R ein Hauptideal ist.

Wir dehnen die Teilbarkeitsrelatation auf beliebige kommutative Ringe R mit 1 aus undschreiben a|x, falls es ein m ∈ R gibt mit x = am.

Ist I = (a), so gilt nach Definition x ∈ I genau dann, falls a|x.

Proposition 2.3. Es sei K ein Korper. Dann ist K[X] ein Hauptidealring.

Beweis. Wir benutzen Division mit Rest in K[X], vgl. Prop. 12.2. in [LinAlgI].Es sei I ⊂ K[X] ein Ideal. Falls I = 0 := {0}, so sind wir fertig. Andernfalls wahlen wir

ein Polynom f ∈ I ungleich 0 und von minimalem Grad ≥ 0. Wir behaupten, dass I = (f).Sei dazu F ∈ I beliebig. Division mit Rest durch f fuhrt auf eine Gleichung

F = g · f + r

mit g ∈ K[X] und deg r < deg f . Da F, f ∈ I, gilt auch r = F − gf ∈ I. Nach Wahl von ffolgt r = 0. Also gilt F = gf ∈ (f). �

Da wir auch in Z Division mit Rest durchfuhren konnen (siehe Satz 8.4. in [LinAlgI]), istZ ebenfalls ein Hauptidealring.

Definition. Es seien a1, . . . , ak ∈ R. Wir nennen c ∈ R einen großten gemeinsamen Teilerder Elemente a1, . . . , ak, falls c|a1, . . . , c|ak und falls jedes Element d ∈ R mit d|a1, . . . , d|akauch d|c erfullt. In diesem Fall schreiben wir c = ggT(a1, . . . , ak).

Wir nennen die Elemente a1, . . . , ak teilerfremd, falls 1 = ggT(a1, . . . , ak).

20 BERNHARD HANKE

Man beachte, dass ein großter gemeinsamer Teiler in der Regel nicht eindeutig ist. Bei-spielsweise gilt in Z sowohl 2 = ggT(6, 8) als auch −2 = ggT(6, 8).

Zur Erinnerung: Ein Element x ∈ R heißt (multiplikative) Einheit, falls es ein y ∈ R gibtmit xy = 1.

Ist R nullteilerfrei (d.h. gilt mit a 6= 0 6= b auch ab 6= 0) und sind e und e′ zwei großtegemeinsame Teiler von a1, . . . , ak, so gibt es eine Einheit u ∈ R mit e′ = ue. Man vergleicheAufgabe 2 auf Blatt 5.

Die folgende Proposition ist eine Variante des chinesischen Restsatzes fur Hauptidealringe.

Proposition 2.4. Es sei R ein Hauptidealring, und es seien a1, . . . , ak ∈ R. Dann existiertein großter gemeinsamer Teiler von a1, . . . , ak. Schreiben wir c = ggT(a1, . . . , ak), dann giltfur die entsprechenden Ideale die Gleichung

(a1, . . . , ak) = (c) .

Beweis. Da R ein Hauptidealring ist, gibt es ein c ∈ R mit (a1, . . . , ak) = (c). Wir behaupten,dass c = ggT(a1, . . . , ak). Da a1, . . . , ak ∈ (c), gilt c|a1, . . . , c|ak. Ist d|a1, . . . , d|ak, so gilt(a1, . . . , ak) ⊂ (d), somit (wegen (a1, . . . , ak) = (c)) auch (c) ⊂ (d) und damit gilt d|c. �

Konkret bedeutet diese Aussage: Ist R ein Hauptidealring und sind a1, . . . , ak ∈ R, soexistieren Elemente b1, . . . , bk ∈ R mit

b1a1 + . . .+ bkak = ggT(a1, . . . , ak)

Fur den Ring Z ist das eine bekannte Aussage aus der elementaren Zahlentheorie (vgl. Prop.8.8. in [LinAlgI]).

Sind f, g ∈ K[X] Polynome, die nicht beide gleich 0 sind, so bestimmt man ggT(f, g)ahnlich fur den Fall ganzer Zahlen mit dem Euklidischen Algorithmus. Ohne Einschrankungder Allgemeinheit sei f 6= 0 (falls f = g = 0, so ist 0 = ggT(f, g)). Wir setzen r0 := f .Division mit Rest fuhrt auf

g = q1r0 + r1

mit deg r1 < deg r0. Durch erneute Division mit Rest haben wir

r0 = q2r1 + r2

r1 = q3r2 + r3

Da immer deg ri+1 < deg ri, erhalten wir nach endlich vielen Schritten

rn−1 = qn+1rn + 0

wobei rn 6= 0.

Proposition 2.5. Es gilt rn = ggT(f, g).

Beweis. Es gilt rn 6= 0 und rn|rn−1 aufgrund der letzten Gleichung. Verfolgen wir die Divi-sionen mit Rest von unten nach oben, sehen wir rk|rk−1 fur k = n, n − 1, . . . , 1. Die ersteGleichung zeigt dann rn|r0 und rn|g. Somit ist rn ein Teiler von f und g. Ist andererseits dein beliebiger Teiler von f und g, so verfolgen wir die Divisionen mit Rest von oben nachunten und sehen d|rk fur k = 1, . . . , n. �

Haben wir von Null verschiedene Polynome f1, . . . , fk ∈ K[X] gegeben, so bestimmt manauf diese Weise zunachst F2 := ggT(f1, f2), anschließend F3 := ggT(F2, f3) und so fort. Es giltdann Fk = ggT(f1, . . . , fk), wie man sich am besten in einer kleinen Ubung selbst klarmacht.

Ganz ahnlich bestimmt man ggT(a1, . . . , ak), falls a1, . . . , ak ∈ Z.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 21

13.5.13

Wir wenden nun diese Begriffe auf das charakteristische Polynom an. Es sei dazu K einKorper, es seien λ1, . . . , λk ∈ K paarweise verschieden und es seien µ1, . . . , µk positive ganzeZahlen. Fur i = 1, . . . , k setzen wir

Φi :=k∏

1≤j≤k,i6=j

(X − λj)µj ∈ K[X],

das heißt, aus dem Polynom (X − λ1)µ1 · . . . · (X − λk)µk wird der Faktor zur Nullstelle µientfernt.

Proposition 2.6. Die Polynome Φ1, . . . ,Φk sind teilerfremd.

Beweis. Falls Φ1, . . . ,Φk nicht teilerfremd sind, existiert ein Polynom φ ∈ K[X] mit deg φ ≥ 1,der die Polynome Φ1, . . . ,Φk teilt.

Wir betrachten zunachst wieder den fur uns besonders wichtigen Spezialfall K = C. Indiesem Fall hat φ nach dem Fundamentalsatz der Algebra eine Nullstelle λ ∈ C. Da φ allePolynome Φ1, . . . ,Φk teilt, ist λ damit auch Nullstelle von Φ1, . . . ,Φk. Da die Nullstellen vonΦi aber genau die Elemente λ1, . . . , λi−1, λi+1, . . . , λk sind, haben die Polynome Φ1, . . . ,Φk

keine gemeinsame Nullstelle. Widerspruch.Den Fall allgemeiner Korper kann man wieder durch Ubergang zum algebraischen Abschluss

behandeln. Darauf gehen wir hier nicht weiter ein. �

Wir konnen nun den Satz uber die Zerlegung in verallgemeinerte Eigenraume beweisen.

Satz 2.7. Es sei V ein endlichdimensionaler K-Vektorraum und f ∈ End(V ) ein Endomor-phismus, so dass Pf in Linearfaktoren zerfallt (dies ist z.B. immer der Fall, wenn K = C).Dann gilt

V = VEig(f, λ1)⊕ . . .⊕ VEig(f, λk) .

Beweis. Wir schreiben

Pf (X) = ±(X − λ1)µ1 · . . . · (X − λk)µk .und definieren Φi ∈ K[X] wie oben. Dann gilt

im(Φi(f)) ⊂ VEig(f;λi)

nach dem Satz von Cayley-Hamilton und wegen

Pf = ±(X − λi)µi · Φi.

Da nach Proposition 2.6 Φ1, . . . ,Φk teilerfremd sind, existieren Polynome ξ1, . . . , ξk ∈ K[X]mit

Φ1ξ1 + . . .+ Φkξk = 1 ∈ K[X] .

Einsetzen der Abbildung f in die Unbekannte X liefert

φ1(f) ◦ ξ1(f) + . . .+ φk(f) ◦ ξk(f) = idV

und somitv = φ1(f)(ξ1(f)(v)) + . . .+ φk(f)(ξk(f)(v))

fur alle v ∈ V . Daher gilt

V = VEig(f, λ1) + . . .+ VEig(f, λk) .

22 BERNHARD HANKE

Es bleibt zu zeigen, dass die Summe direkt ist. Sei dazu j ∈ {1, . . . , k} und

v ∈ VEig(f, λj) ∩∑i6=j

VEig(f, λi) .

Daraus folgt (f − λj idV )µj(v) = 0 und Φj(f)(v) = 0. Die Polynome (X − λj)µj und Φj sindteilerfremd, also gibt es Polynome α, β ∈ K[X] mit

α · (X − λj)µj + β · Φj = 1

Setzen wir hier fur X wieder die Abbildung f ein, so erhalten wir

(α · idV ) ◦ (f − λj idV )µj + β · Φj(f) = idV

und dies impliziert nach Einsetzen des Vektors v die Gleichung 0 = v wie gewunscht. �

Zur Erinnerung (vgl. Ubungsblatt 2): Ein Endomorphismus f : V → V heißt nilpotent,falls es ein k ≥ 0 gibt mit fk = f ◦ · ◦ f = 0 (k Faktoren).

Fur i = 1, . . . , k setzen wir nun

Ni := f − λi · id : VEig(f, λi)→ VEig(f, λi)

Die Abbildung Ni ist nilpotent und kommutiert (offensichtlich) mit der Abbildung λi · id :VEig(f;λi)→ VEig(f;λi).

Nach Aufgabe 4 von Blatt 2 wird Ni nach Wahl einer geeigneten Basis von VEig(f, λi)durch eine obere Dreiecksmatrix der Form 0 ∗

. . .0

∈ Kni×ni

dargestellt, wobei ni := dim VEig(f;λi). Bezuglich dieser Basis ist die Einschrankung von fauf VEig(f;λi) also eine obere Dreiecksmatrix der Form λi ∗

. . .λi

Nach Theorem 2.7 konnen wir diese Basen zu einer Basis B von V zusammensetzen. Diedarstellende Matrix

MB(f) =

M1 0. . .

Mk

besteht aus Blocken Mi ∈ Kni×ni entlang der Diagonalen, wobei Mi eine obere Dreiecksmatrixmit Eintragen λi auf der Diagonalen ist.

Der nachste Satz stellt nun den ersten wichtigen Schritt zur Konstruktion der JordanschenNormalform dar.

Satz 2.8 (Jordan-Chevalley-Zerlegung). Es sei V ein endlichdimensionaler K-Vektorraum,f ∈ End(V ) und es zerfalle Pf in Linearfaktoren. Dann gibt es einen diagonalisierbarenEndomorphismus D : V → V sowie einen nilpotenten Endomorphismus N : V → V mit

• f = D +N .• D ◦N = N ◦D.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 23

Beweis. Auf V = VEig(f;λ1)⊕ . . .⊕ VEig(f;λk) definieren wir

D := λ1 · idVEig(f;λ1)⊕ . . .⊕ λk · idVEig(f;λk)

undN := N1 ⊕ . . .⊕Nk

Dann sind die behaupteten Gleichungen erfullt. �

Die praktische Durchfuhrung der Jordan-Chevalley-Zerlegung ist einfach: Es sei A ∈ Kn×n

und es sei λ eine Nullstelle von PA = det(A − X · En) ∈ K[X] mit Vielfachheit µ. Manberechnet zunachst VEig(A;λ) := ker(A − λ · En)µ ⊂ Kn durch Losen des entsprechendenlinearen Gleichungssystems. Diese Rechnung fuhrt man fur alle Eigenwerte von A durch undbestimmt so Basen fur alle verallgemeinerten Eigenraume.

Wahlen wir nun eine Basis von Kn der Gestalt

B = (v(1)1 , . . . , v(1)

n1, . . . , v

(k)1 , . . . , v(k)

nk)

wobei λ1, . . . , λk die Eigenwerte von A, ni = dim VEig(A;λi) und (v(i)1 , . . . , v

(i)ni ) eine Basis

von VEig(A;λi) ist, so hat die darstellende Matrix von A bezuglich B die Gestalt λ1 · En1 +N1 0. . .

0 λk · Enk+Nk

=

λ1 · En1 0. . .

0 λk · Enk

+

N1 0. . .

0 Nk

mit nilpotenten Matrizen Ni ∈ Kni×ni . Die nilpotenten Matrizen Ni konnen (wenn manmochte) durch geschickte Wahl der Basen als obere Dreicksmatrizen mit 0 auf der Diagonalenrealisiert werden.

Eine Jordan-Chevalley-Zerlegung der ursprunglichen Matrix erhalt man durch Transfor-mation der beiden Summanden rechts von der Basis B in die Standardbasis des Kn, manvergleiche Aufgabe 5 auf Blatt 5.

Wir konnen nun die Dimensionen der verallgemeinerten Eigenraume bestimmen:

Proposition 2.9. Es sei V ein endlichdimensionaler K-Vektorraum, f ∈ End(V ) und eszerfalle Pf in Linearfaktoren. Fur alle i = 1, . . . , k gilt dann:

dim VEig(f, λi) = µi

Die Dimension des verallgemeinerten Eigenraumes zum Eigenwert λi ist also genau die(algebraische) Vielfachheit der entsprechenden Nullstelle λi im charakteristischen PolynomPf .

Beweis. Wir setzen ni := dim VEig(f, λi).Wir wahlen fur alle i eine Basis von VEig(f, λi), bezuglich der die Einschrankung von

f die Gestalt einer oberen Dreiecksmatrix mit λi auf der Diagonalen hat. Die Anzahl derDiagonaleintrage ist genau ni. Nach Theorem 2.7 setzen sich diese Basen zu einer Basis Bvon V zusammen.

Da das charakteristische Polynom einer Matrix in Diagonal-Blockgestalt das Produkt dercharakteristischen Polynome der Blocke ist, haben wir also

Pf = PMB(f) = (λ1 −X)n1 · (λk −X)nk

und wir erhalten ni = µi fur alle i = 1, . . . , k. �

15.5.13

24 BERNHARD HANKE

Wir wollen nun die nilpotenten Matrixen N1, . . . , Nk durch Wahl von besonders geschicktenBasen der verallgemeinerten Eigenraume weiter vereinfachen.

Es sei dazu N ∈ Kn×n eine nilpotente Matrix. Gesucht ist eine Basis B von Kn, so dassMB(N) besonders einfach ist. Inbesondere wollen wir die auf Ubungsblatt 2, Aufgabe 4,gefundene Form (obere Dreiecksmatrix mit Nullen auf der Diagonalen) weiter vereinfachen.

Wir betrachten als Vorbereitung dazu Jordanblocke. Bezuglich der Standardbasis (e1, . . . , en)des Kn beschreibt die nilpotente Matrix J(0, n) diejenige Abbildung , die durch

e1 7→ 0, ek 7→ ek−1 fur 2 ≤ k ≤ n

gegeben ist.Die Idee ist nun, auch fur N solche

”Ketten“ von Basisvektoren in Kn zu finden und diese

Ketten zu einer Basis von Kn zu kombinieren.

Satz 2.10 (Normalform nilpotenter Matrizen). Es sei N ∈ Mat(n,K) nilpotent. Dann ist Nahnlich zu einer Matrix der Form

J(0, n1) 0 0 00 J(0, n2) 0 0

. . .0 0 0 J(0, nr)

.

Beweis. Der Beweis erfolgt durch explizite Konstruktion einer Basis B von Kn, bezuglich derA die angegebene Form hat.

Es sei p ≥ 1 die minimale naturliche Zahl mit Np = 0. Am Ende des Beweises wird p diemaximale Große der auftretenden Jordanmatrizen J(0, ni) sein.

Fur i = 0, . . . , p setzen wirVi := kerN i ⊂ Kn .

Wir erhalten eine Kette von Untervektorraumen

0 = V0 ⊂ V1 ⊂ . . . ⊂ Vp = Kn

und nach Konstruktion gilt fur alle i = 1, . . . , p die Gleichung

N−1(Vi−1) := {v ∈ Kn|N(v) ∈ Vi−1} = Vi.

Es sei nun Up ein Komplement von Vp−1 in Vp, also

Vp = Vp−1 ⊕ Up .Es gelten nach Konstruktion die folgenden Aussagen:

• N |Up ist injektiv, falls p > 1. Grund: kerN = V1 und Up ∩ V1 ⊂ Up ∩ Vp−1 = 0.• N(Up) ∩ Vp−2 = 0, falls p > 1. Grund: Ist v ∈ Up, so gilt N i(v) 6= 0 fur alle i ≤ p− 1.• N(Up) ⊂ Vp−1. Grund: N(Vp) ⊂ Vp−1.

Eine Basis von Up korrespondiert spater zu den”

unteren rechten Ecken“ der Jordanblockeder Große p.

Wir wahlen nun ein Komplement U ′p−1 von Vp−2 ⊕N(Up) in Vp−1, d.h. es gilt

Vp−1 = Vp−2 ⊕N(Up)⊕ U ′p−1.

Eine Basis von U ′p−1 korrespondiert spater zu den”

unteren rechten Ecken“ der Jordanblockeder Große p− 1.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 25

Wir setzen nun:Up−1 := N(Up)⊕ U ′p−1.

Eine Basis von Up−1 korrespondiert spater zu den”

unteren rechten Ecken“ der Jordanblockeder Große p− 1 und zu den

”vorletzten“ Eintragen der Jordanblocke der Große p.

Wir erhalten die folgenden Aussagen:

• Up−1 ist ein Komplement von Vp−2 in Vp−1, d.h. Vp−1 = Vp−1 ⊕ Up−1.• N(Up) ⊂ Up−1.

Dieses Verfahren setzen wir fort und erhalten Untervektorraume U1, . . . , Up ⊂ Kn mit denfolgenden Eigenschaften fur alle i = 1, . . . , p.

• Vi = Vi−1 ⊕ Ui fur alle i = 1, . . . , p. Insbesondere ist U1 = V1.• N(Ui) ⊂ Ui−1 fur alle i = 2, . . . , p.• N |Ui

ist injektiv fur alle i = 2, . . . , p.

Nach Konstruktion der Ui gilt

Kn = Vp = Vp−1 ⊕ Up = (Vp−2 ⊕ Up−1)⊕ Up = U1 ⊕ . . .⊕ Up .Konkretes Konstruktionsverfahren:

• Man berechne Basen Bi von Vi fur i = 1, . . . , p− 1.• Erganze Bp−1 (die Basis von Vp−1) durch eine Familie

(v(p)1 , . . . , v

(p)dp

)

zu einer Basis von Kn. Diese Familie ist eine Basis von Up.• Falls p = 1, sind wir fertig.• Ansonsten ist N |Up injektiv und wir erhalten linear unabhangige Vektoren

v(p−1)1 := N(v

(p)1 ), . . . , v

(p−1)dp

:= N(v(p)dp

)

in Vp−1. Diese bilden eine Basis von N(Up). Wir erganzen nun

Bp−2 ∪ (v(p−1)1 , . . . , v

(p−1)dp

)

(dies ist eine Basis von Vp−2 ⊕N(Up)) durch eine Familie

(v(p−1)dp+1 , . . . , v

(p−1)dp+dp−1

)

zu einer Basis von Vp−1. Diese Familie ist eine Basis von U ′p−1 und (v(p−1)1 , . . . , v

(p−1)dp+dp−1

)ist eine Basis von Up−1.• Falls p = 2, sind wir jetzt fertig.• Ansonsten ist N |Up−1 injektiv und wir erhalten linear unabhangige Vektoren.

v(p−2)1 := N(v

(p−1)1 ), . . . , v

(p−2)dp+dp−1

:= N(v(p−1)dp+dp−1

)

in Vp−2. Wir erganzen nun

Bp−3 ∪ (v(p−2)1 , . . . , v

(p−2)dp+dp−1

)

(dies ist eine Basis von Vp−3 ⊕N(Up−1) durch eine Familie

(v(p−2)dp+dp−1+1, . . . , v

(p−2)dp+dp−1+dp−2

)

zu einer Basis von Vp−2. Dann ist (v(p−2)1 , . . . , v

(p−2)dp+dp−1+dp−2

) eine Basis von Up−2.

26 BERNHARD HANKE

• Falls p = 3, sind wir jetzt fertig.• Ansonsten setzen wir dieses Verfahren fort.

Wir ordnen nun die so erhaltenen Basen der Ui in folgendem Schema

Up v(p)1 . . . v

(p)dp

Up−1 v(p−1)1 . . . v

(p−1)dp

v(p−1)dp+1 . . . v

(p−1)dp+dp−1

......

......

...

U1 v(1)1 . . . v

(1)d1

v(1)dp+1 . . . v

(1)dp+dp−1

v(1)dp+...d2+1 . . . v

(1)dp+...+d1

Die Vektoren in einer Zeile bilden jeweils eine Basis des angegebenen Unterraumes Ui. DieVektoren in der untersten Zeile bilden also eine Basis von U1 = V1 = kerN . Da

Kn = U1 ⊕ . . .⊕ Upist die Vereinigung dieser Basen eine Basis von Kn. Gehen wir in diesem Schema von einemVektor ausgehend eine Zeile tiefer, so entspricht dies genau der Anwendung von N .

Daher bildet jede Spalte (von unten nach oben) in diesem Schema die Basis eines N -invarianten Unterraumes von Kn, so dass bezuglich dieser Basis die Abbildung N durch eineJordanmatrix dargestellt wird. Die Große der Jordanmatrix entspricht genau der Lange derjeweiligen Spalte im obigen Schema.

Wir erhalten also insgesamt eine Basis von Kn, bezuglich der N die behauptete Form(bestehend aus Jordanblocken) hat. �

22.5.13

Beispiel. Dieses Verfahren illustrieren wir an der Matrix

A :=

3 4 3−1 0 −11 2 3

∈ Mat(3,R).

Das charakteristische Polynom lautet

PA = −(X − 2)3 .

Somit ist 2 der einzige Eigenwert, und dieser hat algebraische Vielfachheit 3. Nach dem Satzvon Cayley-Hamilton ist die Matrix N := A− 2 · E3 nilpotent, genauer gilt N3 = 0.

Da N ∈ R3×3 istV3 = R3.

Wir haben

V1 = kerN = span

1−11

somit ist die geometrische Vielfachheit des Eigenwertes λ gleich 1 und A ist nicht diagonali-sierbar.

Weiterhin haben wir

V2 = kerN2 = span

1−11

,

0−11

.

Und p = 3 ist die kleinste Zahl mit Np = 0.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 27

Ein Komplement U3 von V2 in V3 wird beispielsweise von

v(3)1 :=

001

aufgespannt. Wir setzen also

U3 := span

001

.

Wir bestimmen nun ein Komplement U ′2 von V1 ⊕ span(N(v(3)1 )) in V2. Da jedoch

dim(V1 ⊕ span(N(v

(3)1 ))

)= 2 = dimV2

gilt U ′2 = 0 (es entsteht also kein neues Jordankastchen der Große 2) und wir erhalten

U2 := span(v(2)1 ) ,

wobei v(2)1 := N(v

(3)1 ) =

3−11

.

Da dimV1 = 1 haben wir weiterhin

U1 := span(v(1)1 )

mit v(1)1 := N(v

(2)1 ) =

2−22

.

Das auf Seite 26 angegebene Schema besteht also aus genau einer Spalte der Hohe 3 und

bezuglich der Basis (v(1)1 , v

(2)1 , v

(3)1 ) wird N durch den Jordanblock

J(0, 3) =

0 1 00 0 10 0 0

dargestellt. Bezuglich dieser Basis wird also A durch den Jordanblock J(2, 3) dargestellt.

Die Matrix S der Koordinatentransformation in die neue Basis ist gegeben durch

S−1 =

2 3 0−2 −1 02 1 1

also

S =1

4

−1 −3 02 2 00 4 4

.

Es ist also SAS−1 = J(2, 3).

Kombinieren wir die Normalform fur nilpotente Matrizen mit der Jordan-Chevalley-Zerlegung, so erhalten wir das folgende wichtige Ergebnis der klassischen linearen Algebra:

28 BERNHARD HANKE

Satz 2.11 (Existenz der Jordanschen Normalform). Es sei f ∈ End(V ) ein Endomorphismuseines endlich-dimensionalen K-Vektorraumes V . Das charakteristische Polynom Pf zerfallein Linearfaktoren.

Dann wird f bezuglich einer geeigneten Basis von V durch eine Matrix der FormJ(λ1,m1) 0 · · · 0

0 J(λ2,m2) · · · 0...

.... . .

...0 0 · · · J(λq,mq)

dargestellt.

Dabei sind m1, . . . ,mq positive naturliche Zahlen mit m1 + . . .+mq = dimV und λ1, . . . , λqsind Eigenwerte von f (die durchaus mehrfach vorkommen konnen).

Beweis. Es seien λ1, . . . , λk die paarweise verschiedenen Eigenwerte von f . Da Pf in Linear-faktoren zerfallt, haben wir

V = VEig(f, λ1)⊕ . . .⊕ VEig(f, λk).

Indem wir Basen B1, . . . ,Bk der verallgemeinerten Eigenraume zu einer Basis B von Vkombinieren, gilt

MB(A) =

λ1 · Eµ1 +N1 0. . .

0 λk · Eµk +Nk

mit nilpotenten Matrizen Ni ∈ Kµi×µi . Hier ist µi die algebraische Vielfachheit des Eigenwertesλi in Pf

Wir finden nun fur alle i = 1, . . . , k Matrizen Si ∈ GL(µi;K), so dass SiNiS−1i in einer

Normalform vorliegt, wie sie in Theorem 2.10 angegeben wurde. Diese Matrix besteht alsoaus Jordankastchen zum Eigenwert 0 entlang der Diagonalen und sonst nur aus Nullen. Dannist

Si(λi · Eµi +Ni)S−1i = λi · Eµi + SiNiS

−1i

eine Blockdiagonalmatrix mit Jordankastchen zum Eigenwert λi entlang der Diagonalen.Setzen wir

S :=

S1

. . .Sk

so ist also

SMB(f)S−1 ∈ Kn×n

eine Matrix in Jordanscher Normalform.Wir mussen noch eine Basis B′ von V bestimmen, so dass

SMB(f)S−1 = MB′(f),

denn dann ist B′ eine Basis von V wie in Satz 2.11 behauptet.Wir gehen von der Transformationsformel fur den Basiswechsel von B nach B′ aus:

MB′(f) = TBB′MB(f)TB′

B

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 29

Wenn wir die Spaltenvektoren von S−1 als Koordinatenvektoren der Basisvektoren in derneuen Basis B′ bezuglich der Basis B ansehen, so gilt also

MB′(f) = SMB(f)S−1

wie gewunscht. �

Aus der Konstruktion der Normalform nilpotenter Matrizen entnehmen wir noch diefolgenden Informationen zur Jordanschen Normalform:

• Zu jedem Eigenwert λ ∈ K von f treten genau dim Eig(f, λ) viele Jordanblocke zudiesem Eigenwert auf.• Die Großen der auftretenden Jordanblocke zum Eigenwert λ hangen (bis auf die

Reihenfolge) nur von f ab.• Die Summe dieser Großen ist gleich der algebraischen Vielfachheit von λ in Pf und

diese stimmt mit dimK VEig(f, λ) uberein.

Die erste und dritte Aussage sind einfach zu sehen. Die zweite erfordert etwas mehrUberlegung, folgt aber im Prinzip auch aus der expliziten Konstruktion der Normalformnilpotenter Matrizen. Wir wollen die Eindeutigkeit der Jordanschen Normalform hier nichtweiter vertiefen.

Die Jordansche Normalform eines Endomorphismus f ist in gewisser Hinsicht die”einfach-

ste“ Moglichkeit, f durch eine Matrix zu beschreiben.Oft ist der Endomorphismus f durch eine Matrix A ∈ Mat(n,K) gegeben. Falls PA in

Linearfaktoren zerfallt (was zum Beispiel fur K = C immer der Fall ist), fassen wir dieBerechnung der Jordanschen Normalform von A noch einmal zusammen:

• Man bestimmt zunachst die Eigenwerte λ1, . . . , λk von A. Es sei µi die algebraischeVielfachheit zum Eigenwert λi fur i = 1, . . . , k.• Man berechne Basen Bi von VEig(A, λi) = ker(A − λiEn)µi ⊂ Kn fur i = 1, . . . , k.

Bezuglich Bi wird die Einschrankung von A − λi · En auf VEig(A, λi) durch einenilpotente Matrix Ni ∈ Kµi×µi dargestellt.• Man berechne fur jede Matrix Ni eine Basis Ci von Kµi , so dass MCi(Ni) eine Matrix

in Normalform wie in Theorem 2.10 ist.• Wir definieren Matrizen T−1

i ∈ Kµi×µi und S−1i ∈ Kµi×µi wie folgt:

– Die Spalten von T−1i sind die Basisvektoren aus Bi.

– Die Spalten von S−1i sind die Basisvektoren aus Ci.

• Wir berechnen die inversen Matrizen Si und Ti und tragen diese als Blockdiagonalma-trizen in die Matrizen S ∈ GL(n,K) und T ∈ GL(n,K) ein.• Mit der Transformationsmatrix Q := ST ist QAQ−1 in Jordanscher Normalform.

30 BERNHARD HANKE

27.5.13

3. Die Exponentialfunktion fur Matrizen

In der Analysis spielt die Exponentialfunktion

exp : C→ C, x 7→∞∑k=0

xk

k!

eine zentrale Rolle. Wir wollen diese Definition auf Matrizen ausdehen.Wir betrachten fur x = (x1, . . . , xn) ∈ Cn und A ∈ Cn×n die Normen:

• ‖(x1, . . . , xn)‖ :=√∑n

i=1 |xi|2 (Euklidische Norm),• ‖A‖ = max{‖Av‖ | v ∈ Cn, ‖v‖ = 1} (Operatornorm).

Die Euklidische Norm ist wohlbekannt. Dass die Operatornorm in der Tat eine Norm aufdem C-Vektorraum Cn×n = Cn2

definiert, ist leicht zu zeigen.Direkt aus der Definition folgt:

Lemma 3.1. a) Fur A ∈ Mat(n,C) und v ∈ Cn gilt ‖Av‖ ≤ ‖A‖ · ‖v‖.b) Fur alle A,B ∈ Mat(n,C) gilt ‖AB‖ ≤ ‖A‖ · ‖B‖.c) Schreiben wir A = (aij)1≤i,j≤n, so gilt maxij |aij| ≤ ‖A‖ ≤

√n ·maxij |aij|.

Beweis. Die erste Aussage ist klar, falls v = 0. Ansonsten beachten wir, dass w := v‖v‖ die

Norm 1 hat und somit

‖Aw‖ ≤ ‖A‖nach Definition von ‖A‖. Setzen wir die Definition von w ein, beachten A( v

‖v‖) = 1‖v‖Av und

die Multiplikativitat der Norm, folgt die Behauptung.Fur die zweite Aussage sei v ∈ Cn mit ‖v‖ = 1. Dann gilt ‖Bv‖ ≤ ‖B‖ und somit

‖A(Bv)‖ ≤ max{‖Az‖ | ‖z‖ ≤ ‖B‖}.Nach Definition von ‖A‖ ist die rechte Seite gleich ‖B‖ · ‖A‖. Aus dieser Abschatzung folgtdie Behauptung.

Bei der dritten Aussage ist die erste Ungleichung klar, indem wir v := ej, den j-tenBasisvektor von Cn (mit Lange 1) in A einsetzen. Die Norm des Ergebnisses ist die Norm desj-ten Spaltevektors von A und daher durch das Maximum der großten Komponente dieserSpalte nach unten beschrankt.

Fur die zweite Ungleichung sei v = (v1, . . . , vn) ∈ Cn mit ‖v‖ = 1. Es ist

Av =

∑n

j=1 a1jvj...∑n

j=1 anjvj

.

Da fur alle w = (w1, . . . , wn) ∈ Cn die Ungleichung

‖w‖ ≤√nmax

i|wi|

gilt, erhalten wir

‖Av‖ ≤√n ·max

i|

n∑j=1

aijvj| ≤√n ·max

ij|aij| ·

n∑j=1

|vj|,

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 31

wobei die zweite Ungleichung aus der Dreiecksungleichung folgt.Nach der Cauchy-Schwarzschen Ungleichung (die wir bald beweisen werden) gilt

n∑j=1

|vj| = 〈

1...1

,

|v1|...|vn|

〉 ≤ ‖(1, . . . , 1)‖ · ‖(|v1|, . . . , ‖vn‖)‖ =√n · ‖v‖ =

√n.

Der zweite Ausdruck bezeichnet das Skalarprodukt (das wir ebenfalls bald kennenlernen).Setzt man diese Ungleichungen zusammen, folgt die Behauptung. �

Teil c) von Lemma 3.1 zeigt explizit, dass die Operatornorm aquivalent zur Maximumsnorm

‖A‖max := maxij|aij|

ist. Die Maximumsnorm hat jedoch den Nachteil, dass Teil b) von Lemma 3.1, der im folgendenBeweis eine wichtige Rolle spielt, nicht gilt.

Wie ublich nennen wir eine Folge (Ak)k∈N in Mat(n,C) konvergent mit Grenzwert A ∈Mat(n,C), geschrieben limn→∞An = A, falls

limn→∞

‖An − A‖ = 0.

Nach Punkt c) in Lemma 3.1 ist dies gleichbedeutend damit, dass jede Komponente der Folge(An) gegen die entsprechende Komponente von A konvergiert.

Proposition 3.2. Fur alle A ∈ Mat(n,C) konvergiert die Reihe

∞∑k=0

1

k!· Ak

absolut.

Beweis. Es ist∞∑k=0

∥∥∥∥ 1

k!· Ak

∥∥∥∥ ≤ ∞∑k=0

‖A‖k

k!= e‖A||,

die Reihe konvergiert also absolut. Wir nutzen dabei die Eigenschaft ‖AB‖ ≤ ‖A‖ · ‖B‖ derOperatornorm aus. �

Wie in der Analysis einer Veranderlichen folgt aus der absoluten Konvergenz dieser Reihedie Konvergenz der Reihe selbst, man vergleiche Aufgabe 1 b) auf Blatt 7. Wir setzen

exp(A) :=∞∑k=0

1

k!· Ak.

29.5.13

Beispiel.

• exp(0) = En.• Allgemeiner gilt exp(λ · En) = eλ · En fur alle λ ∈ C.

32 BERNHARD HANKE

• Wir berechnen exp

(0 −tt 0

)fur t ∈ R.

Per Induktion sieht man zunachst(0 −tt 0

)4k

=

(t4k 00 t4k

),

(0 −tt 0

)4k+1

=

(0 −t4k+1

t4k+1 0

)sowie(

0 −tt 0

)4k+2

=

(−t4k+2 0

0 −t4k+2

)und

(0 −tt 0

)4k+3

=

(0 t4k+3

−t4k+3 0

)fur alle k ∈ N. Daraus ergibt sich

exp

(0 −tt 0

)=

(1− t2

2+ t4

4!− t6

6!+ . . . −t+ t3

3!− t5

5!+ . . .

t− t3

3!+ t5

5!− . . . 1− t2

2+ t4

4!− t6

6!+ . . .

)=

(cos(t) − sin(t)sin(t) cos(t)

).

Ohne Beweis bemerken wir:

Proposition 3.3. Die so definierte Abbildung

exp : Mat(n,C)→ Mat(n,C)

ist stetig, d.h. falls limAn = A, so gilt lim exp(An) = exp(A).

Die folgende Aussage wird ganz analog wie die entsprechende Aussage aus der Analysis 1mit Hilfe des Cauchy-Produktes fur Reihen bewiesen. Vergleiche Aufgabe 4 auf Blatt 6.

Proposition 3.4. Es seien A,B ∈ Mat(n,C) mit AB = BA. Dann gilt

exp(A+B) = exp(A) · exp(B).

Diese Formel gilt im Allgemeinen nicht, wenn AB 6= BA!

Beispiel. Falls A :=

(0 0π 0

)und B :=

(0 −π0 0

), so ist

exp(A) = E2 + A, exp(B) = 1 +B, exp(A+B) =

(−1 00 −1

).

Die ersten beiden Gleichungen folgen aus der Definition von exp, und die letzte Gleichung istein Spezialfall des obigen Beispiels. Also gilt exp(A+B) 6= exp(A) · exp(B).

Ist eine Matrix in Jordanscher Normalform gegeben, so lassen sich ihre Potenzen besondersbequem berechnen. Dies veranschaulichen wir durch folgende Bemerkung zur Losungstheorievon Systemen homogener Differentialgleichungen erster Ordnung.

Es sei A ∈ Mat(n,C). Wir betrachten die Abbildung

φA : R→ Mat(n,C) , t 7→ exp(t · A)

Definition. Es sei f : R→ Mat(n,C) eine Abbildung und t0 ∈ R. Wir schreiben

f(t) =

f11(t) · · · f1n(t)...

. . ....

fn1(t) · · · fnn(t)

mit n2 komplexwertigen Funktionen fij : R→ C.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 33

Wir nennen f differenzierbar in t0, wenn fur alle 1 ≤ i, j ≤ n die Abbildungen R →R gegeben durch t 7→ Refij(t) und durch t 7→ Imfij(t) differenzierbar in t0 sind. (Wirverlangen also Differenzierbarkeit von Real- und Imaginarteil der n2 vielen komplexwertigenKomponentenfunktionen von f .)

Wir nennen f differenzierbar, wenn f differenzierbar in allen t0 ∈ R ist.

Proposition 3.5. Die Abbildung

φA : R→ Mat(n,C)

ist differenzierbar und es gilt

φ′A(t) = A · φA(t)

fur alle t ∈ R.

Beweis. Fur alle t ∈ R existiert (wir betrachten hier Konvergenz in Mat(n;C) wie ublichbezuglich der Operatornorm)

limh→0,h6=0

φA(t+ h)− φA(t)

h= lim

h→0,h6=0

exp(tA) · exp(hA)− exp(tA)

h

da die Matrizen tA und hA vertauschen. Der letzte Ausdruck ist gleich

limh→0,h6=0

exp(hA)− Enh

· exp(tA) = A · exp(tA) ,

denn

limh→0,h6=0

exp(hA)− Enh

= A+ limh→0

∞∑k=2

Akhk−1

k!

und

‖∞∑k=2

Akhk−1

k!‖ ≤

∞∑k=2

‖A‖k · hk−1

k!

konvergiert fur h→ 0 gegen 0, da die rechte Seite eine Potenzreihe in h mit Konvergenzradius∞ darstellt und somit stetig in h = 0 ist. �

Diese Tatsache erlaubt es uns, Systeme homogener Differentialgleichungen der Form y′ = Aymit Anfangsbedinung y(0) = c0 ∈ Cn bequem zu losen.

Proposition 3.6. Die (nach der Theorie der gewohnlichen Differentialgleichungen eindeutigbestimmte) Losung ψ : R→ Cn dieser Differentialgleichung ist gegeben durch

ψ(t) = φA(t) · c0 = exp(tA) · c0.

Beweis. Wir haben ψ′(t) = A · exp(tA) · c0 und ψ(0) = exp(0 · A) · c0 = c0. �

Wir erhalten also eine ganz ahnliche Losungsformel wie wir sie aus der Analysis einerVeranderlichen kennen.

Naturlich stellt sich nun die Frage, wie wir exp(tA) berechnen konnen. Dies geht besondersleicht, wenn A in Jordanscher Normalform vorliegt.

34 BERNHARD HANKE

Proposition 3.7. Es gilt

exp(t · J(λ, n)) = exp(tλ) ·

1 t t2

2!. . . tn−1

(n−1)!)

0 1 t . . . tn−2

(n−2)!...

. . . . . . . . ....

0 . . . 0 1 t0 . . . . . . 0 1

Der Beweis erfolgt durch eine direkte Rechnung (siehe Aufgabe 2 auf Blatt 6).Da nun

exp

t ·

J(λ1,m1) 0 · · · 00 J(λ2,m2) · · · 0...

.... . .

...0 0 0 J(λq,mq)

durch die Matrixexp(tJ(λ1,m1)) 0 · · · 0

0 exp(tJ(λ2,m2)) · · · 0...

.... . .

...0 0 · · · exp(tJ(λq,mq))

gegeben ist, lasst sich damit die Exponentialfunktion auf Matrizen in Jordanscher Normalformleicht auswerten.

Damit ergibt sich eine neue Perspektive auf die fruher diskutierte Losungstheorie vonSystemen y′ = Ay linearer Differentialgleichungen mit Anfangsbedingung y(0) = c0:

• Durch geeigneten Basiswechsel bringe man A auf Jordansche Normalform, d.h. manbestimme S ∈ GL(n;C) so, dass J := SAS−1 in Jordanscher Normalform vorliegt.• Man bestimme nun die Losung ψ des Differentialgleichungssystems z′ = Jz mit

Anfangswert Sc0 nach der in Proposition 3.6 gegebenen Formel.• Dann lost φ := S−1 · ψ das ursprungliche Differentialgleichungssystem mit Anfangsbe-

dingung φ(0) = c0 (vgl. Proposition 1.14).

Wir haben also die Losung derartiger Differentialgleichungssysteme vollstandig auf ein Problemder linearen Algebra, namlich auf die Berechnung der Jordanschen Normalform zuruckgefuhrt.

3.6.10

4. Euklidische und unitare Vektorraume

Neben der Gegenseiten Lage von Graden, Ebenen usw. spielen Langen- und Winkelmes-sungen in der Geometrie eine fundamentale Rolle. In diesem Abschnitt diskutieren wir diedazu relevanten Strukturen.

Bevor wir die formale Diskussion beginnen, erinnern wir an die Definition des Skalarpro-duktes im Rn: Fur x = (x1, . . . , xn) und y = (y1, . . . , yn) definieren wir das Skalarprodukt vonx und y als

〈x, y〉 := x1y1 + . . .+ xnyn .

Dies erlaubt die Definition der Lange des Vektors x durch

‖x‖ :=√〈x, x〉

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 35

sowie des Winkels φ zwischen den Vektoren x und y (falls x 6= 0 6= y) durch die Gleichung

cosφ =〈x, y〉‖x‖ · ‖y‖

und die Bedingung φ ∈ [0, π]. Die Definition der Lange von x ist dabei durch den Satz desPythagoras motiviert. Bei der Definition des Winkels benutzen wir die Cauchy-SchwarzscheUngleichung (die wir spater beweisen)

〈x, y〉‖ ≤ ‖x‖ · ‖y‖ .Die obige Definition des Winkels stimmt mit der aus der Analysis bekannten Definitionuber die Bogenlange uberein: Fur x = (cosα, sinα) ∈ R2 und y = (cos β, sin β) ∈ R2 mit0 ≤ α ≤ β ≤ π impliziert die obige Gleichung, dass

cosφ = cosα cos β + sinα sin β = cos(β − α)

und somit φ = β − α. Dies ist nach Betrachtungen aus der Analysis genau die Bogenlangedes Kreisbogens, der x mit y gegen den Uhrzeigersinn verbindet: Dieser Kreisbogen ist durchdie Kurve

γ : [α, β]→ R2, t 7→ (cos(t), sin(t))

gegeben, deren Lange sich nach der bekannten Formel aus der Analysis wie folgt berechnet:

L(γ) =

∫ β

α

‖γ′‖dt =

∫ β

α

‖(− sin(t), cos(t)

)‖dt =

∫ β

α

1dt = β − α.

Wir entwickeln nun den formalen Rahmen fur diese Uberlegungen.

Definition. Ist

A =

a11 · · · a1n...

. . ....

am1 · · · amn

∈ Km×n,

so setzen wir

AT :=

a11 · · · am1...

. . ....

a1n · · · amn

∈ Km×n.

Wir vertauschen also Zeilen und Spalten in A. Die so erhaltene Matrix AT heißt die Transpo-nierte von A.

Mittels der Transposition konnen wir bequem Zeilen- in Spaltenvektoren verwandeln undumgekehrt: Zum Beispiel ist (

1 5 2)T

=

152

,

wobei wir hier den Zeilenvektor (1, 5, 2) ∈ R3 ohne Komma schreiben und damit als (1× 3)-Matrix auffassen.

Definition. Es sei K ein Korper und V ein K-Vektorraum. Eine Bilinearform auf V isteine Abbildung

γ : V × V → K ,

36 BERNHARD HANKE

so dass fur alle v ∈ V die Abbildung

γ(v,−) : V → K ,w 7→ γ(v, w)

und fur alle w ∈ V die Abbildung

γ(−, w) : V → K , v 7→ γ(v, w)

K-linear sind. Die Abbildung γ ist also linear in jedem Argument.

Ist V ein K-Vektorraum mit einer Bilinearform γ und ist B = (b1, . . . , bn) eine Basis vonV , so definieren wir die darstellende Matrix MB(γ) ∈ Kn×n von γ bezuglich B durch

MB(γ)ij := γ(bi, bj) .

Beispiel. Die darstellende Matrix der Bilinearform

〈(x1, y1), (x2, y2)〉 → x1y2 − 3x2y2

auf R2 bezuglich der Basis B := ((1, 0), (1, 1)) ist gegeben durch

MB(γ) =

(0 −20 −2

).

Die darstellende Matrix legt die Form γ eindeutig fest. Dies ist ein Korollar des folgendenResultates.

Proposition 4.1. Es sei A ∈ Kn×n die darstellende Matrix einer Bilinearform γ auf einemn-dimensionalen K-Vektorraum V bezuglich einer Basis B = (b1, . . . , bn). Sind v, w ∈ V mitKoordinatenvektoren

x =

x1...xn

, y =

y1...yn

so gilt

γ(v, w) = xTAy .

Beweis. Da die linke Seite linear in v und w und die rechte Seite linear in x und y sind undaußerdem x linear von v und y linear von w abhangt, genugt es den Fall v = bi, x = ei,w = bj , y = ej zu behandeln, wobei (e1, . . . , en) die kanonische Basis des Kn bezeichnet. Aberfur diesen Fall folgt die Gleichung direkt aus der Definition von A. �

Umgekehrt definiert fur jede Matrix A ∈ Kn×n die Abbildung

(v, w) 7→ xTAy

eine Bilinearform auf V , wobei x und y die Koordinatenvektoren (als Spaltenvektoren) von vund w bezuglich B sind.

Korollar 4.2. Sind γ und γ′ zwei Bilinearformen mit MB(γ) = MB(γ′), so gilt γ = γ′.

Wir erkennen an dieser Rechnung auch, wie sich die darstellende Matrix einer Bilinearformbei Basiswechsel transformiert:

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 37

Proposition 4.3. Es sei C eine weitere Basis von V und TBC die Matrix der Koordinaten-transformation von der Basis B in die Basis C. Dann gilt

MB(γ) = (TBC )TMC(γ)TBC .

Beweis. Wir setzen der Einfachheit halber S := TBC . Die Koordinaten von v und w bezuglichC sind durch Sx und Sy gegeben. Somit haben wir

xTMB(γ)y = (Sx)TMC(γ)Sy = xT (STMC(γ)S)y

fur alle x, y ∈ Kn. Daraus folgt die Behauptung (hier beachte man, dass fur eine MatrixA ∈ Kn×n die ij-te Komponente von A durch (ei)

TAej gegeben ist). �

An dieser Stelle ist ein Vergleich mit dem Verhalten von darstellenden Matrizen bei einemBasiswechsel angebracht. Es sei also f : V → V ein Endomorphismus und MB(f) : Kn → Kn

die darstellende Matrix von f bezuglich einer Basis B von V . Ist dann C eine weitere Basisvon V und S = TBC die Matrix der Koordinatentransformation von der Basis B in die BasisC, so haben wir

MB(f) = S−1MC(f)S ,

d.h. die Matrix S−1 ist durch ST zu ersetzen, wenn wir die darstellenden Matrizen vonBilinearformen bezuglich der Basen B und C vergleichen.

Den tieferen Grund fur diesen Zusammenhang werden wir spater bei der Behandlung dualerVektorraume sehen.

Definition. Wir nennen eine Bilinearform γ : V × V → K symmetrisch, falls γ(v, w) =γ(w, v) fur alle v, w ∈ V .

Ist V endlichdimensional und B eine Basis von V , so ist nach Proposition 4.1 γ genau dannsymmetrisch, wenn die darstellende Matrix MB(γ) symmetrisch ist, d.h. MB(γ) = (MB(γ))T .

Definition. Es sei nun K = R, also V ein reeller Vektorraum.

• Wir nennen eine symmetrische Bilinearform γ : V × V → R positiv definit, fallsγ(v, v) > 0 fur alle v ∈ V mit v 6= 0.• Eine symmetrische, positiv definite Bilinearform auf einem reellen Vektorraum V

heißt (euklidisches) Skalarprodukt.• Ein Paar (V, 〈−,−〉) bestehend aus einem reellen Vektorraum und einem Skalarpdodukt

heißt euklidischer Vektorraum.

Skalarprodukte werden in der Regel mit spitzen Klammern bezeichnet, d.h. wir schreiben〈v, w〉 statt γ(v, w).

Beispiel.

• Das Standardbeispiel eines euklidischen Vektorraumes ist der reelle Vektorraum Rn

zusammen mit dem (bereits oben erwahnten) kanonischen Skalarprodukt gegebendurch

〈(x1, . . . , xn), (y1, . . . , yn)〉 :=n∑i=1

xiyi .

38 BERNHARD HANKE

• Auf dem Vektorraum C0([0, 2π]) der stetigen Funktionen [0, 2π]→ R haben wir dasSkalarprodukt

〈f, g〉 :=

∫ 2π

0

f(t)g(t)dt,

das in der Fourieranalysis eine wichtige Rolle spielt.

Bevor wir die Euklidischen Vektorraume genauer untersuchen und weitere Beispiele disku-tieren, betrachten wir noch die Entsprechung fur komplexe Vektorraume. Die grundlegendeBeobachtung ist, dass der Absolutbetrag einer komplexen Zahl x ∈ C nicht durch

√x2,

sondern durch√x · x gegeben ist. Entsprechend definiert man das kanonische Skalarprodukt

auf Cn durch〈(x1, . . . , xn), (y1, . . . , yn)〉 = x1y1 + . . .+ xnyn .

Dann ist nach wie vor 〈x, x〉 ≥ 0 und die ubliche Lange von x ist gegeben durch

‖x‖ =√〈x, x〉 .

Dies motiviert die folgende Definition

Definition. Es sei V ein C-Vektorraum.

• Eine Abbildungγ : V × V → C

heißt Sesquilinearform, falls γ linear im ersten Argument, jedoch konjugiert-linear imzweiten Argument ist, d.h. fur alle v ∈ V und w1, w2 ∈ V , λ1, λ2 ∈ C gilt

γ(v, λ1w1 + λ2w2) = λ1γ(v, w1) + λ2γ(v, w2) .

• Eine Sesquilinearform γ heißt Hermitesch, falls

γ(v, w) = γ(w, v)

fur alle v, w ∈ V (dies ersetzt die Eigenschaft der Symmetrie auf reellen Vektorraum-en).• Weiter nennen wir eine Hermitesche Sesquilinearform γ ein (unitares) Skalarprodukt

auf V , falls γ zusatzlich positiv definit ist, d.h.

γ(v, v) > 0

fur alle v ∈ V , v 6= 0. Hier beachte man, dass γ(v, v) ∈ R fur alle v ∈ V , denn

γ(v, v) = γ(v, v) .

Ist γ : V × V → C eine Sesquilinearform auf einem komplexen Vektorraum V undist B = (b1, . . . , bn) eine Basis von V , so definieren wir wie fruher bei Bilinearformen diedarstellende Matrix durch

MB(γ)ij := γ(bi, bj) .

Sind v, w ∈ V mit Koordinatenvektoren x und y (geschrieben als Spaltenvektoren im Cn), sohaben wir nun auf Grund der konjugierten Linearitat im zweiten Eintrag

γ(v, w) = xTMB(γ)y ,

wobei rechts alle Komponenten von y konjugiert werden. Die Form γ ist insbesondere genaudann Hermitesch, falls

MB(γ)T = MB(γ) .

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 39

Es sei nun (V, 〈−,−〉) ein euklidischer oder unitater Vektorraum. Fur v in V setzen wir

‖v‖ :=√〈v, v〉 .

Ist (V, 〈−,−〉) ein euklidischer Vektorraum und sind v, w ∈ V mit v 6= 0 6= w, so definierenwir wie oben den Winkel φ zwischen v und w durch die Gleichung

cosφ =〈v, w〉‖v‖ · ‖w‖

und die Bedingung φ ∈ [0, π]. Diese Definition kann nicht direkt auf den unitaren Fallubertragen werden (da wir es dann auch mit imaginaren Winkeln zu tun bekamen).

Gleichwohl geben wir im euklidischen und unitaren Fall die folgende Definition:

Definition. Es sei V ein euklidischer oder unitater Vektorraum.

• Zwei Vektoren v, w ∈ W heißen orthogonal, falls

〈v, w〉 = 0 .

Wir schreiben in diesem Fall v ⊥ w.• Wir nennen eine Familie (vi)i∈I von Vektoren in V orthogonal, falls vi ⊥ vj fur allei 6= j.• Wir nennen diese Familie orthonormal, falls sie orthogonal ist und zusatzlich ‖vi‖ = 1

fur alle i ∈ I erfullt.• Eine orthonormale Basis von V nennt man Orthonormalbasis von V .

Es ist nun ein Leichtes, den Satz des Pythagoras zu beweisen:

Proposition 4.4. Es sei V ein euklidischer oder unitarer Vektorraum und v, w ∈ V mitv ⊥ w. Dann gilt

‖v + w‖2 = ‖v‖2 + ‖w‖2 .

Der Beweis ist eine direkte Rechnung.

5.6.10

Als Folgerung haben wir

Proposition 4.5 (Cauchy-Schwarzsche Ungleichung). Es sei V ein euklidischer oder unitarerVektorraum. Fur alle v, w ∈ V gilt dann

|〈v, w〉| ≤ ‖v‖ · ‖w‖

und Gleichheit tritt genau dann ein, wenn v und w linear abhangig sind.

Beweis. Falls w = 0, so sind beide Aussagen klar (die Familie (v, w) dann auf jeden Falllinear abhangig). Es sei nun w 6= 0. Wir setzen dann

v′ := v − 〈v, w〉 · w‖w‖2

.

Es gilt v′ ⊥ w, denn

〈v′, w〉 = 〈v, w〉 − 〈v, w〉 · ‖w‖2

‖w‖2= 0 .

40 BERNHARD HANKE

Damit steht auch v′ senkrecht auf 〈v,w〉‖w‖2 · w (da dies ein Vielfaches von w ist). Aus dem Satz

des Pythagoras ergibt sich:

‖v′‖2 + ‖〈v, w〉 · w‖w‖2

‖2 = ‖v‖2 ,

also

‖v′‖2 +|〈v, w〉|2

‖w‖2= ‖v‖2 .

Da ‖v′‖2 ≥ 0, folgt daraus|〈v, w〉|2

‖w‖2≤ ‖v‖2

und daraus nach Multiplikation mit ‖w‖2 und Wurzelziehen die Cauchy-Schwarzsche Unglei-chung.

Es tritt genau dann Gleichheit ein, wenn ‖v′‖2 = 0, also v′ = 0 und dies ist aquivalent zu

v =〈v, w〉‖w‖2

· w .

Dies ist gleichbedeutend dazu, dass v = λw mit einem λ aus dem Grundkorper (R oder C).Die eine Richtung dieser Implikation ist klar. Fur die andere beachten wir, dass v = λw (undw 6= 0) die Gleichung

λ =〈v, w〉‖w‖2

impliziert wie man durch Nehmen des Skalarproduktes mit w auf beiden Seiten sieht. �

Diese Ungleichung hat die folgende wichtige Konsequenz.

Korollar 4.6. Es sei V ein euklidischer oder unitarer Vektorraum. Dann erhalt man mitder Setzung

‖v‖ :=√〈v, v〉

eine Norm auf V .

Beweis. Die Eigenschaften

• ‖v‖ = 0⇔ v = 0 und• ‖λv‖ = |λ| · ‖v‖ fur alle λ aus dem Grundkorper

folgen direkt aus der Definition. Fur die Dreiecksungleichung seien v, w ∈ V . Wir haben dann

‖v + w‖2 = 〈v + w, v + w〉 = 〈v, v〉+ 〈v, w〉+ 〈w, v〉+ 〈w,w〉 .Da

〈v, w〉+ 〈w, v〉 = 2Re〈v, w〉(im unitaren und im euklidischen Fall) und

Re〈v, w〉 ≤ |〈v, w〉| ≤ ‖v‖ · ‖w‖(durch Anwenden der Cauchy-Schwarzschen Ungleichung) erhalten wir also

‖v + w‖2 ≤ (‖v‖+ ‖w‖)2

woraus durch Wurzelziehen die Behauptung folgt. �

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 41

Da jeder normierte (reelle oder komplexe) Vektorraum durch die Setzung

d(v, w) := ‖v − w‖

ein metrischer Raum wird, sind also euklidische und unitare Vektorraume automatisch auchmetrische Raume.

Es sei V ein euklidischer oder unitarer Vektorraum. Ist (vi)i∈I eine orthogonale Familieund sind alle vi 6= 0, so ist die Familie ( vi

‖vi‖)i∈I orthonormal. Dies ist eine leichte Uberlegung.

Daruberhinaus gilt fur orthogonale Familien folgende wichtige Tatsache.

Proposition 4.7. Es sei V ein euklidischer oder unitarer Vektorraum, (vi)i∈I eine orthogonaleFamilie und vi 6= 0 fur alle i ∈ I. Dann ist die Familie (vi) linear unabhangig.

Beweis. Wir betrachten eine Linearkombination∑i∈I

λivi = 0 .

Ist nun j ∈ I, so nehmen wir das Skalarprodukt von beiden Seiten mit vj und erhalten

λj〈vj, vj〉 = 0 ,

da vj ⊥ vi, falls j 6= i. Wegen vj 6= 0 folgt daraus mit der positiven Definitheit desSkalarproduktes λj = 0. �

Im Zusammenhang mit diesem Beweis halten wir noch die folgende Beobachtung fest: Essei B := (vi) eine Orthonormalbasis eines euklidischen oder unitaren Vektorraumes V . Istnun v ∈ V , und setzen wir

λi := 〈v, vi〉so haben wir

v =∑i∈I

λivi

Wir konnen also die Koordinaten von v bezuglich der Orthonormalbasis B recht einfachbestimmen.

Wir erweitern das Konzept der Orthogonalitat auf Untervektorraume eines euklidischenoder unitaren Vektorraumes wie folgt:

Definition. Wir nennen zwei Untervektorraume U,W ⊂ V orthogonal, falls u ⊥ v fur alleu ∈ U und w ∈ W .Wir schreiben dann U ⊥ W .

Ist U ⊂ V ein Untervektorraum, so definieren wir sein orthogonales Komplement durch

U⊥ := {v ∈ V | v ⊥ u fur alle u ∈ U} .

Dies ist ein Untervektorraum von V .Ein Vektor v heißt orthogonal zu U ⊂ V , falls U ⊥ span(v).

Offensichtlich ist U⊥ ebenfalls ein Untervektorraum von V und es gilt U ⊥ U⊥.Wir behandeln nun die Existenz von Orthonormalbasen.

Satz 4.8. Jeder endlichdimensionale euklidische oder unitare Vektorraum besitzt eine Ortho-normalbasis.

42 BERNHARD HANKE

Beweis. Wir wenden das Gram-Schmidtsche Orthonormalisierungsverfahren an und machenInduktion nach n := dimV .

Falls dimV = 1 wahlen wir ein v ∈ V mit v 6= 0. Dann ist ( v‖v‖) eine Orthonormalbasis.

Falls dimV = n+ 1 wahlen wir einen n-dimensionalen Untervektorraum W ⊂ V und eineOrthonormalbasis (w1, . . . , wn) von W . Wir erganzen diese zu einer Basis (w1, . . . , wn, v) vonV . Wir setzen nun

v′ := v −n∑i=1

〈v, wi〉wi .

Dann gilt v′ ⊥ W , denn fur alle j = 1, . . . , n ist

〈v′, wj〉 = 〈v, wj〉 −n∑i=1

〈v, wi〉 · 〈wi, wj〉 = 0

wobei wir ausnutzen, dass (w1, . . . , wn) eine orthonormale Familie ist. Außerdem haben wirv′ /∈ W , denn v /∈ W .

Somit ist also

(w1, . . . , wn,v′

‖v′‖)

eine Orthonormalbasis von V . �

Korollar 4.9. Es sei V ein euklidischer oder unitarer Vektorraum und W ⊂ V ein endlich-dimensionaler Untervektorraum. Ist v ∈ V , so existiert genau ein w ∈ W mit v − w ⊥ W .Wir nennen w die orthogonale Projektion von v auf W .

Beweis. Es sei (w1, . . . , wn) eine Orthonormalbasis von W . Wir setzen

w :=n∑i=1

〈v, wi〉wi .

Wie im vorhergenden Beweis folgt (v − w) ⊥ W .Ist nun w′ ∈ W ein weiterer Vektor mit (v − w′) ⊥ W , so haben wir

w − w′ = ((v − w′)− (v − w)) ⊥ W ,

woraus wegen w − w′ ∈ W und der positiven Definitheit des Skalarproduktes folgt, dassw − w′ = 0. �

Wir erhalten mit Hilfe dieses Korollars eine Abbildung

pr⊥W : V→W ⊂ V

indem wir jedes v ∈ V auf seine orthogonale Projektion in W schicken. Diese Abbildung istlinear und schrankt sich auf die Identitiat in W ein. Die Abbildung pr⊥W heißt die orthogonaleProjektion auf den Untervektorraum W .

Korollar 4.10. Es seien V ein euklidischer oder unitarer Vektorraum und W ⊂ V einendlichdimensionaler Teilraum. Dann gilt

V = W ⊕W⊥ .

Beweis. Es gilt W ∩W⊥ = 0, da das Skalarprodukt positiv definit ist.Es sei nun v ∈ V beliebig. Dann ist v = pr⊥W(v) + (v − pr⊥W(v)). Wegen v − pr⊥W(v) ⊥W

gilt somit V = W +W⊥ �

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 43

Wir betonen, dass diese Aussage im allgemeinen nicht richtig ist, falls W nicht endlichdi-mensional ist.

10.6.10

Wir besprechen nun noch eine geometrische Anwendung unserer Uberlegung auf die Messungk-dimensionaler Volumina in euklidischen Raumen. Diese wird spater in der Analysis bei derOberflachenmessung wichtig.

Es sei dazu V ein euklidischer Vektorraum und (v1, . . . , vk) eine endliche Familie vonVektoren in V . Wir setzen

Gram(v1, . . . , vk) := det

〈v1, v1〉 . . . 〈v1, vk〉...

...〈vk, v1〉 . . . 〈vk, vk〉

∈ R .

Dies ist die Gramsche Determinante von (v1, . . . , vk).

Proposition 4.11. Es gilt Gram(v1, . . . , vk) ≥ 0, wobei Gleichheit genau dann eintritt, falls(v1, . . . , vk) linear abhangig sind.

Beweis. Wir wandeln das Gramsche Orthonormalisierungsverfahren zum Gramschen Or-thogonalisierungsverfahren ab und konstruieren fur i = 1, . . . k aus (v1, . . . , vk) schrittweiseorthogonale Familien (die nicht unbedingt aus Vektoren der Lange 1 bestehen) (v1, . . . , vi)mit span(v1, . . . , vi) = span(v1, . . . , vi) wie folgt.

Wir setzen v1 := v1.Ist 1 ≤ i < k und sind v1, . . . , vi schon konstruiert, so setzen wir

vi+1 := vi+1 −i∑

j=1,...,k und vj 6=0

〈vi+1, vj〉‖vj‖2

· vj

Man beachte, dass wir nur uber vj 6= 0 summieren, so dass keine Division durch 0 auftritt.Dann gilt

• (v1, . . . , vi+1) ist orthogonal. Es ist dazu nur noch zu zeigen, dass vi+1 ⊥ vm fur alle1 ≤ m ≤ i. Dies folgt aber aus obiger Definition von vi+1 mit einer leichten Rechnung,da nach Induktionsannahme (v1, . . . , vi) orthogonal ist.• span(v1, . . . , vi+1) = span(v1, . . . , vi+1). Dies folgt zusammen mit der Induktionsvor-

aussetzung ebenfalls aus der Definition von vi+1.

Schrittweise erhalten wir somit eine orthogonale Familie (v1, . . . , vk).Diese Familie enthalt genau dann keinen Nullvektor, wenn (v1, . . . , vk) linear unabhangig

war. Denn in diesem und nur in diesem Fall ist

k = dim span(v1, . . . , vk) = dim span(v1, . . . , vk) ,

also die orthogonale Familie (v1, . . . , vk) linear unabhangig. Dies ist aber nach Proposition4.7 aquivalent dazu, dass sie keinen Nullvektor enthalt.

Da nun fur alle i = 1, . . . , k − 1 der Vektor vi+1 aus vi durch Addition von Vielfachen vonv1, . . . , vi hervorgeht, haben wir

Gram(v1, . . . , vi, vi+1, vi+2, . . . , vk) = Gram(v1, . . . , vi, vi+1, vi+2, . . . , vk)

44 BERNHARD HANKE

fur alle i = 1, . . . , k − 1, denn die Determinante einer Matrix andert sich nicht, wenn manVielfache einer Zeile zu einer anderen Zeile oder Vielfache einer Spalte zu einer anderen Spalteaddiert (man setzte direkt die Definition der Gramschen Determinante ein).

Insbesondere (fur i = k) ist also

Gram(v1, . . . , vk) = Gram(v1, . . . , vk) .

Es gilt aber

Gram(v1, . . . , vk) = det

‖v1‖2 . . . 0...

...0 . . . ‖vk‖2

Und somit ist die Gramsche Determinante nicht-negativ und außerdem genau dann gleich 0,wenn (v1, . . . , vn) einen Nullvektor enthalt, d.h. falls (v1, . . . , vn) linear abhangig ist. �

Aufgrund dieses Ergebnisses konnen wir das Volumen des von der Familie (v1, . . . , vk)aufgespannten Spates (Parallelotopes)

Spat(v1, . . . , vk) := {t1v1 + . . .+ tkvk | 0 ≤ ti ≤ 1 fur i = 1, . . . , k}wie folgt definieren.

Definition. Es sei V ein euklidischer Vektorraum und (v1, . . . , vk) eine endliche Familievon Vektoren in V . Wir definieren das k-dimensionale Volumen des von dieser Familieaufgespannten Spates als

Vol(Spat(v1, . . . , vk)) :=√

Gram(v1, . . . , vk) .

Diese Definition stimmt mit unserer intuitiven Vorstellung eines Volumens uberein: In denSchritten des eben durchgefuhrten Orthogonalisierungsprozesses andert sich das Volumennach dem Cavalierischen Prinzip nicht (

”Parallelogramme mit gleicher Grundlinie und gleicher

Hohe haben gleiches Volumen“) und fur eine orthogonale Familie (v1, . . . , vk) haben wir

Gram(v1, . . . , vk) = ‖v1‖2 · . . . · ‖vk‖2

so dass sich nach dem Wurzelziehen genau das Produkt der Seitenlangen eines k-dimensionalenQuaders ergibt.

Wir illustrieren den eben besprochenen Orthogonalisierungsprozess an Hand der orthogo-nalen Polynome aus der Analysis. Wir betrachten den R-Vektorraum R[x] zusammen mitdem Skalarprodukt

〈f, g〉 :=

∫ 1

−1

f(t)g(t)dt .

Wir betrachten die Familie (1, x, x2, . . .) und wenden darauf das obige Orthogonalisierungs-verfahren an. Ist Vn := span(1, . . . , xn) und betrachten wir Vn−1 als Unterraum von Vn, sohaben wir

dim span(1, . . . , xn−1)⊥ = 1 .

Somit ist das im Orthogonalisierungsprozess im n-ten Schitt entstehende Element Pn ∈ Vnbis auf Multiplikation mit einem Skalar in R eindeutig bestimmt.

Wir behaupten, dass man (bis auf ein skalares Vielfaches) fur n = 0, 1, 2, . . . als Pn dasn-te Legendre-Polynom Pn nehmen kann, das durch

P0(x) = 1 , Pn(x) =1

2nn!

dn

dxn(x2 − 1)n fur n ≥ 1

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 45

definiert ist.Wir machen dazu Induktion nach n. Der Fall n = 0 ist klar. Da Pn 6= 0 und Pn ∈

span(1, x, . . . , xn) (als n-te Ableitung eines Polynoms vom Grad 2n) bleibt noch zu zeigen,dass

〈xk, Pn〉 = 0

fur alle 0 ≤ k < n. Dies zeigt man mittels einer direkten Rechnung durch partielle Integration.Die Legendre-Polynome erfullen noch die Normierungsbedingung Pn(1) = 1. Durch diese

Bedingung (und die Eigenschaft, im orthogonalen Komplement von Vn−1 in Vn zu liegen)sind sie eindeutig bestimmt.

Nimmt man auf R[x] geeignete andere Skalarprodukte, erhalt man durch Orthogonalisierungder Familie (1, x, x2, . . .) ganz analog die Chebycheff und Hermite-Polynome.

Ein anderes wichtiges Beispiel zum Begriff der Orthonormalitat fuhrt in die Fourieranalysis.Wir betrachten den komplexen Vektorraum

V := {f : [0, 2π]→ C | f stetig }mit dem unitaren Skalarprodukt

〈f, g〉 :=1

∫ 2π

0

f(t)g(t)dt .

Die Familie (en)n∈Z mit en(x) := einx ist orthonormal. Den von dieser Familie aufgespanntenUntervektorraum P ⊂ V nennt man den Raum der trigonometrischen Polynome. DieFourieranalysis beschaftigt sich mit der Frage, ob und wie gut beliebige Elemente in V (oderauch in allgemeineren Funktionenraumen) durch Elemente in P approximiert werden konnen.

Die aus der Fourieranalysis bekannte Herangehensweise konnen wir geometrisch wie folgtdeuten.

Wir betrachten die Unterraume

Pn := span(e−n, . . . , en) ⊂ P .

Fur ein beliebiges f ∈ V , betrachten wir die orthogonale Projektion Sn(f) := pr⊥Pn(f) ∈ Pn.

Diese nennt man die n-te Fourierapproximation von f .Wir konnen nach dem Beweis von Korollar 4.9 diese Projektion durch die Formel

Sn(f) =n∑

k=−n

ckek

mit

ck = 〈f, ek〉 =1

∫ 2π

0

f(t)e−iktdt

dem k-ten Fourierkoeffizienten (fur k = −n, . . . , n) von f berechnen.Das obige Skalarprodukt auf V induziert eine Norm ‖ − ‖2 auf V . Falls eine Folge (fn)n∈N

in V bezuglich dieser Norm gegen f ∈ V konvergiert, spricht man von Konvergenz imquadratischen Mittel. Ein Ergebnis der Fouriertheorie besagt, dass fur alle f ∈ V die FolgeSn(f) im quadratischen Mittel gegen f konvergiert.

46 BERNHARD HANKE

12.6.13

5. Dualraume

Definition. Es sei V ein K-Vektorraum. Der Vektorraum HomK(V,K) der K-linearenAbbildungen V → K in den eindimensionalen K-Vektorraum K heißt der zu V dualeVektorraum und wird mit V ∗ bezeichnet. Die Elemente von V ∗ heißen Linearformen auf V .

Beispiel.

• Wir betrachten den R-Vektorraum C([0, 1]) der stetigen Funktionen [0, 1]→ R. Danndefiniert die Zuordnung

f 7→∫ 1

0

f(x)dx

eine Linearform auf V , also ein Element in V ∗.• Ist X eine Menge und V = RX der R-Vektorraum der Abbildungen X → R, so

definiert fur jedes x ∈ X die Abbildung

φx : RX → R , f 7→ f(x)

eine Linearform auf V .

• Ist a =

a1...an

∈ Kn, so definiert die Abbildung

Kn → K , (x1, . . . , xn) 7→ a1x1 + . . .+ anxn

ein Element in (Kn)∗. Der Kern dieser Linearform ist genau die Losungsmenge derGleichung

a1x1 + . . .+ anxn = 0 .

Wir bezeichnen diese Linearform im folgenden auch mit dem Zeilenvektor (a1, . . . , an).Schreiben wir Vektoren in Kn als Spaltenvektoren, dann ist obige Linearform einfachdurch die Vorschrift x 7→ (a1, . . . , an) · x gegeben.

Wir werden im folgenden die Dualitatstheorie nur fur endlichdimensionale Vektorraumeentwickeln und dabei insbesondere das letzte Beispiel auf eine systematische Grundlagestellen.

In der Analysis betrachtet man dagegen oft unendlichdimensionale Vektorraume uber Roder C (siehe die ersten beiden Beispiele), versieht aber dann die auftretenden Vektorraumezusatzlich mit der Struktur einer vollstandigen Norm, so dass man es mit Banachraumen zutun hat. In diesem Kontext definiert man als das Duale eines Banachraumes den Vektorraumder stetigen linearen Funktionale in den Grundkorper. Dies wird in der Funktionalanalysisgenauer untersucht.

Wir betrachten das dritte Beispiel etwas systematischer.Es sei V ein endlichdimensionaler K-Vektorraum und B := (v1, . . . , vn) eine Basis von V .

Ist f : V → K eine Linearform in V ∗, so erhalten wir die darstellende Matrix

A := MBC (f) ∈ K1×n

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 47

wobei C = (1) die kanonische Basis des K-Vektorraumes K ist. Im Falle, dass V = Kn unddass B = (e1, . . . , en) die kanonische Basis des Kn ist, entspricht die (1× n)-Matrix A genaudem Zeilenvektor (a1, . . . , an) aus dem obigen Beispiel.

Diese Uberlegung zeigt, dass dimV ∗ = dimV = n, also V ∼= V ∗ als K-Vektorraume.Wir erhalten wie folgt einen expliziten Isomorphismus.

Proposition 5.1. Fur j = 1, . . . , n sei v∗j : V → K gegeben durch

v∗j (vi) := δij :=

{1, falls i = j

0, falls i 6= j.

Dann ist (v∗1, . . . , v∗n) eine Basis von V ∗ und die Abbildung vi 7→ v∗i induziert einen Isomor-

phismus ΨB : V → V ∗.

(Das eben eingefuhrte Symbol δij wird auch Kronecker-Delta genannt.)

Beweis. Da dimV ∗ = n, mussen wir nur zeigen, das die Familie (v∗1, . . . , v∗n) linear unabhangig

ist. Sei dazun∑j=1

αjv∗j = 0

mit α1, . . . , αn ∈ K. Werten wir fur i = 1, . . . , n diese Gleichung bei vi aus, so erhalten wir

0 =( n∑j=1

αjv∗j

)(vi) =

n∑j=1

αjv∗j (vi) =

n∑j=1

αjδij = αi

wie gewunscht. �

Die Basis (v∗1, . . . , v∗n) von V ∗ heißt die zu B duale Basis von V ∗ und wird mit B∗ bezeichnet.

Wir betonen, dass der so erhaltene Isomorphismus ΨB : V → V ∗ von der gesamten Basis Babhangt. Insbesondere ist die Schreibweise v∗i gefahrlich, weil diese Linearform nicht nur vondem einzelnen Vektor vi, sondern auch von den anderen Basisvektoren der Basis B abhangt:

Beispiel. Wir betrachten V = R2 und die Basen B1 = (e1, e2) und B2 = (v1, v2), wobeiv1 := e1 und v2 := e1 + e2. Es gilt dann

(e1)∗(e2) =(ΨB1(e1)

)(e2) = 0

(v1)∗(e2) =(ΨB2(v1)

)(v2 − v1) = −1,

obwohl e1 = v1.

Korollar 5.2. Ist V endlichdimensional und 0 6= v ∈ V , so existiert ein φ ∈ V ∗ mit φ(v) 6= 0.

Beweis. Es sei n = dimV . Da nach Voraussetzung die Familie (v) linear unabhangig ist,konnen wir diese zu einer Basis B = (v, v2, . . . , vn) erganzen. Die bezuglich dieser Basisgebildete Linearform v∗ = ΨB(v) leistet das Gewunschte. �

Wir wollen nun nicht nur Vektorraume, sondern auch die linearen Abbildungen zwischenihnen dualisieren.

48 BERNHARD HANKE

Definition. Es sei f : V → W linear. Wir bezeichnen die durch die Vorschrift

φ 7→ φ ◦ fgegebene lineare Abbildung W ∗ → V ∗ mit f ∗ und nennen sie die zu f duale Abbildung.

Das folgende Diagram veranschaulicht diese Definition:

Vf //

f∗(φ)

W

φ

��K

Man beachte, dass bei Ubergang zu f ∗ die Rollen von V und W bei Quelle und Zielvertauscht werden.

Wir konnen nun die Bedeutung der transponierten Matrix herausarbeiten.

Proposition 5.3. Es seien V und W endlichdimensional und B eine Basis von V und Ceine Basis von W . Es sei f : V → W linear. Dann gilt

MC∗B∗ (f

∗) = MBC (f)T .

Oder kurz: Die darstellende Matrix der dualen Abbildung ist die Transponierte der darstellen-den Matrix.

Beweis. Es seien B = (v1, . . . , vn) und C = (w1, . . . , wm). Setzen wir

(aij) := MBC (f) ∈ Km×n

so gilt

f(vj) =m∑i=1

aijwi

fur alle j = 1, . . . , n nach Konstruktion der darstellenden Matrix.Setzen wir

(ckl) := MB∗C∗ (f ∗) ∈ Kn×n,

so gilt entsprechend

f ∗(w∗l ) =n∑k=1

cklv∗k

fur l = 1, . . . ,m.Es folgt fur 1 ≤ j ≤ n und 1 ≤ l ≤ m

alj = w∗l (m∑i=1

aijwi) = w∗l (f(vj)) = (w∗l ◦ f)(vj) = (f ∗(w∗l ))(vj) =( n∑k=1

cklv∗k

)(vj) = cjl.

Dies zeigt die Behauptung. �

Ist V ein Vektorraum, so konnen wir sein Dual V ∗ wieder dualisieren und erhalten dasDoppeldual V ∗∗ := (V ∗)∗. Man hat das Gefuhl, dass wir dieses Spiel beliebig weit fortsetzenkonnen. Dem ist aber nicht so, denn V ∗∗ ist im Wesentlichen wieder der Vektorraum V , fallsV endlichdimensional ist. Dies wird im folgenden prazisiert.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 49

Ist v ∈ V , so definiert die Auswertung bei v

ιv : V ∗ → K , φ 7→ φ(v)

ein Element in V ∗∗.

Proposition 5.4. Es sei V endlichdimensional. Dann ist die Abbildung ι : V → V ∗∗, v 7→ ιveinen Vektorraumisomorphismus.

Beweis. Linearitat sieht man leicht. Wir haben

ker ι = {v ∈ V | ∀φ ∈ V ∗ : φ(v) = 0} = 0

nach Korollar 5.2. Damit ist ι injektiv, also ein Isomorphismus, da dimV = dimV ∗∗. �

Der Isomorphismus ι : V → V ∗∗ hangt nun nicht von der Wahl einer Basis von V ab. Mansagt auch, V und V ∗∗ sind kanonisch isomorph.

Identifizieren wir vermoge dieses Isomorphismus v ∈ V mit ιv ∈ V ∗∗, so erhalten wir diesuggestive Gleichung

v(φ) = φ(v) .

Diese Beobachtung zeigt, dass wir nach nochmaliger Dualisierung V ∗∗∗ nichts Neues erhalten:Der kanonische Isomorphismus ι : V → V ∗∗ induziert einen kanonischen Isomorphismusι∗ : V ∗∗∗ → V ∗, d.h. wir konnen statt V ∗∗∗ wieder einfach das Dual V ∗ betrachten.

Proposition 5.5. Es sei V endlichdimensional mit Basis B. Wir erhalten IsomorphismenΨB : V → V ∗ mittels der Basis B und ΨB∗ : V ∗ → V ∗∗ mittels der Basis B∗. Die Kompositiondieser Isomorphismen

V → V ∗ → V ∗∗

stimmt mit dem eben definierten kanonischen Isomorphismus V → V ∗∗ uberein.

Beweis. Die Basis (v∗∗1 , . . . , v∗∗m ) von V ∗∗ hat nach Konstruktion die Eigenschaft

v∗∗j (v∗i ) = δij = v∗i (vj) = ιvj(v∗i )

fur alle 1 ≤ i, j ≤ n. Daher gilt v∗∗j = ιvj fur alle 1 ≤ j ≤ n. �

Korollar 5.6. Es seien V und W endlichdimensional und f : V → W linear. Es seien Bund C Basen von V und W und es sei M die darstellende Matrix von f bezuglich dieserBasen. Fassen wir diese Basen mit Hilfe der eben besprochenen Identifikation als Basen vonV ∗∗ und W ∗∗ auf, so ist die Abbildung f ∗∗ : V ∗∗ → W ∗∗ bezuglich dieser Basen wieder durchdie Matrix M gegeben. Insbesondere gilt f ∗∗ = f .

Beweis. Die darstellende Matrix von f ∗∗ ist bezuglich der Basen B∗∗ und C∗∗ durch die Matrix(MT )T = M gegeben. �

17.6.13

Es besteht ein enger Zusammenhang zwischen Bilinearformen und Dualitat, auf den wirnun eingehen.

Definition. Es sei V ein K-Vektorraum. Eine Bilinearform γ : V × V → K heißt nichtausgeartet, falls die K-lineare Abbildung

Φ : V → V ∗ , w 7→ γ(−, w)

injektiv ist. Mit anderen Worten: Fur alle 0 6= w ∈ V existiert ein v ∈ V mit γ(v, w) 6= 0.

50 BERNHARD HANKE

Ein ahnlicher Begriff existiert fur Sesquilinearformen auf C-Vektorraumen V . Man beachtedabei, dass fur alle w ∈ V die Abbildung

v 7→ γ(v, w)

C-linear ist (da Sesquilinearformen nach unserer Konvention linear im ersten Argument sind)und somit ein Element in V ∗ definiert.

Euklidische und unitare Skalarprodukte sind immer nicht ausgeartet.Es ist leicht zu sehen, dass eine Bilinearform γ : V ×V → K auf einem endlichdimensionalen

Vektorraum V genau dann nicht-ausgeartet ist, wenn die darstellende Matrix MB(γ) bezuglicheiner (und damit bezuglich jeder) Basis von V injektiv und somit invertierbar ist. Darausfolgt:

Proposition 5.7. Es sei V ein endlichdimensionaler K-Vektorraum und γ : V × V → Keine nicht-ausgeartete Bilinearform. Dann sind die Abbildungen

Φ : V → V ∗ , w 7→ γ(−, w)

undΨ : V → V ∗ , v 7→ γ(v,−)

Isomorphismen. Mit anderen Worten: Fur jede Linearform f : V → K gibt es

• genau ein w ∈ V mit f(v) = γ(v, w) fur alle v ∈ V und• genau ein v ∈ V mit f(w) = γ(v, w) fur alle w ∈ V .

Diese Tatsache wird spater in der Funktionalanalysis zum Rieszschen Darstellungssatz aufHilbertraumen verallgemeinert.

Beweis. Es sei B eine Basis von V und B∗ die dazu duale Basis von V ∗. Es sei A = MB(γ)die darstellende Matrix von γ bezuglich B. Diese ist nach Voraussetzung ein Isomorphismus.

Die Abbildung Φ ist bezuglich der Basen B und B∗ durch die lineare Abbildung

Kn → Kn , y 7→ Ay

gegeben und damit ein Isomorphismus.Ganz analog ist die Abbildung Ψ bezuglich dieser Basen durch die lineare Abbildung

Kn → Kn , x 7→ (xTA)T = ATx

gegeben. Da A ein Isomorphismus ist, gilt dies auch fur AT und somit auch fur Ψ. �

Eine wichtige nicht-ausgeartete Bilinearform auf dem R4 ist die Minkowski-Form

γ :

x0

x1

x2

x3

,

x′0x′1x′2x′3

7→ x0x

′0 − x1x

′1 − x2x

′2 − x3x

′3 ∈ R

Diese spielt eine fundamentale Rolle in der Einsteinschen Relativitatstheorie. Zusammen mitdieser Form nennt man R4 die vierdimensionale Raumzeit. Dabei ist x0 die Zeitkoordinateund (x1, x2, x3) sind Raumkoordinaten.

Die Form γ ist jedoch kein Skalarprodukt, denn sie ist nicht positiv definit.Die Punkte mit Abstand 0 zum Ursprung bilden den sogenannten Lichtkegel

{x = (x0, x1, x2, x3) | γ(x, x) = 0} = {(x0, x1, x2, x3) | ‖(x1, x2, x3)‖ = ‖x0‖} .

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 51

Dieser beschreibt die moglichen Raum-Zeit-Koordinaten eines Lichtteilchens, das im Ursprungdes Koordinatensystems startet (falls man die Lichtgeschwindigkeit gleich 1 setzt).

Wir werden spater nicht-ausgeartete symmetrische Bilinearformen auf endlich-dimensionalen reellen Vektorraumen mit Hilfe des Sylvesterschen Tragheitssatzes und derHauptachsentransformation genauer studieren.

Zuruck zu unseren allgemeinen Betrachtungen. Ist V ein endlichdimensionaler K-Vektorraum und Ψ : V → V ∗ ein Isomorphismus, so erhalten wir durch

γ(v, w) := Ψ(v)(w)

eine nicht-ausgeartete Bilinearform auf V und die Gleichung v 7→ γ(v,−) liefert wieder genaudie Abbildung Ψ. Mit Proposition 5.7 folgt :

Proposition 5.8. Es gibt eine eineindeutige Ensprechung zwischen

• Isomorphismen V → V ∗ und• nicht-ausgearteten Bilinearformen V × V → K.

Dabei ordnen wir einem Isomorphismus Ψ : V → V ∗ die Bilinearform (v, w) 7→ Ψ(v)(w) zu.

Diese Aussage verdeutlicht noch einmal, dass es keinen kanonischen Isomorphismus V → V ∗

gibt, denn dieser wurde einer kanonischen nicht-ausgearteten Bilinearform V × V → Kentsprechen. Diese gibt es aber nicht.

Wir wissen (vergleiche Proposition 5.1), dass wir nach Wahl einer Basis B = (v1, . . . , vn)von V einen speziellen Isomorphismus ΨB : V → V ∗ erhalten, der durch vi 7→ v∗i gegeben ist.Ubersetzen wir diesen in eine Bilinearform γ : V × V → K wie eben, so ist diese durch

γ(vi, vj) = δij

gegeben.Es sei (V, 〈−,−〉) ein endlichdimensionaler euklidischer Vektorraum. Wir erhalten wie eben

einen induzierten Isomorphismus

Ψ : V → V ∗ , v 7→ 〈v,−〉 .Diesen konnen wir benutzen, um Untervektorraume von V und von V ∗ miteinander zuidentifizieren.

Definition. Es sei V ein K-Vektorraum und W ⊂ V ein Untervektorraum. Wir setzen

W 0 := {f ∈ V ∗ | f |W = 0} ⊂ V ∗.

Dies ist ein Untervektorraum von V ∗ und heißt Annulator von W in V ∗.

Im Falle, dass dimV <∞, so gilt dimW 0 = dimV − dimW .Wir erhalten

Proposition 5.9. Es sei V ein endlichdimensionaler Euklidischer Vektorraum und W ⊂ Vein Untervektorraum. Dann gilt

Ψ(W⊥) = W 0.

D.h. der Annulator von W in V ∗ kann mit dem orthogonalen Komplement von W in Videntifiziert werden.

Ist also 0 6= v ∈ V , so ist der Kern der durch diesen Vektor gegebenen Linearform Ψ(v) ∈ V ∗genau das orthogonale Komplement von v in V .

52 BERNHARD HANKE

Beweis. Die Inklusion Ψ(W⊥) ⊂ W 0 folgt aus der Konstruktion von Ψ. Diese Inklusion mussaber eine Gleichheit sein, denn dim Ψ(W⊥) = dimW⊥ = dimV − dimW = dimW 0. �

19.6.13

Am Ende dieses Abschnittes betrachten wir noch eine Konstruktion von Vektorraumen,die derjenigen von Restklassenringen aus dem Wintersemester ahnelt.

Es sei V ein K-Vektorraum und W ⊂ V ein Untervektorraum. Die Relation ∼ auf V wirdwie folgt definiert:

v1 ∼ v2 :⇔ v1 − v2 ∈ WEs ist nicht schwer zu sehen, dass es sich um eine Aquivalenzrelation handelt. Die Menge derAquivalenzklassen bezeichnen wir mit V/W . Ist v ∈ V , so ist also die Aquivalenzklasse [v]von V gleich dem affinen Teilraum

v +W = {v + w | w ∈ W} ⊂ W

und es gilt genau dann v1 +W = v2 +W , falls v1 − v2 ∈ W .

Proposition 5.10. Durch die Setzung

(v1 +W ) + (v2 +W ) := v1 + v2 +W

λ · (v +W ) := λv +W

wird V/W zu einem K-Vektorraum.

Beweis. Es ist leicht zu uberprufen, dass die gegebenen Verknupfungen wohldefiniert sind.Die Vektorraumaxiome folgen mit direkten Rechnungen. �

Wir nennen diesen Vektorraum V/W den Quotientenvektorraum von V nach W . SeineElemente sind genau die affinen Teilraume der Form v +W ⊂ V mit v ∈ V . Die kanonischdefinierte Abbildung

p : V → V/W, v 7→ [v]

ist K-linear und es gilt ker p = W .Folgende Proposition zeigt einen wichtigen Zusammenhang in Euklidischen oder unitaren

Vektorraumen.

Proposition 5.11. Es sei (V, 〈−,−〉) ein euklidischer oder unitarer Vektorraum und W ⊂ Vein endlichdimensionaler Untervektorraum. Dann ist die Abbildung

χ : W⊥ → V/W, v 7→ [v]

ein Vektorraumisomorphismus. Das heißt, der Quotientvektorraum V/W kann in kanonischerWeise mit dem orthogonalen Komplement von W in V identifiziert werden.

Beweis. Es sei v ∈ kerχ. Da dann v ∈ ker p = W erhalten wir v ∈ W ∩W⊥ = 0. Also istv = 0. Es folgt kerχ = 0 und χ ist injektiv.

Es sei nun [v] ∈ V/W . Wir setzen

v′ := v − pr⊥W (v) ∈ W⊥.

Da pr⊥W (v) ∈ W = ker p, erhalten wir

χ(v′) = p(v′) = p(v − pr⊥W (v)) = p(v)− 0 = [v]

und χ ist auch surjektiv. �

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 53

6. Orthogonale und unitare Endomorphismen, die klassischen Matrixgruppen

Definition. Es seien V und W Euklidische, bzw. unitare Vektorraume. Eine (R, bzw. C-lineare Abbildung)

f : V → W

heißt orthogonal, bzw. unitar, falls

〈f(v), f(w)〉W = 〈v, w〉Vfur alle v, w ∈ V .

Orthogonale und unitare Abbildungen sind offensichtlich langenerhaltend (insbesondereinjektiv) und bilden orthogonale Familien von Vektoren wieder auf solche ab. OrthogonaleAbbildungen sind zudem winkelerhaltend. Umgekehrt gilt:

Proposition 6.1. Es sei f : V → W linear und langenerhaltend. Dann ist f orthogonal,bzw. unitar.

Beweis. Der Beweis folgt mit Hilfe der sogenannte Polarisierung: In einem EuklidischenVektorraum V gilt fur alle v, w ∈ V die Gleichung

〈v, w〉 =1

2(‖v + w‖2 − ‖v‖2 − ‖w‖2)

und in unitaren Vektorraumen V gilt fur alle v, w ∈ V die Gleichung

〈v, w〉 =1

4(‖v + w‖2 − ‖v − w‖2 + i‖v + iw‖2 − i‖v − iw‖2) .

Im Euklidischen Fall folgt also mit Hilfe der Linearitat von f

〈f(v), f(w)〉 =1

2(‖f(v) + f(w)‖2 − ‖f(v)‖2 − ‖f(w)‖2)

=1

2(‖f(v + w)‖2 − ‖f(v)‖2 − ‖f(w)‖2)

=1

2(‖v + w‖2 − ‖v‖2 − ‖w‖2) = 〈v, w〉 .

Im unitaren Fall argumentiert man analog.Die Polarisierungsformeln zeigen, dass das Skalarprodukt 〈v, w〉 alleine durch die Nor-

men ‖v‖ und ‖w‖ ausgedruckt werden kann. Daraus und aus der Voraussetzung folgt dieBehauptung.

Sind V und W Euklidische Vektorraume und ist f : V → W eine (nicht unbedingt lineare)Abbildung, die f(0) = 0 erfullt und zudem abstandserhaltend ist, d.h. ‖f(v)−f(w)‖ = ‖v−w‖fur alle v, w ∈ V , so ist f bereits linear und somit orthogonal. Ein Beweis erfolgt in denUbungen.

Definition. Eine Matrix A ∈ Rn×m, bzw. in Cn×m heißt orthogonal, bzw. unitar, falls siebezuglich der Standardskalarprodukte eine orthogonale, bzw. unitare Abbildung beschreibt.

Dies ist offensichtlich gleichbedeutend damit, dass

(Ax)T (Ay) = xTATAy = xTy

54 BERNHARD HANKE

fur alle x, y ∈ Rm also

ATA = Em ,

d.h. die Spalten von A bilden eine orthonormale Familie von Vektoren im Rn (bestehend ausm Vektoren). Im unitaren Fall erhalt man entsprechend die Charakterisierung

ATA = Em .

Der Zusammenhang von orthogonalen (unitaren) Abbildungen zu orthogonalen Matrizen istwie folgt.

Proposition 6.2. Es seien V und W endlichdimenisonale Euklidische, bzw. unitare Vek-torraume. Eine Abbildung f : V → W ist genau dann orthogonal (unitar), wenn folgendesgilt: Es seien B und C Orthonormalbasen von V und W . Dann ist die darstellende MatrixMBC (f) orthogonal (unitar).

Beweis. Wir behandeln nur den euklidischen Fall. Der unitare Fall ist analog. Es sei dimV =m, dimW = n.

Zunachst beobachten wir: Sind v, w ∈ V mit Koordinatenvektoren x, y ∈ Rm bezuglich derBasis B , so gilt

〈v, w〉V = 〈x, y〉Rm

wobei links das Skalarprodukt in V genommen wird und rechts das kanonische Skalarproduktin Rm. Eine entsprechende Aussage gilt fur Vektoren in W mit Koordinatenvektoren in Rn

bezuglich der Basis C.Aus dieser allgemeinen Tatsache folgt leicht die Behauptung. �

Wir behandeln nun den besonders wichtigen Spezialfall von orthogonalen, bzw. unitarenEndomorphismen.

Proposition 6.3. Es sei V ein endlichdimensionaler euklidischer oder unitarer Vektorraum.Es sei f : V → V ein orthogonaler (unitarer) Endomorphismus. Dann gilt folgendes:

a) f ist ein Isomorphismus,b) f−1 ist ebenfalls orthogonal (unitar),c) alle Eigenwerte von f haben den Betrag 1,d) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal.

24.6.13

Beweis. a) Wir wissen bereits, dass f injektiv ist. Damit ist f ein Isomorphismus, denndimV <∞.

b) Dass f−1 ebenfalls orthogonal (unitar) ist, sieht man wie folgt: Es seien v, w ∈ V . Danngilt

〈f−1(v), f−1(w)〉 = 〈f(f−1(v)), f(f−1(w))〉 = 〈v, w〉 ,da f orthogonal (unitar) ist. Liest man diese Gleichung von rechts nach links, folgt dieBehauptung.

c) Es sei nun λ ein Eigenwert. Wir wahlen einen Eigenvektor v. Dann ist

〈v, v〉 = 〈f(v), f(v)〉 = λλ〈v, v〉

woraus nach Division durch 〈v, v〉 folgt (beachte, dass nach Definition v 6= 0), das |λ| = 1.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 55

d) Es seien λ, µ Eigenwerte mit Eigenvektoren v, w. Falls 〈v, w〉 6= 0, sieht man mit einerRechnung ahnlich wie eben, dass λµ = 1, woraus wegen |µ| = 1 (somit µ−1 = µ)) folgt, dassλ = µ. �

Ist A ∈ Rn×n orthogonal, so gilt auf Grund der Gleichung ATA = En die BeziehungAT = A−1. Insbesondere gilt auch AAT = En. Entsprechend ist fur unitare MatrizenAAT = En. Damit sind aquivalent:

• A ist orthogonal (unitar).• Die Spalten von A bilden eine Orthonormalbasis.• Die Zeilen von A bilden eine Orthonormalbasis.• A−1 = AT (im Euklidischen Fall), bzw. A

−1= AT (im unitaren Fall). Im unitaren

Fall ist dies durch Konjugieren auf beiden Seiten gleichbedeutend mit A−1 = AT

.

Wir definieren nun die Teilmengen

O(n) := {A ∈ Mat(n,R) | A orthogonal} ⊂ Rn×n

und

U(n) := {A ∈ Mat(n,C) | A unitar} ⊂ Cn×n

Diese Teilmengen sind Untergruppen der multiplikativen Gruppen GL(n,R), bzw. GL(n,C)und heißen die Gruppen der orthogonalen, bzw. unitaren (n× n)-Matrizen.

Bemerkung 6.4. Fur alle A ∈ O(n) und A ∈ U(n) gilt | det(A)| = 1. Dies folgt ausdem Determinantenmultiplikationssatz und aus der Tatsache, dass fur orthogonale (unitare)

Matrizen die Gleichung A−1 = AT (A−1 = AT

) gilt.Insbesondere gilt fur A ∈ O(n), dass detA ∈ {±1}.

Wichtige Untergruppen dieser Gruppen sind die speziellen orthogonalen Gruppen. Furdiese Diskussion brauchen wir den Begriff der Orientierung endlichdimensionaler reellerVektorraume.

Definition. Es sei V ein endlichdimensionaler reeller Vektorraum.

• Wir nennen zwei Basen B und C von V gleich orientiert, falls fur die Matrix derKoordinatentransformation von der Basis B in die Basis C folgendes gilt:

detTBC > 0 .

Dies definiert eine Aquivalenzrelation auf der Menge der Basen von V mit genau zweiAquivalenzklassen.• Diese Aquivalenzklassen heißen Orientierungen von V . Einen endlichdimensionalen

reller Vektorraum V zusammen mit einer Orientierung (also einer Aquivalenzklassegleich orientierter Basen) heißt orientierter Vektorraum. Die Basen in der gegebenenAquivalenzklasse heißen positiv orientiert, die verbleibenden Basen negativ orientiert.• Es seien V und W endlichdimensionale, orientierte, reelle Vektorraume. Ein linearer

Isomorphismus f : V → W heißt orientierungserhaltend, falls f eine positiv orientierteBasis von V auf eine positiv orientierte Basis von W abbildet. Falls V = W ist diesgleichbedeutend mit det f > 0.• Fur V = Rn definiert die Orientierungsklasse der Standardbasis (e1, . . . , en) die

Standardorientierung oder kanonische Orientierung von Rn.

56 BERNHARD HANKE

Wir bemerken, dass es fur allgemeine reelle Vektorraume keine Standardorientierung gibt,da es auch keine ausgezeichneten Basen gibt. Wir betrachten Orientierungen nur fur reelleVektorraume.

Wir setzen nunSO(n) = {A ∈ O(n) | detA = 1} .

Dies ist die spezielle orthogonale Gruppe. Sie enthalt genau die orientierungserhaltenden,orthogonalen Endomorphismen Rn → Rn.

Analog definieren wirSU(n) = {A ∈ U(n) | detA = 1}

die spezielle unitare Gruppe. Hier ist eine Interpretation mit Hilfe von Orientierungen leidernicht mehr moglich.

Dass diese Teilmengen wirklich Untergruppen sind, ist leicht einzusehen.Diese Matrixgruppen spielen eine wichtige Rolle in fast allen Bereichen der Mathematik.

Proposition 6.5. Es sei A ∈ O(2). Dann tritt genau einer der beiden folgenden Falle ein.

• detA = 1, das heißt, A ist orientierungserhaltend. Dann existiert genau ein φ ∈ [0, 2π),so dass

A =

(cos(φ) − sin(φ)sin(φ) cos(φ)

).

Dies ist eine Drehung um den Winkel φ in der Ebene (gegen den Uhrzeigersinn).• detA = −1, das heißt, A ist orientierungsumkehrend. Dann existiert genau einφ ∈ [0, 2π), so dass

A =

(cos(φ) sin(φ)sin(φ) − cos(φ)

).

Dies ist eine Spiegelung an der x-Achse, verknupft mit einer Drehung um φ gegen denUhrzeigersinn.

Beweis. Es sei A ∈ O(2). Wir schreiben

A =

(x uy v

).

Da x2 + y2 = 1, existiert genau ein φ ∈ [0, 2π) mit x = cos(φ) und y = sin(φ). Da(uv

)⊥(xy

)haben wir (

uv

)= λ ·

(−yx

)mit einem λ ∈ R. Zusammen mit der Eigenschaft ‖

(uv

)‖ = 1 folgt λ = ±1 und dies fuhrt

genau auf die beiden angegebenen Falle. �

Fur die unitaren Gruppen haben wir das folgende wichtige Ergebnis.

Satz 6.6. Es sei V ein endlichdimensionaler unitarer Vektorraum und f : V → V einunitarer Endomorphismus. Dann gilt folgendes:

• f ist diagonalisierbar.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 57

• V besitzt eine Orthonormalbasis aus Eigenvektoren von f .

Beweis. Wir beweisen Satz 6.6 per Induktion nach dimV . Falls dimV = 1, so ist die Aussageklar.

Es sei nun dimV = n + 1. Aus dem Fundamentalsatz der Algebra folgt, dass f einenEigenwert λ ∈ C hat. Wir haben in Proposition 6.3 gesehen, dass |λ| = 1. Insbesondere istλ 6= 0.

Es sei v ∈ V ein zugehoriger Eigenvektor, dessen Lange wir auf 1 normieren. Nun setzenwir

V ′ := span(v)⊥ ⊂ V.

Es gilt

• dimV ′ = n.• V ′ ist f invariant: Sei w ∈ V ′. Dann ist 〈w, v〉 = 〈f(w), f(v)〉 = λ〈f(w), v〉. Wegenλ 6= 0 folgt f(w) ⊥ v.

Wir setzen

g := f |V ′ : V ′ → V ′.

Die Abbildung g ist wieder unitar. Nach Induktionsvoraussetzung existiert daher eine Or-thonormalbasis (v1, . . . , vn) von V ′ bestehend aus Eigenvektoren von g. Wir erhalten darauseine Orthonormalbasis (v, v1, . . . , vn) von V aus Eigenvektoren von f . �

Korollar 6.7. Ist A ∈ U(n), so existiert ein S ∈ U(n), so dass

SAS−1 =

λ1 0. . .

0 λn

wobei λ1, . . . , λn komplexe Zahlen vom Betrag 1 sind.

Als Spalten der Matrix S−1 nimmt man, wie schon fruher geschehen, eine Orthonormalbasis

aus Eigenvektoren von A. Da S−1 = ST

, ist die linke Seite gleich SAST

.

26.6.13

Eine Orthonormalbasis aus Eigenvektoren von f bestimmt man, indem man zu denverschiedenen Eigenraumen von f unabhangig voneinander Orthonormalbasen nach demGram-Schmidt-Verfahren berechnet und diese zu einer Basis von V zusammensetzt. Dies funk-tioniert, weil nach Proposition 6.3 Eigenvektoren zu verschiedenen Eigenwerten automatischorthogonal zueinander sind.

Die Entsprechung von Satz 6.6 fur orthogonale Endomorphismen ist komplizierter, da dascharakteristische Polynom nicht immer in Linearfaktoren zerfallt.

Das Ergebnis lautet wie folgt:

Satz 6.8. Es sei V ein endlichdimensionaler Euklidischer Vektorraum und f : V → V einorthogonaler Endomorphismus. Dann existiert eine Orthonormalbasis von V , bezuglich der f

58 BERNHARD HANKE

durch eine Matrix der Form

1 0. . .

1−1

. . .−1

A1

. . .0 Ak

dargestellt wird. Dabei sind A1, . . . , Ak ∈ SO(2) Drehmatrizen der Form

Ai =

(cos θi − sin θisin θi cos θi

)mit θi ∈ (0, π) ∪ (π, 2π).

Fur den Beweis ist die folgende Aussage wichtig.

Lemma 6.9. Es sei A : Rn → Rn ein orthogonaler Endomorphismus. Dann existiert einUntervektorraum W ⊂ Rn der Dimension 1 oder 2 mit A(W ) = W .

Beweis. Falls A einen reellen Eigenwert hat, so wahlen wir einen zugehorigen Eigenvektorw ∈ Rn und setzen W := R · w ⊂ R.

Wir nehmen nun an, A hat keinen reellen Eigenwert.Wir fassen A als lineare Abbildung Cn → Cn auf. Diese Abbildung hat einen Eigenwert

λ ∈ C. Es sei 0 6= z ∈ Cn ein zugehoriger Eigenvektor. Wir bezeichnen mit z ∈ Cn den Vektor,der durch komponentenweise Konjugation entsteht. Wir haben dann

Az = Az = λz = λz ,

wobei wir in der ersten Gleichung benutzen, dass A nur reelle Komponenten hat. (Da z undz zu verschiedenen Eigenwerten gehoren, sind diese Vektoren linear unabhangig uber C.)

Wir setzen nun z = x+ iy, wobei x, y ∈ Rn und λ = α + iβ mit α, β ∈ R. Dann gilt

Ax =1

2(Az + Az) = Re(λz) = αx− βy

Ay =1

2i(Az − Az) = Im(λz) = βx+ αy

und somit gilt fur W := spanR(x, y) ⊂ Rn, dass A(W ) = A (beachte, dass β 6= 0 wegenλ /∈ R). Damit ist die Behauptung gezeigt. �

Mit diesem Lemma erfolgt der Beweis von Theorem 6.8 ganz analog zum unitaren Fall: IstdimV = 1, so ist die Aussage offensichtlich richtig. Es sei nun dimV = n. Wir wahlen ein W ⊂V der Dimension 1 oder 2 mit f(W ) = W (dieser Unterraum existiert nach dem Lemma) undsetzen V ′ := W⊥. Dann ist f(V ′) = V ′ und wir konnen die Induktionsvoraussetzung auf f |V ′ :V ′ → V ′ anwenden und eine entsprechende Orthonormalbasis finden. Nach der Klassifikationder Elemente in O(1) und O(2) hat W ebenfalls eine Orthonormalbasis der geforderten Art.Zusammen mit der Orthonormalbasis von V ′ erhalt man eine Orthonormalbasis von V wiegewunscht.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 59

Korollar 6.10. Es sei A ∈ SO(3) mit A 6= E3. Dann existiert eine OrthonormalbasisB = (v1, v2, v3) von R3, so dass bezuglich dieser Basis die Abbildung A durch eine Matrix derForm 1 0 0

0 cos(φ) − sin(φ)0 sin(φ) cos(φ)

dargestellt wird, wobei φ ∈ [0, 2π). Wir konnen uns daher A als Drehung mit Drehachsespan(v1) ⊂ R3 um den Winkel φ vorstellen. Die Drehachse und der Winkel φ sind durch Aeindeutig bestimmt.

Wir betrachten nun die Gruppe

SU(2) = {A ∈ Mat(2,C) | ATA = E2, detA = 1}

etwas genauer.Wir haben die Darstellung

SU(2) = {(w −zz w

)| w, z ∈ C, |w|2 + |z|2 = 1}

wie man direkt nachrechnet (siehe Blatt 11) und damit ist

SU(2)→ R4 ,

(w −zz w

)7→ (Re(w), Im(w),−Re(z), Im(z))

eine injektive Abbildung mit Bild S3 := {x ∈ R4 | ‖x‖ = 1}. (Das Minuszeichen ist durchden weiter unten erlauterten Zusammenhang zu den Quaternionen motiviert).

Wir fassen nun C2×2 als reellen Vektorraum auf und setzen

H := spanRSU(2) ⊂ C2×2,

die Elemente aus H sind also reelle Linearkombinationen von Elementen in SU(2). Man kannzeigen (siehe Blatt 11), dass

H = R · SU(2) := {λ · A | λ ∈ R, A ∈ SU(2)} .

Dies impliziert, dass die Matrizen

η0 := E2 , η1 :=

(i 00 −i

), η2 :=

(0 1−1 0

), η3 :=

(0 ii 0

),

eine Basis des reellen Vektorraumes H bilden: Diese Elemente sind in der Tat linear unabhangiguber R und geeignete reelle Linearkombinationen dieser Matrizen ergeben alle Matrizen inSU(2) und somit auch in H, weil ja H = R · SU(2).

Bemerkung 6.11. Eng verwandt sind die Pauli-Matrizen

σ0 := E2, σ1 :=

(0 11 0

), σ2 :=

(0 −ii 0

), σ3 :=

(1 00 −1

).

Diese modellieren in der Quantenphysik die Wirkung der Spin-Dreihimpulsoperatoren aufSpin-1

2-Zustanden. Auf diesen Zusammenhang gehen wir hier nicht naher ein.

60 BERNHARD HANKE

Wir erhalten einen R-linearen Isomorphismus R4 → H, (x0, x1, x2, x3) 7→∑3

i=0 xiηi. Dieserist explizit gegeben durch

(x0, x1, x2, x3) 7→(

x0 + ix1 x2 + ix3

−x2 + ix3 x0 − ix1

)mit Umkehrung

λ ·(w −zz w

)7→ λ · (Re(w), Im(w),−Re(z), Im(z)) ,

wobei λ ∈ R und w, z ∈ C mit |w|2 + |z|2 = 1. Die explizite Form dieser Umkehrabbildungmotiviert das Minuszeichen in der dritten Komponente.

Da H = R · SU(2) ⊂ Mat(2,C) abgeschlossen unter der Matrixmultiplikation ist, induziertdiese auf H eine R-bilineare Abbildung

H×H→ H .

Diese ist jedoch nicht kommutativ (wie wir gleich sehen werden).Der Vektorraum H, den wir wie oben durch Wahl der Basis (η0, η1, η2, η3) mit R4 identifizie-

ren, erbt von R4 das kanonische Skalarprodukt und wird damit ein euklidischer Vektorraum.Die induzierte Norm ‖ − ‖ erfullt die Gleichung

‖xy‖ = ‖x‖ · ‖y‖fur alle x, y ∈ H.

Proposition 6.12. H ist bezuglich der eben eingefuhrten Multiplikation ein (nicht-kommutativer) Ring mit 1 = η0. Jedes Element x ∈ H \ {0} besitzt ein multiplikativesInverses. Damit ist H \ {0} bezuglich der Multiplikation eine Gruppe und H ein Schiefkoper(d.h. ein Korper, in dem die Multiplikation nicht notwendigerweise kommutativ ist).

Beweis. Falls x ∈ H\{0}, so ist x‖x‖ ∈ SU(2), somit gibt es ein y ∈ SU(2) mit x

‖x‖ ·y = E2 = 1.

Also ist y‖x‖ ein Links- und Rechtsinverses von x. �

Die oben eingefuhrten Basiselemente von H kurzen wir wie folgt ab:

I := η1, J := η2, K := η3

und erhalten die Relationen

I2 = J2 = K2 = −1, IJ = −JI = K, JK = −KJ = I,KI = −IK = J .

(An der Stelle ist die spezielle Wahl der Basisvektoren η1, η2, η3 wichtig). Jedes Quaternionhat somit eine eindeutige Darstellung als α + βI + γJ + δK mit α, β, γ, δ ∈ R und dieMultiplikation solcher Elemente genugt den gerade angegebenen Regeln (reelle Koeffizientenvertauschen mit I, J und K). Dies zeigt auch, dass die Abbildung

C→ H , α + βi 7→ α + βI

ein injektiver, normerhaltender Ringhomomorphismus ist. Damit fassen wir C als Unterringvon H auf.

Ist x := α + βI + γJ + δK ∈ H, so nennen wir Re(x) := α den Realteil und Im(x) :=βI + γJ + δK den Imaginarteil von x. Wie im Komplexen setzen wir

x := Re(x)− Im(x) .

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 61

Die Norm von x berechnet sich dann nach der aus dem Komplexen bekannten Formel

‖x‖2 = xx .

Ab sofort schreiben wir in H statt ‖x‖ nur noch |x|, so wie bei den komplexen Zahlen auch.Unsere Definition der Quaternionen uber eine Matrixgruppe wirkt ungewohnlich, kann

aber ganz analog auch fur die Definition der komplexen Zahlen (aus den reellen Zahlen)herangezogen werden. Diese Analogie stellen wir nun heraus. Wir haben

SO(2) = {(w −zz w

)| w, z ∈ R, w2 + z2 = 1}

und somit konnen wir SO(2) vermoge der Abbildung

(w −zz w

)7→ (w, z) mit S1 ⊂ R2×2

identifizieren. Wir setzenC := spanRSO(2) ⊂ R2×2 .

Dies ist ein zweidimensionaler, reeller Vektorraum mit Basis

(1 00 1

)und

(0 −11 0

)und

außerdem ein Unterring von Mat(2,R) mit Einselement

(1 00 1

). Nennen wir den zweiten

Basisvektor i, so erhalten wir genau die komplexen Zahlen mit den gewohnten Rechenregeln(Multiplikation mit i entspricht ja genau einer Drehung um π/2 gegen den Uhrzeigersinn inder Ebene).

Es stellt sich nun ganz allgemein die Frage, fur welche n eine R-bilineare Abbildung(”Multiplikation“)

Rn × Rn → Rn , (v, w) 7→ v · wexistiert, so dass fur alle 0 6= a ∈ Rn und alle b ∈ Rn die Gleichungen xa = b und ay = beindeutig losbar sind.

Es ist ein erstaunliches Resultat von J. F. Adams aus den 60er Jahren des letzten Jahrhun-derts, dass dies nur im Fall n = 1, 2, 4, 8 moglich ist. Dieser Beweis benutzt tiefe Methodender Topologie, wie zum Beispiel K-Theorie. Beispiele in diesen Dimensionen sind durchdie reellen Zahlen, durch die komplexen Zahlen, durch die Quaternionen und durch diesogenannten Cayley-Zahlen gegeben. Die Quaternionen wurden 1843 von William RowanHamilton (1805-1865) entdeckt, nachdem er jahrelang vergeblich versucht hatte, auf R3

eine entsprechende Multiplikation zu definieren. Heute kann man leicht zeigen, dass es aufR3 so eine Multiplikation nicht geben kann. Genauere Informationen zu den verschiedenenZahlsystemen (insbesondere auch zu den Quaternionen und den Cayley-Zahlen) findet manin dem schonen Buch: Ebbinghaus et al., Zahlen, Springer-Verlag.

1.7.13

Wir behandeln zum Abschluss dieses Kapitels noch die sogenannten infinitesimale Erzeugerder klassischen Matrixgruppen.

Definition. Es sei G := GL(n,R) oder G := GL(n;C). Eine Einparametergruppe in G isteine differenzierbare Abbildung

φ : R→ G

die außerdem ein Gruppenhomomorphismus (R,+, 0)→ (G, ·, En) ist. Fur die Differenzier-

barkeit fassen wir G als offene Teilmenge von Rn2, bzw. von Cn2

= R2n2auf. (D.h. die

einzelnen Komponentenfunktionen t 7→ (φ(t))ij, 1 ≤ i, j ≤ n sind differenzierbar).

62 BERNHARD HANKE

Proposition 6.13. Fur alle A ∈ Mat(n,R), bzw. A ∈ Mat(n,C) definiert

φA : R→ G , t 7→ exp(t · A)

eine Einparametergruppe in GL(n,R), bzw. in GL(n,C).

Wir interessieren uns nun fur die Frage, fur welche A die Abbildung φ Werte in den bisherbehandelten Matrixgruppen annimmt. Wir haben zum Beispiel:

Proposition 6.14. Es gilt imφA ⊂ O(n) genau dann, wenn AT = −A.

Beweis. Angenommen, imφA ⊂ O(n). Durch Ableiten der Gleichung φA(t) · φA(t)T = En furalle t erhalten wir (wegen exp(tA)T = exp(tAT ), wie direkt aus der Definition folgt)

A exp(tA) exp(tAT ) + exp(tA)AT exp(tAT ) = 0

und daher, da A mit exp(tA) vertauscht,

exp(tA)(A+ AT ) exp(tAT ) = 0 .

Da exp(tA) und exp(tAT ) invertierbar sind, folgt daraus A+ AT = 0.Umgekehrt folgt wegen AAT = A(−A) = −AA = ATA im Falle A+ AT = 0

En = exp(t(A+ AT )) = exp(tA) exp(tA)T

fur alle t ∈ R. �

Da fur alle A ∈ Rn×n und fur alle A ∈ Cn×n

d

dtφA(t)|t=0 = A ,

nennt man A den infinitesimalen Erzeuger der Einparametergruppe φA. Daher heißt

o(n) := {A ∈ Rn×n | AT = −A} ,also der (reelle) Vektorraum der schiefsymmetrischen (n× n)-Matrizen, auch der Vektorraumder infinitesimalen Erzeuger von O(n).

Wegendet(exp(tA)) = exp(t · spur(A))

gilt außerdem detφA(t) = 1 fur alle t genau dann, wenn spur(A) = 0. Daher heißt

so(n) := {A ∈ Rn×n | AT = −A, spur A = 0}der Vektorraum der infinitesimalen Erzeuger von SO(n). Dieser stimmt mit o(n) uberein,wie aus jeder der beiden folgenden Beobachtungen folgt:

• die Eigenschaft AT = −A impliziert, dass auf der Diagonalen von A nur Nullen stehen,• eine stetige Familie von Drehungen, die mit der Identitat startet, besteht nur aus

orientierungserhaltenden Drehungen (die Determinante kann wegen der Stetigkeitnicht von +1 nach −1 springen).

Entsprechend erhalt man fur die Vektorraume der inifinitesimalen Erzeuger (diese betrach-ten wir immer als Vektorraume uber R) der anderen Matrixgruppen:

• Fur U(n) haben wir u(n) := {A ∈ Cn×n | AT = −A}. Das ist der R-Vektorraumder schief-hermiteschen Matrizen - diese Matrizen haben auf der Diagonalen nurrein-imaginare Eintrage, insbesondere ist u(n) nur abgeschlossen unter Multiplikationmit reellen Skalaren.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 63

• Fur SU(n) haben wir su(n) := {A ∈ u(n) | spur A = 0}. Das ist der R-Vektorraumder spurfreien schief-hermiteschen Matrizen.• Fur GL(n,R) haben wir gl(n;R) := Rn×n.• Fur GL(n,C) haben wir gl(n;C) := Cn×n.• Fur SL(n;R) := {A ∈ GL(n;R) | detA = 1} haben wir sl(n;R) := {A ∈Rn×n | spur A = 0}• Fur SL(n;C) haben wir sl(n;C) := {A ∈ Cn×n | spur A = 0}

Nach Konstruktion definiert exp jeweils eine Abbildung von dem Vektorraum der infini-tesimalen Erzeuger einer Matrixgruppe in diese Matrixgruppe. Diese Abbildung ist aberin der Regel nur dann ein Gruppenhomomorphismus, wenn man sie auf eindimensionaleR-Untervektorraume einschrankt.

Auf dem Vektorraum der infinitesimalen Erzeuger einer Matrixgruppe G existiert eineweitere Struktur, die der Lie-Klammer, die fur Matrizen A,B durch den Kommutator AB−BAgegeben ist. Diese reflektiert die Nichtkommutativitat der entsprechenden Matrixgruppe.Dieser Zusammenhang wird in der Theorie der Liegruppen und Liealgebren genauer studiertund soll hier nicht weiter vertieft werden.

3.7.13

7. Selbstadjungierte Endomorphismen, Spektralsatz,Hauptachsentransformation

Definition. Es sei (V, 〈−,−〉) ein euklidischer oder unitarer Vektorraum. Ein Endomorphis-mus f : V → V heißt selbstadjungiert, wenn

〈v, f(w)〉 = 〈f(v), w〉

fur alle v, w ∈ V .

Die Bedeutung dieser Eigenschaft wird klar, wenn man wieder den Zusammenhang zu dendualen Vektorraumen heranzieht: Es sei V endlichdimensional. Die Abbildung

Φ : V → V ∗ , w 7→ 〈−, w〉

ist dann ein (R-linearer) Isomorphismus (vgl. S. 50), da das Skalarprodukt auf V nichtausgeartet ist. Andererseits induziert jeder Endomorphismus f : V → V eine duale Abbildungf ∗ : V ∗ → V ∗ gegeben durch ω 7→ ω ◦ f .

Proposition 7.1. Es sei dimV < ∞. Der Endomorphismus f : V → V ist genau dannselbstadjungiert, wenn das Diagramm

Vf //

Φ∼=��

V

Φ∼=��

V ∗f∗ // V ∗

kommutiert, d.h. f und f ∗ beschreiben (nachdem man V und V ∗ mit Hilfe von φ identifiziert)genau die gleichen Abbildungen.

Beweis. Wir mussen uberlegen, wann die Gleichung

Φ ◦ f(w) = f ∗ ◦ Φ(w) ∈ V ∗

64 BERNHARD HANKE

fur alle w ∈ V gilt. Dies ist (fur alle w ∈ V ) eine Gleichung von Abbildungen in V ∗ und diesestimmen genau dann uberein, wenn man nach Einsetzen beliebiger Vektoren v ∈ V links undrechts das gleiche Resultat erhalt.

Es sei v ∈ V . Werten wir die linke Seite auf v aus, so erhalten wir

〈v, f(w)〉und die rechte Seite ausgewertet auf v ergibt

〈f(v), w〉 .Daraus folgt in der Tat, dass das obige Diagramm genau dann kommutiert, wenn f selbstad-jungiert ist. �

Selbstadjungierte Abbildungen spielen eine zentrale Rolle in vielen Anwendungen in derMathematik und Physik.

Proposition 7.2. Es sei V ein endlichdimensionaler euklidischer oder unitarer Vektorraumund f ∈ End(V ). Dann ist f genau dann selbstadjungiert, wenn folgendes gilt: Es sei B eineOrthonormalbasis von V und A = MB(f) die darstellende Matrix von f bezuglich B. Dann ist

AT

= A

d.h. A ist hermitesch. Im Euklidischen Fall bedeutet das AT = A, d.h. A ist symmetrisch.

Beweis. Wir behandeln nur den unitaren Fall, da der euklidische ganz Analog ist. Sindv, w ∈ V und x, y ∈ Cn die entsprechenden Koordinatenvektoren bezuglich der Basis B(geschrieben als Spaltenvektoren), so gilt

〈v, w〉 = xT · y.Somit ist f genau dann selbstadjungiert, wenn

xT · Ay = (Ax)T · yfur alle x, y ∈ Cn. Die linke Seite ist gleich xT · A · y und die rechte Seite gleich xT · AT · y.Somit ist f genau dann selbstadjungiert, wenn

AT = A,

und das ist gerade die Behauptung. �

Lemma 7.3. Es sei f : V → V selbstadjungiert. Dann sind alle Eigenwerte von f reell undEigenvektoren zu verschiedenen Eigenwerten sind orthogonal.

Beweis. Die erste Aussage ist klar, wenn V ein euklidischer (und damit reeller) Vektorraumist. Sei also V ein unitarer Vektoren. Es sei λ ∈ C ein Eigenwert von f und v ∈ V einzugehoriger Eigenvektor. Dann gilt

λ〈v, v〉 = 〈f(v), v〉 = 〈v, f(v)〉 = λ〈v, v〉.Nach Definition von Eigenvektoren ist v 6= 0. Somit folgt λ = λ und damit λ ∈ R.

Es sei nun V euklidisch oder selbstadjungiert und λ, µ seien Eigenwerte von f mit λ 6= µ.Es seien v, w ∈ V Eigenvektoren zu λ und µ. Dann zeigt eine Rechnung ahnlich wie oben

λ〈v, w〉 = µ〈v, w〉.Da µ ∈ R (denn f hat nur reelle Eigenwerte), gilt µ = µ. Wegen λ 6= µ kann die letzteGleichung also nur gelten, wenn 〈v, w〉 = 0. Dies war zu zeigen. �

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 65

Wir beweisen nun das folgende wichtige Resultat:

Satz 7.4 (Spektralsatz fur selbstadjungierte Operatoren). Es sei V ein endlichdimensionalereuklidischer oder unitarer Vektorraum und f : V → V selbstadjungiert. Dann besitzt V eineOrthonormalbasis bestehend aus Eigenvektoren von f .

Beweis. Wir machen Induktion nach n = dimV . Fur n = 1 ist die Aussage klar. Sei nundimV = n+ 1.

Wir nehmen zunachst an, dass V unitar ist (also insbesondere ein komplexer Vektorraum).Nach dem Fundamentalsatz der Algebra (angewandt auf das charakteristische Polynom vonf) hat f einen Eigenwert λ ∈ C. Es sei v ∈ V ein zugehoriger Eigenvektor. Wir setzen

V ′ := span(v)⊥ ⊂ V.

Dann ist dimV ′ = n und f(V ′) ⊂ V ′, denn gilt w ⊥ v, so haben wir

〈v, f(w)〉 = 〈f(v), w〉 = λ〈v, w〉 = 0,

somit ist f(w) ⊥ v. Wenden wir die Induktionsvoraussetzung auf V ′ an, folgt die Behauptung.Es nehmen nun an, dass V ein euklidischer Vektorraum ist. Wir konnen im Induktionsschritt

nun nicht einfach den Fundamentalsatz der Algebra anwenden, da dieser nur fur komplexePolynome gilt. Wir argumentieren daher wie folgt: Es sei A ∈ R(n+1)×(n+1) die darstellendeMatrix von f bezuglich einer Orthonormalbasis von f . Die Matrix A ist symmetrisch, aufge-fasst als Matrix mit komplexen Eintragen ist also A Hermitesch . Nach dem Fundamentalsatzder Algebra hat A einen komplexen Eigenwert λ ∈ C. Da A Hermitesch ist, gilt aber λ ∈ R.Somit hat A in der Tat einen reellen Eigenwert. Der Rest des Induktionsschrittes lauft analogzum unitaren Fall. �

Nehmen wir hier V = Cn, bzw. V = Rn, so erhalten wir

Korollar 7.5. Es sei A ∈ Cn×n hermitesch, bzw. A ∈ Rn×n symmetrisch. Dann ist Adiagonalisierbar. Es existiert eine Orthonormalbasis bestehend aus Eigenvektoren von A.

Diese Aussage impliziert, dass eine unitare Matrix S ∈ U(n) (bzw. orthogonale Matrix

S ∈ O(n)) existiert, so dass die Matrix STAS (bzw. STAS) eine Diagonalmatrix ist, die auf

der Diagonalen nur reelle Eintrage hat. Als Spalten von S nimmt man dazu die Vektoreneiner Orthonormalbasis bestehend aus Eigenvektoren von A.

Die Besonderheiten von Satz 7.4 sind:

• Selbstadjungierte Endomorphismen sind (anders als orthogonale Endomorphismen)auch im Euklidischen Fall diagonalisierbar.• Selbstadjungierte Endomorphismen besitzen auch im unitaren Fall nur reelle Eigen-

werte.

Der Name Spektralsatz ruhrt daher, dass man die Menge der Eigenwerte eines Endomor-phismus V → V , wobei V ein endlichdimensionaler reeller oder komplexer Vektorraum ist,auch haufig als Spektrum dieses Endomorphismus bezeichnet. Diese Bezeichnung ist durchdie Physik motiviert.

66 BERNHARD HANKE

8.7.13

Beispiel.

• Ist A ∈ Rn×n symmetrisch, bzw. A ∈ Cn×n hermitesch, so ist A selbstadjungiert(aufgefasst als lineare Abbildung Rn → Rn, bzw. Cn → Cn), wenn wir Rn, bzw. Cn

mit den Standardskalarprodukten betrachten.• Es sei V ein endlichdimensionaler Euklidischer oder unitarer Vektorraum und W ⊂ V

ein Untervektorraum. Die orthogonale Projektion p⊥W : V → W ⊂ V ist dann einselbstadjungierter Endomorphismus. Ist umgekehrt p : V → V eine selbstadjungierteProjektion, dann existiert ein Untervektorraum W ⊂ V mit p = pr⊥W.• Wir betrachten den komplexen Vektorraum

V := {f : [0, 2π]→ C | f unendlich oft differenzierbar, f(0) = f(2π)}

zusammen mit dem unitaren Skalarprodukt

〈f, g〉 :=

∫ 2π

0

f(x)g(x)dx ∈ C.

Der Operator

D : f 7→ idf

dxist selbstadjungiert, denn

〈Df, g〉 =

∫ 2π

0

(Df)(x) · g(x)dx =[if(x) · g(x)

]2π0− i∫ 2π

0

f(x)d

dxg(x)dx = 〈f,Dg〉 .

Nach dem ersten Teil von Satz 7.4 sind daher alle Eigenwerte von D reell(Dass man auch eine direkte Summenzerlegung von V in Eigenraume hat, stimmt

nicht mehr ganz. Die korrekte Aussage lernt man in der Funktionalanalysis).Die Eigenwerte von D erhalt man durch Losen der Eigenwertgleichung (in diesem

Falle also der Differentialgleichung)

df

dx= −iλf

mit der Randbedingung f(0) = f(2π). Die Losungen dieser Gleichung mit der gegebe-nen Randbedingung sind gegeben durch

f(x) = A · exp(−iλx)

mit A ∈ C und λ ∈ Z. Das Spektrum von D ist also gleich Z.• Auch der sogenannte Schrodingeroperator in der Quantenmechanik ist ein selbst-

adjungierter Operator. Das Spektrum dieses Operators hat direkte physikalischeBedeutung (als mogliche Messwerte eines quantenmechanischen Systems). Die zu-gehorige

”Spektraltheorie“ ist heutzutage ein wichtiger Zweig der mathematischen

Physik.

Es sei V ein endlichdimensionaler euklidischer oder unitarer Vektorraum und λ1, . . . , λkdie (paarweise verschiedenen) reellen Eigenwerte eines selbstadjungierten Endomorphismus

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 67

f : V → V . Setzen wir Wi := Eig(f;λi), so haben wir nach den bisher bewiesenen Aussageneine Summenzerlegung

f =k∑i=1

λi · pr⊥Wi

von f als Linearkombination von selbstadjungierten Projektionen. Diese Zerlegung nennenman Spektralzerlegung von f . Diese Aussage wird in der Funktionalanalysis auf gewisseEndomorphismen zwischen unendlichdimensionalen Vektorraumen verallgemeinert und hatdort fundamentale Bedeutung.

Wir wenden nun die Diagonalisierbarkeit symmetrischer reeller Matrizen auf die Klas-sifikation symmetrischer Bilinearformen an. Zunachst eine Voruberlegung: Es sei V einendlichdimensionaler K-Vektorraum und γ : V × V → K eine Bilinearform. Sind B und CBasen von V und ist S = T CB die Matrix der Koordinatentransformation von der Basis C indie Basis B, so haben wir nach Proposition 4.3

MC(γ) = STMB(γ)S .

Da hier ST auftritt und nicht S−1, kann es durchaus vorkommen, dass MB(γ) und MC(γ)verschiedene Eigenwerte haben:

Beispiel. Wir betrachten das Standardskalarprodukt R × R → R, (x, y) 7→ xy. Bezuglichder Basis 1 von R wird dieses durch die Matrix (1) dargestellt, bezuglich der Basis 1

2von R

durch die Matrix (14). Diese haben offensichtlich verschiedene Eigenwerte.

Es ist also im Gegensatz zu Endomorphismen V → V nicht sinnvoll, von Eigenwerteneiner symmetrischen Bilinearform γ : V × V → K zu sprechen!

Trotzdem ist die Eigenwerttheorie fur die Klassifikation von Bilinearformen von Nutzen,denn es gilt S−1 = ST , falls K = R und falls S ∈ O(n). Fur symmetrische Bilinearformenuber R folgt zum Beispiel aus dem Spektralsatz:

Satz 7.6. Es sei V ein endlichdimensionaler R-Vektorraum und γ : V ×V → R eine symme-trische Bilinearform. Dann existiert eine Basis B von V , so dass MB(γ) eine Diagonalmatrixist.

Beweis. Es sei zunachst A ∈ Rn×n die darstellende Matrix von γ bezuglich einer beliebigenBasis C von V . Dann ist A symmetrisch. Es gibt also eine orthogonale Matrix S ∈ O(n), sodass STAS eine Diagonalmatrix ist. Da S ∈ GL(n;R), gibt es genau eine Basis B von V , sodass S = TBC (die Spalten von S sind die Koordinaten der Basisvektoren in B bezuglich derBasis C). Nach Konstruktion ist dann B die gesuchte Basis. �

Falls V = Rn, so konnen wir (wieder nach dem Spektralsatz) die Basis B sogar alsOrthonormalbasis (fur das Standard-Skalarprodukt auf Rn) wahlen. Die von den Vektoreneiner solchen Basis aufgespannten eindimensionalen Unterraume des Rn bezeichnet man indiesem Zusammenhang auch als Hauptachsen fur die gegebene Bilinearform γ.

Diese Bezeichnung wird klar, wenn wir den Zusammenhang zu quadratischen Formenherausarbeiten.

68 BERNHARD HANKE

Definition. Eine quadratische Form vom Rang n uber einem Korper K ist ein PolynomQ ∈ K[X1, . . . , Xn] der Form

Q =∑

1≤i,j≤n

αijXiXj

mit αij ∈ K fur alle i, j ∈ {1, . . . , n}. Man sagt auch, Q ist ein homogenes Polynom vomGrad 2.

Ist Q eine quadratische Form, so definiert Q eine Abbildung φQ : Kn → K, gegeben durch

(x1, . . . , xn) 7→ Q(x1, . . . , xn) ,

also durch Einsetzen der Korperelemente x1, . . . , xn in die Unbestimmten X1, . . . , Xn. Wirbetrachten im Folgenen diese Funktion φQ genauer. Fassen wir die Koeffizienten in Q zu einerMatrix

A := (αij)1≤i,j≤n ∈ Kn×n

zusammen, so konnen wir φQ durch die Formel

φQ(x) = xTAx

beschreiben, wobei

x =

x1...xn

∈ K .

Ist γ : Kn ×Kn → R die durch A beschriebene Bilinearform, also

γ(x, y) = xTAy

fur Spaltenvektoren x, y ∈ Kn, so haben wir

φQ(x) = γ(x, x) .

10.7.13

Es stellt sich folgende Frage: Konnen wir die quadratische Form Q, also die Matrix A undsomit die Bilinearform γ aus der quadratischen Funktion φQ : Rn → R zuruckgewinnen?

Proposition 7.7. Dies ist moglich, falls 2 6= 0 in K gilt.

(Dies ist zum Beispiel fur K = R oder K = C der Fall).

Beweis. Die quadratische Form Q (und damit die Funktion φQ) andert sich nicht, wenn wirjeden Koeffizient αij durch

αij + αji2

ersetzen. Die so erhaltende quadratische Form Q ∈ K[X1, . . . , Xn] ist symmetrisch, d.h. diezugehorige Matrix A = (αij) ∈ Kn×n (und die entsprechende Bilinearform) sind symmetrisch.

Wir konnen also davon ausgehen, dass A symmetrisch ist.Im diesem Falle konnen die Eintrage von A durch die schon fruher betrachtete Polarisie-

rungsformel

αij = eTi Aej =1

2(φQ(ei + ej)− φQ(ei)− φQ(ej))

zuruckgewonnen werden, wobei e1, . . . , en ∈ Kn die Standard-Basisvektoren sind. �

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 69

Wir spezialisieren uns nun auf den Fall K = R und betrachten eine reelle symmtrischequadratische Form, gegeben durch eine symmetrische Matrix A ∈ Rn×n.

Durch Hauptachsentransformation konnen wir die zugehorige quadratische Form Q in einebesonders einfache Gestalt bringen:

Wir wahlen eine Orthonormalbasis B von Rn bestehend aus Eigenvektoren von A. Essei C = (e1, . . . , en) die Standardbasis von Rn, so dass mit der TransformationsmatrixS := TBC ∈ O(n) die Gleichung

MB(γ) = STAS =

λ1 0. . .

0 λn

=: D

gilt. Sind v, w ∈ Rn und x, y die Koordinatenvektoren bezuglich der Basis B, so gilt also

vTAw =n∑i=1

λixiyi.

Insbesondere erhalten wir

φQ(v) =n∑i=1

λix2i .

Nach der Hauptachsentransformation werden also gemischte Terme in der quadratischenForm Q eliminiert und diese wird durch eine besonders einfache Formel dargestellt: Durcheine Summe reiner Quadrate.

Den Ubergang zu dem Orthonormalsystem B bezeichnet man als Hauptachsentransforma-tion, denn die Losungsmenge der Gleichung

φQ(x) = 1

wird zum Beispiel im Fall, dass alle Eigenwerte λi positiv sind, durch ein Ellipsoid mit denHauptachsen beschrieben, die durch die Basisvektoren der Orthonormalbasis B gegeben sind.

Beispiel. Wir interessieren uns fur die Losung der Gleichung

φ(x1, x2) = 5x21 − 6x1x2 + 5x2

2 = 1

im R2. Mit der symmetrischen Matrix

A :=

(5 −3−3 5

)gilt mit x =

(x1

x2

)die Gleichung

φ(x1, x2) = xTAx.

Fur das charakteristische Polynom von A erhalten wir

PA = X2 − 10X + 16 = (X − 8)(X − 2).

Die Eigenwerte von A sind also λ1 = 8 und λ2 = 2. Zugehorige normierte Eigenvektoren sind

v1 =1√2

(11

), v2 =

1√2

(−11

).

70 BERNHARD HANKE

Ist x = (x1, x2) ∈ R2, so sei y = (y1, y2) der zugehorge Koordinatenvektor bezuglich derOrthonormalbasis (v1, v2) von R2. Wir erhalten

φ(x1, x2) = 8y21 + 2y2

2.

Daher ist die Losung der Gleichung φ(x1, x2) = 1 die Ellipse mit den Hauptachsen R · v1 undR · v2 und zugehorigen Radien 1

2√

2und 1√

2.

Allgemeiner konnen wir mit dieser Methode affine Quadriken im Rn untersuchen:

Definition. Eine affine Quadrik im Rn ist eine Teilmenge der Form

{x ∈ Rn | xTAx+ 〈b, x〉+ c = 0} ⊂ Rn.

Hierbei ist A ∈ Rn×n, wobei A ohne Einschrankung der Allgemeinheit als symmetrischangenommen werden kann, b ∈ Rn sowie c ∈ R.

Eine affine Quadrik im R2 nennt man einen Kegelschnitt.

Der Name Kegelschnitt ruhrt daher, dass affine Quadriken im R2 genau diejenigen Figurenliefern, die durch Schnitte der Oberflache eines Kreiskegels im R3 mit einer Ebene im R3

entstehen.Es ist bemerkenswert, dass Albrecht Durer in seiner berumten Unterweisung aus dem Jahre

1525 annahm, der Schnitt einer (geeigneten) Ebene mit einem Kreiskegel sei eiformig undkeine Ellipse. Ein einfacher Beweis, dass hierbei tatsachlich Ellipsen entstehen, kann mit denDandelinschen Kugeln gefuhrt werden, siehe den Wikipedia-Artikel zu diesem Thema.

Die Untersuchtung einer allgemeinen affinen Quadrik Q geschieht nach folgendem Schema:

• Zunachst bringt man A durch Wahl einer geeigneten Orthonormalbasis von Rn in Dia-gonalgestalt (Hauptachsentransformation). Wir bezeichnen die neuen Koordinaten vonRn bezglich dieser Orthonormalbasis mit (y1, . . . , yn). Bezuglich dieser Koordinatenist Q gegeben als

Q = {y ∈ Rn |n∑i=1

λiy2i + 〈d, y〉+ e = 0} ⊂ Rn,

wobei d ∈ Rn und e ∈ R. In dieser Gleichung sind λ1, . . . , λn die Eigenwerte von A.• Falls λi 6= 0, so kann man im linearen Term 〈d, x〉 = d1y1 + . . .+dnyn den Summandendiyi durch quadratische Erganzung eliminieren. Dabei wir die Koordinate yi durchyi + γi mit einem geeigneten γi ∈ R ersetzt.• Bis auf eine orthogonale Transformation und Verschiebung des Koordinatenursprungs

ist also Q gegeben als Losungsmenge einer Gleichung der Form

λ1x11 + . . .+ λkx

2k + bk+1xk+1 + . . .+ blxl + c = 0

im Rn, wobei λ1, . . . , λk, bk+1, . . . , bl, c ∈ R. Derartige Losungsmengen kann manubersichtlich klassifizieren.

Dies fuhrt auf klassische Gebilde wie Zylinder, Kegel, Spharen, Ellipsoide, Hyper-boloide und die hoherdimensionalen Analoga.

Als Kegelschnitte (d.h. im Fall n = 2) treten Ellipsen, Hyperbeln, Parabeln und -im ausgearteten Fall - Geraden und Punkte auf.

In der algebraischen Geometrie werden Nullstellengebilde von Polynomen beliebiger Gradein mehreren Unbestimmten in systematischer Weise untersucht.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 71

15.7.13

Wir kehren nun noch einmal zu den symmetrischen Bilinearformen auf reellen Vektorraumenzuruck.

Wir wir bereits gesehen haben (siehe das Beispiel auf Seite 67), hangen die Eigenwerte derdarstellenden Matrix einer solchen symmetrischen Bilinearform von der gewahlten Basis desVektorraumes ab.

Die auftretenden Vorzeichen dieser Eigenwerte sind jedoch Invarianten der Bilinearform(d.h. von der gewahlten Basis unabhangig):

Satz 7.8 (Tragheitssatz von Sylvester). Es sei V ein endlichdimensionaler reeller Vektorraumder Dimension n und

γ : V × V → Reine symmetrische Bilinearform. Es seien B und C zwei Basen von V und S := MB(γ) undT := MC(γ) die entsprechenden darstellenden Matrizen. Es seien s+ und s− die Anzahlender positiven, bzw. negativen Eigenwerte von S. Entsprechend definieren wir t+ und t−.

Dann gilt

s+ = t+ , s− = t− .

Beweis. Wir konnen nach dem Spektralsatz annehmen (durch Diagonalisieren der Matrizen Sund T mittels Orthonormalbasen von Rn), dass die darstellenden Matrizen S und T diagonalsind. Wir schreiben

B = (v1, . . . , vn),

bezeichnen die zugehorigen Eigenwerte von S mit λ1, . . . , λn und definieren die Untervek-torraume

• V +B := span{vi|λi > 0},

• V −B := span{vi|λi < 0},• V 0

B := span{vi|λi = 0}von V . Ensprechende Untervektorraume definieren wir fur die Basis C.

Diese Untervektorraume von V hangen nach Definition von den Basen B und C ab. Es giltjedoch

V 0B = {v ∈ V | γ(w, v) = 0 fur alle w ∈ V } ,

wobei der in der Mitte stehenden Untervektorraum von V offensichtlich nicht von B anbhangt.Zum Beweis dieser Gleichung sei zunachst v ∈ V 0

B , also

v =∑i∈I

αivi

wobei λi = 0 fur alle i ∈ I. Es sei w ∈ V beliebig. Wir schreiben

w =n∑j=1

βjvj.

Dann gilt

γ(v, w) =∑

i∈I,j=1,...,n

αiβjγ(vi, wj) = 0.

denn γ(vi, wj) = 0 fur alle i ∈ I und j = 1, . . . , n.

72 BERNHARD HANKE

Sei nun umgekehrt

v =n∑i=1

αivi ∈ {v ∈ V | γ(w, v) = 0 fur alle w ∈ V }.

Angenommen, es gibt ein j ∈ {1, . . . , n} mit αj 6= 0 und λj 6= 0. Dann gilt

γ(v, vj) = αjλj 6= 0,

im Widerspruch zur Wahl von v (setze fur den Widerspruch w := vj). Somit gilt v ∈ V 0B und

das war zu zeigen.Entsprechend zeigt man

V 0C = {v ∈ V | γ(w, v) = 0 fur alle w ∈ V }.

Es folgtV 0B = V 0

C

und insbesondere haben diese Raume die gleiche Dimension.Da V = V +

B ⊕V−B ⊕V 0

B = V +C ⊕V

−C ⊕V 0

C und s+ = dimV +B , s− = dimV −B sowie t+ = dimV +

C ,t− = dimV −C , brauchen wir also nur noch dimV +

B = dimV +C zu zeigen. Nach Definition der

entsprechenden Raume gilt aber

V +B ∩ (V −C ⊕ V

0C ) = 0 ,

denn ist v ∈ V im Schnitt dieser Raume, so gilt

• γ(v, v) > 0, falls v 6= 0 (wegen v ∈ V +B ),

• γ(v, v) ≤ 0 (wegen V ∈ V −C ⊕ V 0C ) ,

und das kann nur erfullt sein, wenn v = 0.Es folgt

dimV +B ≤ n− (dimV −C + dimV 0

C ) = dimV +C .

Entsprechend zeigt man die umgekehrte Ungleichung. �

Wir bemerken, dass im vorigen Beweis in der Regel nicht V +B = V +

C gilt:

Beispiel. Es sei γ : R2 × R2 → R die durch (x, y) 7→ xTAy gegebene symmetrische Bilinear-form, wobei

A =

(1 00 0

).

Mit B := (e1, e2) und C := (e1 + e2, e2). Gilt

V +B = span(e1), V +

C = span(e1 + e2).

Die Anzahl der positiven und negativen Eigenwerte, bzw. des Eigenwertes 0 einer darstel-lenden Matrix von γ hangt nach dem Sylvesterschen Tragheitssatz nicht von der gewahltenBasis ab. Diese Anzahlen sind daher Invarianten der Bilinearform γ. Sie werden mit r+(γ),r−(γ) und r0(γ) bezeichnet. Die Zahlen r+(γ) und r−(γ) fasst man manchmal auch zur Signa-tur (r+, r−) von γ zusammen. Symmetrische Bilinearformen der Signatur (1, 3) (manchmalauch (+,−,−,−) geschrieben) auf vierdimensionalen reellen Vektorraumen werden in derRelativitatstheorie untersucht.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 73

Korollar 7.9. (Normalform fur reelle symmetrische Bilinearformen) Es sei V ein endlich-dimensionaler reeller Vektorraum der Dimension n und γ : V × V → R eine symmetrischeBilinearform der Signatur (r+, r−) (folglich r0 = n− (r+ + r−)). Dann existiert eine Basis Bvon V , so dass

MB(γ) =

Er+ 0−Er−

0 0

wobei die 0 unten rechts die Nullmatrix in Rr0×r0 bezeichnet.

Beweis. Wir wahlen eine Basis C := (w1, . . . , wn) von V bezuglich der die darstellende Matrixvon γ in Diagonalform ist. Wir konnen annehmen, dass die ersten r+ Eigenwerte positivsind, die nachsten r− Eigenwerte negativ und die verbleibenden r0 Eigenwerte gleich 0. Wirdefinieren nun eine neue Basis B = (v1, . . . , vn) durch

vi :=wi√|γ(vi, vi)|

falls 1 ≤ i ≤ r+ + r− und

vi = wi

sonst. Diese Basis hat die im Korollar behauptete Eigenschaft. �

Definition. Es sei V ein endlichdimensionaler reeller Vektorraum und γ : V × V → R einesymmetrische Bilinearform. Wir nennen γ

• positiv definit, falls γ(v, v) > 0 fur alle v ∈ V mit v 6= 0,• positiv semidefinit, falls γ(v, v) ≥ 0 fur alle v ∈ V ,• negativ definit, falls γ(v, v) < 0 fur alle v ∈ V mit v 6= 0,• negativ semidefinit, falls γ(v, v) ≤ 0 fur alle v ∈ V ,• indefinit, falls es v, w ∈ V gibt mit γ(v, v) > 0 und γ(w,w) < 0.

Wir nennen eine symmetrische Matrix A ∈ Rn×n positiv definit, wenn die durch A gegebeneBilinearform (x, y) 7→ xTAy positiv definit ist. Entsprechend definieren wir die anderen obigenEigenschaften fur A.

Wir erinnern daran, dass positiv definite symmetrische Bilinearformen auf einem reellenVektorraum Skalarprodukte genannt werden.

Folgende Aussagen folgen direkt aus den Definitionen.

Proposition 7.10. Es sei V ein reeller Vektorraum, n := dimV und γ : V × V → R einesymmetrische Bilinearform der Signatur (r+, r−). Dann gilt folgendes:

• γ ist genau dann positiv definit, falls r+ = n.• γ ist genau dann positiv semidifinit, falls r− = 0.• γ ist genau dann indefinit, falls r+ > 0 und r− > 0.

Entsprechende Aussage gelten fur negative (Semi-)Definitheit.

Das folgende Kriterium ist manchmal nutzlich, um zu entscheiden, ob eine symmetrischeBilinearform positiv definit ist. Dies findet zum Beispiel Anwendung bei der Bestimmunglokaler Extrama differenzierbarer Abbildungen U → R mit Hilfe der Hesse-Matrix, wobeiU ⊂ Rn eine offene Teilmenge ist.

74 BERNHARD HANKE

Satz 7.11 (Hauptminoren-Kriterium/Hurwitz-Kriterium). Es sei A ∈ Rn×n eine symme-trische Matrix. Fur k = 1, . . . , n bezeichnen wir mit Hk ∈ R die Determinante der linkenoberen (k × k)-Teilmatrix Ak von A. (Wir nennen Hk auch den k-ten Hauptminor von A.)

Dann sind folgende Aussagen aquivalent:

• A ist positiv definit.• Hk > 0 fur alle k = 1, . . . , n.

Beweis. Es sei zunachst A positiv definit. Dann ist fur alle k = 1, . . . , n die Teilmatrix Akebenfalls positiv definit. Sei zum Beweis dieser Aussage k ∈ {1, . . . , n}. Es sei

x :=

x1...xk

∈ Rk,

wobei x 6= 0. Wir setzen

y :=

x1...xk0...0

∈ Rn.

Dann gilt in der Tat

xTAkx = yTAy 6= 0

da A positiv definit ist. Also ist auch Ak positiv definit, wie behauptet. Nach Proposition7.10 hat Ak nur positive Eigenwerte. Somit gilt Hk = detAk > 0.

Sei umgekehrt Hk = detAk > 0 fur alle k = 1, . . . , n. Wir behaupten, dass A positiv definitist. Wir machen dazu Induktion nach n.

Fur n = 1 ist klar, dass A = A1 positiv definit sein muss, da A nur einen einzigen Eintraga hat und a = detA = detA1 > 0 nach Voraussetzung.

Sei die behauptete Implikation nun fur alle Matrizen in R(n−1)×(n−1) gezeigt. Es sei A ∈ Rn×n

und Hk > 0 fur alle k = 1, . . . , n. Die Teilmatrix An−1 ist nach dieser Annahme und nach derInduktionsvoraussetzung positiv definit. Daher ist die Einschrankung von A auf den TeilraumV := span(e1, . . . , en−1) von Rn positiv definit.

Wir behaupten, dass in der Signatur (r+, r−) von A die Abschatzung r+ ≥ n− 1 geltenmuss. Angenommen, dies ist nicht der Fall. Dann gibt es einen Unterraum W ⊂ Rn derDimension mindestens zwei, auf dem A negativ semidefinit ist. Wegen dimV + dimW > ngilt dann V ∩W 6= 0. Es sei v ∈ V ∩W mit v 6= 0. Dann ist vTAv > 0, weil v ∈ V undvTAv ≤ 0, weil v ∈ W , ein Widerspruch. Also gilt in der Tat r+ ≥ n− 1.

Transformieren wir A in Diagonalform, sind also mindestens n− 1 der Diagonaleintragepositiv. Da Hk = detA > 0 muss daher auch der n-te Diagonaleintrag positiv sein. Somit giltr+ = n und A ist in der Tat positiv definit. �

Wir bemerken, dass A negativ definit genau dann ist, wenn −A positiv definit ist. Somitsind die beiden folgenden Aussagen aquivalent:

• A ∈ Rn×n ist negativ definit.• (−1)kHk > 0 fur alle k = 1, . . . , n.

LINEARE ALGEBRA UND ANALYTISCHE GEOMETRIE II (SS 13) 75

Fur hermitesche Sesquilinearformen auf endlichdimensionalen unitaren Vektorraumengelten der Sylvestersche Tragheitssatz und das Hauptminorenkriterium in analoger Weise.Nahre Informationen dazu finden sich in [Fischer].