196
Lineare Algebra und Geometrie I & II Prof. Dr. Peter Eichelsbacher Wintersemester 2006/2007 Sommersemester 2007

Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

  • Upload
    others

  • View
    21

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Lineare Algebra und Geometrie I & II

Prof. Dr. Peter Eichelsbacher

Wintersemester 2006/2007Sommersemester 2007

Page 2: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes
Page 3: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Inhaltsverzeichnis

I Lineare Algebra und Geometrie I 9

1 Aussagenlogik und Beweismethoden 11

1.1 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2 Pradikatenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.3 Beweismethoden . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Mengen, Relationen, Abbildungen 19

3 Gruppen, Ringe, Korper 29

3.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.2 Ringe und Korper . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Lineare Gleichungssysteme 37

5 Matrizen 47

6 Vektorraume 55

7 Basis eines Vektorraums 59

8 Basiswechsel, Koordinaten 67

9 Matrizen und lineare Gleichungssysteme 71

10 Lineare Abbildungen 75

11 Komplexe Zahlen (Intermezzo) 89

12 Determinanten 91

3

Page 4: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

13 Invariante Unterraume 105

II Lineare Algebra und Geometrie II 111

14 Eigenwerte und Eigenvektoren 113

15 Bilinearformen, Gramsche Matrix 123

16 Normalformen von Bilinearformen 127

16.1 Diskussion der Normalform symmetrischer Bilinearformen . . . 129

16.2 Diskussion der Normalform einer Hermiteschen Form (K = C) . 132

16.3 Diskussion der Normalform im symplektischen Fall . . . . . . . 133

17 Das Gram-Schmidtsche Orthogonalisierungsverfahren 137

18 Isometrien 143

19 Euklidische und unitare Vektorraume 149

20 Orthogonale und unitare Matrizen 157

21 Selbstadjungierte Endomorphismen 165

22 Minimalpolynome und der Satz von Cayley-Hamilton 169

23 Nilpotente Endomorphismen & Jordansche Normalform 177

4

Page 5: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Mit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffesder Linearitat von Abbildungen zwischen geeigneten mathematischen Objek-ten und seiner Verwendung und Veranschaulichung bei Realisierungen in Geo-metrie und Analysis befasst. Heutzutage steht die Algebra im Vordergrund,aber das Wechselspiel mit der Geometrie soll auch betrachtet werden.

Worum es geht, soll am Beispiel einer “einfachen Situation” beschrieben wer-den: Gegeben seien zwei (lineare) Gleichungen mit zwei Unbekannten:

ax+ by = rcx+ dy = s

}(∗)

a, b, c, d, r, s seien fest vorgegebene Zahlen. Wir nennen den zugrundeliegen-den Zahlenbereich K. Eine Losung von (∗) (in K) ist ein geordnetes Paar(x, y) ∈ K × K, so dass nach Einsetzen von x statt x und y statt y in (∗)beide Gleichungen wahr bzw. erfullt sind. Finde alle Losungen von (∗) undbeschreibe die Losungen!

Im Zahlenbereich K soll es zwei Verknupfungen + und · geben:

K×K→ K, (x, y) 7→ x+ yK×K→ K, (x, y) 7→ x · y oder xy.

Diese Verknupfungen sollten gewissen Bedingungen genugen. ax+ by soll etwa((a · x) + (b · y)) bedeuten: Multiplikation bindet starker als Addition.

Beispiele von Zahlbereichen

N = {1, 2, 3, 4, . . .} naturliche Zahlen

Z = {0, 1,−1, 2,−2, . . .} ganze Zahlen

Q = {a/b : a, b ∈ Z, b 6= 0} rationale Zahlen

R = reelle Zahlen

C = komplexe Zahlen

Wie losen wir (∗)? Angenommen, (x, y) lost (∗) :

ax+ by = r, cx+ dy = s.

Multipliziere mit d :dax+ dby = dr

Multipliziere mit b :bcx+ bdy = bs

Wenn bd = db gilt und man in K subtrahieren kann (geht in N nicht: die Diffe-renz zweier naturlicher Zahlen ist im allgemeinen nicht wieder eine naturlicheZahl), so erhalten wir

(ad− bc)x = dr − bs

5

Page 6: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(Wir haben ad = da und das Distributivgesetz vorausgesetzt!)

Es sei △ := ad− bc.1. Fall: △ = 0. Ist auch dr − bs = 0, so folgt fur x nichts. Ist dr − bs 6= 0, sokann es mit △x = 0 kein x mit △x = dr − bs geben.

2. Fall: △ 6= 0. Dann ist x = △−1(dr − bs), wenn △−1 := 1△ ∈ K ein multipli-

katives Inverses zu △ bezeichnet: △△−1 = 1. Analog y = △−1(as− cr).In Q,R,C gibt es zu jedem △ 6= 0 ein solches Inverses. Fur diese Zahlbereichegibt es hochstens eine Losung;

a△−1(dr − bs) + b△−1(as− cr) = △−1(adr − bcr) = △−1△r = 1 · r = r,

ebenso folgt die Rechnung fur die zweite Gleichung.

Analyse: Wir machen von gewissen “Axiomen” Gebrauch (denen eines“Korpers”), ohne auf die Bedeutung der Zahlen zuruckzugreifen.

⇒ Erfullt K “hinreichend viele” Axiome und ist△ = ad−bc 6= 0, so besitzt (∗)genau eine Losung in K. Ist △ = 0, so braucht (∗) keine Losung zu besitzen,kann aber auch mehr als eine Losung haben.

N,Z erfullen nicht alle diese Axiome. Wir mussen, wenn moglich, in einengroßeren Zahlbereich (Korper) einbetten. Der kleinste Korper, der N bzw. Zenthalt, ist Q (eine Tatsache, die man noch nicht wissen muß).

Geometrie: Die Gleichung ax + by = r beschreibt eine Gerade in R2. Wirnehmen K = R (!) (wenn a, b nicht beide gleich 0 sind). Vermutlich erkenntman es so “wieder”:

y = b−1(r − ax) =r − axb

=r

b− a

bx

analog

y = d−1(s− cx) =s

d− c

dx

(y = ax+ b)

ax+ by = r konnen wir auch die Normalenform nennen. An diese Dinge kannin der ersten Ubung erinnert werden.

Zwei Geraden ax + by = r, cx + dy = s haben die gleiche Steigung (und sinddann parallel oder identisch), wenn

a

b=c

d⇔ ad = cb

⇔ △ = ad− bc = 0

es ex.λ : c = λa, d = λboderes ex.µ : a = µc, b = µd

⇔ (a, b) und (c, d) “linear abhangig”

6

Page 7: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

uber R : (a, b) = (µc, µd) bzw. (c, d) = (λa, λb).

-

6

���������������

���������������

Abb. 1:

Die vorletzte Aquivalenzumformung bedarf einer genaueren Begrundung:

Wahle λ = ca−1, wenn a 6= 0 : (λa = c; . . .)Wahle λ = db−1, wenn b 6= 0oder λ = 0, wenn c = d = 0; usw.

In den Ubungen wird dies ausfuhrlich diskutiert.

7

Page 8: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

8

Page 9: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Teil I

Lineare Algebra und GeometrieI

9

Page 10: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes
Page 11: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 1

Aussagenlogik und Beweismethoden

1.1 Aussagenlogik

1.1 Definition Eine Aussage ist ein als Satz formulierter Gedanke, dem manauf sinnvolle Weise einen Wahrheitswert zuordnen kann. Als Werte sind nur“wahr” oder “falsch” zugelassen (“zweiwertige Logik”).

Im strengen mathematischen Sinn ist dies keine Definition. Die obige “Er-klarung” ist eine Hilfe, um zwischen Aussagen und Nicht-Aussagen unterschei-den zu konnen. Am besten lernen wir an Hand von - moglichst vielen - Bei-spielen.

1.2 Beispiele

(1) 625 ist eine Quadratzahl .

(2) 17 ist eine Primzahl .

(3) a2 + b2 = c2 (Was sind a, b, c? Wenn dies klar ist, dann liegt eine Aussage vor.)

(4) Wann geht morgen die Party los? (grammatikalisch richtiger Satz, aber Frage-satz: ist keine Aussage)

(5) Papageien konnen rechnen.

(6) Wo ist NA 3/68? (siehe oben: ist keine Aussage)

Wir sind primar an mathematischen Aussagen interessiert. Aussagen kann manverknupfen.

1.3 Beispiele

(1) Sie zahlen Studiengebuhren und ich habe 3 Kinder.

(2) Der Dekan leitet unsere Fakultat oder er rudert.

(3) Wenn ich morgen nicht krank bin, komme ich zur Ersti-Party.

Verknupfungen heißen Junktionen.

1.4 Definition Unter der Konjunktion zweier Aussagen A und B verstehtman die Aussage A ∧ B (“A und B”), die genau dann wahr ist, wenn A undB gleichzeitig wahr sind.

11

Page 12: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Die Wahrheitstafel zu Definition 1.4 sieht folgendermaßen aus:

A B A ∧Bw w ww f ff w ff f f

(In der Wahrheitstafel bezeichne w wahr, f falsch.)

1.5 Beispiele

(1) 18 ist eine gerade Zahl und durch 3 teilbar. (w)

(2) 7 ist eine Primzahl und eine gerade Zahl. (f)

1.6 Definition Unter der Disjunktion zweier Aussagen A und B versteht mandie Aussage A ∨ B (“A oder B”), die genau dann wahr ist, wenn wenigstenseine der beiden Aussagen wahr ist.

A B A ∨Bw w ww f wf w wf f f

1.7 Beispiel 7 ist eine Primzahl oder eine gerade Zahl. (w)

Eine logische Disjunktion ist auch dann wahr, wenn beide Aussagen wahr sind:man spricht vom nicht ausschließenden Sinn.

1.8 Definition Unter der Negation einer Aussage versteht man die Aussage¬A (“nicht A”), die genau dann wahr ist, wenn A falsch ist.

A ¬Aw ff w

1.9 Beispiele

(1) Aussage: 4 ist ungerade. Negation: 4 ist gerade

(2) Der Stein ist schwer. Die Negation: Der Stein ist nicht schwer. (nicht etwa: DerStein ist leicht.)

(3) Es sind mehr Studenten als Studentinnen hier. Negation: Es sind mindestensso viele Studentinnen wie Studenten hier.

12

Page 13: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

1.10 Definition Unter der Implikation A ⇒ B (in Worten: A impliziert B)versteht man B ∨ (¬A).

A B ¬A B ∨ ¬Aw w f ww f f ff w w wf f w w

Wenn A die Aussage B impliziert und A wahr ist, muss B wahr sein! (logischeFolgerung)A : Voraussetzung, PramisseB : Behauptung, Conclusio

Diese logische Verknupfung kann auch dann gebildet werden, wenn diePramisse falsch ist.

1.11 Beispiele

(1) (1 = 0)⇒ (3 ≥ 4) ist wahr

(2) Wenn 2 · 2 = 5 ist, bin ich der Kanzler.

(3) In der Euklidischen Geometrie betragt die Winkelsumme im Dreieck immer180◦. (Pramisse?)

(4) A ∧B ⇒ A ist eine wahre Implikation. A B A ∧B A ∧B ⇒ Aw w w ww f f wf w f wf f f w

1.12 Definition Unter der logischen Aquivalenz A⇔ B (“A gilt genau dann,wenn B gilt”) versteht man die Aussage (A⇒ B) ∧ (B ⇒ A).

A B A⇔ Bw w ww f ff w ff f w

Zwei Aussagen sind also genau dann logisch aquivalent, wenn sie den gleichenWahrheitswert besitzen.

13

Page 14: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

1.13 Definition Aussagen, die aufgrund ihrer logischen Struktur immer wahrsind, heißen Tautologien.

1.14 Beispiele Die folgenden Aussagen sind Tautologien:

(1) (A⇒ B)⇔ (B ∨ (¬A))

(2) ¬(¬A)⇔ A

(3) de Morgan’sche Regeln:¬(A ∧B)⇔ (¬A) ∨ (¬B)¬(A ∨B)⇔ (¬A) ∧ (¬B)(Negation der Disjunktion ist Konjunktion von Negationen,...)

(4) KommutativgesetzeA ∧B ⇔ B ∧ AA ∨B ⇔ B ∨ A

(5) AssoziativgesetzeA ∧ (B ∧ C)⇔ (A ∧B) ∧ CA ∨ (B ∨ C)⇔ (A ∨B) ∨ C

(6) DistributivgesetzeA ∧ (B ∨ C)⇔ (A ∧B) ∨ (A ∧ C)A ∨ (B ∧ C)⇔ (A ∨B) ∧ (A ∨ C)

(7) Abtrennungsregel(A ∧ (A⇒ B))⇒ B

(8) Syllogismus-Regel((A⇒ B) ∧ (B ⇔ C))⇒ (A⇒ C)

(9) Kontrapositionsgesetz(A⇒ B)⇔ (¬B ⇒ ¬A)

Beweis: (1) ist nach Definition klar. Auch (2) ist einfach zu beweisen. Zu (3)betrachte

A B ¬A ¬B A ∧B ¬(A ∧B) (¬A) ∨ (¬B)w w f f w f fw f f w f w wf w w f f w wf f w w f w w

(4), (5) und (6) folgen aus Aufgabe 1, Blatt 1; (7), (8) und (9) zeigt man mitAufgabe 2, Blatt 1 �

14

Page 15: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Das Distributivgesetz liefert

A ∧ (A⇒ B) ⇔ A ∧ (B ∨ ¬A)

⇔ (A ∧B) ∨ (A ∧ ¬A)

⇔ A ∧B,

denn der zweite Teil der vorletzten Zeile ist immer falsch.

1.15 Satz Ist A eine Tautologie und A⇔ B wahr, so ist auch B eine Tauto-logie.

Beweis: Erinnere A B A⇔ Bw w ww f ff w ff f w

In der ersten Zeile sind A und A⇔ B wahr, also auch B. �

1.2 Pradikatenlogik

Wir betrachten Aussagen der Form A(x), die eine Variable x enthalten, und beider einem Objekt x aus einer Grundgesamtheit G eine Eigenschaft (Pradikat)zugeordnet wird. Fur festes x ist A(x) eine Aussage.

1.16 Beispiele

(1) x2 = 1

(2) x ist Student in Bielefeld

(3) x2 + y2 = z2, x, y, z ∈ Z; logische Pradikate mit mehreren Variablen x, y, z

Wir fuhren nun den Existenzquantor ∃, und den Allquantor ∀ ein:

1.17 Definition A(x), B(x) seien Aussageformen / logische Pradikate. Dannist ∃xA(x) (“es existiert ein x mit A(x)”, “es existiert ein x, so dass A(x) wahrist”) eine Aussage, die genau dann wahr ist, wenn es ein x gibt, fur das A(x)eine wahre Aussage ist.∀xB(x) (“fur alle x gilt B(x)”) ist eine Aussage, die genau dann wahr ist,wenn B(x) fur alle x (aus der Grundgesamtheit G) wahr ist.(expliziter: ∃x∈GA(x); ∀x∈GB(x))

15

Page 16: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

1.18 Beispiele

(1) ∃x∈Q : x2 = 2

(2) ∀x≥2 : x2 ≥ 4

(3) ∀x∈Z : (∃y∈Z : 3x− y = 2)

1.19 Satz¬(∃xA(x))⇔ ∀x(¬A(x))

¬(∀xA(x))⇔ ∃x(¬A(x))

Das heißt: Die Aussage ∃xA(x) ist genau dann falsch, wenn A(x) falsch ist furalle x; ebenso ist ∀xA(x) genau dann falsch, wenn es ein x gibt, fur das A(x)falsch ist. Den Beweis hierfur lassen wir zunachst aus.

Pradikate mit mehreren Variablen ermoglichen Formen wie ∀x∈F ∃y∈GA(x, y)oder ∀x∈F ∃y∈G ∀z∈H A(x, y, z). Aber ∀x∈F ∃y∈GA(x, y) ist nicht das gleiche wie∃y∈G ∀x∈F A(x, y).

1.20 Beispiel A(x, y) : x− y2 = 0.∀x≥0 ∃y∈R A(x, y) : zu jeder nichtnegativen reellen Zahl x existiert eine Losungvon x − y2 = 0. Diese Aussage ist wahr. ∃y∈R ∀x≥0A(x, y) bedeutet hingegen,dass es eine reelle Zahl y gibt mit x−y2 = 0 fur alle x ≥ 0. Dies ist eine falscheAussage.

Ein Beispiel auf die Analysis: (an)n∈N mit an ∈ R, n ∈ N sei eine Folge. Siekonvergiert gegen eine reelle Zahl a, wenn fur alle ε > 0 eine naturliche ZahlN(ε) > 0 existiert, so dass fur alle n ≥ N(ε) gilt: |an − a| ≤ ε.

∀ε>0 ∃N(ε)∈N ∀n≥N(ε) (|an − a| ≤ ε).

Um zu zeigen, dass eine Folge (an)n∈N nicht gegen a konvergiert, muss manzeigen:

∃ε>0 ∀N∈N ∃n≥N (|an − a| > ε).

1.3 Beweismethoden

In der Mathematik wird eine wahre Aussage oft als Satz bezeichnet. Manverwendet daruber hinaus auch den Begriff Theorem (ein besonders wichtigerSatz), Lemma (Hilfssatz) und Korollar (eine direkte oder leichte Folgerungaus einem unmittelbar vorangehenden Satz). Besonders haufig treten Satze inder Form A⇒ B auf, also wahre Aussagen der Form ¬A ∨ B. Es ist, wie wirschon diskutiert hatten, nur der Fall interessant, in dem A wahr ist. In diesem

16

Page 17: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Fall ist A⇒ B genau dann wahr, wenn B wahr ist.Um unter der Voraussetzung der Richtigkeit der Aussage A zu zeigen, dassA ⇒ B richtig, d.h. der Satz A ⇒ B gultig ist, muss man beweisen, dass dieBehauptung B richtig ist.

Direkter Beweis: Verwendet wird die Tautologie

(A⇒ C) ∧ (C ⇒ B)⇒ (A⇒ B).

Man zerlegt die Aussage in bereits als richtig erkannte Teilaussagen. DiesesVorgehen wiederholt man gegebenenfalls.

Indirekter Beweis: Hier nimmt man an, die Behauptung B sei falsch, es gelte¬B. Dann leitet man unter der Annahme A und ¬B mittels richtiger Aussagendie Wahrheit einer Aussage C ab, von der man bereits weiß, dass sie falsch ist.Aus diesem Widerspruch folgt, dass ¬B nicht richtig sein kann.

(A⇒ B)⇔((A ∧ ¬B)⇒ (C ∧ ¬C)

)

Das uberprufen wir mittels der Wahrheitstafel:

A B C ¬B A ∧ ¬B C ∧ ¬C (A ∧ ¬B)⇒ (C ∧ ¬C) A⇒ Bw w w f f f w ww w f f f f w ww f w w w f f fw f f w w f f ff w w f f f w wf w f f f f w wf f w w f f w wf f f w f f w w

Die letzten beiden Spalten haben identische Wahrheitswerte!

Nun folgt eine Illustration eines indirekten Beweises:

1.21 Satz Sei x2 = 2; dann ist x keine rationale Zahl.A : x2 = 2.B : x ist keine rationale Zahl.Zu zeigen: A⇒ B ist wahr.

1.22 Lemma Eine ganze Zahl ist genau dann gerade (d.h. durch 2 teilbar),wenn ihr Quadrat gerade ist.

Beweis: Sei k eine gerade, ganze Zahl. Also hat k die Darstellung k = 2l, wobeil eine ganze Zahl ist. Also gilt k2 = 2(2l2), also ist k2 eine gerade Zahl.Sei k eine ungerade, ganze Zahl. Dann hat k die Darstellung k = 2l+ 1,wobei

17

Page 18: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

l eine ganze Zahl ist. Nun gilt k2 = (2l + 1)2 = 2(2l2 + 2l) + 1, somit ist k2

eine ungerade Zahl.Mit den Bezeichungen A : k ist gerade und B : k2 ist geradehaben wir somit A⇒ B und ¬A⇒ ¬B gezeigt. Weiter wissen wir, dass

((A⇒ B) ∧ (¬A⇒ ¬B)

)⇔ (A⇔ B)

gilt. �

Beweis von Satz 1.21: Es sei die Aussage A : x2 = 2 wahr und B : x ist nichtrational sei falsch. Dann ist die Aussage ¬B: x ist rational. Also hat x dieDarstellung x = k

mmit k,m ∈ Z; m 6= 0. Wir nehmen A und ¬B an. Ohne

Einschrankung sind k und m teilerfremd, denn sonst kurzen wir. Es sei nun Cdie Aussage m ist ungerade.Wir zeigen: (A ∧ ¬B)⇒ (C ∧ ¬C) :Mit x2 = 2 und x = k

mfolgt k2 = 2m2. Also ist nach Lemma 1.22 k gerade,

also m ungerade (wir hatten einen gekurzten Bruch angenommen). Wenn kgerade ist, hat es eine Darstellung k = 2l mit l ∈ Z.

Dann folgt mit x2 = 2 und x = 2lm

: (2l)2

m2 = 2, also 2l2 = m2. Also ist m nachdem obigen Lemma gerade. Also ist ¬C wahr. �

18

Page 19: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 2

Mengen, Relationen, Abbildungen

1895 fuhrte Georg Cantor ein:

“Unter einer Menge verstehen wir jede Zusammenfassung M von bestimm-ten wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens(welche die Elemente von M genannt werden) zu einem Ganzen.”

Wir verwenden dies Beschreibung und betrachten keine axiomatischeEinfuhrung in die Mengenlehre.

Mengen bezeichnen wir mit Großbuchstaben, Elemente mit Kleinbuchstaben.Ist a Element von M, so schreiben wir a ∈ M. Ist a nicht Element von M, soschreiben wir a 6∈M.

– Beschreibung einer Menge durch Aufzahlen der Elemente{1, 2, 3}; N := {1, 2, 3, 4, . . .}; N0 := {0, 1, 2, 3, . . .};Z := {0, 1,−1, 2,−2, 3,−3, . . .}, (Q, R, C)

– Beschreibung mittels Aussageformen:M = {x : A(x)} die Menge aller x mit: A(x) ist wahrP = {x : x ist Primzahl}{x : ((k = 0)∨ (k ∈ N))∧ (x = 2k+1)} die Menge der ungeraden, positivenganzen Zahlen

2.1 Definition

(1) M,N seien zwei Mengen. Sie heißen gleich, wenn sie die gleichen Elementebesitzen. In Symbolen:

M = N :⇔ (x ∈M ⇒ x ∈ N) ∧ (x ∈ N ⇒ x ∈M)

(2) T heißt Teilmenge von M (T ⊂M), wenn jedes Element von T auch Elementvon M ist.

T ⊂M ⇔ ((x ∈ T )⇒ (x ∈M))

Mit ∅ wird die leere Menge bezeichnet, also die Menge, die kein Element hat.x ∈ ∅ ist immer falsch. ¬(x ∈ ∅) ist eine Tautologie. Fur ¬(x ∈ M) schreibenwir x 6∈M, siehe oben.

2.2 Definition Die Menge aller Teilmengen von M heißt Potenzmenge.P(M) := {T : T ⊂M}.

19

Page 20: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Sind A und B Mengen, so heißtA ∪B := {x : (x ∈ A) ∨ (x ∈ B)} Vereinigung von A und BA ∩B := {x : (x ∈ A) ∧ (x ∈ B)} Durchschnitt von A und BA \B := {x : (x ∈ A) ∧ (x 6∈ B)} Differenz von A und B.Ist G eine Menge mit A ⊂ G, so heißt AC := G \A Komplement von A in G.

Veranschaulichung durch Venn-Diagramme:

A ∩B A ∪B

A \B AC

2.3 Satz Seien A,B und C Mengen.

(1) KommutativgesetzeA ∪B = B ∪ AA ∩B = B ∩ A

(2) AssoziativgesetzeA ∪ (B ∪ C) = (A ∪B) ∪ CA ∩ (B ∩ C) = (A ∩B) ∩ C

(3) DistributivgesetzeA ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C)A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C)

(4) (de Morgan)(A ∩B)C = AC ∪BC

(A ∪B)C = AC ∩BC , wobei A,B ⊂ G.

Beweis: Ubungen zur Analysis.

20

Page 21: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(4):

x ∈ (A ∩B)C ⇔ ¬(x ∈ A ∩B)

⇔ ¬(x ∈ A ∧ x ∈ B)

⇔ ¬(x ∈ A) ∨ ¬(x ∈ B)

⇔ x ∈ AC ∨ x ∈ BC

⇔ x ∈ AC ∪BC .

Die Elemente einer Menge konnen selbst wieder Mengen sein. Man sprichtvon einer Familie von Mengen und verwendet Skriptbuchstaben:M,B,A, . . . .Dann ist zu A ∪A die Vereinigung aller Mengen in A :

∪A := {x : ∃A ∈ Amitx ∈ A}

und

∩A := {x : ∀A ∈ A giltx ∈ A}

ist der Durchschnitt.Fur A := {A1, A2, A3, . . .}, (Ai)i∈N seien Mengen, schreibt man fur ∪A auch∪∞i=1Ai, analog fur ∩A auch ∩∞

i=1Ai.Oder fur A := {Ai : i ∈ I}, I Indexmenge (z.B. I = N) schreibt man ∪i∈IAifur ∪A und ∩i∈IAi fur ∩A, ebenso ∪ni=1Ai fur ∪i∈{1,...,n}Ai.

Fur zwei Elemente x, y heißt {x, y} ungeordnetes Paar und es gilt {x, y} ={y, x}.Beim geordneten Paar (x, y) spielt die Reihenfolge eine Rolle: es soll (x, y) 6=(y, x) gelten, falls nicht x = y.

2.4 Definition Seien x1, y1, x2, y2 Elemente, so gilt (x1, y1) = (x2, y2) genaudann, wenn x1 = x2 und y1 = y2 ist. (x1, x2 kommen aus einer Menge A, y1, y2

aus B.)

Kuratowski: (x, y) := {{x}, {x, y}}.

2.5 Definition Fur zwei Mengen A, B heißt

A×B := {(x, y) : x ∈ A ∧ y ∈ B}

das cartesische Produkt von A und B (nach Rene Descartes, 1596 - 1650).

21

Page 22: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

A×B

A

B

Es gelten viele Rechenregeln, von denen manche in der Analysis betrachtetwerden, etwa

A× (B ∩ C) = (A×B) ∩ (A× C) oder

(A×B) ∩ (C ×D) = (A ∩ C)× (B ∩D)

A×B

C ×DA

B

C

D

Fur n Mengen A1, . . . , An ist A1 × A2 × · · · × An die Menge der n-Tupel(a1, . . . , an) mit ai ∈ Ai fur i ∈ {1, . . . , n}.

(a1, . . . , an) = (a′1, . . . , a′n)⇔ (ai = a′i) ∀i ∈ {1, . . . , n}.

Fur A = B schreibt man auch A2 statt A×A, bzw. An anstelle von A×· · ·×A.

R3 = {(x1, x2, x3) : xi ∈ R; i ∈ {1, 2, 3}}

2.6 Definition Es seien A,B zwei Mengen. Eine Relation zwischen A und Bist eine Teilmenge R ⊂ A × B. Ist A = B, so spricht man von einer Relationauf A. Wir schreiben aRb, falls (a, b) ∈ R.

2.7 Beispiele

(1) R = A× A : zwei beliebige Elemente von A stehen in der Relation R.

(2) Gleichheit: (a, b) ∈ R genau dann, wenn a = b ist. R = {(a, b) ∈ A2 : a = b}(3) ≤ - Relation auf R : R = {(x, y) ∈ R× R : x ≤ y}(4) A : Menge der Studienanfanger in Bochum im Wintersemester 06/07.

aR1b :⇔ a lebt im selben Wohnheim wie b.aR2b :⇔ a und b gingen auf die selbe Schule.

22

Page 23: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(5) A : Menge aller Geraden in R3. Parallelitat: (g1, g2) ∈ R ⇔ g1 und g2 sindparallel.

2.8 Definition Seien A,B Mengen. Eine Abbildung ist eine Relationf ⊂ A×B mit den folgenden Eigenschaften:

(A1) Zu jedem a ∈ A gibt es ein b ∈ B mit (a, b) ∈ f.(A2) Gilt (a, b) ∈ f und (a, c) ∈ f, so ist b = c.

(A1) und (A2) kann man auch so zusammenfassen:

(A) Zu jedem a ∈ A gibt es genau ein b ∈ B mit (a, b) ∈ f.Das Element b ∈ B, das einem a ∈ A eindeutig zugeordnet wird, wird mit f(a)bezeichnet.

2.9 Definition In Definition 2.8 heißt A Definitionsbereich, B Bildbereich der

Abbildung f. Anstelle von f ⊂ A × B schreiben wir f : A → B oder Af→ B

und a 7→ f(a).

Wir nennen

Gf := {(a, b) ∈ A×B : f(a) = b}= {(a, f(a)) : a ∈ A} ⊂ A×B

den Graphen von f . Andere Notation: Graph(f) = Gf . (Der Graph ist ge-rade die Teilmenge f ⊂ A × B, die gemaß 2.8 eine Abbildung als Relationbeschreibt.)

Fur eine Abbildung f : A→ B heißt

f(A′) := {b ∈ B : ∃ a ∈ A′ mit f(a) = b}

das Bild von A′ ⊂ A unter f. f(A) ⊂ B heißt Bild von f, symbolisch Im(f),Bild(f). Fur B′ ⊂ B heißt

f−1(B′) := {a ∈ A : f(a) ∈ B′}

das Urbild von B′ unter f .

2.10 Beispiele

(1) f : R→ R, x 7→ ax+ b, a, b ∈ R fest

(2) f : R→ R, x 7→ x2

(3) P sei die Menge der Primzahlen. f : N \ {1} → P :f(n): kleinster Primteiler von n.

23

Page 24: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(4) f : A→ A, f(a) := a heißt identische Abbildung. f wird mit idA bezeichnet.

2.11 Definition Eine Abbildung f : A 7→ B heißt surjektiv, wenn jedesElement von B als Bildelement eines Elementes von A vorkommt:

f surjektiv ⇔ ∀ y ∈ B ∃x ∈ Amit f(x) = y.

2.12 Beispiele In 2.10 ist (1) fur a 6= 0 surjektiv, (2) nicht, denn negativeZahlen kommen als Bild nicht vor, (3) ist surjektiv, denn f(p) = p fur p ∈ P.

2.13 Definition f : A→ B heißt injektiv, wenn zwei verschiedene Elementein A auf verschiedene Elemente in B abgebildet werden: Falls x, x′ ∈ A undx 6= x′ gelten, so ist f(x) 6= f(x′).

Den Nachweis der Injektivitat fuhrt man meist durch Kontraposition: Istf(x) = f(x′), so ist x = x′.

2.14 Beispiele Siehe 2.10. (1) ist fur a 6= 0 injektiv, (2) ist nicht injektiv: furx 6= 0 ist −x 6= x, aber f(−x) = f(x); (3) ist nicht injektiv, denn f(6) =f(8) = 2 oder f(15) = f(39) = 3.

2.15 Definition Eine Abbildung f : A → B, die sowohl injektiv als auchsurjektiv ist, heißt bijektiv.

2.16 Beispiele

(1) f(x) := ax+ b, a 6= 0

(2) f : R+ := {x ∈ R : x ≥ 0} → R+, x 7→ x2.

2.17 Definition f : A → B, g : B → C seien zwei Abbildungen, so istdie Zusammensetzung, die Komposition oder Verknupfung dieser Abbildungeng ◦f : A→ C definiert durch g(f(x)) =: (g ◦f)(x). (Die Schreibweise ist leideretwas unglucklich, (x)f ware sinnvoller.)

2.18 Beispiele f, g : R→ R, f(x) = x2, g(x) = ex, dann gilt f ◦ g : R ∋ x 7→e2x und g ◦ f : R ∋ x 7→ ex

2. Also f ◦ g 6= g ◦ f.

Eine bijektive Abbildung σ : {1, . . . , n} → {1, . . . , n} heißt Permutation.Schreibweise:

σ =

(1 2 · · · n− 1 n

σ(1) σ(2) · · · σ(n− 1) σ(n)

)

24

Page 25: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beispiel:

σ =

(1 2 3 4 52 4 1 5 3

)

σ′ =

(3 5 1 2 41 3 2 4 5

)ist dieselbe Permutation.

Sei τ :=

(1 2 3 4 53 2 4 5 1

), so ist

σ ◦ τ =

(1 2 3 4 52 4 1 5 3

)◦(

1 2 3 4 53 2 4 5 1

)

=

(3 2 4 5 11 4 5 3 2

)◦(

1 2 3 4 53 2 4 5 1

)

=

(1 2 3 4 51 4 5 3 2

).

Beachte τ ◦ σ =

(1 2 3 4 52 5 3 1 4

), also auch hier σ ◦ τ 6= τ ◦ σ.

Sei f : A → B bijektiv. Wegen der Surjektivitat gibt es zu jedem y ∈ B einx ∈ A mit f(x) = y. Wegen der Injektivitat gibt es nur ein derartiges Element.Somit erhalt man eine eindeutig definierte Zuordnung B ∋ y → x ∈ A. Diesenennen wir Umkehrabbildung von f und bezeichnen sie mit f−1, also f−1(y) =x. Es gilt:

2.19 Satz

(1) Ist f : A → B bijektiv, so gibt es eine Umkehrabbildung f−1, die eindeutigdefiniert ist durch die Festsetzung

f(x) = y ⇔ f−1(y) = x.

(2) f−1 erfullt f ◦ f−1 = idB, f−1 ◦ f = idA.

(3) f : A→ B sei eine Abbildung und es existiere eine Abbildung g : B → A mitf ◦ g = idB, g ◦ f = idA, so ist f bijektiv und g ist die Umkehrabbildung vonf.

Beweis: Prasenzubung.

Weiter geht es nun mit Relationen:

25

Page 26: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

2.20 Definition Sei R eine Relation auf A.

(1) R heißt symmetrisch, wenn (a, b) ∈ R⇔ (b, a) ∈ R gilt.

(2) R heißt transitiv, wenn (a, b) ∈ R und (b, c) ∈ R⇒ (a, c) ∈ R gilt.

(3) R heißt reflexiv, wenn (a, a) ∈ R fur alle a ∈ A gilt.

2.21 Definition

(1) Eine reflexive und transitive Relation R auf einer Menge A heißt Ordnungsre-lation auf A, wenn zusatzlich die folgende Eigenschaft gilt:

(a, b) ∈ R und (b, a) ∈ R⇒ a = b.

(2) Eine Ordnungsrelation heißt Totalordnung, wenn je zwei beliebige Elemente inA vergleichbar sind, d.h. wenn fur beliebige a, b ∈ A (a, b) ∈ R oder (b, a) ∈ Rist.

(3) Eine reflexive, symmetrische und transitive Relation auf A heißt eine Aquiva-lenzrelation.

Ubliche Notationen fur eine Ordnungsrelation sind ≤ oder < und man schreibtdann a ≤ b anstelle von (a, b) ∈≤ . Aquivalenzrelationen schreibt man ubli-cherweise als ∼, also a ∼ b fur zwei Elemente, die in dieser Relation stehen.

2.22 Beispiel

(1) Die Gleichheitsrelation ist eine Ordnungsrelation. Sie ist keine Totalordnung,außer wenn A nur ein Element enthalt.

(2) A = R2; definiere (a1, a2) < (b1, b2), wenn a2 = b2 und a1 ≤ b1 gelten. Diesist eine Ordnungsrelation, aber keine Totalordnung, denn z.B. sind (1, 2) und(3, 4) nicht vergleichbar.

(3) M Menge; betrachte auf P(M) die Inklusionsrelation: B,C ∈ P(M) stehen inder Relation ⊂, wenn B Teilmenge von C ist. ⊂ ist eine Ordungsrelation, aberkeine Totalordnung (falls M mehr als ein Element enthalt).

(4) Die Gleichheitsrelation ist eine Aquivalenzrelation.

(5) Die ≤ - Relation auf R ist nicht symmetrisch.

(6) Zwei Geraden in R2 : g1 ∼ g2, wenn g1 und g2 parallel sind; dies ist eineAquivalenzrelation.

Aquivalenzrelationen stehen in engster Beziehung zu sogenannten Zerlegungen.

26

Page 27: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

2.23 Definition A sei eine nichtleere Menge. Eine Zerlegung Z von A ist eineFamilie von Teilmengen Ci ⊂ A mit

(1) ∪iCi = A

(2) Ci 6= ∅ fur alle i

(3) Ci ∩ Cj = ∅ fur i 6= j.

(Teilmengen sind nicht uberlappend, haben leeren Schnitt, heißen disjunkt.i durchlauft eine Indexmenge I.)

Zerlegung von N : {1}, {2, 3}, {4, 5, 6}, {7, 8, 9, 10}, . . .

Z = {{1}, {2, 3}, {4, 5, 6}, {7, 8, 9, 10}, . . .}

(in “unendlich” viele Teilmengen!)

Einer Zerlegung Z von A kann man eine Aquivalenzrelation auf A zuordnen.Fur a, b ∈ A definieren wir a ∼Z b, wenn a und b in derselben Menge derZerlegung sind: a ∼Z b :⇔ ∃C ∈ Z mit a, b ∈ C.

2.24 Lemma Ist Z eine Zerlegung, so ist ∼Z eine Aquivalenzrelation.

Beweis: Reflexivitat: Da Z eine Zerlegung ist, existiert zu jedem a ∈ A eineMenge der Zerlegung mit a ∈ C. Also ist a ∼Z a.Die Symmetrie folgt aus der Definition.Transitivitat: Seien a ∼Z b, b ∼Z c. Also existieren C ∈ Z mit a, b ∈ C undC ′ ∈ Z mit b, c ∈ C ′. Das Element b liegt also in C und C ′. Demzufolge istC ∩ C ′ 6= ∅. Aus (3) in Definition 2.23 folgt also C = C ′, also a ∼Z c. �

Sei nun ∼ eine Aquivalenzrelation auf A. Ist a ∈ A, so definieren wir dieAquivalenzklasse [a] ⊂ A von a (bzgl. ∼) durch

[a] := {b ∈ A : b ∼ a}.

Aquivalenzklassen sind also Teilmengen von A.

2.25 Lemma Sei A eine nichtleere Menge und ∼ eine Aquivalenzrelation.Dann ist

Z∼ := {[a] : a ∈ A}eine Zerlegung von A.

Beweis: Mit der Reflexivitat der Aquivalenzrelation ist a ∈ [a] fur alle a ∈ A;also sind die Aquivalenzklassen alle nicht leer, also gilt (2) in Definition 2.23.

27

Page 28: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Weiter folgt aus a ∈ [a] fur alle a ∈ A auch (1): ∪[a] = A.Bleibt (3) in 2.23 zu zeigen: es sei [a] ∩ [b] 6= ∅; dann existiert ein Element cin diesem Durchschnitt. Per Definition gelten dann c ∼ a und c ∼ b. Wegender Symmetrie von ∼ folgt auch a ∼ c; mit der Transitivitat folgt insgesamta ∼ b. Wir haben also gezeigt:

[a] ∩ [b] 6= ∅ ⇒ a ∼ b.

Es bleibt noch zu zeigen: zwei aquivalente Elemente haben dieselbe Aquiva-lenzklasse: Sei x ein Element in [a], also x ∼ a. Mit a ∼ b und Transitivitatfolgt x ∼ b, also x ∈ [b], also [a] ⊂ [b]. Analog zeigt man [b] ⊂ [a]. Es folgt[a] = [b]. Wir haben also

a ∼ b⇒ [a] = [b].

Also insgesamt[a] ∩ [b] 6= ∅ ⇒ [a] = [b].

Dies ist die geforderte Eigenschaft in 2.23, (3). �

2.26 Beispiel Auf Z definieren wir a ∼ b, wenn ein k ∈ Z existiert mitb = a + 6k. Dies liefert eine Aquivalenzrelation. Die Aquivalenzklassen sind{0,±6,±12, . . .}, {. . . ,−5, 1, 7, 13, . . .}, {. . . ,−4, 2, 8, 14, . . .} etc. Es gibt offen-bar 6 verschiedene Aquivalenzklassen. Wir konnen die zur Aquivalenzrelationgehorende Zerlegung von Z mit {0, 1, 2, 3, 4, 5} identifizieren. Bezeichnung: Z6.Eine entsprechende Zerlegung fur n ∈ N anstelle 6 liefert Zn.

Statt Z∼ schreibt man meist Z/∼.

2.27 Beispiel G bezeichne die Menge aller Geraden im Raum. Fur g1, g2 ∈ Gdefinieren wir g1 ∼ g2, wenn g1 und g2 parallel sind. G/∼ ist die sogenannteprojektive Ebene, die in der Geometrie außerordentlich wichtig ist.

28

Page 29: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 3

Gruppen, Ringe, Korper

In der Analysis lernen Sie gerade, dass es einen “bis auf Isomorphie eindeuti-gen” vollstandigen, angeordneten Korper gibt: den Korper R der reellen Zah-len. In jedem angeordneten Korper ist dann N die kleinste induktive Menge,und man kann Z und Q angeben. Q ist ein angeordneter, aber nicht vollstandi-ger Korper. Wir betrachten hier die Korperaxiome “genauer”:

3.1 Gruppen

A sei eine nichtleere Menge. Eine Abbildung A×A→ A nennt man eine zwei-stellige Verknupfung. Statt mit f, g, ϕ oder ahnlichen Buchstaben bezeichnetman eine solche Verknupfung mit +, · oder ∗. Wir nehmen zunachst ∗ undschreiben a ∗ b anstelle von ∗(a, b).

3.1 Definition ∗ sei eine zweistellige Verknupfung auf der Menge A.

(1) ∗ heißt assoziativ, wenn fur alle a, b, c ∈ A (a ∗ b) ∗ c = a ∗ (b ∗ c) gilt.

(2) ∗ heißt kommutativ, wenn fur alle a, b ∈ A a ∗ b = b ∗ a gilt.

(3) Ein Element e ∈ A heißt Neutralelement, wenn fur jedes a ∈ A a∗e = a = e∗agilt.

3.2 Bemerkung Ein Neutralelement ist, falls es existiert, eindeutig.

Beweis: e, e′ seien zwei Neutralelemente, dann folgt aus der Definition e =e′ ∗ e = e′. �

3.3 Definition Eine Menge A, versehen mit einer zweistelligen Verknupfung∗, die assoziativ ist und ein Neutralelement besitzt, nennt man eine Halbgruppe.Eine Halbgruppe heißt abelsch, wenn ∗ kommutativ ist. Eine Halbgruppe heißtGruppe, wenn sie zusatzlich die folgende Eigenschaft hat: Zu jedem a ∈ Aexistiert ein b ∈ A mit

a ∗ b = b ∗ a = e. (3.1)

Wir schreiben (A, ∗) fur eine Halbgruppe / Gruppe. Fur abelsche Gruppenbezeichnet man die Verknupfung ublicherweise mit +.

3.4 Lemma Sei (A, ∗) eine Halbgruppe und sei a ∈ A. Existiert ein b ∈ A mit(3.1), so ist dieses Element eindeutig.

29

Page 30: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: b, b′ seien zwei derartige Elemente:

b = b ∗ e = b ∗ (a ∗ b′) = (b ∗ a) ∗ b′ = e ∗ b′ = b′.

Das Inverse von a bezeichnet man mit a−1. Im abelschen Fall bezeichnet manes haufig mit −a.

3.5 Beispiele

(1) (N0,+) ist eine abelsche Halbgruppe (0 ist das Neutralelement)

(2) (Z,+) ist eine abelsche Gruppe (0 ist das Neutralelement)

(3) (Z, ·) ist eine abelsche Halbgruppe (1 ist das Neutralelement)

(4) (R \ {0}, ·) ist eine abelsche Gruppe.

3.6 Beispiel Sei M eine nichtleere Menge. A sei die Menge der bijektivenSelbstabbildungen f : M → M. f, g ∈ A : g ◦ f (Komposition) ist einezweistellige Verknupfung. (A, ◦) ist eine Gruppe mit Neutralelement idM . DasInverse von f ist die inverse Abbildung f−1. f ◦ f−1 = f−1 ◦ f = idM . DieAssoziativitat ist klar. Am Beispiel einer endlichen Menge M hatten wir ge-sehen, dass ◦ nicht kommutativ ist (Permutationen). Ist M eine Menge mitn Elementen, n ∈ N, so nennt man die Gruppe symmetrische Gruppe oderPermutationsgruppe S(n).

Wir erinnern an Beispiel 2.26: Zn, n ∈ N ist die Menge der Aquivalenzklassenin Z unter der Relation a ∼ b⇔ ∃ k ∈ N mit a = b+ nk. Wir konnen Zn mit{0, 1, . . . , n− 1} identifizieren.Addieren: es seien a, b ∈ {0, . . . , n − 1}, so ist a + b, in den ganzen Zah-len addiert, in {0, 1, . . . , n − 1} oder in {n, n + 1, . . . , 2n − 1}. Im ersten Fallsetzen wir a + b := a + b, im zweiten a + b := a + b − n. Dann ist immera+ b ∈ {0, 1, . . . , n− 1}.(Zn,+) ist eine abelsche Gruppe, wie man leicht nachprufen kann. Etwas ge-nauer / “umstandlicher”: Z = Z|∼ mit ∼ wie oben. Zn = {[a] : a ∈ Z}.Die Addition + auf Zn sollte man nun vielleicht so erklaren:

[a] + [b] := [a+ b] ? (3.2)

Ist die rechte Seite definiert? Man muss sich uberlegen: wenn a und a′ ∈ Zdieselbe Aquivalenzklasse reprasentieren, d.h. wenn [a] = [a′] und auch [b] =[b′], so soll gelten [a+b] = [a′+b′] ! Die angestrebte Definition muss unabhangigvon den Reprasentanten auf der linken Seite sein! Wenn dies der Fall ist, sagtman, dass durch (3.2) die Verknupfung wohldefiniert ist.

30

Page 31: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

3.7 Lemma Sind a, a′, b, b′ ∈ Z mit a ∼ a′ und b ∼ b′, so gilt a + b ∼ a′ + b′

und ab ∼ a′b′.

Beweis: Es existiert ein k ∈ Z mit a = a′ + kn und ein l ∈ Z mit b = b′ + ln.Daraus folgt a + b = a′ + b′ + (k + l)n. Also a + b ∼ a′ + b′. Es folgt weiterab = a′b′+knb′+ lna′+ lkn2 = a′b′+(kb′+ la′+ lkn)n. Dies impliziert ab ∼ a′b′.�

Also ist durch (3.2) und durch [a]∗[b] := [ab] eine Verknupfung auf Zn definiert.∗ ist assoziativ und kommutativ und [1] ist das Neutralelement.

3.8 Satz

(1) (Zn,+) ist eine abelsche Gruppe.

(2) (Zn, ∗) ist eine abelsche Halbgruppe. Das Neutralelement ist [1].

Da [0] ∗ [a] = [0] fur alle [a] ∈ Zn, kann [0] kein inverses Element haben, dennes gilt [1] 6= [0], sofern n ≥ 2 ist. Also ist (Zn, ∗) keine Gruppe.Sei nun Z∗

n := Zn \{[0]}. Ist dies eine Gruppe? Aber nun ist ∗ gar nicht immerdefiniert, fur z.B. n = 6 ist [2] ∗ [3] = [6] = [0].

3.9 Lemma Ist n eine Primzahl, so ist [a] ∗ [b] 6= [0] fur alle [a], [b] ∈ Z∗n.

Beweis: Wir konnen a und b aus {1, 2, . . . , n− 1} wahlen. Ware [a] ∗ [b] = [0],so ware ab ein Vielfaches von n. Also ware n in der Primfaktorzerlegung vonab, was nicht moglich ist. �

3.10 Satz Ist n eine Primzahl, so ist (Z∗n, ∗) eine Gruppe.

Beweis: Zeige, dass jedes [a] ∈ Z∗n ein multiplikatives Inverses hat. Wir zeigen,

dass die Produkte [a] ∗ [b] fur b = 1, 2, . . . , n − 1 alle verschieden sind. Da Z∗n

genau n−1 Elemente hat, existiert somit ein b mit [a]∗ [b] = [1]. Wir konnen aaus {1, 2, . . . , n−1} wahlen. Angenommen, es existieren b, b′ ∈ {1, 2, . . . , n−1}mit [a] ∗ [b] = [a] ∗ [b′]. Wir konnen b > b′ annehmen. Aus [a] ∗ [b] = [a] ∗ [b′]folgt, dass ein k ∈ Z existiert mit ab = ab′ + kn, also a(b − b′) ein Vielfachesvon n. Dies ist mit n Primzahl nicht moglich. �

Wir schreiben ab jetzt · anstelle von ∗. Statt [a]+[b] = [c], a, b, c ∈ {1, 2, . . . , n−1} schreiben wir oft a+ b = c mod n.

31

Page 32: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

3.2 Ringe und Korper

3.11 Definition Eine Menge A mit zwei zweistelligen Verknupfungen + und· heißt Ring (mit Eins), wenn die folgenden Bedingungen erfullt sind:

(1) (A,+) ist eine abelsche Gruppe.

(2) (A, ·) ist eine Halbgruppe.

(3) Es gelten die beiden Distributivgesetze: Fur a, b, c ∈ A gilt

a · (b+ c) = a · b+ a · c

(b+ c) · a = b · a+ c · a.

Ist die Verknupfung · kommutativ, so heißt der Ring kommutativ.

3.12 Bemerkungen Das Neutralelement der Addition wird mit 0 bezeichnet.Das zu a ∈ A inverse Element bezuglich der Addition bezeichnet man mit −a.Das Neutralelement der Multiplikation ist 1.

3.13 Lemma Ist (A,+, ·) ein Ring, so gilt a · 0 = 0 · a = 0 fur alle a ∈ A.

Beweis: a · 0 = a · (0 + 0) = a · 0 + a · 0. Addiere −(a · 0), so folgt 0 = a · 0.Analog 0 · a = 0. �

Enthalt A mehr als ein Element, folgt 1 6= 0. Es gibt den Ring, der nur die 0enthalt. Sei aber von nun an stets 1 6= 0.

3.14 Beispiele

(1) (Z,+, ·) ist ein kommutativer Ring mit Eins.

(2) (Zn,+, ·) ist ein kommutativer Ring mit Eins. (Man verifiziere das Distribu-tivgesetz!)

3.15 Definition Ein reelles Polynom in einer Variablen x ist ein Ausdruckder Form

p(x) = a0 + a1x+ a2x2 + . . .+ anx

n,

mit a0, a1, . . . , an ∈ R. Diese Zahlen heißen Koeffizienten des Polynoms. DasPolynom, bei dem alle Koeffizienten 0 sind, heißt Nullpolynom. (Bezeichnung0.)

Fur ein Polynom, das nicht das Nullpolynom ist, setzen wir voraus, dass an 6= 0ist. Denn ist an = 0, so lassen wir anx

n einfach weg. Wir haben also immer

32

Page 33: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

einen hochsten Koeffizienten 6= 0. n heißt der Grad des Polynoms.Zu p(x), q(x) definieren wir

p(x) + q(x) := (a0 + b0) + (a1 + b1)x+ . . .+ (an + bn)xn.

Dabei haben wir das Polynom von eventuell niedrigerem Grad durch Nullenerganzt. Sind die Polynome p(x), q(x) 6= 0 und ist

p(x) = a0 + a1x+ a2x2 + . . .+ anx

n und

q(x) = b0 + b1x+ b2x2 + . . .+ bmx

m, so ist

p(x) · q(x) := a0b0 + (a0b1 + a1b0)x+ (a0b2 + a1b1 + a2b0)x2 + . . .+ anbmx

m+n.

Die Multiplikation ist kommutativ und assoziativ, Neutralelement ist p(x) = 1.Bezeichne mit R[x] die Menge der Polynome mit reellen Koeffizienten. (R[x],+)ist eine abelsche Gruppe; das Nullpolynom 0 ist Neutralelement. (R[x], ·) isteine abelsche Halbgruppe und das Distributivgesetz gilt, also gilt insgesamt:

3.16 Satz (R[x],+, ·) ist ein kommutativer Ring mit Eins.

3.17 Bemerkung Die Variable x spielt in der Diskussion keine Rolle. Wirkonnen das Polynom auch einfach durch (a0, a1, . . . , an) beschreiben:

R[x] := {(a0, a1, . . . , an) : n ∈ N0, ai ∈ R fur a ≤ i ≤ n; an 6= 0 falls n 6= 0}.

Ist (A,+, ·) ein Ring mit Eins, so fragt man, welche Elemente ein Inverses bzgl.der Multiplikation haben. 0 kann kein Inverses haben: a · 0 = 0 · a = 0, a ∈ A.Mit 1 6= 0 gibt es kein 0−1 mit 0−1 · 0 = 0 · 0−1 = 1.

3.18 Definition

(1) Ein kommutativer Ring mit Eins, in dem jedes Element 6= 0 ein multiplikativesInverses besitzt, heißt Korper.

(2) Ein nicht-kommutativer Ring mit Eins, in dem jedes Element 6= 0 ein multi-plikatives Inverses besitzt, heißt Schiefkorper.

Linguistisch ist die Bezeichnung Schiefkorper ungunstig: ein Schiefkorper sollteein Korper sein, der noch zusatzlich Schiefe hat. Aber eine zusatzliche Eigen-schaft hat der Korper!

Der Quaternionen-Schiefkorper ist das einzige konkrete Beispiel fur einenSchiefkorper, das wir spater betrachten werden.

Das multiplikative Inverse von a wird mit a−1 oder 1a

bezeichnet (additivesInverse mit −a).

33

Page 34: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

3.19 Beispiele

(1) Q,R und C sind Korper. C fuhren wir spater ein.

(2) Ist n eine Primzahl, so ist (Zn,+, ·) ein Korper; siehe Satz 3.10.

Ist n keine Primzahl, so ist (Zn,+, ·) kein Korper, denn dann exisitieren1 ≤ p, q < n mit pq = n. Also gilt in Zn die Gleichung pq = 0. Man sagt,dass Zn Nullteiler hat.

3.20 Lemma Ein Korper (K,+, ·) hat keine Nullteiler, d.h. fur a, b 6= 0, a, b ∈K gilt a · b 6= 0.

Beweis: Aus a · b = 0 und a 6= 0 folgt b = 1 · b = (a−1 · a) · b = a−1(a · b) =a−1 · 0 = 0. �

Die Umkehrung von Lemma 3.20 gilt nicht: Ein kommutativer Ring mit Eins,der keine Nullteiler besitzt, ist noch lange kein Korper: R[x] hat keine Null-teiler, das Polynom p(x) = x hat kein Inverses, d.h. es existiert kein Polynomq(x) mit p(x)q(x) = 1.

In einem Korper kann man addieren, subtrahieren, multiplizieren und durchElemente 6= 0 dividieren wie in R. Aber: im Korper Z2 gilt 1 + 1 = 0.Sei K ein Korper. Wir definieren fur n ∈ N ein Element n ∈ K :

1 := 1 (rechts Korper-Eins)

n+ 1 := n+ 1 (rechts Addition im Korper, links Addition in N.)

3.21 Definition Gilt in einem Korper n 6= 0 fur alle n ∈ N, so sagt man, derKorper habe die Charakteristik 0. Andernfalls ist die Charakteristik definiertdurch

char(K) := min{n ∈ N : n = 0}.

3.22 Satz Ist char (K) 6= 0, so ist char (K) eine Primzahl.

Beweis: Als Vorbereitung zeigen wir

m · n = m · n (3.3)

fur alle n,m ∈ N. Zunachst zeigen wir

m+ n = m+ n

34

Page 35: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

fur alle n,m ∈ N. Dies zeigen wir mittels vollstandiger Induktion nach n. Furn = 1 ist die Aussage die Definition von m+ 1. Der Induktionsschluss:

( m+ (n+ 1)) = ( (m+ n) + 1) = (m+ n) + 1 = m+ n+ 1 = m+ n+ 1.

Machen Sie sich in jedem Schritt klar, was genau die Begrundung ist.

Nun zeigen wir (3.3) ebenfalls via Induktion nach n. Fur n = 1 gilt m · 1 =m = m · 1, denn 1 = 1. Der Induktionsschluss folgt nun so:

( m(n+ 1)) = (m n+m) = m n+ m = m n+ m = m(n+ 1) = m(n+ 1).

Dabei ist die erste Gleichheit das Rechnen in N, die zweite verwendet diegerade bewiesene Additions-Regel, die dritte Gleichheit ist die Induktions-Voraussetzung, die vierte verwendet das Distributivgesetz in K und die letzteGleichheit die Definition.

Sei nun n ∈ N die Charakteristik. Wegen 1 6= 0 im Korper K ist die Charakte-ristik ungleich 1. Angenommen n ist keine Primzahl. Dann existieren p, q ∈ Nmit p, q < n und n = p q. Also folgt mit (3.3)

0 = n = p q = p · q.

Ein Korper hat keine Nullteiler, also ist entweder p oder q gleich Null, imWiderspruch zur Definition der Charakteristik als die kleinste naturliche Zahln mit n = 0. �

3.23 Beispiel (Zp,+, ·), p Primzahl, hat Charakteristik p.

35

Page 36: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

36

Page 37: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 4

Lineare Gleichungssysteme

Zu a, b ∈ R betrachten wir die Gleichung ax = b mit der Unbekannten x ∈ R.Fur a 6= 0 ist x = b/a Losung. Fur a = 0 ergibt sich: ist b = 0, so ist jede ZahlLosung, ist b 6= 0, so hat die Gleichung keine Losung. Mit L := {x ∈ R | ax = b}folgt

L =

{b/a} , falls a 6= 0

R , falls a = 0 und b = 0

∅ , falls a = 0 und b 6= 0

Sie erinnern sich an den Fall von zwei Gleichungen mit zwei Unbekannten?

ax+ by = r, cx+ dy = s

Mit △ := ad− bc hatten wir gesehen

L =

{(△−1(dr − bs),△−1(as− cr))}, falls△ 6= 0

R2, falls△ = 0 und (dr − bs = 0 oder as− cr = 0)

∅, falls△ = 0 und (dr − bs 6= 0 oder as− cr 6= 0).

Erhalt man “immer” eine solche Fallunterscheidung? Tatsachlich betrachtenwir nun mehrere Gleichungen mit mehreren Unbekannten, und die Unbekann-ten seien allgemeine Elemente eines Korpers K, z.B. R,C oder Zp, p Primzahl.(Wir konnen in K “durch” Elemente 6= 0 “dividieren”!)

Wir betrachten m Gleichungen fur die n Unbekannten x1, x2, . . . , xn ∈ K :

a11x1 + a12x2 + . . .+ a1nxn = b1a21x1 + a22x2 + . . .+ a2nxn = b2

......

am1x1 + am2x2 + . . .+ amnxn = bm

. (4.1)

Dabei sind die Koeffizienten aij ∈ K fur 1 ≤ i ≤ m und 1 ≤ j ≤ n und bi ∈ Kfur 1 ≤ i ≤ m. Kurz:

n∑

j=1

aijxj = bi, i = 1, . . . ,m.

Losungsmenge

L := {(x1, x2, . . . , xn) ∈ Kn :n∑

j=1

aijxj = bi fur i = 1, . . . ,m}.

37

Page 38: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Es ist L ⊂ Kn.

Systematisches Losen nach Gauß-Elimination, eliminatio vulgaris (Carl Fried-rich Gauß) :

“Manipulationen” des Systems, welche die Losungsmenge nicht andern; Ziel:System in ein neues uberfuhren, bei dem die Losungen “unmittelbar” abgelesenwerden konnen.

Elementare Zeilenoperationen (Zeilen: die einzelnen Gleichungen)

(Z1) Vertauschen zweier Zeilen des Gleichungssystems

(Z2) Multiplikation einer Zeile mit einem Korperelement α 6= 0

(Z3) Addition des α−fachen einer Zeile zu einer anderen, α ∈ K.Etwa: α−faches der l−ten Zeile zur k−ten addieren:

a11x1 +a12x2 + . . .+ a1nxn = b1...

...ak1x1 + αal1x1 +ak2x2 + αal2x2 + . . .+ aknxn + αalnxn = bk + αbl...

...am1x1 +am2x2 + . . .+ amnxn = bm

(Alle anderen Gleichungen bleiben unverandert.) Also

∑nj=1 aijxj = bi fur 1 ≤ i ≤ m, i 6= k∑nj=1(akj + αalj)xj = bk + αbl

}. (4.2)

4.1 Satz Die elementaren Zeilenoperationen (Z1) bis (Z3) verandern dieLosungsmenge eines Gleichungssystems nicht.

Beweis: Klar fur (Z1) und (Z2).(Z3): L sei Losungsmenge von (4.1), L′ sei Losungsmenge von (4.2). Istx = (x1, . . . , xn) ∈ L, so gilt

n∑

j=1

(akj + αalj)xj =n∑

j=1

akjxj +n∑

j=1

αaljxj

= bk + αbl,

also gilt (4.2). Wir haben L ⊂ L′ gezeigt. Nun erhalten wir (4.1) aus (4.2),indem wir zur k−ten Zeile das (−α)−fache der l−ten Zeile addieren.

(neu)(Z3)−→ (alt).

Also L′ ⊂ L und somit L = L′. �

38

Page 39: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Was bedeutet (Z3) geometrisch? Denken wir an zwei Gleichungen; sie beschrei-ben zwei Geraden.

x1 = 1

x1 − x2 = 2.

Addiere das λ−fache der 1. Zeile zur 2. Zeile.

(1 + λ)x1 − x2 = 2 + λ

(⇔ x2 = (1 + λ)x1 − (2 + λ)).

x2

x1

(1,−1)

(2, 0)

(2, λ)

−2

Abb. 4.1: Schar von Geraden durch (1,−1), alle außer x1 = 1.

Die xj schleppen wir nicht immer mit: Wir betrachten die Koeffizientenmatrix

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

......

am1 am2 · · · amn

m× n−Matrix

(Anordnung von Korperelementen)Die Matrix hat m Zeilen und n Spalten. aij ist die ij−te Komponente von A.Schreibweise:

A = (aij)1≤i≤m, 1≤j≤n.

39

Page 40: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(oder einfacher: A = (aij), aber Vorsicht!)

Die Zeilen bzw. Spalten sind Vektoren, doch dazu spater. Die Matrix hat somitdie m Zeilenvektoren

(ai1 ai2 · · · ain), 1 ≤ i ≤ m

und die n Spaltenvektoren

a1j

a2j...amj

, 1 ≤ j ≤ n.

Ein Zeilenvektor ist eine 1 × n-Matrix, ein Spaltenvektor eine m × 1-Matrix.Im Nullvektor sind alle Komponenten Null, analog ist die Nullmatrix definiert.

Wir betrachten nun die m× (n+ 1)-Matrix

(A, b) :=

a11 a12 · · · a1n b1a21 a22 · · · a2n b2...

......

...am1 am2 · · · amn bm

.

Zeilenoperationen verandern die Zeilenvektoren. Wir streben eine einfacheForm von (A, b) mittels Zeilenoperationen an (Stufenform).

Suche nach “erster” Spalte in A, die nicht gleich dem Nullvektor ist. Gibt eskeine, so ist A die Nullmatrix und es gilt

n∑

j=1

0 · xj = bi, 1 ≤ i ≤ m.

Gibt es mindestens ein bi 6= 0, so ist L = ∅.Gilt bi = 0 fur alle i, so ist L = Rn.

Sei nun (ohne Einschrankung) die erste Spalte vom Nullvektor verschieden.Mittels Vertauschung der Zeilen verandern wir nun (A, b) so, dass a11 6= 0wird.

Der eigentliche Schritt: Wir verandern mittels (Z3) (A, b) so, dass die ersteSpalte keine weiteren Komponenten 6= 0 hat: wir eliminieren x1 aus den Glei-chungen Nr. 2 bis Nr. m.

Addiere dazu das −a21/a11-fache der ersten Zeile zur zweiten: Dann wird ausder zweiten Zeile:

(0 a22 −

a21

a11

a12 . . . a2n −a21

a11

a1n b2 −a21

a11

b1

).

40

Page 41: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Entsprechend fahren wir mit der dritten, vierten, . . . , n-ten Zeile fort. Wirerhalten die Matrix

a11 a12 · · · a1n b10 a22 − a21

a11a12 · · · a2n − a21

a11a1n b2 − a21

a11b1

......

......

0 am2 − am1

a11a12 · · · amn − am1

a11a1n bm − am1

a11b1

Betrachte nun

A∗ =

a22 − a21

a11a12 · · · a2n − a21

a11a1n

......

am2 − am1

a11a12 · · · amn − am1

a11a1n

sowie die Spalte

b∗ =

b2 − a21

a11b1

...bm − am1

a11b1

.

Ist A∗ Nullmatrix, so ist das Eliminationsverfahren beendet. Sonst verfahremit (A∗, b∗) wie mit (A, b). Das Verfahren endet nach endlich vielen Schritten.Man gelangt zu (A, b) der Form

0 · · · 0 a1n1 a1,n1+1 · · · · · · · · · · · · a1n b10 · · · · · · · · · · · · 0 a2,n2 · · · · · · a2n b2...

...0 · · · · · · · · · · · · · · · 0 ak,nk

· · · akn bk0 · · · · · · · · · · · · · · · · · · · · · · · · 0 bk+1...

......

0 · · · · · · · · · · · · · · · · · · · · · · · · 0 bm

Man nennt dies Zeilenstufenform. Auch wenn klar ist, was gemeint ist, be-schreiben wir diese Form formal:

Es ist 0 ≤ k ≤ n, 1 ≤ n1 < · · · < nk ≤ n. Ist k = 0, so ist A die Nullmatrix.Ist k ≥ 1, so ist fur 1 ≤ j ≤ k die Komponente aj,nj

die erste von Nullverschiedene Komponente der j-ten Zeile. Fur j > k ist die j-te Zeile von Ader Nullvektor. Es konnen einzelne oder alle der bj fur j > k verschieden vonNull sein.

Kleine weitere Vereinfachung mittels (Z2):Durch Multiplikation von Zeilen mit Korperelementen 6= 0 kann aj,nj

= 1,1 ≤ j ≤ k, erreicht werden.

41

Page 42: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Zusatzlich kann man mittels (Z3) erreichen, dass fur 2 ≤ j ≤ k in der nj−tenSpalte oberhalb von aj,nj

= 1 nur Nullen stehen. Wir sind also insgesamt beider folgenden Form angelangt:

0 · · · 0 1 a1,n1+1 · · · a1,n2−1 0 a1,n2+1 · · · 0 · · · a1n b10 · · · · · · 0 1 a2,n2+1 · · · 0 · · · a2n b2...

......

...0 · · · · · · · · · · · · · · · 0 1 · · · akn bk0 · · · · · · · · · · · · · · · · · · · · · · · · 0 bk+1...

......

0 · · · · · · · · · · · · · · · · · · · · · · · · 0 bm

Nun kann man wie folgt die Losungsmenge ablesen:

Fall 1: Es sei k < m und mindestens eine Zahl der bk+1, . . . , bm ist 6= 0. Danngilt L = ∅, denn wenn j ∈ {k+ 1, . . . ,m} ein Zeilenindex ist mit bj 6= 0, so istdie j-te Gleichung auf keine Weise erfullbar.Fall 2: k = m oder bk+1 = · · · = bm = 0. Im letzteren Fall konnen wir dieGleichungen k + 1, . . . ,m weglassen, denn sie sind immer erfullt. Es ergebensich nun noch 2 Unterfalle.

Fall 2a: Es gilt k = n : Nun muss A nach dem Weglassen der Zeilen k + 1 bism die n× n-Einheitsmatrix En sein:

aij = δij︸︷︷︸Kronecker-Delta-Symbol

:=

{1 , falls i = j

0 , falls i 6= j

En =

1 0 0 · · · 00 1 0 · · · 0... 0

. . ....

.... . . 0

0 0 · · · 0 1

.

Also lautet das Gleichungssystem xi = bi fur i = 1, 2, . . . , k(= n). Es gibt alsoin diesem Fall genau eine Losung: L = {(b1, . . . , bk)}.Fall 2b: Sei nun k < n : In diesem Fall konnen wir die Variablen xj mitj 6∈ {n1, n2, . . . , nk} frei wahlen, und xn1 , xn2 , . . . , xnk

ergeben sich aus

xni= bi −

n∑

j=ni+1j 6∈{ni+1,...,nk}

aijxj

42

Page 43: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

⇒ Es gibt dann unendlich viele Losungen, falls K unendlich ist, z.B. beiK = R, denn n − k der x-Variablen, namlich xj mit j 6∈ {n1, . . . , nk} konnennach Belieben gewahlt werden. Auch fur endliche K, z.B. Z2, gibt es mehr alseine Losung.

Es folgt ein Zahlenbeispiel: K = R.

x1 + 2x2 − x3 = 12x1 + x2 + x3 = 03x1 + 2x3 = 4

1 2 −1 12 1 1 03 0 2 4

Elimination der x1-Variablen aus der 2. und 3. Gleichung:

1 2 −1 10 −3 3 −20 −6 5 1

Eliminiere x2 aus der 3. Gleichung:

1 2 −1 10 −3 3 −20 0 −1 5

⇒ L = {(14/3,−13/3,−5)}.Wir wandeln nun das Beispiel leicht ab:

1 2 −1 12 1 1 03 0 3 −1

1 2 −1 10 −3 3 −20 −6 6 −4

Hier fallt die letzte Gleichung einfach weg!

x1 +2x2 −x3 = 1−3x2 +3x3 = −2

Teile die zweite Gleichung durch −3 und elminiere x2 aus der 1. Gleichung:

x1 +0x2 +x3 = −1/3x2 −x3 = 2/3

Dies ist der Fall 2a: L = {(−1/3− t, 2/3 + t, t), t ∈ R}.Der Fall 2a kann nicht auftreten, wenn m < n :

43

Page 44: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

4.2 Satz Gilt im Gleichungssystem (4.1) m < n (weniger Gleichungen alsUnbekannte), so hat das System entweder keine Losung oder mehr als eine.

Spezialfall m = n : Die Matrix ist quadratisch, die Anzahl der Spalten ist gleichder Anzahl der Zeilen. Im Fall 2a wird aus A mittels elementarer Zeilenope-rationen En. Das Gleichungssystem hat dann fur jede Wahl von bi genau eineLosung.

4.3 Definition Eine quadratische n×n - Matrix A heißt regular, falls sie sichdurch elementare Zeilenoperationen in die Einheitsmatrix En transformierenlasst. Ist A nicht regular, so heißt sie singular.

4.4 Satz In (4.1) sei n = m. Ist A regular, so hat das Gleichungssystem furjede Wahl der bi, 1 ≤ i ≤ n, genau eine Losung. Ist A singular, so hat dasSystem entweder gar keine Losung oder mehr als eine Losung.

4.5 Korollar Hat (4.1) mit n = m fur eine spezielle Wahl der bi genau eineLosung, so ist A regular und demzufolge hat (4.1) fur jede Wahl der bi genaueine Losung.

Sind alle bi = 0, so sagt man:

4.6 Definition Ein Gleichungssystem der Form

n∑

j=1

aijxj = 0, i = 1, . . . ,m (†)

heißt homogen. Ist (4.1) ein Gleichungssystem mit beliebigen bi, so heißt (†)das zu (4.1) gehorende homogene System.

Ein homogenes System hat immer mindestens eine Losung, namlich xj = 0,1 ≤ j ≤ n.

4.7 Korollar Ein homogenes Gleichungssystem mit m < n hat mehr als eineLosung.

Beweis: Satz 4.2. �

Und nochmals m = n :

4.8 Korollar Es sei (4.1) mit m = n gegeben. Dieses Gleichungssystem ist

44

Page 45: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

dann und nur dann eindeutig losbar, wenn das zugehorige homogene Systemnur die Losung xj = 0, 1 ≤ j ≤ n, hat.

→ Hat das zugehorige homogene System nicht nur die Losung xj = 0, 1 ≤ j ≤n, so hat (4.1) keine eindeutige Losung. Es sind zwei Falle moglich.

→ Man kann fur ein homogenes System “haufig” ohne Gauß etc. nachweisen,dass es nur die Nulllosung hat. Dann folgt die Existenz einer Losung desinhomogenen Systems ohne explizite Berechnung.

45

Page 46: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

46

Page 47: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 5

Matrizen

Wir betrachten Matrizen, deren Komponenten aus einem beliebigen, aber festgewahlten Korper K stammen.

5.1 Definition Seien A = (aij) und B = (bij) zwei m× n-Matrizen. Dann istdie Summe A+B wieder eine m× n-Matrix:

A+B := (aij + bij)1≤i≤m, 1≤j≤n.

(Die Komponenten der Matrizen werden in K addiert.)

Die Multiplikation ist so nicht definiert, und dafur gibt es gute Grunde:

5.2 Definition Sei A = (aij) eine m× n-Matrix und B = (bij) sei eine n× k-Matrix. Dann ist die m× k-Matrix C = A ·B = (cij) wie folgt definiert:

cij :=n∑

t=1

aitbtj, 1 ≤ i ≤ m, 1 ≤ j ≤ k.

Komponente i, j : Man nehme Zeile Nr. i der Matrix A, d.h.

(ai1 ai2 . . . ain),

und Spalte Nr. j der Matrix B, d.h.

b1jb2j...bnj

und multipliziere sukzessive paarweise die Komponenten dieser “Vektoren”und summiere diese Produkte auf. Hier ein Beispiel:

A =

(1 2 3−1 3 −5

)B =

1 0 12 2 21 −1 2

liefert

47

Page 48: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

A ·B =

(8 1 110 11 −5

).

B · A ist nicht definiert, denn die Anzahl der Spalten von B ist ungleich derAnzahl der Zeilen von A.

5.3 Satz

(1) Ist A eine m × n -, B eine n × k- und C eine k × l-Matrix, so gilt (AB)C =A(BC).

(2) Ist A einem×n -, und sind B,C n×k- Matrizen, so gilt A(B+C) = AB+AC.

(3) Sind A,B m × n-Matrizen, und ist C eine n × k-Matrix, so gilt (A + B)C =AC +BC.

(4) Ist A m×n-Matrix und sind Em, En diem×m− bzw. n×n-Einheitsmatrizen,so gilt

EmA = AEn = A.

Beweis: Wir verwenden die Definitionen 5.1 und 5.2 und die Gesetze im KorperK. (2) - (4) sind eine Ubung.(1) Sei D := (AB)C. Dann ist

dij =k∑

t=1

fitctj mit fit =n∑

s=1

aisbst.

Also

dij =k∑

t=1

(n∑

s=1

aisbst)ctj

=n∑

s=1

ais(k∑

t=1

bstctj)

mittels Assoziativ- und Distributivgesetzen inK. Rechts steht die Komponentei, j von A(BC). �

Die Menge der n × n-Matrizen mit Komponenten aus K bezeichnen wir mitM(n,K). Die Elemente in M(n,K) konnen wir stets addieren und multipli-zieren.

5.4 Satz M(n,K) versehen mit der Addition + aus 5.1 und der Matrizenmul-tiplikation · ist ein Ring mit Eins. Das Neutralelement der Addition ist dieNullmatrix, das Neutralelement der Multiplikation ist Em.

48

Page 49: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

5.5 Bemerkung (M(n,K),+, ·) ist nicht kommutativ (außer fur n = 1):(

0 11 2

) (1 23 4

)=

(3 47 10

)

(1 23 4

) (0 11 2

)=

(2 54 11

).

Wir mussen die Nullmatrix 0 und die Null im Korper unterscheiden; was ge-meint ist, sollte jeweils aus dem Kontext klar sein.

5.6 Definition Eine Matrix A ∈ M(n,K) heißt invertierbar, wenn eine Ma-trix B ∈M(n,K) existiert mit

AB = BA = En. (5.1)

Die zu A inverse Matrix wird mit A−1 bezeichnet. Die Menge aller invertier-baren n× n-Matrizen wird mit GL(n,K) bezeichnet (engl.: general linear)

5.7 Bemerkung Implizit setzen wir oben die Eindeutigkeit von A−1 voraus:Es sei B,B′ so, dass (5.1) gilt:

B = BEn = B(AB′) = (BA)B′ = EnB′ = B′.

Sei A =

(0 10 0

),

dann ist A

(b11 b12b21 b22

)=

(b21 b220 0

),

also hat A kein Inverses. En ist invertierbar mit E−1n = En.

5.8 Satz

(1) (GL(n,K), ·) ist eine Gruppe, die allgemeine lineare Gruppe (general lineargroup).

(2) Fur A,B ∈ GL(n,K) gilt (AB)−1 = B−1A−1.

(3) Fur A ∈ GL(n,K) ist A−1 ∈ GL(n,K) und (A−1)−1 = A.

Beweis: Bisher wissen wir nur, dass A ·B ∈M(n,K), ist aber AB invertierbarfur A,B ∈ GL(n,K)? Es gilt

(B−1A−1)(AB) = (B−1(A−1A))B = (B−1En)B = B−1B = En

49

Page 50: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

und analog (AB)(B−1A−1) = En. Also ist B−1A−1 das Inverse. Der Rest istdann klar. �

Spezielle quadratische Matrizen sind die Diagonalmatrizen

D =

d1 0 · · · · · · 00 d2 0 · · · 0

0 0 d3...

.... . . . . . 0

0 · · · · · · 0 dn

,

kurz: D = (diδij), (δij Kronecker-Symbole).

Ein solches D ist invertierbar genau dann, wenn alle di 6= 0. Dann gilt:

D−1 = (1

diδij).

Zuruck zu den Gleichungssystemen aus Kapitel 4:

Betrachte das n-Tupel der unbekannten xi als Spaltenvektor

x1...xn

,

so hat (∗) in Kapitel 4 die Form Ax = b, wobei b ein m× 1-Spaltenvektor ist.Dies ist formal analog zum Fall ax = b, a ∈ K.

Die Zeilenoperationen sind als Matrizenmultiplikationen darstellbar. Sei

ek := (0 . . . 0 1 0 . . . 0) (Zeilenvektor).↑k

Zi,j sei die folgende Matrix: die i-te Zeile ist ej, die j-te Zeile ist ei und furk 6= i, j ist die k-te Zeile ek :

50

Page 51: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

i

j

1. . .

10 1

1. . .

11 0

1. . .

1

m×m-Matrix

Die Multiplikation von links mit Zi,j bewirkt die Vertauschung der i−ten Zeilevon A mit der j-ten. Zi,jb : Spaltenvektor, der aus b durch Vertauschen deri-ten mit der j-ten Komponente hervorgeht.

Zi,j · Zi,j = Em.

Ax = b hat die gleiche Losungsmenge wie (Zi,j · A)x = Zi,jb.

(Z1) Multiplikation von links mit einer “Z-Matrix”

(Z2) Di,α : i-tes Diagonalelement ist α ∈ K, die anderen sind 1. Di,α sei Diago-nalmatrix. Dies entspricht der Multiplikation der i-ten Gleichung mit α. Furα 6= 0 ist (Di,α)−1 = Di,1/α

(Z3) Betrachte die Matrix M l,k,α, die bis auf die k-te Zeile die Zeilen der Einheits-matrix hat. In der k-ten Zeile steht

(0 . . . 0 α 0 . . . 1 . . . 0)↑ ↑l k

In der Einheitsmatrix wurde zur k−ten Zeile das α-fache der l-ten Zeileaddiert.

(M l,kα)−1 = M l,k,−α.

Also ist nach Definition 4.3 eine quadratische Matrix regular, wenn sie durchMultiplikation von links mit Z−, D− oder M−Matrizen der obigen Form indie Einheitsmatrix uberfuhrt werden kann.

5.9 Satz Eine quadratische Matrix A ist genau dann invertierbar, wenn sieregular ist.

51

Page 52: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: Sei A invertierbar, dann hat Ax = b die eindeutige Losung x = A−1b.Damit ist A nach Satz 4.4 regular.Sei nun A regular. Dann gibt es eine Matrix B, die als Produkt von Z−, D−oder M−Matrizen dargestellt werden kann mit BA = En. Mit Satz 5.8 ist Binvertierbar. Also ist A = (B−1B)A = B−1(BA) = B−1, also AB = B−1B =En, also A invertierbar, und die Inverse ist B. �

Nun konnen wir eine Inverse von Hand bestimmen. Ist A n × n−Matrix, sobilden wir die n×2n-Matrix, indem wir neben A die Einheitsmatrix En setzen:

a11 · · · a1n 1 0...

. . .

an1 · · · ann 0 1

Fuhre elementare Zeilenoperationen durch, bis die linke Halfte die Einheits-matrix ist (oder bis das Verfahren vorher abbricht, dann ist A singular!). Dannsteht in der rechten Halfte die Inverse von A (wenn A regular ist).

5.10 Definition

(1) Sei A eine m × n−Matrix, A = (aij). Die Matrix, die man erhalt, wenn manZeilen und Spalten aus A vertauscht, heißt die transponierte Matrix AT vonA :

AT = (a′ij), mit a′ij := aji.

(2) Eine quadratische Matrix A heißt symmetrisch, wenn AT = A gilt.

5.11 Satz

(1) A sei eine m× n−Matrix, B sei eine n× k−Matrix, so gilt

(AB)T = BTAT .

(2) Ist A ∈ GL(n,K), so ist AT ∈ GL(n,K) und es gilt (AT )−1 = (A−1)T .

Beweis: (1) Sei BT k× n−Matrix, AT n×m−Matrix, so ist BT ·AT definiert.Sei D = (dij) := AB und DT = (d′ij), dann gilt

d′ij = dji =∑

k

ajkbki =∑

k

b′ika′kj

mit der Notation AT = (a′ij), BT = (b′ij). Die rechte Seite ist die ij−te Kom-

ponente von BTAT .

(2) Mit (1) folgt(A−1)TAT = (AA−1)T = ET

n = En,

52

Page 53: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

AT (A−1)T = (A−1A)T = ETn = En,

also ist (A−1)T die Inverse von AT . Insbesondere ist AT invertierbar. �

53

Page 54: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

54

Page 55: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 6

Vektorraume

Wir kommen nun zu einem zentralen Begriff der Linearen Algebra. Im R3

(oder K3, K ein Korper) konnen wir addieren (Parallelogrammregel) und mitden reellen Zahlen (Skalaren) multiplizieren (“strecken”).

Abb. 6.1: Parallelogrammregel und Streckung

Sei K fortan ein Korper. Seine Elemente werden in dem nun folgenden Zusam-menhang Skalare genannt.

6.1 Definition Eine nichtleere Menge V, versehen mit zwei zweistelligen Ver-knupfungen

V × V ∋ (v, w) → v + w ∈ VK × V ∋ (α,w) → αv ∈ V

heißt K−Vektorraum, wenn die folgenden Vektorraumaxiome (V1) - (V5)erfullt sind:

(V1) (V,+) ist eine abelsche Gruppe

(V2) 1v = v fur alle v ∈ V(V3) α(βv) = (αβ)v ∀α, β ∈ K, ∀ v ∈ V(V4) (α+ β)v = αv + βv ∀α, β ∈ K, ∀ v ∈ V(V5) α(v + w) = αv + αw ∀α ∈ K, ∀ v, w ∈ V.

Kommentare: Elemente von V bezeichnet man als Vektoren. + heißt Vektor-addition (ungleich der Addition in K); −v bezeichnet das inverse Element vonv ∈ V. 0 ist das Neutralelement der Addition in V (ungleich dem Nullele-ment des Korpers). Manchmal werden daher Vektoren mit ~v, v oder ahnlichem

55

Page 56: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

bezeichnet, also etwa ~0 oder 0, um von der 0 ∈ K zu unterscheiden. DieseInflation von Notation vermeiden wir aber. Betrachte die Bedeutung des +in (V4), (V5). α + v, α ∈ K, v ∈ V ist nicht definiert. Betrachte analog diejeweilige Bedeutung von · in (V3). Die Multiplikation zweier Vektoren ist nichtdefiniert.

6.2 Proposition

(1) 0 · v = 0 ∀ v ∈ V.(2) α · 0 = 0 ∀α ∈ K.(3) (−1)v = −v ∀ v ∈ V .

(4) Falls αv = 0 gilt, so folgt α = 0 oder v = 0.

Beweis: (1) 0 · v = (0 + 0)v = 0v + 0v nach Eigenschaft der Null in K und(V4). Addiere auf beiden Seiten −(0 · v), das Inverse von 0 · v in V bzgl. derVektorraumaddition, so folgt 0 = 0 · v.(2) analog;(3) (−1)v+ v = (−1)v+ 1v = (−1 + 1)v = 0 · v = 0, wobei (V2), (V4) und (1)verwendet wurden.(4) Ist α 6= 0, so ist v = 1 · v = ( 1

αα)v = 1

α(αv) = 1

α· 0 = 0, wobei (2), das

Inverse in K, (V3), die Voraussetzung und (2) verwendet wurden. �

Sind v1, v2, . . . , vn ∈ V und α1, . . . , αn ∈ K, so definieren wir (rekursiv)

αv1 + α2v2 + . . .+ αnvn =n∑

i=1

αivi.

Man nennt dies eine Linearkombination der vi.

6.3 Beispiele

(1) V = {0}, 0 : 0−Vektor, V “0−dimensionaler Vektorraum”.

(2) n ∈ N, K Korper. Sei

Kn := {x = (x1, . . . , xn) : xi ∈ K ∀ i}.Wir definieren die Addition durch

(x1, . . . , xn) + (y1, . . . , yn) := (x1 + y1, x2 + y2, . . . , xn + yn)

und die Multiplikation mit Skalaren durch

α(x1, . . . , xn) := (αx1, αx2, . . . , αxn).

Dann sind die Vektorraumaxiome erfullt. K selbst ist somit einK−Vektorraum.

56

Page 57: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(3) M sei eine Menge. KM := {f |f : M → K, f Abbildung}. Zu f, g ∈ KM

sei (f + g)(m) := f(m) + g(m) und (αf)(m) := αf(m). Somit erhalten wireinen K−Vektorraum; fur M = {1, . . . , n} ist es (2), fur M = N ist es derK−Vektorraum von Folgen (αi)i∈N von Elementen in K (N→ K).

(4) V := {f : f ist stetige Funktion R→ R} ist ein R−Vektorraum, siehe AnalysisI.

(5) K,L seien zwei Korper mit K ⊂ L, wobei die Addition und die Multiplika-tion in K von Elementen in K mit den entsprechenden in L ubereinstimmt.L heißt Korpererweiterung von K. (Beispiel: Q ⊂ R ⊂ C) Dann ist L einK−Vektorraum: Die Addition stammt aus L; Elemente aus L konnen mitSkalaren aus K multipliziert werden.Z5 ist keine Korpererweiterung von Z2, denn 1+1 = 0 in Z2, aber nicht in Z5.

(6) M(m,n,K) sei die Menge der m × n-Matrizen mit Komponenten in K. Diesist ein K-Vektorraum bei “naturlicher” Definition der Addition und Multipli-kation mit Skalaren. Hier ist ein Element aus M(m,n,K) auch mit einem ausKn·m identifizierbar.

6.4 Definition Es sei V ein K-Vektorraum. Eine nichtleere Teilmenge U ∈ Vheißt Unterraum, oder linearer Unterraum, wenn die folgenden Axiome erfulltsind:

(U1) Fur u, v ∈ U ist u+ v ∈ U.(U2) Fur u ∈ U und α ∈ K gilt αu ∈ U.

6.5 Bemerkung (U1) und (U2) entsprechen:

αu+ βv ∈ U ∀α, β ∈ K, ∀u, v ∈ U.

6.6 Beispiele

(1) {(x, 0) : x ∈ R} und {(0, y) : y ∈ R} sind Unterraume des R-Vektorraums R2.

(2) Es sei Ax = 0 ein homogenes lineares Gleichungssystem, wobei A eine m× n-Matrix sei. Dann ist L := {x ∈ Kn : Ax = 0} ein Unterraum von Kn, derLosungsraum. Denn sind x, y Losungen und α, β ∈ K, so ist A(αx+ βy) =αAx+βAy = 0, also αx+βy ebenfalls eine Losung. Sind hingegen x, y Losun-gen eines inhomogenen Systems Ax = b, so gilt A(αx + βy) = αAx + βAy =(α+ β)b, aber (α+ β)b ist im Allgemeinen 6= b.

6.7 Satz Ist U ein Unterraum eines K-Vektorraums V, so ist U selbst einK-Vektorraum.

57

Page 58: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: U hat mindestens ein Element nach Definition; es heiße u. Dann gilt0 · u ∈ U nach (U2) und nach Proposition 6.2 ist 0 = 0 · u, also 0 ∈ U. Weiterist zu u ∈ U wegen (U2) −u = (−1)u ∈ U mittels 6.2.(3). Also ist (U,+) eineabelsche Gruppe mit der von V ubernommenen Addition. Die anderen Axiomefolgen aus denen in V. �

6.8 Satz Sind U1 und U2 zwei Unterraume desK-Vektorraums V, so ist U1∩U2

ein Unterraum.

Beweis: Es gilt 0 ∈ U1 ∩ U2, also ist U1 ∩ U2 nicht leer. Es seien α, β ∈ Kund u, v ∈ U1 ∩ U2. Dann ist αu + βv sowohl in U1 als auch in U2, da U1, U2

Unterraume sind. Also ist αu+ βv ∈ U1 ∩ U2. �

Die Vereinigung zweier Unterraume ist im Allgemeinen kein Unterraum. Dazusei U1 = R× {0} ⊂ R2 und U2 = {0} ×R ⊂ R2 (“naturliche” Unterraume desR2). U1 ∩ U2 ist kein Unterraum, denn (1, 0) und (0, 1) sind beide in U1 ∪ U2,aber (1, 1) = (1, 0) + (0, 1) ist es nicht.

6.9 Definition Es seien U1, U2, . . . , Un Unterraume des K-Vektorraums V.Dann ist die Summe dieser Unterraume definiert als

U1 + U2 + . . .+ Un := {u1 + u2 + . . .+ un : ui ∈ Ui ∀ i}.

6.10 Satz Sind U1, . . . , Un Unterraume von V, so ist die SummeU1 + U2 + . . .+ Un ein Unterraum.

Beweis: Dies ist eine Ubung.

58

Page 59: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 7

Basis eines Vektorraums

7.1 Definition Es sei V ein K-Vektorraum. Eine (endliche) Basis des Vek-torraums ist ein n-Tupel V = (v1, v2, . . . , vn) von Vektoren, das die Eigen-schaft hat, dass sich jeder Vektor v ∈ V eindeutig als Linearkombinati-on der vi darstellen lasst, d.h. dass es zu jedem v ∈ V genau ein n-Tupel(α1, α2, . . . , αn) ∈ Kn gibt mit

v =n∑

i=1

αivi.

Hat ein Vektorraum eine (endliche) Basis, so heißt er endlichdimensional.

Tatsachlich achten wir auf die Reihenfolge der Basiselemente. Vektoren einerBasis mussen immer ungleich dem Nullvektor sein, sonst ist die geforderteDarstellung nicht eindeutig. Wir betrachten primar endlichdimensionale Vek-torraume.

In V = Kn sei ei := (δi1, δi2, . . . , δin), 1 ≤ i ≤ n. E := (e1, e2, . . . , en) ist eineBasis. Fur jedes x = (x1, . . . , xn) ∈ Kn gilt

x =n∑

i=1

xiei.

7.2 Definition (e1, . . . , en) heißt die Standardbasis (manchmal die “kanoni-sche Basis”) von Kn.

Wichtig ist, dass Kn nicht nur diese Basis hat, sondern noch sehr viele andere.Es sei etwa V = R2. Dann ist ((1, 1), (2, 3)) eine Basis. Dazu ist zu zeigen,dass jeder Vektor b = (b1, b2) ∈ R2 eine eindeutige Darstellung

b = α1(1, 1) + α2(2, 3)

⇔(

1 21 3

)(α1

α2

)=

(b1b2

)

hat. Die Matrix

(1 21 3

)ist regular, also ist die Basiseigenschaft des Paares

nachgewiesen.

59

Page 60: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

7.3 Satz Es seien u1, u2, . . . , un Vektoren in Kn. Wir schreiben sie als Spal-tenvektoren

uj =

u1j

u2j...unj

; 1 ≤ j ≤ n.

(u1, . . . , un) ist genau dann eine Basis von Kn, wenn die Matrix U = (uij)regular ist.

Beweis: (u1, . . . , un) ist Basis von Kn ⇔ zu jedem b ∈ Kn (Spaltenvektor)gibt es eine eindeutige Darstellung b =

∑nj=1 αjuj (per Definition). Dies ist

das Gleichungssystem

U

α1...αn

= b.

Nach Satz 4.4 hat es genau dann eine eindeutige Losung, wenn die Matrix Uregular ist. �

7.4 Satz Sei V ein K−Vektorraum. Besitzt V eine Basis mit n Vektoren, sohat jede Basis von V n Vektoren.

Beweis: Es seien V = (v1, v2, . . . , vm) und U = (u1, u2, . . . , un) Basen von V.Wir zeigen m ≥ n. Da wir die Rollen der Basen in dem nun folgenden Beweisvertauschen konnen, folgt auch n ≥ m, also n = m.Da V eine Basis ist, kann jeder Vektor uj eindeutig durch die v′s dargestelltwerden:

uj =m∑

i=1

aijvi, 1 ≤ i ≤ n, aij ∈ K.

Sei (x1, . . . , xn) ∈ Kn. Es gilt

n∑

j=1

xjuj =n∑

j=1

xj(m∑

i=1

aijvi) =m∑

i=1

(n∑

j=1

aijxj)vi (7.1)

Nach der Basiseigenschaft von U ist die einzige Moglichkeit, wie die linke Seitegleich dem Nullvektor wird, die Wahl x1 = x2 = . . . = xn = 0. Es sei m < nangenommen. Dann hat mit Korollar 4.7 das homogene lineare Gleichungs-system

n∑

j=1

aijxj = 0 ∀ i

60

Page 61: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

eine nichttriviale Losung, also kann die rechte Seite von (7.1) durch eine vonNull verschiedene Wahl der xi (nicht alle gleich Null) zu Null gemacht werden.(Widerspruch, also m ≥ n.) �

Ein endlichdimensionaler Vektorraum hat keine eindeutige Basis, aber die An-zahl der Vektoren in einer Basis ist unabhangig von der speziellen Basis.

7.5 Definition Fur einen endlichdimensionalen Vektorraum V ist die Anzahlder fur eine Basis benotigten Vektoren die Dimension dim(V ) des Vektor-raums. Ist der Vektorraum nicht endlich, so setzt man dim(V ) :=∞.dim({0}) (Basis ∅) ist 0.

7.6 Beispiele

(1) Kn hat die Dimension n.

(2) Betrachte Polynome p(x) = a0 + a1x + . . . anxn mit ai ∈ K und an 6= 0 fur

n ≥ 1. n ist dann der Grad: grad(p(x)).K[x] : Menge aller PolynomeKn[x] : Menge aller Polynome vom Grad ≤ n.K[x], Kn[x] sind K-Vektorraume. Eine Basis von Kn[x] ist (1, x, x2, . . . , xn).dim(Kn[x]) = n+ 1.

7.7 Definition Es sei V ein K−Vektorraum und v1, . . . , vn ∈ V. Dann ist

L[v1, . . . , vn] :=

{n∑

i=1

αivi : α1, . . . , αn ∈ K}

die lineare Hulle der v1, . . . , vn. Wir setzen L[∅] := {∅} (Konvention).

Eine erste Beobachtung:

7.8 Lemma L[v1, . . . , vn] ist ein Unterraum von V.

Beweis: Seien v =∑n

i=1 αivi und u =∑n

i=1 βivi zwei Elemente in L[v1, . . . , vn],dann ist v + u =

∑ni=1(αi + βi) ∈ L[v1, . . . , vn] und fur λ ∈ K gilt

λv =∑n

i=1(λαi)vi ∈ L[v1, . . . , vn]. �

7.9 Definition V = (v1, . . . , vn) heißt ein Erzeugendensystem von V, wennV = L[v1, . . . , vn] gilt.

v1, . . . , vn ist nach Definition ein Erzeugendensystem von L[v1, . . . , vn]. JedeBasis von V ist ein Erzeugendensystem von V. Fur ein Erzeugendensystem

61

Page 62: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

wird aber nicht verlangt, dass die Darstellung als Linearkombination eindeutigist. So ist zum Beispiel ((1, 0), (0, 1), (1, 1)) ein Erzeugendensystem von R2,aber keine Basis. Der “andere Teil” der Basiseigenschaft wird mit Hilfe desfolgenden wichtigen Begriffs erfasst:

7.10 Definition n Vektoren v1, . . . , vn ∈ V heißen linear unabhangig, wennder Nullvektor 0 ∈ V keine “nichttriviale” Darstellung als Linearkombinationder vi hat.

n∑

i=1

αivi = 0 ⇒ αi = 0 fur alle i. (7.2)

Sind die Vektoren nicht linear unabhangig, so heißen sie linear abhangig. Eineunendliche Teilmenge (vi)i∈I von V heißt linear unabhangig, wenn jede endlicheTeilmenge linear unabhangig ist, d.h. wenn fur jedes n ∈ N und jede Auswahli1, . . . , in ∈ I die Vektoren vi1 , . . . , vin linear unabhangig sind.

7.11 Proposition

(1) Ist einer der Vektoren vi der Nullvektor, so sind v1, . . . , vn linear abhangig.

(2) Sind in v1, . . . , vn zwei Vektoren gleich, so sind v1, . . . , vn linear abhangig.

(3) Jede Teilmenge einer linear unabhangigen Menge von Vektoren ist wieder linearunabhangig. (Konvention: Die leere Menge ist linear unabhangig.)

(4) Ist v ∈ V nicht der Nullvektor, so ist die Menge bestehend aus diesem Vektorlinear unabhangig.

Beweis: (1) - (3) sind eine Ubung; zu (4) siehe Proposition 6.2 (4).

7.12 Satz V = (v1, . . . , vn) ist genau dann eine Basis von V, wenn V ein Erzeu-gendensystem von V ist und wenn die Vektoren v1, . . . , vn linear unabhangigsind.

Beweis: Ist V eine Basis, so ist V ein Erzeugendensystem. Die Eindeutigkeitder Darstellung impliziert (7.2). Wir zeigen, dass ein linear unabhangiges Er-zeugendensystem V eine Basis ist: Sei v ∈ V. Da V Erzeugendensystem ist,existieren α1, . . . , αn ∈ K mit v =

∑ni=1 αivi. Sei

∑ni=1 α

′ivi eine zweite Dar-

stellung von v, so folgt∑n

i=1(αi − α′i)vi = 0. Mit (7.2) ergibt sich α′

i = αi furalle i. Das liefert die gewunschte Eindeutigkeit. �

7.13 Satz Ist V = (v1, . . . , vn) ein Erzeugendensystem des K−VektorraumsV, so ist V endlichdimensional und es existiert eine Basis von V, die aus einerTeilmenge dieser Vektoren besteht.

62

Page 63: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: Sind v1, . . . , vn linear unabhangig, so ist V eine Basis und dim(V ) = n.Sind diese Vektoren nicht linear unabhangig, so existieren α1, . . . , αn, nicht alleNull, mit

∑ni=1 αivi = 0. Sei etwa αn 6= 0. Dann ist

vn =n−1∑

i=1

(−αiαn

)vi,

vn lasst sich also aus den anderen Vektoren kombinieren. Dann ist v1, . . . , vn−1

ein Erzeugendensystem von V : Sei w ∈ V, so existieren β1, . . . , βn mit

w =n∑

i=1

βivi (Erzeugendensystem)

=n−1∑

i=1

βivi +n−1∑

i=1

(−βnαiαn

)vi

=n−1∑

i=1

(βi −

βnαiαn

)vi.

Dies ist eine Darstellung von w als Linearkombination der v1, . . . , vn−1. Wirverfahren nun mit (v1, . . . , vn−1) so weiter: entweder sind sie bereits linear un-abhangig und somit eine Basis, oder wir konnen einen weiteren Vektor wegstrei-chen. �

7.14 Lemma Seien u1, . . . , um linear unabhangige Vektoren in einemK−Vektorraum V, die keine Basis bilden. Dann gibt es einen Vektor v ∈ V,so dass u1, . . . , um, v linear unabhangig sind.

Beweis: Es ist L[u1, . . . , um] ⊂ V und L[u1, . . . , um] 6= V. Also existiert einv ∈ V mit v 6∈ L[u1, . . . , um]. Zu zeigen: u1, . . . , um, v sind linear unabhangig.Sei

∑mi=1 αiui + αm+1v = 0. Ware αm+1 6= 0, so ließe sich v als Linearkombi-

nation der u′s darstellen:

v = −m∑

i=1

αiαm+1

ui.

Das ist aber mit v 6∈ L[u1, . . . , um] nicht moglich. Also ist αm+1 = 0. Dau1, . . . , um per Annahme linear unabhangig sind, folgt α1 = α2 = · · · = αm =0. Also sind u1, . . . , um, v linear unabhangig. �

7.15 Basiserganzungssatz von Steinitz Seien u1, . . . , um linear un-abhangige Vektoren in einem K−Vektorraum V. Ist V endlichdimensional, solassen sich diese Vektoren zu einer Basis erganzen. Ist V unendlichdimensional,so lassen sie sich zu einer unendlichen Folge u1, . . . .um, um+1, um+2, . . . vonlinear unabhangigen Vektoren erganzen.

63

Page 64: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: Nach Lemma 7.14 konnen wir u1, . . . , um erganzen. Entweder stoßenwird dabei nach endlich vielen Schritten auf eine Basis oder die Konstruktionfuhrt auf eine unendliche Folge (ui)i∈N von Vektoren mit der Eigenschaft, dassu1, . . . , un fur jedes n ∈ N linear unabhangig sind. Dann folgt aber auch, dassjede endliche Teilmenge ui1 , . . . , uim linear unabhangig ist, denn zu i1, . . . , imexistiert ein n ∈ N mit i1, . . . , im ≤ n. Da eine Teilmenge eines “Satzes”linear unabhangiger Vektoren wieder linear unabhangig ist (7.11 (3)), folgt,dass ui1 , . . . , uim linear unabhangig sind. �

Wir konnen einige Folgerungen aus Satz 7.13 und Satz 7.15 sammeln:

7.16 Korollar Sei V ein K−Vektorraum, sei V = (v1, . . . , vn) ein Erzeugen-densystem von V und seien u1, . . . , um linear unabhangig. Dann ist V endlich-dimensional und u ≥ dim(V ) ≥ m.

7.17 Korollar Sei V ein K-Vektorraum mit dimV = n.

(1) n linear unabhangige Vektoren in V bilden eine Basis.

(2) Ein Erzeugendensystem mit n Vektoren bildet eine Basis.

Beweis: 1) Waren die n Vektoren keine Basis, so konnte man sie nach Satz 7.15zu einer Basis mit mehr als n Vektoren erganzen, was dimV = n widerspricht.2) analog. �

7.18 Korollar Sei U ein Unterraum des endlichdimensionalenK-VektorraumsV. Dann gilt:

(1) U ist endlichdimensional und dim(U) ≤ dim(V ).

(2) dim(U) = dim(V ) gilt genau dann, wenn U = V ist.

Beweis: (1) Ware U nicht endlichdimensional, so wurde eine unendliche Folgelinear unabhangiger Vektoren in U existieren, die auch linear unabhangig inV ware. Jede Basis in U ist auch linear unabhangig als Menge von Vektorenin V, lasst sich also nach Satz 7.15 zu einer Basis von V erganzen.(2) Ist dim(U) = dim(V ), so ist nach Korollar 7.17 jede Basis in U auch Basisin V. �

7.19 Satz Seien U1 und U2 zwei Unterraume des endlichdimensionalenK−Unterraums V. Dann gilt

dimU1 + dimU2 = dim(U1 ∩ U2) + dim(U1 + U2).

64

Page 65: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: k := dim(U1 ∩ U2); mi := dim(Ui). Es gilt m1,m2 ≥ k. Sei(v1, . . . , vk) eine Basis von U1 ∩ U2. Mit Satz 7.15 konnen wir diese Basiszu einer Basis von U1 erganzen: (v1, . . . , vk, vk+1, . . . , vm1); analog fur U2:(v1, . . . , vk, wk+1, . . . , wm2).Behauptung: (v1, . . . , vk, vk+1, . . . , vm1 , wk+1, . . . , wm2) ist eine Basis vonU1 + U2. Es ist ein Erzeugendensystem.Zu zeigen: die Vektoren sind linear unabhangig: Sei

0 =

m1∑

i=1

αivi +

m2∑

i=k+1

βiwi,

alsom2∑

i=k+1

βiwi = −m1∑

i=1

αivi.

Links steht ein Vektor in U2, rechts ein Vektor in U1, also ein Vektor in U1∩U2.Dieser lasst sich als Linearkombination von v1, . . . , vk darstellen, also αk+1 =· · · = αm1 = 0, also

0 =k∑

i=1

αivi +

m2∑

i=k+1

βiwi.

Da v1, . . . , vk, wk+1, . . . , wm2 linear unabhangig sind, folgt auch, dass die ver-bliebenen α′s und β′s alle Null sind. �

65

Page 66: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

66

Page 67: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 8

Basiswechsel, Koordinaten

Es seien U und V Basen eines K−Vektorraums V. Dann kann in der Notationvon Satz 7.4 (m = n) jeder der Vektoren uj durch die v′s dargestellt werden:

uj =n∑

i=1

aijvi, 1 ≤ j ≤ n (8.1)

(uj und die vi sind Vektoren.) A = (aij), n×n−Matrix, nennt man die Matrixdes Basiswechsels von V nach U .

8.1 Beispiel Ist V die Standardbasis V = (e1, . . . , en) in Kn und U =(u1, . . . , un) eine andere Basis mit

ui =

u1i...uni

,

dann ist die Matrix U, die die ui als Spalten hat, die Matrix des Basiswechselsvon V nach U .

8.2 Satz Sind zwei Basen eines endlichdimensionalen Vektorraums gegeben,so ist die durch (8.1) definierte quadratische Matrix des Basiswechsels regular.Ist umgekehrt V eine Basis und ist eine regulare Matrix A = (aij) gegeben, sodefiniert (8.1) eine neue Basis U .

Beweis: Wir mussen uns an den Beweis von Satz 7.4 erinnern. Das dortigehomogene Gleichungssystem

n∑

j=1

aijxj = 0, ∀ i

hat genau dann nur die triviale Losung, wenn die u1, . . . , un linear unabhangigsind, wenn sie also nach Korollar 7.17 eine Basis bilden. �

Man kann die Basis V durch U mit der zu A inversen Matrix ausdrucken.

vj =n∑

i=1

a(−1)ij ui ; A−1 = (a

(−1)ij )

67

Page 68: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(Vorsicht: unterscheide a(−1)ij von 1/aij !)

Eine Basis V in einem Vektorraum V kann man als ein Koordinatensystembetrachten: jeder Vektor v ∈ V hat eine eindeutige Darstellung

v =n∑

i=1

xivi.

8.3 Definition Die xi ∈ K in dieser Darstellung heißen Koordinaten des Vek-tors v bzgl. der Basis V . x = (x1, . . . , xn) ∈ Kn heißt auch Koordinatenvektorin Kn von v bzgl. der Basis V .

Betrachte die Abbildung φV : V → Kn, welche jedem Vektor seine Koordinatenzuordnet; diese ist eine Bijektion. (n-Tupel (x1, . . . , xn) in Kn → ∑n

i=1 xivi).Diese Abbildung ist von V abhangig!

In der Matrix A fur den Basiswechsel von V nach U stehen in den Spalten derMatrix genau die Koordinaten der Vektoren der U−Basis bzgl. der V−Basis.

Nun wollen wir einen festen Vektor betrachten und seine Koordinaten bzgl.zweier unterschiedlicher Basen in Beziehung setzen: seien U ,V zwei Basen undes gelte (8.1). U heiße die “neue”, V die “alte” Basis. v ∈ V habe die Koordi-naten xi bzgl. V und die Koordinaten yj bzgl. U :

v =n∑

i=1

xivi =n∑

j=1

yjuj

Mit (8.1) folgt

n∑

i=1

xivi =n∑

j=1

yj

(n∑

i=1

aijvi

)=

n∑

i=1

(n∑

j=1

aijyj

)vi.

Die Eindeutigkeit der Darstellung von v als Linearkombination der Basisele-mente vi liefert

xi =n∑

j=1

aijyj; i = 1, . . . , n.

Folglich lassen sich die “alten” Koordinaten durch die “neuen” Koordinatenmit Hilfe der Matrix A ausdrucken:

x = Ay, x, y Spaltenvektoren.

Das halten wir fest:

68

Page 69: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

8.4 Satz Druckt sich die Basis U durch die Basis V mit

uj =n∑

i=1

aijvi, j = 1, . . . , n

aus, so transformieren sich die Koordinaten gemaß x = Ay, x sind die Koor-dinaten eines Vektors bzgl. V , y bzgl. U .

Man kann die Koordinaten bzgl. der neuen Basis U aus denen der alten BasisV berechnen:

y = A−1x.

8.5 Beispiele V = Kn; V sei die Standardbasis. x ∈ Kn hat bzgl. dieser Basisdie Koordinaten x1, . . . , xn. Bezuglich einer anderen Basis sind die Koordinatenandere.

U = ((1, 1), (2, 3)) Basis in R2; x = (2, 1) hat bzgl. der Standardbasis dieKoordinaten 2, 1. Bzgl. der Basis U hat x die Koordinaten 4,−1, denn (2, 1) =4(1, 1)− (2, 3).

Wie oben: A =

(1 21 3

), bestimme A−1 =

(3 −2−1 1

)und

(3 −2−1 1

)(21

)=

(4−1

).

Sei U eine beliebige Basis in Kn; ui =

u1i...uni

.

Wir suchen die Koordinaten y1, . . . , yn eines Vektors x ∈ Kn bzgl. der BasisU :

xi =n∑

j=1

uijyj.

Wir gewinnen die neuen aus den alten Koordinaten:

yi =n∑

j=1

u(−1)ij xj.

69

Page 70: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

70

Page 71: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 9

Matrizen und lineare Gleichungssysteme

Es sei A = (aij) eine m × n−Matrix. zi bezeichne den i-ten Zeilenvektor vonA :

zi = (ai1, . . . , ain), i = 1, . . . ,m.

L[z1, . . . , zm] ist ein Unterraum von Kn.

9.1 Definition L[z1, . . . , zm] heißt der Zeilenraum der Matrix A. Die Zahl

rang(A) := dim(L[z1, . . . , zm])

nennt man den Rang der Matrix A.

9.2 Proposition

(1) Es sei B eine m×m−Matrix. Dann ist der Zeilenraum von BA ein Unterraumdes Zeilenraums von A. Insbesondere gilt

rang(BA) ≤ rang(A).

(2) Ist B regular, so ist der Zeilenraum von A gleich dem Zeilenraum von BA;insbesondere gilt

rang(BA) = rang(A).

Beweis: (1) zi, 1 ≤ i ≤ m, sei die i-te Zeile der Matrix BA. Diese Zeilenvek-toren ergeben sich per Definition der Matrizenmultiplikation wie folgt:

zi =m∑

j=1

bijzj, 1 ≤ i ≤ m.

Wir betrachten einen beliebigen Vektor, der sich als Linearkombination derZeilen von BA schreiben lasst:

m∑

i=1

αizi, αi ∈ K, 1 ≤ i ≤ m.

Dann folgt

m∑

i=1

αizi =m∑

i=1

αi

(m∑

j=1

bijzj

)=

m∑

j=1

(m∑

i=1

αibij

)zj.

71

Page 72: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Der Vektor ist also als Linearkombination der Zeilen von A schreibbar:

L[z1, . . . , zm] ⊂ L[z1, . . . , zm];

es folgt rang (BA) ≤ rang (A).

(2) Ist B regular, so gilt A = B−1(BA); somit folgt (2) aus Teil (1). �

9.3 Proposition Der Rang einer Matrix ist die maximale Anzahl linear un-abhangiger Zeilenvektoren der Matrix.

Beweis: Die Zeilen der Matrix bilden ein Erzeugendensystem des Zeilenraums.Nach Satz 7.13 konnen wir durch eventuelles Weglassen von Zeilen zu einerBasis des Zeilenraums gelangen. Es gibt r =rang (A) unabhangige Zeilen un-ter allen Zeilen der Matrix. Es kann nicht mehr geben, denn sonst ware dieDimension des Zeilenraums großer als r. �

Wir betrachten erneut lineare Gleichungssysteme. Wir erinnern an die Zeilen-stufenform A von A (wobei A eine m× n-Matrix ist):

0 · · · 0 a1n1 a1,n1+1 · · · · · · · · · · · · a1n b10 · · · · · · · · · · · · 0 a2,n2 · · · · · · a2n b2...

...0 · · · · · · · · · · · · · · · 0 ak,nk

· · · akn bk0 · · · · · · · · · · · · · · · · · · · · · · · · 0 bk+1...

......

0 · · · · · · · · · · · · · · · · · · · · · · · · 0 bm

Die ersten k Zeilen von A sind linear unabhangig:

k∑

i=1

αizi = 0, z1, . . . , zk Zeilenvektoren von A. (9.1)

Die n1-Komponente der Zeile z1 ist 1, in allen anderen Zeilen ist diese Kom-ponente gleich Null. Daraus folgt:

n1-te Komponente von∑k

i=1 αizi ist α1....

nj-te Komponente von∑k

i=1 αizi ist αj.

Also kann obige Gleichung (9.1) nur fur α1 = α2 = · · · = αk = 0 gelten. Alsoist rang (A) = k.Weiter ist A = BA, Bm×m−Matrix, regular. Folglich gilt

72

Page 73: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

9.4 Satz Fur eine m×m-Matrix ist rang (A) gleich der vom Nullvektor ver-schiedenen Zeilen der Zeilenstufenmatrix nach der Gauß-Elimination. (sieheProposition 9.2)

9.5 Korollar Eine quadratische n×n-Matrix A ist genau dann regular, wennrang (A) = n gilt.

Wir hatten gesehen: L = {x ∈ Kn : Ax = 0} ist ein Unterraum. Wir sucheneine Basis von L. In obiger Notation ist L = {x ∈ Kn : Ax = 0}. Die letztenm − k Zeilen von A sind Nullvektoren. Fur k = n existiert nur die trivialeLosung L = {0}, Dimension 0. Ist k < n, so sieht A bei Weglassen der letztenm− k Zeilen wie folgt aus:

1 0 a1,k+1 · · · a1,n

. . . a2,k+1 · · · a2,n

. . ....

0 1 ak,k+1 · · · ak,n

.

Wir konnen, siehe auch Kapitel 4, die xk+1, . . . , xn frei wahlen und x1, . . . , xkdaraus bestimmen:

xi :=n∑

j=k+1

(−aij)xj.

Wahle etwa xk+1 = 1 und xj = 0 fur j ≥ k + 2, so ist

x(k+1) :=

−a1,k+1...

−ak,k+1

10...0

73

Page 74: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Losungsvektor. Analog erhalt man fur l ∈ {k+ 1, . . . , n} Losungsvektoren mitgenau einer Eins fur die Komponenten k + 1 bis n und sonst 0 :

x(l) :=

−a1,l...−ak,l

0...1...0

← l

L = L[x(k+1), . . . , x(n)].

Aus der Diskussion folgt, dass der Losungsraum L des Gleichungssystemsdie lineare Hulle der Vektoren x(k+1), . . . , x(n) ist. Weiter sind die Vektorenx(k+1), . . . , x(n) linear unabhangig. Wir betrachten

n∑

i=k+1

αix(i); αk+1, . . . , αn ∈ K.

Diese Linearkombination (ein Vektor) hat einfach αk+1, . . . , αn als die Kom-ponenten k + 1, . . . , n, (die anderen Komponenten sind komplizierter, wasuns aber nicht interessieren muss). Also folgt mit

∑ni=k+1 αix

(i) = 0, dassαk+1 = αk+2 = · · · = αn = 0.

Folglich bilden x(k+1), . . . , x(n) eine Basis des Losungsraums L des linearenGleichungssystems. Im vorangegangenen Satz hatten wir gesehen, dass k derRang der Matrix A ist.

Wir erhalten insgesamt:

9.6 Satz Die Dimension des Losungsraums des linearen GleichungssystemsAx = 0, A m× n−Matrix, ist n− rang(A).

74

Page 75: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 10

Lineare Abbildungen

Bisher war unser Augenmerk wenig auf Abbildungen gerichtet. Zu Objektenwie Gruppen, Ringen, Korpern und K−Vektorraumen wollen wir strukturer-haltende Abbildungen zwischen den Objekten betrachten. Dies streben wirprimar fur das Objekt K−Vektorraum an. Ein K−Vektorraum enthalt mit(V,+) eine abelsche Gruppe, daher beginnen wir mit

10.1 Definition Ein Homomorphismus f : G → H zwischen Gruppen G,Hist eine Abbildung mit der Eigenschaft: Fur alle x, y ∈ G ist

f(x · y) = f(x) · f(y).

(Man achte auf die unterschiedliche Bedeutung von · ; trotz der Moglichkeitder Verwechslung ist (G, ·) und (H, ·) unsere Notation.)

10.2 Beispiele

(1) (Z,+), (Zn,+)f : Z→ Zn, a 7→ [a]

(2) (R+, ·), (R,+)f : R→ R+, t 7→ et

10.3 Satz Ist f : G → H ein Homomorphismus und ist f bijektiv, so kannman eine Umkehrabbildung f−1 : H → G bilden und f−1 ist wieder ein Ho-momorphismus.

Beweis: Es gilt

f(f−1(x) · f−1(y)) = ff−1(x) · ff−1(y) = x · y = ff−1(x · y),

da f bijektiv. Damit folgt f−1(x) · f−1(y) = f−1(x · y). �

10.4 Definition Ein bijektiver Homomorphismus heißt Isomorphismus. Gibtes zwischen Gruppen G und H einen Isomorphismus, so heißen diese Gruppenisomorph, in Zeichen G ∼= H.

10.5 Beispiel (R,+) ∼= (R+, ·) via t 7→ et.

75

Page 76: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

10.6 Definition V und W seien zwei K−Vektorraume (d.h. Vektorraume mitgleichem Grundkorper K.) Eine Abbildung f : V → W heißt linear, wennsie ein Homomorphismus der abelschen Gruppen ist und fur alle λ ∈ K undv ∈ V f(λv) = λ · f(v) gilt. D.h. ∀u, v ∈ V und ∀α, β ∈ K gilt

f(αu+ βv) = αf(u) + βf(v).

Jede lineare Abbildung bildet den Nullvektor auf den Nullvektor ab:f(0) = f(0 + 0) = f(0) + f(0), also f(0) = 0. Per Induktion folgt furu1, . . . , un ∈ V und α1, . . . , αn ∈ K

f

(n∑

i=1

αiui

)=

n∑

i=1

αif(ui).

Ist U = (u1, . . . , un) eine Basis von V, so wird eine lineare Abbildung f : V →W durch f(ui) ∈ W, 1 ≤ i ≤ n, vollstandig festgelegt: jedes v ∈ V hat eineeindeutige Darstellung als Linearkombination der ui, namlich v =

∑ni=1 αiui;

daher ist f(v) =∑n

i=1 αif(ui).

Umgekehrt kann man eine lineare Abbildung f dadurch definieren, dass mandie Abbildungswerte auf einer Basis angibt. Sind w1, . . . , wn Vektoren in W,so gibt es genau eine lineare Abbildung f mit f(ui) = wi, 1 ≤ i ≤ n. Durchf(v) =

∑ni=1 αif(ui) wird eindeutig eine Abbildung f : V → W festgelegt. f

ist dann linear.

10.7 Beispiele

(1) f : R→ R, f(x) := ax, a ∈ R.Aber f(x) := ax+ 1 ist nicht linear!

(2) Sei A eine m × n−Matrix mit Komponenten aus K. x 7→ Ax liefert einelineare Abbildung Kn → Km (wobei x Spaltenvektor). Jede lineare AbbildungKn → Km entsteht auf diese Weise: ist f : Kn → Km eine beliebige lineareAbbildung, so ist sie durch ihre Werte auf der Standardbasis (e1, . . . , en) inKn vollstandig bestimmt. Nun definiert man die m× n−Matrix A, indem dief(ej) ∈ Km in die j−te Spalte geschrieben werden. Fur x ∈ Kn folgt

f(x) = f

(n∑

j=1

xjej

)=

n∑

j=1

xjf(ej) =

∑nj=1 a1jxj∑nj=1 a2jxj

...∑nj=1 amjxj

= Ax.

In den Spalten von A stehen also die Bilder der Standard-Basisvektoren.

(3) V sei ein endlich-dimensionaler Vektorraum, V = (u1, . . . , un) eine Basis in V.ΦV : V → Kn ordne jedem v seine Koordinaten bzgl. dieser Basis zu. ΦV ist

76

Page 77: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

linear: seien u, v ∈ V mit Koordinatenvektoren

x =

x1...xn

bzw. y =

y1...yn

bzgl. dieser Basis. Mit α, β ∈ K ist

αu+ βv = α

(n∑

i=1

xiui

)+ β

(n∑

i=1

yiui

)

=n∑

i=1

(αxi + βyi)ui.

Also ist der Koordinatenvektor von αu+ βv gleich

αx1 + βy1...

αxn + βyn

= αx+ βy.

10.8 Satz Sind f : V → W und g : W → X lineare Abbildungen aufK−Vektorraumen V, W, X, so ist auch g ◦ f : V → X eine lineare Abbil-dung.

Beweis: Fur α, β ∈ K und u, v ∈ V gilt

g ◦ f(αu+ βv) = g(f(αu+ βv))

= g(αf(u) + βf(v))

= αg(f(u)) + βg(f(v))

= α(g ◦ f)(u) + β(g ◦ f)(v).

Wir betrachten den Spezialfall V = Kn, W = Km, X = Kr : lineare Abbil-dungen f : V → W, g : W → X werden durch Matrizen A, B beschrieben:f(x) = Ax, g(y) = By, x, y Spaltenvektoren. Dann wird die Komposition derAbbildungen einfach durch das Produkt der Matrizen beschrieben:

(g ◦ f)(x) = BAx.

(vgl. Kapitel 5)

77

Page 78: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

10.9 Lemma Es sei f : V → W eine lineare Abbildung.

(1) Ist U ein Unterraum von V, so ist f(U) := {f(u), u ∈ U} ein Unterraum vonW.

(2) Ist X ein Unterraum von W, so ist f−1(X) := {v ∈ V : f(v) ∈ X} einUnterraum von V.

Beweis: 2) u, v ∈ f−1(X), α, β ∈ K, dann gilt f(αu+ βv) = αf(u) + βf(v) ∈X, da f(u) und f(v) in X; also ist X Unterraum.1) analog. �

10.10 Definition Eine bijektive lineare Abbildung von V nach W heißt (li-nearer) Isomorphismus. Zwei Vektorraume heißen isomorph, wenn ein Isomor-phismus zwischen ihnen existiert.

10.11 Lemma

(1) Ist f : V → W ein Isomorphismus, so ist auch die Umkehrabbildung f−1 linearund somit ein Isomorphismus.

(2) Sind f : V → W und g : W → X Isomorphismen, so ist auch g ◦ f einIsomorphismus.

(3) Ist f : V → W ein Isomorphismus und ist U ein Unterraum von V, so sind Uund f(U) isomorph.

(4) Sei f : V → W eine lineare Abbildung und V = (v1, . . . , vn) eine Basis vonV. Es sei wi := f(vi), i = 1, . . . , n. f ist genau dann ein Isomorphismus, wennW = (w1, . . . , wn) eine Basis von W ist.

Beweis: 1) u,w ∈W, α, β ∈ K :

f(αf−1(u) + βf−1(w)) = αf(f−1(u)) + βf(f−1(w))

= αu+ βw,

alsoαf−1(u) + βf−1(w) = f−1(αu+ βw).

2) g ◦ f ist eine Bijektion und linear, daher ein Isomorphismus.3) Es sei f |U := U → f(U) definiert durch f |U(u) := f(u) fur u ∈ U ; dieRestriktion f |U ist linear und bildet U bijektiv auf f(U) ab.4) Ist W eine Basis, so definiere g : W → V durch g(wi) = vi. Dann ist g ◦ feine lineare Abbildung V → V mit (g ◦f)(vi) = vi, 1 ≤ i ≤ n, also g ◦f = idV .Analog folgt f ◦ g = idW .Ist f ein Isomorphismus, so muss W ein Erzeugendensystem sein, denn fur

78

Page 79: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

w ∈ W gilt w = f (∑n

i=1 αivi) =∑n

i=1 αiwi. Die Vektoren in W sind linearunabhangig, denn aus

n∑

i=1

αiwi =n∑

i=1

αif(vi) = f

(n∑

i=1

αivi

)= 0

folgt mit der Bijektivitat von f die Gleichung∑n

i=1 αivi = 0. Da die vi linearunabhangig sind, gilt α1 = · · · = αn = 0. �

10.12 Satz

(1) Ist V ein endlichdimensionaler K−Vektorraum mit Basis V , so ist die Koordi-natenabbildung ΦV ein Isomorphismus.

(2) Zwei endlichdimensionale Vektorraume V,W derselben Dimension sind iso-morph.

Beweis: 1) Wir haben schon gesehen: ΦV ist linear und bijektiv.2) Ist V = (v1, . . . , vn) eine Basis in V und W = (w1, . . . , wn) eine Basis in W,so definieren wir die lineare Abbildung f : V → W durch f(vi) = wi. Dann istf nach Lemma 10.11 (4) ein Isomorphismus. �

10.13 Bemerkung Es seien V und U zwei Basen des K−Vektorraums V derDimension n. Betrachte ΦV und ΦU :

ΦV : V → Kn; ΦU : V → Kn.

Dann ist ΦV◦Φ−1U ein IsomorphismusKn → Kn, beschrieben durch eine Matrix

A wie in Beispiel 10.7 (2). A ist als darstellende Matrix eines Isomorphismusregular. Sie ist die Matrix der Basistransformation von V nach U . Das schauenwir uns an:

Aei ist die i−te Spalte der Matrix A. Φ−1U (ei) = ui ist der i−te Vektor der

Basis. Also ist ΦV ◦ Φ−1U (ei) = ΦV(ui) der Koordinatenvektor von ui bzgl. der

Basis V . Folglich ist der i−te Spaltenvektor von A der Koordinatenvektor vonui bzgl. der Basis V :

ui =n∑

j=1

ajivj.

Sind V und W zwei K−Vektorraume, so bezeichnen wir mit hom(V,W ) dieMenge aller linearen Abbildungen f : V → W. Dies ist ein K−Vektorraum:f, g ∈ hom(V,W ), α, β ∈ K :

(f + g)(αu+ βv) = f(αu+ βv) + g(αu+ βv) (per Def.)

= αf(u) + βf(v) + αg(u) + βg(v)

= α(f + g)(u) + β(f + g)(v).

79

Page 80: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Der Nullvektor in hom(V,W ) ist die Nullabbildung, die jeden Vektor aus V aufden Nullvektor in W abbildet. Eine lineare Abbildung eines K−Vektorraumsauf sich selbst bezeichnet man als Endomorphismus. Wir schreiben hom(V )fur den Vektorraum der Endomorphismen f : V → V.

10.14 Definition Sei f : V → W eine lineare Abbildung des K-VektorraumsV in den K-Vektorraum W.

(1) Der Kern von f ist definiert durch

ker(f) := {v ∈ V : f(v) = 0} =: f−1(0)

(2) Das Bild von f ist definiert durch

im(f) := {f(v) : v ∈ V } ⊂ W

(3) dim(im(f)) bezeichnet man als den Rang von f.

(4) f−1(w) := {v ∈ V : f(v) = w} heißt Faser uber w ∈W.

10.15 Beispiel Es sei f : Kn → Km linear und A die Matrix aus 10.7 (2).Dann ist ker(f) die Losung des homogenen Gleichungssystems Ax = 0.

10.16 Lemma

(1) ker(f) ist ein Unterraum von V.

(2) im(f) ist ein Unterraum von W.

Beweis: 1) Seien u, v ∈ ker(f), α, β ∈ K :

f(αu+ βv) = αf(u) + βf(v) = α · 0 + β · 0 = 0.

2) Seien w1, w2 ∈ im(f), so existieren v1, v2 ∈ V mit wi = f(vi), i = 1, 2. Furα, β ∈ K folgt dann

αw1 + βw2 = αf(v1) + βf(v2) = f(αv1 + βv2) ∈ im(f).

10.17 Lemma Eine lineare Abbildung f : V → W ist genau dann injektiv,wenn ker(f) = {0} gilt. f ist genau dann surjektiv, wenn im(f) = W ist.

Beweis: Ist f injektiv, so gilt ker(f) = {0}. Ist ker(f) = {0} und u, v ∈ V mitf(u) = f(v), so folgt f(u− v) = f(u)− f(v) = 0, also u− v = 0, also u = v,also f injektiv. �

80

Page 81: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

10.18 Korollar Eine lineare Abbildung f : V → W ist genau dann ein Iso-morphismus, wenn ker(f) = {0} und im(f) = W gelten.

10.19 Satz Sei V ein endlichdimensionaler K-Vektorraum, dim V = n, undf : V → W sei eine lineare Abbildung. Dann gilt:

n = dim(ker(f)) + dim(im(f)).

Beweis: d := dim(ker(f)), (u1, . . . , ud) sei eine Basis von ker(f). Diesekonnen wir nach dem Basiserganzungssatz zu einer Basis in V erganzen:(u1, . . . , ud, ud+1, . . . , un). Betrachte f(ud+1), . . . , f(un) (n− d Vektoren):

1) (f(ud+1), . . . , f(un)) ist ein Erzeugendensystem von im(f) : Es seiw ∈ im (f), also w = f(u), u ∈ V. u hat die Darstellung u =

∑ni=1 αiui,

womit

w = f

(n∑

i=1

αiui

)=

n∑

i=1

αif(ui) =n∑

i=d+1

αif(ui)

folgt.

2) f(ud+1), . . . , f(un) sind linear unabhangig: Es sei∑n

i=d+1 αif(ui) = 0. Dann

ist f(∑n

i=d+1 αiui)

= 0, also ist∑n

i=d+1 αiui ∈ ker(f).Mit der Basiseigenschaft von (u1, . . . , ud, ud+1, . . . , un) und der Voraussetzung,dass (u1, . . . , ud) Basis von ker(f) ist, folgt αd+1 = · · · = αn = 0. �

Betrachte eine m × n−Matrix. Diese kann als lineare Abbildung Kn → Km

interpretiert werden. im(A) ist dann der von den Spaltenvektoren von A auf-gespannte Unterraum. Also liefern Satz 10.19 und Satz 9.6:

dim(im(A)) = n− dim(ker(A)) = rang(A).

10.20 Satz Ist A eine m × n-Matrix, so ist der Rang der Matrix gleich derDimension des von den Spalten aufgespannten Unterraums von Km. Also istder Zeilenrang gleich dem Spaltenrang.

10.21 Lemma Es sei A eine m × n-Matrix und B eine n × k-Matrix. Dannist rang (AB) ≤ min(rang(A), rang(B)).

Beweis: im (AB) ist ein Unterraum von im(A), also rang(AB) ≤ rang(A).ker(B) ist Unterraum von ker(AB), also dim (ker(B)) ≤ dim(ker(AB)). Nunfolgt mit Satz 9.6:

rang(AB) ≤ rang(B).

81

Page 82: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

10.22 Proposition Es sei A eine m×n-Matrix, die ein Rechtsinverses besitzt,d.h. es existiert eine n×n-Matrix B mit AB = En. Dann ist A invertierbar undes gilt B = A−1. Die gleiche Aussage gilt, wenn A ein Linksinverses besitzt.

Beweis: min(rang(A), rang(B)) ≥ n. Also rang(A) = rang(B) = n. Damit istA invertierbar und B = EnB = (A−1A)B = A−1(AB) = A−1En = A−1. �

Vorsicht: Im allgemeinen Ring ist das keinesfalls richtig.

Wie viele “substantiell verschiedene” lineare Abbildungen V → W gibt es?Seien f, g ∈ hom(V,W ); wir definieren f ∼ g, falls Isomorphismen ψ : V → Vund σ : W → W existieren mit

σ ◦ f = g ◦ ψ oder f = σ−1 ◦ g ◦ ψ. (10.1)

Vf−−−→ W

ψ

yyσ

Vg−−−→ W

Abb. 10.1: Kommutatives Diagramm

Dies definiert eine Aquivalenzrelation auf hom(V,W ).

10.23 Satz Zwei lineare Abbildungen f, g ∈ hom(V,W ) sind genau dann aqui-valent, wenn sie denselben Rang haben.

Beweis: Es gelte (10.1). Da ψ ein Isomorphismus ist, folgt

im(f) = {σ−1(v) : v ∈ im(g)} = σ−1(im(g)),

siehe Lemma 10.9. Mit Lemma 10.11 (3) folgt, dass im(f) und im(g) isomorphsind und somit dieselbe Dimension haben. Nun zeigen wir umgekehrt, dass aus

dim(im(f)) = dim(im(g))

folgt, dass Isomorphismen σ und ψ existieren, so dass (10.1) gilt. Nach Satz10.19 stimmen auch die Dimensionen d der Kerne uberein. Es sei (u1, . . . , ud)Basis von ker(f) und (v1, . . . , vd) Basis von ker(g). Diese konnen zu Basen inganz V erganzt werden: (u1, . . . , ud, ud+1, . . . , un) und (v1, . . . , vd, vd+1, . . . , vn).Setze

wi := f(ui+d), 1 ≤ i ≤ n− d,xi := g(vi+d), 1 ≤ i ≤ n− d.

82

Page 83: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Nach Beweis von Satz 10.19 ist (w1, . . . , wn−d) Basis von im(f), (x1, . . . , xn−d)Basis von im(g). Diese konnen wir zu Basen in W erganzen:

(w1, . . . , wn−d, wn−d+1, . . . , wm)

(x1, . . . , xn−d, xn−d+1, . . . , xm)

Es sei nun ψ : V → V definiert durch ψ(ui) = vi, i = 1, . . . , n, und σ : W → Wdurch σ(wi) = xi, i = 1, . . . ,m. Dies sind Isomorphismen nach Lemma 10.11(4). Es gilt

(g ◦ ψ)(ui) = g(vi) = 0 = (σ ◦ f)(ui); 1 ≤ i ≤ d und

(g ◦ ψ)(ui) = g(vi) = xi = σ(wi) = (σ ◦ f)(ui); d+ 1 ≤ i ≤ n.

Also stimmen g◦f und σ◦f auf allen Basisvektoren ui uberein, also gilt (10.1).�

Ausblick: Fur f, g ∈ hom(V ) definieren wir analog eine Aquivalenzrelationf ∼ g, wenn ein Isomorphismus ψ : V → V existiert mit f ◦ ψ = ψ ◦ g.Die Aquivalenzklassen sind jedoch sehr viel schwieriger zu diskutieren; siehespater.

Darstellende Matrix einer linearen Abbildung

Eine lineare Abbildung f : V → W ist durch die Funktionswerte auf einerBasis festgelegt: V = (v1, . . . , vn) sei eine Basis von V, W = (w1, . . . , wm) eineBasis von W. Jedes f(vi) ist Vektor in W :

f(vi) =m∑

j=1

ajiwj. (10.2)

Die m×n−Matrix A erhalt man, indem man den Koordinatenvektor von f(vi)bzgl. W in die i-te Spalte von A setzt.

10.24 Definition A heißt die darstellende Matrix von f bzgl. der Basen V undW . Wir schreiben manchmal Af . Af ist von der Wahl der Basen abhangig.

Bei fest vorliegenden Basen V und W ordnen wir einem f ∈ hom(V,W ) einem×n-Matrix zu. Umgekehrt liefert jede m×n-Matrix A via (10.2) eine lineareAbbildung.hom(V,W ) ∋ f 7→ Af ∈ M(n,m,K) ist linear, ein Isomorphismus. DieserIsomorphismus ist nicht naturlich gegeben, sondern hangt von der Wahl derBasen ab.

83

Page 84: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Spezialfall V = Kn,W = Km. A ist dann die darstellende Matrix bzgl. derStandardbasen in Kn bzw. Km : Aej : j−te Spalte von A:

∑mi=1 aijei.

Mit Hilfe der Isomorphismen φV und φW ist die darstellende Matrix vonf : V → W bzgl. der Basen V in V und W in W einfach durch die linea-re Abbildung φW ◦ f ◦ φ−1

W : Kn → Km gegeben.

Vf−−−→ W

φV

yyφW

Kn −−−→ Km

Abb. 10.2:

Ist namlich (e1, . . . , en) die Standardbasis des Kn, so ist φ−1V (ej) = vj und

(φW ◦ f ◦ φ−1V )(ej) ist der Komponentenvektor von f(vj) bzgl. der Basis W ,

d.h. die j-te Spalte der darstellenden Matrix.

10.25 Satz Seien f : V → W und g : W → X lineare Abbildungen. SeienV ,W und X Basen in den K-Vektorraumen V,W bzw. X. Dann gilt

Ag◦f = Ag · Af ,

wobei die darstellenden Matrizen jeweils bzgl. der entsprechenden Basen ge-nommen werden.

Beweis: Ag◦f ist die durch die Abbildung φX ◦ (g ◦ f) ◦ φ−1V zwischen den

Koordinatenraumen definierte Matrix. Nun gilt

φX ◦ (g ◦ f) ◦ φ−1V = (φX ◦ g ◦ φ−1

W ) ◦ (φW ◦ f ◦ φ−1V ),

was aber in Matrixschreibweise die zu zeigende Gleichung ist. �

10.26 Korollar Es sei f : V → W eine lineare Abbildung und V undW seienBasen von V bzw. von W. Dann ist f genau dann ein Isomorphismus, wennAf quadratisch und regular ist, und es gilt Af−1 = A−1

f .

Beweis: Ist f Isomorphismus mit inverser Abbildung f−1, so gilt nach Satz10.25

AfAf−1 = Af−1Af = E.

Also ist Af regular mit Inverser Af−1 . Ist Af quadratisch und regular, so giltdim V = dim W und KdimV ∋ x 7→ Ajx ∈ KdimV ist ein Isomorphismus. Alsoist auch f = φ−1

W ◦ Af ◦ φV ein Isomorphismus. �

84

Page 85: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Zu den Basen V und W in V und W betrachten wir nun zwei “neue” BasenV ′ = (v′1, . . . , v

′n) und W ′ = (w′

1, . . . , w′m). Es sei T = (tij) ∈ GL(n,K) die

regulare Matrix der Basistransformation von V nach V ′ :

v′j =n∑

i=1

tijvi

und S = (sij) ∈ GL(m,K) fur die Transformation von W nach W ′ :

w′j =

m∑

i=1

sijwi.

Die Matrix der Basistransformation von W ′ nach W ist dann S−1 = (s(−1)ij ).

Es sei weiter f ∈ hom(V,W ) und A sei die darstellende Matrix bzgl. der BasenV und W , wahrend B die darstellende Matrix bzgl. der Basen V ′ und W ′ sei.

In welcher Beziehung stehen A und B?

10.27 SatzB = S−1AT.

Beweis: Wir verwenden Bemerkung 10.13: Die Matrix der Basistransformati-on von V nach V ′ ist durch φV ◦ φ−1

V ′ : Kn → Kn gegeben, analog fur dieBasistransformation von W nach W ′. Wir schreiben Af,V,W :

B = Af,V ′,W ′

= φW ′ ◦ f ◦ φ−1V ′

= φW ′ ◦ φ−1W ◦ φW ◦ f ◦ φ−1

V ◦ φV ◦ φ−1V ′

= (φW ◦ φ−1W ′)

−1 ◦ (φW ◦ f ◦ φ−1V ) ◦ (φV ◦ φ−1

V ′ )

= S−1Af,V,WT

= S−1AT.

Ubung: Dies “zu Fuß” nachvollziehen: in f(v′i) =∑n

j=1 bjiw′j v′i und w′

j durchdie Basisvektoren von S und T ausdrucken.

Die obige Diskussion auf Endomorphismen eingeschrankt:f : V → V lineare Abbildung, V = (v1, . . . , vn) Basis in V, A darstellendeMatrix bzgl. V .

f(vj) =n∑

i=1

aijvi.

U sei eine neue Basis mit regularer Matrix S = (sij) der Basistransformation:

uj =n∑

i=1

sijvi,

85

Page 86: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

V

?

φV ′

Kn

- W

?

φW ′

Km-B

6

φV

6

φW

Kn Km-A

6

T

6

S

Abb. 10.3:

so folgt mit Satz 10.27: Ist B die darstellende Matrix von f bzgl. U , so gilt

B = S−1AS.

10.28 Definition Zwei Matrizen A,B ∈ M(n,K) heißen ahnlich, wenn eseine regulare n× n-Matrix S gibt mit B = S−1AS.

A ∼ B :⇔ ∃S ∈ GL(n,K) mitB = S−1AS

definiert eine Aquivalenzrelation auf M(n,K).

10.29 Korollar Sei f : V → W linear, n = dim V, m = dim W undr = dim(im(f)), so existieren Basen V und W mit

Af =

(Er 00 0

)

Beweis: Es sei (w1, . . . , wr) eine Basis von im(f). Erganze diese zu einerBasis W von W . Ist weiter v1, . . . , vn−r eine Basis von ker(f), so wahleV = (v1, . . . , vn−r, u1, . . . , ur) mit u1 ∈ f−1(w1), . . . , ur ∈ f−1(wr). Dann istV eine Basis von V und

Af =

(Er 00 0

).

86

Page 87: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Zu Satz 10.27: Nach Korollar 10.29 existiert zu A ∈ M(m,n,K) einS ∈ GL(m,K) und T ∈ GL(n,K) mit

S−1AT =

(Er 00 0

).

Wir geben nun ein Rechenverfahren zur Bestimmung von S und T an.Bringe A auf Zeilenstufenform durch Multiplikation von links mit m × m-Elementarmatrizen aus Kapitel 5:

Em AB1Em B1A

......

Bk · · ·B1Em Bk · · ·B1A

A bringen wir jetzt durch Spaltenumformungen vom Typ (Z1) - (Z3), welche

jetzt besser (S1) - (S3) heißen, auf die Form

(Er 00 0

). Dies entspricht der

Multiplikation von rechts mit n× n-Elementarmatrizen.

Bk · · ·B1A EnBk · · ·B1AC1 EnC1...

...Bk · · ·B1AC1 · · ·Cl︸ ︷︷ ︸

=

0

@

Er 00 0

1

A

EnC1 · · ·Cl

Setze S−1 := Bk · · ·B1; T := C1 · · ·Cl. Dann ist S−1AT =

(Er 00 0

). Die

Spalten von S und T sind die gesuchten Basen.

87

Page 88: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

88

Page 89: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 11

Komplexe Zahlen (Intermezzo)

Wir definieren auf R× R eine Addition und eine Multiplikation durch

+ : R2 × R2 → R2 ((x, y), (a, b) 7→ (x+ a, y + b))

· : R2 × R2 → R2 ((x, y), (a, b) 7→ (xa− yb, xb+ ya))

und setzen C := (R2,+, ·).C ist ein Korper, (0, 0) das Nullelement, das additive Inverse von (x, y) ist(−x,−y), das Einselement ist (1, 0). Das multiplikative Inverse zu (x, y) 6=(0, 0) ist (

x

x2 + y2,−y

x2 + y2

).

R fassen wir vermoge R→ C, x 7→ (x, 0) als Unterkorper von C auf. Elementevon C heißen komplexe Zahlen.

Es gilt(0, 1)2 = (0, 1) · (0, 1) = (−1, 0) = −(1, 0),

also ist die Gleichung z2 = −1C in C losbar.Mit (0, 1)(y, 0) = (0, y) gilt

(x, y) = (x, 0) + (0, 1)(y, 0), (x, y) ∈ R2.

Wir setzen i := (0, 1) ∈ C. Somit hat jedes z = (x, y) ∈ C die Darstellungz = x + iy mit x, y ∈ R. x =: Re z heißt Realteil von z und y =: Im z heißtImaginarteil von z.

Zu z 6= 0 ist

z−1 =1

z=

1

x+ iy=

x− iy(x+ iy)(x− iy) =

x

x2 + y2+ i

−yx2 + y2

∈ C.

z := Re z - i Im z heißt die zu z konjugierte / konjugiert komplexe Zahl. ZurAddition betrachte Abbildung 11.1.

Es gilt i2 = −1 < 0, also kann der Korper C nicht angeordnet werden.

Mit (−i)2 = (−1)2 i2 = −1 hat z2 = −1 die Losungen z1,2 = ±i. Ein nichtkon-stantes Polynom vom Grad m uber einem Korper hat hochstens m Nullstellen.Also hat z2 = −1 keine weiteren Losungen.

Fur d ∈ R+ gelten x2−d = (x+√d)(x−

√d) und x2 +d = (x+ i

√d)(x− i

√d).

Fur ax2 + bx+ c ∈ R2[x] mit a 6= 0 gilt

ax2 + bx+ c = a

[(x+

b

2a

)2

− D

4a2

]

89

Page 90: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

i

imaginare Achse

z + w

z

z

Re z

Re w

Im ww

reelle Achse

Abb. 11.1: Addition in der Gaußschen Zahlenebene

mit D := b2 − 4ac (Diskriminante). Also hat az2 + bz + c = 0 in C genau dieLosungen

z1,2 =

{−b±

√D

2a∈ R , D ≥ 0

−b± i√−D

2a∈ C \ R , D < 0

.

Es gilt z1 + z2 = −b/a, z1z2 = c/a (Satz von Vieta) und fur D < 0 : z2 = z1.

Rechenregeln: Fur z, w ∈ C gilt

(1) Re(z) = (z + z)/2; Im (z) = (z − z)/(2i)

(2) z ∈ R⇔ z = z

(3) ¯z = z

(4) z + w = z + w, zw = zw

(5) zz = x2 + y2 mit x := Re(z), y := Im(z).

Der Beweis ist eine Ubung (siehe Blatt 12, Aufgabe 4).

90

Page 91: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 12

Determinanten

Im linearen Gleichungssystem(a bc d

)(xy

)=

(rs

)

gibt es im Fall ad − bc 6= 0 genau eine Losung. Wir werden einer Matrixuber K eine Determinante zuordnen. Sie wird fur Matrizeninversion und dasLosen linearer Gleichungssysteme von Nutzen sein. Spater wird diese Großedie Eigenwerttheorie bestimmen und fur die Integrationstheorie fur Funktio-nen mehrerer Variabler wichtig sein, denn die Determinante steht in engemZusammenhang mit dem Begriff des Volumens.

Motivation: Wir wollen zu n Vektoren v1, . . . , vn ∈ Rn das Volumenvol(v1, . . . , vn) des Spats

{λ1v1 + · · ·+ λnvn : 0 ≤ λj ≤ 1, j = 1, . . . , n}bestimmen. Wir suchen eine Funktion vol: Rn·n → R mit

vol(v1, . . . , vj−1, λvj, vj+1, . . . , vn) = λ vol(v1, . . . , vn), λ > 0 (homogen)

vol(v1, . . . , vj−1, vj+vi, vj+1, . . . , vn) = vol(v1, . . . , vn), j 6= i (scherungsinvariant)

vj λvj vj

Abb. 12.1: Homogenitat / Scherungsinvarianz

Wir betrachten die Menge der Matrizen M(n,K):

12.1 Definition Eine lineare Abbildung

det:M(n,K)→ K, A =

z1...zn

7→ detA

91

Page 92: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

heißt Determinantenfunktion, wenn fur λ ∈ K und i 6= j gilt:

(D1) det

z1...

zi + λzj...zn

= det

z1...zi...zn

,

(D2) det

z1...λzi...zn

= λ det

z1...zi...zn

, und

(D3) detEn = 1.

Wir werden zeigen, dass die Determinantenfunktion durch (D1) - (D3) eindeu-tig charakterisiert ist.

12.2 Lemma Sei A ∈M(n,K). Dann folgt aus rang(A) < n, dass detA = 0.

Beweis: Bezeichnen wir mit z1, . . . , zn ∈M(1, n,K) die Zeilenvektoren von A,so liefert rang (A) < n o.B.d.A.: z1 =

∑ni=2 λizi, also

det

∑ni=2 λiziz2...zn

(D1)= det

0z2...zn

(D2)= 0 · det

0z2...zn

= 0.

12.3 Lemma Sind z1, . . . , zn ∈ M(1, n,K) die Zeilenvektoren vonA ∈M(n,K), so gilt fur i 6= j

(D4) det

z1...zi...zj...zn

= − det

z1...zj...zi...zn

.

92

Page 93: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis:

det

z1...zn

(D1)

= det

z1...zi...

zj + zi...zn

(D1)= det

z1...−zj

...zj + zi

...zn

(D1)= det

z1...−zj

...zi...zn

(D2)= − det

z1...zj...zi...zn

.

Die Determinantenfunktion ist in jeder Zeile linear (multilinear):

12.4 Lemma

(D5) det

z1...

zi + z′i...zn

= det

z1...zi...zn

+ det

z1...z′i...zn

.

Beweis: Es seien

Z :=

z1...zi...zn

und Z ′ :=

z1...z′i...zn

.

93

Page 94: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Falls rang Z < n und Rang Z ′ < n, so ist auch

rang

z1...

zi + z′i...zn

< n,

also sind alle Determinanten 0. Sei rang Z = n oder rang Z ′ = n. O.B.d.A.rang Z = n, also z1, . . . , zn Basis des Kn. Es sei z′i =

∑nj=1 λjzj. Also

det

z1...

zi + z′i...zn

(D1)= det

z1...

zi + λizi...zn

(D2)= (1 + λi) det

z1...zi...zn

= det

z1...zi...zn

+ det

z1...z′i...zn

.

12.5 Satz (Eindeutigkeit der Determinantenfunktion)Es gibt hochstens eine Determinantenfunktion.

Beweis: Es seien det, det’: M(n,K) → K Determinantenfunktionen. Zu zei-gen: det A = det’ A fur alle A ∈M(n,K). Ist rang A < n, so gilt mit Lemma12.2 det A = det’ A = 0. Sei also rang A = n.Wir wenden das Gaußsche Eliminationsverfahren an. Zeilenumformungen vomTyp (Z1) und (Z3) fuhren zu einer Zeilenstufenform

A′ =

a′11 ∗. . .

0 a′nn

.

Weitere Umformungen vom Typ (Z3) fuhren zu

A′′ =

a′11 0. . .

0 a′nn

.

94

Page 95: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Es gilt rang (A′′) = n. Es sei s ∈ N die Anzahl der Zeilenvertauschungen (Z1)im Gaußverfahren A→ A′. Dann gilt

det A(D1), (D4)

= (−1)s detA′

(D1)= (−1)s detA′′

(D2)= (−1)sa11 · · · ann detEn

(D3)= (−1)sa11 · · · ann

und

det’A = (−1)sdet’A′

= (−1)sdet’A′′

= (−1)sa11 · · · anndet’En

= (−1)sa11 · · · ann,also det A = det’ A. �

Die sogenannte Leibnizsche Determinantenformel wird uns etwas spater dieExistenz der Determinantenfunktion liefern. det A ∈ K nennen wir fortan dieDeterminante von A.Wenn die Determinantenfunktion existiert, kann man weitere Eigenschaftender Determinante ableiten.

12.6 Korollar Es sei D ∈M(n,K) eine Diagonalmatrix mit Diagonalelemen-ten d11, . . . , dnn, so gilt:

det D =n∏

i=1

dii = d11d22 · · · dnn.

12.7 Korollar Fur A ∈M(n,K) sind aquivalent:

(1) A ∈ GL(n,K) (A invertierbar)

(2) rang A = n

(3) detA 6= 0.

Um die Existenz der Determinantenfunktion zu zeigen, befassen wir uns mitPermutationen (vergleiche Kapitel 2 und Kapitel 3, Beispiel 3.6).Erinnerung: Die Symmetrische Gruppe S(n) ist die Menge aller bijektiven Ab-bildungen σ : {1, . . . , n} → {1, . . . , n}; ihre Elemente heißen Permutationen.Darstellung:

σ =

(1 2 · · · n− 1 n

σ(1) σ(2) · · · σ(n− 1) σ(n)

).

95

Page 96: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

12.8 Definition Eine Transposition ist eine Permutation σ ∈ S(n), die genauzwei Werte vertauscht:

∃ 1 ≤ k < l ≤ n : (σ(k) = l) ∧ (σ(l) = k) ∧ (∀ i 6∈ {k, l} : σ(i) = i)

Das Signum einer Permutation σ ∈ S(n) ist definiert durch

sgn(σ) :=∏

1≤i<j≤n

σ(j)− σ(i)

j − i .

12.9 Beispiel

sgn

(1 2 33 1 2

)=

1− 3

2− 1· 2− 3

3− 1· 2− 1

3− 2= +1.

12.10 Lemma Es seien σ, τ ∈ S(n). Dann gilt

(1) sgn (σ) ∈ {−1,+1}

(2) sgn (σ ◦ τ) = sgn (σ)· sgn (τ)

(3) Ist σ eine Transposition, so ist sgn (σ) = −1.

Beweis: (1) Es gilt

|sgn(σ)| =∏

i<j |σ(j)− σ(i)|∏i<j |j − i|

.

Im Nenner findet sich das Produkt der Abstande |j− i| aller moglichen Permu-tationen aus {1, . . . , n}. Im Zahler steht das Produkt der Abstande |σ(j)−σ(i)|uber alle moglichen Paare (i, j) verschiedener Elemente aus {1, . . . , n}. Da σbijektiv ist, stehen im Zahler dieselben Faktoren, nur in einer anderen Reihen-folge, also |sgn(σ)| = 1.

(2)

sgn(σ ◦ τ) =∏

i<j

σ(τ(j))− σ(τ(i))

j − i

=∏

i<j

σ(τ(j))− σ(τ(i))

τ(j)− τ(i)∏

i<j

τ(j)− τ(i)j − i

︸ ︷︷ ︸= sgn(τ)

.

96

Page 97: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Zu zeigen: das erste Produkt ist gleich sgn(σ) :

i<j

σ(τ(j))− σ(τ(i))

τ(j)− τ(i) =∏

i<jτ(i)<τ(j)

σ(τ(j))− σ(τ(i))

τ(j)− τ(i)∏

i<jτ(i)>τ(j)

σ(τ(j))− σ(τ(i))

τ(j)− τ(i)

=∏

i<jτ(i)<τ(j)

σ(τ(j))− σ(τ(i))

τ(j)− τ(i)∏

i>jτ(i)<τ(j)

σ(τ(j))− σ(τ(i))

τ(j)− τ(i)

=∏

τ(i)<τ(j)

σ(τ(j))− σ(τ(i))

τ(j)− τ(i)

=∏

i<j

σ(j)− σ(i)

j − i (τ bijektiv).

(3) Es sei σ eine Transposition und ohne Einschrankung sei k < l:

σ =

(1 · · · k − 1 k k + 1 · · · l − 1 l l + 1 · · · n1 · · · k − 1 l k + 1 · · · l − 1 k l + 1 · · · n

)

Wir betrachten nur Terme in der Definition von sgn(σ), in denen i ∈ {k, l}oder j ∈ {k, l}, da sonst σ(i) = i und σ(j) = j, also σ(j)−σ(i)

j−i = 1.

Es sei i = k, also j ∈ {k+1, . . . , n}. Ist j ∈ {k+1, . . . , l}, so ist σ(j) < l = σ(k),

folglich σ(j)−σ(k)j−k negativ. Ist j ∈ {l+1, . . . , n}, so ist σ(j) = j > k = σ(l), also

σ(j)−σ(k)j−k positiv.

Es sei i = l, also j ∈ {l + 1, . . . , n}. Dann ist σ(j) = j > k = σ(l), alsoσ(j)−σ(l)

j−l > 0.

Es sei j = k, also i ∈ {1, . . . , k − 1}. Dann ist σ(i) = i < k < l = σ(k), alsoσ(k)−σ(i)

k−i > 0.

Es sei j = l, also i ∈ {1, . . . , l−1}. Fur i ∈ {1, . . . , k−1} ist σ(i) = i < k = σ(l),

also σ(l)−σ(i)l−i > 0; fur i ∈ {k, . . . , l − 1} ist σ(i) > k = σ(l), also σ(l)−σ(i)

l−i < 0.

Folglich erhalt man ein negatives Vorzeichen fur (i = k) ∧ (j ∈ {k + 1, . . . , l})oder (j = l) ∧ (i ∈ {k, . . . , l − 1}). Das sind jeweils (l − k) Paare. Im Schnittliegt nur (k, l), daher gibt es 2(l−k)−1 Paare mit negativem Vorzeichen. Alsoist sgn(σ) = −1. �

12.11 Satz (Leibnizsche Determinantenformel) Es sei A ∈ M(n,K).Dann gilt

detA =∑

σ∈S(n)

sgn(σ)a1,σ(1)a2,σ(2) · · · an,σ(n).

(Insbesondere folgt die Existenz der Determinantenfunktion.)

97

Page 98: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: Wir weisen die Eigenschaften (D1) bis (D3) nach. Wir zeigen zunachst

det

z1...

zi + λzj...zn

= det

z1...zi...zn

+ λ · detA′

mit

A′ =

z1...zj...zj...zn

∈M(n,K).

Dies folgt, da fur jede Permutation σ ∈ S(n) gilt:

a1,σ(1) · · · (ai,σ(i) + λaj,σ(j)) · · · an,σ(n)

= a1,σ(1) · · · ai,σ(i) · · · an,σ(n) + a1,σ(1) · · · λaj,σ(j)︸ ︷︷ ︸i−ter Faktor

· · · an,σ(n).

Wenn wir nun detA′ = 0 zeigen, folgt (D1). Es gibt zwei identische Zeilen (i-teund j-te) (O.B.d.A sei i < j):

aik = ajk ∀ k ∈ {1, . . . , n} (12.1)

Nun betrachten wir die Transposition τ ∈ S(n) mit τ(i) = j, τ(j) = i undτ(k) = k sonst. Dann folgt

a1,σ(1) · · · an,σ(n) = a1,σ◦τ(1) · · · an,σ◦τ(n),

denn

ai,σ◦τ(i) · aj,σ◦τ(j) = ai,σ(j) · aj,σ(i)

= aj,σ(j) · ai,σ(i) mit (12.1).

σ und σ ◦ τ sind zwei verschiedene Permutationen und es gilt

sgn(σ)a1,σ(1) · · · an,σ(n) + sgn(σ ◦ τ)a1, σ◦τ(1) · · · an, σ◦τ(n) = 0,

denn sgn(σ◦τ) = sgn(σ)· sgn(τ) = − sgn(σ). Also gibt es in∑

σ∈S(n) zu jedem

σ ∈ S(n) die Permutation σ ◦ τ, so dass die entsprechenden Summanden sichwegheben. Damit ist die Gesamtsumme = 0 und (D1) ist gezeigt.

98

Page 99: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(D2) folgt aus der Linearitat in jeder Zeile.

(D3): Ist σ ∈ S(n) und σ 6= id, so existiert zu σ ein i mit σ(i) 6= i. Nun ist furdie Einheitsmatrix En ai,σ(i) = 0 fur i 6= σ(i). Also ist der einzig verbleibendeSummand a11 · · · ann = 1 = det(En). Mit dem Eindeutigkeitssatz 12.5 folgt dieBehauptung. �

Wir betrachten die Spezialfalle n = 2 und n = 3:

n = 2 :

det

(a bc d

)= ad(−1)0 + bc(−1)+1 = ad− bc

n = 3 :

det

a11 a12 a13

a21 a22 a23

a31 a32 a33

= a11a22a33 + a12a23a31 + a13a21a32

−a13a22a31 − a23a32a11 − a33a12a21

Merkregel: “Hauptdiagonalen” minus “Nebendiagonalen” (Regel von Sarrus):

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

Die Berechnung der Determinante nach Satz 12.11 ist in der Regel viel zu auf-wendig. Hingegen kann die Determinantenformel zu sehr eleganten Beweisenfuhren. So ist etwa die Determinante einer beliebigen oberen Dreiecksmatrixeinfach zu bestimmen:

det

a11 ∗. . .

0 ann

=

n∏

i=1

aii,

denn fur alle Permutationen σ ∈ S(n) außer der Identitat gibt es ein i mitσ(i) < i, also ai,σ(i) = 0.

12.12 Satz Es gilt detA = detAT (transponierte Matrix; siehe Definition5.10).

Beweis: Permutationen sind Bijektionen, also gilt

a1,σ(1)a2,σ(2) · · · an,σ(n) = aσ−1(1),1aσ−1(2),2 · · · aσ−1(n),n.

99

Page 100: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Nun ist sgn(σ) = sgn(σ−1), und somit

det A =∑

σ−1∈S(n)

aσ−1(1),1 · · · aσ−1(n),n · sgn(σ−1)

=∑

σ∈S(n)

aσ(1),1 · · · aσ(n),n · sgn(σ)

= detAT .

12.13 Korollar Die Eigenschaften (D1) - (D5) der Determinantenfunktiongelten analog fur die Spalten der Matrix.

12.14 Satz (Multiplikativitat der Determinante)Es seien A,B ∈M(n,K), so gilt

det(A ·B) = detA · detB.

Beweis: Haben eine oder beide Matrizen Rang < n, so ist detA = 0oder detB = 0 oder detA = detB = 0. Weiter ist rang (A · B) ≤min(rangA, rangB), also auch det(AB) = 0. Sei also vorausgesetzt, dass beideMatrizen vollen Rang haben. A lasst sich durch elementare Zeilenoperationenin die Einheitsmatrix uberfuhren: A ist Produkt von Z-, D- oder M-Matrizen,siehe Kapitel 5. Es bleibt zu zeigen:

(a) det(Zi,jB) = det(Zi,j) det(B),

(b) det(Di,αB) = det(Di,α) det(B) und

(c) det(M l,k,αB) = det(M l,k,α) det(B).

(a) Zi,jB : vertausche i-te mit j-ter Zeile: det(Zi,jB)(D4)= − det(B). Weiter ist

det(Zi,j)(D4)= (−1) det(En) = −1.

(b) Di,αB : multipliziere i-te Zeile mit α : det (Di,αB)(D2)= α det(B). Weiter

ist det(Di,α) = α nach Korollar 12.6.

(c) M l,k,αB : addiere das α-fache der l-ten Zeile zur k-ten Zeile:

det(M l,k,αB)(D1)= det(B). Weiter ist det(M l,k,α) = det(En) = 1 mit (D3).

Bemerkung: Dieser Beweis ist rein algorithmischer Natur, die Alternative viaLeibniz-Formel ist eine Ubung.

100

Page 101: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

12.15 Korollar

(1) A ∈ M(n,K) ist genau dann regular, wenn det(A) 6= 0 ist. Ist A regular, soist det(A−1) = (detA)−1.

(2) Ahnliche Matrizen haben dieselbe Determinante.

Beweis: (1) 1 = det(En) = det(AA−1) = det(A) · det(A−1).

(2) Sei T ∈ GL(n,K) : det(TAT−1) = det(T ) · detA · det(T−1)(2)= det(A). �

Vorsicht! Im Allgemeinen gilt det(A+B) 6= det(A) + det(B).

12.16 Definition Es sei V ein endlich-dimensionaler K-Vektorraum undf ∈ hom(V ). Wir setzen

det(f) := det(Af ),

wobei Af die darstellende Matrix bzgl. beliebiger Basis ist. Da ahnliche Ma-trizen dieselbe Determinante haben, ist det(f) wohldefiniert.

Die Berechnung der Determinante mit der Gauß-Elimination:(Z1) und (Z3) uberfuhren A ∈M(n,K) in eine obere Dreiecksform: (A regular)

A

d11 ∗d22

. . .

0 dnn

(Z3) verandert die Determinante nicht, Zeilenvertauschungen (Z1) fuhren zueinem (−1)-Faktor:

det(A) = ±n∏

i=1

dii,

wobei + bei gerader Anzahl von Vertauschungen, − bei ungerader Anzahl vonVertauschungen. (Dieses Verfahren ist deutlich schneller als die Verwendungder Leibniz-Formel.)

Zu einer Matrix A ∈ M(n,K) sei fur k, l ∈ {1, . . . , n} Bk,l ∈ M(n − 1, K)die Matrix, die aus A durch Streichen der k-ten Zeile und der l-ten Spaltehervorgeht.

12.17 Definition

(1) αkl := det(Bk,l) heißt der k-l-te Kofaktor von A.

101

Page 102: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(2) adj(A) :=((−1)k+lαk,l

)k,l∈{1,...,n} ∈ M(n,K) heißt die adjungierte Matrix zu

A.

12.18 Lemma Es sei A =

(B 0D C

)mit B ∈ M(k,K), C ∈M(n− k,K),

D ∈M(n− k, k,K), 0 die k × n − k 0-Matrix. Dann gilt det(A) =det(B) det(C).

Beweis: In det(A) =∑

π∈S(n) sgn(π)∏n

i=1 ai,π(i) ist∏n

i=1 ai,π(i) = 0, außer wenn

π(i) ≤ k fur alle i ∈ {1, . . . , k}. Somit liefern nur solche Permutationen πeinen Beitrag, die {1, . . . , k} und {k + 1, . . . , n} jeweils bijektiv auf sich ab-bilden. Die Menge dieser Permutationen entspricht bijektiv den Paaren (σ, τ),σ Permutation von {1, . . . , k}, τ Permutation von {k + 1, . . . , n}. Nun giltsgn(π) = sgn(σ)sgn(τ) fur π ↔ (σ, τ), also

det(A) =∑

σ,τ

sgn(σ)sgn(τ)k∏

i=1

ai,σ(i)

n∏

i=k+1

ai,τ(i)

= det(B) det(C).

12.19 Entwicklungssatz von Laplace Fur A ∈M(n,K) gilt

(1) det(A) =∑n

k=1(−1)i+kaik αik, i ∈ {1, . . . , n}(Entwicklung nach der i-ten Zeile)

(2) det(B) =∑n

k=1(−1)j+kakj αkj, j ∈ {1, . . . , n}(Entwicklung nach der j-ten Spalte)

Beweis: (1) Die i-te Zeile von A nennen wir zi :

zi =n∑

k=1

aikek.

Dann ist det(A) =∑n

k=1 aik det(z1, . . . , zi−1, ek, zk+1, . . . , zn)T . Der k-te Sum-

mand enthalt die Determinante der Matrix

a11 · · · · · · a1k · · · · · · a1n...

ai−1,1 · · ·0 · · · 0 1 0 · · · 0...an1 · · · · · · · · · · · · · · · ann

.

102

Page 103: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(k − 1)-faches Vertauschen von Spalten und (i − 1)-faches Vertauschen vonZeilen fuhrt diese Matriz uber zu

1 0 · · · · · · · · · 0

∗ Bi,k

.

Also

det(z1, . . . , zi−1, ek, zi+1, . . . , zn)T (12.18)

= (−1)(k−1)+(i−1) det(Bi,k)

= (−1)i+kαik.

(2) analog oder Verwendung von det(AT ) = det(A). �

12.20 Satz Es gilt

A(adj(A))T = (adj(A))TA = det(A)En.

Beweis: Die i-j-te Komponente von (adj(A))T ist (−1)i+jαji, also

A(adj(A))T =( n∑

k=1

aik(−1)k+jαjk

)i,j∈{1,...,n}

(12.19 (1))= (det(z1, . . . , zi, . . . , zi,︸︷︷︸

j−te Stelle

. . . , zn)T )i,j∈{1,...,n}

= (δij det(A))i,j∈{1,...,n}

= det(A)En.

(adj(A))TA = det(A)En beweist man analog. �

12.21 Korollar Fur A ∈ GL(n,K) gilt:

A−1 =(adj(A))T

det(A).

12.22 Korollar (Cramersche Regel) Es sei A ∈ GL(n,K), betrachteAx = b, b ∈ Kn. Fur i ∈ {1, . . . , n} sei Ai die Matrix, die aus A entsteht,indem man die i-te Spalte durch b ersetzt. Dann ist die eindeutige Losung vonAx = b gegeben durch

xi =det(Ai)

det(A), i = 1, . . . , n.

103

Page 104: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: Es sei x = A−1b. Setze A−1 = (a(−1)ij )ij. Dann ist

xi(Def.)=

n∑

j=1

a(−1)ij bj

(12.21)=

n∑

j=1

1

det(A)(−1)i+jαjibj

(12.19 (2))=

1

det(A)det(Ai).

104

Page 105: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 13

Invariante Unterraume

Fur einenK-Vektorraum V kennen wir den Begriff der Summe von Unterraum-en U1, . . . , Um :

m∑

i=1

Ui :=

{m∑

i=1

ui : ui ∈ Ui, i = 1, . . . ,m

}.

13.1 Definition V heißt die direkte Summe der Unterraume U1, . . . , Um, wennjeder Vektor v ∈ V sich eindeutig als Summe v =

∑mi=1 ui mit ui ∈ Ui,

i = 1, . . . ,m, darstellen lasst. Also, wenn gilt:

(1) V =∑m

i=1 Ui und

(2) aus∑m

i=1 ui =∑m

i=1 u′i mit ui, u

′i ∈ Ui, i = 1, . . . ,m, folgt ui = u′i, i = 1, . . . ,m.

Notation: V =: U1 ⊕ · · · ⊕ Um =: ⊕mi=1Ui.

13.2 Satz Es seien U1, . . . , Um Unterraume von V. Dann gilt V = ⊕mi=1Uigenau dann, wenn V =

∑mi=1 Ui und wenn fur jedes i gilt:

Ui ∩(∑

j:j 6=iUj)

= {0}. (13.1)

Beweis: Sei V = ⊕mi=1Ui, dann folgt nach Definition V =∑m

i=1 Ui. Istu ∈ Ui ∩ (

∑j:j 6=i Uj), so gilt u =

∑j:j 6=i uj, uj ∈ Uj, also 0 = u−∑j:j 6=i uj, wo-

bei u ∈ Ui nach Voraussetzung. Da der Nullvektor als Linearkombination vonVektoren aus den Uj dargestellt wird, gilt u = 0. Gilt umgekehrt V =

∑mi=1 Ui

und (13.1), so zeigen wir, dass der Nullvektor nur die triviale Darstellung alsSumme von Vektoren aus den Uj hat. Sei 0 =

∑mj=1 uj, uj ∈ Uj. Dann gilt

fur jedes i: ui = −∑j:j 6=i uj. Die rechte Seite liegt in∑

j:j 6=i Uj, die linke Seiteliegt in Ui, also ui ∈ Ui ∩ (

∑j:j 6=i Uj), also ui = 0. Dies gilt fur alle i. �

13.3 Bemerkung Sind U1, . . . , Um Unterraume von V, so ist U :=∑m

i=1 UiUnterraum von V, unabhangig davon, ob U = V oder nicht. Die Ui sind dannUnterraume von U. Wenn (13.1) gilt, schreiben wir U = ⊕mi=1Ui.

13.4 Beispiele

(1) Sei V ein endlichdimensionaler K-Vektorraum mit Basis U = (u1, . . . , un); seiUi := {αui, α ∈ K}, so ist V = ⊕ni=1Ui (denn v ∈ V hat die eindeutigeDarstellung v =

∑ni=1 αiui, αiui ∈ Ui, i = 1, . . . , n).

105

Page 106: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(2) V = R3; U1 := L

100

,

010

, U2 := L

010

,

001

,

so gilt R3 = U1 + U2, aber R3 ist nicht U1 ⊕ U2.

13.5 Satz Es seien U1, . . . , Um Unterraume des endlichdimensionalen K-Vektorraums V. Dann gilt V = ⊕mi=1Ui genau dann, wenn V =

∑mi=1 Ui gilt

und wenn

dim(V ) =m∑

i=1

dim(Ui). (13.2)

Beweis: Sei V = ⊕mi=1Ui. Jetzt beweisen wir (13.2) per Induktion:m = 1 ist klar.Es gilt nach Satz 13.2:

Um ∩(⊕m−1i=1 Ui

)= {0}.

Die Dimensionsformel liefert:

dim (⊕mi=1Ui) = dim(Um) + dim(⊕m−1i=1 Ui

)

=m∑

i=1

dim(Ui) (nach Induktionsvoraussetzung).

Ist umgekehrt V =∑m

i=1 Ui und gilt (13.2), so zeigen wir, dass die Sum-me direkt ist: Angenommen, fur ein i ist Ui ∩

∑j:j 6=i Uj 6= {0}, also

1 ≤ dim(Ui ∩∑

j:j 6=i Uj), dann folgt

m∑

j=1

dim(Uj) = dim(V )

= dim(Ui) + dim

(∑

j:j 6=iUj

)− dim

(Ui ∩

j:j 6=iUj

)

< dim(Ui) + dim

(∑

j:j 6=iUj

)

≤m∑

j=1

dim(Uj),

Dies ist ein Widerspruch! Wir verwenden, dass die Dimension einer Summekleiner als die Summe der Dimensionen ist (Dimensionsformel). �

13.6 Korollar Sei V ein endlichdimensionaler Vektorraum und U1, . . . , Umseien Unterraume mit V =

∑mi=1 Ui. Ui := (ui,1, . . . , ui,ki

) seien Ba-sen der Unterraume Ui. Dann gilt V = ⊕mi=1Ui genau dann, wenn(u1,1, u1,2, . . . , u1,k1 , u2,1, . . . , um,km

) Basis von V ist.

106

Page 107: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beweis: (u1,1, . . . , um,km) ist Erzeugendensystem von V, wenn V =

∑mi=1 Ui

gilt. Dieses System von Vektoren ist daher genau dann eine Basis, wenn

dimV =m∑

i=1

ki =m∑

i=1

dim(Ui).

Dies ist aquivalent dazu, dass V direkte Summe der Ui ist: Satz 13.5. �

13.7 Definition Sei V ein K-Vektorraum. Ein Endomorphismus p : V → Vheißt Projektion, wenn p2 := p ◦ p = p gilt.

Projektionen und direkte Summen hangen zusammen: Es sei V = U ⊕ W.Definiere p(v) := u, wenn v ∈ V die (eindeutige) Darstellung v = u + w,u ∈ U, w ∈ W, hat. Dann ist p linear, eine Projektion, mit ker(p) = W undim(p) = U.Analog fur mehrere Unterraume: Sei V = ⊕mi=1Ui, so definiere pi(v) := ui,i = 1, . . . ,m, wobei v =

∑mi=1 ui die eindeutige Darstellung von v ∈ V sei.

13.8 Lemma Die pi haben die folgenden Eigenschaften:

(1) pi sind Projektionen

(2) pi ◦ pj = 0 (Nullabbildung) fur i 6= j

(3)∑m

i=1 pi = idV

(Erinnere: φ, ψ ∈ hom(V ) : (φ+ ψ)(v) := φ(v) + ψ(v).)

Beweis: (1) klar;(3) Es sei v =

∑mi=1 ui, ui ∈ Ui, so folgt v =

∑mi=1 pi(v), also folgt (3).

(2) Es sei pi(v) ∈ Ui. Fur u ∈ Ui und j 6= i gilt pj(u) = 0, denn in dereindeutigen Darstellung von u als Summe u =

∑mj=1wj, wj ∈ Uj, ist wi = u

und wj = 0 fur j 6= i. �

Haben die Abbildungen (pi)i die Eigenschaften pi ◦ pj = 0 fur i 6= j und∑mi=1 pi = idV , so nennt man (pi)i Auflosung der Einheit.

13.9 Satz Seien p1, . . . , pm Projektionen von V, die pi ◦ pj = 0 fur i 6= j und∑mi=1 pi = idV erfullen, so gilt

V = ⊕mi=1im(pi).

Beweis: Aus∑m

i=1 pi = idV folgt V =∑m

i=1 im(pi). Sei v ∈ im(pi) ∩(∑j:j 6=i im(pj)

). Also v = pi(w) fur ein w ∈ V und v =

∑j:j 6=i pj(wj), wj ∈ V.

107

Page 108: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Also

v = p2i (w) (Projektion)

=∑

j:j 6=ipi(pj(wj)) = 0. (pi ◦ pj = 0)

Es sei fortan f : V → V ein Endomorphismus eines K-Vektorraums V.

13.10 Definition Ein Unterraum U ⊂ V heißt invariant unter f, wennf(u) ∈ U fur alle u ∈ U gilt.

{0} und V sind immer invariant. Andere invariante Unterraume heißen nichttrivial. Die Drehung in R2 um 45◦ wird beschrieben durch

(1/√

2 −1/√

2

1/√

2 1/√

2

).

Diese Abbildung hat keine nichttrivialen invarianten Unterraume.

Spater: Ein C-Vektorraum der Dimension ≥ 2 besitzt stets nicht-triviale inva-riante Unterraume.

Es seien Ui, 1 ≤ i ≤ m, Unterraume von V und V = ⊕mi=1Ui. Fur jedesi ∈ {1, . . . ,m} sei fi ∈ hom(Ui). Dann konstruieren wir damit einen Endomor-phismus f : V → V, bezeichnet mit f = ⊕mi=1fi : zu v ∈ V sei v =

∑mi=1 ui die

zugehorige eindeutige Darstellung, ui ∈ Ui :

f(v) :=m∑

i=1

fi(ui).

Wir zeigen, dass f linear ist: es seien v, v′ ∈ V mit v =∑m

i=1 ui, v′ =∑m

i=1 u′i.

α, α′ ∈ K : αv + α′v′ =∑m

i=1(αui + α′u′i)

⇒ f(αv + α′v′) =m∑

i=1

fi(αui + α′u′i)

= α

m∑

i=1

fi(ui) + α′m∑

i=1

fi(u′i) (f ∈ hom(Ui))

= αf(v) + α′f(v′)

⇒ f linear. Die Unterraume Ui sind invariante Unterraume von f.

Wir suchen fur einen Endomorphismus invariante Unterraume, die den ganzenVektorraum als direkte Summe aufspalten.

108

Page 109: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

13.11 Satz Es sei f ∈ hom(V ) und Ui, i ∈ {1, . . . ,m}, seien invariante Un-terraume von f . Ferner sei V = ⊕mi=1Ui. Dann gilt f = ⊕mi=1fi, wobei die fi dieEinschrankungen von f auf Ui sind: fur u ∈ Ui ist fi(u) := f(u) ∈ Ui.

Beweis: Da Ui invariant, ist fi ∈ hom(Ui). Zu v ∈ V sei v =∑m

i=1 ui, ui ∈ Ui,so liefert die Linearitat von f :

f(v) =m∑

i=1

f(ui) =m∑

i=1

fi(ui).

In der Situation von Satz 13.11 vereinfacht sich die darstellende Matrixvon f, falls wir die Basis von V aus denen der Ui zusammensetzen: IstUi = (ui,1, . . . , ui,ki

) Basis von Ui, so ist U = (u1,1, . . . , um,km) Basis von V,

falls V = ⊕mi=1Ui, siehe Korollar 13.6.

Sei nun Ai die darstellende Matrix von fi bezuglich Ui, i = 1, . . . ,m : Die Aisind ki× ki-Matrizen. Die j-te Spalte von Ai enthalt (wie immer) die Kompo-nenten von fi(ui,j) bzgl. Ui. Es gilt f(ui,j) = fi(ui,j) :Komponenten von f(ui,j) bzgl. Basis U : k1 + · · ·+ ki−1 Nullen, dann folgt diej-te Spalte von Ai, dann folgen ki+1 + · · ·+ km Nullen:

Af =

A1 0 · · · 0

0 A2. . .

......

. . . . . . 00 · · · 0 Am

.

0 bezeichnet jeweils eine Nullmatrix, z.B. steht in der 1. Zeile, 2. Spalte einek1 × k2 - Nullmatrix.

13.12 Definition Sei V ein endlichdimensionaler Vektorraum und f ∈hom(V ). Existiert eine Familie von endlichdimensionalen invarianten Un-terraumen Ui mit V = ⊕mi=1Ui, so heißt f diagonalisierbar.

Nach obiger Diskussion existiert in diesem Fall eine Basis, so dass die darstel-lende Matrix von f eine Diagonalmatrix ist.Existiert umgekehrt eine Basis V = (v1, . . . , vn), bzgl. derer die darstellendeMatrix Diagonalgestalt hat, so liegt die Situation der Definition 13.12 vor:

Ui := L[vi].

Diagonalisierbarkeit eines Endomorphismus f ⇔ ∃ Basis mit Af in Diagonal-gestalt.

109

Page 110: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Ist V = (v1, . . . , vn) eine gegebene Basis von V und Af die darstellende Matrixvon f bzgl. V , so ist f genau dann diagonalisierbar, wenn ein S ∈ GL(n,K)existiert, so dass S−1AfS eine Diagonalmatrix ist, siehe die Diskussion in Ka-pitel 10.

110

Page 111: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Teil II

Lineare Algebra und GeometrieII

111

Page 112: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes
Page 113: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 14

Eigenwerte und Eigenvektoren

Es sei f : V → V ein Endomorphismus.

14.1 Lemma Sei V endlichdimensional und f ein Endomorphismus von V.Dann ist f genau dann ein Isomorphismus, wenn ker(f) = {0} ist.

Beweis: Ist ker(f) = {0}, dann ist mit der Dimensionsformel, Satz 10.19,dim(V ) = dim(im(f)), also V = im(f), also ist mit Lemma 10.17 f Isomor-phismus. Ist ker(f) 6= {0}, so kann f kein Isomorphismus sein. �

Es sei U ⊂ V ein eindimensionaler invarianter Unterraum, also U = L[u],u ∈ V, u 6= 0. Da f(u) ∈ U, existiert ein λ ∈ K mit f(u) = λu.

Fur jeden Vektor w ∈ U gilt w = αu, α ∈ K, und somit

f(w) = f(αu) = αf(u) = αλu = λαu = λw.

Daraus folgt: Ist U ein invarianter eindimensionaler Unterraum, so existiertein Skalar λ ∈ K, so dass jeder Vektor in U unter f einfach mit λ gestrecktwird.

14.2 Definition

(1) Ein λ ∈ K heißt Eigenwert von f ∈ hom(V ), wenn ein u 6= 0, u ∈ V, existiertmit f(u) = λu.

(2) Das Spektrum von f, spec(f), ist definiert als die Menge aller Eigenwerte vonf.

(3) Ist λ ∈ spec(f), so heißt jeder Vektor u 6= 0 mit f(u) = λu ein Eigenvektorzu λ.

14.3 Bemerkungen

(1) Der Nullvektor 0 erfullt immer f(0) = λ0, er ist kein Eigenvektor.

(2) λ = 0 kann ein Eigenwert sein:⇔ ∃u 6= 0 mit f(u) = 0, also ker(f) 6= {0}. ImFall endlichdimensionaler Vektorraume ist dies gleichbedeutend damit, dass fkein Isomorphismus ist. (Dies ist aquivalent zu det(f) = 0.)

(3) Zur Drehung um 45o in R2 existiert kein eindimensionaler invarianter Unter-raum, also existiert auch kein Eigenwert, das Spektrum ist leer.

113

Page 114: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Sei V fortan endlichdimensional.

14.4 Satz spec(f) = {λ ∈ K : det(f − λ idV ) = 0}. f − λ idV bezeichnet denEndomorphismus

V ∋ v → f(v)− λv.

Beweis: λ ist genau dann ein Eigenwert, wenn ein u 6= 0 mit f(u) = λuexistiert, also (f−λ idV )(u) = 0. Das ist mit Lemma 14.1 aquivalent dazu, dassf −λidV kein Isomorphismus ist, und dies ist aquivalent zu det(f −λidV ) = 0.�

14.5 Definition Ist λ ∈ spec(f), so ist

E(λ) := {u ∈ V : f(u) = λu} = ker(f − λidV )

der Eigenraum von λ.

E(λ) ist dann ein Unterraum; E(λ) ist fur jedes λ ∈ K definierbar. λ ∈ spec(f)ist gleichbedeutend mit dim(E(λ)) ≥ 1. idV hat V als Eigenraum zum einzigenEigenwert 1; Eigenraume brauchen also nicht eindimensional zu sein!

14.6 Satz Es seien λ1, . . . , λn verschiedene Eigenwerte von f, und fur jedes isei ui ein Eigenvektor (6= 0) zu λi. Dann sind u1, . . . , un linear unabhangig.

Beweis: Der Fall n = 1 ist klar.n ≥ 2 : Sei

∑ni=1 αiui = 0. Dann ist

0 = f

(n∑

i=1

αiui

)=

n∑

i=1

αif(ui) =n∑

i=1

αiλiui.

Also

0 = λn

n∑

i=1

αiui −n∑

i=1

λiαiui =n−1∑

i=1

(λn − λi)αiui.

Induktionsvoraussetzung: u1, . . . , un−1 sind linear unabhangig. Folglich(λn − λi)αi = 0 fur i = 1, . . . , n − 1; da die Eigenwerte verschieden sind,folgt α1 = · · · = αn−1 = 0. Dann ist aber αnun = 0, und da un 6= 0 folgt auchαn = 0. Also sind u1, . . . , un linear unabhangig. �

14.7 Korollar

(1) Seien λ1, . . . , λr verschiedene Eigenwerte, so istr∑

i=1

E(λi) =r⊕

i=1

E(λi).

114

Page 115: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(2) Ist n := dim(V ) <∞, so gibt es hochstens n verschiedene Eigenwerte.

Beweis: (1) folgt aus Satz 14.6 und (2) aus (1). �

λ ∈ spec (f)⇔ det(f − λidV ) = 0.Wir definieren

χf : K → K

durchχf (λ) := det(f − λidV ).

Betrachte Af bzgl. einer Basis V = (v1, . . . , vn). Formal definieren wir nun

χf (x) := det(Af − xEn) =∑

π∈Sn

sgn(π)n∏

j=1

(aj,π(j) − xδj,π(j)).

(Dies ist unabhangig von der Wahl der Basis V , siehe Definition 12.16 undDiskussion.)

14.8 Definition χf (x) heißt das charakteristische Polynom von f. (Siehespater die Unterscheidung zwischen einem Polynom und einer durch ein Poly-nom definierten Abbildung K → K.)

14.9 Satz Ist n := dim(V ), so ist χf (x) ein Polynom von Grad n in x.

Beweis:∏n

j=1(aπ(j),j − xδπ(j),j) ist offensichtlich ein Polynom von Grad ≤ n inx. Also ist χf (x) Polynom von Grad ≤ n. Weiter sind

∏nj=1(aπ(j),j − xδπ(j),j)

fur π 6= id Polynome von Grad < n, denn hier enthalten nicht alle Faktorenx. Fur π = id ist das Produkt =

∏nj=1(ajj − x), also ein Polynom, welches mit

(−1)nxn beginnt. �

Wir schreiben χA(x) fur det(A − xEn), das charakteristische Polynom derMatrix A. Es gilt χf (x) = χAf

(x) fur jede Wahl einer Basis: ahnliche Matrizenhaben dieselben charakteristischen Polynome.

Sei det(A − xEn) = a0 + a1x + · · · + an−1xn−1 + anx

n. Wir konnen ein paarwichtige Koeffizienten “einfach” in den aij ausdrucken: an = (−1)n, s. o.

Fur π 6= id ist∏n

j=1(aπ(j),j − xδπ(j),j) ein Polynom von Grad hochstens n− 2 :π(j) 6= j gilt in diesem Fall fur mindestens zwei j (eine Permutation, die nichtid ist, kann nicht n− 1 Fixpunkte haben). Weiter gilt

n∏

j=1

(ajj − x) = (−1)nxn + (−1)n−1

n∑

j=1

ajjxn−1 + · · · ,

115

Page 116: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

also an−1 = (−1)n−1∑n

j=1 ajj = (−1)n−1 spur (A).

Weiter ist a0 = χA(0) = det(A).

14.10 Beispiel

A =

(−1 8−1 5

), detA = 3, spur (A) = 4, also

χA(x) = x2 − 4x+ 3 = (x− 1)(x− 3),

also spec(f) = {1, 3}. Eigenvektoren:

(−1 8−1 5

)(x1

x2

)=

(x1

x2

)⇔(−2 8−1 4

)(x1

x2

)= 0.

(Matrix singular: klar)

Das Problem hat die Losung

(41

). ⇒ E(1) = L

[(41

)].

Analog E(3) = L

[(21

)].

14.11 Definition dim(E(λ)) heißt die geometrische Vielfachheit von λ ∈spec(f).

(Beispiel: 1 ist Eigenwert zu idV und hat die geometrische Vielfachheitdim(V ).)

14.12 Lemma f : V → V ist genau dann diagonalisierbar, wenn eine Basisaus Eigenvektoren existiert. f ist genau dann diagonalisierbar, wenn gilt

V =⊕

λ∈spec(f)

E(λ). (14.1)

Beweis: Der erste Teil ist klar aus der bisherigen Diskussion. Gilt (14.1), sowahlen wir in jedem Unterraum E(λ) eine Basis; die Vereinigung dieser Basenist mit (14.1) eine Basis von V.Existiert umgekehrt eine Basis von Eigenvektoren, so ist die Anzahl der Vek-toren dieser Basis, die fur ein λ in E(λ) liegen, hochstens dim(E(λ)), alsodim(V ) ≤∑λ∈spec(f) dim(E(λ)). Die Summe ist aber immer eine direkte Sum-

me. Also folgt (14.1). �

In der Sprache von Matrizen heißt A ∈ M(n,K) diagonalisierbar, wenn eineregulare n× n-Matrix S existiert, so dass S−1AS eine Diagonalmatrix ist.

116

Page 117: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

14.13 Satz (Hinreichendes Kriterium fur Diagonalisierbarkeit) Hatdas charakteristische Polynom χf (x) n verschiedene Nullstellen, so ist fdiagonalisierbar.

Beweis: Nullstellen sind Eigenwerte: zu den n verschiedenen Eigenwerten sei-en v1, . . . , vn zugehorige Eigenvektoren. Nach Satz 14.6 sind diese linear un-abhangig, also eine Basis von V. Dies ist aquivalent zur Diagonalisierbarkeit.�

14.14 Beispiele

(1)

A =

1 0 01 2 01 1 3

Hier ist spec(A) = {1, 2, 3}, was man sofort sieht. Also ist mit Satz 14.13 Adiagonalisierbar. Finde S ∈ GL (3,R) mit S−1AS Diagonalmatrix. Eigenvektor

zu 1 : x =

1−1

0

, zu 2 : x =

01−1

, und zu 3 : x =

001

.

⇒ S :=

1 0 0−1 1 0

0 −1 1

; S−1AS =

1 0 00 2 00 0 3

.

(2) Zu A =

(1 01 1

)ist 1 einziger Einwert. E(1) = L

[(01

)], also ist A nach

Lemma 14.12 nicht diagonalisierbar.

(3)

A =

(1 01 a

); a 6= 1

Dann gibt es zwei Eigenwerte, A ist diagonalisierbar.

(4)

A =

(1 11 −1

); χA(x) = (1− x)2 + 1.

Es gibt keine Nullstellen in R : spec(A) = ∅. Im Komplexen sind 1 + i, 1 − iNullstellen: ∃S ∈ GL (2,C) : S−1AS =

(1 + i 0

0 1− i

).

Wenn f ∈ hom(V ) diagonalisierbar ist, so folgt χf (x) =∏n

i=1(λi − x),λi ∈ K, λi ist Eigenwert von f. Aus einer solchen Darstellung des charak-teristischen Polynoms folgt aber nicht die Diagonalisierbarkeit von f, siehe

117

Page 118: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Beispiel 14.14 (2): χA(x) = (1− x)2. A =

(1 00 1

)hat das gleiche charakte-

ristische Polynom und ist offensichtlich diagonalisierbar.“Mehrfache Nullstellen” des charakteristischen Polynoms machen die Frageder Diagonalisierbarkeit komplizierter! Wir nehmen dies zum Anlass, etwasausfuhrlicher Polynome zu diskutieren. Zuvor aber noch eine einfache Anwen-dung der Diagonalisierbarkeit:

Wir betrachten zu einer Abbildung f : X → X, X Menge, die Abbildungf (k) : X → X, rekursiv definiert durch f (0) = idX und f (k) = f ◦ f (k−1), k ≥ 1;sie heißt k-te Iterierte von f. Also f (1)(x) = f(x), f (2)(x) = f(f(x)),f (3)(x) = f(f(f(x))), x ∈ X, usw.

Im Falle einer linearen Abbildung f ∈ hom(V ) folgt aus Satz 10.25 via Induk-tion

Af (k) = (Af )k, k ∈ N ∪ {0}

bzgl. einer festen Basis V von V. Gibt es ein V , so dass Af Diagonalmatrix

der Form

λ1 0. . .

0 λn

ist, so folgt Af (k) =

λk1 0. . .

0 λkn

. Ist f dia-

gonalisierbar, ist also Af diagonalisierbar, so existiert S ∈ GL (n,K) mitS−1AfS = D, D Diagonalmatrix, und somit

(Af )k = (SDS−1)k = SDkS−1.

In Satz 3.16 hatten wir mit (R[x], +, ·) den Polynomring (kommutativ mitEins) kennengelernt. Zu einem Korper K sei nun K[x] der Polynomring derformalen Polynome mit Koeffizienten aus K. Seine Elemente haben die Gestalt

p(x) =n∑

j=0

ajxj, x0 := 1, an 6= 0.

Ist der hochste Koeffizient an 6= 0, so ist n der Grad des Polynoms, grad (p(x)).Konvention: grad(Nullpolynom) = −∞. Es gilt

grad(p(x) · q(x)) = grad(p(x)) + grad(q(x))

mit −∞ + n = n + (−∞) := −∞. Ein Polynom heißt normiert, wenn derhochste Koeffizient 1 ist. Man kann jedes Polynom 6= 0 normieren.

14.15 Definition p(x), q(x) seien zwei von 0 verschiedene Polynome. Mansagt p(x) teilt q(x), wenn ein Polynom h(x) existiert mit q(x) = h(x)p(x).Notation: p(x)|q(x). Dann heißt p(x) Teiler von q(x), p(x) heißt echter Teilervon q(x), wenn 1 ≤ grad(p(x)) < grad(q(x)) gilt.

118

Page 119: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Ein Polynom q(x) von Grad ≥ 1 heißt irreduzibel, wenn es keinen echten Teilerbesitzt.n Polynome von Grad ≥ 1 heißen teilerfremd, wenn sie keinen gemeinsamenTeiler von Grad ≥ 1 besitzen.

14.16 Bemerkungen

(1) Jedes Polynom von Grad 1 ist irreduzibel.

(2) Gilt p(x)|q(x), so gilt auch αp(x)|βq(x) mit α, β ∈ K \ {0}. Teilbarkeitsunter-suchungen kann man also stets fur normierte Polynome anstellen.

14.17 Satz (uber die Division mit Rest) K sei ein Korper undp(x), q(x) ∈ K[x] mit q(x) 6= 0. Dann gibt es eindeutig bestimmte Poly-nome r(x) und s(x) mit

p(x) = s(x)q(x) + r(x)

und

grad(r(x)) < grad(q(x)).

Beweis: Existenz: Gilt grad(p(x)) < grad(q(x)), so wahle s(x) := 0 undr(x) = p(x). Sei also n := grad(p(x)) ≥ grad(q(x)) =: m mit pn 6= 0, qm 6= 0.Sei s(1)(x) := pnq

−1m xn−m ∈ K[x], so ist p(1)(x) := p(x) − s(1)(x)q(x) ein

Polynom und grad(p(1)(x)) < grad(p(x)).Ist grad(p(1)(x)) < m, so setzen wir s(x) := s(1)(x) und r(x) := p(1)(x) und esgilt s(x)q(x) + r(x) = s(1)(x)q(x) + (p(x) − s(1)(x)q(x)) = p(x). Andernfallsbefinden wir uns in einer zur Ausgangslage analogen Situation. Durch Wie-derholen obiger Argumentation erhalten wir nach endlich vielen Schritten diePolynome r(x) und s(x) wie gewunscht.Eindeutigkeit: p(x) = s(1)(x)q(x) + r(1)(x) mit grad(r(1)(x)) < grad(q(x)).Dann ist (s(1)(x) − s(x))q(x) = r(x) − r(1)(x). Ware s(1)(x) − s(x) 6=0, so folgte grad (r(x) − r(1)(x)) = grad((s(1)(x) − s(x))q(x)) =grad(s(1)(x) − s(x)) + grad(q)(x) > grad(q(x)), aber grad(r(x) − r(1)(x)) ≤max(grad(r(x)), grad(r(1)(x))) < grad(q(x)). Widerspruch! ⇒ s(1)(x) = s(x),also auch r(1)(x) = r(x).

14.18 Definition Sei p(x) ∈ K[x]. α ∈ K heißt Nullstelle des Polynoms,wenn p(α) = 0 ist.

(Jedes Polynom p(x) ∈ K[x] definiert eine Abbildung p : K → K. Fur α ∈ Kist p(α) ∈ K; wir unterscheiden zwischen einem “formalen Polynom” und einerzugehorigen Abbildung; wir mussen etwas vorsichtig sein: p(x) = 0 bedeutet,

119

Page 120: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

dass p(x) das Nullpolynom ist. p(α) = 0 bedeutet hingegen, dass die zugehorigeFunktion an der Stelle α den Wert Null (Korpernull) hat.)

Ein Polynom von Grad 1 hat stets genau eine Nullstelle: p(x) = a0 + a1x, soist α := −a0/a1 die eindeutige Nullstelle des Polynoms.

14.19 Satz Sei p(x) ∈ K[x] nicht das Nullpolynom und α ∈ K. α ist genaudann eine Nullstelle dieses Polynoms, wenn das Polynom x − α das Polynomp(x) teilt.

Beweis: Nach Satz 14.17 ist p(x) = (x − α)h(x) + r(x) mit grad(r(x)) <grad(x−α) = 1, also ist r(x) eine Konstante: r(x) = β : Nun setzen wir α ein:p(α) = 0⇔ β = 0. �

14.20 Definition Ein Korper K heißt algebraisch abgeschlossen, wenn K[x]keine irreduziblen Polynome von Grad ≥ 2 besitzt.

14.21 Hauptsatz der Algebra C ist algebraisch abgeschlossen. (Zunachstohne Beweis)

R ist nicht algebraisch abgeschlossen: x2 + 1 ist irreduzibel; angenommen, esexistiert ein echter Teiler (grad = 1):

(x2 + 1) = (x+ a)(x+ b), a, b ∈ R

Koeffizientenvergleich: a+ b = 0, ab = 1, in R nicht losbar (in C schon: a = i,b = −i). R[x] hat keine irreduziblen Polynome von Grad > 2, Q verhalt sich“schlimmer”: Q[x] hat irreduzible Polynome jeden Grades (ohne Beweis).

14.22 Satz K ist genau dann algebraisch abgeschlossen, wenn jedes Polynomvon Grad ≥ 1 eine Nullstelle hat.

Beweis: I) Jedes Polynom von Grad ≥ 1 habe eine Nullstelle. Sei p(x) ein Poly-nom von Grad ≥ 2 und α eine Nullstelle, also gilt nach Satz 14.19 (x− α)|p(x),also ist p(x) nicht irreduzibel.II) Sei nun K algebraisch abgeschlossen und p(x) ein Polynom von Grad ≥ 1.Wir fuhren Induktion nach grad(p(x)) : Ist grad(p(x)) = 1, so ist die Aussageklar. Sei also grad(p(x)) ≥ 2. Aus der algebraischen Abgeschlossenheit folgtp(x) = h(x)q(x) mit grad(q(x)) < grad(p(x)). Nach Induktionsvoraussetzunghat q(x) eine Nullstelle α ∈ K; dann gilt p(α) = h(α)q(α) = 0, also hat p(x)eine Nullstelle. �

120

Page 121: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Der Hauptsatz der Algebra besagt, dass jedes nicht konstante komplexe Poly-nom eine Nullstelle hat.

14.23 Satz Sei p(x) ein nicht konstantes Polynom und seien α1, . . . , αk seineNullstellen, so hat p(x) die bis auf die Reihenfolge der Faktoren eindeutigeDarstellung

p(x) = (x− α1)m1(x− α2)

m2 · · · (x− αk)mkq(x),

wobei q(x) ein Polynom ohne Nullstellen ist und m1, . . . ,mk ∈ N.

Beweis: Folgt aus Satz 14.19 mittels Induktion. (m1, . . . ,mk sind die Vielfach-heiten der Nullstellen.)

14.24 Korollar Es gilt∑k

i=1mi ≤ grad(p(x)). Insbesondere hat jedes Poly-nom hochstens so viele (verschiedene) Nullstellen, wie sein Grad ist.

14.25 Korollar In einem algebraisch abgeschlossenen Korper hat jedes Poly-nom p(x) 6= 0 eine bis auf die Reihenfolge der Faktoren eindeutige Darstellung

p(x) = γ(x− α1)m1 · · · (x− αk)mk ,

wobei α1, . . . , αk die verschiedenen Nullstellen sind und γ ∈ K \ {0}.

14.26 Definition Ist p(x) ein Polynom mit den Nullstellen wie in Satz 14.23,so heißt mi die algebraische Vielfachheit von αi. Sei f ∈ hom(V ) undλ ∈ spec(f). Dann ist die algebraische Vielfachheit dieses Eigenwertes definiertals die algebraische Vielfachheit von λ als Nullstelle des charakteristischen Po-lynoms.

14.27 Satz f ∈ hom(V ), λ ∈ spec(f). Dann ist die algebraische Vielfachheitvon λ großer oder gleich seiner geometrischen Vielfachheit.

Beweis: m sei die geometrische Vielfachheit von λ : es existieren m linearunabhangige Eigenvektoren zu λ : v1, . . . , vm. Erganze diese zu einer BasisV = (v1, . . . , vn) von V. Dann hat die darstellende Matrix Af die Gestalt

Af =

(λEm ∗

0 B

).

Also ist

χf (x) = det(Af − xEm) = det

((λ− x)Em ∗

0 B − xEn−m

)

= (λ− x)m det(B − xEn−m)

= (λ− x)mχB(x),

121

Page 122: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

und somit ist die algebraische Vielfachheit von λ ≥ m. �

14.28 Satz Es sei K algebraisch abgeschlossen und f : V → V ein Endo-morphismus eines endlichdimensionalen K-Vektorraumes V. Dann ist f genaudann diagonalisierbar, wenn fur jeden Eigenwert λ ∈ spec(f) die algebraischeVielfachheit gleich der geometrischen Vielfachheit ist.

Beweis: Sei f diagonalisierbar. Wir benotigen die algebraische Abgeschlos-senheit von K jetzt nicht. Es existiert eine Basis aus Eigenvektoren mitAf = Diagonalmatrix. In der Diagonalen von D stehen die Eigenwerte.χf (x) =

∏ni=1(λi − x). Zu jedem λ ∈ spec(f) steht λ so oft in der Diagonalen

wie die Dimension von E(λ) ist. Also ist die algebraische Vielfachheit gleichder geometrischen.Nun setzen wir voraus, dass K algebraisch abgeschlossen ist. Die Summe derEigenraume ist eine direkte Summe. Zu zeigen: Diese Summe spannt ganz Vauf (Korollar 14.7, Lemma 14.12). Dies ist aquivalent zu

n := dim(V ) =∑

λ∈spec(f)

dim(E(λ)). (14.2)

Da K algebraisch abgeschlossen ist, hat das charakteristische Polynom dieForm

χf (x) = (−1)n∏

λ∈spec(f)

(x− λ)mλ ,

wobei mλ die algebraische Vielfachheit von λ ist. Daraus folgtn =

∑λ∈spec(f)mλ. Nach Voraussetzung ist mλ die geometrische Vielfach-

heit von λ, also folgt (14.2). �

122

Page 123: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 15

Bilinearformen, Gramsche Matrix

Bisher betrachteten wir allgemein einen K-Vektorraum V. Fur K = R undK = C wollen wir eine zusatzliche Struktur kennenlernen, mit deren HilfeLangen und Winkel gemessen werden konnen.

Zu x = (x1, . . . , xn) und y = (y1, . . . , yn) in Rn sei

〈x, y〉 := x1y1 + · · ·+ xnyn.

〈·, ·〉 : Rn × Rn → R, (x, y) 7→ 〈x, y〉.Diese Abbildung heißt kanonisches Skalarprodukt. Sie ist in beiden Kompo-nenten linear (bilinear) und es gilt 〈x, y〉 = 〈y, x〉 sowie

〈x, x〉 ≥ 0 und 〈x, x〉 = 0⇔ x = 0.

Dies mache man sich klar. Nur die letzte Zeile benutzt spezielle Eigenschaf-ten des Korpers R : 〈x, x〉 = x2

1 + · · · + x2n ≥ 0. Wir nennen

√〈x, x〉 =: ||x||

die Lange von x. Die Abbildung || · || : Rn → R, x 7→ ||x|| heißt Norm.d(x, y) := ||y − x|| heißt Abstand zwischen x und y; auch die Abbildungd : Rn × Rn → R+, d(x, y) := ||y − x|| heißt Abstand bzw. Metrik (siehe Ana-lysis II).

Zu einem z = x+ iy ∈ C war z = x− iy und |z| =√zz =

√x2 + y2, was der

Norm in R2 entspricht. Fur die Geometrie in Cn definieren wir daher

〈·, ·〉C : Cn × Cn → C, (z, w) 7→ 〈z, w〉C

durch 〈z, w〉C := z1w1+· · ·+znwn (heißt ebenfalls kanonisches Skalarprodukt).Beachte: Diese Abbildung ist in der ersten Komponente linear, in der zweitengilt: 〈z, λw〉C = λ〈z, w〉C , λ ∈ C, z, w ∈ Cn sowie 〈w, z〉C = 〈z, w〉C und〈z, z〉C ∈ R+ und 〈z, z〉C = 0⇔ z = 0.

Ist V der R-Vektorraum der stetigen Funktionen auf [a, b] ⊂ R, so ist

V × V → R, (f, g) 7→∫ b

a

f(t)g(t)dt

linear in beiden Komponenten und symmetrisch:

∫ b

a

f(t)g(t)dt =

∫ b

a

g(t)f(t)dt.

123

Page 124: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Die Determinante zweier Vektoren des R2 ist definiert als

(x, y) 7→ det

(x1 y1

x2 y2

)= x1y2 − x2y1.

Diese Abbildung ist ebenfalls linear in beiden Komponenten und wir wissen

det

(x1 y1

x2 y2

)= − det

(y1 x1

y2 x2

),

also liegt “Symmetrie bis auf das Vorzeichen” vor.

All diese Beobachtungen nehmen wir zum Anlass, allgemeine “bilineare” Ab-bildungen zu studieren:

15.1 Definition V sei ein K-Vektorraum. Eine Abbildung ϕ : V × V → K,die linear in jedem Argument ist, heißt bilinear bzw. Bilinearform. Die Mengeder Bilinearformen ist in naturlicher Weise wieder ein K-Vektorraum, den wirmit M2(V ) bezeichnen.

Sei ϕ ∈M2(V ) und V = (v1, . . . , vn) eine Basis von V (sei V endlichdimensio-nal).

v, w ∈ V : v =n∑

i=1

xivi, w =n∑

j=1

yjvj : ϕ(v, w) =n∑

i,j=1

xiyjϕ(vi, vj).

15.2 Definition Ist ϕ ∈ M2(V ) und V = (v1, . . . , vn) eine Basis von V, soheißt die Matrix

G = (ϕ(vi, vj))1≤i,j≤n

die Grammatrix von ϕ bzgl. der Basis V .

Die Basis V und die Grammatrix legen die Bilinearform ϕ eindeutig fest. Um-gekehrt definiert jede n× n-Matrix G = (gij) und jede Basis V = (v1, . . . , vn)durch

ϕ

(n∑

i=1

xivi,n∑

j=1

yjvj

):=

n∑

i,j=1

xiyjgij

eine Bilinearform auf V.

Bilinearformen werden durch Matrizen beschrieben, die Zuordnung hangt vonder Basis ab. Wenn wir die Koordinatenvektoren von v und w als Spaltenvek-toren schreiben, folgt also:

ϕ(v, w) = xTGy.

124

Page 125: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Sei W = (w1, . . . , wn) eine zweite Basis mit Basistransformation S = (sij) :wj =

∑ni=1 sijvi, so gilt: Die Grammatrix G′ von ϕ bzgl. W ist

g′ij = ϕ(wi, wj) = ϕ

(∑

k

skivk,∑

l

sljvl

)

=∑

k,l

skisljϕ(vk, vl) =∑

k,l

skisljgkl.

Wir haben somit gezeigt:

15.3 Satz Sei ϕ eine Bilinearform, G die Grammatrix bzgl. einer Basis V undG′ die Grammatrix bzgl. einer BasisW . S sei die Matrix der Basistransforma-tion, so gilt

G′ = STGS.

15.4 Korollar Der Rang der Grammatrix wird durch ϕ festgelegt und hangtnicht von der speziellen Basis ab.

Beweis: S ist regular, G quadratisch, und daher gilt rang(STGS) = rang(G).�

15.5 Definition Eine Bilinearform ϕ ∈ M2(V ) heißt symmetrisch, wennϕ(u, v) = ϕ(v, u) fur alle u, v ∈ V gilt. Sie heißt antisymmetrisch, alternie-rend oder symplektisch, wenn ϕ(u, v) = −ϕ(v, u) fur alle u, v ∈ V gilt.

15.6 Bemerkung Eine Bilinearform ist genau dann symmetrisch, wenn dieGrammatrix (bzgl. einer beliebigen Basis) symmetrisch ist. Sie ist symplektischgenau dann, wenn die Grammatrix schiefsymmetrisch ist, d. h. dass GT = −Ggilt.

15.7 Beispiele

(1) Das kanonische Skalarprodukt auf Rn, 〈x, y〉 :=∑n

i=1 xiyi, ist eine symmetri-sche Bilinearform.

(2) (x, t) = (x1, x2, x3, t) ∈ R4 sei ein “Raum-Zeit-Vektor”. Sei ϕ((x, t), (y, s)) :=∑3i=1 xiyi−c2ts, c Konstante (Lichtgeschwindigkeit). (R4, ϕ) heißt Minkowski-

Raum. ϕ ist eine symmetrische Bilinearform.

(3) R2 : (x, y) 7→ det

(x1 y1

x2 y2

)ist eine symplektische Bilinearform.

Fur komplexe Vektorraume hatten wir die folgende Definition / Modifikationmotiviert:

125

Page 126: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

15.8 Definition Es sei V ein C-Vektorraum. ϕ : V × V → C heißt Sesquili-nearform, wenn gilt

(1) ϕ(αu+ βv, w) = αϕ(u,w) + βϕ(v, w) ∀α, β ∈ C, ∀u, v, w ∈ V(2) ϕ(w,αu+ βv) = αϕ(w, u) + βϕ(w, v) ∀α, β ∈ C, ∀u, v, w ∈ V.

Die Sesquilinearform heißt Hermitesch, wenn ϕ(u, v) = ϕ(v, u)∀u, v ∈ V gilt.Eine Hermitesche Sesquilinearform heißt kurz Hermitesche Form.

Beispiel: Cn × Cn → C, (x, y) 7→ 〈x, y〉C :=∑n

i=1 xiyi.

Fur Hermitesche Formen gilt stets ϕ(v, v) ∈ R, da ϕ(v, v) = ϕ(v, v), v ∈ V. IstV = (v1, . . . , vn) eine Basis im komplexen Vektorraum V, so setzen wir erneutgij := ϕ(vi, vj) und somit

ϕ(v, w) =n∑

i,j=1

gijxiyj,

oder kurz

ϕ(v, w) = xTGy mit v =n∑

i=1

xivi und w =n∑

i=1

yivi.

Eine Sesquilinearform ist genau dann Hermitesch, wenn

GT = G. (15.1)

15.9 Definition Eine komplexe quadratische Matrix, die (15.1) erfullt, heißtHermitesche Matrix.

126

Page 127: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 16

Normalformen von Bilinearformen

Wir wollen nun Basen finden, bezuglich derer eine Bilinearform eine besonderseinfache Grammatrix hat. Wir diskutieren symmetrische, symplektische undHermitesche Formen separat. Zunachst aber ein paar Vorbereitungen:

Fur die drei genannten Formen gilt immer ϕ(u, v) = 0 genau dann, wennϕ(v, u) = 0 gilt. Dies ist im Allgemeinen fur Bilinearformen nicht richtig undwird im Folgenden wichtig sein.

Sei char(K) 6= 2.

16.1 Definition Wir definieren

ker(ϕ) := {v ∈ V : ϕ(v, w) = 0∀w ∈ V }.

ϕ heißt nicht degeneriert, wenn kerϕ = {0} ist. Sonst heißt ϕ degeneriert.

– Fur dim(V ) = 1 ist eine Bilinearform genau dann nicht degeneriert, wennsie nicht die Nullform ist. Ist ϕ nicht die Nullform, so ist in diesem Fallϕ(v, w) 6= 0, falls beide Vektoren ungleich 0 sind.

– Ist dim(V ) ≥ 2, so gibt es auch fur nichtdegenerierte Formen “viele” Paarevon Vektoren, fur die ϕ(v, w) = 0 ist.

16.2 Lemma Es sei V = (v1, . . . , vn) eine Basis von V. Eine Bilinearform ϕist genau dann nicht degeneriert, wenn die Grammatrix regular ist.

Beweis: ker(ϕ) = {v ∈ V : ϕ(v, vi) = 0 ∀ i = 1, . . . , n}. Also ist v =∑n

j=1 xjvjgenau dann im Kern von ϕ, wenn das homogene Gleichungssystem

n∑

j=1

xjϕ(vj, vi) =n∑

j=1

xjgij = 0 fur alle i = 1, . . . , n

erfullt ist. Dieses Gleichungssystem hat genau dann nur die triviale Losung,wenn G regular ist. �

Ist ϕ Bilinearform und U Unterraum von V, so ist ϕU : U × U → K durchϕU(u1, u2) := ϕ(u1, u2), u1, u2 ∈ U, definiert; ϕU ist Bilinearform auf U.

127

Page 128: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

16.3 Beispiele

(1) V = K2; ϕ(x, y) := x1y2 − x2y1. Die Grammatrix bezuglich der kanonischen

Basis ist dann

(0 1−1 0

), also ist ϕ eine nichtdegenerierte Bilinearform. Es

gilt ϕ(x, x) = 0 fur x ∈ V. Also ist ϕ eingeschrankt auf einen endlichdimensio-nalen Unterraum von K2 die Nullform. Die Einschrankung einer nichtdegene-rierten Bilinearform kann also degeneriert sein.

(2) V = K2; ϕ(x, y) := x1y1 − x2y2 : dies ist eine symmetrische Bilinearform und

nicht degeneriert. Die Einschrankung auf L

[(11

)]ist die Nullform, auch die

auf L

[(1−1

)].

U ⊂ V heißt nicht degeneriert bzgl. einer Bilinearform, wenn ϕU nicht dege-neriert ist. Fur U, Unterraum von V, definieren wir nun das Komplement vonU bzgl. ϕ durch

U⊥ := {v ∈ V : ϕ(v, u) = 0 fur alle u ∈ U}.

Wir setzen ab nun voraus, dass

ϕ(v, u) = 0⇔ ϕ(u, v) = 0

gilt. Also spielt die Reihenfolge von u und v in der Definition von U⊥ keineRolle.

16.4 Lemma

(1) U⊥ ist ein Unterraum von V.

(2) Ist U nicht degeneriert, so gilt V = U ⊕ U⊥.

(3) Sind U und U⊥ nicht degeneriert, so gilt (U⊥)⊥ = U.

Beweis: (1) ist eine Ubung;(2): Sei v ∈ U ∩ U⊥. Da v ∈ U⊥, folgt ϕ(v, w) = 0 fur alle w ∈ U. Dav ∈ U, folgt v ∈ ker(ϕU). Nun ist U nicht degeneriert vorausgesetzt, alsofolgt v = 0. Also U + U⊥ = U ⊕ U⊥. Zu zeigen: V = U + U⊥. Wir zeigendim(U) + dim(U⊥) ≥ dimV. Sei dazu v1, . . . , vm Basis von U ; diese erganzenwir zu einer Basis von V durch vm+1, . . . , vn.

⇒ v =n∑

j=1

xjvj ∈ U⊥ ⇔ ϕ(v, u) = 0 fur alleu ∈ U,

128

Page 129: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

d. h. ϕ(v, vi) = 0 fur i = 1, . . . ,m. Dies ist aquivalent zu

n∑

j=1

xjϕ(vj, vi) = 0, i = 1, . . . ,m.

Dies ist ein homogenes Gleichungssystem mit m Gleichungen und n Unbe-kannten, daher ist die Dimension des Losungsraums mindestens n −m. Alsodim(U⊥) ≥ n−m = dim(V )− dim(U).(3): Sind U und U⊥ nicht degeneriert, so folgt mit (2) V = U ⊕ U⊥ undV = U⊥ ⊕ (U⊥)⊥. Also ist dimU = dim(U⊥)⊥. Weiter gilt U ⊂ (U⊥)⊥, dennfur u ∈ U gilt ϕ(u, v) = 0 fur alle v ∈ U⊥. Dann folgt U = (U⊥)⊥. �

16.5 Definition ϕ sei eine Bilinearform auf V. Zwei Vektorraume heißen or-thogonal bezuglich ϕ, wenn ϕ(u1, u2) = 0 fur alle u1 ∈ U1 und alle u2 ∈ U2

ist.

16.1 Diskussion der Normalform symmetrischer Bilinearformen

16.6 Satz Es sei ϕ eine symmetrische Bilinearform auf einem endlichdimen-sionalen Vektorraum V. Sei n := dim(V ) und l := dim(kerϕ). Dann existierenm := n−l eindimensionale nichtdegenerierte Unterraume U1, . . . , Um, die paar-weise orthogonal sind, so dass

V = U1 ⊕ U2 ⊕ · · · ⊕ Um ⊕ ker(ϕ)

gilt.

Damit haben wir eine Basis gefunden, bzgl. derer die Grammatrix sehr einfachist:

Wahle vi ∈ Ui, vi 6= 0, i = 1, . . . ,m, und eine Basis vm+1, . . . , vn von ker(ϕ),so ist v1, . . . , vn Basis von V (direkte Summe!). Es gilt ϕ(vi, vj) = 0 fur i 6= jund ϕ(vi, vi) = 0 fur i ≥ m + 1 (Kern). Fur i ≤ m gilt αi := ϕ(vi, vi) 6= 0(siehe obige Diskussion).

16.7 Korollar Unter Voraussetzungen wie in Satz 16.6 existiert eine Basisvon V, bzgl. derer die Grammatrix die folgende Gestalt hat:

α1 0 0 · · · 0. . .

......

0 αm...

...

0 · · · · · · 0...

.... . .

...0 · · · · · · · · · · · · 0

129

Page 130: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Die αi haben “nichts” mit Eigenwerten zu tun.

Beweis von Satz 16.6 via Induktion nach n := dimV :n = 1 : klar.Sei n ≥ 2. Ist ker(ϕ) = V, so ist nichts zu zeigen. Sei also ker(ϕ) 6= V. Dannexistieren Vektoren v, w ∈ V mit ϕ(v, w) 6= 0. Wegen der Symmetrie ist

ϕ(v + w, v + w)− ϕ(v, v)− ϕ(w,w) = 2ϕ(v, w) 6= 0.

(Hier fordern wir allerdings char K 6= 2.) Also existiert ein x ∈ V mitϕ(x, x) 6= 0. U1 := L[x] ist dann ein nichtdegenerierter Unterraum. Mit Lemma16.4 folgt V = U1 ⊕ V ′ mit V ′ = U⊥

1 . Sei ϕ′ die Einschrankung von ϕ auf V ′.Dann gilt

ker(ϕ) = ker(ϕ′). (16.1)

Wenn wir (16.1) gezeigt haben, folgt nach Induktionsvoraussetzung fur V ′ :

V ′ = U2 ⊕ · · · ⊕ Um ⊕ ker(ϕ′)

= U2 ⊕ · · · ⊕ Um ⊕ ker(ϕ),

U2, . . . , Um eindimensionale nichtdegenerierte Unterraume von ϕ′. Jeder nicht-degenerierte Unterraum U ′ ⊂ V ′ von ϕ′ ist auch ein nichtdegenerierter Un-terraum von ϕ. Folglich sind U2, . . . , Um eindimensionale, nichtdegenerierteUnterraume ⊂ V von ϕ und V = U1 ⊕ U2 · · · ⊕ Um ⊕ ker(ϕ).

Zu (16.1): v ∈ V : v = αx+ v′, α ∈ K, v′ ∈ V ′. Es gilt

ϕ(v, x) = ϕ(αx+ v′, x)

= αϕ(x, x) + ϕ(v′, x)

= αϕ(x, x),

da v′ ∈ U⊥1 . Da ϕ(x, x) 6= 0, folgt aus v ∈ ker(ϕ), dass α = 0 ist, dass also

v ∈ V ′. Also folgt ker(ϕ) ⊂ V ′ = U⊥1 . Wir haben somit:

v ∈ ker(ϕ)

⇔ v ∈ U⊥1 undϕ(v, αx+ v′) = 0∀α ∈ K, v′ ∈ U⊥

1

⇔ v ∈ U⊥1 undϕ(v, v′) = 0∀v′ ∈ U⊥

1

⇔ v ∈ U⊥1 und v ∈ ker(ϕ′)

⇔ v ∈ ker(ϕ′),

also wurde (16.1) gezeigt. �

Wir betrachten den Fall K = C. Ist V = (v1, . . . , vn) eine Basis mit ϕ(vi, vj) =αiδi,j, αi = 0 fur i > m, αi 6= 0 fur i ≤ m, so setzen wir v′i = vi

βimit β2

i = αi(existiert) fur i ≤ m und v′i = vi fur i > m. Dann ist ϕ(v′i, v

′j) = δij fur i ≤ m

und ϕ(v′i, v′j) = 0 sonst.

130

Page 131: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

16.8 Satz Sei K = C und ϕ eine symmetrische Bilinearform. Dann existiert

eine Basis, bezuglich derer die Grammatrix die Gestalt

(Em 00 0n−m

)hat.

m = n− dim(ker(ϕ)) hangt nicht von der speziellen Basis ab.

Beweis: Der Rang der Grammatrix ist eindeutig durch die Bilinearform gege-ben. Damit ist m eindeutig. �

Sei nun K = R. Wir konnen nur aus positiven Korperelementen Wurzelnziehen. Wir setzen nun v′i = vi/

√αi fur die i mit αi > 0. Fur diese i gilt

ϕ(v′i, v′i) = 1. Fur αi < 0 setzen wir v′i = vi/

√−αi. Dann ist ϕ(v′i, v′i) = −1.

16.9 Tragheitssatz von Sylvester Sei K = R und ϕ eine symmetrische Bi-linearform. Dann existiert eine Basis

V = (v1, . . . , vn+ , vn++1, . . . , vn++n− , . . . , vn++n−+n0)

(mit n = n+ + n− + n0), bezuglich derer die Grammatrix die Gestalt

En+ 0 00 −En− 00 0 0n0

hat. (n+, n−, n0) ist dabei eindeutig durch ϕ festgelegt.

16.10 Definition Das Tripel (n+, n−, n0) heißt die Signatur der symmetri-schen Bilinearform. Eine reelle symmetrische Bilinearform mit n+ = dimV(also n− = n0 = 0) heißt positiv definit.

Beweis zu Satz 16.9: Die Existenz der Basis ist bereits bewiesen wor-den. Zu zeigen: die Signatur ist unabhangig von der speziellen Basis. SeienV = (v1, . . . , vn) und V ′ = (v′1, . . . , v

′n) zwei Basen, bzgl. derer die Grammatrix

die obige Gestalt hat und Signaturen (n+, n−, n0) bzw. (n′+, n

′−, n

′0). Der Rang

ist durch ϕ festgelegt, also n0 = n′0. Seien

V+ := L[v1, . . . , vn+ ], V− := L[vn++1, . . . , vn++n− ],

analog V ′+, V

′−. Die letzten n0 Vektoren beider Basen spannen ker(ϕ) auf, denn

v =∑n

j=1 βjvj ∈ ker(ϕ)⇔ ϕ(v, vi) = 0 fur alle i, d.h. genau dann, wenn βi = 0fur i ≤ n++n−, also ker(ϕ) = L[vn++n−+1, . . . , vn]. Analog fur die zweite Basis.Es gilt also

V = V+ ⊕ V− ⊕ ker(ϕ) = V ′+ ⊕ V ′

− ⊕ ker(ϕ).

Angenommen n+ > n′+, dann folgt dim(V+) + dim(V ′

− ⊕ ker(ϕ)) > n, wor-aus V+ ∩ (V ′

− ⊕ ker(ϕ)) 6= {0} folgt. Sei x ∈ V+ ∩ (V ′− ⊕ ker(ϕ)), x 6= 0, so

131

Page 132: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

gilt ϕ(x, x) > 0 wegen x ∈ V+, x 6= 0, und andererseits ϕ(x, x) ≤ 0 wegenx ∈ V ′ ⊕ ker(ϕ). Dies ist ein Widerspruch!Analog schließt man n′

+ > n+ aus. Also ist n+ = n′+, woraus auch n− = n′

−folgt. �

Zusammenfassung fur symmetrische Bilinearformen in Matrizen-sprache:Es sei G eine symmetrische Matrix. Dann existiert S ∈ GL(n,K) mit STGSist Diagonalmatrix. Ist K = C, so kann man S so wahlen, dass in der Diago-nalen nur Nullen und Einsen stehen. Im Fall K = R kann man S so wahlen,dass in der Diagonalen nur ±1 oder 0 vorkommt: Die Anzahl von +1,−1 und0 sind dabei durch G festgelegt.

16.2 Diskussion der Normalform einer Hermiteschen Form(K = C)

16.11 Satz Sei K = C und ϕ eine Hermitesche Sesquilinearform. Dann exis-tiert eine Basis V = (v1, . . . , vn), bzgl. derer die Grammatrix von der Form wiein Satz 16.9 ist. (n+, n−, n0) ist durch ϕ eindeutig festgelegt.

16.12 Definition Das Tripel (n+, n−, n0) heißt Signatur der HermiteschenForm. Eine Hermitesche Form mit n+ = dimV (d.h. n− = n0 = 0) heißtpositiv definit.

Beweis von Satz 16.11: “Analog” zu Satz 16.6 und Satz 16.9; ein Punkt in16.6 muss “angeglichen” werden. Wir hatten dort gesehen, dass fur ein sym-metrisches ϕ mit ϕ 6= 0 ein v existiert mit ϕ(v, v) 6= 0. Dies zeigt man imHermiteschen Fall so: aus ϕ(v, v) = 0 fur alle v folgt, dass ϕ = 0 : fur alleu, v ∈ V

0 = ϕ(u+ v, u+ v) = ϕ(u, u) + ϕ(u, v) + ϕ(v, u) + ϕ(v, v)

= ϕ(u, v) + ϕ(v, u)

= ϕ(u, v) + ϕ(u, v).

Also ist ϕ(u, v) fur alle u, v ∈ V stets rein imaginar. Damit istϕ(iu, v) = iϕ(u, v) auch rein imaginar, wobei ϕ(u, v) auch rein imaginar.Dies gilt nur, wenn ϕ(u, v) = 0 fur alle u, v ∈ V. Der Rest verlauft wie in Satz16.6 und fuhrt zu G = (αiδij). Hier sind nun αi ∈ R, da ϕ(v, v) ∈ R fur eine

Hermitesche Form. Ersetze Basiselemente durch vi/√|αi|, falls αi 6= 0. So

erhalt man die Grammatrix mit ±1 und 0 in der Diagonalen. Das Argumentim Beweis des Satzes von Sylvester verlauft analog.

132

Page 133: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

16.3 Diskussion der Normalform im symplektischen Fall

16.13 Satz Sei ϕ symplektisch. Ist ϕ 6= 0, so existieren 2-dimensionale,nichtdegenerierte, paarweise orthogonale Unterraume U1, . . . , Um (2m ≤ n =dim(V )) mit

V = U1 ⊕ · · · ⊕ Um ⊕ ker(ϕ).

Beweisskizze: Man fuhrt Induktion nach n = dim(V ).Fur n = 1 ist nichts zu zeigen, da ϕ = 0 (im symplektischen Fall ϕ(v, v) = 0fur alle v ∈ V, da ϕ(v, v) = −ϕ(v, v).)Ist n ≥ 2 und ϕ 6= 0, so existieren u, v ∈ V mit ϕ(u, v) 6= 0. u, v mussen linearunabhangig sein (sonst ware ϕ(u, v) = 0). Sei U1 := L[u, v] und V ′ := U⊥

1 , sogilt V = U1⊕U⊥

1 . Der Rest verlauft analog zu Satz 16.6. Die Details sind eineUbung. �

16.14 Korollar Sei ϕ symplektisch, char K 6= 2. Dann existiert eine Basis,bezuglich derer die Grammatrix die folgende Gestalt hat:

0 1−1 0

0 · · · · · · 0

0. . . 0

...

...0 1−1 0

0...

...0

. . .

...

0 · · · · · · · · · 0

Beweis: Wir arbeiten mit der Basis aus Satz 16.13.

V = (v1, v2, . . . , v2m−1, v2m, v2m+1, . . . , vn) :

v1, v2 ist Basis von U1, . . . , v2m+1, . . . , vn Basis von ker(ϕ). Setzeαi := ϕ(v2i−1, v2i) 6= 0, so gilt ϕ(v2i, v2i−1) = −αi. Daraus folgt sofort schon

obige Matrixgestalt, die Zweierkastchen haben die Gestalt

(0 αi−αi 0

).

Ersetze daher obige Basis durch

v1

α1

, v2,v3

α2

, v4, . . . ,v2m−1

αm, v2m, v2m+1, . . . , vn.

Dies liefert die gewunschte Form. �

16.15 Bemerkung Nichtdegenerierte symplektische Formen existieren nurfur Vektorraume gerader Dimension.

133

Page 134: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

16.16 Definition Es sei ϕ eine symmetrische Bilinearform oder eine Hermi-tesche Form. Dann heißt

q : V → K (bzw. q : V → R),

definiert durch q(v) := ϕ(v, v) die zu ϕ gehorende quadratische Form.

16.17 Satz Symmetrische Bilinearformen und Hermitesche Formen sind durchihre zugehorige quadratische Form eindeutig festgelegt.

Beweis: Im Falle einer symmetrischen Bilinearform ist ϕ(u + v, u + v) =ϕ(u, u) + 2ϕ(u, v) + ϕ(v, v), also ϕ(u, v) = 1

2(q(u+ v)− q(v)− q(u)).

Im Hermiteschen Fall ist

ϕ(u, v) =1

2i(−(1 + i)q(u)− (1 + i)q(v) + q(iu+ v) + iq(u+ v)).

Dies rechne man nach. �

Wir betrachten nun Koordinaten: ϕ sei eine symmetrische Bilinearform,V = (v1, . . . , vn) eine Basis von V. Dann gilt

ϕ(u, v) =n∑

i,j=1

gijxiyj, u, v ∈ V,

wobei x, y ∈ Kn die Koordinatenvektoren von u und v sind und G = (gij) diesymmetrische Grammatrix bezuglich V ist. Also folgt

q(u) =n∑

i,j=1

gijxixj.

Normalformen: Es existieren Koordinatentransformationen

xi =n∑

j=1

sijx′j, S = (sij) regular,

mit∑n

i,j=1 gijxiyj =∑n

i=1 αix′iy

′i. Fur die quadratische Form folgt

∑ni=1 αi(x

′i)

2.(Beachte v′j =

∑ni=1 sijvi) Im Fall K = C wissen wir, dass alle αi Null oder

Eins sind. Im Fall K = R ist auch −1 zugelassen. Jede quadratische Form hatdaher die Gestalt

n+∑

i=1

x2i −

n++n−∑

i=n++1

x2i .

Spezialfall: positiv definite symmetrische Bilinearform: ∃V : Grammatrix istEinheitsmatrix. Folglich

q(v) =n∑

i=1

x2i . (16.2)

134

Page 135: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

16.18 Lemma Eine symmetrische reelle Bilinearform ϕ ist genau dann positivdefinit, wenn q(v) := ϕ(v, v) > 0 fur alle v 6= 0 ist.

Beweis: Ist ϕ positiv definit, so existiert eine Basis, bezuglich derer sich ϕgemaß (16.2) darstellt. Also q(v) > 0, falls v 6= 0. Ist ϕ nicht positiv definit, sohat man die Darstellung

∑n+

i=1 x2i −

∑n++n−

i=n++1 x2i mit n+ < n. Dann existieren

Vektoren v 6= 0 mit q(v) ≤ 0. �

Hermitescher Fall: ϕ(u, v) =∑n

i,j=1 gijxiyj und

q(u) =n∑

i,j=1

gijxixj.

Bei einem geeigneten Basiswechsel ist

n∑

i,j=1

gijxixj =

n+∑

i=1

|x′i|2 −n++n−∑

i=n++1

|x′i|2.

Ist die Form positiv definit, so gilt q(v) =∑n

i=1 |xi|2.

16.19 Lemma Eine Hermitesche Form ϕ ist genau dann positiv definit, wennq(v) := ϕ(v, v) > 0 fur alle v 6= 0 ist.

135

Page 136: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

136

Page 137: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 17

Das Gram-Schmidtsche Orthogonalisierungsverfahren

In diesem Kapitel betrachten wir nur symmetrische Bilinearformen oder Her-mitesche Formen. In den Satzen 16.6 und 16.13 haben wir jeweils eine Basis(v1, . . . , vn) gefunden, fur die ϕ(vi, vj) = 0 fur i 6= j gilt. Dies ist bereits einVerfahren zur Orthogonalisierung:

17.1 Definition ϕ sei eine symmetrische Bilinearform oder eine HermitescheForm. Vektoren v1, . . . , vn aus V heißen orthogonal, wenn ϕ(vi, vj) = 0 furi 6= j gilt.

Das Verfahren in den erwahnten Satzen war nicht sehr konstruktiv, funktio-niert aber immer. Wir wollen nun ein konstruktiveres Verfahren vorstellen.Zunachst

17.2 Lemma Sind v1, . . . , vn orthogonal und gilt ϕ(vi, vi) 6= 0 fur alle i, sosind diese Vektoren linear unabhangig.

Beweis: Sei∑n

i=1 αivi = 0, dann folgt fur 1 ≤ k ≤ n

0 = ϕ

(vk,

n∑

i=1

αivi

)= αkϕ(vk, vk).

Daraus folgt αk = 0 fur 1 ≤ k ≤ n. �

Wir wollen nun eine beliebige Basis V = (v1, . . . , vn) schrittweise orthogo-nalisieren. Wir mussen in unserem allgemeinen Kontext (ϕ ist symmetrischeBilinearform oder Hermitesch) noch eine Bedingung stellen:

17.3 Bedingung Alle Unterraume Ui := L[v1, . . . , vi], 1 ≤ i ≤ n, sind nichtdegeneriert. (Dies wird spater kommentiert.)

Es sei w1 := v1, dann ist ϕ(w1, w1) 6= 0, denn U1 = L[v1] ist nicht degeneriert.

Rekursiver Ansatz fur wi, i ≥ 2, mit ϕ(wi, wi) 6= 0 :

wi := vi +i−1∑

j=1

αjwj.

137

Page 138: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Um ϕ(wi, wj) = 0 fur j = 1, . . . , i− 1 zu erreichen, muss gelten:

ϕ(vi, wj) + αjϕ(wj, wj) = 0, j = 1, . . . , i− 1,

wobei ϕ(wj, wj) 6= 0 nach Rekursionsvoraussetzung gilt. Wir betrachten diesgenau:

ϕ

(vi +

i−1∑

k=1

αkwjwj

)= ϕ(vi, wj) +

i−1∑

k=1

αkϕ(wk, wj)

= ϕ(vi, wj) + αjϕ(wj, wj).

0 = ϕ(vi, wj) + αjϕ(wj, wj) ist nun aquivalent zu

αj = − ϕ(vi, wj)

ϕ(wj, wj), j = 1, . . . , i− 1. (17.1)

Das liefert also orthogonale Vektoren. Es gilt

(1) ϕ(wi, wi) 6= 0 fur alle i = 1, . . . , n

(2) L[w1, . . . , wi] = Ui (= L[v1, . . . , vi])

(3) wi ist orthogonal zu allen Vektoren in Ui−1.

Das schauen wir uns im Detail an: Mit w1 := v1 ist (1) und (2) klar und (3)ist leer. Seien fur i ≥ 2 w1, . . . , wi−1 schon konstruiert, und (1) - (3) gelten furIndizes < i. Dann sind w1, . . . , wi−1, vi linear unabhangig. Um (2) zu erfullen,setzen wir

wi = λivi +i−1∑

k=1

αkvk

an. Da L[w1, . . . , wi−1] = Ui−1, konnen wir∑i−1

k=1 αkvk durch∑i−1

k=1 αkwk erset-zen. Bei der Wahl λi = 1 (tangiert (1) - (3) nicht) fuhrt dies zu dem bereitsangegebenen

wi = vi +i−1∑

k=1

αkwk

und bei der Wahl von (17.1) erfullt wi (3).

(1): Da w1, . . . , wi−1 vi linear unabhangig sind, ist wi 6= 0. Ware ϕ(wi, wi) = 0,so folgte ϕ(wi, wj) = 0 fur j ≤ i. Also folgte ϕ(wi, v) = 0 fur alle v ∈ Ui, alsowi ∈ ker(ϕ|Ui

), aber Ui soll nach Bedingung 17.3 nicht degeneriert sein! Alsoist ϕ(wi, wi) 6= 0.(3): wi ∈ L[w1, . . . , wi−1, vi] = Ui. Also ist L[w1, . . . , wi−1, wi] ⊂ Ui. Aber vi istals Linearkombination der w1, . . . , wi darstellbar, also gilt Gleichheit. �

138

Page 139: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

17.4 Satz ϕ sei eine symmetrische Bilinearform oder eine Hermitesche Form.V = (v1, . . . , vn) sei eine Basis von V und die Bedingung 17.3 sei erfullt. Dannexistiert eine orthogonale BasisW = (w1, . . . , wn) von V mit (1), (2) wie oben.�

17.5 Bemerkungen

(a) Bedingung 17.3 besagt insbesondere, dass ker(ϕ) = {0}. ϕ positiv definit im-pliziert ϕ(v, v) > 0 fur v 6= 0 nach Lemmata 16.18 und 16.19. Dann ist jederUnterraum (6= {0}) nicht degeneriert, also ist Bedingung 17.3 erfullt.

(b) Um nachzuweisen, dass (w1, . . . , wn) durch das Gram-Schmidt - Verfahren auseiner Folge (v1, . . . , vn) hervorgeht, muss man (1), (2) nachweisen und zeigen,dass wi orthogonal zu v1, . . . , vi−1 ist. Ist ϕ positiv definit, folgt (1) sofort, dadie wi 6= 0.

(c) Auch wenn Bedingung 17.3 nicht erfullt ist oder es unklar ist, ob sie erfulltist, sollte man einfach rechnen. Wenn man auf kein wi stoßt mit ϕ(wi, wi) = 0,klappt es (und dann ist auch die Bedingung erfullt).

(d) Satz 17.4 ist fur jeden Korper K notiert. Viele Bucher betrachten nur K = Rund ϕ positiv definit.

17.6 Beispiel ϕ sei eine symmetrische Bilinearform auf R3 mit Grammatrix

1 2 32 1 13 1 1

(bzgl. der kanonischen Basis).

q(x) = x21 + 4x1x2 + 6x1x3 + x2

2 + 2x2x3 + x23

ist die zugehorige quadratische Form.

Gram-Schmidt (ohne die Bedingung erst zu prufen): V = (e1, e2, e3). Wirwahlen w1 = e1. Fur w2 setzt man an

w2 = e2 + αw1.

ϕ(w1, w2) = 0 liefert 2 + α = 0, also α = −2.

Nebenrechnung:

ϕ(w1, e2 + αw1) = ϕ(w1, e2) + αϕ(w1, w1)

= ϕ(e1, e2) + αϕ(e1, e1) = 2 + α.

139

Page 140: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Also w2 =

−2

10

. Ansatz fur w3 :

w3 = v3 + α1w1 + α2w2

mit α1 = − ϕ(e3, w1)

ϕ(w1, w1)= −3 und α2 = − ϕ(e3, w2)

ϕ(w2, w2)N.R.= −5

3.

Also ist w3 =

1/3−5/3

1

. Mit ϕ(w1, w1) = 1, ϕ(w2, w2) = −3 und

ϕ(w3, w3) = 1/3 sowie ϕ(wi, wj) = 0 fur i 6= j ist die neue Grammatrix vonder Form

1 0 00 −3 00 0 1/3

und die Signatur ist (2, 1, 0).

S =

1 −2 1/30 1 −5/30 0 1

ist die Basiswechselmatrix: Bezeichne x di Koordinaten in der alten Basis undy die in der neuen Basis, so gilt

x1 = y1 − 2y2 + 1/3 y3

x2 = y2 − 5/3 y3

x3 = y3.

Dies in die Formel fur die quadratische Form eingesetzt liefert

q(y) = y21 − 3y2

2 + 1/3 y23 (ohne Uberraschung).

Die gefundene Basis lasst sich, abhangig vom KorperK, noch normieren: wahle

w′i :=

wi√ϕ(wi, wi)

.

Dann ist ϕ(w′i, w

′j) = δij.

17.7 Definition Ist ϕ eine positiv definite reelle symmetrische Bilinear-form oder eine positiv definite Hermitesche Form, so heißt eine BasisV = (v1, . . . , vn) mit ϕ(vi, vj) = δij orthonormiert.

140

Page 141: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Sei nun K = R oder K = C und ϕ eine reelle symmetrische Bilinearform odereine Hermitesche Form.

Ist G = (gij) eine Grammatrix bzgl. einer Basis V , so ist ϕ genau dann positivdefinit, wenn fur alle x ∈ Rn \ {0} bzw. x ∈ Cn \ {0}

i,j

gijxixj > 0 bzw.∑

i,j

gijxixj > 0

gilt. Eine symmetrische (bzw. Hermitesche) Matrix G mit dieser Eigenschaftheißt positiv definit.

17.8 Lemma

(1) Eine reelle Matrix G ∈M(n,R) ist genau dann symmetrisch und positiv defi-nit, wenn es eine regulare Matrix S gibt mit

G = STS.

(2) Eine komplexe Matrix G ∈ M(n,C) ist genau dann Hermitesch und positivdefinit, wenn es eine regulare Matrix S gibt mit

G = STS.

Beweis (nur (1)): STS ist symmetrisch: (STS)T = ST (ST )T = STS. Ist V diekanonische Basis von Rn, so ist STS die Grammatrix von ϕ(x, y) =

∑ni=1 xiyi

bzgl. der Basis, die in den Spalten von S steht. Also ist STS die Grammatrixeiner positiv definiten symmetrischen Bilinearform, also ist STS positiv definit(alternativer Beweis: nachrechnen!). Ist G symmetrisch und positiv definit, sofolgt nach Satz 16.9, dass es ein U ∈ GL(n,R) gibt mit En = UTGU, alsoG = (UT )−1EnU

−1 = STEnS = STS mit S := U−1. �

Wir wollen nun ein Kriterium angeben, wann eine symmetrische / HermitescheMatrix positiv definit ist.

Ist G = (gij) ∈ M(n,K), so bezeichnet man mit G(m) = (gij)1≤i,j≤m,m = 1, . . . , n, die Hauptminoren. Ist G symmetrisch, so auch die Hauptmi-noren, analog fur Hermitesch. Mit detG = detGT = det(G) = detG fur GHermitesch ist die Determinante einer Hermiteschen Matrix stets reell.

17.9 Satz

(1) Sei G reell und symmetrisch. Dann ist G genau dann positiv definit, wenndet(G(m)) > 0 fur m = 1, . . . , n gilt.

(2) Sei G komplex und Hermitesch. Dann ist G genau dann positiv definit, wenndet(G(m)) > 0 fur m = 1, . . . , n gilt.

141

Page 142: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(Dies ist wichtig in der Analysis beim Ableiten.)

Beweis: Wir beweisen nur (1), (2) geht analog. Sei G reell, symmetrischund positiv definit. G fassen wir auf als Grammatrix einer symmetrischenForm ϕ bezuglich der Basis (e1, . . . , en). Dann ist G(m) Grammatrix bezuglich(e1, . . . , em) von ϕ|Um

mit Um := L[e1, . . . , em].

Sei G positiv definit: ∃S ∈ GL(n,R) mit G = STS. Also

det(G) = det(STS) = det(ST ) det(S) = (det(S))2 > 0.

G positiv definit⇔ ϕ positiv definit⇔ ϕ|Umpositiv definit fur alle m⇔ G(m)

positiv definit. Also auch det(G(m)) > 0 fur alle m.

Sei umgekehrt det(G(m)) > 0 fur alle m = 1, . . . , n. V = (e1, . . . , en);Um := L[e1, . . . , em], ϕ die zuG gehorende symmetrische Bilinearform und wie-der G(m) Grammatrix von ϕ|Um

. Da det(G(m)) > 0, ist G(m) regular, also ϕ|Um

nicht degeneriert; also sind alle Um nicht degeneriert. Wir konnen das Gram-Schmidtsche Orthogonalisierungsverfahren anwenden: Sei U = (u1, . . . , un) ei-ne orthogonale Basis mit Um = L[u1, . . . , um], m = 1, . . . , n. Sei S die Matrixder Basistransformation, also uj =

∑ni=1 sijvi; hier ist sij = 0 fur i > j (uj

wird bei Gram-Schmidt linear aus v1, . . . , vj kombiniert), also ist S eine obereDreiecksmatrix. Mit αi := ϕ(ui, ui) gilt somit fur jedes m ≤ n

α1 0α2

. . .

0 αm

= S(m)T

G(m)S(m),

wobei S(m) die Hauptminoren von S seien. Also

α1 · · ·αm = det(S(m)T

G(m)S(m))

= (det(S(m)))2 det(G(m)) > 0

fur alle m ≤ n, also αi > 0 fur alle i, also hat ϕ die Signatur (n, 0, 0), und diesbedeutet, dass ϕ, also G positiv definit ist. �

142

Page 143: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 18

Isometrien

Es sei V ein K-Vektorraum und ϕ eine Bilinearform. Wir schreiben dies alsPaar (V, ϕ). Im Vektorraum gibt es Addition und skalare Multiplikation. Durchϕ kommt noch eine zusatzliche Struktur / Verknupfung ins Spiel.

Ein reeller Vektorraum mit einer positiv definiten symmetrischen Bilinearformheißt Euklidischer Vektorraum. Ein komplexer Vektorraum mit einer positivdefiniten Hermiteschen Form heißt unitarer Vektorraum. Ein Vektorraum miteiner symplektischen Form heißt symplektischer Vektorraum.

Das Studium linearer Abbildungen steht nun im Vordergrund. Zunachst be-trachten wir diejenigen, die die zusatzliche Struktur invariant lassen.

Seien V,W Vektorraume, ϕ Bilinearform auf V, ψ eine Bilinearform auf W(oder ϕ, ψ Sesquilinearformen). Voraussetzung: Wenn eine Bedingung wie sym-metrisch, symplektisch oder Hermitesch gegeben ist, dann fur ϕ und ψ.

18.1 Definition Ein linearer Isomorphismus f : V → W heißt eine Isometrie,wenn fur alle u, v ∈ V gilt: ψ(f(u), f(v)) = ϕ(u, v). (V, ϕ) und (W,ψ) heißenisometrisch, wenn es eine Isometrie f : V → W gibt.

18.2 Bemerkungen Fur ein u ∈ ker f ist ϕ(u, v) = ψ(0, f(v)) = 0, alsou ∈ kerϕ, denn es gilt ϕ(u, v) = 0 fur alle v ∈ V. Wir wollen aber keinedegenerierten Bilinearformen untersuchen; dazu muss f injektiv sein, dann istV → im(f) ein Isomorphismus. Daher nehmen wir gleich f als Isomorphismusan. Ein Endomorphismus f : V → V, der Isometrie fur eine nichtdegenerierteForm ist, muss im endlichdimensionalen Fall ein Isomorphismus sein.

Sei V = (v1, . . . , vn) Basis von V, f : V → W Isometrie, dann istW = (w1, . . . , wn) := (f(v1), . . . , f(vn)) Basis von W. Isometriebedingung: DieGrammatrix von ϕ bezuglich V ist gleich der Grammatrix von ψ bezuglichW .

18.3 Satz

(1) Sei K = R und seien ϕ, ψ symmetrische Bilinearformen. Dann sind (V, ϕ) und(W,ψ) genau dann isometrisch, wenn die Signaturen von ϕ und ψ ubereinstim-men.

(2) Sei K = C und seien ϕ, ψ Hermitesch. Dann sind (V, ϕ) und (W,ψ) genaudann isometrisch, wenn die Signaturen von ϕ und ψ ubereinstimmen.

143

Page 144: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(3) Sei K = C und seien ϕ, ψ symmetrische Bilinearformen. Dann sind (V, ϕ) und(W,ψ) genau dann isometrisch, wenn dim(V ) = dim(W ) und dim(ker(ϕ)) =dim(ker(ψ)) gelten.

(4) Seien ϕ, ψ symplektisch. Dann sind (V, ϕ) und (W,ψ) genau dann isometrisch,wenn dim(V ) = dim(W ) und dim(ker(ϕ)) = dim(ker(ψ)) gelten.

Beweis: Wir zeigen (1); (2) - (4) gehen analog und stellen eine wichtige Ubungdar.

Angenommen ϕ und ψ haben dieselbe Signatur (n+, n−, n0). Dann mussn := dim V = dim W = n+ + n− + n0 gelten. Nach dem Tragheitssatz vonSylvester existieren Basen

V = (v1, . . . , vn+ , vn++1, . . . , vn++n− , . . . , vn)

und W = (w1, . . . , wn+ , wn++1, . . . , wn++n− , . . . , wn)

von V und W mit

ϕ(vi, vj) = ψ(wi, wj) =

1 , fur i = j ≤ n+

−1 , fur n+ < i = j ≤ n+ + n−

0 , fur i 6= j oder i = j > n+ + n−

(18.1)

Sei nun f : V → W definiert durch f(vi) = wi, i = 1, . . . , n. Dies ist einIsomorphismus und eine Isometrie: ϕ(vi, vj) = ψ(f(vi), f(vj)).

Ist andererseits f : V → W Isometrie und (n+, n−, n0) die Signatur von (V, ϕ),dann wahle die Basis V wie oben und wi := f(vi), i = 1, . . . , n. (w1, . . . , wn) istdann Basis (f Isometrie, also Isomorphismus). Die Isometriebedingung liefertψ(wi, wj) wie in (18.1). Also hat ψ dieselbe Signatur. �

18.4 Bemerkung Ist f : V → W eine Isometrie, so auch f−1 : W → V. (Diesist eine Ubung.)

Sei nun f : V → V eine Isometrie, also f : V → V Isomorphismus mitϕ(f(u), f(v)) = ϕ(u, v) fur alle u, v ∈ V. Die Menge dieser Isomorphismenbezeichnen wir mit Iso(V, ϕ).

18.5 Satz Iso(V, ϕ) ist mit der Operation der Komposition eine Gruppe. DasNeutralelement ist idV .

Beweis: idV ist eine Isometrie. Fur f, g ∈ Iso(V, ϕ) und u, v ∈ V gilt:

ϕ((g ◦ f)(u), (g ◦ f)(v)) = ϕ(g(f(u)), g(f(v)))

= ϕ(f(u), f(v))

= ϕ(u, v).

144

Page 145: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Also ist g ◦ f ∈ Iso(V, ϕ). Weiter gilt fur f ∈ Iso(V, ϕ) und alle u, v ∈ V :

ϕ(u, v) = ϕ(f(f−1(u)), f(f−1(v)))

= ϕ(f−1(u), f−1(v)),

also f−1 ∈ Iso(V, ϕ). �

18.6 Lemma Sei V ein Vektorraum und ϕ eine nichtdegenerierte Bilinear-form, V = (v1, . . . , vn) eine Basis von V und f : V → V ein Isomorphismus. fist genau dann Isometrie, wenn

ϕ(f(vi), f(vj)) = ϕ(vi, vj) fur alle i, j.

Beweis: Man arbeite mit der Linearitat von f und der Bilinearitat von ϕ. �

Wir wollen die Isomorphiegruppen naher betrachten:

(I) Sei V ein reeller Vektorraum, ϕ eine nichtdegenerierte symme-trische Bilinearform. Dann ist n0 = 0 (ker(ϕ) = {0}). In+,n− sei die n× n-Diagonalmatrix (n = n+ + n−), deren erste n+ Eintrage +1 und die anderen−1 sind. Nach dem Satz von Sylvester existiert eine Basis V = (v1, . . . , vn), sodass die Grammatrix von ϕ bezuglich V gleich In+,n− ist.

Sei nun f : V → V Isomorphismus und A die darstellende Matrix von fbezuglich V . Nach Lemma 18.6 ist f Isometrie von (V, ϕ), wenn

ϕ(f(vi), f(vj)) = ϕ(vi, vj)

fur alle i, j gilt. Dies ist aquivalent zu

AT In+,n−A = In+,n− (18.2)

Die Menge der Matrizen A, die (18.2) erfullen, wird mit O(n+, n−) notiert. Sieist eine Gruppe bezuglich der Matrizenmultiplikation. O(3, 1) heißt Lorentz-Gruppe. Ist ϕ auch positiv definit, also n+ = n, so lautet die Bedingung

ATA = En ⇔ A−1 = AT .

O(n) := {A ∈M(n,R) : AT = A−1}wird als orthogonale Gruppe bezeichnet. Ihre Elemente heißen orthogonale Ma-trizen und bilden einen Untergruppe von GL(n,R).

(II) Sei V ein komplexer Vektorraum und ϕ eine Hermitesche Form,die nicht degenereriert sei. Analog zu oben wird nun (18.2) ersetzt durch

AT In+,n−A = In+,n− (18.3)

145

Page 146: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Bei einer positiv definiten Hermiteschen Form:

ATA = En ⇔ A−1 = AT

U(n) := {A ∈M(n,C) : A−1 = AT}heißt unitare Gruppe; ihre Elemente nennt man unitare Matrizen, sie bildeneine Untergruppe von GL(n,C).

Wir haben die abstrakte Gruppe Iso(V, ϕ) mit konkreten Matrizengruppen“identifiziert” und geben eine Erganzung zu Definition 10.1 an:

18.7 Definition (G1, ∗), (G2, ·) seien zwei Gruppen. f : G1 → G2 heißt Grup-penisomorphismus, wenn

(1) f(a ∗ b) = f(a) · f(b) fur alle a, b ∈ G1

(2) f(a−1) = f(a)−1 fur alle a ∈ G1.

(Das Neutralelement wird in das Neutralelement uberfuhrt.) G1, G2 heißenzueinander isomorph, wenn es einen Gruppenisomorphismus gibt.

18.8 Satz Es sei V ein reeller Vektorraum und ϕ eine nichtdegenerierte sym-metrische Bilinearform mit Signatur (n+, n−). Dann existiert ein Gruppeniso-morphismus F : Iso(V, ϕ)→ O(n+, n−).

Beweis: Sei V = (v1, . . . , vn) eine Basis, bezuglich derer die Grammatrix vonϕ durch In+,n− gegeben ist. Sei nun f ∈ Iso(V, ϕ). Dann wahle F (f) als diedarstellende Matrix von f bezuglich V . Nun gilt F (f ◦ g) = F (f)F (g) und(F (f))−1 = F (f−1), f, g ∈ Iso(V, ϕ). (Dies gilt allgemein und hat nichts mitIsometrie zu tun.) F ist bijektiv:Sind f 6= g zwei Endomorphismen, so sind die darstellenden Matrizen ver-schieden, also ist F injektiv. (Auch dies hat nichts mit Isometrie zu tun.)F ist surjektiv: zu jeder Matrix A, die

AT In+,n−A = In+,n−

erfullt, ist die zugehorige Abbildung f eine Isometrie. �

(III) Sei K ein Korper, V ein 2n-dimensionaler K-Vektorraum undϕ eine nichtdegenerierte symplektische Form. Dann existiert eine Basis,so dass die Grammatrix die Form (2n× 2n)

J2n :=

0 1−1 0

0

. . .

00 1−1 0

146

Page 147: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

hat. Ist A die darstellende Matrix eines Endomorphismus f : V → V, so istf ∈ Iso(V, ϕ) aquivalent dazu, dass ATJ2nA = J2n gilt.

Sp(2n,K) := {A ∈M(2n,K) : ATJ2nA = J2n}

heißt Spinorgruppe.

Die orthogonale und die unitare Gruppe werden uns weiter beschaftigen.

147

Page 148: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

148

Page 149: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 19

Euklidische und unitare Vektorraume

V sei ein n-dimensionaler reeller oder komplexer Vektorraum. Vergleiche mitdem Beginn von Kapitel 18:

19.1 Definition Eine positiv definite symmetrische Bilinearform ϕ auf einemreellen Vektorraum V oder eine positiv definite Hermitesche Form ϕ auf ei-nem komplexen Vektorraum V nennt man Skalarprodukt. Wir schreiben furSkalarprodukte 〈u, v〉 anstelle von ϕ(u, v).

Ein R-Vektorraum V versehen mit einem Skalarprodukt ist ein EuklidischerVektorraum. Ein C-Vektorraum V versehen mit einem Skalarprodukt ist einunitarer Vektorraum.

Beispiele: Standardskalarprodukte

Rn, 〈x, y〉 :=n∑

i=1

xiyi

Cn, 〈x, y〉 :=n∑

i=1

xiyi

Jeder endlichdimensionale Euklidische Vektorraum ist isometrisch zu (Rn,Standardskalarprodukt). Jeder endlichdimensionale unitare Vektorraum istisometrisch zu (Cn, Standardskalarprodukt).

Ist V Euklidisch oder unitar, so ist 〈v, v〉 ∈ R+ = {x ∈ R : x ≥ 0}. Ist v 6= 0,so gilt 〈v, v〉 > 0. Wir definieren die Lange oder (Euklidische) Norm einesVektors durch

||v|| :=√〈v, v〉.

19.2 Lemma Es gelten die beiden Norm-Eigenschaften:

(1) Es ist ||v|| ≥ 0 und ||v|| = 0 gilt genau dann, wenn v = 0.

(2) Fur λ ∈ K und v ∈ V ist ||λv|| = |λ| ||v||.Der Beweis ist eine einfache Ubung.

19.3 Satz (Schwarzsche Ungleichung) Sei V ein Euklidischer oder unitarerVektorraum. Dann gilt fur v, w ∈ V :

|〈v, w〉| ≤ ||v|| · ||w||.

149

Page 150: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Gleichheit gilt genau dann, wenn v und w linear abhangig sind.

Beweis: Man betrachte den Euklidischen Fall: Sind v, w linear abhangig, soexistiert α ∈ K mit w = αv :

|〈v, w〉| = |〈v, αv〉| = |α|〈v, v〉 = ||v||(|α| ||v||) = ||v|| ||w||.

Sind v, w linear unabhangig, so gilt fur α, β ∈ R \ {0} αv + βw 6= 0 unddamit

〈αv + βw, αv + βw〉 = α2||v||2 + 2αβ〈v, w〉+ β2||w||2 > 0.

Dann ist

(||v||2 〈v, w〉〈v, w〉 ||w||2

)positiv definit. Damit ist die Determinante strikt

positiv: ||v||2||w||2 − 〈v, w〉2 > 0. Dies beweist den Satz.

Im unitaren Fall ergeben sich

αα〈v, v〉+ (αβ + αβ)〈v, w〉+ ββ〈w,w〉

und 〈v, v〉 〈v, w〉

〈v, w〉 〈w,w〉

.

19.4 Lemma (Minkowski-Ungleichung / Dreiecksungleichung) Furv, w ∈ V, V Euklidischer oder unitarer Vektorraum, gilt

||v + w|| ≤ ||v||+ ||w||.

Beweis:

||v + w||2 = ||v||2 + ||w||2 + 2〈v, w〉.Mittels der Schwarzschen Ungleichung folgt

||v + w||2 ≤ ||v||2 + ||w||2 + 2||v|| ||w|| = (||v||+ ||w||)2.

Die Lemmata 19.2 und 19.4 ergeben: || · || : V → R+ ist eine Norm, V versehenmit dieser Norm ist ein normierter Vektorraum. Fur Skalarprodukte definierenwir: Sind v, w ∈ V mit 〈v, w〉 = 0, so stehen v und w senkrecht aufeinander,sie sind orthogonal.

150

Page 151: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

19.5 Satz von Pythagoras Stehen v und w senkrecht aufeinander, so gilt

||v + w||2 = ||v||2 + ||w||2.

Sind im Euklidischen Vektorraum v, w 6= 0, so folgt aus Satz 19.3

〈v, w〉||v|| ||w|| ∈ [−1, 1].

Daher existiert ein eindeutiges α ∈ [0, π] mit cosα = 〈v,w〉||v|| ||w|| . α =: ∢(v, w) ist

der Winkel zwischen v und w. (Im unitaren Fall ist 〈v, w〉 ∈ C und der Winkelist nicht definiert.)

In einem Euklidischen oder unitaren Vektorraum (V, 〈·, ·〉) sagen wir, dassUnterraume U1, U2 senkrecht aufeinander stehen, wenn 〈u1, u2〉 = 0 fur alleu1 ∈ U1 und u2 ∈ U2. Ist U Unterraum von V, so ist U⊥ die Menge der Vekto-ren, die auf allen Vektoren in U senkrecht stehen. Da U nicht degeneriert ist(das Skalarprodukt ist postiv definit), folgt V = U ⊕ U⊥, siehe Lemma 16.4.

19.6 Satz Sei U Unterraum von V. Dann existiert ein eindeutiger Endomor-phismus πU von V mit

(1) πU ist eine Projektion von V auf U : πU ◦ πU = πU , und im(πU) = U.

(2) ker(πU) steht senkrecht auf U.

Beweis: Wir nutzen V = U ⊕ U⊥ : jedes v ∈ V hat eine eindeutige Darstel-lung v = u + u′, u ∈ U, u′ ∈ U⊥. Setze πU(v) := u. Dann ist im(πU) = Uund ker(πU) = U⊥ und die Eigenschaften (1) und (2) folgen umittelbar. DieEindeutigkeit zu zeigen ist eine Ubung. �

πU nennt man die orthogonale Projektion auf U.

19.7 Satz Sei U Unterraum eines Euklidischen oder unitaren Vektorraums.Fur v ∈ V ist πU(v) der eindeutige Vektor in U mit dem kleinsten Abstand zuv :

||v − πU(v)|| = minu∈U||v − u||.

Beweis: Fur u ∈ U gilt

||v − u||2 = ||v − πU(v) + πU(v)− u||2 = ||v − πU(v)||2 + ||πU(v)− u||2

nach dem Satz von Pythagoras, denn v − πU(v) ∈ U⊥ und πU(v) − u ∈ U.Folglich ist ||v − πU(v)||2 ≤ ||v − u||2 fur u ∈ U. Gleichheit gilt genau dann,wenn u = πU(v) ist. �

151

Page 152: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Wir berechnen die orthogonale Projektion im Euklidischen Fall:

Sei U aufgespannt durch u1, . . . , um. Sei v ∈ V. πU(v) ist festgelegt durch

• Es existieren α1, . . . , αm ∈ R, so dass πU(v) =∑m

i=1 αiui.

• v − πU(v) steht senkrecht auf U ⇔ 〈v − πU(v), uj〉 = 0, j = 1, . . . ,m.

⇔ 〈v, uj〉 −m∑

i=1

αi〈ui, uj〉 = 0, j = 1, . . . ,m. (19.1)

Sei Γ die Grammatrix bezuglich 〈·, ·〉 auf U und Basis (u1, . . . , um) :Γ = (〈ui, uj〉)1≤i,j≤m ist regular, da 〈·, ·〉 positiv definit ist. Also

α =

α1...αm

= (ΓT )−1

〈v, u1〉

...〈v, um〉

= Γ−1

〈v, u1〉

...〈v, um〉

,

da Γ symmetrisch.

Speziell: Seien die ui bereits orthonormiert: 〈ui, uj〉 = δij, dann ist Γ = Em,also

πU(v) =m∑

i=1

〈v, ui〉ui.

Fur U = V ist πU = idV . Es folgt:

19.8 Satz Ist U = (u1, . . . , un) eine orthonormierte Basis in V, so gilt fur jedenVektor v ∈ V

v =n∑

i=1

〈v, ui〉ui.

Unitarer Fall: u1, . . . , um Basis von U. Nun wird aus (19.1)

(〈v, u1〉, . . . , 〈v, um〉) = (α1, . . . , αm) Γ

⇔ (α1, . . . , αm) = (〈v, u1〉), . . . , 〈v, um〉) Γ−1.

(Dank der Zeilenvektorschreibweise wird Γ nicht benotigt.)

19.9 Beispiel V = C3, 〈x, y〉 :=∑3

i,j=1 gijxiyj mit

G = (gij) =

1 i 1−i 2 01 0 3

.

152

Page 153: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Sei U := L[u1, u2], und (u1, u2, u3) die Standardbasis. Dann ist

Γ = GU =

(1 i−i 2

), also Γ−1 =

(2 −ii 1

). Wir berechnen

πU(u3) : (〈u3, u1〉, 〈u3, u2〉) N.R.= (1, 0), somit

(α1, α2) = (1, 0)

(2 −ii 1

)= (2,−i).

Also ist πU(u3) =

2−i0

.

Wir rollen nochmals das Gram-Schmidt-Verfahren auf: (V, 〈·, ·〉) sei ein Eukli-discher Vektorraum oder ein unitarer Vektorraum mit Basis V = (v1, . . . , vn).Sei Ui := L[v1, . . . , vi]. Wir suchen eine orthogonale Basis (u1, . . . , un) mitUi = L[u1, . . . , ui] und ui ⊥ Ui−1, i = 2, . . . , n, also 〈ui, u〉 = 0 fur alle u ∈ Ui−1.vi−πUi−1

(vi) ist ein derartiger Vektor. Dies ist bis auf eine Streckung der Vektoraus dem Gram-Schmidt-Verfahren:

u1 :=v1

||v1||; ui :=

vi − πUi−1(vi)

||vi − πUi−1(vi)||

liefert eine orthonormierte Basis; diese ist nicht eindeutig. Man kann die uinoch mit einem Korperelement von Betrag 1 multiplizieren, in R mit ±1, in Cmit eiϕ.

πUi−1(vi) =

i−1∑

j=1

〈vi, uj〉uj. (s.o.)

19.10 Beispiel V = C3, versehen mit dem Skalarprodukt aus Beispiel 19.9.Orthonormierte Standardbasis: ||v1|| = 1, also u1 = v1.

v2 − 〈v2, u1〉u1 =

i10

.

∣∣∣∣∣∣

∣∣∣∣∣∣

i10

∣∣∣∣∣∣

∣∣∣∣∣∣= 1, also u2 =

i10

.

Nun ist

u3 =v3 − 〈v3, u1〉u1 − 〈v3, u2〉u2

||v3 − 〈v3, u1〉u1 − 〈v3, u2〉u2||.

Mit 〈v3, u1〉 = 1, 〈v3, u2〉 = −i folgt u3 =

−2i1

.

153

Page 154: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

19.11 Satz (Plancherel-Identitat) Es sei V ein Euklidischer oder unitarerVektorraum mit orthonormierter Basis U = (u1, . . . , un). Dann gilt

||v||2 =n∑

i=1

|〈vi, ui〉|2.

Beweis des unitaren Falls: v =∑n

i=1〈v, ui〉ui liefert

||v||2 = 〈v, v〉 =n∑

i,j=1

〈v, ui〉〈v, uj〉〈ui, uj〉

=n∑

i,j=1

〈v, ui〉〈v, uj〉δij

=n∑

i=1

|〈v, ui〉|2.

Anwendung: Methode der kleinsten Quadrate

Es liegen Messungen y1, . . . , yn zu den Zeitpunkten t1 < t2 < · · · < tn vor.Suche a, b mit yi = a+ b ti, 1 ≤ i ≤ n. Nicht immer wird es eine “Ausgleichs-gerade” mit entsprechenden a, b geben. Ein Ausweg besteht darin, a, b so zubestimmen, dass die Summe der Fehler yi − a− bti =: ri minimal wird. Die riheißen Residuen.

Der Ansatz von Carl Friedrich Gauß besteht darin, a und b so zu bestimmen,dass

∑ni=1 r

2i minimal ist.

Im Rn betrachte U = L[v1, v2] mit

v1 = 1 =

1...1

und v2 =

t1...tn

.

Nun sind v1 und v2 immer linear unabhangig. Nach obiger Diskussion mussenwir den Messvektor

y =

y1...yn

auf den Unterraum U = L[v1, v2] orthogonal projizieren und dann die Projek-tion πU(y) eindeutig als

a1 + bv2 = av1 + bv2

154

Page 155: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

darstellen. Es gilt (ab

)= Γ−1

(〈y, v1〉〈y, v2〉

),

wobei Γ die Grammatrix des Standardskalarproukts auf U bzgl. der Basis(v1, v2) ist:

Γ =

(n

∑ni=1 ti∑n

i=1 ti∑n

i=1 t2i

).

Das geht noch allgemeiner im allgemeinen “Regressionsansatz” durch ein Po-lynom von Grad k in t

t 7→ a0 + a1t+ · · ·+ aktk.

y = (y1, . . . , ym) gemessen zu Zeitpunkten t1 < t2 < · · · < tn. Minimieren∑

i=1

(yi − (a0 + a1ti + · · ·+ aktki ))

2.

Projiziere y auf den (k + 1)-dimensionalen Unterraum, aufgespannt von den

Vektoren v0, . . . , vk mit vj =

tj1...tjn

, j = 0, . . . , k. Ergebnis:

a0

a1...ak

= Γ−1

〈y, v0〉〈y, v1〉

...〈y, vk〉

mit Γ = (γij)0≤i,j≤k und γij = 〈vi, vj〉 =∑n

r=1 ti+jr .

Die rechte Seite ist die Schatzung der Regressionskoeffizienten. Man geht davonaus, ein Gesetz zu kennen, welches die y-Werte in Abhangigkeit von den t-Werten beschreibt.

Wir suchen explizite Formeln fur a und b aus den Beobachtungen y1, . . . , yn zuden Zeitpunkten t1, . . . , tn. Dazu benotigen wir empirische Großen der Daten(Mittelwert, Kovarianz, Varianz, . . . ):

t :=1

n

n∑

i=1

ti , y =1

n

n∑

j=1

yj

γt,y :=1

n

n∑

i=1

(ti − t)(yi − y) , σ2t :=

1

n

n∑

i=1

(ti − t)2

Dann gilt im Fall der linearen Regression

a = y − t γt,yσ2t

und b =γt,yσ2t

Dies nachzurechnen ist eine Ubung.

155

Page 156: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

156

Page 157: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 20

Orthogonale und unitare Matrizen

Reelle quadratische Matrizen heißen orthogonal, wenn

ATA = En

gilt. Orthogonale Matrizen sind die darstellenden Matrizen von Isometrien ei-nes Euklidischen Vektorraums bezuglich orthonormierter Basen. Unitare Ma-trizen sind die darstellenden Matrizen von Isometrien eines unitaren Vektor-raums bezuglich orthonormierter Basen. A ist als komplexe quadratische Ma-trix unitar, wenn

ATA = En

gilt. Weiter hatten wir die Gruppen O(n) und U(n) eingefuhrt.

20.1 Satz

(1) Ist A ∈ O(n), so ist det(A) ∈ {−1, 1}.(2) Ist A ∈ U(n), so gilt | det(A)| = 1.

(3) Ist A ∈ O(n) (bzw. ∈ U(n)), so ist AT ∈ O(n) (bzw. ∈ U(n)).

(4) Eine reelle quadratische Matrix ist genau dann orthogonal, wenn die Spaltenbzgl. des Standardskalarprodukts in Rn orthonormiert sind. Dies ist genaudann der Fall, wenn die Zeilen orthonormiert sind.

(5) Eine komplexe quadratische Matrix ist genau dann unitar, wenn die Spalten(bzw. Zeilen) bzgl. des Standardskalarprodukts in Cn orthonormiert sind.

Beweis: (1) 1 = detEn = det(ATA) = det(AT ) det(A) = (detA)2.

(2) 1 = detEn = det(ATA) = det(AT ) det(A) = detA detA = | detA|2.(3) Ist A ∈ O(n), so ist ATA = AAT = En, also ist AT ∈ O(n); in U(n)konjugiere AAT = En.

(4) A ∈ O(n)⇔∑nj=1 ajiajk = δik, 1 ≤ i, k ≤ n.

⇔ Spaltenvektoren

a1i...ani

, i ∈ {1, . . . , n}, sind orthonormiert.

Fur die Zeilenvektoren verwende (3).

(5) analog. �

157

Page 158: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

In (4) haben wir somit, dass die Spalten (bzw. Zeilen) eine orthonormierteBasis von Rn bilden.

20.2 DefinitionSO(n) = {A ∈ O(n) : detA = 1}SU(n) = {A ∈ U(n) : detA = 1}

heißen spezielle orthogonale / spezielle unitare Matrizen.

20.3 Lemma SO(n) ist eine Untergruppe von O(n), d.h. diese Menge ist ab-geschlossen gegenuber der Gruppenoperation in O(n). Die analoge Aussagegilt fur SU(n).

Beweis: En ∈ SO(n). Seien A,B ∈ SO(n), so ist AB ∈ SO(n), denn AB istorthogonal und det(AB) = det(A) det(B) = 1. Ist A ∈ SO(n), so ist auchA−1 ∈ SO(n), denn det(A−1) = (detA)−1 = 1. �

Wir betrachten spezielle Gruppen: n = 1 :

O(1) = {−1, 1}; U(1) = {eiϕ; 0 ≤ ϕ < 2π}.

Ein Element in O(2) ist eine reelle 2× 2-Matrix

(a bc d

). Nach (4) ist diese

Matrix genau dann orthogonal, wenn gilt

a2 + c2 = 1, b2 + d2 = 1, ab+ cd = 0

1. Gleichung ⇔ ∃ϕ ∈ [0, 2π) : (a, c) = (cosϕ, sinϕ)

2. Gleichung ⇔ ∃ψ ∈ [0, 2π) : (b, d) = (cosψ, sinψ)

3. Gleichung ⇔ cosϕ cosψ + sinϕ sinψ = cos(ϕ− ψ) = 0

⇔ ψ =(ϕ+

π

2

)mod 2π oder

ψ =

(ϕ+

2

)mod 2π.

⇒(a bc d

)=

(cosϕ − sinϕsinϕ cosϕ

)=: A(ϕ,+) oder

=

(cosϕ sinϕsinϕ − cosϕ

)=: A(ϕ,−).

Weiter ist det(A(ϕ,+)) = 1, also in SO(2). det(A(ϕ,−)) = −1.

158

Page 159: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Eigenwerte (siehe Ubungen):

χA(ϕ,+)(x) = det(A(ϕ,+)− xE2)

= (cosϕ− x)2 + sin2 ϕ

= x2 − 2x cosϕ+ 1.

Damit sind die Eigenwerte cosϕ±√

cos2 ϕ− 1 = cosϕ±√− sin2 ϕ. Dies sind

nur fur ϕ = 0, π reelle Wete, dann +1,−1. Hier algebraisch und geometrischdoppelt (Drehung).

χA(ϕ,−)(x) = −(cosϕ− x)(cosϕ+ x)− sin2 ϕ = x2 − 1.

Eigenwerte: ±1, A(ϕ,−) ist ahnlich zu

(1 00 −1

).

Eigenvektoren zu 1 :

(cos(ϕ/2)sin(ϕ/2)

), zu −1 :

(− sin(ϕ/2)cos(ϕ/2)

)

Diese Eigenvektoren sind orthonormiert. Basiswechselmatrix:

S =

(cosϕ/2 − sinϕ/2sinϕ/2 cosϕ/2

)= A(ϕ/2,+)

Diese Basiswechselmatrix ist eine Spiegelung am Eigenraum zu 1. Es gilt

S−1 = ST . Nun ist STA(ϕ,−)S =

(1 00 −1

). Die Basiswechselmatrix ist

selbst orthogonal, sogar in SO(2). Dies motiviert

20.4 Definition Seien A,B ∈M(n,R) (bzw. ∈M(n,C)). Dann heißen A undB orthogonal ahnlich (unitar ahnlich), wenn ein S ∈ O(n) existiert mit

B = S−1AS = STAS

(bzw. wenn ein U ∈ U(n) existiert mit

B = U−1AU = UTAU).

Matrizen aus O(2) \ SO(2) sind orthogonal ahnlich zu

(1 00 −1

).

20.5 Satz Es sei (V, 〈·, ·〉) ein Euklidischer bzw. unitarer Vektorraum.V = (v1, . . . , vn) sei eine orthonormierte Basis. A ∈ M(n,R) (∈ M(n,C)).Dann sind aquivalent:

(1) A ∈ O(n) (A ∈ U(n))

(2) f : V → V, deren darstellende Matrix bzgl. V A ist, ist eine Isometrie.

159

Page 160: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(3) u1, . . . , un, definiert durch uj :=∑n

i=1 aijvi, ist eine orthonormierte Basis.

Beweis: (1)⇔ (2) ist klar.(1)⇔ (3) :

〈uj, uk〉 =n∑

i,l=1

aijalk〈vi, vl〉 =n∑

i=1

aijaik

AlsoA orthogonal ⇔ 〈uj, uk〉 = δjk, 1 ≤ j, k ≤ n.

Nun beschaftigen wir uns mit der Normalformtheorie fur orthogonale undunitare Matrizen:

20.6 Satz

(1) (V, 〈·, ·〉) sei ein Euklidischer Vektorraum und f : V → V ein Endomorphismus.f ist genau dann eine Isometrie, wenn eine orthonormierte Basis existiert, bzgl.derer die darstellende Matrix von f die folgende Gestalt hat:

A(ϕ1,+) 0. . .

A(ϕk,+) 01

. . .

10 −1

. . .

0 −1

(+1, −1 oder A(ϕ,+)-Kastchen konnen fehlen.)

(2) Jede orthogonale Matrix ist orthogonal ahnlich zu einer Matrix der obigenForm.

20.7 Korollar (Euler) Jede Isometrie des R3 mit detA = 1 ist eine Drehungum eine Drehachse.

20.8 Lemma (V, 〈·, ·〉) sei Euklidisch oder unitar und f : V → V eine Isome-trie. Ist U ⊂ V Unterraum, invariant unter f, so auch U⊥.

Beweis: f |U : U → U hat ker(f |U) = {0}, ist also ein Isomorphismus, also istauch f−1(u) ∈ U fur u ∈ U.

160

Page 161: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Sei v ∈ U⊥ : dann gilt fur jedes u ∈ U

〈u, f(v)〉 = 〈f(f−1(u)), f(v)〉 Isometrie= 〈f−1(u)︸ ︷︷ ︸

∈U

, v〉 = 0,

also f(v) ∈ U⊥. �

20.9 Lemma Sei V ein R-Vektorraum, 6= {0}, und f ∈ hom(V ). Dann exis-tiert mindestens ein eindimensionaler oder ein zweidimensionaler invarianterUnterraum.

Beweis: Hat f einen reellen Eigenwert, so existiert ein eindimensionaler inva-rianter Unterraum.

f habe keinen reellen Eigenwert. Man argumentiert mit Matrizen: SeiV = (v1, . . . , vn) eine Basis. Betrachte die darstellende Matrix A von f bzgl. V .Dann hat A mindestens einen komplexen Eigenwert λ ∈ C \ R, also existiertx ∈ Cn \ {0} mit Ax = λx. A ist reell: Ax = λx, also ist λ Eigenwert zu demEigenvektor x. Es gilt λ 6= λ (da λ nicht reell), also sind x, x linear unabhangig.Betrachte

Re x =1

2(x+ x); Imx :=

1

2i(x− x).

Da

(12

12i

12− 1

2i

)regular ist, sind auch Re x und Im x linear unabhangig, auch

als Vektoren in Rn.

ARe x =1

2(Ax+ Ax) =

1

2(λx+ λx) = Re(λx)

= Re(λ)Rex− Im(λ)Imx.

A Im x = Reλ Imx+ ImλRe x,

also A Re x ∈ L[Rex, Im x], A Im x ∈ L[Rex, Im x], also ist L[Rex, Im x] einzweidimensionaler invarianter Unterraum unter Rn ∋ y 7→ Ay ∈ Rn. �

Beweis von Satz 20.6: (1) Wir betrachten die Ruckrichtung: Die Matrix istorthogonal.

Nun der Beweis der Hinrichtung: Man fuhrt Induktion nach n := dimV.n = 1, 2 wurde bereits diskutiert, betrachte n ≥ 3 :

1. Fall: f habe einen reellen Eigenwert λ, v sei ein zugehoriger Eigenvektor.

λ2||v||2 = ||λv||2 = ||f(v)||2 = 〈f(v), f(v)〉 = 〈v, v〉 = ||v||2,

161

Page 162: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

also λ ∈ {−1, 1}. Sei U := L[v], dies ist ein eindimensionaler invarianter Un-terraum, U⊥ ist f -invariant und V = U ⊕ U⊥; dim(U⊥) = n − 1. Betrach-te f |U⊥ = f ′. Dann gilt f ′ ∈ Iso(U⊥) (Einschrankung des Skalarproduktsauf diesen Unterraum). Nach der Induktionsvoraussetzung existiert eine Ba-sis v2, . . . , vn mit darstellender Matrix B von f ′ wie angegeben. v2, . . . , vn, vist eine Basis von V, und da U und U⊥ invariant unter f sind, folgt fur diedarstellende Matrix von f bzgl. dieser Basis:

(B 00 λ

), mitλ = ±1.

2. Fall: f hat keinen reellen Eigenwert. Also existiert kein invarianter eindi-mensionaler Unterraum, aber nach Lemma 20.9 existiert ein zweidimensionalerinvarianter Unterraum U. Wieder ist V = U ⊕U⊥, U, U⊥ sind beide invariant.Sei f1 := f |U , f2 := fU⊥ . Wahle orthogonale Basis v1, v2 von U, so ist diedarstellende Matrix von f1 orthogonal, also vom Typ A(ϕ,+) oder A(ϕ,−).A(ϕ,−) hat ±1 als Eigenwerte, das hatten wir aber ausgeschlossen. Auf f2

wenden wir die Induktionsvoraussetzung an: v3, . . . , vn ist eine Basis von U⊥

mit der darstellenden Matrix B ∈ M(n − 2,R) wie angegeben. Also ist diedarstellende Matrix von f von der Form

(A(ϕ,+) 0

0 B

).

(2) Eine orthogonale Matrix definiert bezuglich einer orthonormierten Basiseine Isometrie. Wende (1) auf die Isometrie an. Die Matrix der Basistransfor-mation ist orthogonal, denn sie transformiert eine orthonormierte Basis in eineorthonormierte. �

Kommentar zu Korollar 20.7:

(−1 00 −1

)= A(π,+) :

entweder kommt eine −1 oder keine vor: bei detA = 1 keine −1.

Es bleibt der unitare Fall. Hier haben wir stets Eigenwerte, es wird dahereinfacher:

20.10 Satz

(1) Sei (V, 〈·, ·〉) ein unitarer Vektorraum und f ∈ hom(V ). Dann ist f genau danneine Isometrie, wenn eine orthonormierte Basis von V existiert, bezuglich dererdie darstellende Matrix eine Diagonalmatrix ist, deren Eintrage alle Betrag 1haben, also von der Form eiϕk , k = 1, . . . , n = dimV, sind.

162

Page 163: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(2) Jede unitare Matrix ist unitar ahnlich zu einer Diagonalmatrix dieser Form.

Beweis: Die Ruckrichtung ist klar.

Umgekehrt existieren stets Eigenwerte von f. Sei λ ∈ spec(f), v ein Eigenvek-tor zu λ :

|λ|2||v||2 = 〈λv, λv〉 = 〈f(v), f(v)〉 = 〈v, v〉 = ||v||2.

Da v 6= 0 folgt ||v||2 6= 0, also |λ| = 1 : es existiert ein ϕ ∈ [0, 2π) mit λ = eiϕ.Der Rest ist analog zum ersten Fall im Beweis von Satz 20.6 (1): n = 1 istklar, n ≥ 2 : U := L[v]; betrachte U⊥ : V = U ⊕ U⊥, U⊥ ist f -invariant, derRest ist vollig analog. �

163

Page 164: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

164

Page 165: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 21

Selbstadjungierte Endomorphismen

Symmetrische und Hermitesche Matrizen bekommen nun auch fur spezielle En-domorphismen eine Bedeutung: Es sei (V, 〈·, ·〉) ein Euklidischer oder unitarerVektorraum.

21.1 Definition f ∈ hom(V ) heißt selbstadjungiert oder symmetrisch (letz-tere Bezeichnung im Euklidischen Fall), falls

〈f(v), w〉 = 〈v, f(w)〉

fur alle v, w ∈ V gilt.

21.2 Satz Es sei V = (v1, . . . , vn) eine orthonormierte Basis von V.

(1) Im Euklidischen Fall ist f genau dann symmetrisch, wenn die darstellendeMatrix bzgl. V symmetrisch ist.

(2) Im unitaren Fall ist f genau dann selbstadjungiert, wenn die darstellende Ma-trix bzgl. V Hermitesch ist.

Beweis: (2) f ist genau dann selbstadjungiert, wenn

〈f(vi), vj〉 = 〈vi, f(vj)〉 fur alle i, j gilt. (21.1)

(Dies beruht auf der Linearitat von f und der Sesquilinearitat von 〈·, ·〉.) SeiA die darstellende Matrix von f bzgl. V : Betrachte die linke Seite in (21.1):

⟨n∑

k=1

akivk, vj

⟩=

n∑

k=1

aki〈vk, vj〉 = aji.

Rechte Seite: ⟨vi,

n∑

k=1

vi

⟩=

n∑

k=1

akj〈vi, vk〉 = aij.

Also ist f selbstadjungiert genau dann, wenn aji = aij fur alle i, j gilt, alsowenn A Hermitesch ist. �

21.3 Bemerkungen

(1) Ist die darstellende Matrix von f symmetrisch, so ist dies in Vektorraumenohne Skalarprodukt keine basisunabhangige Eigenschaft; ein S−1AS muss nichtsymmetrisch sein.

165

Page 166: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(2) In Euklidischen Vektorraumen hingegen hat die Symmetrie der darstellendenMatrix bzgl. einer orthonormalen Basis eine basisunabhangige Bedeutung. DieMatrix einer Basistransformation von einer orthonormalen Basis zu einer an-deren orthonormalen Basis ist orthogonal. Also S−1AS = STAS; mit A sym-metrisch ist STAS auch symmetrisch. Ist A Hermitesch und S unitar, so istanalog S−1AS wieder Hermitesch.

21.4 Lemma Sei V 6= {0}. Jeder symmetrische Endomorphismus eines Eukli-dischen bzw. jeder selbstadjungierte Endomorphismus eines unitaren Vektor-raums hat mindestens einen reellen Eigenwert. Alle Eigenwerte sind reell.

Beweis: Sei f selbstadjungiert, λ ∈ spec(f), v 6= 0 Eigenvektor zu λ :

λ||v||2 = λ〈v, v〉 = 〈λv, v〉 = 〈f(v), v〉 = 〈v, f(v)〉 = 〈v, λv〉 = λ||v||2.

Also λ = λ. Alle Eigenwerte sind reell.

Sei nun f symmetrischer Endomorphismus eines Euklidischen Vektorraums.Die darstellende Matrix bzgl. einer orthonormalen Basis ist symmetrisch, auf-gefasst als komplexe Matrix also Hermitesch; diese hat ausschließlich reelleEigenwerte, wie gerade gesehen, und dies sind auch Eigenwerte von f. �

21.5 Spektralsatz (Hauptachsentransformation) Sei f ∈ hom(V ). f istgenau dann symmetrisch (selbstadjungiert), wenn eine orthonormale Basisexistiert, die f reell diagonalisiert.

Beweis: Die eine Beweisrichtung ist mit Satz 21.2 klar.

Man betrachte den selbstadjungierten Fall in einem unitaren Vektorraum. Wirfuhren den Beweis via Induktion nach n := dimV : n = 1 ist klar. Sei n ≥ 2.Nach Lemma 21.4 existiert ein reeller Eigenwert λ ∈ R, v 6= 0 sei ein Eigen-vektor zu λ. O.B.d.A. sei ||v|| = 1. U := L[v]⊥, also V = L[v] ⊕ U. U istf -invariant; um dies zu sehen sei u ∈ U :

〈f(u), v〉 = 〈u, f(v)〉 = 〈u, λv〉 = λ〈u, v〉 = 0,

denn u ∈ L[v]⊥. Also ist f(u) ∈ L[v]⊥ = U. Sei nun f ′ := f |U . f ′ ist selbst-adjungiert. Nach Induktionsvoraussetzung existiert eine orthonormale Basisv2, . . . , vn von U, die f ′ reell diagonalisiert. Dann ist v, v2, . . . , vn eine ortho-normale Basis von V, die f reell diagonalisiert. (Der symmetrische Fall gehtvollig analog.) �

21.6 Korollar Jede symmetrische Matrix ist orthogonal ahnlich zu einer reel-len Diagonalmatrix. Jede Hermitesche Matrix ist unitar ahnlich zu einer reellenDiagonalmatrix.

166

Page 167: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

f sei ein symmetrischer Endomorphismus eines Euklidischen Vektorraums oderein selbstadjungierter Endomorphismus eines unitaren Vektorraums. Alle Ei-genwerte sind reell. Seien λm < λm−1 < · · · < λ1 die der Große nach geordnetenEigenwerte. Ei := E(λi), i = 1, . . . ,m. Dann ist V = ⊕mi=1Ei.

21.7 Satz (variationelle Beschreibung der Eigenwerte) Es gilt

λ1 = supv∈V, v 6=0

〈f(v), v〉||v||2

und fur k ≥ 2

λk = sup

{〈f(v), v〉||v||2 : v ⊥ ⊕k−1

i=1Ei

}.

(Dabei bedeutet v ⊥ ⊕k−1i=1Ei, dass v orthogonal zu allen Vektoren in ⊕k−1

i=1Eiist.)

Beweis: v ∈ V hat die eindeutige Darstellung v =∑m

i=1 vi, vi ∈ Ei. Folglichist ||v||2 =

∑mi=1 ||vi||2 und f(v) =

∑mi=1 f(vi) =

∑mi=1 λivi. Also ist 〈f(v), v〉 =∑m

i=1 λi||vi||2. Also gilt fur alle v ∈ V

〈f(v), v〉 ≤ λ1

m∑

i=1

||vi||2 = λ1||v||2

und fur v ∈ E1 ist 〈f(v), v〉 = λ1||v||2. Damit folgt die Darstellung fur λ1. Vek-toren, die senkrecht auf ⊕k−1

i=1Ei stehen, haben in der Darstellung v =∑m

i=1 vidie Eigenschaft v1 = · · · = vk−1 = 0. Damit geht der Beweis fur die λk, k ≥ 2,analog. �

Was ist eigentlich der Zusammenhang zwischen symmetrischen Endomorphis-men und symmetrischen Bilinearformen? Ist A orthogonal ahnlich zu B, d. h.es existiert eine orthogonale Matrix S mit B = S−1AS, so auch STAS. Diesentspricht dem Transformationsverhalten von Grammatrizen bei Basiswechsel.

Sei V ∗ := hom(V,R), der sogenannte Dualraum. Jedem v ∈ V sei ein Elementϕ(v) ∈ V ∗ zugeordnet mittels

ϕ(v)(w) := 〈v, w〉.

Hierbei sei (V, 〈·, ·〉) ein Euklidischer Vektorraum. ϕ ist linear undker(ϕ) = {0}. Damit ist ϕ ein Isomorphismus. (Siehe eine Ubung: V ∗ hatdieselbe Dimension wie V.)

Nun zu obigem hinterfragten Zusammenhang:Es sei f : V → V ein Endomorphismus. Definiere

ϕf (v, w) : V × V → R, ϕf (v, w) := 〈f(v), w〉.

167

Page 168: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Dann ist ϕf eine Bilinearform. Jede Bilinearform ist in dieser Art und Weisedarstellbar. Dies zeigen wir so: Sei ψ(v)(w) := 〈v, w〉 der obige Isomorphismuszwischen V und V ∗. Zu festem v ∈ V ist w → ϕ(v, w) ein Element in V ∗.Betrachte das Inverse unter ψ. Das ist ein v ∈ V mit ψ(v)(w) = 〈v, w〉 =ϕ(v, w) fur alle w ∈ V. V ∋ v 7→ v ∈ V ist eine lineare Abbildung (Ubung).Diese Abbildung heiße f. Also

ϕ(v, w) = 〈f(v), w〉, v, w ∈ V.

Folglich ist f 7→ ϕf surjektiv. Es ist tatsachlich ein Vektorraum-Isomorphismus(Ubung). Nun ist ϕf symmetrisch, wenn

〈f(v), w〉 = 〈f(w), v〉 = 〈v, f(w)〉 fur alle v, w ∈ V,

also wenn f symmetrisch ist.

Der Spektralsatz besagt nunmehr: Fur einen symmetrischen Endomorphismusexistiert eine orthonormale Basis V = (v1, . . . , vn) mit f(vi) = λivi. Fur ϕfbedeutet dies

ϕf (vi, vj) = 〈f(vi), vj〉 = 〈λivi, vj〉 = λiδij.

Die Basis V diagonalisiert also diese symmetrische Bilinearform im Sinne un-serer Normalformtheorie.

Rechenverfahren:

(A) Berechnung einer orthonormierten Basis aus Eigenvektoren

(1) Bestimme die Linearfaktorzerlegung des charakteristischen Polynoms.

(2) Bestimme fur jeden Eigenwert die Basis des Eigenraums.

(3) Orthonormiere in jedem Eigenraum separat.

(4) Die einzelnen Basen bilden zusammen die orthonormierte Basis.

(B) STAS, bestimme S :

siehe (A): die in (4) gefundene Basis bildet die Spalten von S. Alternativ:Fuhre solange Zeilen- und Spaltenumformungen durch, bis eine Diagonalmatrixentsteht.

A EnCT

1 A C1 En C1...

...CTr · · ·CT

1 A C1 · · ·Cr En C1 · · ·CrIst links eine Diagonalmatrix entstanden, so steht rechts S mit STAS Diago-nalmatrix.

168

Page 169: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 22

Minimalpolynome und der Satz von Cayley-Hamilton

Fur bestimmte Typen von Endomorphismen (orthogonale, unitare, selbstad-jungierte) haben wir Normalformen, also einfachst-mogliche Matrixdarstellun-gen, beschrieben. Was konnen wir fur beliebige Endomorphismen erreichen?Wann sind zwei n × n-Matrizen ahnlich? Sind sie beide diagonalisierbar, sogenugt es zu prufen, dass beide die selben Eigenwerte mit den gleichen Viel-fachheiten haben. Aber nicht alle Matrizen sind diagonalisierbar. Das großeZiel ist die sogenannte Jordansche Normalform.

K sei ein Korper, dann ist K[x] der Polynomring uber K; K[x] ist ein K-Vektorraum und ein kommutativer Ring mit Eins und es gibt die Grad-Abbildung grad: K[x] \ {0} → N0. Ist V ein Vektorraum uber K, so ist derEndomorphismenraum uber V ein K-Vektorraum und ein kommutativer Ring(mit der Komposition).

Es sei A ∈ hom(V ), das Objekt der Untersuchung. Es erweist sich als sehrfruchtbar, A in Polynome einzusetzen, um die Struktur von A zu untersuchen.Setze Ak := A ◦ · · · ◦ A fur k ∈ N, A0 := idV . Sei f =

∑nk=0 ckx

k ∈ K[x], sosetze f(A) :=

∑nk=0 ckA

k ∈ hom(V ). Wir erhalten

ϕA : K[x] → hom(V )

f 7→ f(A)

ϕA ist linear und fur alle f, g ∈ K[x] gilt

ϕA(f · g) = ϕA(f) ◦ ϕA(g).

ϕA ist ein Ring-Homomorphismus. Wir untersuchen ϕA, insbesondere ker(ϕA) :

22.1 Beispiele

(1) Es sei A = λ idV , λ ∈ K. Fur f =∑n

k=0 ckxk ist ϕA(f) = (

∑nk=0 ckλ

k)idV .Also gilt

f ∈ ker(ϕA) ⇔ ϕA(f) = 0

⇔n∑

k=0

ckλk = 0

⇔ f(λ) = 0

⇔ ∃ f ∈ K[x] mit f = (x− λ)f .

Also erhalten wir ker(ϕA) = (x− λ)K[x] := {(x− λ)f | f ∈ K[x]}.

169

Page 170: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(2) Es sei A ∈ hom(V ) mit A2 = A (Projektion), sei weiter A 6= 0 und A 6= idV .Fur f =

∑nk=0 ckx

k ist dann ϕA(f) = (∑n

k=1 ck)A+ c0 idV . Also ϕA(f) = 0⇔(∑n

k=1 ck)A+ c0 idV = 0. Da A und idV linear unabhangig sind, folgt

ϕA(f) = 0 ⇔n∑

k=1

ck = 0 und c0 = 0

⇔ f(1) = 0 und f(0) = 0

⇔ ∃ f ∈ K[x] : f = x(x− 1)f .

Also erhalten wir ker(ϕA) = x(x− 1)K[x]. (siehe A(A− 1) = 0)

(3) Es sei A ∈ hom(V ), λ ∈ K sei ein Eigenwert von A, v ∈ V \ {0} sei ein Eigen-vektor zu λ.Dann ist ϕA(f) = 0 aquivalent zu 0 = (ϕA(f))v =

∑nk=0 ck(A

kv) =∑nk=0 ckλ

kv = (∑n

k=0 ckλk)v fur v 6= 0. Daraus folgt 0 =

∑nk=0 ckλ

k = f(λ).Also ist λ Nullstelle jedes Elements von ker(ϕA). Spater wird gezeigt, dassauch die Umkehrung gilt.

22.2 Satz ker(ϕA) ist ein Unterraum von K[x] und ein Ideal von K[x], d.h.dass per Definition fur alle f ∈ ker(ϕA) und g ∈ K[x]

f · g ∈ ker(ϕA)

gilt.

Beweis: Der erste Teil ist bekannt.Fur f ∈ ker(ϕA) und g ∈ K[x] gilt

ϕA(f · g) = ϕA(f)︸ ︷︷ ︸=0

◦ϕA(g) = 0 ◦ ϕA(g) = 0,

also f · g ∈ ker(ϕA). (Wir haben nur verwendet, dass ϕA ein Ring-Homo-morphismus ist.) �

Ist es moglich, dass ker(ϕA) = {0}, d.h. dass ϕA injektiv ist?

22.3 Lemma Ist dim V = n, so existiert ein f ∈ K[x] mit f 6= 0, grad f ≤ n2

und ϕA(f) = 0.

Beweis: Es gilt dim hom(V ) = n2, also sind idV = A0, A, A2, . . . , An2

line-ar abhangig. Es existieren somit c0, . . . , cn2 ∈ K, nicht alle gleich Null, mit

0 =∑n2

k=0 ckAk, also ist f(x) :=

∑n2

k=0 ckxk ∈ ker(ϕA), f 6= 0, grad(f) ≤ n2. �

22.4 Bemerkung Tatsachlich konnte man grad(f) ≤ n fordern; dennχA ∈ ker(ϕA) nach dem Satz von Cayley-Hamilton, den wir spater kennen-lernen werden.

170

Page 171: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

22.5 Definition und Satz Es sei n0 ∈ N0 der minimale Grad von Polynomenaus ker(ϕA)\{0}. Dann gilt n0 ≥ 1, und unter den Polynomen in ker(ϕA) vomGrad n0 gibt es genau ein normiertes. Dieses heißt Minimalpolynom MA vonA. Es gilt

ker(ϕA) = MA ·K[x] := {MA · f | f ∈ K[x]}.Ist umgekehrt f ∈ K[x] ein normiertes Polynom mit ker(ϕA) = f ·K[x], so istf = MA.

22.6 Beispiele (siehe (22.1))

(1) Ist A = λ idV , so ist MA(x) = x− λ.(2) Ist A eine Projektion mit A 6∈ {0, idV }, so ist MA(x) = x(x− 1).

(3) Sei A ∈ hom(V ), λ ∈ K ein Eigenwert von A. Dann enthalt MA den Linear-faktor (x− λ) und somit ist MA(λ) = 0.

Beweis von Satz 22.5: {grad(f) | f ∈ ker(ϕA) \ {0}} ist eine nichtleere Teil-menge von N0, besitzt also ein kleinstes Element n0 ∈ N0. Fur f ∈ K[x] mitgrad(f) = 0 ist f(x) = c ∈ K \ {0}, also ϕA(f) = c idV 6= 0, also f 6∈ ker(ϕA).Somit ist n0 ≥ 1.

Wir zeigen die Eindeutigkeit des normierten Polynoms: Angenommen, es exis-tieren f, g ∈ ker(ϕA), normiert mit grad(f) = grad(g) = n0. Dann wareh := f − g 6= 0, h ∈ ker(ϕA) und grad(h) < n0. Dies ware ein Widerspruch zurMinimalitat von n0.

Zu zeigen: ker(ϕA) = MA ·K[x].⊃ stimmt, da ker(ϕA) ein Ideal ist.⊂: sei f ∈ ker(ϕA), o.B.d.A. f 6= 0. Die Polynomdivision liefert f = qMA + r,q, r ∈ K[x] und r = 0 oder grad(r) < grad(MA) = n0. Also r = f − q ·MA ∈ker(ϕA). Ware r 6= 0, so ware grad(r) < n0, im Widerspruch zur Minimalitatvon n0. Also r = 0 und folglich f = MAq ∈MA ·K[x].

Sei f ∈ K[x], normiert, mit ker(ϕA) = f · K[x]. Dann ist f 6= 0 undgrad(f) ≤ n0, denn es existiert ein g ∈ K[x] mit MA = f · g. Aber es giltauch grad(f) ≥ n0, denn f = f · 1 ∈ ker(ϕA), also grad(f) = n0, also f = MA.�

(Der Beweis zeigt: inK[x] ist jedes Ideal von der Form f ·K[x] fur ein geeignetesf ∈ K[x]. Man sagt, K[x] ist ein Hauptidealring, siehe Algebra.)

Ein Polynom - etwa das Minimalpolynom von A - lasst sich haufig in Faktorenzerlegen. Was sagt diese Zerlegung uber die Struktur von A aus?

22.7 Zerlegungssatz Es seien f, g, h ∈ K[x] mit f = g · h und g, h seienteilerfremd, d.h. es existiert kein Polynom vom Grad ≥ 1, welches sowohl g alsauch h teilt. Dann gilt

171

Page 172: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(1) ker(ϕA(f)︸ ︷︷ ︸∈hom(V )

) = ker(ϕA(g))⊕ ker(ϕA(h))

(2) Es existieren p, q ∈ K[x], so dass die Projektionen

πg : ker(ϕA(f))→ ker(ϕA(g)) und

πh : ker(ϕA(f))→ ker(ϕA(h))

durch πg = ϕA(q · h) bzw. πh = ϕA(p · g) gegeben werden.

22.8 Korollar Ist f = g1 · · · gk eine Zerlegung in paarweise teilerfremde Fak-toren, so gilt

ker(ϕA(f)) =k⊕

i=1

ker(ϕA(gi)).

(und (2) analog).

22.9 Beispiele

(1) A ∈ hom(V ) sei eine Projektion, also A ◦ A = A. Mit f(x) := x2 − x =x(x − 1) ∈ K[x] ist ϕA(f) = 0. Es ist f(x) = g(x)h(x) mit g(x) := x undh(x) := x− 1. g und h sind teilerfremd. Also gilt

V = ker(ϕA(g))⊕ ker(ϕA(h))

= ker(A)⊕ ker(A− idV )

= ker(A)⊕ EA(1)

= ker(A)⊕ im(A)

Projektionen sind diagonalisierbar. Hier ist EA(1) der Eigenraum von A zumEigenwert 1.

(2) A ∈ hom(V ) mit A = A−1 (A Spiegelung ist ein Beispiel).

f(x) := x2 − 1 = (x+ 1)(x− 1) =: g(x)h(x).

Es gilt ϕA(f) = 0. Wie in (1) folgt

V = EA(1)⊕ EA(−1).

Beweis von Satz 22.7: Zunachst ist ker(ϕA(f)) A-invariant: es gilt A◦ϕA(f) =ϕA(f) ◦ A, also fur v ∈ ker(ϕA(f)) : (ϕA(f))(Av) = A((ϕA(f))v) = A(0) = 0,also Av ∈ ker(ϕA(f)). Analog sieht man: ker(ϕA(g)) und ker(ϕA(h)) sind A-invariant. Mit der analogen Begrundung ist ker(ϕA(f)) auch ϕA(g)-invariantund ϕA(h)-invariant. Im Folgenden fassen wir ϕA(g) und ϕA(h) als Endomor-phismen von V := ker(ϕA(f)) auf.

172

Page 173: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Nun gibt es zu g und h teilerfremd, Polynome p, q ∈ K[x] mit 1 = p · g +q · h. (Wie wir in einer Ubung sehen werden, folgt dies aus dem EuklidischenAlgorithmus.) Die Aussage des Satzes folgt nun aus

(1) Ist v ∈ V , so gilt v = ϕA(q · h)v + ϕA(p · g)v.

(2) im(ϕA(q · h)) ⊂ ker(ϕA(g)) und im(ϕA(p · g)) ⊂ ker(ϕA(h)).

(3) ker(ϕA(g)) ∩ ker(ϕA(h)) = {0}.Zu (1): fur v ∈ V gilt

v = ϕA(1) · v = ϕA(pg + qh) · v= ϕA(qh)v + ϕA(pg)v.

Zu (2): Es sei w ∈ im(ϕA(qh)). Also existiert ein v ∈ V mit w = ϕA(qh)v undes gilt

ϕA(g)w = ϕA(g)ϕA(qh)v

= ϕA(gqh)v

= ϕA(qf)v

= ϕA(q) ϕA(f)v︸ ︷︷ ︸=0,da v∈V

= 0,

also w ∈ ker(ϕA(g)). Den zweiten Teil zeigt man analog.

Zu (3): Es sei w ∈ (kerϕA(g)) ∩ (kerϕA(h)) :

w = ϕA(1)w = ϕA(pg + qh)w

= ϕA(p)ϕA(g)w︸ ︷︷ ︸=0

+ϕA(q)ϕA(h)w︸ ︷︷ ︸=0

= 0,

also w = 0. �

22.10 Bemerkung Wir untersuchen Nullstellen von Polynomen in A :ker(ϕA(f)) ⊂ V. Fur Nullstellen von Polynomen gilt: Ist f = g · h und λNullstelle von f, so ist λ entweder Nullstelle von g oder von h. Der Zerlegungs-satz verallgemeinert dies. Er ist ein wesentlicher Bestandteil der JordanschenNormalformtheorie.

22.11 Satz von Cayley - Hamilton χA bezeichne das charakteristische Po-lynom zu A ∈ hom(V ), V ein n-dimensionaler K-Vektorraum. Dann gilt

χA(A) = 0, also χA ∈ kerϕA.

173

Page 174: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

22.12 Korollar

(1) MA teilt χA.

(2) grad(MA) ≤ grad(χA).

Vorsicht:

χA(A) = det(A− A · idV ) = det(A− A) = det(0) = 0

ist kein Beweis, denn χA(t) = det(A− t idV ) ist nur fur t ∈ K definiert.

Beweis: Sei K = C, dann zerfallt χA in Linearfaktoren. Also existiert eineBasis V = (v1, . . . , vn) von V mit

AV =

λ1 ∗. . .

0 λn

,

wobei λk ∈ C die Eigenwerte von A seien, also

χA(x) = (λ1 − x) · · · (λn − x).

Fur k ∈ {1, . . . , n} sei nun

Gk := (A− λ1 idV ) ◦ · · · ◦ (A− λk idV ) ∈ hom(V ),

also Gn = χA(A). Wir beweisen durch vollstandige Induktion, dass Gk|Vk=

0 mit Vk = L[v1, . . . , vk]. Somit ist Gn = χA(A) = 0 und damit folgt dieBehauptung.

k = 1 : V1 = L[v1]. A(v1) = λ1v1 und daher G1(v1) = (A − λ1 idV )(v1) =Av1 − λ1v1 = 0, also G1|V1 = 0.

Induktionsschritt von k − 1 zu k : Es gilt Vk = Vk−1 ⊕ L[vk]. Wir zeigenGk|Vk−1

= 0 und Gk(vk) = 0, dann folgt Gk|Vk= 0. Sei v′ ∈ Vk−1, dann ist

Av′ ∈ Vk−1, da Vk−1 A-invariant ist. Also gilt

Gk(v′) = (Gk−1 ◦ (A− λk idV ))(v′)

= Gk−1(Av′ − λkv′︸ ︷︷ ︸∈Vk−1

) = 0,

wobei die letzte Gleichung aus der Induktionsannahme folgt.Avk ist laut obererDreiecksmatrix bzgl. V durch (∗, ∗, . . . , λk, 0, . . . , 0), mit λk an k-ter Stelle,dargestellt. Also ist Avk − λkvk ∈ Vk−1, und somit

Gk(vk) = (Gk−1 ◦ (A− λk idV ))(vk)

= Gk−1(Avk − λkvk︸ ︷︷ ︸∈Vk−1

) = 0,

174

Page 175: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

wieder folgt die letzte Gleichung aus der Induktionsannahme. Also ist der Satzfur K = C bewiesen. Sei nun K = R : A ∈ hom(V ), B ∈ M(n,R) sei diedarstellende Matrix von A bzgl. einer Basis von V. Dann ist B ∈ M(n,C).Die charakteristischen Polynome von B als reelle und als komplexe Matrixstimmen uberein. Cayley-Hamilton fur K = C : χB(B) = 0 ∈ M(n,R) (BDarstellungsmatrix von A), also χA(A) = 0 ∈ hom(V ).

Allgemeiner Korper: Cayley - Hamilton gilt in jedem Korper K, K algebraischabgeschlossen: siehe Beweis fur K = C. Aus der Algebra weiß man, dass zu Kein Korper K existiert mit K ⊂ K und K algebraisch abgeschlossen. �

22.13 Satz Es gilt χA|MnA.

Beweis: Wir betrachten analog zum Beweis des Satzes von Cayley - Hamiltonnur K = C :

χA(x) = ±(x− λ1)r1(x− λ2)

r2 · · · (x− λk)rk

λ1, . . . , λk ∈ C seien paarweise verschiedene Eigenwerte von A, r1, . . . , rk ∈{1, . . . , n} ihre algebraischen Vielfachheiten. Es gilt MA|χA, also existierensj ∈ {0, . . . , rj} fur j = 1, . . . , k mit

MA(x) = (x− λ1)s1(x− λ2)

s2 · · · (x− λk)sk .

Tatsachlich sind alle sj ≥ 1 : angenommen, es existiert j0 mit sj0 = 0,j0 ∈ {1, . . . , k}. Sei v ∈ V ein Eigenvektor von A zum Eigenwert λj0 . Danngilt

MA(A)(v) = (A− λ1 idV )s1 ◦ · · · ◦ (A− λk idV )sk(v)︸ ︷︷ ︸(λj0

−λk)sk (v)

= · · ·

=

(k∏

j=1

(λj0 − λj)sj

)(v).

Nun ist λj0 6= λj fur j 6= j0 und sj0 = 0, also ist das obige Produkt 6= 0, alsoMA(A)(v) 6= 0, im Widerspruch zu MA(A) = 0.Dann sind nsj − rj ≥ 0 fur alle j und Mn

A = ±QχA mit

Q(x) := (x− λ1)ns1−r1 · · · (x− λk)nsk−rk ∈ C[x],

also χA|MnA. �

175

Page 176: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

176

Page 177: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

KAPITEL 23

Nilpotente Endomorphismen und die Jordansche Normalform

23.1 Definition V sei ein endlichdimensionaler K-Vektorraum undN ∈ hom(V ). N heißt nilpotent, wenn es ein k ∈ N mit Nk = 0 gibt.

23.2 Satz Sei N ∈ hom(V ) und dim(V ) = n. Dann sind aquivalent:

(1) N ist nilpotent.

(2) Es existiert ein k ∈ N mit Nk = 0.

(3) Es existiert ein d ∈ {1, . . . , n} mit Nd = 0.

(4) χN(x) = ±xn.(5) Es existiert eine Basis V von V mit

AN =

0 ∗

0 0

.

Beweis: Aus (1) folgt (2) per Definition.

(2) sagt: xk ∈ ker(ϕN) = MNK[x], also MN |xk. Daher existiert ein d ≤ kmit MN(x) = xd. Nach Cayley-Hamilton ist grad(MN) ≤ grad(χN) = n, alsod ≤ n und 0 = MN(N) = Nd. Dies entspricht (3).

Dass (4) aus (3) folgt, zeigt man analog dazu, dass (3) aus (2) folgt: MN(x) =

xd mit d ≤ d, weiter ist χN |MnN , also χN(x) = ±xl mit l ≤ dn. Nun ist

grad(χN) = n, also χN(x) = ±xn.(4) ⇒ (5): χN zerfallt in Linearfaktoren, also ist die Matrixgestalt klar, undauf der Diagonalen stehen die Eigenwerte von N : Nullen.

(5)⇒ (1): Siehe auch eine Ubungsaufgabe aus der Linearen Algebra I: aus derMatrixdarstellung folgt Nn = 0. �

Warum sind nilpotente Endomorphismen von Interesse? Es sei F ∈ hom(V )und K = C und

χF (x) = (x− λ1)r1 · · · (x− λk)rk .

Dann ist χF (F ) = 0 nach Cayley-Hamilton, also ker(χF (F )) = V. Der Zerle-gungssatz 22.7 liefert

V =k⊕

j=1

ker((F − λjidV )rj).

177

Page 178: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

V (λj) := ker((F − λjidV )rj) wird verallgemeinerter Eigenraum genannt. Nunschreiben wir mit Dj := λjid|V (λj)

F |V (λj) = F |V (λj) − λjid|V (λj) + λjid|V (λj)

=: Nj + Dj.

Dann ist Nj nilpotent nach der Definition von V (λj) und Dj ist diagonal. Wirwerden daher nilpotente Endomorphismen untersuchen: obiges Nj wird eineMatrixdarstellung der Form

0 δ1

@

@

@

@

@

@

0 0

0

δl−1

0 0

mit δ1, . . . , δl−1 ∈ {0, 1} erhalten.

23.3 Definition Ein Jordan-Block ist eine Matrix der Form

Jr(λ) =

λ

<

<

<

<

<

<

<

<

<

<

<

<

<

<

<

<

<

1

<

<

<

<

<

<

<

<

<

<

<

<

0 0

0

0

1

0 0 λ

∈M(r,K).

Eine Jordan-Normalform ist eine Matrix

J =

Jr1(λ1) 0 0

0 Jr2(λ2)

I

I

I

I

I

I

I

0

0 0 Jrn(λn)

mit rj ∈ N, j = 1, . . . , n, und λ1, . . . λn ∈ K.

Nun konnen wir das zentrale Resultat dieses Kapitels formulieren. Es ist derSatz von der Jordanschen Normalform.

178

Page 179: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

23.4 Satz Sei V ein endlichdimensionaler K-Vektorraum und sei K algebra-isch abgeschlossen. Dann gilt fur F ∈ hom(V ) :

(1) Es existiert eine Basis V von V, fur die AF = J eine Jordan-Normalform ist.

(2) Die Matrix J ist eindeutig bis auf Permutation der Jordan-Blocke.

23.5 Beispiele Fur V = C3 hat man folgende Jordan-Normalformen

λ1 0 00 λ2 00 0 λ3

, λ1, λ2, λ3 ∈ K;

λ1 10 λ1

00

0 0 λ2

, λ1, λ2 ∈ K;

λ1 1 00 λ1 10 0 λ1

= J3(λ1), λ1 ∈ K

23.6 Lemma Sei F = Jr(λ) ein Jordan-Block (in dem Sinne, dass die darstel-lende Matrix von F diese Gestalt hat). Dann gilt

MF (x) = (x− λ)r.

Weiter gilt, dass sich das charakteristische Polynom und das Minimalpolynomhochstend um ein Vorzeichen unterscheiden: χF (x) = ±MF (x).

Beweis: Es gilt χF (x) = ∓(λ− x)r. Weiter ist Jr(λ) = λEr + Jr(0);

Jr(0) =

0 1

=

=

=

=

=

=

=

=

=

=

0 0

0

1

0 0

∈M(r,K)

Folglich ist Jr(0)k = 0 fur k ≥ r und Jr(0)k 6= 0 fur k = 1, . . . , r − 1. Wirwissen: MF |χF ⇒MF (x) = (x− λ)s mit 1 ≤ s ≤ r.

MF (F ) = (F − λ idV )s

= (Jr(λ)− λEr)s= Jr(0)s;

MF (F ) = 0 fur s = r und kein kleineres s. �

Die Jordan-Normalform ist eine Matrix in Blockform. Um dorthin zu gelangen,muss man V in F -invariante Unterraume zerlegen.

179

Page 180: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

1. Schritt: Zerlegung in verallgemeinerte Eigenraume

2. Schritt: Studium von F eingeschrankt auf V (λi) : Untersuchung nilpotenter Endo-morphismen

Ab jetzt:

χF (x) = ± (x− λ1)r1 · · · (x− λk)rk

MF (x) = (x− λ1)d1 · · · (x− λk)dk

mit λ1, . . . , λk paarweise verschiedene Eigenwerte von F.∑k

i=1 ri = n =dim(V ), wobei ri die algebraische Vielfachheit von λi ist, und 1 ≤ dj ≤ rj(da MF |χF und χF |Mn

F ).

E(λj) = ker(F − λjidV ) ⊂ V (λj) := ker((F − λjidV )rj)

Begriff: verallgemeinerter Eigenraum / Hauptraum von F zum Eigenwert λj.dim E(λj) = geometrische Vielfachheit von λj.

F diagonalisierbar ⇔ dimE(λj) = rj ∀ j⇔ E(λj) = V (λj) ∀ j (werden wir sehen)

⇔ dj = 1∀ j,

d. h. MF (x) = (x− λ1) · · · (x− λk).

23.7 Satz V hat die F -invariante Zerlegung

V =k⊕

j=1

V (λj) mit V (λj) = ker((F − λjidV )rj).

23.8 Bemerkungen

(1) V (λj) = ker((F −λjidV )dj) wobei dj der entsprechende Exponent im Minimal-polynom ist.

(2) dim V (λj) = rj

Beweis zu (1): MF (x) = (x− λ1)d1 · · · (x− λk)dk , also

V = ker((F − λ1idV )d1)⊕ · · · ⊕ ker((F − λkidV )dk).

Folglich ist∑k

j=1 dim(ker(F − λjidV )dj) = n. Nun ist

ker(F − λjidV )dj ⊂ ker(F − λjidV )rj = V (λj),

180

Page 181: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

also dim(ker(F − λjidV )dj) ≤ dim(ker(F − λjidV )rj). Aber es gilt auch

k∑

j=1

dim(ker(F − λjidV )rj) = n,

folglich

dim(ker(F − λjidV )dj) = dim(ker(F − λjidV )rj) fur alle j,

also

ker(F − λjidV )dj = ker(F − λjidV )rj = V (λj).

Der Beweis von (2) erfolgt spater.

Sei nun W := V (λj), λ := λj, r := rj, also W = ker((F − λ idV )r). Es sei Feingeschrankt auf W ; F : W → W ; N := F − λ idW , dann ist N r = 0 auf W,also ist N nilpotent, N ∈ hom(W ).

23.9 Satz Es sei N ∈ hom(W ) nilpotent und w ∈ W mit Nk−1(w) 6= 0,Nk(w) = 0. Dann sind w, N(w), . . . , Nk−1(w) linear unabhangig. Insbesondereist dim(W ) ≥ k, falls Nk−1 6= 0.

Beweis: Aus Nk−1(w) 6= 0 folgt N r(w) 6= 0 fur r = 0, 1, . . . , k − 1. SeiαrN

r(w) + · · · + αk−1Nk−1(w) = 0. Sei αr 6= 0; dann ist αrN

k−1(w) = 0nach Anwendung von Nk−r−1; dann muss Nk−1(w) = 0 gelten, was nicht seinkann, also αr = 0; also sind alle Koeffizienten gleich Null. �

Fur alle w ∈ W \{0} heißt k ∈ N die N -Periode von w, falls Nk−1(w) 6= 0, aberNk(w) = 0. Es gilt stets k ≤ d mit Nd = 0. Fur Nk−1(w) 6= 0 und Nk(w) = 0ist w 6∈ ker(Nk−1), aber w ∈ ker(Nk) und es gilt ker(Nk−1) ( ker(Nk). ObigeWahl von w bedeutet also w ∈ ker(Nk) \ ker(Nk−1).

Es sei LN(w) = L[w,N(w), . . . , Nk−1(w)], so ist LN(w) ein k-dimensionalerN -invarianter Unterraum.

A(N |LN (w)) =

0 1

=

=

=

=

=

=

=

=

=

=

0 0

0

1

0 0

= Jk(0).

181

Page 182: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Da F = N + λ idW , ist LN(w) auch F -invariant.

A(F |LN (w)) =

λ

<

<

<

<

<

<

<

<

<

<

<

<

<

<

<

<

<

1

<

<

<

<

<

<

<

<

<

<

<

<

0 0

0

0

1

0 0 λ

= Jk(λ)

(darstellende Matrizen bzgl. B = (w,N(w), . . . , Nk−1(w)) )

23.10 Zerlegungslemma fur nilpotente EndomorphismenSei N ∈ hom(W ) nilpotent und w ∈ W \ {0} ein Element mit maximalerN -Periode k. Dann existiert ein N -invarianter Unterraum U von W, so dass

W = LN(w)⊕ U.

Beweis: Sei U ⊂ W ein N -invarianter Unterraum mit maximaler Dimension,so dass LN(w)∩U = {0}. Dann ist LN(w)⊕U ⊂ W. Zu zeigen: LN(w)⊕U = W.

Angenommen, es gabe ein v ∈ W mit v 6∈ LN(w) ⊕ U. Wahle j so, dassN j−1(v) 6∈ LN(w)⊕U undN j(v) ∈ LN(w)⊕U (N nilpotent). Sei x := N j−1(v),dann gilt x 6∈ LN(w) ⊕ U, N(x) ∈ LN(w) ⊕ U. Also N(x) = α0w + · · · +αk−1N

k−1(w) + u. x hat Periode ≤ k, also folgt

0 = Nk(x) = Nk−1(α0w + · · ·+ αk−1Nk−1(w) + u)

= α0Nk−1(w)︸ ︷︷ ︸

∈LN (w)

+Nk−1(u).︸ ︷︷ ︸∈U

Folglich ist α0 = 0 und Nk−1(u) = 0, also

N(x) = α1N(w) + · · ·+ αk−1Nk−1(w) + u.

Betrachte y := x − (α1w + · · · + αk−1Nk−2(w)). Dann ist N(y) = u ∈ U, also

y 6∈ LN(w)⊕ U, denn sonst ist

x = y + α1w + · · ·+ αk−1Nk−2(w) ∈ LN(w)⊕ U.

Sei nun U ′ := U ⊕ Ky = U ⊕ L[y]. Dann ist dim(U ′) = dim(U) + 1, U ′ istN -invariant, N(U ′) ⊂ U ⊂ U ′ und

LN(w) ∩ U ′ = {0}.Denn ware w′ ∈ LN(w) \ {0}, u′ ∈ U, α ∈ K mit w′ = u′ + αy, so ware α 6= 0(sonst w′ = u′ ∈ U, also w′ ∈ LN(w) ∩ U, also w′ = 0 im Widerspruch zurAnnahme). Damit ist

1

α(w′ − u′) = y ∈ LN(w)⊕ U,

182

Page 183: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

was wir oben ausgeschlossen hatten. Somit hat U ′ dieselben Eigenschaften wieU, aber dim(U ′) > dim(U), im Widerspruch zur Maximalitat von dim(U). �

23.11 Zerlegungssatz fur nilpotente EndomorphismenSei N ∈ hom(W ) nilpotent. Dann existieren Vektoren w1, . . . , wl ∈ W, so dass

W = LN(w1)⊕ · · · ⊕ LN(wl).

l und die Dimensionen der LN(wj) sind bis auf die Reihenfolge eindeutig durchN festgelegt.

Beweis: Die Existenz der Zerlegung folgt induktiv aus Lemma 23.10.dim(ker(N |LN (wj))) = 1 und dim(ker(N)) = l, sind durch N eindeutigfestgelegt. Sei nj die N -Periode von wj :

ker(N |LN (wj))m =

{L[Nnj−m(wj), . . . , N

nj−1(wj)] , falls nj ≥ m

LN(wj) , falls m > nj.

Also dim(ker(N |LN (wk))m) = min{m,nj} und es folgt

dim(ker(N2)) = #{j | min{2, nj} = 1} · 1 + #{j | min{2, nj} = 2} · 2= #{j |nj = 1}+ (l −#{j |nj = 1}) · 2= 2l −#{j |nj = 1}.

Somit ist #{j |nj = 1} durch N festgelegt. Induktiv folgt, dass #{j |nj = m}durch N festgelegt ist. �

23.12 Lemma dimV (λj) = rj (siehe Bemerkungen 23.8).

Beweis: Es sei U := ker(F − λ1idV )r1 , W := ⊕i6=1 ker(F − λiidV )ri . AlsoV = U ⊕W, eine F -invariante direkte Summenzerlegung. Sei G := F −λ1idV .Dann ist

χG(x) = χF (x+ λ1)

= ±xr1∏

i, i6=1

(x− (λi − λ1))ri

= ±xr1Q(x); Q ∈ K[x], Q(0) 6= 0, daλi 6= λ1 fur i 6= 1

= χG|U (x) · χG|W (x)

= xdim(U) · χG|W (x),

denn G|U ist nilpotent. Also ist dim(U) = r1, da χG|W (0) 6= 0.(kerG ⊂ U ⇒ kerG ∩W = {0} : 0 ist kein Eigenwert von G|W .) �

183

Page 184: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Zusammenfassung der Ergebnisse seit Seite 180: Sei F ∈ hom(V ) mit

χF (x) = ± (x− λ1)r1 · · · (x− λk)rk ,

paarweise verschiedene Eigenwerte λ1, . . . , λk ∈ K. Dann ist

V =k⊕

j=1

V (λj), V (λj) =

sj⊕

r=1

LNj(wjr)

mit F |V (λj) = Nj + λjidV , wjr ∈ V (λj), r = 1, . . . , sj.

– Die Zerlegung der verallgemeinerten Eigenraume V (λj) und die Perioden derwjr sind bis auf die Reihenfolge eindeutig durch F bestimmt.

– Vereint man die Basen von LNj(wjr), j = 1, . . . , k, r = 1, . . . , sj, zu einer

Basis von V, so erhalt man eine Jordansche Normalform fur F.

Es seien Aj, j = 1, . . . , k, die Matrizen von F auf V (λj). Zu festem λj seiendim(LNj

(wjr)) = njr, r = 1, . . . , sj, und Jnjr(λj) die Matrizen von F auf

LNj(wjr) ⊂ V (λj), r = 1, . . . , sj.

23.13 Lemma

(1) Aj ∈M(rj, K), rj ist die algebraische Vielfachheit des Eigenwertes λj.

(2) Die Anzahl der Jordanblocke in Aj ist sj, und sj ist die geometrische Vielfach-heit des Eigenwertes λj.

(3) Die Anzahl der Jordanblocke in Aj mit mehr als s Zeilen:

dim(ker(N |Nsj (W ))) = dim(ker(N s+1

j ))− dim(ker(N sj ))

= rang(N sj )− rang(N s+1

j )

mit W = V (λj).

(4) Die Große des großten Jordanblocks in Aj ist dj, der Exponent von (x − λj)im Minimalpolynom.

Beweis: (1) Aj ist die darstellende Matrix von F eingeschrankt auf V (λj) undes gilt dimV (λj) = rj.

(2)

# Jordanblocke inAj = # Summanden inV (λj)

= dim ker(Nj) = dim ker(F − λjidV )

= dimE(λj).

184

Page 185: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

(3)

Anzahl der Jordanblocke inAj mit mehr als sZeilen

= Anzahl der Summanden vonV (λj) der Dimension > s

= dim(kerNj|Nsj (W ))

= dim(kerN s+1j )− dim(kerNj)

= rang(N sj )− rang(N s+1

j ),

dennNj : N s

j (W )→ N s+1j (W ) ⊂ N s

j (W ),

also

dim(kerNj|Nsj (W )) + dim(imNj|Ns

j (W )) = dimN sj (W ) = rang(N s

j )

unddim(imNj|Ns

j (W )) = rang(N s+1j ).

Dadim(ker(N s+1

j )) + rangN s+1j = dimW

unddim(ker(N s

j )) + rangN sj = dimW,

folgt auch die Identitat in den Kernen.

(4) V (λj) = ker(F − λjidV )dj = ker(F − λjidV )rj , dj minimal. Also Ndj

j = 0,

Ndj−1j 6= 0 mit Nj = F − λjidV auf V (λj). Also existiert ein w ∈ V (λj) mit

Ndj−1j (w) 6= 0. ⇒ dimLNj

(w) = dj : das ist die maximale Dimension, da

Ndj

j = 0. Folglich ist der großte Jordanblock in Aj eine dj × dj-Matrix. �

Satz 23.11 war der Beweis zu Satz 23.4. Wir fassen nochmals ausfuhrlich zu-sammen und rechnen einige Beispiele:

Sei V ein K-Vektorraum, K algebraisch abgeschlossen, z.B. K = C; sei weiterF ∈ hom(V ), dimV = n; A = AF bzgl. einer Basis B in V.

χF (x) = ± (x− λ1)r1 · · · (x− λk)rk

rj := algebraische Vielfachheit vonλj

sj := geometrische Vielfachheit vonλj = dim(ker(F − λjidV ))

MF (x) = (x− λ1)d1 · · · (x− λk)dk , 1 ≤ dj ≤ rj

dj : minimaler Exponent mit

ker(F − λj) ( ker(F − λjidV )2 ( · · · ( ker(F − λjidV )dj =

· · · = ker(F − λjidV )rj

Bestimme (A− λjE)-Potenzen und lose (A− λjE)px = 0.

ker(F − λjidV )rj =: V (λj) ist der verallgemeinerte Eigenraum.

185

Page 186: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

•V =

k⊕

j=1

V (λj), V (λj) F -invariant, dimV (λj) = rj

A =

A1 0. . .

0 Ak

mit Aj =

λj ∗. . .

0 λj

∈M(rj, K)

Aj := F |V (λj).

V (λj) = ker(F − λjidV )dj = ker(F − λjidV )rj , dj minimal. Also(F − λjidV )dj = 0 auf V (λj), d.h. F − λjidV ist nilpotent auf V (λj).(F − λjidV )dj−1 6= 0. Sei w ∈ ker(F − λjidV )dj \ ker(F − λjidV )dj−1 : wirbetrachten nun

L[w, (F − λjidV )(w), . . . , (F − λjidV )dj−1] =: L(w).

Dies fuhrt auf

A((F − λjidV )|L(w)) =

0 1

=

=

=

=

=

=

=

=

=

=

0 0

0

1

0 0

∈M(dj, K)

und

A(F |L(w)) =

λj

=

=

=

=

=

=

=

=

=

=

=

=

=

=

=

=

=

1

<

<

<

<

<

<

<

<

<

<

<

<

<

0 0

0

0

1

0 0 λj

hat die Gestalt eines Jordanblocks Jdj(Aj) in Aj. dj ist die maximale Große

eines Jordanblocks in Aj.

•V (λj) = ker(F − λjidV )dj−1 ⊕ L[ w1, w2, . . .︸ ︷︷ ︸

linear unabhangig

],

Jeder Vektor wj definiert einen Jordanblock Jdj(λj).

•ker(F − λjidV )dj−1 = ker(F − λjidV )dj−2 ⊕ L[v1, v2, . . .]

186

Page 187: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Die vj sind linear unabhangig und linear unabhangig von den bisherigenVektoren.

Jeder Vektor vj definiert einen Jordanblock Jdj−1(λj) (tritt eventuell nichtauf).

• Es gibt rang(N s−1j ) + rang(N s+1

j )− 2 rang(N sj ) Jordanblocke mit genau der

Große s.

Die Anzahl der Jordanblocke in Aj ist

sj = geometrische Vielfachheit vonλj

= Anzahl der linear unabhangigen Eigenvektoren zum Eigenwertλj

= dim ker (F − λjidV )

= Anzahl der Jordanblocke mit mindestens einer Zeile inAj

23.14 Beispiele

(1) A =

2 0 0 10 0 −1 0−1 0 1 −1

0 1 1 1

Dann ist χA(x) = (x−1)4; also r1 = 4.dim ker(A − E) = 2, also s1 = 2.(A − E)2 6= 0, (A − E)3 = 0, al-so d1 = 3. Folglich gibt es zwei Jor-danblocke, der großte hat drei Zeilen,λ = 1 :

J =

λ 1 00 λ 10 0 λ

000

0 0 0 λ

(2) A =

3 1 2 −4 −10 3 1 0 −10 0 3 1 −10 0 0 2 −10 0 0 0 2

χA(x) = −(x−3)3(x−2)2, dim ker(A−3E) = 1, dim ker(A − 2E) = 1. Al-so gibt es jeweils einen Jordanblock zuden Eigenwerten 3 bzw. 2.

(3) A =

2 0 0 0 0 01 0 1 1 1 01 −1 3 1 0 −10 0 0 2 0 01 −4 2 2 4 00 2 −1 −1 −1 2

χA(x) = (x−2)5(x−3); dimV (2) = 5,dimV (3) = 1.

187

Page 188: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

A− 2E =

0 0 0 0 0 01 −2 1 1 1 01 −1 1 1 0 −10 0 0 0 0 01 −4 2 2 2 00 2 −1 −1 −1 0

; rang (A− 2E) = 3

(A− 2E)2 =

0 0 0 0 0 00 −1 1 1 0 −10 −1 1 1 0 −10 0 0 0 0 00 −2 2 2 0 −20 1 −1 −1 0 1

; rang (A− 2E)2 = 1.

Also dim(ker(A − 2E)) = 3 : es gibt 3 Jordanblocke zum Eigenwert 2.rang (A− 2E)1 − rang(A − 2E)2 = 2, also gibt es zwei Jordanblocke zumEigenwert 2 mit mehr als einer Zeile:

J =

2 10 2

0

2 10 2

2

0 3

(∗)

Bemerkung: Aus (∗) folgt: dim ker(A − 2E)2 = 6 − 1 = 5. Somit ist V (2) =ker(A− 2E)5 = ker(A − 2E)2 und damit MA(x) = (x − 2)2(x − 3), also hatder großte Jordanblock zum Eigenwert 2 zwei Zeilen.

23.15 Beispiel Nun betrachten wir Beispiele, in denen wir auch die Basenbestimmen.

(1) A =

1 0 0 01 1 0 01 1 1 01 1 1 1

χA(x) = (1 − x)4, spec(A) = {1}.A − E hat Rang 3, also dim(ker(A −E)) = 1. Also ist die Jordanform

A =

1 1 0 00 1 1 00 0 1 10 0 0 1

.

188

Page 189: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Basis:

(A− E)3 =

0 0 0 00 0 0 00 0 0 02 0 0 0

, rang (A− E)3 = 1, dim(ker(A− E)3) = 3.

1000

6∈ ker(A− E)3; betrachte

v1 :=

1000

, (A− E)v1 =

0111

=: v2

(A− E)v2 =

0012

=: v3, (A− E)v3 =

0001

=: v4.

Basiswechselmatrix T =

0 0 0 10 0 1 00 1 1 01 2 1 0

; T−1AT = J.

(2)

A =

3 1 2 −4 −10 3 1 0 −10 0 3 1 −10 0 0 2 −10 0 0 0 2

; χA(x) = (3− x)3(2− x)2

dim(ker(A − 3E)) = dim(ker(A − 2E)) = 1. Es gibt einen Jordanblock zumEigenwert 3 und einen Jordanblock zum Eigenwert 2, also

J =

3 1 0 0 00 3 1 0 00 0 3 0 00 0 0 2 10 0 0 0 2

189

Page 190: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Basis:

ker(A− 3E)3 = L

10000

,

01000

,

00100

,

denn

(A− 3E)3 =

0 0 0 −5 −90 0 0 −1 −10 0 0 1 10 0 0 −1 −30 0 0 0 −1

.

ker(A−3E)2 = L

10000

,

01000

, denn (A−3E)2 =

0 0 1 6 20 0 0 1 00 0 0 −1 00 0 0 1 20 0 0 0 1

.

Also v1 =

00100

∈ ker(A− 3E)3 \ ker(A− 3E)2.

Betrachte v1, (A− 3E)v1, (A− 3E)2v1 : drei Basivektoren.

v2 =

21000

, v3 =

10000

.

(A−2E)2 =

1 0 0 −5 60 1 0 −1 20 0 1 1 −20 0 0 0 00 0 0 0 0

⇒ ker(A−2E)2 = L

−5−1

1−1

0

,

62−2

0−1

.

v4 :=

62−2

0−1

∈ ker(A− 2E)2 \ ker(A− 2E)

190

Page 191: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

v5 := (A− 2E)v4 =

51−1

10

Also

T =

0 2 1 6 50 1 0 2 11 0 0 −2 −10 0 0 0 10 0 0 −1 0

.

23.16 Satz (Zerlegung von Jordan-Chevally) Sei F ∈ hom(V ), K alge-braisch abgeschlossen, so existiert ein D ∈ hom(V ), diagonalisierbar, undN ∈ hom(V ), nilpotent, mit

F = D +N und DN = ND.

Beweis: In Matrizensprache bedeutet dies, dass ein T ∈ GL(n,K) existiertmit

T−1AFT = D′ +N ′,

mit AF darstellende Matrix von F, D′ Diagonalmatrix und N ′ darstellendeMatrix eines nilpotenten Endomorphismus. Dann folgt

TD′T−1 + TN ′T−1 = A,

D := TD′T−1 ist diagonalisierbar und N := TN ′T−1 ist nilpotent:

(TN ′T−1)k = T (N ′)kT−1 = TOT−1,

falls k ∈ N so gewahlt, dass (N ′)k = 0. Weiter ist

DN = TD′T−1TN ′T−1

= TD′N ′T−1

= TN ′D′T−1 (D′ diagonal)

= ND.

In der Sprache der Ubungen (Blatt 6, Aufgabe 6 und Blatt 7, Aufgabe 6) gilt:

Auf M(n,K) sei A ∼ B gegeben durch: A ahnlich zu B.Falls K algebraisch abgeschlossen ist, bilden das Spektrum und dim(A−αE)l,α ∈ spec(A) und 1 ≤ l ≤ d(α) ein vollstandiges Invariantensystem. d(α) istder Exponent des Minimalpolynoms von A zum Eigenwert α : (x− α)d(α).

191

Page 192: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Index

ahnlichsiehe Matrizen 86

Abbildung, 23bijektive, 24injektive, 24lineare, 76multilineare, 93strukturerhaltende, 75surjektive, 24

Abstand, 123Abtrennungsregel, 14Addition

Vektor-, 55algebraisch abgeschlossen

siehe Korper 120Allquantor, 15Aquivalenz

logische, 13Aquivalenzklasse, 27Aquivalenzrelation, 26Assoziativgesetz, 14, 20Aussage, 11

Basis, 59orthonormierte, 140Standard-, 59

Basiswechsel, 67Behauptung, 13, 17Beweis

direkter, 17indirekter, 17

bijektiv, siehe AbbildungBild, 23, 80Bildbereich, 23bilinear, 123, 124

Bilinearform, 124alternierende, 125antisymmetrische, 125positiv definite, 131symmetrische, 125symplektische, 125

Cayley, 173Charakteristik, 34Conclusio, 13

Definitionsbereich, 23degeneriert, 127

nicht, 128Descartes, Rene, 21Determinante, 91Determinantenformel, 97Determinantenfunktion, 92diagonalisierbar

siehe Homomorphismus 109Differenz, 20Dimension, siehe Vektorraumdisjunkt, 27Disjunktion, 12Distributivgesetz, 14, 20, 32Dreiecksungleichung, 150Dualraum, 167Durchschnitt, 20

Ebeneprojektive, 28

Eigenraum, 114verallgemeinerter, 178, 180

Eigenvektor, 113Eigenwert, 113Element, 19endlichdimensional, siehe Vektorraum

192

Page 193: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Endomorphismus, 80, 107Endormorphismus

nilpotenter, 177Erzeugendensystem, 61Euler, 160Existenzquantor, 15

Familie, 21Faser, 80Form

Hermitesche, 126quadratische, 134

Gauß, Carl Friedrich, 38, 154Gleichungssystem

homogenes, 44Grad, siehe PolynomGrammatrix

siehe Matrix 124Graph, 23Gruppe, 29

allgemeine lineare, 49Lorentz-, 145orthogonale, 145Permutations-, 30Spinor-, 147symmetrische, 30unitare, 146

Gruppenisomorphe, 75, 146

Gruppenisomorphismus, 146

Halbgruppe, 29abelsche, 29

Hamilton, 173Hauptachsentransformation, 166Hauptidealring, 171Hauptminor, 141Hauptraum, 180Hermitesch

siehe Sesquilinearform 126Hermitesche Form, 126hom, siehe EndomorphismusHomomorphismus, 75

diagonalisierbarer, 109selbstadjungierter, 165symmetrischer, 165

Hullelineare, 61

Ideal, 170Imaginarteil, 89Implikation, 13injektiv, siehe Abbildunginvariant, 108irreduzibel, siehe PolynomIsometrie, 143isometrisch, 143isomorph, 146Isomorphismus, 75, 78, 146Iterierte, 118

Jordan-Block, 178Jordan-Chevally-Zerlegung, 191Jordan-Normalform, 178Junktion, 11

Korperalgebraisch abgeschlossener, 120Unter-, 89

kanonischsiehe Skalarprodukt 123

Kern, 80, 127Koeffizient, 32Koeffizientenmatrix, 39Kofaktor, 101Kommutativgesetz, 14, 20Komplement, 20, 128Komponente, 39Komposition, 24, 30Konjunktion, 11Kontrapositionsgesetz, 14Konvergenz, 16Koordinate, 68Koordinatensystem, 68Korollar, 16Korper, 29, 33Korpererweiterung, 57

193

Page 194: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Kronecker-Delta, 42Kuratowski, Kazimierz, 21

Lange, 123, 149Leibniz, 97Lemma, 16linear, siehe AbbildungLinearitat, 5Linearkombination, 56Lorentz

siehe Gruppe 145Losungsraum, 57

Matrixadjungierte, 102Basiswechsel-, 67darstellende, 83Diagonal-, 50diagonalisierbare, 116Einheits-, 42Gram-, 124Hermitesche, 126inverse, 49invertierbare, 49Koeffizienten-, 39orthogonale, 145, 157positiv definite, 141quadratische, 44regulare, 44schiefsymmetrische, 125singulare, 44spezielle orthogonale, 158spezielle unitare, 158symmetrische, 52transponierte, 52, 99unitare, 146, 157Zeilenoperationen, 38

Matrizenahnliche, 86

Menge, 19leere, 19Potenz-, 19Teil-, 19

Metrik, 123

Minimalpolynom, 171Minkowski-Raum, 125Minkowski-Ungleichung, 150Morgan, de, 14multilinear

siehe Abbildung 93

Negation, 12Neutralelement, 29nilpotent

siehe Endomorphismus 177Norm, 123, 149Normalform, 160normiert, siehe PolynomNullmatrix, 40Nullpolynom, siehe PolynomNullstelle, 119Nullteiler, 34Nullvektor, 40

OrdnungTotal-, 26

Ordnungsrelation, 26orthogonal, 137, 150

siehe Projektion 151siehe Vektorraum 129

orthogonal ahnlich, 159orthonormiert

siehe Basis 140

Paargeordnetes, 21ungeordnetes, 21

PeriodeN-, 181

Permutation, 24, 30, 95Permutationsgruppe

siehe GruppePermutations- 30

Plancherel-Identitat, 154Polynom, 32

charakteristisches, 115Grad, 33, 118irreduzibles, 119

194

Page 195: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Minimal-, 171normiertes, 118Null-, 32teilen, 118

Polynometeilerfremde, 119, 171

positiv definit, 131, 132siehe Matrix 141

Potenzmenge, 19Pradikat, 15Pramisse, 13Primzahl, 11Produkt

cartesisches, 21Projektion, 107, 170

orthogonale, 151Pythagoras, 151

quadratisch, siehe FormQuadratzahl, 11Quantor

All-, 15Existenz-, 15

Rang, 71, 80Realteil, 89reflexiv, 26Regression, 154Relation, 22

Ordnungs-, 26reflexive, 26symmetrische, 26transitive, 26

Residuum, 154Ring, 32

kommutativer, 32

Sarrus, 99Satz, 16Schiefkorper, 33Schwarzsche Ungleichung, 149selbstadjungiert

siehe Homomorphismus 165senkrecht, 151

Sesquilinearform, 126Hermitesche, 126

Signatur, 131, 132Signum, 96Skalar, 55Skalarprodukt, 149

kanonisches, 123Spalte, 39Spat, 91Spektralsatz, 166, 168Spektrum, 113Spinorgruppe, 147Standardbasis, siehe Basisstrukturerhaltend, siehe AbbildungSumme, siehe Unterraum

direkte, 105surjektiv, siehe AbbildungSyllogismusregel, 14Sylvester, 131symmetrisch, siehe Relation, 165

Tautologie, 14, 15teilen, siehe PolynomTeiler, 118

echter, 118teilerfremd, siehe Polynome

siehe Polynome 171Teilmenge, 19Theorem, 16Totalordnung, 26Transitivitat, 26Transposition, 96Tupel, 22

Umkehrabbildung, 25unitar ahnlich, 159Unterraum, 57, 105

invarianter, 108Summe, 58trivialer, 108

Urbild, 23

Vektor, 40, 55Eigen-, 113

195

Page 196: Lineare Algebra und Geometrie I & IIMit Lineare Algebra und (analytische) Geometrie bezeichnet man ein Teilge-biet der Mathematik, das sich mit der Grundlegung des abstrakten Begriffes

Koordinaten-, 68Vektoren

linear abhangige, 62linear unabhangige, 62

Vektorraumeisomorphe, 78orthogonale, 129

Vektorraum, 55Basis, 59Dimension, 61endlichdimensionaler, 59Euklidischer, 143normierter, 150symplektischer, 143unitarer, 143

Vereinigung, 20Verknupfung, 24, 29

assoziative, 29kommutative, 29

Vielfachheitalgebraische, 121geometrische, 116

Vieta, 90Voraussetzung, 13, 17

Wahrheitstafel, 12Wahrheitswert, 11Winkel, 151Wohldefiniertheit, 30

Zahlkonjugierte, 89

Zahlenkomplexe, 89rationale, 17

Zeile, 39Zeilenraum, 71Zeilenstufenform, 41Zerlegung, 27Zusammensetzung, 24

196