127
Analytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler Skript zur Vorlesung im Wintersemester 2003/2004 Georg-August-Universit¨ at G¨ ottingen, [email protected]

Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

  • Upload
    others

  • View
    4

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Analytische Geometrie

und Lineare Algebra I

Prof. Dr. Ulrich Stuhler∗

Skript zur Vorlesung im Wintersemester 2003/2004

∗Georg-August-Universitat Gottingen, [email protected]

Page 2: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at
Page 3: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Vorwort

Dies ist eine Ausarbeitung meiner Vorlesung uber lineare Algebra, die ich imWintersemester 2003/2004 in Gottingen gehalten habe. Ich danke den vielenStudierenden, die es durch ihre tatkraftige Arbeit ermoglicht haben, dass dieseAusarbeitung noch im WS 2003/2004 fertig geworden ist, ganz herzlich.

Ein Literaturverzeichnis sowie ein Stichworterverzeichnis und einige wenige Er-ganzungen zum Anhang werden in nachster Zukunft noch folgen und danneinfach ins Netz gestellt werden.

U. Stuhler

Verfasst von

Ulrich Stuhler

Mathematisches Institut der Georg-August-Universitat GottingenBunsenstraße 1-337073 [email protected]

als begleitendes Skript zur von ihm im Wintersemester 2003/2004 am Mathematischen Insti-tut der Georg-August-Universitat Gottingen gehaltenen Vorlesung

”Analytische Geometrie

und Lineare Algebra I“.

Vom Papier in die digitale Form gebracht von seinen Horern Martin Creutziger,Christian Dickmann, Andreas Dirks, Agnes Dorfelt, Kyle Graehl,Lars Kasper, Stefan Klopottek, Jason Mansour, Henrik Schumacher,Peter Sheldrick, Hendrik Sohnholz und Christian Thiemann mit Hilfe vonLATEX2ε.

Von der digitalen Form wieder auf Papier gebracht von Stefan Koospal undJurgen Matthes im Mathematischen Institut.

3

Page 4: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4

Page 5: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Inhaltsverzeichnis

1 Der n-dimensionale Raum 7

Eine kurze Erkundungsfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Punkte und Vektoren 9

Was sind Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Addition von Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Vektorraume 13

4 Untervektorraume und affine Teilraume 17

5 Der Dimensionsbegriff 23

5A Der Korperbegriff 31

5B Der Korper der komplexen Zahlen 37

6 Erganzungen zum Dimensionsbegriff 41

Konstruktive Losung einer Grundaufgabe . . . . . . . . . . . . . . . . . . . . . 43

7 Lineare Abbildungen 47

8 Lineare Abbildungen II 51

9 Lineare Abbildungen und Matrizen 55

Das Normalformenproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

10 Linearformen, der duale Vektorraum 65

11 Lineare Gleichungssysteme 69

12 Determinanten 75

Determinanten von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . 79

13 Gruppen und Permutationen 85

14 Eigenwerte und Vektoren 93

15 Reelle Vektorraume und euklidische Geometrie 107

16 Isometrien und orthogonale Gruppen 115

17 Hauptachsentransformation, selbstadjungierte Abbildungen 121

18 Erganzungen 125

A Volumina. Eine Formel fur die Gramsche Matrix. . . . . . . . . . . . . . . 125B Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126C Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

5

Page 6: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Inhaltsverzeichnis

6

Page 7: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

1 Der n-dimensionale Raum

Eine kurze Erkundungsfahrt

Bekanntlich beschreibt eine lineare Gleichung etwa der Form

x1 + x2 = 1

eine Gerade in der (x1, x2) - Koordinatenebene.Entsprechend ist die Losungsmenge zum Beispiel der Gleichung

x1 + x2 + x3 = 1

im (x1, x2, x3) - Koordinatenraum eine Ebene im Raum, also ein lineares zweidimen-sionales Gebilde. Viele Probleme aus der Mathematik, den Naturwissenschaften oderden Wirtschaftswissenschaften fuhren ganz naturlich auf Gleichungen mit mehr als dreiVariablen. Betrachten wir zum Beispiel die Gleichung

x1 + x2 + . . .+ x10 = 1

Nach den Beispielen oben liegt es doch nahe, diese Gleichung”geometrisch“ zu interpre-

tieren. Wir legen Punkte fest durch die zehn Koordinaten (x1, x2, . . ., x10). Ein Punktist also einfach ein (wie man sagt) 10-Tupel von Koordinaten, die Menge aller solcher10-Tupel (x1, x2, . . ., x10) sollte dann der 10-dimensionale Raum sein, den wir der Kurzehalber auch als R10 bezeichnen. Entsprechend hatten wir es eingangs mit dem R2 (dieEbene) bzw. dem R3 (der Raum) zu tun. Analog sollte die Losungsmenge der Gleichung

x1 + x2 + . . .+ x10 = 1

ein 9-dimensionales lineares Gebilde in unserem 10-dimensionalen Raum R10 sein. Zu-mindest ist das plausibel. Man kann etwa die Variablen x1, x2, . . ., x9 ganz frei wahlen,dann ist x10 eindeutig gegeben durch

x10 = 1 − (x1 + x2 + . . .+ x9)

Aber was soll”9-dimensional“ in einem 10-dimensionalen Raum denn nun ganz genau

heißen? Dafur brauchen wir eine exakte Definition des Begriffs”Dimension“ und das

ist einer der wesentlichen Punkte der Vorlesung. Naturlich werden wir dies nicht nach-einander fur den R1, R2, . . ., R10, R11 usw. durchfuhren, sondern wir betrachten gleichallgemein den n-dimensionalen Raum Rn, wo n eine der Zahlen 1, 2, 3, . . . sein kann. EinPunkt ist dann also einfach ein n-Tupel reeller Zahlen (x1, x2, . . ., xn). Die Menge aller

7

Page 8: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

1 Der n-dimensionale Raum

solcher n-Tupel ist der Rn. Eine einzelne lineare Gleichung mit n Unbekannten hattejetzt ganz allgemein die Gestalt

a1x1 + a2x2 + . . .+ anxn = b

Dabei sind die a1, a2, . . ., an, b feste (aber beliebige) reelle Zahlen, in unserem Beispieleben war n = 10, a1 = a2 = a3 = . . . = a10 = b = 1. Die Losungsmengen derartigerGleichungen gilt es zu studieren. Statt einer Gleichung tritt auch oft der Fall auf, dassman mehrere Gleichungen simultan zu losen hat, man spricht dann von einem linearenGleichungssystem. Das sieht etwa so aus:

a11x1 + a12x2 + . . . + a1nxn = b1a21x1 + a22x2 + . . . + a2nxn = b2

......

...am1x1 + am2x2 + . . . + amnxn = bm

Dabei sind die a11, a12, a21, . . ., amn sowie die b1, . . ., bm wieder beliebige aber feste reelleZahlen. Die x1, . . ., xn sind die Unbekannten. Man spricht in naheliegender Weise voneinem System von m linearen Gleichungen mit n Unbekannten. Die Losungsmenge einessolchen linearen Gleichungssystems sollte wieder ein

”lineares Gebilde“ einer bestimmten

Dimension im Rn sein. Was genau sollte das aber bedeuten? Ubrigens werden wir einderartiges lineares Gleichungssystem bald in viel kompakterer Form schreiben, dann siehtdas so aus:

n∑

j=1

aijxj = bi (i = 1, . . . , m)

Das spart Platz, aber man muss sich daran gewohnen! Kann man sich den Rn nunwirklich anschaulich vorstellen? Hier gilt es, folgendes zu bedenken: Unsere Anschauungist, wie manchmal scherzhaft gesagt wird, zweieinhalb dimensional. Hierzu ein einfachesBeispiel, das ich einer Vorlesung von H. Grauert entnommen habe. Wir halbieren dieRaumdiagonale d eines Wurfels im R3. Im Mittelpunkt P von d errichten wir senkrechtzu d eine Ebene, die mit der Wurfeloberflache zum Schnitt gebracht wird. Welche Figurergibt sich? Die Figur direkt vor sich zu sehen, ist schwierig. Mit einem einfachen Sym-metrieargument folgt aber, dass es sich um ein regelmaßiges Sechseck handeln muss. Dasheisst, die Eigenschaften bereits des dreidimensionalen Raumes R3 sind nur teilweise furuns anschaulich evident. Vieles ergibt sich auch aus logischen Uberlegungen sowie ausAnalogiebetrachtungen durch Projektion in die Ebene. Ganz ahnlich ergeht es einemnun mit dem n-dimensionalen Raum. Durch Analogie mit dem Raum R3 werden vieleder Aussagen, die wir rein logisch beweisen werden, doch in gewisser Weise einen an-schaulichen Gehalt haben. Die Anschauung, in geschickter Weise verwendet, hilft auchoft, die logischen Beweise uberhaupt erst zu finden. Es ist genau das Problem einer sol-chen Vorlesung fur die Studierenden, das Ineinandergreifen von logisch vollig strengenBeweisen und leitender Motivation durch anschauliche Vorstellungen zu erfassen.

8

Page 9: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

2 Punkte und Vektoren

Was sind Vektoren

Wie oben beschrieben, ist also ein Punkt P fur uns einfach ein Koordinaten-n-Tupelreeller Zahlen (p1, . . . , pn).Die Menge aller Punkte P ist der n-dimensionale (affine) Raum Rn. Tatsachlich werdenzunachst weniger die Punkte des Rn eine Rolle spielen, sondern viel mehr die Vektoren.Der Grund dafur ist einfach der, dass man mit Vektoren besser als mit Punkten rechnen

kann, wie wir gleich sehen werden. Ein Vektor x =−→

PQ wird durch zwei Punkte

P = (p1, p2, . . . , p1)

Q = (q1, q2, . . . , qn)

des Rn gegeben. Anschaulich stellen wir uns den Vektor x =−→

PQ als gerichtete Strecke(Vektorpfeil) von P nach Q vor. Sind

R = (r1, r2, . . . , rn)

undS = (s1, s2, . . . , sn)

aus dem Rn zwei weitere Punkte und y =−→

RS der entsprechende Vektor von R nach S,so definieren wir eine Gleichheit(-srelation) zwischen den Vektoren x und y wie folgt:

2.1 Definition: Es ist x = y (bzw.−→

PQ=−→

RS) genau dann, wenn gilt:

qi − pi = si − ri

fur alle (i = 1, 2, . . . , n).Offenbar trifft diese Definition fur die

”anschaulichen Dimensionen“ (n = 1, 2, 3) genau

die geometrische Vorstellung. Fur die hoheren Dimensionen handelt es sich um einerein logische Festsetzung, die die anschaulichen Gegebenheiten der niederdimensionalenRaume fortschreibt.Wir halten folgende Tatsachen fest:

• Ein geordnetes Paar von Punkten P,Q ∈ Rn (P,Q aus dem Rn) legt eindeutig

einen Vektor x =−→

PQ fest.

9

Page 10: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

2 Punkte und Vektoren

• Vektoren−→

PQ,−→

RS, sind gleich im Sinne der obigen Definition, wenn gilt

qi − pi = si − ri (i = 1, . . . , n)

• Vektoren werden also eindeutig durch das so genannte Komponenten-n-Tupel

(q1 − p1, q2 − p2, . . . , qn − pn)

beschrieben, d. h. ebenfalls durch ein geordnetes n-Tupel reeller Zahlen.

2.2 Bemerkung: Sowohl Punkte als auch Vektoren im Rn werden also durch n-Tupelreeller Zahlen beschrieben. Trotzdem sind, gemaß ihrer Bedeutung, die beiden Begriffe

”Punkt“ und

”Vektor“ von einander zu unterscheiden. - Gegeben sei ein Punkt P =

(p1, . . . , pn) und ein Vektor x = (ξ1, ξ2, . . . , ξn). Dann findet man in

Q := (p1 + ξ1, p2 + ξ2, . . . , pn + ξn)

einen Punkt, so dass gilt−→

PQ= x.Q entsteht aus P durch

”Anheften des Vektors x in P“ oder anders gesagt, Q entsteht

aus P durch”Verschiebung“ mit dem Vektor x, sind Punkt x. Q ist durch die Bedingung

−→

PQ= x

eindeutig bestimmt.

Addition von Vektoren

Gegeben seien die Vektoren x =−→

PQ und y =−→

RS durch die Komponenten-n-Tupel

x = (q1 − p1, . . . , qn − pn)y = (s1 − r1, . . . , sn − rn)

Wir konnen den Vektor y auch reprasentieren durch y =−→

R′S ′ mit R′ = Q und S ′ =

(q1+(s1−r1), . . . , qn+(sn−rn) Es gilt dann die Gleichheit von Vektoren−→

RS=−→

R′S ′=−→

QS ′.Entsprechend der Addition von Vektoren in den anschaulichen niederdimensionalen Rau-men R1,R2,R3 setzt man jetzt

−→

PQ +−→

RS=−→

PQ +−→

R′S ′=−→

PQ +−→

QS ′=−→

PS ′

In Komponenten ergibt sich sofort

−→

PS ′= ((q1 − p1) + (s1 − r1), . . . , (qn − pn) + (sn − rn))

10

Page 11: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Addition von Vektoren

Das legt die folgende Definition nahe, die jetzt nur noch von den Komponenten der

Vektoren abhangig und daher unabhangig von der Wahl der Reprasentatoren x =−→

PQetc. ist.

2.3 Definition: Seien x = (ξ1, . . . , ξn), y = (η1, . . . , ηn) zwei Vektoren im Rn, so definiertman

x+ y = (ξ1 + η1, . . . , ξn + ηn)

Es gelten folgende Regeln fur die Addition von Vektoren:

1. Es ist x+ y = y + x fur x, y ∈ Rn

(Kommutativgesetz der Addition)

2. Es ist (x+ y) + z = x+ (y + z) fur x, y, z ∈ Rn

(Assoziativgesetz der Addition)

3. Fur den Vektor 0 = (0, . . . , 0) (den Nullvektor), der reprasentiert wird durch−→

PPmit beliebigen Punkt P ∈ Rn, gilt:x+ 0 = x fur alle x ∈ Rn

(Existenz eines Nullelements bzw. eines sog. neutralen Elements)

4. Zu zwei Vektoren a, b ∈ Rn gibt es genau einen Vektor x ∈ Rn, der die Gleichunga + x = b lost.

2.4 Bemerkung:

i) Ist a = (α1, . . . , αn), b = (β1, . . . , βn) so ergibt sich sofortx = (β1 − α1, . . . βn − αn).

ii) Ist speziell b = 0, so schreiben wir fur x = (−α1 . . . , αn) =: −a.

iii) Fur x in 4. ergibt sich offenbar

x = b+ (−a)

oder in verkurzter Schreibweise x = b− a

Demnach kann man also Vektoren so addieren (auch subtrahieren) wie Zahlen. Wiesteht es mit der Multiplikation von Vektoren?

Es gibt, das werden wir im Verlauf dieses Semesters kennen lernen, das Skalarproduktvon Vektoren. Das Produkt ist dabei aber nicht ein Vektor, sondern eine reelle Zahl (einsog. Skalar). In der Dimension 3 gibt es das sog. Vektorprodukt, das in der Physik eineRolle spielt. Hierbei handelt es sich aber um eine Spezialitat des R3. Generell kann manaber sogar beweisen, das es auf dem Rn fur n > 2 keine zufriedenstellenden, kommuta-tiven Produktbildungen gibt. Was ubrig bleibt, ist folgende sehr einfache Bildung.

Sei α ∈ R eine reelle Zahl, x ∈ Rn ein Vektor, gegeben durch seine Komponentenx = (ξ1, . . . , ξn).

11

Page 12: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

2 Punkte und Vektoren

2.5 Definition: Wir setzen

α · x := (αξ1, . . . , αξn) ∈ R

2.6 Bemerkung: Anschaulich bedeutet dies etwa im R3, das αx wieder in der durch xfestgelegten Geraden durch den Nullpunkt liegt. Es gelten die folgenden Rechenregelnfur die Multiplikation mit Skalaren:

5. (α+ β)x = αx+ βx fur α, β ∈ R, x ∈ R

6. α(x+ y) = αx+ αy fur α ∈ R, x, y ∈ Rn

7. α(βx) = (αβ)x fur α, β ∈ R und x ∈ Rn

8. Fur das Einselement 1 ∈ R gilt:1 · x fur x ∈ Rn

2.7 Bemerkung: Die Regeln 1–8 beschreiben das, was wir demnachst als reellen Vektor-raum festlegen wollen. Alle ubrigen Regeln fur das Rechnen mit Vektoren konnen formaldurch rein logisches Folgern auf die Regeln 1–8 zuruckgefuhrt werden.

12

Page 13: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

3 Vektorraume

Am Anfang der Vorlesung haben wir den Rn kennengelernt, ihn als Vektorraum aufge-fasst und die grundlegenden Eigenschaften des Rechnens mit Vektoren zusammengefasst.Durch Abstraktion werden wir hieraus unmittelbar den Begriff des abstrakten Vektor-raums erhalten.

Als Skalarbereich fixieren wir dabei ein fur alle mal einen Korper (K,+, ·). Der Leser,insbesondere der an physikalischen Anwendungen interessierte, kann dabei immer andie reellen oder falls gewunscht, komplexen Zahlen denken, bis wir in Kap. 5a denabstrakten Korperbegriff einfuhren. Alternativ kann man naturlich auch zuerst Kap. 5adurchlesen.

3.1 Definition: Ein Vektorraum uber dem Skalarenkorper K ist eine Menge V (derenElemente die Vektoren des Vektorraums sind), auf der eine Vektoraddition

”+ ” : V × V → V

(x, y) 7→ x+ y

und eine skalare Multiplikation

” · ” : K × V → V

(α, x) 7→ α · x

erklart sind, wobei folgende Axiome gelten:

1. ”+ ” ist kommutativ, d. h. es gilt: x+ y = y + x fur alle x, y ∈ V

2. ”+ ” ist assoziativ, d. h. es gilt: (x+ y) + z = x+ (y + z) fur alle x, y, z ∈ V

3. Es gibt ein neutrales Element der Addition, 0 ∈ V , so dass gilt:x+ 0 = x fur alle x ∈ V

4. Zu jedem Vektor x ∈ V existiert ein y ∈ V mit x+ y = 0.

5. Fur α, β ∈ K, x ∈ V gilt: (αβ)x = α(βx)

6. (Distributivgesetze) Es gilt:

i) (α + β)x = αx+ βx fur α, β, x wie oben

ii) α(x+ y) = αx+ βy fur α ∈ K, x, y ∈ V

7. Fur das Einselement 1 ∈ K gilt: 1 · x = x fur alle x ∈ V

13

Page 14: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

3 Vektorraume

Bemerkung: Die Bedingungen (1)–(4) besagen, dass (V,+), also die Menge V , versehenmit der Addition als Verknupfung, eine sogenannte abelsche (oder auch kommutative)Gruppe ist (benannt nach N.H. Abel, einem der bedeutendsten Mathematiker des19. Jahrhunderts, der vor allem uber die Theorie der algebraischen Gleichungen undsogenannte elliptische Integrale gearbeitet hat).

Wir geben verschiedene Beispiele, die zeigen, wie vielseitig der Begriff des Vektorraumsist.

3.2 Beispiel:

i) Naturlich der Rn (n ≥ 0) mit ublicher Addition und skalarer Multiplikation (dabeiK = R).

ii) Ganz entsprechend V = Kn, dabei sind die Elemente (Vektoren) aus V einfach dien-Tupel (α1, . . . , αn) mit α1, . . . , αn ∈ K. Die Addition ist, ganz entsprechend wiebei (i) komponentenweise erklart durch:

(α1, . . . , αn) + (β1, . . . , βn) = (α1 + β1, . . . , αn + βn)

Die skalare Multiplikation durch:

λ(α1, . . . , αn) = (λα1, . . . , λαn)

mit λ, α1, . . . , αn sowie β1, . . . , βn aus K.

Die Vektorraumaxiome (1)–(7) folgen sofort aus den entsprechenden Axiomen furden Korper K.

iii) Speziell ist jeder Korper K also ein Vektorraum uber sich selber (als Skalarenbe-reich).

iv) M sei eine beliebige Menge, V ein gegebener Vektorraum.Abb(M ;V ) = {f : M → V | f Abbildung von M nach V }, die Menge der Ab-bildungen von M nach V ,

”erbt“ dann in naturlicher Weise die Struktur eines

K-Vektorraums.

Wir definieren fur f, g ∈ Abb(M ;V ) eine Addition

(f + g)(x) := f(x) + g(x)

fur x ∈M .

Die skalare Multiplikation wird so definiert: Sei α ∈ K, f ∈ Abb(M ;V ), dann setztman:

(α · f)(x) := α · f(x)

fur x ∈M .

Dadurch werden α · f bzw. f + g oben definiert. Die Vektorraumaxiome folgengewissermaßen punktweise (fur jedes x ∈M) aus den entsprechenden Axiomen furden Vektorraum V .

14

Page 15: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Wir ziehen einige einfache Folgerungen aus den Vektorraumaxiomen.

3.3 Folgerung: Es gibt genau ein neutrales Element 0 der Addition in V .

Beweis: Es gibt wenigstens ein neutrales Element 0 ∈ V . Angenommen, 0′ ∈ V ware einweiteres neutrales Element. Dann ist

0 + 0′ = 0′ , aber auch

0 + 0′ = 0′ + 0 = 0

nach (1) und (3). Daher ist 0 = 0′. �

3.4 Folgerung: Zu jedem x ∈ V gibt es genau ein y ∈ V mit x+ y = 0

Beweis: Nach Axiom (4) gibt es wenigstens ein solches y ∈ V . Angenommen, es gabeein weiteres y′ ∈ V mit x + y′ = 0. Wir berechnen (x + y) + y′ = 0 + y′ = y′, aberandererseits

(x+ y) + y′ = (x+ y′) + y mit (1) und (2)

= 0 + y = y

Also y = y′, also gibt es hochstens ein Inverses bezuglich der Addition. �

Bemerkung: Wir schreiben fur y: (−x).

3.5 Folgerung: Zu Vektoren a, b ∈ V gibt es genau einen Vektor x ∈ V mit a + x = b.

Beweis: Es ist

a+ x = b

⇔ (−a) + (a+ x) = (−a) + b

⇔ (−a + a) + x = (−a) + b

⇔ x = (−a + b) =: b− a

Also gibt es genau eine eindeutig bestimmte Losung obiger Gleichung, namlich x =(−a) + b. �

3.6 Folgerung: Es gilt in V : 0 · a = 0 fur alle a ∈ V .

Beweis: Offenbar ist

0 · a = (0 + 0) · a = 0 · a+ 0 · a , aber auch

0 · a = 0 · a+ 0

Auf Grund der Eindeutigkeit der Losungen von Gleichungen der Form a + x = b folgtalso: 0 · a = 0. �

15

Page 16: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

3 Vektorraume

3.7 Folgerung: Es gilt in V fur λ ∈ K, a ∈ V :

(−λ)a = −(λa)

Beweis: Offenbar ist

0 = 0 · a = (λ+ (−λ))a = λa+ (−λ)a

Daher gilt also

0 = λa+ (−λ)a , aber auch

0 = λa+ −(λa)

Wegen der Eindeutigkeit der Losungen von Gleichungen der Form a + x = b folgt also:(−λ)a = −(λa). �

16

Page 17: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4 Untervektorraume und affine

Teilraume

Die Ebene, zum Beispiel der R2, enthalt Punkte und Geraden. Der Raum, zum Beispielder R3 enthalt Punkte, Geraden und Ebenen. Es liegt nahe zu vermuten, dass dieseBegriffe in der Situation abstrakter Vektorraume ein Analogon haben. Da wir vom Begriffdes Vektorraumes ausgehen und Vektoren in unserem Aufbau den Vorzug vor Punktenhaben, befassen wir uns entsprechend zunachst mit dem mehr algebraischen Begriff einesUntervektorraumes.

4.1 Definition: Sei V ein beliebiger K-Vektorraum. Eine Teilmenge W von V heißtUntervektorraum von V , wenn folgendes gilt:

i) Mit zwei Vektoren x, y ∈W ist auch x+ y ∈W

ii) Ist x ∈W , λ ∈ K ein Skalar, so ist λx ∈W

iii) Es ist der Nullvektor 0 ∈W

4.2 Beispiele:

i) Die Vektoren”auf einer Geraden bzw. Ebene“ durch den Nullpunkt im R3 bilden

einen Untervektorraum des R3

ii) Sind x1,. . . ,xr ∈ V beliebige Vektoren, so ist die Menge

W :=

{

r∑

i=1

ξixi | ξ1, . . . , ξr ∈ K beliebig

}

ein Untervektorraum von V . Man nennt W auch den vom System von Vektoren

{x1, . . . , xr}

erzeugten oder auch aufgespannten Untervektorraum.

iii) Gegeben sei eine Gleichung der Form

α1ξ1 + · · ·+ αnξn = 0 ,

17

Page 18: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4 Untervektorraume und affine Teilraume

dabei seien α1, . . . , αn ∈ K, die ξ1, . . . , ξn sind die Unbekannten des Gleichungs-systems, so dass eine beliebige Losung (ξ1, . . . , ξn) als Vektor des Kn aufgefasstwerden kann.

W := {(ξ1, . . . , ξn) | Es ist α1ξ1 + · · · + αnξn = 0}

ist ein Untervektorraum des Kn.

Beweis: Ubung! �

Man nennt eine Gleichung obiger Form eine homogene lineare Gleichung in den Unbe-kannten ξ1, . . . , ξn. Ganz entsprechend betrachtet man allgemeiner ein System linearerGleichungen

n∑

j=1

αijξj = 0 (i = 1, . . . , m)

vom m homogenen linearen Gleichungen in den n Unbekannten ξ1, ξ2, . . . , ξn. Die festvorgegebenen Koeffizienten αij ∈ K werden zusammengefasst in Form einer sogenannten(m× n)-Matrix

(αij)1≤i≤m1≤j≤n

=

α11 α12 · · · α1n

. . . . . . . . . . . . . . . . . . . .αm1 αm2 · · · αmn

Man sieht wieder leicht ein: Die Losungsmenge des homogenen Gleichungssystems

W :=

{

(ξ1, ξ2, . . . , ξn) ∈ Kn | Es gilt

n∑

j=1

αijξj = 0 fur i = 1, . . . , m

}

ist ein Untervektorraum des Kn.

4.3 Proposition: Ist W ein Untervektorraum des Vektorraumes V , so ist W mit denVerknupfungen aus V selber ein Vektorraum.

Beweis: Zunachst sollte man sich klar machen, dass etwas zu beweisen ist. Da mit x, y ∈W auch x + y ∈ W gilt, ebenso mit α ∈ K auch αx ∈ W ist, so ergeben offenbar dieVerknupfungen auf V auch induzierte Verknupfungen auf W .

Da 0 ∈ W , so gibt es ein Nullelement in W und Axiom 3 der Vektorraumaxiome isterfullt. Da mit x ∈ W auch (−1)x = −x ∈ W nach (ii) oben, so ist auch Axiom 4 derVektorraumaxiome erfullt.

Die ubrigen Axiome sind automatisch in W erfullt, da sie ja in der grosseren MengeV erfullt sind (Dieser logische Schluss wird sehr oft verwendet und ist sehr bequem:sobald man weiss, dass die Verknupfungen aus der

”Unterstruktur“ nicht herausfallen,

folgt zwangslaufig, dass die Axiome fur die grossere Verknupfungsstruktur sich auf dieUnterstruktur vererben). �

18

Page 19: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4.4 Proposition:

i) Sind W1,W2 ⊂ V Untervektoraume von V , so ist auch der Durchschnitt W1 ∩W2

ein Untervektorraum von V .

ii) Es gibt einen kleinsten Untervektorraum W von V , der sowohl W1 als auch W2

enthalt und den wir mit (W1 +W2) bezeichnen.

iii) Die Menge {0} ist ein Untervektorraum von V .

Beweis: Wir zeigen nur (ii): Nun enthalt jeder Untervektorraum W ′ mit W ′ ⊃ W1,W ′ ⊃W2 alle Summen w = w1 + w2 mit wi ∈Wi fur i = 1, 2. Wir definieren daher

W := {w ∈ V | Es gibt w1 ∈W1, w2 ∈W2 mit w = w1 + w2}

Zeigen wir also, daß die so definierte Menge W ein Untervektorraum von V ist, so ist erauch der kleinste Untervektorraum mit W ⊃W1,W2.

Wir rechnen die Axiome (i), (ii), und (iii) aus 4.1 nach:

i) Seien x = w1 + w2 ∈ W und y = w′1 + w′

2 ∈W2. Dann ist

x+ y = (w1 + w2) + (w′1 + w′

2) = (w1 + w′1) + (w2 + w2

′)

Mit wi,w′i ∈ Wi folgt wi + w′

i ∈ Wi (i=1,2), da Wi ein Untervektorraum ist. Dannist aber x+ y ∈W nach Definition von W .

ii) Mit x = w1 +w2 ∈W und λ ∈ K ist λx = λw1 + λw2. Aber λwi ∈Wi (i=1,2), daW1,W2 Untervektorraume sind. Also ist λx ∈W .

iii) Da 0 ∈W1, 0 ∈W2 nach Definition eines Untervektorraumes, so folgt 0 = 0+0 ∈Wnach Definition von W .

Damit sind alle drei Axiome nachgepruft: W ist ein Untervektorraum. Nach seinerDefinition enthalt W die Untervektorraume W1, W2. �

4.5 Bemerkung: Einige der Konstruktionen oben lassen sich noch wesentlich allgemeinerfassen, was in den Ubungen behandelt wird.

Sei V ein beliebiger K-Vektorraum, I eine beliebige Indexmenge, so dass fur jedes Ele-ment i ∈ I ein Untervektorraum Wi von V gegeben ist. Vollig entsprechend zu denobigen Konstruktionen kann man den Durchschnitt als

∩i∈IWi := {v ∈ V | vǫWi fur alle i ∈ I}

sowie die Summe∑

i∈IWi als kleinsten Untervektorraum von V bilden, der alle Wi

enthalt.

19

Page 20: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4 Untervektorraume und affine Teilraume

Eine haufig auftretende Situation ist die folgende:Gegeben seien die beiden Untervektorraume W1,W2 von V . Es gelte dabei zusatzlich

i) W1 ∩W2 = (0)

ii) W1 +W2 = V

(Man sagt auch: W1 und W2 sind komplementare Untervektorraume in V )

4.6 Definition: In obiger Situation sagt man: Der Vektorraum V ist die direkte Summeder beiden Unterraume W1 und W2. Wir schreiben in dieser Situation V = W1 ⊕W2.

4.7 Proposition: Ein Vektorraum V ist genau dann die direkte Summe seiner beidenUnterraume W1,W2, wenn gilt: Jedes Element v ∈ V kann eindeutig geschrieben werdenals

v = w1 + w2

mit wi ∈Wi (i=1,2).

Beweis: Sei etwa V = W1 ⊕W2 die direkte Summe seiner beiden Unterraume W1,W2.Nach Definition kann dann sicher jedes v ∈ V als Summe

v = w1 + w2

geschrieben werden. Angenommen, wir hatten zwei derartige Darstellungen

v = w1 + w2 = w′1 + w′

2

mit wi,w′i ∈Wi (i=1,2). Dann folgt sofort:

w1 − w′1 = w′

2 − w2 =: u

Daher folgt u ∈ W1, u ∈ W2 und damit u ∈ W1 ∩W2 = (0). Daher ist u = 0, weshalbw1 = w′

1, w2 = w′2 folgt. Genau das war zu zeigen.

Umgekehrt sei die eindeutige Darstellbarkeit wie oben gegeben. Sicher ist dann V =W1+W2. Angenommen, es ware W1∩W2 6= (0). Dann gabe es einen Vektor w ∈ W1∩W2,w 6= 0. Mit w1 =: w,w2 =: −w gilt dann

0 = 0 + 0 = w + (−w) .

Die Darstellung des Nullvektors ware also im Gegensatz zur Voraussetzung nicht ein-deutig. Damit folgt die Behauptung. �

4.8 Definition: Eine Teilmenge A eines K-Vektorraumes V heißt affiner Teilraum :⇔A ist von der Form

a+W := {a+ w | w ∈W} ,

wobei W ⊂ V ein Untervektorraum von V ist oder A = ∅, die leere Teilmenge von V .

20

Page 21: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4.9 Bemerkungen:

i) Ein affiner Teilraum A ist also, wenn er nicht leer ist, einfach ein um den Vektor a

”parallel verschobener“ Untervektorraum W .

ii) Der Vektor a ist durch den affinen Teilraum a + W nicht eindeutig bestimmt.Vielmehr gilt a+W = a′ +W genau dann, wenn a− a′ ∈W ist.

4.10 Beispiele:

i) Sei W = {0} der Nullvektorraum von V . Dann ist A = {a + 0 = a} einfach dieTeilmenge von V , die nur aus dem Vektor a besteht. Wir sprechen vom Punkt {a},der also durch den Vektor a gegeben ist, davon aber zu unterscheiden ist.

ii) Gegeben seien zwei verschiedene Vektoren a, b ∈ V . Sei A := a + K(b − a) ={a+λ(b−a) | λ ∈ K}. Offenbar enthalt der affine Teilraum A die Punkte {a} und{b} wegen a = a + 0(b− a) sowie b = a + 1(b− a). Man spricht von der Geradendurch die Punkte {a} und {b}.

iii) Jeder Untervektorraum W von V ist wegen W = 0+W auch ein affiner Teilraum.

4.11 Proposition: Eine Teilmenge A von V ist ein affiner Teilraum ⇔ zu je zwei ver-schiedenen Punkten {a}, {b} ⊂ A ist auch die Gerade durch {a} und {b} in A enthalten.

Beweis: Siehe Ubungen.

4.12 Erganzung: In 4.2 hatten wir den von r Vektoren {x1, . . . , xr} in V aufgespanntenUntervektorraum W von V eingefuhrt. Auch diese Konstruktion kann leicht verallge-meinert werden:Sei wieder I eine beliebige Indexmenge, fur jedes i ∈ I sei xi ∈ V ein Vektor. Der vondem System der {xi}(i ∈ I) erzeugte ( aufgespannte ) Untervektorraum von V ist

W :=

{

i∈I

λixi | λi ∈ K fur i ∈ I, fast alle λi = 0

}

.

Hierbei bedeutet”fast alle“: Alle bis auf endlich viele. Wir schreiben fur W auch:

W =∑

i∈I

Kxi

Es ist wieder der kleinste Untervektorraum, der alle Vektoren xi (i ∈ I) enthalt (bzw.alle Untervektorraume Kxi).

21

Page 22: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

4 Untervektorraume und affine Teilraume

22

Page 23: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5 Der Dimensionsbegriff

Wir hatten schon in der Einfuhrung das Problem genannt, den Begriff der Dimensioneines Vektorraumes genau festzulegen. Davon handelt dieser Abschnitt.

5.1 Definition: Ein System von r Vektoren {x1, . . . , xr} eines Vektorraumes V heißtlinear unabhangig :⇔ Die Gleichung:

r∑

i=1

λixi = 0 gilt nur, falls λ1 = λ2 = . . . = λr = 0 gilt.

Andernfalls heißt das System {x1, . . . , xr} linear abhangig .

5.2 Beispiele:

i) Das sogenannte System der Standardvektoren

{e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)}

im Kn ist linear unabhangig . Ware namlich

n∑

i=1

λiei = 0 im Kn, so folgt

(λ1, . . . , λn) = (0, . . . , 0) der Nullvektor, d. h.

λ1 = λ2 = . . . = λn = 0

ii) Zwei Vektoren im R2, die nicht auf einer Gerade durch den Nullpunkt liegen, sindlinear unabhangig. Drei oder mehr Vektoren im R2 sind immer linear abhangig.Das werden wir bald bewiesen haben.

iii) Ganz entsprechend sind drei Vektoren im R3 linear unabhangig, (genau) wenn sienicht auf einer Ebene durch den Nullpunkt liegen. Vier oder mehr Vektoren im R3

sind immer linear abhangig. Auch dies wird bald klar sein.

5.3 Folgerung: Ist {x1, . . . , xr} ein System von r linear abhangigen Vektoren, so kannwenigstens einer der Vektoren x1, . . . , xr durch die anderen dargestellt werden, d. h. esgibt i ∈ {1, . . . , r} sowie eine Darstellung

xi =r∑

j=1j 6=i

o

λjxj mit λj ∈ K .

23

Page 24: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5 Der Dimensionsbegriff

Beweis: Da {x1, . . . , xr} linear abhangig sind, besteht eine Gleichung

r∑

j=1

µjxj = 0

wobei nicht alle µj Null sind. Sei etwa µi 6= 0. Dann folgt sofort die Gleichung

xi = −r∑

j=1j 6=i

o

µjµixj

Setzen wir λj := −µj/µi so folgt die Behauptung. �

5.4 Folgerung: Ist {x1, . . . , xr} ein linear unabhangiges System von Vektoren und ist

x =r∑

j=1

λixi

eine Darstellung eines Vektors x ∈ V , so ist diese Darstellung eindeutig.

Beweis: Sei

x =r∑

i=1

µixi

eine weitere Darstellung von x als Linearkombination der Vektoren x1, . . . , xr. Es folgt

0 =r∑

i=1

(λi − µi)xi

Da {x1, . . . , xr} ein linear unabhangiges System ist, so folgt

λ1 − µ1 = . . . = λr − µr = 0 d. h.

λ1 = µ1, . . . , λr = µr

5.5 Definition: Ein System {x1, . . . , xr} ist ein Erzeugendensystem des VektorraumesV genau dann, wenn jeder Vektor x ∈ V als Linearkombination

x =

r∑

i=1

λixi

dargestellt werden kann.

Bemerkung: Es ist nicht gefordert, dass die Darstellung eindeutig ist, d. h. dass dieλ1, . . . , λr eindeutig bestimmt sind.

24

Page 25: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5.6 Proposition: Das System {x1, . . . , xr} ist ein Erzeugendensystem des VektorraumesV genau dann, wenn V von {x1, . . . , xr} aufgespannt wird, beziehungsweise wenn V derkleinste die x1, . . . , xr enthaltende Untervektorraum von V ist.

Beweis: Alles ist schon in 4.2 beziehungsweise 4.12 gezeigt. �

5.7 Definition: Ein System {x1, . . . , xn} in V ist eine Basis des Vektorraumes V genaudann, wenn das System {x1, . . . , xn} linear unabhangig ist, und ein Erzeugendensystemist.

5.8 Proposition: Ist {x1, . . . , xn} eine Basis des Vektorraumes V , so kann jeder Vektorx ∈ V eindeutig als Linearkombination

x =

n∑

i=1

ξixi

dargestellt werden. Die ξ1, . . . , ξn sind die Komponenten von x bezuglich der Basis{x1, . . . , xn}

5.9 Beispiele:

i) Im Kn hat man als Standardbasis das System der Vektoren

{e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, 0, . . . , 1)}

Naturlich gibt es viele andere Basen im Kn.

ii) Im R2 ist jedes System von zwei Vektoren {x, y}, die nicht beide auf einer Geradenliegen, eine Basis (Beweis kommt gleich viel allgemeiner unten). Man formulieredie entsprechende Aussage fur den R3 !

5.10 Proposition: Jedes endliche Erzeugendensystem {y1, . . . , ys} eines VektorraumesV besitzt ein Teilsystem, das eine Basis ist.

Beweis: Sei M = {i1, . . . , ir} ⊂ {1, . . . , s} eine minimale Teilmenge mit der Eigenschaft,dass {yi1, . . . , yir} immer noch ein Erzeugendensystem von V ist. Ware {yi1, . . . , yir} einlinear abhangiges System, so ließe sich einer der Vektoren yij durch die verbleibendenVektoren ausdrucken, das System

{yi1, . . . , yir} \ {yij}

ware dann immer noch ein Erzeugendensystem, im Gegensatz zur Annahme der Mini-malitat. �

25

Page 26: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5 Der Dimensionsbegriff

Wir kommen jetzt zu einem zentralen Punkt der Vorlesung.

5.11 Satz: (sogenannter Steinitz’scher Austauschsatz ){x1, . . . , xr} sei ein System linear unabhangiger Vektoren, {y1, . . . , ys} ein Erzeugenden-system des Vektorraumes V . Dann gibt es {i1, . . . , ir} ⊂ {1, . . . , s}, so dass das Systemvon Vektoren {y′1, . . . , y′s} mit y′ij := xj falls j = 1, . . . , r sowie sonst y′j := yj weiterhinErzeugendensystem von V ist. Speziell folgt die Ungleichung r ≤ s.

5.12 Bemerkung: Im Erzeugendensystem {y1, . . . , ys} werden also r der Vektoren (nam-lich yi1, yi2, . . . , yir) gegen die Vektoren x1, . . . , xr ausgetauscht . Man kann dabei nichtvon vornherein voraussagen, welche Indizes i1, . . . , ir gebraucht werden.

Beweis (von 5.11): (Durch vollstandige Induktion nach r)Wir zeigen die Behauptung zunachst fur r = 1. Da {y1, . . . , ys} ein Erzeugendensystemvon V ist, kann man x1 als Linearkombination

x1 =

s∑

i=1

λiyi

schreiben. Da nach Vorraussetzung das System {x1} linear unabhangig ist, folgt: x1 6= 0.Daher sind nicht alle λi oben Null. Sei λi1 6= 0. Dann tauschen wir yi1 gegen x1. Wirsetzen also

y′j := yj , falls j 6= i1

y′i1 := x1

yi1 wird also mit x1 ausgetauscht. Auf Grund der Relation

x1 =s∑

i=1

λiyi

folgt leicht: yi1 = λ−1i1x1 −

s∑

j=1j 6=i1

o

λ−1i1λjyj

= λ−1i1y′i1 −

s∑

j=1j 6=i1

o

λ−1i1λjy

′j

Daher folgt: yi1 ∈s∑

j=1

Ky′j

Wegen y′k = yk fur k 6= i1 folgt außerdem sofort:

yk ∈s∑

j=1

Ky′j fur k ∈ {1, . . . , s}, k 6= i1.

26

Page 27: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Dann ist aber

V =

s∑

j=1

Kyj ⊂s∑

j=1

Ky′j ⊂ V

Offenbar gilt daher die Gleichheit

s∑

j=1

Ky′j = V

d. h. {y′1, . . . , y′s} ist ein Erzeugendensystem von V .

Induktionsschritt: Sei der Austauschsatz also fur den Fall wahr, dass man ein linear un-abhangiges System der Ordnung r − 1 vorliegen hat.Sei jetzt {x1 . . . , xr} ein linear unabhangiges System der Ordnung r. Nach Indukti-onsvorraussetzung kann man i1, . . . , ir−1 ∈ {1, . . . , s} finden, so dass xj gegen yij furj = 1, . . . , r − 1 ausgetauscht werden kann und das neue System y′′1 , . . . , y

′′s weiterhin

Erzeugendensystem ist. Es bleibt ubrig, xr zu vertauschen.Da {y′′1 , . . . , y′′s} ein Erzeugendensystem ist, findet man eine Darstellung

xr =s∑

j=1

βjy′′j mit βj ∈ K .

Man findet nun einen Index ir := j 6∈ {i1, . . . , ir−1} mit βj 6= 0 !Andernfalls hatte man eine Darstellung der Form

xr =

r−1∑

j=1

βjxj .

Das wurde aber der linearen Unabhangigkeit des Systems {x1, . . . , xr} widersprechen.Jetzt tauscht man xr mit yir und schließt wie oben. Damit ist der Steinitz’sche Aus-tauschsatz bewiesen. �

5.13 Satz: {e1, . . . , en} sei Basis des Vektorraumes V . Jede andere Basis hat dann eben-falls n Elemente.

Beweis: Seien also {e1, . . . , en} und {f1, . . . , fm} Basen von V . Nach Satz 5.11 folgt, da{e1, . . . , en} insbesondere ein linear unabhangiges System ist, und {f1, . . . , fm} als Basisinsbesondere ein Erzeugendensystem ist, n ≤ m. Andersherum schließt man entspre-chend m ≤ n. Daher folgt n = m. �

5.14 Definition: Besitzt ein Vektorraum V uberhaupt eine (endliche) Basis {e1, . . . , en},so heißt n die Dimension des Vektorraumes V . Man spricht von einem n-dimensionalen

27

Page 28: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5 Der Dimensionsbegriff

Vektorraum. Besitzt V keine (endliche) Basis, so spricht man von einem unendlichdi-mensionalen Vektorraum.

5.15 Bemerkung: Im zweiten Teil der Vorlesung werden wir sehen, dass auch unendlich-dimensionale Vektorraume eine Basis haben (naturlich besteht diese dann nicht mehraus endlich vielen Vektoren). Die Dimension als Zahl wird dann ersetzt durch die soge-nannte Machtigkeit (im Sinne der Mengenlehre) einer solchen Basis. Als solche wird siewieder eindeutig bestimmt sein.

5.16 Satz: Sei V ein n-dimensionaler Vektorraum. Dann gilt

i) Jedes linear unabhangige System von n Vektoren {x1, . . . , xn} ist notwendig einErzeugendensystem, also eine Basis.

ii) Jedes Erzeugendensystem {x1, . . . , xn} von V ist notwendig auch linear unabhan-gig, also eine Basis.

Beweis: Sei {y1, . . . , yn} eine Basis von V .

Zu i) Nach dem Steinitz’schen Austauschsatz konnen wir das System der Vektoren{x1, . . . , xn} so gegen das System {y1, . . . , yn} tauschen, dass das neue System einErzeugendensystem bleibt. Dies besagt aber gerade: das System {x1, x2, . . . , xn}ist ein Erzeugendensystem. Dies zeigt (i).

Zu ii) Nach 5.10 konnen wir aus dem Erzeugendensystem {x1, . . . , xn} so Vektoren weg-lassen, dass das Teilsystem zugleich Erzeugendensystem bleibt und linear unab-hangig ist, also eine Basis aus weniger als n Vektoren ware. Das geht nach Satz5.13 nicht, (ii) folgt. �

5.17 Folgerung: Jedes linear unabhangige System {x1, . . . , xr} eines endlichdimensio-nalen Vektorraumes kann zu einer Basis erganzt werden.

Beweis: Sei {y1, . . . , ys} eine Basis von V . Anwendung des Steinitz’schen Austauschsatzesergibt eine Erganzung {y′1, . . . , y′s} des Systems {x1, . . . , xr}, in dem die xj passend gegenyij getauscht werden, so dass {y′1, . . . , y′s} ein Erzeugendensystem ist. Nach Satz 5.13 (ii)ist es dann notwendig linear unabhangig, also sogar eine Basis. �

5.18 Folgerung: Sei V ein n-dimensionaler Vektorraum.Dann ist jedes System {x1, . . . , xr} von mehr als n Vektoren (also r > n) linear abhangig.

Beweis: Sei {y1, . . . , yn} eine Basis. Angenommen, {x1, . . . , xr} ware doch linear unab-hangig. Dann konnten wir die Vektoren x1, x2, . . . , xr gegen passende der y1, y2, . . . , ynaustauschen, so dass das neue System ein Erzeugendensystem (sogar eine Basis) bliebe.Dann ist aber r ≤ n, im Widerspruch zur Vorraussetznug. �

28

Page 29: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5.19 Folgerung: Sei V ein endlichdimensionaler Teilraum, U ⊂ V ein Untervektorraum.Dann gilt:

dim(U) ≤ dim(V )

Beweis: Sei etwa {x1, . . . , xn} eine Basis von V . Wir zeigen noch einmal folgendes ein-fache Resultat, was eigentlich in 5.11 enthalten ist.

Ist {y1, y2, . . . , ym} ein linear unabhangiges System von Vektoren aus U , das keineBasis ist (also, mit anderen Worten, kein Erzeugendensystem ist), so findet man einenVektor ym+1 ∈ U , der sich nicht durch die Vektoren y1, . . . , ym linear darstellen lasst, furden also gilt:

ym+1 6∈m∑

i=1

Kyi

Dann ist aber, wie man sofort sieht, das System {y1, . . . , ym+1} linear unabhangig. DiesesVerfahren zur Konstruktion eines Systems {y1, . . . , ym} werde solange fortgesetzt, bis{y1, . . . , ym} ein Erzeugendensystem von U ist oder m = n gilt. Im ersten Fall sind wirfertig, im zweiten Fall mit 5.16 (i) ebenfalls. �

29

Page 30: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5 Der Dimensionsbegriff

30

Page 31: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5A Der Korperbegriff

Der Bereich der Skalare wird in dieser Vorlesung meistens die Menge R aller reellenZahlen sein. Wir benotigen nur die einfachsten Rechenregeln fur das Rechnen mit reellenZahlen. Dies legt nahe, diese Regeln zusammenzustellen. Dies wird uns unmittelbar aufden Begriff der sogenannten Korper fuhren. Wir haben folgende

5A.1 Definition: Ein Korper (K,+, ·) (oder einfach K) ist eine Menge K, auf der zweisogenannte Verknupfungen "+" (die sogenannte Addition) und "·" (die Multiplikationdes Korpers) festgelegt sind, so dass fur zwei beliebige Elemente α, β ∈ K ihre Summeα+β ∈ K sowie ihr Produkt (α ·β) ∈ K definiert sind und fur die folgende Rechenregelngelten:

Fur α, β, γ, . . . ∈ K beliebig gilt

(1) (α + β) + γ = α + (β + γ) (Assoziativgesetz der Addition)

(2) α + β = β + α (Kommutativgesetz der Addition)

(3) Es gibt ein Element 0 ∈ K, so dass α + 0 = 0 + α = α gilt (fur alle α ∈ K).(Existenz eines sogenannten neutralen Elements fur die Addition)

(4) Zu jedem Element α ∈ K existiert ein Element β ∈ K mit α+ β (= β + α) = 0

(5) (α · β) · γ = (α · β · γ) (Assoziativgesetz der Multiplikation)

(6) α · β = β · α (Kommutativgesetz der Multiplikation)

(7) Es gibt ein Element 1 ∈ K, das Einselement im Korper, so dass α · 1 = 1 · α = αgilt fur alle α ∈ K. (Existenz eines neutralen Elements fur die Multiplikation)

(8) Zu jedem Element α 6= 0 in K gibt es ein Element β ∈ K mit α · β = β · α = 1(Existenz eines inversen Elementes fur die Multiplikation)

(9) Es ist 1 6= 0, d.h. ein Korper K besitzt wenigstens zwei verschiedene Elemente.

Die Verbindung zwischen der Verknupfung der Addition und der der Multiplikation wirddurch das sogenannte Distributivgesetz hergestellt.

(10) Es ist α(β + γ) = αβ + αγ fur alle α, β, γ ∈ K.

31

Page 32: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5A Der Korperbegriff

5A.2 Beispiele:

i) K = R, der Korper der gewohnlichen reellen Zahlen mit ublicher Addition undMultiplikation als Verknupfung.

ii) K = Q = { rs|r, s ∈ Z, s 6= 0}, die Menge aller Bruche aus ganzen Zahlen, mit Addi-

tion und Multiplikation als Verknupfung. Man uberzeugt sich leicht, dass (Q,+, ·)ein Korper ist, der Korper der rationalen Zahlen, ein fundamentales Objekt derZahlentheorie.

iii) Wegen Axiom (9) besitzt jeder Korper wenigstens zwei verschiedene Elemente 0, 1.Gibt es vielleicht einen Korper aus nur zwei Elementen? Offenbar liegt die Additionund Multiplikation im Wesentlichen fest: Sicherlich soll wegen (3) 0+0 = 0, 1+0 =0 + 1 = 1 sein. Wie steht es mit 1 + 1, was alleine noch verbleibt. Wegen (4) gibtes zu 1 wenigstens ein Element β mit 1 + β = 0. β ist nicht 0 wegen 1 + 0 = 1 6= 0(nach (9) ). Also ist β notwendig 1. Also 1 + 1 = 0. Damit liegt die Additionvollkommen fest. Nach (7) wissen wir fur die Multiplikation α · 1 = 1 · α = α.Es bleibt also noch 0 · 0 festzulegen. Naturlich setzen wir 0 · 0 = 0 (unten werdenwir sehen, dass das ebenfalls zwangslaufig ist). Damit haben wir gezeigt: Wennes uberhaupt einen Korper aus genau zwei Elementen gibt, so sind die Additionund Multiplikation wie oben festzulegen. Dies beweist aber noch nicht, dass unsereMenge {0, 1} =: F2 mit dieser Addition und Multiplikation wirklich ein Korper ist.Dazu sind die Axiome (1) bis (10) Fall fur Fall genau nachzuprufen. Etwas lastigsind dabei nur die Regeln (1), (5), (10). Tatsachlich klappt alles und wir haben in{F2,+, ·} einen Korper aus zwei Elementen konstruiert.

iv) Noch etwas Exotisches: Verlangt man Axiom (9) nicht, so wird eine MengeK = {0}mit 0+0 = 0 tatsachlich samtliche anderen Forderungen (1) bis (10) erfullen. Es istinsbesondere 1 = 0. Es ist aber zweckmaßig, dies nicht als Korper anzuerkennen.

Ehe wir den fur uns in dieser Vorlesung besonders interessanten Korper der kom-plexen Zahlen konstruieren werden, wollen wir eine Reihe einfacher Folgerungenaus den Axiomen (1) bis (10) ziehen.

5A.3 Folgerung: Es gibt genau ein neutrales Element der Addition (Nullelement) undder Multiplikation (Einselement).

Beweis: Seien 0, 0′ ∈ K Elemente aus K mit α+0 = 0+α = α bzw. α+0′ = 0′ +α = αfur alle α ∈ K. Einsetzen von α = 0′ bzw. α = 0 ergibt 0′ + 0 = 0′ sowie 0′ + 0 = 0.Daher folgt 0′ = 0. Der Beweis fur das Einselement geht genauso. �

5A.4 Folgerung:

i) Zu α ∈ K gibt es genau ein Element β ∈ K mit α+ β = 0

32

Page 33: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

ii) Ist α 6= 0, so gibt es genau ein Element γ ∈ K mit α · γ = 1.

Wir schreiben β = −α bzw. γ = α−1.

Beweis:

i) Angenommen, wir haben β, β ′ ∈ K mit α + β = 0, α+ β ′ = 0Betrachte dann

(α + β) + β ′ = α+ (β + β ′) = α + (β ′ + β) = (α+ β ′) + β

Aber(α + β) + β ′ = 0 + β ′ = β ′

(α + β ′) + β = 0 + β = β

}

Daher folgt β = β ′.

ii) Entsprechend sei bei der Multiplikation γ, γ′ ∈ K mit α · γ = 1, α · γ′ = 1

Betrachte(α · γ) · γ′ = α · (γ · γ′) = α(γ′γ) = (αγ′)γ

Aber(αγ)γ′ = 1 · γ′ = γ′

(αγ′)γ = 1 · γ = γ

}

Daher folgt γ = γ′.Daher gibt es in beiden Fallen hochstens ein derartiges Element β bzw. γ. Nach 4)

bzw. 8) gibt es aber auch ein Element β bzw. γ. Die Behauptung folgt. �

Allgemeiner gilt die

5A.5 Folgerung:

i) Zu α, β ∈ K existiert genau ein Element x ∈ K, namlich x = β + (−α), mit derEigenschaft

α+ x = β

ii) Ist zusatzlich α 6= 0, so gibt es genau ein Element y ∈ K, namlich y = α−1 · β mitder Eigenschaft

α · y = β

Beweis: Wir zeigen etwa ii), die beiden Falle sind ganz analog. Wegen α 6= 0 existiertjedenfalls α−1 ∈ K. Sicherlich ist α ·(α−1β) = (αα−1)β = 1 ·β = β. Sei umgekehrt x ∈ Kmit α · x = β. Dann folgt α−1 · (αx) = α−1 · β, aber α−1(αx) = (α−1α)x = 1 · x = x,daher x = α−1β, die Behauptung ii) folgt. i) geht entsprechend. �

33

Page 34: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5A Der Korperbegriff

5A.6 Folgerung: Sei α ∈ K beliebig. Dann ist α · 0 = 0 · α = 0

Beweis: Betrachte 0+0 = 0, daher folgt α · (0+0) = α ·0. Nach (10) ist aber α · (0+0) =α · 0 +α · 0. Also ist die Gleichung α · 0 + x = α · 0 losbar mit x = 0, aber auch mit α · 0.Die Losung ist aber nach Folgerung 5A.5,(i) eindeutig. Daher ist α · 0 = 0. �

5A.7 Folgerung:

i) Es ist −(−α) = α

ii) Es ist (−α) · β = −(αβ)

iii) Es ist (−α)(−β) = α · β

Beweis:

i) −(−α) ist nach 5A.4,(i) die Losung der Gleichung (−α)+x = 0. Aber auch x = αist eine Losung dieser Gleichung. Auf Grund der Eindeutigkeit folgt −(−α) = α

ii) Es ist α+(−α) = 0. Daher ist (α+(−α))β = 0 ·β = 0, daher αβ+(−α)β = 0 nach5A.1,(10). Die Gleichung α · β + x = 0 wird eindeutig gelost durch x = −(αβ).Damit folgt nach 5A.4,(i) −(αβ) = (−α)β.

iii)(−α)(−β) = −(α · (−β)) = −(−(αβ)) = αβ

nach i) und ii) �

Bemerkung: Die Korperaxiome implizieren also ganz zwangslaufig die ublichen Vorzei-chenregeln. Ganz entsprechend zeigt man etwa die Regeln (α−1)−1 = α sowie (α−1β)−1 =β−1α, sofern α 6= 0, β 6= 0. Der Vollstandigkeit halber beweisen wir noch die ublichenRegeln der

”Bruchrechnung“. Fur α−1β schreiben wir dabei auch β

α.

5A.8 Folgerung: Es seien α, β, γ, δ ∈ K, β, δ 6= 0. Dann gilt

i) Es ist αβ

= αδβδ

, speziell ist βδ 6= 0.

ii) Es ist αβ± γ

δ= αδ±βγ

βδ

iii) αβ· γδ

= αγβδ

Beweis: Zunachst zeigen wir: β, δ 6= 0, dann ist auch βδ 6= 0. Dies zeigen wir indirekt.Angenommen also, es ware βδ = 0. Da β 6= 0 ist, existiert β−1, aber dann ist 0 =β−1 · 0 = β−1(βδ) = 1 · δ = δ. Also δ = 0 im Widerspruch zur Voraussetzung.

34

Page 35: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Zu i) Es ist

αδ

βδ= αδ(βδ)−1

= αδ(δ−1β−1)

= α(δδ−1)β−1 = αβ−1 =α

β

ii)

α

β+γ

δ=αδ

βδ+βγ

βδnach i)

= (αδ)(βδ)−1 + (βγ)(βδ)−1

= (αδ + βγ)(βδ)−1 (Distributivgesetz)

=αδ + βγ

βδ

iii)

α

β· γδ

= αβ−1γδ−1

= αγ(βδ)−1 nach 5A.7, Bemerkung

=αγ

βδ

Bemerkung: Nach dem Gesagten ist klar, dass die Axiomatik des Korperbegriffs sehrgenau das sogenannte

”Buchstabenrechnen“ auf den Begriff bringt. Der Vorteil ist, dass

wir die einschlagigen Rechenregeln damit fur alle Korper gewinnen, z.B. auch fur solcheandersartigen Beispiele wie F2.

35

Page 36: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5A Der Korperbegriff

36

Page 37: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5B Der Korper der komplexen Zahlen

Dieser ist nachst dem Korper R der reellen Zahlen der wichtigste Rechenbereich furdie Belange der Physik und der Naturwissenschaften. Naturlich spielt er auch in derMathematik eine zentrale Rolle.

Es ist erstaunlich, wie lange es historisch gedauert hat, bis die Mathematiker diekomplexen Zahlen als gleichberechtigt anerkannt haben. Zwar hat zum Beispiel Euler im18. Jahrhundert viel mit komplexen Zahlen gerechnet, die schone Formel

eix = cos x+ i sin x

stammt ja von ihm.Aber erst im 19. Jahrhundert wurde dann ganz systematisch mit komplexen Zahlen

gearbeitet und gesehen, dass sie in vieler Hinsicht sich bei weitem besser als die reellenZahlen verhalten.

Man mochte also den Bereich der reellen Zahlen erweitern und etwa die quadratischeGleichung

x2 = −1

losen konnen. Man fuhrt daher”formal“ die Wurzel

√−1 =: i als Losung der obigen

Gleichung ein und rechnet dann”wie gewohnt“.

Beispielsweise wird man sicherlich mit a, b, c, d ∈ R rechnen:

(a + b√−1) + (c+ d

√−1) = a+ c+ (b+ d)

√−1

sowie

(a+ b√−1)(c+ d

√−1) = ac + bc

√−1 + ad

√−1 + bd(

√−1)2

= (ac− bd) + (bc+ ad)√−1 .

Speziell ergibt sich die wichtige Formel

(a+ b√−1)(a− b

√−1) = a2 + b2 .

Damit lasst sich leicht das Inverse einer komplexen Zahl berechnen, namlich fur a +b√−1 6= 0

1

a+ b√−1

=a− b

√−1

(a+ b√−1)(a− b

√−1)

=a− b

√−1

a2 + b2

=

(

a

a2 + b2− b

a2 + b2√−1

)

.

37

Page 38: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5B Der Korper der komplexen Zahlen

Also lassen sich Inverse solcher komplexer Zahlen problemlos bestimmen.

Naturlich ist die obige Herleitung etwas unbefriedigend, man fuhrt√−1 formal ein, aber

was genau soll das heißen? Und was bedeutet”wir rechnen wie gewohnt“?

Wir geben daher noch einmal folgende Konstruktion, die formal unangreifbar ist, dieEntstehung aber etwas verdeckt:

Konstruktion: Wir betrachten den reellen Vektorraum R2 und legen auf ihm die folgendenRechenverknupfungen fest.

Addition: Fur zwei beliebige Elemente (a, b), (c, d) ∈ R2 sei ihre Summe definiert als

(a, b) + (c, d) := (a+ c, b+ d) .

Bemerkung: Dies ist also einfach die ubliche Addition im Vektorraum R2.

Multiplikation: Diese wird entsprechend zu der obigen Formel festgelegt:

(a, b) · (c, d) := (ac− bd, bc + ad)

5B.1 Satz: Der R2, versehen mit der obigen Addition und Multiplikation, bildet einenKorper, den sogenannten Korper der komplexen Zahlen. Bezeichnung: C.

Beweis: Die Rechenregeln fur die Addition sind klar, da es sich um den R2 handelt. DasNullelement ist dabei (0, 0) = 0.Die Rechenregeln fur die Multiplikation konnen wir nachrechnen, was dem Leser uberlas-sen bleibe. Es sei nur erwahnt, dass das Einselement als (1, 0) gegeben ist. Ein Element(a, b) 6= (0, 0) = 0 hat als inverses Element

(a, b)−1 =

(

a

a2 + b2,

−ba2 + b2

)

.

Wir werden spater die Korperaxiome beinahe ganz ohne Rechnung im Rahmen derMatrizenrechnung einsehen. �

Bemerkung:

i) Der Vorteil bei dieser Einfuhrung der komplexen Zahlen ist offenbar, dass jedwederMystizismus verschwunden ist. Die

”Zahl

√−1“ ist hier einfach das Tupel (0, 1) ∈

R2 geworden. Man rechnet sofort nach:

(0, 1)2 = (−1, 0) = −1 ,

wobei 1 = (1, 0) ∈ C das Einselement des Korpers ist.

38

Page 39: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

ii) Weiter bietet sich bei dieser Beschreibung unmittelbar die auf Gauß zuruckgehendeInterpretation der komplexen Zahlen als Vektoren (oder Punkte) in der Ebene R2

an.

Jetzt konnen wir auch leicht auf die alte Schreibweise der komplexen Zahlen zu-ruckkommen. Schreiben wir fur a, b ∈ R fur (a, 0) bzw. (b, 0) einfachheitshalber abzw. b, fur (0, 1) einfachheitshalber i, so ergibt sich sofort die Gleichung

(a, b) = a+ bi .

Wir werden von nun an, wenn wir es mit komplexen Zahlen zu tun haben, wiedervorzugsweise diese Darstellung benutzen.

Komplexe Konjugation: Diese bezeichnet die Abbildung C → C

z = a+ bi 7→ a− bi =: a+ bi = z ,

die folgende schone Eigenschaften hat:

z1 + z2 = z1 + z2

z1 · z2 = z1 · z2Man sagt auch: Die Abbildung z 7→ z ist ein Korperautomorphismus. Die Rechengesetzebleiben bei einem solchen Automorphismus also genau erhalten.

Mit z = a+ bi ist offenbar zz = a2 + b2. Die positive reelle Wurzel

(zz)1

2 = (a2 + b2)1

2 =: |z|

bezeichnet den Abstand zum Nullpunkt. Es gilt fur z1, z2 ∈ C

|z1z2| = [(z1z2) (z1z2)]1

2

= (z1z2z1 z2)1

2

= (z1z1)1

2 (z2z2)1

2

= |z1| |z2|

Bemerkung: Nicht allein, dass man jetzt im Korper C die Gleichung x2 = −1 losen kann.Die Sache ist noch viel besser. Jede Polynomgleichung der Form

xn + an−1xn−1 + · · ·+ a1x+ a0 = 0

mit komplexen Zahlen a0, a1, . . . , an−1 hat Nullstellen in C (und zwar mit Vielfachheitgezahlt: n Nullstellen).

Dies besagt der sogenannte Fundamentalsatz der Algebra, den wir hier aber nicht bewei-sen wollen. Dies geschieht vielmehr erst, je nach Geschmack, in der Algebra-Vorlesungalgebraisch, oder mit analytischen Hilfsmitteln in der Funktionentheorie-Vorlesung.

39

Page 40: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

5B Der Korper der komplexen Zahlen

40

Page 41: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

6 Erganzungen zum Dimensionsbegriff

Wir beweisen zunachst die oft nutzliche Dimensionsformel.

6.1 Satz: V sei ein Vektorraum uber dem Korper K. U1, U2 seien Untervektorraume.Dann gilt dim(U1) + dim(U2) = dim(U1 ∩ U2) + dim(U1 + U2).

6.2 Bemerkung: Ist dabei wenigstens einer der Summanden auf einer Seite unendlichdimensional, so ist auch wenigstens einer der Terme auf der anderen Seite unendlichdimensional.

Beweis:

I) Seien zunachst U1 und U2 endlich dimensional. Dann ist (U1 ∩ U2) als Teilraumetwa von U1 ebenfalls endlichdimensional. Sei S12 := {e1, . . . , en1,2

} eine Basis von(U1 ∩ U2) . Wir erganzen diese nach 5.17 zu einer Basis.

S1 := {e1, . . . , en1,2, . . . , en1

}

von U1 bzw.S2 := {e1, . . . , en1,2

, e′n1,2+1, . . . , e′n2}

von U2.

Wir zeigen, dass dann das System

S := {e1, . . . , en1,2, . . . , en1

, e′n1,2+1, . . . , e′n2}

eine Basis von (U1 + U2) ist.

Danach ist

dim(U1 ∩ U2) = n12

dim(U1 + U2) = (n1 + n2 − n12)

Wegenn1 + n2 = n12 + (n1 + n2 − n12)

folgt die obige Behauptung.

Wir zeigen also, dass S eine Basis von (U1 + U2) ist.

Sicherlich gilt fur den von der Menge S erzeugten Untervektorraum 〈S〉:

〈S〉 ⊃ U1, U2

41

Page 42: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

6 Erganzungen zum Dimensionsbegriff

Daher folgt〈S〉 ⊃ U1 + U2.

Daher ist S ein Erzeugendensystem des Vektorraums (U1 + U2).

Bleibt die lineare Unabhangigkeit des Systems S zu zeigen.

Angenommen, man hatte eine nichttriviale Relation

n1∑

i=1

λiei +n2∑

i=n12+1

λ′ie′i = 0

Hieraus folgt:n1∑

i=1

λiei =

n2∑

i=n12+1

(−λ′i)e′i =: v

Betrachtet man die linke Seite der Gleichung, so folgt v ∈ U1, betrachtet man dierechte Seite, so folgt v ∈ U2. Daher folgt v ∈ U1 ∩ U2.

Es gibt daher λ′1, . . . , λ′n1,2

∈ K, so dass gilt:

v =

n1,2∑

i=1

λ′ie′i

Einsetzen der rechten Seiten ergibt:

n2∑

i=n1,2+1

(−λ′i)e′i =

n1,2∑

i=1

λ′ie′i

Insgesamt also:n2∑

i=1

λ′ie′i = 0

Da das System {e′1, . . . , e′n2} = S2 als Basis von U2 linear unabhangig ist, folgt:

λ′1 = . . . = λ′n2= 0

Dann folgt aber durch Einsetzen sofort:

n1∑

i=1

λiei = 0

Da {e1, . . . , en1} = S1 eine Basis von U1 ist, folgt λ1 = . . . = λn1

= 0Damit ist die lineare Unabhangigkeit von S gezeigt. Die Behauptung folgt.

II) Wir nehmen jetzt an, dass eine der beiden Dimensionen dim(U1) oder dim(U2)unendlich ist.

Dann ist aber dim(U1 + U2) auch unendlich, denn andernfalls ware dim(U1 + U2)endlich. Damit waren aber auch die beiden Teilraume U1, U2 von (U1 + U2) end-lichdimensional, im Gegensatz zur Annahme. �

42

Page 43: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Konstruktive Losung einer Grundaufgabe

6.3 Folgerung: Gilt fur zwei Teilraume U1, U2 von V

dim(U1) + dim(U2) > dim(V )

so ist (U1 ∩ U2) 6= (0), d. h. die beiden Untervektorraume haben nichttrivialen Durch-schnitt

Beweis: Offenbar muß wegen der Dimensionsgleichung dim(U1 ∩ U2) > 0 sein. Die Be-hauptung folgt. �

Konstruktive Losung einer Grundaufgabe

Wir wollen folgendes Problem losen. Gegeben sei der StandardvektorraumV = Kn, zum Beispiel der Rn, sowie ein System

S = {a1, a2, a3, . . . , am}

von m Vektoren

ai = (αi1, αi2, . . . , αin) fur i = 1 . . .m.

Gesucht sind eine Basis und die Dimension des von S erzeugten Untervektorraums 〈S〉von V .

Die folgenden drei Prozesse andern den von S erzeugten Untervektorraum 〈S〉 nicht:

1) Vertauschung der Vektoren {a1, a2, . . . , am} im System S.

2) Ersetzen eines Vektors ai durch ein skalares Vielfaches λiai mit λi 6= 0.

3) Ersetzen eines Vektors ai aus dem System S durch einen Vektor

ai + λjaj mit j ∈ {1, . . . , m}, j 6= i, λj ∈ K.

(Die ausfuhrlichen Beweise bleiben den Ubungen vorbehalten, sind aber nicht schwer.)Wir fassen das System der Vektoren ai (i = 1, . . . , m) jetzt zu einem rechteckigen

Schema von Elementen aus K zusammen:

α11 , α12 , . . . , α1n

α21 , α22 , . . . , α2n... ,

... , ,...

αm1 , αm2 , . . . , αmn

Hierbei ist also die sogenannte i-te Zeile

(αi1, αi2, . . . , αin) = ai ∈ Kn

43

Page 44: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

6 Erganzungen zum Dimensionsbegriff

der Vektor ai. Wir haben m Zeilen und n sogenannte Spalten. Die j-te Spalte hat alsodie Gestalt

α1j

α2j...

αmj

(j = 1, . . . , n)

6.4 Definition: Ein solches Schema heisst Matrix oder genauer eine(m× n)-Matrix (m Zeilen, n Spalten).

6.5 Bemerkung: Wir schreiben dafur haufig in kurzerer Form:

(αij)1≤i≤m1≤j≤n

=: A

Die oben genannten Prozesse (1), (2), (3) konnen in Termen der Matrix A also auch sobeschrieben werden:

1) bedeutet eine Vertauschung von Zeilen der Matrix,

2) bedeutet Multiplikation der i-ten Zeile mit einem Skalar λi,

3) schließlich bedeutet Addition des λj -fachen der j-ten Zeile zur i-ten Zeile (i 6= j !).

(wobei bei (2), (3) die ubrigen Zeilen nicht verandert werden, in (3) wird also insbeson-dere die j-te Zeile nicht verandert).

Mittels (1), (2) und (3) werden wir jetzt durch Umformung der Matrix eine Basiserhalten: Wir gehen induktiv vor.

Sei i1 minimal, so dass die i1-te Spalte der Matrix A eine Komponente 6= 0 enthalt.Mittels (1) (Vertauschung von Zeilen) konnen wir annehmen, dass dies gerade die Kom-ponenten α1,i1 ist.

Mittels (2) multiplizieren wir die erste Zeile mit α−11,i1

und konnen daher o.E.d.A.α1,i1 = 1 annehmen. Schließlich subtrahieren wir jetzt das αj,i1-fache der ersten Zeile vonder j-ten Zeile fur j = 2, . . . , m und konnen dann o.E.d.A. αj,i1 = 0 fur j = 2, . . . , mannehmen.

Induktionsschritt: Sei jetzt die Matrix A bereits so weit bearbeitet, dass

α1,i1 = α2,i2 = . . . = αr,ir = 1

mit 1 ≤ i1 < i2 < . . . < ir ≤ n ist (und naturlich r ≤ m), ferner seien die Komponentenαjk der j-ten Zeile fur 1 ≤ j ≤ r, die links von αj,ij stehen (fur die also 1 ≤ k < ijist) alle Null. Weiter sind die αjk mit j > r, k ≤ ir alle Null (der Leser mache sich eineSkizze).

Wir betrachten jetzt das System der verbleibenden Zeilenvektoren

{ar+1, . . . , am}

44

Page 45: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Konstruktive Losung einer Grundaufgabe

und die sich daraus ergebende Matrix A′ (die also aus A durch Streichen der ersten rZeilen entsteht).

Auf A′ wenden wir jetzt den oben beschriebenen ersten Schritt des Verfahrens an underhalten mit Hilfe der Prozesse (1), (2), (3)

α1,i1 = . . . = αr,ir = αr+1,ir+1= 1

etc. Dabei ist nach Annahme im Induktionsschritt ir+1 > ir.Damit ist der Induktionsschritt vollzogen.

Da 1 ≤ i1 < i2 < . . . < ir < . . . ≤ n gelten muß, ist gesichert, dass das Verfahrenabbrechen muß, etwa nach dem k-ten Schritt. Die hier eben betrachtete Matrix A′ wirddann die Null-Matrix sein, dass sich ergebende System der Vektoren{a′1, . . . , a′k} ist sicher ein Erzeugendensystem des Untervektorraumes 〈a1, a2, . . . , am〉 desKn, der von a1, a2, . . . , am aufgespannt wird.

Die lineare Unabhangigkeit sieht man sofort so ein: Angenommen, es bestunde eineRelation

k∑

i=1

λia′i = 0

Wir betrachten die i1-te Komponente der Vektoren a′i. Nach Konstruktion gilt

α′1,i1

= 1, α′2,i1

= . . . = α′k,i1

= 0

Daher folgt sofort λ1 = 0. Entsprechende Betrachtung der i2, . . . , ik-ten Komponenteliefert die Behauptung. �

Zum Abschluß dieses Abschnitts definieren wir noch, was die Dimension eines affinenTeilraumes eines Vektorraumes V sein soll.

6.6 Definition:

i) Sei X = a + U ein affiner Teilraum von V , wobei also a ∈ V ein Vektor, U ⊂ Vein Untervektorraum von V ist. Es sei

dim(X) := dim(U)

ii) Ist X = ∅ die leere Menge, so sei dim(X) (per Konvention!) gleich (−1).

6.7 Bemerkung:

i) Die Dimension eines affinen Raumes ist also, falls er nicht leer ist, gegeben durchdie Dimension des zu Grunde liegenden Untervektorraumes.

ii) Ist dim(X) = dim(V ) − 1 so spricht man von einer affinen Hyperebene.

45

Page 46: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

6 Erganzungen zum Dimensionsbegriff

46

Page 47: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

7 Lineare Abbildungen

Aus dem Geometrieunterricht in der Schule wird der Leser bereits Beispiele von linearenAbbildungen kennen, etwa Drehungen, zentrische Streckungen, Spiegelungen oder Sche-rungen. Parallelverschiebungen (Translationen), die ebenfalls eine wichtige Rolle spielen,werden spater behandelt, da wir zunachst immer voraussetzen wollen, dass ein Punkt,der Nullvektor, fest bleibt.

Was ist den eben genannten Abbildungen einer Ebene in sich gemeinsam, was manzu einer allgemeinen Definition heranziehen konnte? Offenbar ist das Bild eines Par-allelogramms, auch wenn sich Winkel und Seitenlangen verandert haben, wieder einParallelogramm. Dies deutet darauf hin, dass das Bild einer Summe von Vektoren dieSumme der Bilder der Vektoren sein sollte. Dies fuhrt auf die folgende ganz allgemeine

7.1 Definition: V,W seien Vektorraume uber dem Korper K.Eine Abbildung ϕ : V →W heißt lineare Abbildung, falls gilt:

i) ϕ(x+ y) = ϕ(x) + ϕ(y) fur alle Vektoren x, y ∈ V

ii) ϕ(λx) = λϕ(x) fur alle x ∈ V, λ ∈ K

7.2 Folgerung: Fur x1, . . . , xr ∈ V , λ1, . . . , λk ∈ K beliebig gilt:

ϕ

(

r∑

i=1

λixi

)

=r∑

i=1

λiϕ(xi)

7.3 Bemerkung: Aus ii) folgt sofort ϕ(0) = ϕ(0 · 0) = 0 · ϕ(0) = 0 (0 in zweiBedeutungen, als Element von V bzw. von K).

7.4 Folgerung und Definition: Sei ϕ : V → W eine lineare Abbildung. U ⊂ V sei einUntervektorraum von V . Dann ist die Bildmenge ϕ(U) in W ein Untervektorraum vonW. Ist speziell U = V , so ist die Menge ϕ(V ) als Untervektorraum von W das sog. BildIm(ϕ).

Beweis: Seien ϕ(x), ϕ(y) ∈ ϕ(U) zwei beliebige Vektoren. Dann ist aber ihre Summeϕ(x) + ϕ(y) = ϕ(x+ y) ∈ ϕ(U) ebenfalls aus ϕ(U). Entsprechend ist λϕ(x) = ϕ(λx) ∈ϕ(U) fur alle λ ∈ K. Damit folgt die Behauptung. �

7.3’ Beispiele: Wir hatten bereits Beispiele aus der Elementargemometrie erwahnt. Einesehr allgemeine Klasse von Beispielen linearer Abbildungen ergibt sich so:

47

Page 48: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

7 Lineare Abbildungen

Sei ϕ : Kn → Km, (x1, . . . , xn) 7→ (y1, . . . , ym) mit yi =∑k

j=1 αijxj(i = 1, . . . , m), wobei(αij)1≤i≤m

1≤j≤n

o eine (m× n)-Matrix ist. Dieses Beispiel ist, wie wir im nachsten Abschnitt

sehen werden, sehr allgemein! Die Linearitat von ϕ rechnet man sofort nach!

7.5 Bemerkung: Ganz entsprechend sieht man: Ist ϕ : V → W linear, U ⊂ W einUntervektorraum. Dann ist die Urbildmenge ϕ−1(U) ein Untervektorraum von V.

Beweis: Siehe Ubungen!

7.6 Folgerung: Ist {e1, . . . , en} ein Erzeugendensystem des Vektorraums V ,so ist {ϕ(e1), . . . , ϕ(en)} ein Erzeugendensystem des Bildvektorraums ϕ(V ).

Beweis: Ubung.

7.7 Satz: Sei {e1, . . . , en} eine Basis des Vektorraums V, ϕ : V →W eine lineare Abbil-dung. Dann wird durch die Bildvektoren w1 = ϕ(e1), . . . , wn = ϕ(en) die Abbildung ϕbereits eindeutig festgelegt.

Beweis: Sei x ∈ V beliebig, x =∑n

i=1 λiei die eindeutige Darstellung des Vektors xdurch die Basis {e1, . . . , en}. Dann ist bei gegebenem ϕ

ϕ(x) = ϕ

(

n∑

i=1

λiei

)

=n∑

i=1

λiϕ(ei)

Sind umgekehrt nur die Vektoren w1, . . . , wn ∈ W gegeben, so wird durch die obigeFormel ϕ(x) eindeutig definiert. Man rechnet leicht nach, dass die so definierte Abbildunglinear ist. �

Wir fuhren jetzt den folgenden wichtigen Begriff ein. Sei dafur wieder ϕ : V → W einelineare Abbildung der Vektorraume V,W .

7.8 Definition und Satz: Der Kern der linearen Abbildung ϕ ist

Ker(ϕ) := {v ∈ V |ϕ(v) = 0}.

Ker(ϕ) ist ein Untervektorraum des Vektorraums V .

Beweis: Seien v1, v2 ∈ Ker(ϕ), λ ∈ K. Dann ist offenbar ϕ(v1 + v2) = ϕ(v1) + ϕ(v2) =0+0 = 0, also auch v1 + v2 ∈ Ker(ϕ). Entsprechend ist ϕ(λv1) = λϕ(v1) = λ · 0 = 0 unddaher auch λv1 ∈ Ker(ϕ). Endlich ist sicherlich der Nullvektor 0 ∈ Ker(ϕ), da ϕ(0) = 0ist. Es folgt daher, dass Ker(ϕ) ein Untervektorraum von V ist. �

7.8’ Bemerkung: Naturlich ist Ker(ϕ) = ϕ−1({0}), insofern hatten wir uns in 7.8 auchauf 7.5 beziehen konnen.

48

Page 49: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

7.9 Satz: (Dimensionsformel) Sei ϕ : V → W eine lineare Abbildung. Dann gilt:dim(V ) = dim Ker(ϕ) + dim Im(ϕ), wobei insbesondere die eine Seite endlich ist ge-nau wenn die andere Seite endlich ist.

Zuerst ein einfaches Beispiel: Sei ϕ : K2 → K2, (x1, x2) 7→ (x1, 0). Diese Abbildung(Projektion) ist offenbar linear. Man rechnet sofort nach: Ker(ϕ) = Ke2, Im(ϕ) = Ke1.

Beweis: Wir nehmen zunachst an, dass Ker(ϕ) und Im(ϕ) endlich dimensionale Vek-torraume sind. Sei {e1, . . . , er} eine Basis von Ker(ϕ). Weiter sei {er+1, . . . , en} eineBasis des Vektorraums ϕ(V ). Seien er+1, . . . , en Vektoren aus V mit ϕ(ej) = ej (j =r + 1, . . . , n).

Wir behaupten: {e1, . . . , en} ist dann eine Basis von V: Sei namlich v ∈ V beliebig.Da ϕ(v) ∈ ϕ(V ) ist, existieren Skalare λr+1, . . . , λn so dass

ϕ(v) =

n∑

i=r+1

λiei

=n∑

i=r+1

λiϕ(ei)

Daraus folgt mit Linearitat von ϕ:

ϕ(v −n∑

i=r+1

λiei) = 0

Also ist v −∑ni=r+1 λiei ∈ Ker(ϕ) nach Definition des Kerns. Daher existieren Skalare

λ1, . . . , λr ∈ K mit∑r

i=1 λiei = v −∑ni=r+1 λiei. Daher folgt

∑ni=1 λiei = v. Demnach

ist {e1, . . . , en} ein Erzeugendensystem von V .Wir zeigen die lineare Unabhangigkeit des Systems {e1, . . . , en} durch indirekten Be-

weis: Angenommen, das System {e1, . . . , en} ware nicht linear unabhangig. Dann bestun-de eine nichttriviale Relation

∑ni=1 λiei = 0. Daher folgt ϕ (

∑ni=1 λiei) = 0. Andererseits

ist

ϕ

(

n∑

i=1

λiei

)

=

n∑

i=1

λiϕ(ei)

=

n∑

i=r+1

λiei.

Also folgt∑n

i=r+1 λiei = 0. Da nach Konstruktion des Systems {er+1, . . . , en} linear

unabhangig ist, folgt, dass λr+1 = · · · = λn = 0 ist. Dann ergibt sich aber∑k

i=1 λiei = 0.Aber {e1, . . . , er} war eine Basis des Vektorraums Ker(ϕ). Also folgt auch λ1 = · · · =

λr = 0. Damit ist die lineare Unabhangigkeit gezeigt, {e1, . . . , en} ist eine Basis von V.Wegen r+(n−r) = n folgt dim Ker(ϕ)+dim Im(ϕ) = dim(V ). Insbesondere ist dim(V )endlich, wenn dim Ker(ϕ) und dim Im(ϕ) endlich sind.

49

Page 50: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

7 Lineare Abbildungen

Sei jetzt umgekehrt vorausgesetzt, dass V ein endlichdimensionaler Vektorraum ist.Dann ist auch Ker(ϕ) als Teilraum endlichdimensional. Weiter ist ϕ(V ) endlichdimen-sional, da das Bild {ϕ(e1), . . . , ϕ(en)} einer Basis {e1, . . . , en} von V ein endliches Er-zeugendensystem von ϕ(V ) ist. Dann ist aber die Vektorraum ϕ(V ) sicherlich endlichdi-mensional und wir sind genau in der am Anfang dieses Beweises betrachteten Situation.

50

Page 51: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

8 Lineare Abbildungen II

Seien U , V , W Vektorraume uber dem Korper K. Es seien ϕ : V → W , ψ : U → Vlineare Abbildungen.

8.1 Definition und Satz: Die zusammengesetzte Abbildung

ϕ ◦ ψ : U →W ,(ϕ ◦ ψ)(x) := ϕ(ψ(x)) fur x ∈ U beliebig

heißt Produkt oder Komposition von ϕ und ψ. Sie ist insbesondere wieder eine lineareAbbildung.

Beweis: Seien x, y ∈ U Vektoren, λ, µ ∈ K Skalare. Dann gilt offenbar

(ϕ ◦ ψ)(λx+ µy) = ϕ(ψ(λx+ µy))= ϕ(λψ(x) + µψ(y)) (wegen Linearitat von ψ)= λϕ(ψ(x)) + µϕ(ψ(y)) (wegen Linearitat von ϕ)= λ(ϕ ◦ ψ)(x) + µ(ϕ ◦ ψ)(y) (Def. der Komposition)

Daher ist (ϕ ◦ ψ) eine lineare Abbildung. �

8.2 Bemerkung: Man kann also lineare Abbildungen nur miteinander multiplizieren,wenn sie zueinander passen, d.h. wenn der Zielvektorraum der ersten Abbildung derGegenstandsvektorraum der zweiten Abbildung ist.

Man kann ubrigens lineare Abbildungen auch addieren, wenn sie zueinander passen(in anderem Sinn als oben!).

Seien namlich

ϕ, ψ : V →W

jetzt zwei lineare Abbildungen von V nach W .

8.3 Definition und Satz:

i) Die Summe

(ϕ+ ψ)(x) : V →W

ist definiert durch

(ϕ+ ψ)(x) := ϕ(x) + ψ(x).

Sie ist wiederum eine lineare Abbildung.

51

Page 52: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

8 Lineare Abbildungen II

ii) Entsprechend sei λ ∈ K ein Skalar,

λϕ : V → W

sei definiert durch(λϕ)(x) := λϕ(x).

Auch (λϕ) ist wieder eine lineare Abbildung.

Beweis: Dies kann als Ubung dem Leser uberlassen bleiben. �

8.4 Satz: Mit der obigen Addition und skalaren Multiplikation bildet die MengeHom(V,W ) aller linearen Abbildungen von V nach W selber einen K-Vektorraum.

Beweis: Wir hatten in Kap. 3 die Menge Abb(V,W ) aller (nicht nur der linearen)Abbildungen mit genau derselben Addition und skalaren Multiplikation versehen. Umzu sehen, dass Hom(V,W ) ein K-Vektorraum ist, reicht es also aus zu zeigen, dassHom(V,W ) ein Untervektorraum von Abb(V,W ) ist. Dazu reicht es, wie ublich, zuzeigen, dass Hom(V,W ) in Abb(V,W ) unter Summe und Multiplikation mit Skalarenabgeschlossen ist. Dies ist als Ubung dem Leser uberlassen. �

Eine besondere Rolle spielen die linearen Abbildungen (Homomorphismen) eines Vek-torraums V in sich selber. Man spricht dann auch oft von Endomorphismen und schreibtstatt Hom(V, V ) oft auch End(V ).

Offenbar kann man die Endomorphismen eines Vektorraums miteinander sowohl ad-dieren als auch multiplizieren. Es gelten die ublichen Rechenregeln, dabei seien ϕ, ψ, χ,. . .∈ End(V ).

(ϕ ◦ ψ) ◦ χ = ϕ ◦ (ψ ◦ χ)ϕ ◦ (ψ + χ) = ϕ ◦ ψ + ϕ ◦ χ(ϕ+ ψ) ◦ χ = ϕ ◦ χ+ ψ ◦ χ

Weiter ist ϕ ◦ 0 = 0 ◦ ϕ = 0 fur die Nullabbildung 0.Endlich gibt es ein neutrales Element der Multiplikation, die identische Abbildung

id : V → Vx 7→ x

Es giltϕ ◦ id = id ◦ϕ = ϕ

fur alle ϕ ∈ End(V ).Allerdings ist die Multiplikation von Endomorphismen i.A. nicht kommutativ. D. h.

es gilt nicht immer ϕ ◦ ψ = ψ ◦ ϕ.

8.5 Satz: Die Menge der Endomorphismen eines Vektorraums bildet mit obiger Additionund Multiplikation einen Ring.

52

Page 53: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Besonders wichtig sind die bijektiven linearen Abbildungen ϕ : V → W . Wir konnendie Umkehrabbildung ϕ−1 : W → V betrachten, so dass also gilt:

Es ist fur w ∈W , v ∈ V ϕ−1(w) = v genau dann, wenn ϕ(v) = w ist.

8.6 Satz: Istϕ : V → W

eine bijektive lineare Abbildung, dann ist die inverse Abbildung

ϕ−1 : W → V

ebenfalls eine lineare Abbildung. Es gilt

ϕ ◦ ϕ−1 = idWϕ−1 ◦ ϕ = idV .

Beweis: Wir zeigen nur die Linearitat der Umkehrabbildung ϕ−1. Seien w1, w2 ∈W . Daϕ bijektiv ist, existieren eindeutige Urbilder v1, v2 ∈ V , ϕ(vi) = wi i = 1, 2.

Dann ist aber ϕ(v1 + v2) = w1 + w2, also

ϕ−1(w1 + w2) = v1 + v2

= ϕ−1(w1) + ϕ−1(w2).

Entsprechend zeigt manϕ−1(λw) = λϕ−1(w).

8.7 Definition und Satz: Die Menge der bijektiven Endomorphismen eines Vektorraumsist die sog. allgemeine lineare Gruppe GL(V ). Sie ist abgeschlossen gegenuber Produktenund Inversenbildung.

8.8 Bemerkung: Die Bezeichnung GL(V ) kommt aus dem Englischen, general lineargroup wortlich genau entsprechend.

Beweis von Satz 8.7: Mit ϕ, ψ bijektiv und linear, ist offenbar auch ϕ ◦ ψ bijektiv undlinear, gehort also ebenfalls zu GL(V ).

Ist ϕ bijektiv linear, so auch ϕ−1 (Beweis dafur Ubung). Man uberzeugt sich leicht,dass (ϕ−1)−1 = ϕ, falls ϕ ∈ GL(V ). Endlich ist die identische Abbildung id ∈ GL(V ).�

8.9 Bemerkung: Die Menge (GL(V ), · ), zusammen mit der Multiplikation linearer Ab-bildungen bildet eine sog. Gruppe.

Gruppen sind fundamentale algebraische Strukturen, die aber auch an vielen Stel-len in der Physik eine große Rolle spielen, etwa als Symmetriegruppen oder z. B. diesog. Lorentz-Gruppe in der Relativitatstheorie. In Kap. 13 wird mehr uber Gruppenverraten werden.

53

Page 54: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

8 Lineare Abbildungen II

54

Page 55: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

9 Lineare Abbildungen und Matrizen

Will man Punkte im Raum festlegen, so braucht man ein Koordinatensystem, entspre-chend legt man in einem abstrakten K-Vektorraum V die Vektoren durch ihre Kompo-nenten bezuglich einer fixierten Basis {e1, . . . , en} fest.

Will man jetzt eine lineare Abbildung

ϕ : V → W

zwischen Vektorraumen V , W rechnerisch konkret beschreiben, so geht man so vor:Wir fixieren Basen {e1, . . . , en} von V , {f1, . . . , fm} von W . Wir betrachten die Bild-

vektoren ϕ(ej) fur j = 1, . . . , n. Da ϕ(ej) ∈ W und {f1, . . . , fm} eine Basis von W ist,konnen wir schreiben:

ϕ(ej) =

m∑

i=1

aijfi (j = 1, . . . , n)

Es ergibt sich also ein”rechteckiges“ Schema von Skalaren (zum Beispiel reellen Zahlen,

wenn K = R ist):

a11 . . . a1n

a21 . . . a2n...

...am1 . . . amn

oder kurzer:(aij)1≤i≤m

1≤j≤n

Ein derartiges rechteckiges System nennen wir eine Matrix (mit”Eingangen“ oder auch

Komponenten aus dem Korper K). Wir hatten derartige rechteckige Systeme bereits inanderem Zusammenhang in Kap. 6 kennengelernt.

Wir schreiben

(aij)1≤i≤m1≤j≤n

=: Matrix(ϕ; {ej}j=1,...,n; {fi}i=1,...,m)

In Worten: A = (aij) ist die Matrix der linearen Abbildung ϕ : V → W bezuglich derBasen {e1, . . . , en} von V und {f1, . . . , fm} von W .

Es ist plausibel, dass die Matrix A nicht nur von der linearen Abbildung ϕ, sondernauch von der Wahl der Basen abhangen wird. Wie, das werden wir weiter unten aus-rechnen!Die Vektoren des Kn, (ai1, . . . , ain), heißen Zeilen der Matrix A,die Vektoren (a1j , a2j , . . . , amj) ∈ Km heißen die Spalten der Matrix A.

55

Page 56: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

9 Lineare Abbildungen und Matrizen

Die Wahl der Indizes oben ist so eingerichtet, dass folgendes gilt:

9.1 Festlegung: Die Komponenten des Bildes des j-ten Basisvektors ej findet man inder j-ten Spalte der Matrix A.

Wie gesagt handelt es sich hierbei nur um eine Festlegung, aber sie ist sehr wichtig undman sollte sie sich ein fur allemal merken.

Sei jetzt x =∑n

j=1 ξjej ein beliebiger Vektor aus V . Wir berechnen

ϕ(x) =

n∑

j=1

ξjϕ(ej) (mit Linearitat von ϕ)

=

n∑

j=1

ξj

(

m∑

i=1

aijfi

)

(nach Definition)

=m∑

i=1

(

n∑

j=1

aijξj

)

fi

=

m∑

i=1

ηifi mit ηi =

n∑

j=1

aijξj (i = 1, . . . , m)

Damit sehen wir noch einmal, was aber bereits vorher klar war, dass die Festlegung derBildvektoren ϕ(e1), . . . , ϕ(en) bereits die lineare Abbildung ϕ und naturlich auch dieMatrix M(ϕ; . . . ) festlegt.

9.2 Definition und Satz: Die Menge der m × n-Matrizen A = (aij)1≤i≤m1≤j≤n

mit Kom-

ponenten aus K, die wir mit M(m × n;K) bezeichnen, bildet einen K-Vektorraum derDimension (m · n).

Beweis: Naturlich werden wir dabei zwei m × n-Matrizen A = (aij), B = (bij) mit1 ≤ i ≤ m, 1 ≤ j ≤ n so addieren:

A+B := (cij)1≤i≤m1≤j≤n

mit cij = aij + bij

Entsprechend multipliziert man mit Skalaren so:

λ(aij)1≤i≤m1≤j≤n

= (λaij)1≤i≤m1≤j≤n

Damit wird M(m × n;K) selber zu einem Vektorraum. Eine Basis wird zum Beispielvon dem System der Matrizen Eij (1 ≤ i ≤ m; 1 ≤ j ≤ n) gebildet, wobei Eij diejenigeMatrix ist, die lediglich an der (i, j)-ten Stelle eine 1 stehen hat, sonst lauter Nullen,also:

(Eij)ν,µ = δiνδjµ

56

Page 57: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

mit Hilfe des sogenannten Kroneckersymbols (δαβ = 1 fur α = β, 0 sonst). Die Anzahlder Basisvektoren {Eij} ist gerade (m · n). Damit folgt die Behauptung. �

Sei, wie oben, {e1, . . . , en} eine feste Basis des Vektorraums V , {f1, . . . , fm} eine Basisvon W . Unsere obigen Ergebnisse konnen wir jetzt so zusammenfassen:

9.3 Satz: Die obige Zuordnung

ϕ 7−→ Matrix(ϕ; {ej}; {fi})

definiert einen Isomorphismus von K-Vektorraumen

HomK(V,W ) −→ M(m× n;K) .

Da wir lineare Abbildungen zusatzlich, falls sie zueinander passen, auch multiplizierenkonnen, wird man sich fragen, ob das auch fur Matrizen richtig ist.

Sei etwa ϕ : V → W wie oben, ψ : U → V eine weitere lineare Abbildung zwischenden Vektorraumen U und V .{e1, . . . , en} und {f1, . . . , fm} seien wie gehabt Basen von V und W .

Weiter sei {d1, . . . , dr} eine Basis von U . Es sei

ψ(dk) =n∑

j=1

bjkej (k = 1, . . . , r)

und alsoMatrix(ψ; {dk}; {ej}) = (bjk) =: B

Insgesamt ergibt sich

(ϕ ◦ ψ)(dk) = ϕ(ψ(dk))

= ϕ(

n∑

j=1

bjkej)

=n∑

j=1

bjkϕ(ej) (Linearitat von ϕ)

=n∑

j=1

bjk

(

m∑

i=1

aijfi

)

=

m∑

i=1

(

n∑

j=1

aijbjk

)

fi

=m∑

i=1

cikfi mit (cik)1≤i≤m1≤k≤r

= Matrix(ϕ ◦ ψ; {dk}; {fi})

Es liegt jetzt nahe, die sich ergebende Matrix (cik) =: C als Produkt der Matrizen A,B zu definieren.

57

Page 58: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

9 Lineare Abbildungen und Matrizen

9.4 Definition: Seien A = (aij)1≤i≤m1≤j≤n

∈ M(m × n;K), B = (bjk)1≤j≤n1≤k≤r

∈ M(n × r;K).

Dann ist C = (cik)1≤i≤m1≤k≤r

∈ M(m× r;K) mit cik =∑n

j=1 aijbjk (1 ≤ i ≤ m; 1 ≤ k ≤ r)

das Produkt A · B von A und B.

9.5 Bemerkung: Um also die (i, k)-te Komponente im Produkt zu erhalten, multipliziereman komponentenweise die i-te Zeile von A, (ai1, . . . , ain), mit der k-ten Spalte von B,(b1k, b2k, . . . , bnk). Man beachte, man erhalt jeweils Vektoren mit n Komponenten, dieman komponentenweise multiplizieren kann.

Beispiel: Es sei gleich darauf hingewiesen: Die Matrixmultiplikation ist nicht kommuta-tiv: A = ( 1 1

0 1 ), B = ( 1 01 1 ).

(

1 10 1

)(

1 01 1

)

=

(

2 11 1

)

(

1 01 1

)(

1 10 1

)

=

(

1 11 2

)

Fur Addition und Multiplikation von Matrizen gelten folgenden Rechenregeln, dabeiist vorausgesetzt, dass die unten auftretenden Ausdrucke alle definiert sind, d. h. dieMatrizen die richtigen Formate haben.

A+B = B + A

(A+B) + C = A+ (B + C)

A(B + C) = AB + AC

(A+B)C = AC +BC

(AB)C = A(BC)

Betrachtet man speziell den Vektorraum M(n×n;K) der (n×n)-Matrizen (sog. qua-dratische Matrizen, fur die wir auch einfacher M(n;K) schreiben), so konnen Additionund Multiplikation uneingeschrankt ausgefuhrt werden.

M(n;K) wird dann wiederum ein Ring, ganz entsprechend dem Ring der Endomor-phismen des Vektorraums V .

9.6 Satz: {e1, . . . , en} sei eine beliebige feste Basis des Vektorraumes V . Es sei

EndK(V ) −→ M(n;K)

ϕ 7−→ Matrix(ϕ; {ei}; {ei})

die Abbildung, die jedem Endomorphismus ϕ die Matrix bezuglich der Basis {ei} (bei-demale verwendet) zuordnet. Dies ist ein K-Isomorphismus von Vektorraumen, der zu-satzlich die Multiplikation respektiert, also, wie man sagt, sogar ein Isomorphismus derRingstruktur ist.

Beweis: Es ist bereits alles gezeigt. Insbesondere folgt noch einmal in dieser Situation,dass die Matrixmultiplikation auch assoziativ ist. �

58

Page 59: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Sei noch einmal ϕ : V → W , linear, A = (aij) = Matrix(ϕ; {ej}; {fi}) wie oben. Wir be-rechnen ϕ(V ) = Im(ϕ), das Bild von ϕ. Wir wissen bereits, dass dann {ϕ(e1), . . . , ϕ(en)}ein Erzeugendensystem von ϕ(V ) ist. Daher ist ein maximales Teilsystem linear unab-hangiger Vektoren eine Basis von ϕ(V ).

9.7 Definition: Der Zeilenrang einer (m × n)-Matrix (αij)1≤i≤m1≤j≤n

ist die Dimension des

von den Zeilen {(αi1, . . . , αin)|1 ≤ i ≤ m} aufgespannten Untervektorraumes vom Kn,oder aquivalent: die Anzahl eines maximalen linear unabhangigen Teilsystems der Zeilen.

Wortlich entsprechend definiert man den Spaltenrang der Matrix (αij).

Wir haben uns also oben uberlegt:

9.8 Satz: Die Dimension des Bildes ϕ(V ) einer linearen Abbildung ϕ : V → W istgerade der (Spalten)rang einer beliebigen ϕ zugeordneten Matrix (αij).

9.9 Bemerkung: Wir werden weiter unten einsehen, dass fur eine beliebige Matrix Agilt: Spaltenrang(A) = Zeilenrang(A). Daher schreiben wir einfach rang(A) fur dieseZahl.

Ehe wir die Abhangigkeit einer Matrix von den gewahlten Basen berechnen, losen wirdie folgende einfache Aufgabe.

Sei V ein Vektorraum, {e1, . . . , en} und {e′1, . . . , e′n} seien Basen, wir betrachten dieidentische Abbildung

id : V −→ V

und wollen

Matrix(id; {e1, . . . , en}; {e′1, . . . , e′n})berechnen.

Es sei ej =∑n

i=1 γije′i (j = 1, . . . , n) eine Darstellung der Basisvektoren ej durch die

e′i.Offenbar ist

C = (γij) = Matrix(id; {ej}; {e′i})Ganz entsprechend zeigt man: Mit e′j =

∑ni=1 δijei und D := (δij)1≤i,j≤n ist

Matrix(id; {e′j}; {ei}) = D

Dann ist C · D die Matrix der zusammengesetzten linearen Abbildung id : V → Vbezuglich der Basis {e′1, . . . , e′n}, also C ·D = Matrix(id : V → V ; {e′j}; {e′i}). Daher istC ·D = E, die Einheitsmatrix. Ganz entsprechend zeigt man D · C = E. Das heißt, esist D = C−1.

Jetzt betrachten wir allgemeiner folgende Situation: ϕ : V → W sei eine lineareAbbildung, {e1, . . . , en} und {e′1, . . . , e′n} Basen von V , {f1, . . . , fm} und {f ′

1, . . . , f′m}

Basen von W .

59

Page 60: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

9 Lineare Abbildungen und Matrizen

Wir betrachten

(V ; {e′i})id−→ (V ; {ei}) ϕ−→ (W ; {fi}) id−→ (W ; {f ′

i})Bezeichnet noch

B = Matrix(id; {fi}; {f ′i}) ,

d. h. explizit gilt

fj =m∑

i=1

βijf′i ,

so folgt

M(ϕ; {e′i}; {f ′i}) = M(id; {fi}; {f ′

i}) ·M(ϕ; {ei}; {fi}) ·M(id; {e′i}; {ei})d. h. (Transformationsgesetz fur Matrizen)

A′ = (BAC−1) mit A′ = M(ϕ; {e′i}; {f ′i})

Ein besonders interessanter Spezialfall ist der Fall eines Endomorphismus ϕ : V → V(d. h. W = V ). Hier mochte man oft die Basis im Ziel- und Gegenstandsraum gleichwahlen, d. h. {ei} = {fi} und entsprechend {e′i} = {f ′

i}.Obiges Transformationsgesetz fur Basisanderungen sieht dann so aus (Transformati-

onsformel fur Matrizen von Endomorphismen):

A′ = BAB−1

Dabei ist also B gegeben durch

ej =

n∑

i=1

βije′i (j = 1, . . . , n)

B = (βij)1≤i,j≤n

Wir fassen die gewonnenen Ergebnisse zusammen:

9.10 Satz: (Transformationsverhalten von Matrizen bei Basisanderung)

i) Ist ϕ : V →W eine lineare Abbildung, {e1, . . . , en} und {e′1, . . . , e′n} Basen von V ,entsprechend {f1, . . . , fm} und {f ′

1, . . . , f′m} Basen vonW ,A := Matrix(ϕ; {ej}; {fi})

und A′ := Matrix(ϕ; {e′j}; {f ′i}). Weiter seien die Ubergangsmatrizen B und C ge-

geben durch B = Matrix(id; {fi}; {f ′i}) und C = Matrix(id; {ej}; {e′j}), d. h. es

gelten die Beziehungen

ej =n∑

i=1

γije′i (j = 1, . . . , n) und C = (γij) ,

fj =

n∑

i=1

βijf′i (j = 1, . . . , n) und B = (βij)

Dann ist A′ = BAC−1.

60

Page 61: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Das Normalformenproblem

ii) Ist speziell V = W , ϕ : V → V ein Endomorphismus, so spezialisiert sich die obigeFormel zu A′ = BAB−1.

Das Normalformenproblem

Man kann sich fragen, wie man durch geschickte Wahl von Basen einen Vektorraumho-momorphismus bzw. -endomorphismus auf moglichst einfache Gestalt bringen kann?

Sei zunachst ϕ : V → W ein beliebiger Homomorphismus. Wir wahlen wie folgt eineBasis von V , dim(V ) = n: {e1, . . . , en}, dabei sei {er+1, . . . , en} eine Basis von Ker(ϕ).Daher ist {ϕ(e1), . . . , ϕ(er)} eine Basis des Untervektorraumes Im(ϕ) ⊂ W , die wirbeliebig zu einer Basis von W erganzen. Also fj = ϕ(ej) (j = 1, . . . , r). Man sieht sofort:

M(ϕ; {ei}; {fi}) =

(

Er 00 0

)

dabei haben wir die (m× n)-Matrix oben in offensichtlicher Weise in Blocke unterteilt,insbesondere steht Er fur die (r × r)-Einheitsmatrix.

Man sieht also, das Ergebnis hangt einzig und allein vom Rang der Abbildung, d. h.von dim(Im(ϕ)), ab. Speziell, ist ϕ : V → W ein Isomorphismus, so ist bei Wahl derBasen {e1, . . . , en} (hier ganz beliebig und {f1, . . . , fn} mit ϕ(ej) = fj)

M(ϕ; {e1, . . . , en}; {f1, . . . , fn}) = En

9.12 Satz: Ist ϕ : V → W eine lineare Abbildung vom Rang r, so ist bei geeigneterWahl von Basen {ej} von V , {fi} von W :

M(ϕ; {ei}; {fi}) =

(

Er 00 0

)

in Blockschreibweise.

In gewissem Sinne besitzt eine solche Normalform nicht viel Aussagekraft. Ganz anderswird es mit dem Normalformenproblem fur Endomorphismen stehen. Dies werden wirim Kapitel uber Eigenwerte und Eigenvektoren etwas naher kennenlernen und es wirdauf die sogenannte Jordansche Normalform fuhren, die eines der starken Hilfsmittel derlinearen Algebra darstellt.

61

Page 62: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

9 Lineare Abbildungen und Matrizen

Erganzung: ϕ : V →W , {ej}, {fi} Basen; M(ϕ; {ej}; {fi}) = (αij)1≤i≤m1≤j≤n

x ∈ V , x =

n∑

j=1

ξjej =⇒

ϕ(x) =

m∑

i=1

(

n∑

j=1

αijξj

)

fi

ηi :=n∑

j=1

αijξj (i = 1, . . . , m)

η1...ηm

= (αij)

ξ1...ξn

in Matrixschreibweise. Man kann die lineare Abbildung also ohne weiteres als Matrix-multiplikation schreiben, wenn man die Komponenten der Vektoren als Spalten schreibt.

Wir kommen zuruck zum Begriff des Ranges einer Matrix A.

9.12a Satz: Spaltenrang und Zeilenrang einer Matrix A andern sich nicht bei Anderungder Basen. Es gilt

Spaltenrang(A) = Zeilenrang(A)

Beweis: Eine Basisanderung der Matrix A bedeutet den Ubergang von A zur MatrixA′ = BAC mit invertierbaren Matrizen B, C. Nun stellen A bzw. A′ = BAC dieselbelineare Abbildung ϕ bezuglich verschiedener Basen des Kn bzw. des Km dar. Es istdaher

Spaltenrang(A) = dimϕ(Kn)

Spaltenrang(BAC) = dimϕ(Kn)

Daher ist aber auch

Spaltenrang(A) = Spaltenrang(BAC) .

Damit folgt die Aussage uber den Spaltenrang.Wegen Zeilenrang(A) = Spaltenrang(At) ergibt sich dann leicht die entsprechende

Aussage fur den Zeilenrang.Durch geschickte Wahl von B, C konnen wir endlich erreichen, dass A′ = BAC Nor-

malform hat, d. h.

A′ =

(

Er 00 0

)

wie in 9.11 ist.

62

Page 63: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Das Normalformenproblem

Da aber sofort klar ist, dass gilt

Spaltenrang(A′) = Zeilenrang(A′) = r ,

folgt nach dem schon gezeigten auch

Spaltenrang(A) = Zeilenrang(A) .

9.13 Proposition: Elementare Zeilen- bzw. Spaltenumformungen andern den Rang einerMatrix nicht.

Beweis: Wir hatten in 6.5 gesehen: Elementare Zeilenumformungen andern den Zeilen-rang nicht. Durch Transposition gilt gleiches fur den Spaltenrang. �

9.14 Bemerkungen:

i) Man konnte auch direkt”zu Fuß“ nachrechnen, dass Zeilenumformungen nicht den

Spaltenrang andern. Da man mittels Zeilenumformungen eine Matrix auf Stufen-form A′ im Sinn von 6.5 bringen kann, genugt es noch zu beweisen, dass

Spaltenrang(A′) = Zeilenrang(A′)

gilt, was unmittelbar klar ist.

ii) Es ist oft nutzlich zu wissen, dass sich elementare Zeilen- bzw. Spaltenumformun-gen durch Links- bzw. Rechtsmultiplikation mit sogenannten Elementarmatrizenergeben. Sei fur 1 ≤ i, j ≤ n, i 6= j etwa Cij(λ) folgende (n× n)-Matrix:

Cij(λ) := (En + λEij)

(d. h. Cij(λ) hat Einsen auf der Diagonalen, λ an der Stelle (i, j), sonst Nullen.

Bezeichnet ak den k-ten Spaltenvektor von A, a′k den k-ten Spaltenvektor vonACij(λ) (1 ≤ k ≤ n), so ergibt sich:

a′k = ak fur alle k 6= j

a′j = aj + λai

D. h. A′ entsteht aus A durch Addition des λ-fachen der i-ten Spalte zur j-tenSpalte.

Ubung: Man zeige die entsprechende Aussage fur elementare Zeilenumformungen.

63

Page 64: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

9 Lineare Abbildungen und Matrizen

64

Page 65: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

10 Linearformen, der duale

Vektorraum

Sei V ein K-Vektorraum, wir betrachten lineare Abbildungen f : V → K von V in den1-dimensionalen Vektorraum K. Diese sogenannten Linearformen auf V bilden selbereinen Vektorraum Hom(V,K) (siehe Kap. 8), den Dualraum von V , fur den wir auchkurz V ∗ schreiben.

10.1 Beispiel: Sei V = Kn, eine Linearform wird dann durch einen Ausdruck

f(x1, . . . , xn) =

n∑

i=1

aixi, mit a1, . . . , an ∈ K ,

gegeben.

10.2 Proposition: Sei f : V → K eine Linearform 6= 0. Dann ist Ker(f) eine Hyperebenein V , das heißt, ein Untervektorraum der Dimension n− 1.

Beweis: Ist f 6= 0, dann ist f(V ) 6= 0, also f(V ) = K, d.h. dim Im(f) = 1. Wegen derDimensionsformel gilt

dim Ker(f) + dim Im(f) = n ,

also dim Ker(f) = (n− 1). Das war zu zeigen. �

10.3 Bemerkung:

i) Ist die Linearform also wie oben von der Form

f(x1, . . . , xn) =

n∑

i=1

aixi ,

so ist Ker(f) gerade die durchn∑

i=1

aixi = 0

gegebene Hyperebene im Kn.

ii) Oft schreibt man auch statt f(v) fur eine Linearform fur f ∈ V ∗, v ∈ V 〈v, f〉.Dabei mochte man unterstreichen, dass man die Vektoren aus V und V ∗ wie einSkalarprodukt aus Vektoren miteinander paart.

65

Page 66: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

10 Linearformen, der duale Vektorraum

10.4 Definition und Satz: Sei V ein endlich-dimensionaler K-Vektorraum mit einerBasis {e1, . . . , en}. Durch fi(ej) = δij (1 ≤ i, j ≤ n) werden dann Linearformen f1, . . . , fnvon V ∗ gegeben. {f1, . . . , fn} ist die zu {e1, . . . , en} sogenannte duale Basis von V ∗.

Beweis: Zu zeigen ist die bei dieser Vorgabe der f1, . . . , fn, die offenbar wohldefiniertsind, lineare Unabhangigkeit und Erzeugendeneigenschaft.

Ware∑n

i=1 aifi = 0 in V ∗, so folgte sofort

(

n∑

i=1

aifi

)

(ej) = aj = 0 fur j = 1, . . . , n ,

was gerade fur die lineare Unabhangigkeit der {f1, . . . , fn} in V ∗ zu zeigen ist.

Sei ϕ eine beliebige Linearform auf V . Dann gilt (Ubung):

ϕ =

n∑

i=1

ϕ(ei)fi .

Daher ist {f1, . . . , fn} eine Basis von V ∗ �

10.5 Folgerung: Ist V endlich-dimensional, so ist dim(V ) = dim(V ∗).

10.6 Definition: Sei V endlich-dimensionaler Vektorraum, V ∗ der Dualraum. Sei W ⊂ Vein Teilraum. Dann bezeichnet

W⊥ := {f ∈ V ∗|f(w) = 0 fur alle w ∈W} .

Entsprechend sei fur einen Teilraum U von V ∗:

U⊥ := {v ∈ V |f(v) = 0 fur alle f ∈ U} .

10.7 Proposition: Es sind W⊥ und U⊥ Untervektorraume von V ∗ bzw. von V . Es gilt

i) dim(W )⊥ = dim(V ) − dim(W )

ii) dim(U)⊥ = dim(V ) − dim(U)

iii) (W⊥)⊥ = W, (U⊥)⊥ = U

Beweis: Dass U⊥, W⊥ Untervektorraume sind, ist eine leichte Ubung.Zu (i) Sei {e1, . . . , er} eine Basis von W , die wir zu einer Basis {e1, . . . , en} von V

erganzen. Sei {f1, . . . , fn} die dazu duale Basis von V ∗, sodass also gilt: fi(ej) = δij(1 ≤ i, j ≤ n).

Dann ist (Ubung) {fr+1, . . . , fn} eine Basis von (W )⊥. Damit folgt (i). (ii) und (iii)werden unten nachgewiesen. Zuerst zeigen wir dafur den

66

Page 67: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

10.8 Satz: Sei V ein K-Vektorraum, V ∗ sein Dualraum und (V ∗)∗ der sogenannte Bi-dualraum. Dann besteht eine kanonische injektive lineare Abbildung

{

V → (V ∗)∗

v 7→ (ϕ : V ∗ → K) mit ϕ(f) := f(v) fur f ∈ V ∗ .

Ist V endlich-dimensional, so ist die kanonische Abbildung V → (V ∗)∗ eine Isomorphie.

Beweis: Zunachst ist die Zuordnung v 7→ ϕ linear, denn (v1 + v2) 7→ ϕ mit

ϕ(f) = f(v1 + v2) = f(v1) + f(v2) = ϕ1(f) + ϕ2(f) ,

wobei v1 7→ ϕ1, v2 7→ ϕ2.Weiter ist V → (V ∗)∗ eine injektive Abbildung. Angenommen, v 7→ ϕ = 0 in (V ∗)∗.

Dann ist also ϕ(f) = f(v) = 0 fur alle f ∈ V ∗. Das geht nur, wenn v = 0 (sonst findetman sofort eine Linearform f mit f(v) 6= 0). Daher ist V → (V ∗)∗ injektiv.

Ist V zusatzlich endlich-dimensional, so ist dim(V ) = dim(V ∗) = dim((V ∗)∗) nach9.2.

Dann ist aber die injektive Abbildung V → (V ∗)∗ wegen Gleichheit der Dimensionensogar ein Isomorphismus. �

Jetzt konnen wir auch den Beweis von Satz 10.7 beenden.Zu (ii) Wir betrachten U ⊂ V ∗ und (U)⊥ in (V ∗)∗ (zunachst nicht in V !)

(U)⊥ = {ϕ ∈ (V ∗)∗|ϕ(f) = 0 fur alle f ∈ U} .

Nach dem bereits gezeigten Teil (i) folgt:

dim(U)⊥ = dim(V ∗) − dim(U) = dim(V ) − dim(U) .

Da die kanonische Abbildung V → (V ∗)∗ ein Isomorphismus ist, entspricht U⊥ ⊂ (V ∗)∗

ein Unterraum U ′ ⊂ V , der unter V → (V ∗)∗ isomorph auf U⊥ abgebildet wird.Es ist also dim(U⊥) = dim(U ′) = dim(V ) − dim(U).Jetzt ist v ∈ U ′ genau dann, wenn das Bild ϕv von v in (V ∗)∗ aus U⊥ ist. Es ist

ϕv(f) = f(v) .

ϕv ∈ U ′ genau dann, wenn ϕv(f) = 0 fur alle f ∈ U .Also ist v ∈ U ′ genau dann, wenn f(v) = 0 ist, d.h. wenn v ∈ U⊥ (bezuglich V ).

Daraus folgt (ii).

Zu (iii) Nach Definition ist fur W ⊂ V 〈W,W⊥〉 = 0, also W ⊂ (W⊥)⊥. Andererseits ist

dim(W⊥)⊥ = dim(V ) − dim(W⊥)= dim(V ) − (dim(V ) − dim(W ))= dim(W ) .

67

Page 68: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

10 Linearformen, der duale Vektorraum

Daraus folgt: W = (W⊥)⊥.Entsprechend zeigt man (U⊥)⊥ = U .

10.9 Bemerkung: Ein endlich-dimensionaler Vektorraum V ist also isomorph zu (V ∗)∗,aber naturlich auch zu V ∗ wegen dim(V ) = dim(V ∗). Wahrend die Isomorphie V ∼= V ∗

willkurlich gewahlt werden muß, ist der Isomorphismus V ∼= (V ∗)∗ vollig naturlich ohneFestlegung einer Basis gegeben.

10.10 Funktorielles Verhalten:

a) Gegeben sei eine lineare Abbildung ϕ : V → W . Diese induziert in naturlicherWeise eine lineare Abbildung, die sog. adjungierte Abbildung,

ϕ∗ : W ∗ → V ∗

f 7→ (f ◦ ϕ)

}

,

das heißt, der Linearform f : W → K wird durch Komposition eine Linearform

Vϕ→W

f→ K

V(f ◦ϕ)−→ K

zugeordnet.

Man zeigt leicht: ϕ∗ ist wieder linear (Ubungen oder Praktikum).

b) Hat man Vϕ→W

ψ→ U , so erhalt man per Dualitat lineare Abbildungen

U∗ ψ∗

→W ∗ ϕ∗

→ V ∗ .

Ubung: Zu zeigen: (ψ ◦ ϕ)∗ = ϕ∗ ◦ ψ∗

c) Man hat einen sogenanntes kommutatives Diagramm:

VcV−→ (V ∗)∗

ϕ ↓ ↓ (ϕ∗)∗

WcW−→ (W ∗)∗

Beweis: (Ubung)

68

Page 69: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

11 Lineare Gleichungssysteme

Wir betrachten lineare Gleichungssysteme der Form

a11ξ1 + a12ξ2 + . . . + a1nξn = b1a21ξ1 + a22ξ2 + . . . + a2nξn = b2

......

...am1ξ1 + am2ξ2 + . . . + amnξn = bm

In kompakter Form also

n∑

j=1

aijξj = bi (i = 1, . . . , m)

in den Unbekannten ξ1, . . . , ξn.Das zugehorige homogene lineare Gleichungssystem ist dann

n∑

j=1

aijξj = 0 (i = 1, . . . , m)

Wir konnen auch alles in Matrixform schreiben, mit

x = (ξ1, . . . , ξn) und b = (b1, . . . , bm)

als Spaltenvektoren und der Matrix A = (aij)1≤i≤m1≤j≤n

.

Ax = b fur das inhomogene System,

Ax = 0 fur das homogene System.

Betrachten wir x 7→ Ax als lineare Abbildung so sieht man sofort

11.1 Satz: Die Losungsmenge des homogenen linearen Gleichungssystems

Ax = 0

hat die Struktur eines Vektorraums. Dieser ist gerade der Kern der durch A gegebenenlinearen Abbildung A. Die Dimension des Losungsraums ist gegeben durch n− rang(A).

Beweis: Klar.

69

Page 70: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

11 Lineare Gleichungssysteme

11.2 Satz: Die Losungsmenge des inhomogenen linearen Gleichungssystems

Ax = b

ist ein affiner Teilraum des Kn. Ist er nicht leer, so ist der zugehorige Vektorraum desaffinen Losungsraums gerade der Kern von A bzw. der Losungsraum des zugehorigenhomogenen linearen Gleichungssystems.

Beweis: Ist x0 ∈ Kn mit Ax0 = b, x ∈ Ker(A), d.h. Ax = 0, so folgt:

A(x+ x0) = Ax+ Ax0 = b

Ist umgekehrt y ∈ Kn eine Losung der inhomogenen linearen Gleichung, so erfullt x :=(y − x0) die homogene GleichungAx = b. Daraus folgt sofort die Behauptung. �

Nutzlich ist folgendes Kriterium fur die Existenz einer Losung von Ax = b

11.3 Satz: Bezeichnet (A, b) die mit der Spalte b erweiterte Matrix A, so gilt: Ax = bhat wenigstens eine Losung genau dann, wenn gilt rang(A) = rang(A, b), d.h. wenn derRang von A und der Rang der erweiterten Matrix(A,b) zusammenfallen.

Beweis: Wir betrachten etwa den Spaltenrang der Matrizen. Bezeichnet a1, . . . , an dien Spalten von A in Km, so bedeutet das Bestehen der Gleichung Ax = b gerade dieRelation

n∑

i=1

ξiai = b

Also: Besteht eine Losung (ξ1, . . . , ξn), so lasst sich die Spalte b gerade aus den Spaltena1, . . . , an linear kombinieren. Besteht umgekehrt eine Relation der Form

n∑

i=1

ξiai = b

so ist x = (ξ1, . . . , ξn) gerade eine Losung. �

11.4 Praktische Losungsmethoden: Wie lost man also gegebenenfalls ein inhomogenesGleichungssystem der Form Ax = b. Wir wenden elementare Zeilenumformungen fur dieMatrizen A bzw. (A, b) an. Wir bringen damit A bzw. (A, b) simultan auf Zeilenstufen-form. Dies bedeutet ja offenbar nichts anderes als die entsprechende Operation statt mitden Zeilen mit den Gleichungen selber durchzufuhren, was offenbar die Losungsmengenicht andern wird.

Wir konnen also nach endlich vielen Schritten erreichen, dass A und (A, b) so aussehen:

ξi1 +n∑

j=i1+1j 6=i2,...ir

α1jξj = b1

70

Page 71: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

ξi2 +

n∑

j=i2+1j 6=i2,...ir

α2jξj = b2

...

ξir +

n∑

j=ir+1

αrjξj = br

0 = br+1

...

0 = bm

Es existiert also genau dann eine Losung wenn gilt

br+1 = . . . = bm = 0

d.h. ja gerade

Spaltenrang(A) = Spaltenrang(A, b)

Wenn dies aber der Fall ist, so konnen wir das Gleichungssystem jetzt folgendermaßen(in Parameterform) losen: Wir wahlen die ξj mit j 6= i1, . . . , irbeliebig, dann setzen wir

ξi1 = −n∑

j=i1+1j 6=i2,...ir

α1jξj + b1

...

ξir = −n∑

j=ir+1

αrjξj + br

Damit ist, die Menge aller Losungen in parametrisierter Form gegeben. �

11.5 Der Fall n=m: Besonders wichtig ist der Fall n = m: n lineare Gleichungen in nUnbekannten.

Ax = b

Naturlich konnten wir das Verfahren eben anwenden. Ist aber die Matrix A invertierbarbzw. die durch A gegebene lineare Abbidung invertierbar, so ergibt sich sofort

A−1(Ax) = A−1b

bzw.

x = A−1b

71

Page 72: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

11 Lineare Gleichungssysteme

Es reicht also aus, das Inverse einer (n × n) - Matrix zu berechnen. Hierfur gibt esfolgendes einfache Verfahren, das wir zunachst beschreiben und dann begrunden: Wirschreiben die Matrix A und die Einheitsmatrix nebeneinander,

A E

und fuhren an A elementare Zeilenumformungen wie gehabt so durch, dass wir A inZeilenstufenform erreichen. Offenbar gilt: A invertierbar ⇔ rang(a) = n ⇔ die Zeilen-stufenform von A ist von der Gestalt

α11 ∗. . .

0 αnn

dabei bedeutet 0 unterhalb der Diagonalen, dass dort alle Eintrage Null sind, ∗ oberhalbder Diagonalen, dass die Eintrage dort beliebig sind. Die α11, . . . , αnn sind 6= 0. Durchweitere Zeilenoperationen kann man jetzt weiter, beginnend mit der letzten Zeile, dieman geeignet von den oberen Zeilen abzieht, erreichen, dass auch alle Eintrage oberhalbder Diagonalen Null werden. Damit kommt man auf die Einheitsmatrix, wenn man ineinem letzten Schritt noch auf beiden Seiten von links mit

α−111 0

. . .

0 α−1nn

multipliziert. Simultan fuhren wir genau die gleichen elementaren Umformungen an derEinheitsmatrix E durch, so dass sich am Ende die Matrix B ergibt.

11.6 Behauptung: Es ist B = A−1

Beweis: Jede elementare Umformung bedeutet, wie wir schon gesehen haben, die Mul-tiplikation von links mit einer geeigneten elementaren Matrix Zi bzw. am Ende mit

α−111 0

. . .

0 α−1nn

Insgesamt etwa (Zr . . . Z2Z1)A=E und (Zr . . . Z2Z1)E = B. Aber wegen der ersten Glei-chung folgt sofort

ZrZr−1 . . . Z1 = A−1

Daher ergibt sich B=A−1. Genau das war zu zeigen. �

Bemerkung: Bricht das Verfahren ab, bevor man die Einheitsmatrix erreicht hat, so be-deutet dies offenbar, dass rang(A) < n, d.h. A gar nicht invertierbar ist. Diese zusatzlicheInformation wird also auch durch das Verfahren mitgeliefert. Naturlich kann, auch wenn

72

Page 73: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

A nicht invertierbar bzw. aquivalent rang(A) < n ist, die Gleichung Ax = b losbar sein.Es sind dann die vorher entwickelten Methoden anzuwenden.

Zum Schluß dieses Kapitels geben wir noch ein etwas modifiziertes Kriterium fur dieLosbarkeit linearer Gleichungssysteme an, was theoretisch sehr zufriedenstellend ist. Ge-geben sei das lineare Gleichungssystem

n∑

j=1

aijξj = bi (i = 1, . . . , m)

Wir fassen

fi(ξ1, . . . , ξn) :=

n∑

j=1

aijξj (i = 1, . . . , m)

als Linearform auf dem Kn auf.

11.7 Satz: Das Gleichungssystem fi(x) = bi (i = 1, 2, . . . , m) ist losbar genau, wennaus dem Bestehen einer Relation

∑mi=1 λifi = 0 im Dualraum des Kn stets folgt:

m∑

i=1

λibi = 0

Beweis: Existiert eine Losung x = (ξ1, . . . , ξn) des obigen Systems,so folgt aus

∑mi=1 λifi = 0 sofort

∑mi=1 λifi(x) = 0 und daher

∑mi=1 λibi = 0.

Wir zeigen die Umkehrung: Wir betrachten die zur Matrix

A = (aij)1≤i≤m1≤j≤n

gehorende AbbildungA : Kn → Km

Wir komponieren mit der linearen Abbildung Km → K, (y1, . . . , ym) 7→ ∑mi=1 λiyi. Die

zusammengesetzte Abbildung ist dann∑m

i=1 λifi : Kn → K. Wir nehmen jetzt an,es ware (b1, . . . , bm) /∈ Im(A : Kn → Km). Dann gibt es sicherlich eine Linearformϕ : Km → K, mit ϕ(b1, . . . , bm) 6= 0, ϕ| Im(A) = 0 (Ubung!). ϕ sei dabei gegeben durchϕ(y1, . . . , ym) =

∑mi=1 λiyi. Dann ist also

∑mi=1 λibi 6= 0, aber

∑mi=1 λifi = 0 (wegen ϕ = 0

auf Im(A)!).Dies ist ein Widerspruch, also folgt: (b1, . . . , bm) ∈ Im(A), d. h. das lineare Gleichungs-

system fi(x) = bi(i = 1, . . . , m) hat eine Losung x = (ξ1, . . . , ξn). �

73

Page 74: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

11 Lineare Gleichungssysteme

74

Page 75: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12 Determinanten

Betrachtet man ein Parallogramm in der Ebene bzw. ein Parallelepiped im Raum, sostellt man fest, daß sein Flacheninhalt bzw. Voluminen durch folgende Formeln gegebenwird:

i) Seien etwa a1, a2 ∈ R2 Vektoren, ai =2∑

j=1

αijej, so ergibt sich fur die Flache F des

Parallelogramms P

P = {λ1a1 + λ2a2 | 0 ≤ λ1, λ2 ≤ 1}F = |α11α22 − α21α12|

ii) Entsprechend, aber etwas komplizierter, erhalt man im R3 bei drei gegebenen Vek-torena1, a2, a3 ∈ R3 mit ai = (αi1, αi2, αi3) fur das Volumen V (P ) des Parallelepiped

P = {λ1α1 + λ2α2 + λ3α3 | 0 ≤ λ1, λ2, λ3 ≤ 1}F = |α11α22α33 + α12α21α31 + α13α21α32 − α13α22α31 − α12α21α33 − α11α23α32|

Es liegt nahe, wenn man dies besser verstehen und wenn moglich auf n-dimensionaleRaume verallgemeinern mochte, die Betragsstriche zunachst einmal wegzulassen. Dieobigen Formeln werden dann erheblich angenehmer und sind offenbar linear in den Vek-torvariablen a1, a2 bzw. a1, a2, a3

D. h. es gilt etwa

f(a1 + b1, a2, a3) = f(a1, a2, a3) + f(b1, a2, a3)

usw.Eine andere Eigenschaft, die man an den obigen Formeln sofort abliest, ist diese:

Sind die Vektoren {a1, a2, a3}, linear abhangig, so ist das obige Parallelepiped im R3

in Wirklichkeit kein eigentlicher geometrischer Korper sondern ist vielmehr (da in einerEbene enthalten), ein Parallelogram. Daher ist in diesem Falle das Volumen v(P ) = 0.Diese Voruberlegung in Betracht gezogen, liegt es nahe folgende Abbildung mit folgendenEigenschaften zu betrachten:Gesucht sind Abbildungen:

f : V × . . .× V −→ K(n-mal)

(a1, . . . , an) 7−→ f(a1, . . . , an)

mit folgenden Eigenschaften:

75

Page 76: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12 Determinanten

i) f ist ein sog. multilineare Abbildung, d.h. fur λ, µ ∈ K,i ∈ {1 . . . , n} beliebig gilt:

f(a1, . . . , λai + µbi, . . . , an) = λf(a1, . . . , ai, . . . , an + µf(a1, . . . , bi, . . . , an)

ii) Ist in dem n-Tupel von Vektoren (a1, . . . , an) ai = aj fur ein Paari, j ∈ {1, . . . , n} , i 6= j, so ist

f(a1, . . . , an) = 0

Bemerkung: Ist, wie oben, ai = aj , so ist das System von Vektoren {a1, . . . , an} sicherlinear abhangig! Es reicht aber aus in (ii), das Verschwinden von f zunachst nur inder speziellen Situation oben zu fordern. Wir werden unten sehen, daß die allgemeineAussage sich daraus ergeben wird.

12.1 Definition: Eine Abbildung mit den Eigenschaften (i) und (ii) oben nennt maneine alternierende Multilinearform.

Der Begriff”alternierend“ wird noch deutlicher durch folgende

12.2 Proposition: Es gilt:

f(a1, . . . , ai, . . . , aj, . . . , an) = −f(a1, . . . , aj , . . . , ai, . . . , an)

fur i, j ∈ {1, . . . , n}, d. h. vertauscht man die Argumente ai, aj , so ergibt sich der negativeWert der Multilinearform.

Beweis: Wie der Beweis gleich zeigt, kann o.B.d.A. angenommen werden i = 1, j = 2.Wir betrachten:

0 = f(a1 + a2, a1 + a2, a3, . . . , an)

= f(a1, a1, a3, . . . , an) + f(a2, a1, a3, . . . , an)

+ f(a1, a2, a3, . . . , an) + f(a2, a2, a3, . . . , an)

= f(a1, a2, . . . , an) + f(a2, a1, a3, . . . , an)

Als letzte Bedingung stellen wir noch die folgende Forderung:

iii) f(e1, e2, . . . , en) = 1, falls {e1, . . . , en} eine festgelegte Standardbasis ist.

Bemerkung: Ist V = Kn der Standardvektorraum, so ist {e1, . . . , en} etwa die Standard-basis.

76

Page 77: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12.3 Proposition: Ist {e1, . . . , en} irgendeine Basis des Vektorraums V ,

f : V × . . .× V −→ K

eine Multilinearform,

ai =

n∑

j=1

αijej (i = 1, . . . , n)

ein System von Vektoren, so gilt:

f(a1, . . . , an) =∑

π

α1,π(1), . . . , α1,π(n)f(eπ(1), . . . , eπ(n))

dabei versteht sich die Summe uber die Menge aller Permutationen (= bijektive Abbil-dung {1, . . . , n} −→ {1, . . . , n}) von {1, . . . , n}.

Beweis: Man verwendet die Linearitatseigenschaft und berucksichtigt, daß Terme, indenen zwei Argumente gleich sind, Null sind. �

Naturlich kann man die Terme

f(eπ(1), . . . , eπ(n))

durch geeignete Vertauschung alle auf die Form

±f(e1, e2, . . . , en)

bringen. Was nicht klar ist, ob das Vorzeichen dabei nicht, je nach dem, wie man die Ver-tauschungen durchfuhrt, zu wechselnden Vorzeichen fuhren wurde. Das dies tatsachlichnicht der Fall ist, ist uberhaupt nicht trivial.

12.4 Definition: Sei π ∈ Sn eine Permutation von {1, . . . , n}. Es bezeichne α(π) dieAnzahl der Paare i, j ∈ {1, . . . , n} mit i < j und π(i) > π(j), der sog. Fehlstellungen.

Es sei sgn(π) = (−1)α(π). Es gilt dann Folgendes:

12.5 Satz: Die Anzahl der Vertauschungen von Ziffern, mit denen man aus einer Per-mutation {π(1), . . . , π(n)} die Identitat herstellen kann, ist gerade, wenn sgn(π) = +1ist, ungerade, wenn sgn(π) = −1 ist. Insbesondere ist sie stets entweder gerade oderungerade.

Den Beweis dieses Resultates stellen wir kurze Zeit zuruck, um mit der Theorie derDeterminanten weiterzumachen. Wir erhalten jetzt also

f(a1, . . . , an) =∑

π∈Sn

sgn(π)α1,π(1), . . . , αn,π(n) · f(e1, . . . , en)

Wir sehen also: Alternierende Multilinearformen sind bestimmt durch Festlegung desWertes f(e1, . . . , en) einer Basis {e1, . . . , en} von V .

77

Page 78: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12 Determinanten

12.6 Satz: Durch den Ausdruck

f(a1, . . . , an) =∑

π∈Sn

sgn(π)α1,π(1), . . . , αn,π(n) · f(e1, . . . , en)

mit

ai =

n∑

j=1

αijej (i = 1 . . . n)

wird eine alternierende Multilinearform festgelegt, die trivial ist, genau dann, wennf(e1, . . . , en) = 0 ist.

Beweis: Die Multilinearitat, d.h. die Linearitat in jeder der Variablen a1, a2, . . . entnimmtman sofort der Formel. Ist etwa ai = aj , so schreibe man

f(a1, . . . , an) =∑

π∈Sn

π(i)<π(j)

(α1,π(1) . . . αi,π(i) . . . αj,π(j) . . . αn,π(n) sgn(π)

+α1,π(1) . . . αj,π(j) . . . αi,π(i) . . . , αn,π(n) sgn(π)) ,

dabei entsteht die Permutation π aus π jeweils durch Vertauschen von π(i) und π(j).Dann gilt aber sgn(π) = (−1) sgn(π). Das sieht man so ein. Vertauscht man π(i), π(i+1),so andert sich die Anzahl der Fehlstellung um +1 oder −1, in jedem Fall ergibt sich furdie so geanderte Permutation das Signum (−1) sgn(π). Da nun eine Vertauschung vonπ(i) und π(j) durch die Folge von Vertauschung von π(i) mit π(i+1), . . . , π(j), also (j−i)Vertauschungen und anschließende Vertauschung von π(j) mit π(j−1), . . . , π(i+1), alsovon (j− i+1) Vertauschungen bewerkstelligt wird, so ist die Anzahl der Vertauschungeninsgesamt 2(j − i) + 1, also ungerade, woraus folgt:

sgn(π) = (−1)2(j−i)+1 sgn(π) = (−1) sgn(π)

Daraus folgt aber sofort

f(a1, . . . , ai, . . . , aj, . . . , an) = 0

falls ai = aj .Ist jetzt f(e1, . . . , en) = 1 etwa, so ist offenbar f nicht trivial. �

12.7 Bemerkung: Man uberlegt sich leicht, daß man die alternierenden Multilinearfor-men zu einem Vektorraum macht, indem wie ublich gesetzt wird:

(f + g)(a1, . . . , an) = f(a1, . . . , an) + g(a1, . . . , an)

(λf)(a1, . . . , an) = λf(a1, . . . , an)

Die obige Uberlegung zeigt also: Der Vektorraum der alternierenden Multilinearformenist eindimensional.

78

Page 79: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Determinanten von Endomorphismen

Determinanten von Endomorphismen

Sei jetzt ϕ : V → V ein beliebiger Endomorphismus des Vektorraums V ,f : V × . . .×V → K eine beliebige nichttriviale alternierende Multilinearform. Betrachtedie Abbildung

f : V × . . .× V −→ K ,

gegeben durch

f(a1, . . . , an) := f(ϕ(a1), . . . , ϕ(an))

Man sieht sofort: Auch f ist eine alternierende Multilinearform auf V . Daher ist sieproportional zur Form f , d.h. es gibt ein Element det(ϕ) ∈ K, f = det(ϕ) · f .

12.8 Definition und Satz: Es gibt ein eindeutig bestimmtes Element aus K, die sog.Determinante det(ϕ) des Endomorphismus von ϕ, so daß gilt:

f(ϕ(a1), . . . , ϕ(an)) = det(ϕ)f(a1, . . . , an)

fur a1, . . . , an ∈ V .

12.9 Bemerkung: Man rechnet sofort nach, daß det(ϕ) unabhangig von der Wahl deralternierenden Form f ist, da f bis auf einen skalaren Faktor eindeutig bestimmt ist.

12.10 Satz:

i) Sind ϕ, ψ ∈ End(V ), so gilt det(ϕ ◦ ψ) = det(ϕ) · det(ψ).

ii) ϕ : V → V ist ein Isomorphismus, genau dann, wenn det(ϕ) 6= 0 ist.

iii) Es gilt det(id) = 1 fur die Idenditat id ∈ End(V ).Es gilt det(ϕ−1) = det(ϕ)−1, falls ϕ−1 existiert.

Beweis: Es ist offenbar einerseits

f((ϕ ◦ ψ)(e1), . . . , (ϕ ◦ ψ)(en)) = det(ϕ ◦ ψ)f(e1, . . . , en).

Andererseits ist

f((ϕ ◦ ψ)(e1), . . . , (ϕ ◦ ψ)(en))

= f(ϕ(ψ(e1)), . . . , ϕ(ψ(en))

= det(ϕ) f(ψ(e1), . . . , ψ(en))

= det(ϕ) det(ψ) f(e1, . . . , en)

Damit folgt (i); (ii) und (iii) sind einfache Ubungen.

79

Page 80: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12 Determinanten

12.11 Bemerkung: Sei der Endomorphismus ϕ bzgl. irgendeiner Basis {e1, . . . , en}, inDreiecksform, d. h. es ist

ϕ(ei) = αiiei +

i−1∑

j=1

αjiej (i = 1 . . . n)

Dann ist

det(ϕ) =

n∏

i=1

αii

Beweis:

f(ϕ(e1), . . . , ϕ(en))

= f(α11e1, α12e1 + α22e2, . . . , α1ne1 + . . .+ αnnen)

= (α11α22 . . . αnn) f(e1, . . . , en)

Jetzt lassen sich auch leicht die Determinaten von Matrizen einfuhren.

Sei A = (αij)i≤i,j≤n eine Matrix aus M(n;K), {e1, . . . , en} die Standardbasis von Kn.Wir konnen den durch A gegebenen Endomorphismus von V bzgl. der Basis {e1, . . . , en}betrachten. Bezeichnet

aj = (α1j, . . . , αnj) (j = 1 . . . n)

die j-te Spalte der Matrix A, so ergibt sich offenbar nach Definition

f(a1, . . . , an) = det(A) · f(e1, . . . , en)

= det(A), wenn f(e1, . . . , en) = 1 ist.

Wir zeigen nun zuerst:

12.12 Satz: Fur Matrizen A ∈ M(n;K) gilt:

det(A) = det(At)

Beweis: Wir schreiben die Entwicklungsformel fur beide Ausdrucke hin, wobei wir nochbenutzen:

det(A) = f(a1, . . . , an)

det(At) = f(a1, . . . , an)

80

Page 81: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Determinanten von Endomorphismen

Dabei naturlich ai = (αi1, . . . , αin) die i-te Zeile fur 1 ≤ i ≤ n. Es ist dann:

det(A) =∑

π∈Sn

sgn(π) α1,π(1) . . . αn,π(n)

det(At) =∑

π∈Sn

sgn(π) α1,π(1) . . . αn,π(n)

=∑

π∈Sn

sgn(π) απ(1),1 . . . απ(n),n

=∑

π∈Sn

sgn(π) α1,π−1(1) . . . αn,π−1(n)

(hierbei hat man beim letzten Schritt die Terme nur umgeordnet, man beachte απ(i),i =αj,π−1(j) mit j = π(i))

Offenbar gilt aber:sgn(π−1) = sgn(π) ,

denn ist etwa 1 ≤ i < j ≤ n und π(i) > π(j) eine Fehlstellung von π, so folgt we-gen π−1(π(i)) = i < π−1(π(j)) = j, aber π(i) > π(j)), sofort, daß (π(j), π(i)) eineFehlstellung von π−1 ist. So folgt:

det(At) =∑

π∈Sn

sgn(π−1)(α1,π−1(1) . . . αn,π−1(n))

Mit π durchlauft aber auch die inverse Permutation π−1 die ganze Menge Sn. Daherkonnen wir, statt uber π, auch uber π−1 summieren und anschließend π durch π−1

ersetzen. Dann folgt:det(A) = det(At) �

12.13 Folgerung: Fur A ∈ M(n;K) ist det(A) (als Determinante des EndomorphismusA bzgl. der Basis {e1, . . . , en}) = f(a1, . . . , an).

12.14 Folgerung: Sei A ∈ M(n;K), so gilt:

i) Vertauscht man in A zwei Spalten, so andert sich det(A) um den Faktor (−1).

ii) Die Spalten von A sind linear abhangig, genau dann, wenn det(A) = 0 ist.

iii) Multipliziert man eine Spalte der Matrix Amit einen Faktor λ ∈ K, so multipliziertsich die Determinante mit λ.

iv) Addiert man das λ-fache einer Spalte von A zu einer anderen Spalte von A undlasst die Matrix ansonsten unverandert, so andert sich der Wert det(A) nicht.

Beweis: Folgt sofort aus det(A) = det(At) und den entsprechenden Zeileneigenschaften.�

81

Page 82: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12 Determinanten

12.15 Satz: Seien A,B ∈ M(n;K) n× n -Matrizen. Dann gilt

det(AB) = det(A) det(B)

Ist A eine invertierbare Matrix, so gilt:

det(A−1) = det(A)−1

Speziell ist A invertierbar genau dann, wenn det(A) 6= 0 ist.

Beweis: Wir fassen A,B : Kn → Kn als Endomorphismen auf. Alle Aussagen folgen ausden entsprechenden Aussagen in 12.10 uber Determinanten von Endomorphismen. �

12.16 Definition: Sei A = (αij)1≤i,j≤n ∈ M(n;K) eine (n × n) -Matrix. Seien i, j ∈{1, . . . , n}. Die zu αij komplementare Matrix Aij erhalt man aus A durch Streichen deri-ten Zeile und der j-ten Spalte.

12.17 Satz: (Laplace’sche Entwicklungsformel) Es gilt:

det(A) =

n∑

j=1

(−1)i+jαij det(Aij)

dabei i ∈ {1, . . . , n} eine feste Zahl.

12.18 Bemerkung: Dies ist die sog. Entwicklung nach Zeilen, entsprechend kann mannach einer Spalte entwickeln, dann ergibt sich die Formel

det(A) =

n∑

i=1

(−1)i+jαij det(Aij)

dabei j ∈ {1, . . . , n}.

Beweis: Wir betrachten beide Seiten als Funktion ihrer Zeilenvektoren, im ubrigen fuhrenwir einen Induktionsbeweis. Die Falle n = 1, n = 2 sind klar.Induktionsschritt: Beide Seiten sind linear in den Zeilen. Ist A die Einheitsmatrix, so istdie Formel richtig. Seien endlich zwei Zeilen gleich, etwa die die k-te und l-te. Also

ak = (αk1, . . . , αkn)= al = (αl1, . . . , αln)

}

Sei zunachst k 6= i, l 6= i. Dann folgt sofort, daß beide Seiten gleich sind. Sei jetzt etwak = i, l 6= i. In diesem Falle entwickelt man auf der rechten Seite nach Induktionsannah-me die Determinanten Aij nach der letzen Zeile (bzgl. A). Man sieht dann leicht, dassauch die rechte Seite Null wird.Damit erfullen beide Seiten in 12.17 die kennzeichnenden Eigenschaften einer Determi-nante. Die Behauptung folgt. �

82

Page 83: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Determinanten von Endomorphismen

Eine unmittelbare Folgerung aus der Laplaceschen Entwicklungsformel ist folgende For-mel fur das Inverse einer Matrix:

12.19 Satz: Sei A = (αij)1≤i,j≤n eine n × n-Matrix mit det(A) 6= 0. Dann ist A inver-tierbar und es ist

A−1 =1

det(A)(Bij)1≤i,j≤n

mitBij = (−1)i+j det(Aji)(i ≤ i, j ≤ n)

Beweis: Folgt sofort aus 12.17 Durch Ausmultiplizieren von A · A−1. �

12.20 Folgerung: (Cramersche Regel) Sei

Ax = b

ein Gleichungssystem von n linearen Gleichungen mit n Unbekannten, dabeix = (ξ, . . . , ξn), b = (β1, . . . , βn) geschrieben als Spaltenvektoren. Dann gilt:Ist det(A) 6= 0, also A invertierbar, so ist

ξi =1

det(A)det(Ai) fur i = 1, 2, . . . , n

Dabei entsteht Ai aus A durch Ersetzen der i-ten Spalte von A durch die Spalte

b =

β1...βn

Beweis: det(A) 6= 0 ⇒ A ist invertierbar.

x =

ξ1...ξn

= A−1b = A−1

β1...βn

A−1 =1

det(A)

(

(−1)i+j det(Aji))

(nach 12.19)

ξi =1

det(A)

n∑

j=1

(−1)i+j det(Aji)βj

=1

det(A)det(Ai) ,

dabei entsteht Ai durch Ersetzen der i-ten Spalte in A durch die Spalte

β1...βn

= b �

83

Page 84: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

12 Determinanten

Es sei hier vermerkt, daß die Entwicklungsformeln fur die Determinanten zur praktischenBerechnung recht ungeeignet sind. So hatte man bei einer Berechnung eine 8×8-Matrixbereits 8! = 40320 Terme zu berucksichtigen. Das Zeilentauschverfahren ist viel einfacher!

Zum Schluss noch eine haufig nutzliche Formel:

12.21 Satz: Sei die Matrix

X =

(

A B0 C

)

∈ M(n;K)

ferner A ∈ M(r;K), C ∈ M(n− r;K), d. h. X ist in Blockform gegeben. Dann gilt:

det(X) = det(A) det(C) .

Beweis: Es ist det(C) = 0 genau dann, wenn die Zeilenvektoren von C linear abhangigsind. Dann sind aber die entsprechenden durch Null verlangerten Zeilen von X ebenfallslinear abhangig. Damit ware det(X) = 0, ebenso det(C) = 0 und die Aussage des Satzesrichtig. Seien also die Zeilen von C linear unabhangig! Durch Zeilenoperationen konnenwir dann B zu Null machen, ohne daß der Wert von det(X) geandert wird. Sei dannB = 0. Dann fassen wir beide Seiten als Multilinearformen

fi(a1, . . . , ar; c1, . . . , cn−r) (i = 1, 2)

in den Zeilen von A bzw. C auf.Man stellt leicht fest:

i) Beide Seiten sind multilinear in den (a1, . . . , ar; c1, . . . , cn−r)

ii) Sind zwei der Zeilenvektoren in {a1, . . . , ar} bzw. {c1, . . . , cn−r} gleich, so sind beideSeiten Null.

iii) Ist X = En die Einheitsmatrix, so ist A = Er, C = En−r und die Behauptung gilt.

Jetzt schließt man leicht, daß beide Seiten gleich sind (siehe auch in den Ubungen). �

84

Page 85: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

13 Gruppen und Permutationen

Wir tragen zunachst den Beweis von Satz 12.5 nach:

Beweis: Es genugt offenbar zu zeigen: Ist π ∈ Sn eine Permutation, τ ∈ Sn eine Trans-position, so gilt fur die Anzahl der Fehlstellungen:

α(π) − α(π ◦ τ)

ist eine ungerade Zahl. Daraus folgt dann sofort:

sgn(π) = sgn(π ◦ τ)(−1)

Man sieht sofort, daß bei Vertauschung etwa der Terme π(i),π(i+1) in der Permutation{π(1), . . . , π(n)} sich die Anzahl α(π) der Fehlstellungen genau um ±1 andert. Die neuePermutation kann geschrieben werden als π ◦ (i, i + 1), dabei bezeichnet (i, i + 1) diePermutation von {1, . . . , n}, die nur i und i+ 1 vertauscht.

13.1 Lemma: Eine Transposition τ = (ij), die i und j vertauscht, i, j ∈ {1, 2, . . . , n},ist ein Produkt einer ungeraden Zahl von Transpositionen der Form (ζ, ζ + 1).

Beweis: Schreibe (mit i < j)

(i, j) = [((j − 1, j) · · · · · (i+ 2, i+ 3)(i+ 1, i+ 2)(i, i+ 1) . . . (j − 1, j − 2)(j − 1, j))]

Dies sind gerade (j − (i+ 1) + 1) + (j − 1 − (i+ 1) + 1) = (j − i) + (j − i) − 1 Terme,also eine ungerade Zahl. �

Hieraus folgt jetzt:

13.2 Satz: Fur alle Darstellungen von π ∈ Sn als Produkt von Transpositionen ist dieAnzahl der Faktoren entweder durchweg gerade oder durchweg ungerade.

Beweis: Ist zunachst τ eine einzelne Transposition, so gilt fur die Fehlstellungen:α(πτ) − α(π) ist eine ungerade Zahl. Hinzu schreiben wir τ als Produkt von Transposi-tionen (j, j + 1) und verwenden die obigen Resultate.

Dann folgt aber sofort: Ist π = τ1 . . . τr, so folgt α(πτr . . . τ1)−α(π) = α(πτr)−α(π)+α(πτrτr−1) − α(πτr) + · · · + (α(πτr . . . τ1) − α(πτr . . . τ2)).

Als Summe von r ungeraden Zahlen ist dies gerade bzw. ungerade genau, wenn dieAnzahl r der Faktoren gerade oder ungerade ist. Aber es ist πτ1 . . . τr = 1 die identischePermutation und α(1) = 0. Also folgt: α(π) ist gerade oder ungerade, je nachdem ob rgerade oder ungerade ist. Hiermit folgt die Behauptung. �

85

Page 86: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

13 Gruppen und Permutationen

13.3 Satz: Es ist

i) sgn(π1, π2) = sgn(π1) sgn(π2)

ii) sgn(π−1) = sgn(π)

iii) sgn(1) = 1

Beweis: Seien π1 = τ1 . . . τr, π2 = τ ′1 . . . τ′s Produkte von Transpositionen. Dann folgt

π1π2 = τ1 . . . τrτ′1 . . . τ

′s. Es folgt sgn(π1) = (−1)r, sgn(π2) = (−1)s, sgn(π1π2) = (−1)r+s.

Damit folgt (i). (ii) folgt zum Beispiel so: Ist π = τ1 . . . τr eine Darstellung von π alsProdukt von Transpositionen. Dann folgt: π−1 = τr . . . τ1 ! Also gilt sgn(π) = (−1)r undsgn(π−1) = (−1)r. Die Behauptung folgt. �

Bemerkung: Ein anderer Beweis zu (ii): Es ist sgn(1) = sgn(ππ−1) = sgn(π) sgn(π−1).Hieraus folgt: sgn(π) = sgn(π−1)

Sehr einfach kann man den gewonnenen Sachverhalt so ausdrucken:

sgn : Sn → {±1}

ist ein Gruppenhomomorphismus der symmetrischen Gruppe von n Objekten auf dieGruppe {±1, ·}. Hierzu jetzt einige einfache Grundbegriffe aus der Gruppentheorie. Aus-fuhrlicher gehen wir darauf im zweiten Teil der Vorlesung ein.

13.4 Definition: Eine Gruppe (G, ·) ist eine Menge versehen mit einer Verknupfungsab-bildung

” · ” : G×G→ G, (x, y) 7→ x · y ,

fur die die folgenden Axiome gelten:

i) die Verknupfung ist assoziativ, d. h. fur x, y, z ∈ G gilt: (xy)z = x(yz)

ii) die Gruppe besitzt ein Einselement e ∈ G, fur das gilt: Es ist x · e = e · x = x furalle x ∈ G.

iii) zu jedem Element x ∈ G gibt es ein zu x inverses Element x−1 ∈ G, so daß gilt:

x · x−1 = x−1 · x = e

13.5 Bemerkungen: Es reicht ubrigens in (ii) und (iii) jeweils nur die Existenz ei-ner Linkseins bzw. eines Linksinversen (oder entsprechend einer Rechtseins und einesRechtsinversen) zu fordern: Dann folgt automatisch, daß e auch xe = x erfullt, d. h.Rechtsseinelement ist bzw. daß xx−1 = e gilt, d. h. daß x−1 auch Rechtsinverses zu x ist.

86

Page 87: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

13.6 Folgerungen:

i) Das Einselement e ∈ G ist eindeutig bestimmt.

ii) Das inverse Element x−1 ist eindeutig bestimmt.

iii) Fur x, y ∈ G beliebig gilt (x−1)−1 = x und (xy)−1 = y−1x−1. Weiter ist (e)−1 = e.

iv) Fur a, b ∈ G ist die Gleichung ax = b (bzw. xa = b) eindeutig losbar und zwardurch x = a−1b (bzw. x = ba−1).

Beweis:

i) Sei e′ ∈ G ein weiteres Einselement. Dann ist e · e′ = e′ (da e Linkseins ist), aberauch e · e′ = e ( da e′ Rechtseins ist). Daher folgt: e = e′.

ii) Sei x′ ein weiteres Element mit xx′ = x′x = e fur gegebenes festes x. Wir betrachten(x−1xx′). Mittels des Assoziativgesetzes ergibt sich einerseits (x−1x)x′ = e ·x′ = x′,andererseits x−1(xx′) = x−1e = x−1. Daher zusammen x−1 = x′. Daher ist dasinverse Element x−1 zu einem Element x eindeutig bestimmt.

iii) Wegen xx−1 = x−1x = e und der Eindeutigkeit des inversen Elements folgt sofort(x−1)−1 = x. Weiter ist fur x, y ∈ G

(xy)(y−1x−1) = x(y(y−1x−1)) = x((yy−1)x−1) = x(ex−1) = xx−1 = e

und ganz entsprechend

(y−1x−1)(xy) = e

Da nach (ii) das inverse Element eindeutig bestimmt ist, folgt (xy)−1 = y−1x−1.Schließlich gilt e · e = e · e = e und daher ist e = (e)−1. �

13.7 Beispiele von Gruppen:

i) Wir hatten bereits die Gruppe der Permutationen von n Objekten, etwa der Zahlen{1, 2, . . . , n}, die sogenannte Sn. Allgemeiner hat man die Gruppe

Bij(X) = {ϕ : X → X | ϕ ist bijektive Abbildung}

Diese Menge wird mit der Hintereinanderausfuhrung von Abbildungen als Multi-plikation zu einer Gruppe. Also (ϕ ·ψ) := ϕ ◦ψ. Damit ist das Einselement geradedie identische Abbildung

id : X → X, x 7→ x

Das Inverse eines Elementes ϕ ∈ Bij(X) ist die inverse Abbildung ϕ−1 : X → X.

87

Page 88: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

13 Gruppen und Permutationen

ii) Sei V ein beliebiger K-Vektorraum. Dann ist

GL(V ) = {ϕ : V → V | ϕ ist bijektive lineare Abbildung}

mit der Komposition als Multiplikation eine Gruppe.

iii) Jeder Vektorraum V ist eine Gruppe mit der Vektoraddition als Verknupfung.Naturlich schreibt man diese dann additiv, also x+ y (statt x · y) fur x, y ∈ V . Eshandelt sich um eine sogenannte kommutative oder auch abelsche Gruppe (nachN.H. Abel, 1802–1829), in der x+ y = y + x fur alle x, y ∈ G gilt.

iv) Ist (K,+, ·) ein beliebiger Korper, so sind (K,+) und (K×, ·) mit K× := K \ {0}beide Gruppen, die additive und die multiplikative Gruppe des Korpers.

13.8 Definition: Sei G eine Gruppe, H ⊂ G eine Teilmenge. H ist eine Untergruppevon G :⇔

i) Es ist e ∈ H

ii) Mit x, y ∈ H ist auch xy−1 ∈ H .

13.9 Satz: Eine Untergruppe H von G ist insbesondere mit der von G durch Einschran-kung definierten Operation selber eine Gruppe.

Beweis: Ist x ∈ H , so ist wegen e ∈ H auch e ·x−1 = x−1 ∈ H . Sind x, y ∈ H , so ist auchy−1 ∈ H nach der Uberlegung oben und daher auch x(y−1)−1 = xy ∈ H . Da danach dieMultiplikation auf H wohldefiniert ist und e ∈ H ist, auch weiter mit x ∈ H x−1 ∈ Hist, ergeben sich die Eigenschaften (i), (ii), (iii) einer Gruppe sofort. �

13.10 Beispiele:

i) Sei Sn die Permutationsgruppe aller Permutationen der Ziffern {1, 2, . . . , n},

An := {π ∈ Sn | sgn(π) = 1}

die Teilmenge aller geraden Permutationen. Offenbar ist An eine Untergruppe vonSn, die sogenannte alternierende Gruppe.

ii) Sei GL(V ) die allgemeine linearen Gruppe der bijektiven linearen Abbildung desVektorraumes V in sich. Sei

SL(V ) := {ϕ ∈ GL(V ) | det(ϕ) = 1} .

Offenbar ist SL(V ) eine Untergruppe der GL(V ), die sogenannte spezielle lineareGruppe.

88

Page 89: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

iii) SeiB := {ϕ ∈ GL(V ) | ϕ(ei) ∈ Ke1 + · · ·+Kei, i = 1, . . . , n} ,

dabei {e1, . . . , en} eine Basis von V . B ist eine Untergruppe der GL(V ).

iv) Sei (V,+) ein Vektorraum, aufgefaßt als Gruppe bezuglich der Addition als Grup-penmultiplikation. Sei W ⊂ V ein Untervektorraum. Dann ist (W,+) eine Unter-gruppe von V .

13.11 Definition: G, G′ seien Gruppen, ϕ : G→ G′ eine Abbildung. ϕ ist ein Gruppen-homomorphismus :⇔ Fur alle x, y ∈ G gilt ϕ(xy) = ϕ(x)ϕ(y).

13.12 Folgerungen:

i) Es ist ϕ(e) = e′ fur e ∈ G, e′ ∈ G′ die Einselemente.

ii) Es ist ϕ(x−1) = ϕ(x)−1 fur alle x ∈ G.

iii) Das Bild Im(ϕ) ⊂ G′ ist eine Untergruppe.

iv) Der sogenannte Kern des Homomorphismus ϕ,

Ker(ϕ) := {x ∈ G | ϕ(x) = e′}

ist eine Untergruppe und sogar ein sogenannter Normalteiler von G.

Beweis:

i) Es ist ϕ(e · e) = ϕ(e) = ϕ(e) · ϕ(e) Daraus folgt sofort: ϕ(e) = e′.

ii) Offenbar ist ϕ(xx−1) = ϕ(e) = e′, andererseitsϕ(xx−1) = ϕ(x)ϕ(x−1) = e′ bzw.ϕ(x−1x) = ϕ(x−1)ϕ(x) = e′,daher ϕ(x−1) = ϕ(x)−1 wegen der Eindeutigkeit des Inversen eines Elementes.

iii) Ubung

iv) Offenbar ist wegen ϕ(e) = e′ also e ∈ Ker(ϕ). Weiter ist mit x, y ∈ Ker(ϕ) auchxy−1 ∈ Ker(ϕ), denn es ist ϕ(xy−1) = ϕ(x)ϕ(y)−1 = e. Schließlich besagt dieNormalteilereigenschaft, daß mit x ∈ Ker(ϕ) und a ∈ G auch axa−1 ∈ Ker(ϕ) ist.Das ist richtig, denn es ist

ϕ(axa−1) = ϕ(a)ϕ(x)ϕ(a)−1 = ϕ(a)e′ϕ(a)−1 = e′

13.13 Definition und Satz: Eine Untergruppe N einer Gruppe G ist ein Normalteiler,wenn eine der folgenden aquivalenten Bedingungen erfullt ist:

89

Page 90: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

13 Gruppen und Permutationen

i) Fur alle g ∈ G ist gN = {gn | n ∈ N} = Ng = {ng | n ∈ N}

ii) Es ist gNg−1 := {gng−1 | n ∈ N} = N

Beweis: Ubung! �

13.14 Beispiele:

i) Sei G = Sn, G′ = {±1} mit Multiplikation als Verknupfung.

sgn : G→ G′, π 7→ sgn(π) ist ein Gruppenhomomorphismus. Ker(sgn) = An ⊂ Snist die alternierende Gruppe.

ii) Sei V ein endlich dimensionaler Vektorraum uber dem Korper K, G = GL(V ) dieallgemein lineare Gruppe der Automorphismen des Vektorraumes V . Dann ist dieDeterminantenabbildung det : GL(V ) → (K×, ·) ein Gruppenhomomorphismus indie multiplikative Gruppe des Korpers K. Es ist

Ker(det) = {ϕ ∈ GL(V ) | det(ϕ) = 1} =: SL(V )

die sogenannte spezielle lineare Gruppe, ein Normalteiler in der GL(V ).

iii) Sei ϕ : V → W ein Vektorraumhomomorphismus. Dann ist ϕ insbesondere auchein Homomorphismus der Gruppe (V,+) in die Gruppe (W,+).

13.15 Satz: Sei G eine Gruppe, a ∈ G. Dann ist

Int(a) : G → Gx 7→ axa−1

}

ein sogenannter innerer Automorphismus der Gruppe G.

Beweis: Ubung. �

13.16 Ubung:

i) Sei Aut(G) die Menge der Automorphismen der Gruppe G. Diese bildet selberbezuglich Komposition eine Gruppe.

ii) Die Abbildung Int : G → Aut(G) , a 7→ Int(a) ist ein Homomorphismus vonGruppen.

13.17 Definition: Sei V ein endlich dimensionaler Vektorraum. Eine Translation von Vmit v ∈ V ist die Abbildung Tv : V → V, x 7→ Tv(x) = x+ v.

13.18 Proposition: Mit Hintereinanderausfuhrung als Komposition bilden die Transla-tionen eines Vektorraumes V eine Gruppe, die sogenannte Gruppe der Translationen.Diese ist isomorph zum Vektorraum V , aufgefaßt als Gruppe (V,+).

90

Page 91: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Beweis: Es ist Tv1◦Tv2 = Tv1+v2 = Tv2◦Tv1 Die Zuordnung v 7→ Tv liefert den gewunschtenIsomorphismus. �

13.19 Definition: Eine affine Abbildung des zu V gehorenden affinen Raumes in denzum Vektorraum W gehorenden affinen Raum W , A : V → W , wird gegeben durchHintereinanderausfuhrung einer linearen Abbildung ϕ und einer Translation Tv, d. h.A = (Tv ◦ ϕ). Explizit gilt fur x ∈ V : A(x) = ϕ(x) + v.

13.20 Satz:

i) Die Komposition von zwei affinen Abbildungen A : V → W , B : W → U ist wiederaffin.

ii) Eine affine Abbildung ist bijektiv genau, wenn der”lineare Anteil“ ϕ (siehe oben)

bijektiv ist. Dann ist die inverse Abbildung ebenfalls affin.

iii) Die Menge aller invertierbaren affinen Abbildungen A : V → V bildet mit Kom-position eine Gruppe, die sogenannte affine Gruppe Aff(V ). Aff(V ) enthalt alsUntergruppe die Gruppen GL(V ) und die Gruppe T der Translationen. T ist so-gar ein Normalteiler in Aff(V ).

Beweis:

i) A(x) = ϕ(x) + v, B(x) = ψ(x) + w. Dann ist

(A◦B)(x) = A(B(x)) = A(ψ(x)+w) = ϕ(ψ(x)+w)+v = (ϕ◦ψ)(x)+(ϕ(w)+v)

Das heißt (A ◦B) ist gegeben durch Hintereinanderausfuhrung der linearen Abbil-dung (ϕ ◦ ψ) und der Translation Tϕ(w)+v.

ii) Ist ϕ invertierbar und y = ϕ(x) + v, so ergibt sich

x = ϕ−1(y − v) = ϕ−1(y) − ϕ−1(v) = (T−ϕ−1(v) ◦ ϕ−1)(y)

Also ist die inverse Abbildung affin.

iii) Ubung.

91

Page 92: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

13 Gruppen und Permutationen

92

Page 93: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

Ist eine lineare Abbildungϕ : V → V

eines K-Vektorraumes V durch eine Matrix gegeben, etwa

A = Matrix(ϕ : {e1, . . . , en})

bezuglich einer Basis {e1, . . . , en}, sodass

A =

α11 0. . .

0 αnn

in Diagonalgestalt vorliegt, so kann man mit ihr in dieser Form besonders gut rechnen.Zum Beispiel kann man unmittelbar die Potenzen

Ak =

αk11 0. . .

0 αknn

fur k ∈ Z beliebig ausrechnen oder etwa die Determinante

det(A) =

n∏

i=1

αii .

Fur die Basisvektoren {e1, . . . , en} gilt

ϕ(ei) = αiiei (i = 1, . . . , n) ,

d. h. die Vektoren ei werden in skalare Vielfache von sich selbst abgebildet oder andersgesagt:

ϕ(Kei) ⊆ Kei (i = 1, . . . , n)

d. h. die durch ei bestimmte Gerade Kei wird in sich selbst abgebildet.

Aus diesen Grunden stellen wir uns jetzt folgende Frage: Gegeben eine beliebige lineareAbbildung

ϕ : V → V

93

Page 94: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

Gesucht sind Vektoren x ∈ V und Skalare λ ∈ K, sodass gilt:

ϕ(x) = λx

14.1 Definition: Sei ϕ : V → V eine lineare Abbildung des Vektorraumes V . EinEigenvektor x zum Eigenwert λ ist ein Vektor x ∈ V , x 6= 0, fur den gilt:

ϕ(x) = λx

Wir untersuchen jetzt, wie man Eigenwerte und Eigenvektoren finden kann.Sei also x ∈ V , x 6= 0 und ϕ(x) = λx mit λ ∈ K. Wir schreiben dies als ϕ(x) = λ id(x)

mittels der identischen Abbildung id : V → V . Daraus folgt (ϕ− λ id)(x) = 0, d. h. dielineare Abbildung (ϕ−λ id) ist nicht injektiv, da sie den Vektor x, x 6= 0, auf 0 abbildet.Daraus folgt fur die Determinante

det(ϕ− λ id) = 0

als Bedingung an den Eigenwert λ. Es gilt aber auch die Umkehrung!

Sei fur λ ∈ Kdet(ϕ− λ id) = 0

Dies bedeutet nach den allgemeinen Resultaten uber lineare Abbildungen, dass die linea-re Abbildung ϕ−λ id : V → V nicht injektiv ist. Das bedeutet aber, dass Ker(ϕ−λ id) 6=0 ist, bzw. es existiert x ∈ V , x 6= 0 mit (ϕ− λ id)(x) = 0

Letzteres ist aber aquivalent zu ϕ(x) = λx, also ist x ∈ V darum auch ein Eigenvektorzum Eigenwert λ.

Die Bedingungdet(ϕ− λ id) 6= 0

wollen wir jetzt noch etwas genauer verstehen.

Sei {e1, . . . , en} eine beliebige Basis von V ,

A := Matrix(ϕ; {e1, . . . , en}) = (αij)1≤i,j≤n ,

die zugehorige Matrix, die ganz beliebig sein kann.Wir haben

det(ϕ− λ id) = det(A− λE) ,

da E = Matrix(id; {e1, . . . , en}).Es ist

(A− λE) = (αij − λδij)1≤i,j≤n

mit Kronecker-Symbol δij .

94

Page 95: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Aus der Entwicklungsformel fur die Determinante ergibt sich sofort

det(A− λE) = (−1)nλn + (−1)n−1

(

n∑

i=1

αii

)

λn−1 + · · · + det(A) .

D. h. , es ergibt sich ein Polynom, das sogenannte charakteristische Polynom in λ, mithochstem Koeffizienten (−1)n und konstantem Koeffizienten det(A). Wir konnen auchschreiben

det(ϕ− λ id) = (−1)nλn + (−1)n−1 Sp(ϕ)λn−1 + · · ·+ det(ϕ) ,

das charakteristische Polynom hangt nach seiner Definition nur vom Endomorphismusϕ ab.

Wir fassen die Ergebnisse zusammen.

14.2 Satz: Sei ϕ : V → V eine lineare Abbildung des endlichdimensionalen VektorraumsV. Ein Skalar λ ∈ K ist Eigenwert von ϕ genau dann, wenn gilt: det(ϕ− λ id) = 0, d. h.genau, wenn λ eine Nullstelle des charakteristischen Polynoms

det(ϕ− λ id) = (−1)nλn + (−1)n−1 Sp(ϕ)λn−1 + · · ·+ det(ϕ)

ist. Zu einem Eigenwert λ ∈ K gibt es dann insbesondere einen Eigenvektor x ∈ V ,x 6= 0, der die Eigenwertgleichung

ϕ(x) = λx

erfullt.

14.3 Bemerkungen: Man kann die obigen Betrachtungen naturlich auch direkt furMatrizen durchfuhren. Gesucht ist dann zu einer (n × n)-Matrix A ∈ M(n,K), A =(αij)1≤i,j≤n ein Vektor x = (ξ1, . . . , ξn)

t, sodass gilt

A · x = λx

= λE · xmit E ∈ M(n;K) die Einheitsmatrix. Daraus ergibt sich wieder

det(A− λE) = 0 ,

d. h. λ muss Nullstelle des charakteristischen Polynoms sein.

14.4 Beispiele:

i) Sei

A =

α1 0. . .

0 αn

eine Diagonalmatrix mit Diagonaltermen α1, . . . , αn ∈ K. Dann sind α1, . . . , αnauch genau die Eigenwerte der zu A gehorenden linearen Abbildung.ei (i = 1, . . . , n) ist jeweils Eigenvektor zum Eigenwert λi, allerdings mussen dieskeineswegs alle Eigenvektoren sein, siehe hierzu Beispiel (ii).

95

Page 96: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

ii) Sei A = αE, α ∈ K.Dann ist jeder Vektor x ∈ Kn ein Eigenvektor zum Eigenwert λ = α. Entspre-chendes gilt naturlich fur einen Endomorphismus ϕ = α · id.

iii) Eine lineare Abbildung hat eventuell keinen Eigenwert. Sei etwa

A =

(

cos(ϕ) sin(ϕ)− sin(ϕ) cos(ϕ)

)

: R2 → R2

eine reelle Matrix, die die Drehung um einen Winkel ϕ beschreibt. Ist etwa 0 <ϕ < π, so wird offenbar keine Gerade durch den Nullpunkt bei der Drehung in sichubergefuhrt. In der Tat ergibt sich fur das charakteristische Polynom

λ2 − 2λ cos(ϕ) + 1 = 0 bzw.

(λ− cos (ϕ))2 = −1 + cos2(ϕ) < 0 fur 0 < ϕ < π

Daher hat das charakteristische Polynom keine reelle Losung, was den oben ge-nannten anschaulichen Befund bestatigt.

Kurzes Intermezzo: Polynome und Polynomfunktionen: K sei Korper; eine Polynom-funktion ist eine Abbildung

p : K → K, λ 7→ p(λ) =n∑

i=0

αiλi

dabei {α0, . . . , αn} ⊂ K fest.Ein Polynom ist ein formaler Ausdruck der Form

∑ni=0 αix

i.Die Menge aller Polynome mit Koeffizienten αi ∈ K (i = 0, . . . , n) bildet mit der ub-

lichen formalen Addition und Multiplikation einen Ring, den sogenannten PolynomringK[x] uber K. Offenbar bestimmt jedes Polynom p ∈ K[x], p =

∑ni=0 αix

i eine zugehorigePolynomfunktion

p = p : K → K, λ 7→n∑

i=0

αiλi .

Umgekehrt bestimmt p eindeutig das Polynom p, sofern K unendlich ist. Ist K dagegenein endlicher Korper, so gibt es offenbar nur |K|K| verschiedene Funktionen K → K, alsoauch hochstens so viele Polynomfunktionen, dagegen gibt es unendlich viele Polynomein K[x].

Beispiel: Ist K = F2, so ist die Polynomfunktion p : F → F, λ 7→ (λ2 − λ) offenbaridentisch 0, also p = 0 als Polynomfunktion. Dagegen sind die Polynome 0 und (x2 − x)in K[x] verschiedene Elemente.

14.5a Definition: Ein Polynom f(x) ∈ K[x] (dem Polynomring uber K) heißt irre-duzibel, wenn es keine echte Zerlegung f(x) = f1(x)f2(x) (mit deg (f1) < deg (f),deg (f2) < deg (f)) gibt.

96

Page 97: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14.5b Satz: Jedes Polynom f(x) kann als Produkt von irreduziblen Polynomen ge-schrieben werden. Diese Zerlegung ist im Wesentlichen (d. h. bis auf Multiplikation mit(konstanten) Elementen aus K∗ und bis auf die Anordnung der Faktoren) eindeutig. Die-sen Satz werden wir erst im zweiten Teil der Vorlesung beweisen. Das Ergebnis werdenwir allerdings unten benutzen.

Fur die Nullstellen einer Polynomfunktion gelten folgende Satze.

14.5c Satz: Sei P (x) =∑n

i=0 pixi, pi ∈ K fur i = 0, . . . , n ein Polynom uber K, α ∈ K

sei Nullstelle von P , d. h. P (α) =∑n

i=0 piαi = 0. Dann kann man das Polynom P (x)

schreiben alsP (x) = (x− α)P1(x)

Beweis: Es ist

P (x) = P (x) − P (α)

=n∑

i=0

pi(xi − αi)

=

(

n∑

i=0

pi(xi−1 + · · · + αi−1)

)

(x− α)

14.6 Bemerkung: Sei P (x) =∑n

i=0 pixi wie oben, α ∈ K. α ist eine Nulllstelle m-ter

Ordnung von f :⇔ Man kann schreiben P (x) = (x− α)mP1(x) mit P1(α) 6= 0. m heißtauch die Vielfachheit oder Multiplizitat der Nullstelle α.

14.7 Satz: Sei P (x) =∑n

i=0 pixi wie oben ein beliebiges Polynom vom Grad n, α1, . . . , αr

seien die samtlichen Nullstellen von P (x), m1, . . . , mr ihre Multiplizitaten. Dann gilt:Es ist

∑ri=1mi ≤ n = deg P (x), d. h. es gibt fur jedes Polynom n-ten Grades hochs-

tens n Nullstellen, wobei Vielfachheiten berucksichtigt sind. Speziell gibt es hochstens nverschiedene Nullstellen von P in K.

Beweis: Schreibe P (x) als Produkt seiner irreduziblen Faktoren. Aufgrund der Eindeu-tigkeit treten auf jeden Fall die Faktoren (x−αi)mi alle auf. Daher hat man eine Zerlegung

P (x) =

r∏

i=1

(x− αi)miP1(x)

Die Behauptung folgt. �

14.8 Definition: Ein Korper K heißt algebraisch abgeschlossen :⇔ Jedes Polynom vomGrad n,

P (x) =n∑

i=0

pixi (mit pn = c, c 6= 0)

97

Page 98: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

kann geschrieben werden als Produkt von Linearfaktoren mit Vielfachheiten, also

P (x) = c ·r∏

i=1

(x− αi)mi , c ∈ Kx

Speziell gilt dann∑r

i=1mi = n.

14.9 Satz: Der Korper C der komplexen Zahlen ist algebraisch abgeschlossen.

Beweis: Siehe Vorlesung zur Algebra (→ algebraischer Beweis) bzw. Funktionentheorie-vorlesung (→ analytischer Beweis).

Bemerkungen:

i) Tatsachlich gibt es zu jedem Korper K einen Erweiterungskorper K, der K enthaltund algebraisch abgeschlossen ist. Der bis auf Isomorphie eindeutig bestimmtekleinste derartige Korper ist der (ein) algebraischer Abschluss K von K.

ii) Zum Beispiel ist der algebraische Abschluss des Korpers R der reellen Zahlen derKorper C der komplexen Zahlen.

iii) Uber R kann man immerhin jedes Polynom

P (x) = P1(x) · · · · · Pr(x)

noch als Produkt von linearen und quadratischen Polynomen schreiben.

14.10 Satz: Hat der Endomorphismus ϕ : V → V des n-dimensionalen K-VektorraumsV n verschiedene Eigenwerte λ1, . . . , λn, so hat ϕ bezuglich einer Basis aus Eigenvektoren{e1, . . . , en} die Gestalt

Matrix(ϕ; {e1, . . . , en}) =

λ1 0. . .

0 λn

,

hat also Diagonalgestalt.

Beweis: Zu jedem der λi (i = 1, 2, . . . , n) findet man ei ∈ V , ei 6= 0 mit ϕ(ei) = λiei. Esbleibt zu zeigen: {e1, . . . , en} ist ein linear unabhangiges System. Sei etwa (O.E. durchUmnumerieren) {e1, . . . , er} mit r minimal, so dass eine nichttriviale Relation

µ1e1 + µ2e2 + . . .+ µrer = 0

besteht. Speziell sind alle µi 6= 0.Anwendung des Endomorphismus ϕ liefert

µ1λ1e1 + µ2λ2e2 + . . .+ µrλrer = 0

98

Page 99: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Dabei sind die λi alle voneinander verschieden fur i = 1, 2, . . . , r. Wir haben weiter

λ1µ1e1 + . . .+ λ1µrer = 0

Substraktion ergibt eine Relation

(µ2λ2 − µ2λ1)e2 + . . .+ (µrλr − µrλ1)er = 0

Da r minimal war, folgt:

µ2(λ2 − λ1) = . . . = µr(λr − λ1) = 0

Da aber die λi paarweise verschieden sind, folgt:

µ2 = . . . = µr = 0

Dann folgt aber µ1e1 = 0, wegen e1 6= 0 also auch µ1 = 0. Also war die Ausgangsrelationentgegen der Annahme trivial. Widerspruch. �

14.11 Definition und Satz: Sei ϕ : V → V ein Endomorphismus, λ ∈ K. Der Eigenraumzum Eigenwert λ ist

V (λ;ϕ) := {x ∈ V |ϕ(x) = λx}Insbesondere ist V (λ;ϕ) ein Untervektorraum von V .

Beweis: Ubung. �

14.12 Definition und Satz: Seien ϕ, λ wie oben. Der verallgemeinerte Eigenraum zu λist

V (ϕ;λ) := {x ∈ V |∃N > 0, (ϕ− λ id)N(x) = 0}V (ϕ;λ) ist wiederum ein Untervektorraum von V .

Beweis: Seien x, y ∈ V (ϕ;λ), etwa (ϕ−λ id)N(x) = 0, (ϕ−λ id)M(y) = 0 mit N,M ∈ N

geeignet. Sei o.E.d.A. N = max{N,M}. Dann ist auch

(ϕ− λ id)N(y) = 0 ,

damit aber auch (ϕ−λ id)N(x+ y) = 0. Entsprechend naturlich (ϕ−λ id)N (αx) = 0. �

14.12’ Satz: Der Operator ϕ (beziehungsweise die ganze Algebra C[ϕ] der Endomor-phismen

∑mj=0 λjϕ

j) bildet die Eigenraume und die verallgemeinerten Eigenraume insich ab.

Beweis: Wir zeigen zum Beispiel

ϕ(V (λ;ϕ)) ⊆ V (λ;ϕ)

99

Page 100: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

Sei also v ∈ V (λ;ϕ). Dann existiert N > 0, (ϕ− λ)N(v) = 0. Dann ist aber

(ϕ− λ)N (ϕ(v))

= ϕ(ϕ− λ)N(v) (da C[ϕ] kommutativ ist)

= ϕ(0) = 0

Also folgt: ϕ(v) ∈ V (λ;ϕ). �

14.13 Satz: Seien λ1, . . . , λr ∈ K, paarweise verschieden. Dann ist

i)r∑

i=1

V (ϕ;λi) =r⊕

i=1

V (ϕ;λi)

eine direkte Zerlegung.

ii)r∑

i=1

V (ϕ;λi) =

r⊕

i=1

V (ϕ;λi)

ebenfalls eine direkte Zerlegung.

Beweis: Wir zeigen, wie die Aussage (ii) auf (i) reduziert wird.

Angenommen, es besteht eine nichttriviale Relation der Form∑r′

i=1 vi = 0, dabeivi ∈ V (ϕ;λi) : r′ sei minimal. Wenden wir etwa (ϕ− λj) an, so ergibt sich

r′∑

i=1

(ϕ− λj)(vi) = 0 (j ∈ {1, . . . , r})

Da nach 14.12’ (ϕ−λj)(vi) ∈ V (ϕ;λi) fur i = 1, . . . , r gilt, konnen wir durch sukzessiveAnwendung der Operatoren (ϕ−λj id) erreichen, dass generell (ϕ−λi)(vi) = 0 gilt. D. h.aber, wir haben (ii) auf (i) reduziert. Aber (i) wird genau wie 14.10 gezeigt. �

14.14 Ein typisches Beispiel: Sei λ ∈ K, wir betrachten die Matrix

A =

λ 1 0. . .

. . .

. . . 10 λ

mit λ’s in der Diagonalen, 1 in der Nebendiagonalen. Wir berechnen V (λ;ϕ), V (λ;ϕ)und zeigen V (β;ϕ) = 0 falls β 6= λ:

100

Page 101: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

a)V (λ;ϕ) = K · e1

Beweis: Nachrechnen!

b) Offenbar ist V (λ;ϕ) = V , da ja

(A− λ id) =

0 1 0. . .

. . .

. . . 10 0

und weiter gilt:

0 1 0 . . . 00 0 1 . . . 0

. . .

0 0 10 0 0

n

= 0

c) Offenbar ist V (β;ϕ) = 0. Dann ist auch V (β;ϕ) = 0.

14.15 Satz: (Jordansche Normalform) Sei ϕ : V → V ein Endomorphismus des Vektor-raums V uber dem algebraisch abgeschlossenen Korper K. Dann besitzt V eine direkte

Zerlegung V =⊕r

i=1 Vi, invariant unter ϕ, so dass fur jedes Vi eine Basis{

e(i)1 , . . . , e

(i)ni

}

existiert mitϕ(

e(i)1

)

= λie(i)1

ϕ(

e(i)2

)

= λie(i)2 + e

(i)1

......

ϕ(

e(i)ni

)

= λie(i)ni + e

(i)ni−1

Diese Zerlegung ist im Wesentlichen eindeutig.

Beweis: (Durch vollstandige Induktion nach der Dimension dim(V ) von V )Der Fall dim(V ) = 1: Hier ist alles trivial.

Induktionsschritt: Sei also ϕ : V → V gegeben, λ ∈ K sei Eigenwert. Wir betrachtenϕ− λ id : V → V . Wegen Ker(ϕ− λ id) 6= 0 folgt:

V := (ϕ− λ id)(V ) ( V Weiter ist

ϕ(V ) ⊆ V .

Also konnen wir nach Induktionsannahme ϕ|V in Jordanscher Normalform annehmen.Das heißt, wir finden Vi, i = 1, . . . , r mit:

101

Page 102: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

1) Es ist ϕ(Vi) ⊆ Vi, d. h. die Vi sind Eigenraume von ϕ.

2)

Es ist V =

r⊕

i=1

Vi

3) Es gibt Basis{

e(i)1 , . . . , e

(i)ri

}

von Vi mit

ϕ(

e(i)1

)

= λie(i)1

ϕ(

e(i)2

)

= λie(i)2 + e

(i)1

......

ϕ(

e(i)ri

)

= λie(i)ri

+ e(i)ri−1

Ist λi 6= λ so sieht man sofort: ϕ− λ id |Viist bijektiv (der einzige Eigenwert von (ϕ|Vi

)ist ja doch λi 6= λ).

Ist λ = λi fur i ∈ {1, . . . , s}, etwa fur i ∈ {1, . . . , t} mit t ≤ s, so wahle jeweils e(i)ri+1 mit

(ϕ− λi)(

e(i)ri+1

)

= e(i)ri

Wir setzen

ri+1 =: ri fur diese i mit λi = λ, ri =: ri fur die anderen.

Wir erganzen weiter das System der Vektoren{

e(1)1 , e

(2)1 , . . . , e

(t)1

}

, das ja linear unab-

hangig ist nach Induktionsvorraussetzung und aus Ker(ϕ− λ id) ist, zu einer Basis vonKer(ϕ− λ id). Die neuen Vektoren seien etwa

{

e(t+1)1 , e

t+2)1 , . . . , e

(t+r)1

}

.

Behauptung: Das System der Vektoren{

e(j)i |i ∈ {1, . . . , s}, j ∈ {1, . . . , ri}

}

∪{

e(t+1)1 , e

(t+2)1 , . . . , e

(t+r)1

}

(mit s := t+ r)liefert eine Basis von V , bezuglich der ϕ in Jordanscher Normalform ist.

Beweis: Zunachst zeigen wir: Obiges System ist ein Erzeugendensystem von V . Dies istklar, denn wir schreiben fur einen beliebigen Vektor v ∈ V

(ϕ− λ)(v) =

s∑

i=1

ri∑

h=1

λihe(i)h

102

Page 103: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Da aber jeder der Vektoren e(i)h nach obiger Uberlegung in der Form

(ϕ− λ)(xi) mit xi ∈ri∑

k=1

Ke(i)k

geschrieben werden kann, folgt: Wir finden eine Linearkombination der oben angegebe-nen Basisvektoren,

y :=

s∑

i=1

ri∑

j=1

µije(j)i

mit

(ϕ− λ)(v) = (ϕ− λ)(y)

D. h. aber: (ϕ− λ)(v − y) = 0.Dann kann aber (v − y) als Linearkombination der Vektoren aus

{

e(1)1 , . . . , e

(s)1

}

geschrieben werden.Es folgt, dass wir oben ein Erzeugendensystem vorliegen haben.

Als nachsten Schritt zeigen wir, dass unser System oben linear unabhangig ist. Unserobiges System besteht aus

s∑

i=1

ri + r Vektoren.

Es ist

dim(ϕ− λ id)(V ) =t∑

i=1

(ri − 1) +s∑

i=t+1

ri

weiter ist

dim Ker(ϕ− λ) = (t+ r).

Damit folgt aber:

dim(V ) =

t∑

i=1

ri +

s∑

i=t+1

ri + r ,

also genau die Anzahl der Vektoren unseres oben angegebenen Systems. Daher ist unserSystem nicht nur ein Erzeugendensystem, sondern auch notwendig linear unabhangig,also eine Basis. Damit ist die Existenz einer Jordanschen Normalform gezeigt.

Eindeutigkeit: Die Menge der auftretenden Eigenwerte {λi} ist durch ϕ naturlich ein-deutig bestimmt. Die Dimensionen

dim(

Ker(ϕ− λi id)j)

, i = 1, . . . , s , j = 1, 2, . . .

103

Page 104: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

bestimmen, wie man leicht nachrechnet, die samtlichen numerischen Paramter der Jordan-schen Zerlegung eindeutig. Die Behauptung folgt. �

Wir geben zum besseren Verstandnis noch die entsprechende Aussage uber Matrizen,die naturlich ohne weiteres aus obigem Resultat folgt.

Sei ϕ bezuglich einer Basis {e′1, . . . , e′n} durch eine Matrix A′ gegeben, so wird ϕ bezuglichder passenden Basis {e1, . . . , en} durch die Matrix

XA′X−1 = A

gegeben.Dabei beschreibt X den Ubergang von der Basis {e′1, . . . , e′n} zur Basis {e1, . . . , en}.

Die Matrizen A′, A heißen zueinander konjugiert.”Konjugiertheit“ ist eine Aquivalenz-

relation, die zueinander konjugierten Elemente bilden sogenannte Konjugationsklassen.Wir konnen daher auch so formulieren:

14.16 Satz: Jede (n × n)-Matrix A′ ∈ M(n; k) uber einem algebraisch abgeschlosse-nen Korper K ist konjugiert zu einer Matrix A, die sich aus diagonalen Blocken Aizusammensetzt,

A =

A1

. . .

Ar

dabei sind die Ai Jordanblocke der Form

Ai =

λi 1 0. . .

. . .

. . . 10 λi

mit λi in der Diagonalen und 1 in der Nebendiagonalen. Diese Zerlegung ist im Wesent-lichen eindeutig.

14.17 Anwendungen: Prozesse in der Physik fuhren oft auf Systeme lineare Differenti-algleichungen

dξ1dt

=n∑

j=1

α1j(ξ1, . . . , ξn)ξj

......

dξndt

=n∑

j=1

αnj(ξ1, . . . , ξn)ξj

gesucht sind Losungenx = x(t) = (ξ1(t), . . . , ξn(t))

104

Page 105: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

im Rn (eventuell als Spalten) geschrieben. In kompakter Form also:

dξidt

=n∑

j=1

αij(ξ1, . . . , ξn)ξj (i = 1, . . . , n)

oder in Matrixformdx

dt= A · x mit A = (αij(x))

Man kann haufig A entwickeln nach den ξ1, . . . , ξn oder zusammengefasst nach x. Etwa

A = A(x) = A0 + A1(x) + A2(x) + . . .

Dabei enthahlt A0 die konstanten Terme in ξ1, . . . , ξn, A1(x) die Terme erster Ordnungin ξ1, . . . , ξn u. s. w. . In 0-ter Naherung hat man daher das System von Differentialglei-chungen

dx

dt= Ax

mit A = A0 eine konstante Matrix zu betrachten. Zur Anfangsbedingung x = x(t0) =x(0) (t0 = 0) ergibt sich eine Losung der Form

x(t) = exp(t ·A)(x((0)) mit

x(0) =(

ξ(0)1 , . . . , ξ(0)

n

)t

Es geht um das Verhalten von exp(tA) zum Beispiel fur t→ ∞.

Bringe A auf Jordansche Normalform

A = (C−1AC), dann

x(t) = C−1 exp(tA)(C(x(0)))

⇒ Cx(t) = exp(tA)C(x(0))

SetzeC · x(t) =: y(t), dann folgt

y(t) = exp(tA) (y(0))‖(ξ

(0)0 , . . . , ξ(0)

n )

105

Page 106: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

14 Eigenwerte und Vektoren

106

Page 107: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15 Reelle Vektorraume und euklidische

Geometrie

Bis hierher haben in der Vorlesung die Begriffe der (euklidischen) Geometrie wie Ab-stand und Winkel keine Rolle gespielt. Im letzten Teil der Vorlesung wollen wir dahergerade auf diese eingehen. Dafur ist es notig, von nun an uber dem Korper der reellemZahlen bzw. mit geringen Modifikationen uber dem Korper der komplexen Zahlen zuarbeiten. Tatsachlich kann man vieles dann auch wieder uber beliebigen Korpern behan-deln, wenn man mit allgemeinen Bilinearformen arbeiten will. Wir wollen aber hier, umden Zusammenhang zur Geometrie leichter zuganglich zu machen, wie oben beschriebenvom Speziellen zum Allgemeinen ubergehen.

Wir werden dabei feststellen, daß die ubliche euklidische Geometrie ohne Abstricheauch fur hoher dimensionale reelle Vektorraume ihre Richtigkeit behalt.V sei ein (in der Regel bei uns zunachst endlich dimensionaler) reeller Vektorraum.

15.1 Definition: Ein Skalarprodukt ( , ) auf V ist eine Abbildung

( , ) : V × V → R

(x, y) 7→ (x, y)

mit folgenden Eigenschaften:

i) ( , ) ist bilinear in den Variablen x, y. Das heißt also wie ublich, es ist

(α1x1 + α2x2, y) = α1(x1, y) + α2(x2, y)

(x1, β1y1 + β2y2) = β1(x, y1) + β2(x, y2)

fur alle α1, α2, β1, β2 ∈ R, x1, x2, y1, y2 ∈ V .

ii) ( , ) ist symmetrisch, d. h. es gilt (x, y) = (y, x) fur alle x, y ∈ V .

iii) (Positive Definitheit) Es ist (x, x) ≥ 0 fur alle x ∈ V mit Gleichheit genau, wennx = 0 ist.

15.2 Beispiele:

i) V = Rn, x = (ξ1, . . . , ξn), y = (η1, . . . , ηn), dann ist

(x, y) :=

n∑

i=1

ξiηi

das ubliche Skalarprodukt im n-dimensionalen Raum.

107

Page 108: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15 Reelle Vektorraume und euklidische Geometrie

ii) Ein unendlich dimensionales Beispiel: V := C(I) sei der Raum der stetigen reell-wertigen Funktionen auf dem kompakten Intervall I = [a, b]. Auf V hat man dasSkalarprodukt

(f, g) :=

∫ b

a

f(x)g(x)dx

Dies wird erlauben, auf Raumen von Funktionen die geometrische Sprechweiseanzuwenden.

15.3 Definition: Ein endlich dimensionaler euklidischer Vektorraum ist ein endlich di-mensionaler reeller Vektorraum V , versehen mit einem Skalarprodukt ( , ), Schreib-weise (V, ( , ))

15.4 Definition: Die Lange eines Vektors x ∈ V in einem endlich dimensionalen eukli-dischen Vektorraum V ist gegeben durch

‖x‖ := (x, x)1

2 =√

(x, x)

15.5 Satz: (Cauchy-Schwarzsche Ungleichung) Es ist fur x, y ∈ V beliebig

|(x, y)| ≤ ‖x‖‖y‖

mit Gleichheit genau, wenn x und y linear abhangig sind.

Beweis: Sei o.B.d.A. y 6= 0. Wir betrachten den Ausdruck (t ∈ R)

(x+ ty, x+ ty) = p(t)

Offenbar ist(x+ ty, x+ ty) ≥ 0

Andererseits istp(t) = t2(y, y) + 2t(x, y) + (x, x)

eine quadratische Funktion in t, die ihr Maximum fur t = − (x,y)(y,y)

annimmt. Dies einge-setzt, ergibt sich

(x, y)2

(y, y)2(y, y)− 2(x, y)2

(y, y)+ (x, x) ≥ 0

d. h.(x, y)2 ≤ (x, x)(y, y)

mit Gleichheit nur, wenn

x− (x, y)

(y, y)y = 0

ist. Sind umgekehrt x, y linear abhangig, so folgt sofort Gleichheit in der Cauchy-Schwarzschen Ungleichung. �

108

Page 109: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15.6 Satz: Die Norm (Lange) erfullt folgende Eigenschaften

i) ‖x‖ ≥ 0 mit Gleichheit genau, wenn x = 0 ist

ii) ‖λx‖ =| λ | ‖x‖

iii) ‖x+ y‖ ≤ ‖x‖+ ‖y‖ mit Gleichheit nur dann, wenn x und y linear abhangig sind.

Beweis: Nur (iii) ist nicht sofort klar. Aber wir haben

(‖x‖+ ‖y‖)2 = (x, x) + 2(x, x)1

2 (y, y)1

2 + (y, y) ≥ (x+ y, x+ y) = (x, x) + (y, y)+ 2(x, y)

wegen (x, x)1

2 (y, y)1

2 ≥| (x, y) | mit Gleichheit genau bei linearer Abhangigkeit. �

15.7 Definition: Ein reeller Vektorraum V versehen mit einer Norm ‖⋆‖, die die obigenEigenschaften (i),(ii),(iii) (ohne die Zusatzeigenschaft uber genaue Gleichheit in (iii))erfullt, heißt normierter Vektorraum.

15.8 Bemerkung: Es gibt allerdings”viel mehr“ Normen auf einem Vektorraum als

Skalarprodukte, d. h. die wenigsten Normen auf einem Vektorraum V kommen von einemSkalarprodukt her (siehe Ubungen).

15.9 Definition: (V, ( , )) sei euklidischer Vektorraum, x, y ∈ V zwei Vektoren, diewir als Punkte des zu V gehorenden affinen Raumes auffassen. Dann ist der Abstandvon x und y gegeben als

d(x, y) := ‖x− y‖ = (x− y, x− y)1

2

15.10 Folgerung: Fur die Abstandsfunktion d : V × V → R gilt:

i) d(x, y) ≥ 0 ∀x, y ∈ V mit d(x, y) = 0 genau, wenn x = y ist.

ii) d(x, y) = d(y, x) fur alle x, y ∈ V

iii) d(x, y) + d(y, z) ≥ d(x, z) fur alle x, y, z ∈ V (die sogenannte Dreiecksunglei-chung)

15.11 Bemerkung: Eine MengeM versehen mit einer Abstandsfunktion d : M×M → R,die (i), (ii) und (iii) erfullt, ist ein sogenannter metrischer Raum.

15.12 Satz: (V, ( , )) sei ein euklidischer endlich dimensionaler Vektorraum,{e1, . . . , en} eine Basis von V . Dann ist das Skalarprodukt ( , ) eindeutig festgelegtdurch die Werte

gij := (ei, ej) (1 ≤ i, j ≤ n)

109

Page 110: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15 Reelle Vektorraume und euklidische Geometrie

Beweis: Seien x =∑n

i=1 ξiei, y =∑n

j=1 ηjej zwei beliebige Vektoren aus V . Es ergibtsich

(x, y) =n∑

i,j=1

ξiηj(ei, ej) =n∑

j,j=1

gijξiηj

womit die Behauptung sofort folgt. �

15.13 Satz: V sei ein endlich dimensionaler Vektorraum. Dann ist die lineare Abbildungϕ : V → V ⋆

{

V → V ⋆

x 7→ (ϕx : V → R) , dabei ϕx : y 7→ (x, y)

ein Isomorphismus von V mit V ⋆.

Beweis: Die Abbildung ist injektiv, denn beispielsweise ist ϕx(x) = (x, x) = 0 ⇔ x =0. Wegen dim(V ) = dim(V ⋆) ist die Abbildung dann auch surjektiv und daher einIsomorphismus. �

15.14 Definition: Zwei Vektoren x, y ∈ V eines euklidischen Vektorraums (V, ( , ))sind orthogonal zu einander (stehen senkrecht aufeinander) genau dann, wenn gilt

(x, y) = 0

15.15 Definition: Sei (V, ( , )) ein euklidischer Vektorraum.

i) Eine Basis {e1, . . . , en} von V heißt Orthogonalbasis wenn gilt: (ei, ej) = 0, fallsi 6= j.Die Matrix (gij) = ((ei, ej)) ist dann eine Diagonalmatrix mit lauter positivenZahlen auf der Diagonalen.

ii) {e1, . . . , en} heißt Orthonormalbasis, wenn gilt:

(ei, ej) = δij (1 ≤ i, j ≤ n)

Die Matrix (gij) = ((ei, ej)) ist dann die Einheitsmatrix.

15.16 Folgerung: Sei (V, ( , )) ein euklidischer Vektorraum mit Orthogonalbasis{e1, . . . , en}. Dann gilt fur jeden Vektor x ∈ V die Entwicklung

x =

n∑

i=1

(x, ei)ei .

Beweis: Sei also

x′ :=n∑

i=1

(x, ei)ei .

110

Page 111: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Es ist (x, ei) = (x′, ei) fur i = 1, . . . , n. Daraus folgt (x − x′, ei) = 0 fur i = 1, . . . , n.Dann ist aber (x− x′, y) = 0 fur alle y ∈ V , insbesondere (x− x′, x− x′) = 0. Daher istx− x′ = 0. �

15.17 Das Orthonormalisierungsverfahren von E. Schmidt: Sei (V, ( , )) ein eu-klidischer Vektorraum mit Basis {e1, . . . , en}. Wir konstruieren zu diesen Daten eineOrthonormalbasis {e1, . . . , en} wie folgt:

e1 :=1

‖e1‖e1

Offenbar ist ‖e1‖ = 1 bzw. (e1, e1) = 1 Seien {e1, . . . , ei} als orthonormales Systembereits aus dem Teilsystem {e1, . . . , ei} konstruiert.

Insbesondere gelteRe1 + . . .+ Rei = Re1 + . . .+ Rei

Wir setzen also voraus, dass auch {e1, . . . , ei} eine Basis des Vektorraums Re1 + . . .+Reiist, die zusatzlich orthonormal ist.

Wir machen den Ansatz:

˜ei+1 = λ1e1 + . . .+ λiei + ei+1

Dann ergeben sich, falls {e1, . . . , ei+1} auch ein orthonormales System von Vektoren ist,die Bedingungen:

0 = (ei+1, e1) = λ1 + (ei+1, e1)...

...0 = (ei+i, ei) = λi + (ei+1, ei)

Daher setzen wirλj := −(ei+1, ej) (j = 1, . . . , i)

und haben damit einen Vektor ˜ei+1 konstruiert, der senkrecht auf den Vektoren {e1, . . . , ei}steht. Weiter ist ˜ei+1 6= 0. Normieren wir diesen Vektor noch durch

ei+1 :=1

∥˜ei+1

˜ei+1 ,

so sieht man, dass das neue System {e1, . . . , ei+1} wieder ein Orthonormalsystem ist undaußerdem wieder gilt:

Re1 + . . .+ Rei+1 = Re1 + . . .+ Rei+1

Durch Iteration dieses Verfahrens ergibt sich die gesuchte Orthonormalbasis {e1, . . . , en}.Dies ist das sog. Orthonormalisierungsverfahren von E. Schmidt, einem Schuler vonD. Hilbert.

111

Page 112: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15 Reelle Vektorraume und euklidische Geometrie

15.18 Definition und Satz: (V, ( , )) sei ein euklidischer Vektorraum, W ⊂ V einUntervektorraum.

i) W ist dann mit der Einschrankung des Skalarproduktes zu einer Abbildung W ×W → R selber ein euklidischer Vektorraum.

ii) BezeichnetW⊥ := {x ∈ V | (x, y) = 0 fur alle y ∈W}

das sog. orthogonale Komplement von W , so gilt: W⊥ ist ein Untervektorraum vonV und es ist

dim(W⊥) = dim(V ) − dim(W )

iii) Es ist ((W )⊥)⊥ = W

Beweis:

i) ist klar.

ii) Seien x1, x2 ∈W⊥, dann ist wegen

(λ1x1 + λ2x2, y) = λ1(x1, y) + λ2(x2, y) = 0

fur alle y ∈W auch λ1x1 + λ2x2 ∈W⊥ fur alle λ1, λ2 ∈ R.

Wir wahlen ein Basis {e1, . . . , er} von W (mit r = dim(W )) und erganzen sie zueiner Basis {e1, . . . , en} von V .

Mit dem Orthogonalisierungsverfahren von E. Schmidt bestimmen wir zu {e1, . . . , en}eine Orthonormalbasis {e1, . . . , en}, fur die speziell gilt:

Re1 + . . .+ Rej = Re1 + . . .+ Rej (j = 1, . . . , n)

Insbesondere gilt:

W = Re1 + . . .+ Rer = Re1 + . . .+ Rer

Wegen der Orthonormalitat der Basis {e1, . . . , en} folgt dann aber sofort

W⊥ = Rer+1 + . . .+ Ren.

Daher folgtdim(W⊥) = n− dim(W )

iii) Nach Definition folgt(W⊥)⊥ ⊃W

Nach (ii) ist

dim(W⊥)⊥ = n− dim(W⊥) = n− (n− dim(W )) = dim(W )

Daher folgt fur die obige Inklusion sogar Gleichheit: (W⊥)⊥ = W . �

112

Page 113: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15.19 Folgerung:

i) Sei (V, ( , )) ein euklidischer Vektorraum,W ⊂ V ein beliebiger Teilraum. Dannhat man eine naturliche Zerlegung als direkte Summen

V = W ⊕W⊥

ii) Speziell hat man fur jedes W ⊂ V eine Projektionsabbildung in End(V ),

prW : V → W ,

die jedem x ∈ V seine Komponente in W zuordnet.

Beweis: Wir betrachten die lineare Abbildung

ϕ : W ⊕W⊥ → V(w,w′) → (w + w′)

}

ϕ ist injektiv denn anderenfalls ware Ker(ϕ) 6= 0 und es gabe (w,w′) ∈ Ker(ϕ) mitw + w′ = ϕ(w,w′) = 0.

Dann folgt w = −w′, d. h. w ∈W ∩W⊥. Daher ist w = 0 und ebenso w′ = 0. Also istϕ injektiv und, da

dim(W ⊕W⊥) = dim(W ) + dim(W⊥)

= dim(W ) + (n− dim(W ))

= n = dim(V )

gilt, und surjektiv. Damit folgt (i).Die Projektionsabbildung ergibt sich aus

V(ϕ−1)−→ W ⊕W⊥ pr1−→W

durch Komposition und ist daher ebenfalls linear. �

Am Ende dieses Abschnittes definieren wir noch einen weiteren grundlegenden Begriffder euklidischen Geometrie, den des Winkels.

15.20 Definition: Sei (V, ( , )) ein euklidischer Vektorraum, x, y ∈ V zwei Vektoren,x, y 6= 0. Dann wird der Winkel zwischen x und y, ϕ = ∢(x, y), festgelegt durch

0 ≤ ϕ ≤ π und cos(ϕ) =(x, y)

‖x‖ · ‖y‖ =(x, y)

((x, x)(y, y))1/2

113

Page 114: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

15 Reelle Vektorraume und euklidische Geometrie

15.21 Bemerkung:

i) Nach den Gleichungen von Cauchy-Schwarz ist

−1 ≤ (x, y)

‖x‖ · ‖y‖ ≤ +1 .

Da der Cosinus im Intervall [0, π] eine stetige, streng monoton fallende Funktionist, wird jeder Wert aus [+1,−1] (cos(0) = +1, cos(π) = −1 !) genau einmalangenommen. Daher ist der obige Winkel ∢(x, y) eindeutig definiert.

ii) In der Elementargeometrie wurden Winkel anschaulich durch Kreisteilung des Voll-winkels von 360◦ eingefuhrt, systematischer kann man sie uber die zugehorige Bo-genlange des Einheitskreises einfuhren. Will man es streng mathematisch machen,so braucht man in jeden Fall an dieser Stelle reelle Analysis.

15.22 Folgerung: Zwei Vektoren x, y ∈ V , sind orthogonal zueinander genau dann, wennx oder y gleich Null sind oder ∢(x, y) = π

2ist.

15.23 Die Hessesche Normalform: Gegeben sei im euklidischen Vektorraum V a ∈V, a 6= 0. Die Gleichung

(a, x) = d , d ∈ R ,

beschreibt eine Hyperebene, die in der Regel nicht durch den Nullpunkt geht. Die Glei-chung

(

a

‖a‖ , x)

=d

‖a‖beschreibt dieselbe Hyperebene, weswegen wir ohne Beschrankung der Allgemeinheitannehmen konnen, dass ‖a‖ = 1 ist.

15.24 Satz: Fur x ∈ V beliebig gibt |(a, x) − d| genau den Abstand von x von derHyperebene H : (a, x) = d an.

Beweis: Gesucht ist ein Vektor y, so dass x + y ∈ H ist und y ∈ (a)⊥, d. h. y stehtsenkrecht auf den Vektoren in H . Schreibe x = (x, a)a+ x′.Es folgt: x′ ∈ (a)⊥.((x, a) − d) a =: y liefert das Verlangte. �

15.25 Bemerkung: Anhand des Vorzeichens von (x, a) − d kann man noch leicht fest-stellen, ob der Nullpunkt und der Punkt x auf der selben oder verschiedenen Seiten derHyperebene H liegen.

114

Page 115: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

16 Isometrien und orthogonale

Gruppen

(V, ( , )) und (W, ( , )) seien euklidische Vektorraume. Wie immer sind wir an denAbbildungen besonders interessiert, die die Struktur erhalten.

16.1 Definition: Eine lineare Abbildung ϕ : V →W heißt Isometrie :⇔ ∀x, y ∈ V gilt:

(ϕ(x), ϕ(y)) = (x, y)

16.2 Satz:

i) Eine Isometrie ϕ ist stets injektiv.

ii) ϕ erhalt Langen und Winkel.

iii) Ist ϕ bijektiv, so ist auch ϕ−1 eine Isometrie.

Beweis:

ii) ||x|| = (x, x)1

2 = (ϕ(x), ϕ(x))1

2 = ||ϕ(x)|| fur alle x ∈ V .Entsprechend: Ist α = ∠(x, y), so gilt

cos(α) =(x, y)

||x||||y||Dann ergibt sich sofort fur β = ∠(ϕ(x), ϕ(y)):

cos(β) =(ϕ(x), ϕ(y))

||ϕ(x)||||ϕ(y)|| =(x, y)

||x||||y|| = cos(α)

Wegen 0 ≤ α, β < π folgt: α = β, wegen der strengen Monotonie des Cosinus indiesem Bereich.

i) Ware ϕ(x) = 0, so folgte 0 = ||ϕ(x)|| = ||x||. Daher x = 0 und damit die Injekti-vitat.

iii) Sicherlich ist ϕ−1 linear. Sind u, v ∈W , so schreibe u = ϕ(x), v = ϕ(y) und damit

(u, v) = (ϕ(x), ϕ(y)) = (x, y) = (ϕ−1(u), ϕ−1(v))

Also ist ϕ−1 ebenfalls eine Isometrie.

115

Page 116: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

16 Isometrien und orthogonale Gruppen

16.3 Proposition: Sind ϕ : U → V, ψ : V →W Isometrien der euklidischen Vektorraume(U, ( , )), (V, ( , )) und (W, ( , )), so ist auch die zusammengesetzte Abbildungψ ◦ ϕ : U →W eine Isometrie.

Beweis: Ubung �

Bemerkung: Ist ϕ : V → W eine Isometrie und ist dim(V ) = dim(W ) < ∞, so ist ϕbijektiv. Dies ist klar, denn aus der Injektivitat von ϕ folgt unter diesen Umstanden dieSurjektivitat.

16.4 Definition und Satz: Sei (V, ( , )) ein euklidischer Vektorraum. Die Mengealler bijektiven Isometrien ϕ : V → V bildet dann die sog. orthogonale Gruppe von(V, ( , )): Schreibweise O(V, ( , )) oder einfacher O(V ).

Bemerkung: Statt von Isometrien spricht man auch von orthogonalen Abbildungen.

16.5 Beispiele orthogonaler Abbildungen:

i) V := R2 mit Standardmetrik: x = (ξ1, ξ2), y = (η1, η2) und x · y = ξ1η1 + ξ2η2.Die Menge der Drehungen

{(

cosα, − sinαsinα, cosα

)∣

0 ≤ α < 2π

}

bildet eine Untergruppe der orthogonalen Gruppe O(V ). Tatsachlich handelt essich um die sog. spezielle orthogonale Gruppe.

ii) Sei (V, ( , )) beliebiger euklidischer Vektorraum, a ∈ V , a 6= 0.Dann ist die Abbildung

Sa : V → V, x 7→ x− 2(a, x)

(a, a)a

eine sog. Spiegelung (an der zu a orthogonalen Hyperebene)

Ha := {x ∈ V | (a, x) = 0}

Beweis: Die Linearitat und Isometrieeigenschaft rechnet man unmittelbar nach.Es ist weiter Sa(x) = x fur alle x ∈ Ha, Sa(a) = −a. Dies erklart den Begriff

”Spiegelung an Ha“.

16.6 Satz: Sei {e1, . . . , en} eine Basis des euklidischen Vektorraums V. ϕ : V → W isteine Isometrie in den euklidischen Vektorraum W ⇔ Es gilt (ϕ(ei), ϕ(ej)) = (ei, ej) fur1 ≤ i, j ≤ n.

116

Page 117: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Beweis: Sei x =∑n

i=1 ξiei,∑n

j=1 ηjej. Dann ist also

(ϕ(x), ϕ(y)) = (n∑

i=1

ξiϕ(ei),n∑

j=1

ηjϕ(ej))

=

n∑

i,j=1

ξiηj(ϕ(ei), ϕ(ej))

=n∑

i,j=1

ξiηj(ei, ej)

= (

n∑

i=1

ξiei,

n∑

j=1

ηjej)

= (x, y)

Dies zeigt eine Richtung, die andere ist trivial. �

16.7 Folgerung: V,W seien euklidische Vektorraume, {e1, . . . , en} eine beliebige Ortho-normalbasis von V , {f1, . . . , fn} eine beliebige Orthonormalbasis von W . Dann gibt esgenau eine Isometrie ϕ : V →W,ϕ(ei) = fi fur i = 1, . . . , n.

Sei jetzt wieder V n-dimensionaler euklidischer Vektorraum, {e1, . . . , en} eine beliebigeBasis von V , G = ((ei, ej))1≤i,j≤n der

”metrische Tensor“ von V . ϕ : V → V sei eine

beliebige Isometrie von V auf sich, es sei A = Matrix(ϕ : {e1, . . . , en}) die zugehorigeMatrix.Also gilt

ϕ(ej) =

n∑

i=1

αijei

Die Bedingung der Orthogonalitat von ϕ bedeutet also: es ist

gkl = (ϕ(ek), ϕ(el))

= (n∑

i=1

αikei,n∑

j=1

αjlej)

=

n∑

i=1

n∑

j=1

αik(ei, ej)αjl

=n∑

i=1

n∑

j=1

αikgijαjl

Man rechnet leicht nach, dass dies in Matrixschreibweise die Identitat AtGA = G be-deutet.

16.8 Definition und Satz: Eine Matrix A ist orthogonal bzgl. der die euklidische Metrikfestlegenden symmetrischen Matrix G genau dann, wenn gilt:

AtGA = G

117

Page 118: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

16 Isometrien und orthogonale Gruppen

Bemerkungen:

i) Zum Beispiel rechnet man jetzt die Gruppeneigenschaft der orthogonalen Matrizenleicht nach:

GiltAtGA = G sowie BtGB = G

so folgt fur das Produkt (AB) sofort:

(AB)tG(AB) = Bt(AtGA)B = BtGB = G

ii) Besonders wichtig ist der Fall G = E, wo also die Basis {e1, . . . , en} von V eineOrthonormalbasis ist. Dann ist also G = E und es gilt:

16.9 Folgerung: A ist eine orthogonale Matrix ⇔ Es gilt AtA = Eoder aquivalent: At = A−1.

iii) Orthogonale Matrizen A dieser Art haben, wie man sich sofort uberlegt, folgen-de Eigenschaften: Bezuglich des gewohnlichen euklidischen Skalarproduktes habenalle Spalten (Zeilen) von A die Lange 1; das Skalarprodukt verschiedener Spalten(Zeilen) ist Null. Fur die Spalten folgt die Aussage namlich, weil die Spalten dieBilder der Basisvektoren sind und die Basis eine Orthonormalbasis war. Da mit Aauch At = A−1 eine orthogonale Matrix bzgl. G = E ist, folgt durch Betrachtungvon At die entsprechende Aussage fur die Zeilen.

16.10 Satz:

i) Die reellen Eigenwerte einer Isometrie ϕ : V → W sind ±1 (sofern uberhaupt reelleEigenwerte vorhanden sind).

ii) Die Determinante einer orthogonalen Abbildung ist ±1.

Beweis:

i) Sei ϕ(x) = λx mit x ∈ V , x 6= 0 und λ ∈ R. Dann folgt

(ϕ(x), ϕ(x)) = (x, x) , aber auch

(ϕ(x), ϕ(x)) = (λx, λx) = λ2(x, x)

Es folgt wegen (x, x) 6= 0 daher λ2 = 1, also λ = ±1.

ii) Bezuglich einer Basis {e1, . . . , en} gilt fur eine orthogonale Matrix A

AtGA = G

Wegen det(G) 6= 0 und det(At) = det(A) folgt det(A)2 = 1 und damit (ii). �

118

Page 119: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

Bemerkung:

i) Wie die Rotationen

(

cosα, − sinαsinα, cosα

)

im R2 zeigen, gibt es orthogonale Matrizen

ohne reelle Eigenwerte.

ii) Eine orthogonale Abbildung im R3 hat immer wenigstens einen reellen Eigenwert.Sei dieser +1 und e1 ein zugehoriger Eigenvektor, also ϕ(e1) = e1, so folgt

ϕ(e1)⊥ = (e1)

Auf (e1)⊥ ist ϕ dann bei Einschrankung entweder eine Drehung oder eine Spiege-

lung (fur eine nahere Diskussion siehe die Ubungen).

16.11 Definition und Satz: Sei V ein endlichdimensionaler euklidischer Vektorraum.Es ist

SO(V ) = {ϕ : V → V | ϕ ∈ O(V ) und det(ϕ) = 1}die sog. spezielle orthogonale Gruppe. Diese ist ein Normalteiler in der reellen orthogo-nalen Gruppe O(V ). Genauer ist sie der Kern des Determinantenhomomorphismus

det : O(V ) → (R×, ·) bzw. det : O(V ) → (±1, ·)

Beweis: Ubung. �

Zuletzt noch zwei schone geometrische Satze:

16.12 Satz: Jede orthogonale Abbildung ϕ : V → V eines n-dimensionalen euklidischenRaumes ist Produkt von hochstens n Spiegelungen.

Beweis: Sei e ∈ V, e 6= 0 ein beliebiger Vektor. Wir finden eine Spiegelung S mit S1(e) =ϕ(e). Daraus folgt: Es ist

S−11 ϕ(e) = e

Dann folgt (S−11 ϕ)(e)⊥ = (e)⊥. Da dim(e)⊥ = dim(V ) − 1, konnen wir S−1

1 ϕ|(e)⊥ =

S2 . . . Sr schreiben mit r ≤ n. Jedes Si ist Spiegelung auf (e)⊥ und wird durch die

Definition:{

Si(x) := Si(x) fur x ∈ (e)⊥

Si(e) := e

Zu einer Spiegelung auf ganz V fortgesetzt. Es gilt

S−11 ϕ = S2 . . . Sr,

denn es gilt

S−11 ϕ|(e1)⊥ = (S2 . . . Sr)|(e1)⊥

S−11 ϕ(e1) = (S2 . . . Sr)e1 = e1

119

Page 120: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

16 Isometrien und orthogonale Gruppen

Dann folgt aber:ϕ = S1S2 . . . Sr

16.13 Satz: Sei ϕ : V → V eine orthogonale Abbildung. Dann gibt es eine Orthonor-malbasis von V , bzgl. der ϕ sich in Blocken der Form

M(ϕ) =

A1 0. . .

0 Ar

schreiben lasst, dabei sind die Aj

i) entweder 1-Blocke, Aj = ±1 oder −1, also eine 1 × 1-Matrix oder es ist

ii) Aj eine 2 × 2-Matrix der Form(

cosαj , − sinαjsinαj , cosαj

)

, 0 ≤ αj < π

also eine Drehmatrix. Diese Darstellung von ϕ ist im Wesentlichen eindeutig.

Beweis: Ohne Einschrankung denken wir uns ϕ durch eine reelle Matrix A als Abbildung

A : Rn → Rn, x 7→ A · xgegeben. Genausogut konnen wir dieses A aber auch als Abbildung

A : Cn → Cn, x 7→ A · xauffassen. Sei e1 ∈ Cn ein beliebiger Eigenvektor zum Eigenwert λ1 ∈ C. Ist dabei sogarλ1 ∈ R, so konnen wir sogar annehmen, dass e1 ∈ V ≃ Rn reell ist. Es folgt: λ1 =±1. Außerdem respektiert ϕ die orthogonale Zerlegung. Auf (Re1)

⊥ konnen wir durchgeeignete Basiswahl ϕ in der gewunschten Form annehmen. Damit folgt die Behauptungin diesem Fall.Sei jetzt λ1 ∈ C, λ1 /∈ R. Dann ist auch ein zugehoriger Eigenvektore1 = (ξ1, . . . , ξn) in Cn, /∈ Rn = V . Es gilt also

Ae1 = λ1e1

Mit e1 := (ξ1, . . . , ξn) ∈ Cn gilt dann aber auch

Ae1 = λ1e1

Dann rechnet man sofort nach: f1 := e1 + e1 ∈ V = Rn, genauso ist f2 := 12i

(e1 − e1) ∈V = Rn.

Weiter gilt furW := Rf1 + Rf2 ⊂ V = R

A(W ) = W und es ist A orthogonal sowie det(A) = λ, λ (Beweis hierfur!) positiv reell.Also ist A|W1

eine Drehung um einen Winkel α1 mit 0 ≤ α1 < π. Da A weiter nachInduktionsannahme auf W⊥

1 bereits in obiger Form angenommen werden kann, folgt dieBehauptung. �

120

Page 121: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

17 Hauptachsentransformation,

selbstadjungierte Abbildungen

Gegeben sei der euklidische R2 oder R3 mit Standardmetrik, in ihm eine Ellipse oderein Ellipsoid E mit Mittelpunkt 0 = (0, 0) ∈ R2 beziehungsweise 0 = (0, 0, 0) ∈ R3, sodass mit x ∈ R2 beziehungsweise R3, wenn es auf E liegt, auch (−x) auf E liegt. Wieman sich geometrisch anschaulich leicht uberlegt, gibt es dann stets eine kurzeste undeine langste Achse der Ellipse oder des Ellipsoides, die zusatzlich auf einander senkrechtstehen. Diesen wichtigen geometrischen Sachverhalt gilt es besser zu verstehen.

Gegeben sei also ein endlichdimensionaler Vektorraum V , ϕ : V → V sei ein Endomor-phismus (Operator).

17.1 Definition: Die Abbildung ϕ heißt selbstadjungiert :⇐⇒ Fur alle x, y ∈ V gilt:

(x, ϕ(y)) = (ϕ(x), y)

Fur selbstadjungierte lineare Abbildungen gilt

17.2 Satz: Ist e ∈ V ein Eigenvektor von ϕ zum Eigenwert λ, so ist (Re)⊥ ebenfallsinvariant unter ϕ, d. h. es gilt ϕ(Re)⊥ ⊂ (Re)⊥.

Beweis: Sei x ∈ (Re)⊥. Es gilt (ϕ(x), e) = (x, ϕ(e)), da ϕ selbstadjungiert ist. Dann istaber

(x, ϕ(e)) = (x, λe) = λ(x, e) = 0

wegen x ∈ (Re)⊥. Also folgt auch ϕ(x) ∈ (Re)⊥. �

17.3 Satz: Jede selbstadjungierte Abbildung hat wenigstens einen reellen Eigenwert.

Beweis: O.E.d.A. konnen wir annehmen: V = Rn mit dem Standardskalarprodukt ver-sehen. Die Abbildung ϕ ist gegeben durch eine Matrix

A : Rn → Rn , x 7→ A · x

Wir erweitern zu VC = Cn mit hermiteschem Skalarprodukt gegeben durch

(x, y) =n∑

i=1

ξiξi dabei

x = (ξ1, . . . , ξn) ∈ Cn , y = (ξ1, . . . , ξn) ∈ Cn .

121

Page 122: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

17 Hauptachsentransformation, selbstadjungierte Abbildungen

A definiert weiterhin eine lineare Abbildung

A : Cn → Cn , x 7→ A · x

Wie man sofort nachrechnet, gilt nach wie vor Selbstadjungiertheit, d. h.

(Ax, y) = (x,Ay) .

Sei e ∈ Cn Eigenvektor zum Eigenwert λ ∈ C. Es folgt:

(Ae, e) = (λe, e) = λ(e, e) , andererseits

(Ae, e) = (e, Ae) = (e, λe) = λ(e, e)

Wegen (e, e) 6= 0 folgt: λ = λ, d. h. λ ist automatisch reell.Dann gibt es aber zum reellen Eigenwert λ einen reellen Eigenvektor e ∈ Rn, der

eventuell verschieden ist von e. Die Behauptung folgt. �

17.4 Hauptsatz uber selbstadjungierte Abbildungen: Sei (V, ( , )) ein endlichdi-mensionaler euklidischer Vektorraum, ϕ : V → V eine bezuglich ( , ) selbstadjun-gierte Abbildung. Dann gibt es eine Orthonormalbasis {e1, e2, . . . , en} von V aus lauterEigenvektoren von ϕ. ϕ hat die Gestalt

M (ϕ : {e1, . . . , en}) =

λ1 0. . .

0 λn

mit lauter reellen Eigenwerten λ1, . . . , λn.

Beweis: (Durch vollstandige Induktion nach dim(V ) = n)

i) n = 1: Es ist nichts zu beweisen.

ii) Induktionsschritt: Nach Satz 17.3 finden wir e1 ∈ V , ϕ(e1) = λ1e1 mit λ1 ∈ R.O.E.d.A konnen wir dabei durch Normierung annehmen, dass (e1, e1) = 1 ist.

Da ϕ selbstadjungiert ist, folgt

ϕ(

(Re1)⊥)

⊆ (Re1)⊥

Wegen dim(Re1)⊥ = dim(V ) − 1 konnen wir die Induktionsannahme verwenden

und eine Orthonormalbasis {e2, . . . , en} von (Re1)⊥ finden, in der ϕ|(Re1)⊥ in der

gewunschten Form vorliegt. {e1, . . . , en} kann als gesuchte Basis von V genommenwerden. �

Wir wenden das Ergebnis jetzt auf das eingangs dieses Kapitels beschriebene geometri-sche Problem an.

122

Page 123: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

17.5 Satz: (Hauptachsentransformation) (V, ( , )) sei ein endlich dimensionaler eu-klidischer Vektorraum, B sei ein weiteres Skalarprodukt auf V .

B : V × V → R, (x, y) 7→ B(x, y).

Dann gibt es eine Orthonormalbasis von V , die auch fur B noch eine Orthogonalbasisist.

Beweis: Wir finden eine lineare Abbildung ϕ : V → V , so dass gilt:

B(x, y) = (ϕ(x), y) fur alle x, y ∈ V .

Dies werden wir unten begrunden. ϕ ist selbstadjungt, denn es gilt (x, ϕ(y)) = (ϕ(y), x) =B(y, x) = B(x, y), daher folgt:

(ϕ (x) , y) = (x, ϕ (y)) .

Mit dem Hauptsatz uber selbstadjungierte lineare Abbildungen folgt die Existenz einerOrthonormalbasis {e1, . . . , en} von V aus Eigenwerten fur ϕ.

Dann gilt aber

B (ei, ej) = (ϕei, ej)

= (λiei, ej)

= 0 falls i 6= j ist.

{e1, . . . , en} ist also eine Orthogonalbasis fur die Form B.Es bleibt die Existenz von ϕ zu zeigen:

Zum Beispiel durch explizite Rechnung sieht man das so:O.E.d.A. V = Rn, ( , ) = Standardskalarprodukt wie oben.B (x, y) = (xByt) mit x = (ξ1, . . . , ξn), y = (η1, . . . , ηn). Dann sei ϕ gegeben durch dieMatrix B selbst, B : Rn → Rn. Es ergibt sich namlich:

(ϕx, y) =(

Bxt)t · yt

= xBtyt

= xByt

17.6 Bemerkungen:

a) Tatsachlich haben wir im Beweis nicht benutzt, dass B positiv definit ist. DieBilinearitat und Symmetrie von B hatte gereicht!

b) Bezuglich der gefundenden Basis {e1, . . . , en} ist also mit x = (ξ1, . . . , ξn)

(x, x) =

n∑

i=1

ξ2i

B (x, x) =n∑

i=1

λiξ2i

123

Page 124: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

17 Hauptachsentransformation, selbstadjungierte Abbildungen

{e1, . . . , en} bilden gerade die Hauptachsen.

Die Einheitssphare bezuglich B wird also gegeben durch∑n

i=1 λiξ2i = 1, dabei

λi > 0: Wir nehmen λ1 ≥ λ2 ≥ · · · ≥ λn > 0 an o.E.d.A. Fur die Große derHauptachsen des so gegebenen Ellipsoids erhalten wir also

(

λ1

)−1

≤ · · · ≤(

λn

)−1

c) Naturlich hatten wir wieder den Inhalt dieses gesamten Abschnittes fur den Fallunitarer (oder auch hermitescher) Raume duchfuhren konnen. Es ware alles wort-lich genauso gut gegangen.

Normale Endomorphismen: Man kann die Theorie dieses Paragraphen noch etwas er-weitern. Es sei hierzu (V, ( , )) ein unitarer Vektorraum.

17.7 Definition: Ein Endomorphismus ϕ : V → V heißt normal :⇔ ϕ und die adjungierteAbbildung ϕt (bezuglich des hermiteschen Produkts (, )) kommutieren miteinander, d. h.es gilt: ϕϕt = ϕtϕ.

Es gilt wiederum:

17.8 Satz: Es gibt eine Orthonormalbasis {e1, . . . , en} von (V, ( , )) aus Eigenvek-toren von ϕ. Umgekehrt ist jeder derartigen Endomorphismus ϕ, fur den es eine solcheOrthonormalbasis gibt, ein normaler Endomorphismus.

Beweis: Der zweite Teil des Satzes ist klar. Den ersten Teil sieht man so: Sicherlich gibtes einen Eigenvektor e1 ∈ V mit Eigenwert λ, d.h. ϕ (e1) = λ1e1. Dann folgt aber auch:ϕt (e1) = λ1e1, denn es ist allgemein fur einen normalen Endomorphismus Ψ

(Ψx,Ψx) =(

x,ΨtΨx)

= (x,ΨΨtx) (wegen ΨΨt = ΨtΨ)

=(

Ψtx,Ψtx)

Dies angewendet auf Ψ := ϕ − λid und Ψt = ϕt − λid folgt fur einen Eigenvektor e1,ϕe1 = λ1e1 sofort:

0 = ((ϕ− λ1) e1, (ϕ− λ1) e1) =((

ϕt − λ1

)

ei,(

ϕt − λ1

)

e1)

Daher aber sofort(

ϕt − λ1

)

(e1) = 0, d. h. ϕt (e1) = λ1e1

Hieraus folgt weiter sofort: ϕ(

(C · e1)⊥)

⊆ (Ce1)⊥, denn sei x ∈ (Ce1)

⊥, so folgt

sofort:

(e1, ϕ (x)) =(

ϕt (e1) , x)

=(

λ, e1, x)

= λ1 (e1, x)

= 0

Daher also ϕ (x) ∈ (Ce1)⊥. Danach verlauft der Beweis vollig entsprechend dem Fall

selbstadjungierter Endomorphismen. �

124

Page 125: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

18 Erganzungen

A Volumina. Eine Formel fur die Gramsche Matrix.

Die gesamte Determinatentheorie war motiviert durch den Begriff des orientierten Vo-lumens. Es ist daher nicht verwunderlich, wenn wir folgende Definition treffen.

18.1 Definition: Sei V ein n-dimensionaler reeller Vektorraum, {e1, . . . , en} eine fixierteBasis, {a1, . . . , an} ⊂ V ein geordnetes System von n Vektoren. Dem Parallelkorper

X(a1, . . . , an) :=

{

n∑

i=1

ξiai|0 ≤ ξi ≤ 1

}

ist dann das orientierte Volumen det(αij)1≤i,j≤n zugeordnet, dabei ist die Matrix (αij)1≤i,j≤n

gegeben durch

aj =n∑

i=1

αijei (j = 1, . . . , n) .

Das Volumen wird definiert als vol(X) := |det((αij)1≤i,j≤n)|.

Gramsche Matrix: Sei {a1, . . . , an} wie oben, A = (αij), dabei wieder

aj =n∑

i=1

αijei .

Sei jetzt vorausgesetzt, dass V euklidisch ist und {ei} eine Orthonormalbasis. Dannergibt sich fur die Gramsche Matrix

G := ((ai, aj))1≤i,j≤n = (ei(AtA)ej) .

Speziell folgt noch der wichtige Zusammenhang

18.2 Satz:

i) Fur die Gramsche Matrix gilt G = AtA.

ii) det(G) = det(A)2.

125

Page 126: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

18 Erganzungen

B Orientierung

Seien {e1, . . . , en} und {f1, . . . , fn} zwei beliebige Basen eines reellen Vektorraumes.

18.3 Definition: Die Basen {e1, . . . , en} und {f1, . . . , fn} geben dieselbe Orientierungdes Vektorraumes V :⇔ Mit ϕ(ei) = fi (i = 1, . . . , n) wird eine lineare Abbildungϕ : V → V festgelegt und es ist det(ϕ) > 0.

18.4 Satz: Die Relation”gleiche Orientierung“ ist eine Aquivalenzrelation auf der Menge

der Basen des reellen Vektorraumes V .

”Gleiche Orientierung“ ist ein topologischer Begriff, invariant gegenuber stetiger Defor-

mation. Genauer:

18.5 Satz: Sei V = Rn, [a, b] ⊂ R ein Intervall, {a1(t), . . . , an(t)} fur alle t ∈ [a, b]eine Basis, so dass mit ai(t) := (αi1(t), . . . , αin(t)) (i = 1, . . . , n) alle Funktionen αij(t),αij : I → R stetige Funktionen sind. Dann definieren die Basen {a1(t), . . . , an(t)} dieselbeOrientierung auf V = Rn fur alle t ∈ I.

Beweis: Mit Hilfe der Entwicklungsformel folgt sofort:

f : [a, b] → R

t 7→ det(αij(t))

ist eine stetige Funktion auf [a, b]. Wegen des Zwischenwertsatzes folgt dann:

Entweder det(αij(t)) > 0 fur alle t ∈ [a, b]oder det(αij(t)) < 0 fur alle t ∈ [a, b]

C Das Vektorprodukt

Gegeben sei ein dreidimensionaler, euklidischer Vektorraum V mit Skalarprodukt ( , )und ausgezeichneter Orthonormalbasis {e1, e2, e3}, etwa der R3 mit Standardskalarpro-dukt sowie der Standardbasis {e1, e2, e3}.

Anschauliche Beschreibung des Vektorproduktes: Gegeben a, b ∈ V , dann ist

- a× b senkrecht auf a, b,

- und falls a und b linear unabhangig, ist {a, b, a × b} positiv orientiert (d.h. gleichorientiert wie {e1, e2, e3},

- es ist |a×b| = Flacheninhalt X(a, b), dem durch a und b gegebene Parallelogramm.

Man stellt mit dieser Beschreibung leicht fest:

126

Page 127: Analytische Geometrie und Lineare Algebra IAnalytische Geometrie und Lineare Algebra I Prof. Dr. Ulrich Stuhler∗ Skript zur Vorlesung im Wintersemester 2003/2004 ∗Georg-August-Universit¨at

C Das Vektorprodukt

i) V × V → V , (a, b) 7→ a× b ist bilinear in a, b.

ii) Es ist e1 × e2 = e3, e3 × e1 = e2 und e2 × e3 = e1 (zyklische Vertauschung derIndizies), entsprechend e2 × e1 = −e3, e3 × e2 = −e1, e1 × e3 = −e2.

Mit a = α1e1 + α2e2 + α3e3 und b = β1e1 + β2e2 + β3e3 ergeben sich sofort die Formeln:

(a× b) = (α2β3 − α3β2)e1+ (α3β1 − α1β3)e2+ (α1β2 − α2β1)e3

Es gilt: (a× b, c) = det(a, b, c).

Beweis: Beide Seiten sind linear in a, b und c. Weiter gilt die Gleichheit fur die Fallea, b, c ∈ {e1, e2, e3}. Damit folgt leicht die Behauptung. �

18.6 Proposition: Es gilt

i) (a× b) ⊥ a, b

ii) ||a× b|| = vol〈a, b〉

Beweis: Wahle c ∈ Ra + Rb, damit ist det(a, b, c) = 0, da a, b, c linear abhangig sind.Dann ist also (a × b, a) = (a × b, b) = 0 und daher a bzw. b senkrecht auf a × b. Dieszeigt (i).

Zu (ii) Seien o.B.d.A a, b linear unabhangig. Wahlen jetzt c := λ(a × b) mit λ ∈ R

passend, so dass ||c|| = 1 ist. Dann ist (a × b, c) = ||a × b||, andererseits vol〈a, b, c〉 =vol〈a, b〉. �

Bemerkung: Haufig ist folgende Beobachtung nutzlich: Es ist (a× b)× c = λa+µb, denn(a × b) × c steht senkrecht auf (a× b) (und c), liegt daher in der Ebene Ra + Rb (fallsa, b linear unabhangig sind)

127