145
Lineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version – 8. Januar 2002

Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

  • Upload
    others

  • View
    9

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Lineare Algebra und analytischeGeometrie

J. ApelVorlesung WS 2001/02

Preliminary version – 8. Januar 2002

Page 2: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Inhaltsverzeichnis

1 Einleitung 2

2 Grundlagen der Mathematik 42.1 Logische Symbole und Formeln . . . . . . . . . . . . . . . . . 42.2 Mengenoperationen . . . . . . . . . . . . . . . . . . . . . . . . 92.3 Binare Relationen . . . . . . . . . . . . . . . . . . . . . . . . . 142.4 Korrespondenzen und Abbildungen . . . . . . . . . . . . . . . 162.5 Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . 22

3 Lineare Gleichungssysteme I 263.1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.1.1 Aquivalenz von Matrizen . . . . . . . . . . . . . . . . . 343.1.2 Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . 37

3.2 Losung linearer Gleichungssysteme . . . . . . . . . . . . . . . 41

4 Klassische algebraische Strukturen 504.1 Strukturen mit einer binaren Operation – Halbgruppen, Mo-

noide und Gruppen . . . . . . . . . . . . . . . . . . . . . . . . 504.1.1 Die symmetrische Gruppe Sn . . . . . . . . . . . . . . 59

4.2 Algebraische Strukturen mit zwei binaren Operationen – Rin-ge und Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . 624.2.1 Der Korper C der komplexen Zahlen . . . . . . . . . . 65

5 Lineare Gleichungssysteme II 715.1 Determinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . 725.2 Cramersche Regel zum Losen linearer Gleichungssysteme . . . 815.3 Berechnung inverser Matrizen . . . . . . . . . . . . . . . . . . 835.4 Determinantensatz . . . . . . . . . . . . . . . . . . . . . . . . 85

i

Preliminary version – 8. Januar 2002

Page 3: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

5.5 Algebraische Struktur der Losungsmenge eines linearen Glei-chungssystems . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

5.6 Geometrische Deutung der Losungsmenge eines linearen Glei-chungssystems . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

5.7 Lagebeziehungen von Geraden und Ebenen im Raum . . . . . 955.8 Durchschnitte linearer geometrischer Objekte . . . . . . . . . 97

6 Vektorraume und lineare Abbildungen 1006.1 Lineare Unabhangigkeit von Vektoren . . . . . . . . . . . . . . 1016.2 Untervektorraume und Basen . . . . . . . . . . . . . . . . . . 1026.3 Koordinatendarstellung von Vektoren . . . . . . . . . . . . . . 1086.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 1106.5 Basistransformationen . . . . . . . . . . . . . . . . . . . . . . 1156.6 Eigenwerte und Eigenvektoren einer linearen Abbildung . . . . 116

7 Euklidische Raume 1227.1 Das Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . 1237.2 Schmidtsches Orthonormierungsverfahren . . . . . . . . . . . . 1277.3 Isomorphismen Euklidischer Vektorraume . . . . . . . . . . . . 1307.4 Euklidische affine Raume und Bewegungen . . . . . . . . . . . 133

7.4.1 Bewegungen in Ebene und Raum . . . . . . . . . . . . 1347.5 Abstande und Schnittwinkel Euklidischer affiner Teilraume . . 139

ii

Preliminary version – 8. Januar 2002

Page 4: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 1

Einleitung

Der Titel dieser ersten von vier Vorlesungsreihen der Mathematik-Ausbildungfur Informatiker wird von zwei Grunddisziplinen, der Algebra und der Geo-metrie gepragt.Klassisches Anliegen der Algebra war das Rechnen mit Buchstabenausdrucken,insbesondere das Auflosen algebraischer Gleichungen. Daraus entwickeltesich die moderne Algebra, als die Lehre von den algebraischen Strukturen,d.h. von Mengen auf denen Operationen und Relationen erklart sind. Dieallgemeinste Theorie der universellen Algebra, dabei werden keine weiterenEinschrankungen an die Operationen und Relationen gemacht, wird Ihnennoch in diesem Semester in der zur theoretischen Informatik zahlenden Vor-lesungsreihe zur Mengenlehre wieder begegnen.Eine algebraische Gleichung als das klassische Objekt der Algebra bestehtaus zwei durch ein Gleichheitszeichen getrennte Ausdrucke, die nur mittelsAddition und Multiplikation aus Zahlen und Variablen gebildet sind. DieAuflosung einer derartigen Gleichung besteht in der Suche nach einer (oderallen moglichen) Ersetzung(en) der Variablen durch Zahlen, so daß beide Sei-ten der Gleichung bei Auswertung den gleichen Wert ergeben. Eine Vielzahlpraktischer Probleme laßt sich durch algebraische Gleichungen beschreibenund losen.Nicht zuletzt dadurch kommt den algebraischen Strukturen mit Additionund Multiplikation, oder allgemeiner den algebraischen Strukturen mit eineroder zwei binaren Operationen, eine besondere Bedeutung zu. Die wichtig-sten derartigen Strukturen sind Halbgruppen, Gruppen, Ringe und Korper.Haufig bezieht sich die Bezeichnung Algebra ohne das Adjektiv “universell”auf die Untersuchung gerade dieser Strukturen.

2

Preliminary version – 8. Januar 2002

Page 5: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Man unterscheidet die uns hier vorrangig interessierende lineare Algebra, de-ren Anliegen die Losung und das Studium linearer Gleichungssysteme ist.Eine lineare Gleichung zeichnet sich gerade dadurch aus, daß in jedem auf-tretenden Produkt hochstens ein Faktor Variablen enthalten darf. Laßt mandiese Einschrankung fallen, so gelangt man zur ungleich schwerer beherrsch-baren nichtlinearen Algebra, auf die wir nur in sehr speziellen Fallen zusprechen kommen werden.Als zweite mathematische Disziplin interessiert uns die Geometrie, welche ur-sprunglich als die Lehre vom Raum und den raumlichen Objekten entstand.Mit der Axiomatisierung der Geometrie loste sich die Theorie immer weitervon der raumlichen Anschauung ab. Heute konnen aus den Axiomen derGeometrie abgeleitete Aussagen uber Objekte getroffen werden, die augen-scheinlich nicht mehr viel mit den klassischen Vorstellungen zu tun haben.Unsere Untersuchungen werden auf die klassische Geometrie beschrankt blei-ben.Die analytische Geometrie beschreibt geometrische Objekte mit Hilfe der Ko-ordinatenmethode. Aus dem Schulunterricht ist Ihnen bekannt, wie man diegeometrischen Grundobjekte, Punkte und Gerade, anhand von Ortsvekto-ren und Gleichungen zwischen den Koordinaten beschreiben kann. Ebensofuhren geometrische Aktionen wie Verschiebungen, Drehungen oder Spiege-lungen auf Koordinatenrechnungen. Das Wechselspiel zwischen Geometrieund Algebra macht man sich ebenso beim Studium komplizierterer geome-trischer Objekte nutzbar. Faßt man ein Polynom als Abbildungsvorschrifteiner Funktion auf, dann lassen sich die Nullstellen als Koordinaten vonPunkten deuten. Die algebraische Geometrie beschaftigt sich mit dem Wech-selspiel zwischen Mengen von Polynomen und dem geometrischen Ort ihrergemeinsamen Nullstellen.

3

Preliminary version – 8. Januar 2002

Page 6: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 2

Grundlagen der Mathematik

Will man beim Behandeln eines beliebigen Gebietes der Mathematik uberden naiven Standpunkt hinauskommen, so benotigt man zunachst einigesRustzeug aus Logik und Mengenlehre. Diese beiden in ihrer strengen axio-matischen Form erst in diesem Jahrhundert entwickelten Disziplinen nenntman auch die Grundlagen der Mathematik. Logik und Mengenlehre sindfur Mathematik und Informatik, und damit auch fur jede andere ernsthafteWissenschaft, gleichermaßen wichtig. Seien Sie also nicht erstaunt daruber,daß die Vorlesungen zu den Grundlagen der Mathematik heute der theo-retischen Informatik zugeordnet werden. Wenngleich Logik und Mathema-tik besonders abstrakt erscheinen, so stellen doch gerade sie die wesentlicheSchnittstelle zwischen der materiellen Realitat und der abstrakten Welt derMathematik dar. Beide Wissenschaften sind daher eng mit philosophischenFragestellungen verbunden.

2.1 Logische Symbole und Formeln

Das Anliegen der Mathematik besteht in der Formulierung und dem Bewei-sen von Aussagen. Dazu bedarf es zunachst einmal einer geeigneten for-malisierten Sprache. Warum reicht eine menschliche Sprache nicht immeraus? Menschliche Sprachen sind zu umstandlich, die Formulierung mathe-matischer Aussagen wird leicht sehr lang und unubersichtlich. Außerdembesitzen menschliche Sprachen eine Reihe von Mehrdeutigkeiten, deren mansich beim ersten Blick nicht einmal bewußt ist. Außerdem sind menschli-che Sprachen stark kontextabhangig. Betrachten Sie beispielsweise den Satz

4

Preliminary version – 8. Januar 2002

Page 7: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

An diesem Treffen nahmen beruhmte Frauen und Manner teil. Bezieht sichberuhmt nur auf die Frauen oder auch auf die Manner? Die Antwort ist nichtklar, die umliegenden Satze konnen aber zur Klarung beitragen. Wer sichfur dergleichen Phanomene interessiert, dem empfehle ich den Besuch derVorlesungen zur automatischen Sprachverarbeitung in spateren Semestern.Um diesen Problemen aus dem Wege zu gehen, haben sich die Mathemati-ker eine eigene kompakte Sprache, die Logik, geschaffen, deren Satze, d.h.Formeln, keine Mehrdeutigkeiten zulassen.Nun ist es nicht so, daß die Mathematiker nur auf dem Niveau der Logikmiteinander komunizieren. Wurden Sie ein Mathemtiklehrbuch komplett indie Logik ubertragen, so ware es fur einen Menschen praktisch nicht mehrzu verstehen. Ublich ist ein Zwischenweg, man formuliert die Theorie ineiner menschlichen Sprache (oft Englisch) und formalisiert nur kurze uber-schaubare Stucke, namlich solche wo man eine kurze pragnante Formulie-rung anstrebt, die jeder Mathematiker sofort uberblickt, oder solche wo manMehrdeutigkeiten vorbeugen mochte.Ebenso wollen wir es in dieser Vorlesung halten. Dafur wollen wir jetzt dienotwendige Symbolik und die Erklarung ihrer Bedeutung bereitstellen. Da-bei werden wir aber auf einem naiven Niveau verharren, die exakte Theoriewerden Sie in einem spateren Semester in der theoretischen Informatik ken-nen lernen.Unter einer Aussage versteht man ein spachliches Konstrukt, welches entwe-der wahr oder falsch ist. In diesem Sinne sind 3 ist eine Primzahl und 5 istgroßer als 8 Aussagen, die erste ist wahr die zweite falsch. Keine Aussage istdagegen a ist Teiler von b, denn der Wahrheitswert dieses Konstrukts hangtdavon ab, fur welche Zahlen die Variablen a und b stehen. Bezeichnen dieVariablen A und B Aussagen, so sind auch

(¬A) nicht A

(A ∧B) A und B

(A ∨B) A oder B

(A→ B) aus A folgtB

(A↔ B) A genau dann, wenn B

Aussagen und der Wahrheitswert der Gesamtaussage laßt sich allein aus denWahrheitswerten der Teilaussagen bestimmen. Insbesondere werden keineinhaltlichen Bezuge zwischen den Teilaussagen A und B verlangt. So ist A∨Bwahr, wenn wenigstens eine der beiden Aussagen A oder B (moglicherweise

5

Preliminary version – 8. Januar 2002

Page 8: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

aber auch beide) wahr sind. Sind sowohl A als auch B falsch, so ist auchA ∨B falsch.Die nach den obigen Regeln aus Aussagenvariablen, den Funktoren ¬,∧,∨,→ und↔ sowie den Klammern gebildeten Zeichenketten1 nennt man aussa-genlogische Formeln.Mittels der aussagenlogischen Formeln lassen sich Beziehungen zwischen Aus-sagen formulieren und untersuchen. Die Feinstruktur, d.h. die inhaltlicheBedeutung, der Aussagen selbst bleibt jedoch im Dunkeln, da man auf demGrundniveau nur Aussagenvariablen zur Verfugung hat. Diese konnen wahroder falsch sein, eine inhaltliche Bedeutung kommt ihnen aber nicht zu. Umdie Feinstruktur zu beschreiben, muß man zur Pradikatenlogik ubergehen.Dort spiegelt eine elementare Aussage eine Beziehung zwischen Elementenoder Verknupfungen von Elementen einer oder mehrerer Mengen wider. Laßtman anstelle der Elemente auch Variablen fur Elemente zu, so gelangt manzu sogenannten Aussageformen, deren Wahrheitsgehalt noch von der Bele-gung der Variablen abhangen kann. Ein elementare pradikatenlogische For-mel, diese ubernimmt nun die Rolle der Aussagenvariablen, hat die GestaltP (t1, . . . , tn). Dabei sind die t1, . . . , tn Terme, sie entstehen durch moglicher-weise geschachtelte Anwendung von Funktionen auf Elemente und Variablen.Beispiele fur Terme sind 4, x oder (a + 1)3. P ist ein Pradikatensymbol,welches eine Beziehung zwischen den Termen t1, . . . , tn beschreibt. Typi-sche Pradikatensymbole sind <,≤,=,≥, > oder auch das Teilbarkeitssymbol| (man schreibt a | b fur a teilt b). Dazu verbleibt anzumerken, daß manbinare Pradikatensymbole haufig in Infix-Notation verwendet, die Gestalt istdann also (t1 P t2), oft laßt man die außeren Klammern auch noch weg.Aus pradikatenlogischen Formeln kann man durch Anwendung der logischenFunktoren ¬,∧,∨,→ und ↔ und durch Quantifizierung weitere pradikaten-logische Formeln bilden. Die Anwendung der logischen Funktoren verlauftanalog zum Aufbau der aussagenlogischen Formeln, aber die elementarenpradikatenlogischen Formeln ubernehmen die Rolle der Aussagenvariablen.Außerdem kann man durch Quantifizierung vollfreier2 Variablen neue pradi-katenlogische Formeln konstruieren. Sei A(x) eine pradikatenlogische Formel,in der die Variable x vollfrei vorkommt. Man unterscheidet die Generalisie-

1Anstelle der Aussagenvariablen konnen auch auf die obige Weise gebildete Formeln indie Bildung eingehen.

2Man sagt, x kommt vollfrei in A vor, wenn x in A frei, aber nicht gebunden vorkommt.Letzteres heißt, kein Quantor in A darf sich auf die Variable x beziehen.

6

Preliminary version – 8. Januar 2002

Page 9: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

rung von x:

(∀x A(x)) fur alle x gilt A(x)

und die Partikularisierung von x:

(∃x A(x)) es existiert (mindestens) ein x, fur welches A(x) gilt

Zuweilen verwendet man weitere Quantoren, wie ∃! in

(∃!x A(x)) es existiert genau ein x, fur welches A(x) gilt

Kommt in einer pradikatenlogischen Formel keine freie Variable mehr vor,d.h. alle Variablen stehen im Wirkungsbereich eines auf sie bezogenen Quan-tors, dann ist die durch sie beschriebene Aussageform sogar eine Aussage,d.h. ihr Wahrheitswert hangt nicht mehr von der Belegung von Variablenab. Die Anwendung der Funktoren ¬,∧,∨,→ und ↔ und der Quantoren∀ und ∃ kann beliebig geschachtelt werden. Naturlich leidet die Ubersicht-lichkeit unter der Vielzahl der Klammern, aber vollstandiger oder unkontrol-lierter Verzicht fuhrt zu Mehrdeutigkeiten des Wahrheitswertes. Z.B. darfman außere Klammern weglassen, muß sie aber gegebenenfalls wieder hin-zufugen, wenn man den Ausdruck in einen komplizierteren Ausdruck einbaut.Ahnlich der aus der Schulmathematik bekannten Regel “Punktrechnung gehtvor Strichrechnung” legt man auch in der Logik Regeln zur Einsparung vonKlammern fest. So binden die Funktoren ¬,∧,∨,→ und ↔ von links nachrechts immer schwacher. Wir vereinbaren, daß die Quantoren schwacher alsalle Funktoren binden. Bei manchen Funktoren hangt der Wert des zusam-mengesetzten Ausdrucks gar nicht von der Klammerung ab, auch dann kannman darauf verzichten. Dabei handelt es sich um die assoziativen Funk-toren ∧ und ∨. Bei aufeinanderfolgenden Quantoren oder Negationen istuberhaupt nur eine Klammerung sinnvoll, also kann man auch dort auf dieKlammersetzung verzichten. Klammern, deren Weglassen zu Mehrdeutig-keiten fuhren wurde, mussen gesetzt werden. So ist die Implikation nichtassoziativ und bei mehreren aufeinanderfolgenden Pfeilen ist eine Klammer-setzung unumganglich.Aber es besteht keineswegs die Pflicht, alle anderen Klammern wegzulas-sen. Im Zweifelsfall ist man auf der sicheren Seite und oft erhoht es dasVerstandnis, wenn man einige strukturpragende Klammern setzt, obwohl sie

7

Preliminary version – 8. Januar 2002

Page 10: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

weggelassen werden durften. Zum Beispiel sind folgende Interpretationenvorzunehmen:

A ∧B ∨ C = (A ∧B) ∨ C∀x A ∧ ∃yB = ∀x (A ∧ (∃yB))

∃x A→ B = ∃x (A→ B)

A ∧B ∧ C = A ∧ (B ∧ C) oder (A ∧B) ∧ C¬¬A = ¬(¬A)

Schließlich sei noch angemerkt, daß die Regeln zum Weglassen der Klammernnicht in jedem Buch auf die gleiche Weise festgelegt seien mussen. Insbeson-dere die Regeln im Zusammenhang mit den Quantoren sind durchaus auchanders anzutreffen. Im Zweifelsfalle sollte man immer nach den Festlegungensuchen, die im entsprechenden Buch erwahnt werden.

Ubungen zur Selbstkontrolle

1. Welche der folgenden Satze sind Aussagen?

(a) Am 31.12.1999 um 13 Uhr wird es auf dem Leipziger Marktplatzschneien.

(b) Lauf langsamer!

(c) x ist gerade und x+ 1 ist ungerade.

(d) Wenn 3 durch 5 teilbar ist, dann ist 24 eine Primzahl.

(e) Wenn 15 ein Vielfaches der Summe von 3 und 2 ist, dann ist dieDifferenz von 19 und 8 großer als 7.

(f) Wie komme ich zum Bahnhof?

(g) Fur alle naturlichen Zahlen x gilt, wenn x gerade ist, so ist x durch2 teilbar.

(h) Vielen wird es besser gehen.

2. In den folgenden aussagenlogischen Formeln sind gemaß unserer Verein-barungen Klammern weggelassen wurden. Setzen Sie die weggelassenenKlammern wieder ein und stellen Sie den Wahrheitwert der Aussagenfest, wenn A und C fur wahre sowie B und D fur falsche Aussagenstehen.

8

Preliminary version – 8. Januar 2002

Page 11: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

(a) A ∨B ∧ C ∨D(b) A ∧B ∨ C ∧D(c) ¬A ∧ C(d) A ∧B → D ∨ ¬D

3. Welche der folgenden Zeichenketten sind (unter Berucksichtigung dereingfuhrten Regeln zum Weglassen von Klammern) pradikatenlogischeFormeln? Bei welchen der Formeln handelt es sich um eine Aussageund bei welchen um eine Aussageform? Geben Sie fur jede Formeldie Mengen der in ihr auftretenden freien, gebundenen und vollfreienVariablen an.

(x, y, a, b, bezeichnen Variablen fur Elemente des Grundbereichs, P , Q,<, >, | sind Pradikatensymbole.)

(a) P (x) ∨ (x > 3) ∨ (x = 3)

(b) (b < a)→ (a < b)→ (b < a)

(c) ∀a (2 | a)→ ¬(2 | (a+ 1))

(d) ∀x (P (x) ∨ ∃y ¬Q(x, y))

(e) (∃x (3 | x))↔ (∀y ¬Q(x, y))

(f) ∀y (x < y) ∨ ∀y (x < y)

(g) (∀y (x < y)) ∨ (∀y (x < y))

2.2 Mengenoperationen

Der grundlegenste Begriff der Mathematik ist der der Menge. In der theore-tischen Informatik erhalten Sie zur Zeit eine Einfuhrung in die axiomatischeMengenlehre, uns soll hier eine naive Vorstellung genugen. Wir nehmen an,es gibt ein Universum3 U aller uns interessierenden Objekte. Als Mengebezeichnen wir dann eine Zusammenfassung gewisser Objekte aus dem Uni-versum, diese werden die Elemente der Menge genannt. Ist a zur MengeM gehoriges Objekt aus U , so schreibt man a ∈ M . Ist a ein Objekt ausU , welches nicht zu M gehort, so druckt man das durch die Schreibweisea /∈ M aus. Da wir das Universum selbst als Menge vereinbart haben, gilt

3Manchmal spricht man auch von der Allmenge.

9

Preliminary version – 8. Januar 2002

Page 12: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

∀a (a ∈ U). Faßt die Menge M gerade die Objekte a1, . . . , am des Univer-sums zusammen, so schreiben wir dafur M = {a1, . . . , am}. Ist M Zusam-menfassung unendlich vieler Objekte, so ist eine einfache Aufzahlung allerElemente nicht mehr moglich. Kann man aber die Elemente von M dadurchauszeichnen, daß sie eine Bedingung B(x) erfullen, welche von allen nicht zuM gehorigen Objekten des Universums nicht erfullt wird, so schreibt manM = {x ∈ U : B(x)} oder, wenn das zugrundeliegende Universum klarist, einfach M = {x : B(x)}. Den Sachverhalt M = {x : B(x)} kannman auch durch die Formel ∀x (x ∈M ←→ B(x)) beschreiben. Die Bedin-gung B(x) kann auch einfach in deutscher Sprache formuliert werden, z.B.M = {x : x ist eine Primzahl}, wobei die Menge der naturlichen Zahlen alsUniversum dient.Mittels der speziellen Bedingung x 6= x definieren wir die Menge

∅ := {x : x 6= x} .

Da jedes Objekt zu sich selbst gleich ist, gilt ∀x ∈ U (x /∈ ∅). Die sodefinierteMenge ∅ wird leere Menge genannt.Zwei Mengen M und N sind per definitionem genau dann gleich, wenn siedie gleichen Objekte umfassen, d.h.

M = N :⇐⇒ ∀a (a ∈M ↔ a ∈ N) .

Aus dieser Gleichheitsdefinition folgt, daß die Elemente einer Menge wedereiner Ordnung (einer Reihenfolge) unterliegen, noch mehrfach in die Mengeeingehen konnen.So uberpruft man nach der obigen Gleichheitsdefinition, daß {a, b, a}, {b, a}und {a, b} drei verschiedene Schreibweisen fur die gleiche Menge sind. Eben-so beschreiben {x ∈ N : x ist eine einstellige ungerade Primzahl}, {x :x ist eine naturliche Zahl zwischen 2 und 8, welche nicht durch 2 teilbar ist}und {3, 5, 7} die gleiche Menge. Man beachte die Ungleichheit ∅ 6= {∅}, dennes gilt ∅ ∈ {∅} aber ∀x (x /∈ ∅), also insbesondere auch ∅ /∈ ∅.Eine Menge N wird als Teilmenge der Menge M (symbolisch N ⊆ M) be-zeichnet, wenn jedes Element von N auch zu M gehort, d.h.

N ⊆M :⇐⇒ ∀a (a ∈ N → a ∈M) .

Fur jede Menge M gilt ∅ ⊆ M , denn fur N = ∅ ist die linke Seite derImplikation fur jedes Objekt a des Universums falsch und folglich ist die

10

Preliminary version – 8. Januar 2002

Page 13: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Gesamtimplikation unabhangig vom Wahrheitswert der rechten Seite immerwahr. Auf anliche Weise weist man N ⊆ U fur beliebiges N nach, dennfur M = U wird die rechte Seite der Implikation fur jedes Objekt a desUniversums U wahr.Sind M und N Mengen, dann ist auch die Gesamtheit der Elemente von Mund N eine Menge, welche Vereinigung M ∪N von M und N genannt wird.In mathematischer Notation sieht die Definition wie folgt aus

M ∪N := {x : x ∈M ∨ x ∈ N} .

Analog zur Vereinigung definiert man den Durchschnitt M ∩ N als die Ge-samtheit aller zu beiden Mengen gehorigen Objekte, d.h.

M ∩N := {x : x ∈M ∧ x ∈ N}

ein. Die Mengendifferenz M \N ergibt sich als

M \N := {x : x ∈M ∧ x /∈ N} .

Die spezielle Mengendifferenz U \M besteht aus allen Objekten des Univer-sum, welche nicht der Menge M angehoren, man nennt sie auch Komplementvon M (bezuglich U) und bezeichnet sie mit M .Wichtige Rechenregeln fur Mengenoperationen sind:

1. (M ∪N) ∪K = M ∪ (N ∪K) Assoziativgesetz der Vereinigung

2. M ∪N = N ∪M Kommutativgesetz der Vereinigung

3. M ∪ ∅ = M , M ∪ U = U

4. (M ∩N) ∩K = M ∩ (N ∩K) Assoziativgesetz des Durchschnitts

5. M ∩N = N ∩M Kommutativgesetz des Durchschnitts

6. M ∩ ∅ = ∅, M ∩ U = M

7. (M ∪N) ∩M = M , (M ∩N) ∪M = M Verschmelzungsgesetze

8. (M ∪N) ∩K = (M ∩K) ∪ (N ∩K),

(M ∩N) ∪K = (M ∪K) ∩ (N ∪K) Distributivgesetze

9. M = M

11

Preliminary version – 8. Januar 2002

Page 14: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

10. M ∪N = M ∩N , M ∩N = M ∪N DeMorgansche Regeln

Beweis: Exemplarisch wollen wir das erste Distributivgesetz aus Punkt 8.beweisen. Dazu fuhren wir die Bezeichnungen L := (M ∪N) ∩K und R :=(M ∩K)∪ (N ∩K) fur die Mengen der linken beziehungsweise rechten Seiteder Gleichung ein. L und R sind genau dann gleich, wenn L ⊆ R und R ⊆ Lgelten. Beginnen wir also mit dem Beweis von L ⊆ R. Dazu muß gezeigtwerden, daß jedes Element x ∈ L auch Element von R ist.Fur alle x des Universums gilt x ∈ L =⇒ x ∈ (M ∪ N) ∧ x ∈ K =⇒(x ∈M∨x ∈ N)∧x ∈ K =⇒ (x ∈M∧x ∈ K)∨(x ∈ N∧x ∈ K). Der letzteSchritt entspricht der Anwendung des entsprechenden Distributivgesetzes derFunktoren ∧ und ∨ der Logik. Dieses laßt sich mittels Wertetabelle einfachnachrechnen. Wir setzen nun die obige Schlußkette fort. (x ∈ M ∧ x ∈K) ∨ (x ∈ N ∧ x ∈ K) =⇒ (x ∈M ∩K) ∨ (x ∈ N ∩K) =⇒ x ∈ (M ∩K) ∪(N ∩ K) = R. Also folgt L ⊆ R. Auf analoge Weise zeigt man die zweiteInklusion R ⊆ L und die behauptete Gleichheit folgt.Die restlichen Beweise verbleiben zur Ubung, siehe auch Ubungsaufgabe 4 2

Das Grundprinzip, Gesetze der Mengenlehre auf entsprechende Satze derAussagenlogik zuruckzufuhren, fuhrt haufig zum Erfolg. Den Grund dafurwerden Sie besser verstehen, wenn Sie in der theoretischen Informatik Bool-sche Verbande untersuchen. Ohne auf diese Ursachen einzugehen, sei aber derVorzug dieser Vorgehensweise hervorgehoben. Wahrend eine Mengenvaria-ble sehr viele Mengen als Wert annehmen kann4, konnen Aussagenvariablennur die Werte wahr oder falsch annehmen. Ein Beweis in der Aussagenlo-gik erfordert daher nur das Nachrechnen endlich vieler Moglichkeiten, zumBeispiel durch Aufstellen einer Wertetabelle.Unter der Potenzmenge Pow(M) versteht man die Menge aller Teilmengenvon M , also

Pow(M) := {N : N ⊆M} .

Hier stoßen wir auf eine Menge, deren Elemente ebenfalls Mengen sind. Stelltman sich das Universum als eine flache Menge atomarer Objekte vor, z.B.U = N, dann fuhrt das zu Verstandnisproblemen. Leider liegt das Problemviel tiefer, als uns lieb sein kann, denn nimmt man formal beliebige Men-gen, Mengen von Mengen, usw. in das Universum auf, dann stellt man sichschließlich die Frage, ob denn das Universum U selbst zu U gehoren soll,und man kommt in große Schwierigkeiten. In der Tat sind wir hier bei einer

4Welche und wieviele hangt noch dazu vom Universum ab.

12

Preliminary version – 8. Januar 2002

Page 15: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Fundamentalkrise angelangt, in die die Mathematik zu Beginn dieses Jahr-hunderts geriet. Die axiomatische Mengenlehre schuf schließlich einen Aus-weg, dabei muß allerdings in letzter Konsequenz die Existenz von Unmengenin Kauf genommen werden. Gerade das Universum ist dann im allgemeineneine solche Unmenge. Wir werden die Schachtelung von Mengen nicht belie-big weit in die Tiefe treiben, daher reicht fur uns ein Mengenuniversum auswelches tatsachlich alle uns interessierenden Objekte, wenn auch nicht allekonstruierbaren, enthalt.Das Kreuzprodukt, oder kartesische Produkt, M ×N zweier Mengen M undN ist die Menge aller geordneten Paare5 (a, b) mit a ∈M und b ∈ N , also

M ×N := {(a, b) : a ∈M und b ∈ N} .

Zwei geordnete Paare (a, b), (c, d) ∈ M × N sind genau dann gleich, wenna = c und b = d gelten. Selbst im Falle M = N ist also die Reihenfolge derKomponenten eines Paares von entscheidender Bedeutung. Haben M undN einen nichtleeren Durchschnitt, so konnen erste und zweite Komponentenaturlich auch ubereinstimmen. Im Gegensatz zu Mengen ist das Weglasseneiner Komponente des Paares dennoch nicht erlaubt.Analog fuhrt man das Kreuzprodukt endlich vieler Mengen M1, . . . ,Mk alsMenge

M1 ×M2 × · · · ×Mk := {(a1, a2, . . . , ak) : a1 ∈M1, a2 ∈M2, . . . , ak ∈Mk}

geordneter k-Tupel ein. Per definitionem sei das Kreuzprodukt M1 ×M2 ×· · · ×Mk fur k = 0 die leere Menge und fur k = 1 gleich M1.M1×M2×M3 ließe sich auch als (M1×M2)×M3 definieren. Dazu ware dievorhandene Definition des Falles k = 2 bereits ausreichend. Diese Definitionkonnte rekursiv auf beliebige naturliche Zahlen k ≥ 2 fortgesetzt werden. DasTripel (a, b, c) ware dann aber genau genommen als geordnetes Paar ((a, b), c)anzusehen. Außerdem ist das Kreuzprodukt kein assoziativer Operator undM1 ×M2 ×M3 ware dann von M1 × (M2 ×M3) zu unterscheiden.

5An dieser Stelle wird der Begriff des geordneten Paares im Vertrauen auf das Vorstel-lungsvermogen des Lesers nicht mathematisch genau gefaßt. Eine exakte Definition uberdie axiomatische Mengenlehre, z.B. durch (a, b) := {{a, b}, {a}}, erfolgt im Grundkurszur theoretischen Informatik. Man beachte, auch jetzt mussen wir wieder fordern, daßder neue Objekttyp der geordneten Paare zum Universum gehort. Betrachtet man dieMengendarstellung eines geordneten Paares, so stellt aber diese Annahme keinen weiterenqualitativen Sprung im Vergleich zur Potenzmenge mehr dar.

13

Preliminary version – 8. Januar 2002

Page 16: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Aus diesem Grund ziehen wir hier die explizite Definition des k-fachen Kreuz-produktes vor und nehmen daruberhinaus die Gultigkeit von (M1×· · ·×Mr)×(Mr+1 × · · · ×Mk) = M1 × · · · ×Mk fur alle 1 ≤ r ≤ k an.Im Falle der Gleichheit aller Faktoren M1 = . . . = Mk =: M schreibt manauch kurzer Mk := M ×M × · · · ×M︸ ︷︷ ︸

k Faktoren

. Gemaß unserer Festlegungen gelten

M0 = ∅ und M1 = M .

2.3 Binare Relationen

Ganz allgemein versteht man unter einer Relation R eine Teilmenge einesKreuzproduktes R ⊆M1 ×M2 × · · · ×Mk. k heißt die Stelligkeit der Relati-on. Relationen besitzen eine große Bedeutung in der praktischen Informatik,denn ihre Theorie stellt eine der wesentlichen Grundlagen der Datenbankendar. In diesem Sinne sind die Elemente von R Datensatze, deren einzelnenKomponenten geordnet und getypt sind. Die Typung kommt in den unter-schiedlichen Mengen Mi zum Ausdruck. Ein typisches Beispiel ware eineRelation R ⊂ NatZahl×Buchstabenfolge×Buchstabenfolge×Datum×Adresse zur Fuhrung einer Studentenkartei. Fur (n,w, v, d, a) ∈ R soll ndie Matrikelnummer, w der Name, v der Vorname, d das Geburtsdatum unda die Anschrift eines Studenten sein. Als angehenden Informatikern sollteIhnen sofort klar sein, daß die Typung der Relation bei der Syntaxkontrollezur Eingabezeit von entscheidender Bedeutung ist.In der Logik stießen wir auf den Begriff des Pradikatensymbols. Die Bedeu-tung eines k-stelligen Pradikatensymbols ist eine k-stellige Relation. Typi-sche Beispiele fur Relationen sind also beispielsweise <,≤,=,≥, >, |.Aus mathematischer Sicht sind die binaren Relationen R ⊆ M × M ubereiner Menge M besonders interessant, alle obigen Beispiele sind von dieserBauart. Anstelle von (a, b) ∈ R verwendet man in Anlehnung an die obigenBeispiele haufig die kompaktere Infixschreibweise aRb.Fur binare Relationen mit ausgewahlten Eigenschaften fuhrt man spezielleBegriffe ein:

Definition 1 Sei M eine Menge und R ⊆M2 eine binare Relation uber M .R heißt

• reflexiv, falls ∀a ∈M aRa,

• irreflexiv, falls ∀a ∈M ¬(aRa),

14

Preliminary version – 8. Januar 2002

Page 17: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

• symmetrisch, falls ∀a, b ∈M (aRb→ bRa),

• antisymmetrisch, falls ∀a, b ∈M (aRb ∧ bRa→ a = b),

• asymmetrisch, falls ∀a, b ∈M (aRb→ ¬(bRa)),

• vollstandig, falls ∀a, b ∈M (aRb ∨ a = b ∨ bRa),

• transitiv, falls ∀a, b, c ∈M (aRb ∧ bRc→ aRc).

Kombination dieser Eigenschaften fuhrt uns auf die Definition zweier Klassenbesonders bedeutsamer Relationen, auf die wir immer wieder stoßen werden.

Definition 2 Ein reflexive, symmetrische und transitive binare Relation Ruber einer Menge M nennt man Aquivalenzrelation.

Ein Beispiel fur eine Aquivalenzrelation ist die Gleichheit = uber einer be-liebigen Menge M . Aber auch die durch a ≡n b :⇐⇒ n | (a − b) definierteRelation ≡n⊆ Z × Z uber den ganzen Zahlen ist fur jedes feste n > 0 eineAquivalenzrelation.

Definition 3 Eine reflexive, antisymmetrische und transitive binare Relati-on R wird als reflexive Halbordnung bezeichnet.Unter einer irreflexiven Halbordnung versteht man eine asymmetrische, tran-sitive binare Relation R.Eine vollstandige6 reflexive oder irreflexive Halbordnung heißt auch einfachreflexive oder irreflexive Ordnung.

Reflexive Halbordnungen sind ≤ oder ≥ uber den (z.B.) reellen Zahlen oderdie Teilmengenbeziehung ⊆ uber der Potenzmenge einer Menge M . Wahrend≤ und ≥ sogar Ordnungen sind, ist ⊆ in der Tat nicht vollstandig. Zum Bei-spiel gilt fur zwei Einermengen {a} und {b} mit a 6= b keine der gefordertenBeziehungen {a} ⊆ {b}, {a} = {b} oder {b} ⊆ {a}. Ein eher exotischesBeispiel einer reflexiven Halbordnung ist die Gleichheit = uber einer Menge.Entsprechend sind <,> und ⊂ uber den entsprechenden Mengen Beispielefur irreflexive Halbordnungen. Ahnlich zu oben, sind < und > vollstandig,⊂ jedoch nicht.

6In Verbindung mit Halbordnungen verwendet man anstelle von vollstandig auch denBegriff linear.

15

Preliminary version – 8. Januar 2002

Page 18: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Ubungen zur Selbstkontrolle

4. Beweisen Sie eine der DeMorganschen Regeln und eines der Verschmel-zungsgesetze fur Mengen.

5. Die symmetrische Differenz A4B zweier Mengen A und B ist als dieMenge A4B := (A \ B) ∪ (B \ A) definiert. Stellen Sie die Menge(A4B)4C nur unter Verwendung von Vereinigung, Durchschnitt undKomplement dar und beweisen die das Assoziativgesetz (A4B)4C =A4(B4C) der symmetrischen Differenz.

6. Eine Menge N nichtleerer, paarweise disjunkter Teilmengen von Mderen Vereinigung gleich der Menge M ist, nennt man eine Zerlegungvon M . In formalisierter Form kann eine Zerlegung N von M wie folgtbeschrieben werden:

N ⊆ Pow(M)

∀K ∈ N : (K 6= ∅)∀K,K ′ ∈ N : (K = K ′ ∨K ∩K ′ = ∅)⋃

K∈N

K = M

Durcha ∼N b :⇐⇒ ∃K ∈ N (a ∈ K ∧ b ∈ K)

kann man einer Zerlegung N eine binare Relation ∼N⊆M2 zuordnen.

(a) Beweisen Sie, daß ∼N eine Aquivalenzrelation ist.

(b) Gegeben sei eine beliebige Aquivalenzrelation ≡. KonstruierenSie eine Zerlegung N≡ von M derart, daß die von ihr beschriebeneAquivalenzrelation ∼N≡ mit ≡ ubereinstimmt.

2.4 Korrespondenzen und Abbildungen

Um Beziehungen zwischen den Elementen zweier Mengen zu charakterisie-ren, fuhrt man den Begriff der Korrespondenz ein. Sei A die Menge deranwesenden Studenten und B die Menge der Stuhle in diesem Horsaal. Of-fensichtlich korrespondieren A und B durch die Beziehung, wer auf welchemStuhl sitzt, zueinander. Ebenso korrespondiert jede naturliche Zahl n ∈ Nvermoge n 7→ m = n2 zu einer Quadratzahl m ∈ {0, 1, 4, 9, . . . }.

16

Preliminary version – 8. Januar 2002

Page 19: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Definition 4 Eine Korrespondenz f : A→ B aus der Menge A in die MengeB besteht aus dem Vorbereich A, dem Nachbereich B und einer Abbildungs-

vorschrift A 3 af7→ b ∈ B zur Beschreibung, welche Elemente aus A mit

welchen Elementen aus B korrespondieren.Eine Korrespondenz f : A → B aus A in B nennt man auch eine Korre-spondenz

• von A in B, falls zu jedem Element a ∈ A wenigstens ein Element

b ∈ B mit af7→ b existiert,

• aus A auf B, falls zu jedem Element b ∈ B wenigstens ein Element

a ∈ A mit af7→ b existiert,

• von A auf B, falls f sowohl Korrespondenz von A in B als auch Kor-respondenz aus A auf B ist.

Gibt es zu jedem a ∈ A hochstens ein b ∈ B mit af7→ b, dann heißt die

Korrespondenz f : A→ B eindeutig.Eine eindeutige Korrespondenz f : A→ B von A in B wird Abbildung (oderFunktion) von A in B genannt.

Durch die hier verwendete Darstellungsweise der Abbildungsvorschrift erhal-ten Korrespondenzen und Abbildungen einen dynamischen Charakter, wasder Intuition entgegenkommt. Der Nachteil besteht darin, daß etwas im Dun-keln bleibt, was eigentlich eine Abbildungsvorschrift ist. Versuchen wir alsoim Nachhinein eine Prazisierung. Dazu fuhren wir den Graph der Korrespon-denz f : A→ B als die Menge

Graph(f) := {(a, b) ∈ A×B : af7→ b}

ein, Graph(f) ist eine binare Relation aus A×B. Dann beschreibt das Tripel(A,B,Graph(f)) die Korrespondenz f vollstandig und unmißverstandlich.Durch den Graphen haben wir jeder Korrespondenz eine binare Relation zu-geordnet. Umgekehrt kann man auch jede binare Relation R ⊆ A × B alsGraph einer Korrespondenz aus A in B deuten. Der einzige Unterschiedzwischen Korrespondenz und binarer Relation besteht darin, daß die Korre-spondenz den dynamischen und die Relation den statischen Charakter desObjektes hervorhebt. Aus mathematischer Sicht sind beide Konzepte jedochgleich.

17

Preliminary version – 8. Januar 2002

Page 20: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Aus streng axiomatischer Sicht ist der Zugang uber die Relationen zu be-vorzugen, da damit die Unscharfe der Abbildungsvorschrift beseitigt wird.Allerdings sollte man nicht soweit gehen und eine Korrespondenz einfach mitihrem Graphen identifizieren. Denn bereits die Frage, ob eine Korrespondenzvon A oder auf B vorliegt, ist aus der Menge Graph(f) allein nicht mehrerkennbar. Betrachten wir zum Beispiel den Graphen {(0, 2), (1, 1), (2, 0)}.Gilt A = B = {0, 1, 2}, so handelt es sich um eine Korrespondenz, genauersogar um eine Abbildung, von A auf B. Gilt dagegen A = B = N, so liegt kei-ne Abbildung mehr vor und es handelt sich nur noch um eine Korrespondenzaus A in B.

Definition 5 f : A → B sei eine Korrespondenz aus A in B. Gilt af7→ b,

so nennt man b ein Bild von a und a ein Urbild von b. Die Menge allerUrbilder von b ∈ B nennt man das vollstandige Urbild von b.Die Teilmenge der Elemente von A, die wenigstens ein Bild besitzen nenntman den Definitionsbereich

Def(f) := {a ∈ A : ∃b ∈ B af7→ b}

von f . Entsprechend heißt die Teilmenge

Bild(f) := {b ∈ B : ∃a ∈ A af7→ b}

der Bildbereich von f .

Ist f sogar eine Abbildung, so besitzt jedes Element a ∈ A genau ein Bildund es ist ublich, dafur f(a) zu schreiben. Fur Korrespondenzen verwendetman diese Schreibweise gelegentlich ebenfalls, allerdings ist f(a) dann als dieMenge aller Bilder von a zu verstehen. In diesem Sinne ist die Schreibweisef−1(b) fur das vollstandige Urbild von b ∈ B ublig.Vorsicht mit diesen Vereinbarungen ist allerdings bei Abbildungen geboten,denn dann ist f(a) = b im Sinne der Abbildung ein Element von B, namlich

das eindeutig bestimmte b ∈ B mit af7→ b, aber im Sinne der Korrespondenz7

gilt f(a) = {b}.Es gibt verschiedene Moglichkeiten der Veranschaulichung der Abbildungs-vorschrift einer Korrespondenz. Ist der Graph endlich, so kann man die zu

7Gemaß Definition ist jede Abbildung erst recht eine Korrespondenz.

18

Preliminary version – 8. Januar 2002

Page 21: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

ihm gehorigen Paare explizit angeben oder eine graphische Darstellung derGestalt

verwenden. Die Blasen stellen Vor- und Nachbereich dar, die Punkte derenElemente und die Pfeile die Zuordnungsvorschrift. Abbildungen zeichnensich in dieser Veranschaulichung gerade dadurch aus, daß von jedem Punktdes Vorbereichs genau ein Pfeil startet.Bei den Ihnen aus der Schule gelaufigen Funktionen, besteht die Abbil-dungsvorschrift in einer Formel zur Berechnung des Bildes, z.B. entspricht

y = f(x) = sin(x) der Abbildungsvorschrift xf7→ sin(x). Weitere Moglich-

keiten sind das Aufstellen einer Wertetabelle oder die geometrische Veran-schaulichung des Graphen.Zwei Korrespondenzen f : A → B und g : B → C konnen zu einer Korre-spondenz f ◦ g : A → C verkettet werden8. Vor- und Nachbereich sind Abeziehungsweise C, die Abbildungsvorschrift lautet

af◦g7→ c :⇐⇒ ∃b ∈ B (a

f7→ b ∧ b g7→ c) .

Daruberhinaus kann man jeder Korrespondenz f : A → B ihre Umkehrkor-respondenz f−1 : B → A zuordnen, deren Abbildungsvorschrift ist

bf−1

7→ a :⇐⇒ af7→ b .

8Anstelle der Schreibweise f ◦g wird in manchen Buchern auch g◦f verwendet. Das hatden Vorteil, daß fur Abbildungen f und g die Gleichheit (g◦f)(x) = g(f(x)) gilt. Dagegenhat die hier gewahlte Schreibweise den Vorteil, daß die Abbildungen hintereinander in derin unserem Kulturkreis ublichen Lesereihenfolge von links nach rechts angewandt werden.Ein gutes Buch wird, sofern es derartige Verkettungen benotigt, immer eine verbindlicheVereinbarung uber die Schreibweise treffen. Diese ist gegebenfalls zu beachten.

19

Preliminary version – 8. Januar 2002

Page 22: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Zu jeder Menge A kann man die Korrespondenz idA : A→ A mit der Abbil-dungsvorschrift

aidA7→ b :⇐⇒ a = b

definieren. Diese Korrespondenz ist sogar eine Abbildung und man nennt sieublicherweise die identische Abbildung von A.

Satz 1 Fur alle Korrespondenzen f : A → B, g : B → C und h : C → Dgelten

i) (f ◦ g) ◦ h = f ◦ (g ◦ h),

ii) f ◦ idB = f und idA ◦ f = f .

Beweis: i) Zunachst uberzeugt man sich leicht von (f ◦ g) ◦ h : A → D undf ◦ (g ◦ h) : A→ D, also reicht es die Gleichheit der Abbildungsvorschriftenzu uberprufen.

Seien a ∈ A und d ∈ D so, daß a(f◦g)◦h7→ d. Dann existiert ein c ∈ C mit

af◦g7→ c und

ch7→ d . (2.1)

Weiter ergibt sich die Existenz eines b ∈ B mit der Eigenschaft

af7→ b (2.2)

und

bg7→ c . (2.3)

Aus (2.3) und (2.1) schließt man auf bg◦h7→ d und mittels (2.2) ergibt sich

weiter af◦(g◦h)7→ d.

Analog zeigt man, daß af◦(g◦h)7→ d auch a

(f◦g)◦h7→ d impliziert.ii) verbleibt zur Ubung. 2

Die Schreibweise der Umkehrabbildung mag f ◦ f−1 = idA und f−1 ◦ f = idBsuggerieren. Beide Gleichungen treffen jedoch im Allgemeinen nicht zu. Sogilt fur die f(n) = n2 genugende Abbildung f : N→ N zwar die Gleichheit f◦f−1 = idN, nicht jedoch die Gleichheit f−1 ◦ f = idN, denn 2 ∈ Def(idN) aber

20

Preliminary version – 8. Januar 2002

Page 23: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

2 /∈ Def(f−1◦f). Wir haben aber wenigstens noch die Inklusion Graph(f−1◦f) ⊂ Graph(idN) der Graphen. Schlimmer wird es fur die Abbildung f : Z→Z mit gleicher Abbildungsvorschrift f(a) = a2. In diesem Falle gelten weder

f ◦ f−1 = idZ noch f−1 ◦ f = idZ, beispielsweise haben wir af◦f−1

7→ −a fur allea ∈ Z.

Definition 6 Eine Abbildung f : A→ B wird injektiv (oder auch eineindeu-tig) genannt, wenn jedes Element von B hochstens ein Urbild besitzt.Eine Abbildung f : A→ B von A auf B nennt man surjektiv.Ist die Abbildung f : A → B sowohl injektiv als auch surjektiv, so sprichtman auch von einer bijektiven Abbildung.

Satz 2 Fur Abbildungen f : A → B und g : B → C gelten die folgendenAussagen:

i) sind f und g injektiv, so ist auch f ◦ g injektiv,

ii) sind f und g surjektiv, so ist auch f ◦ g surjektiv,

iii) sind f und g bijektiv, so ist auch f ◦ g bijektiv,

iv) die Umkehrkorrespondenz f−1 ist genau dann eine Abbildung, wenn fbijektiv ist, daruberhinaus ist f−1 dann sogar ebenfalls bijektiv,

v) ist f injektiv, so gilt f ◦ f−1 = idA,

vi) ist f surjektiv, so gilt f−1 ◦ f = idB,

vii) ist f bijektiv, so gelten f ◦ f−1 = idA und f−1 ◦ f = idB.

Beweis: i) Sei c ∈ Bild(f ◦ g) ein beliebiges Element des Bildbereiches derVerkettung und a, a′ ∈ A zwei Urbilder von c bei der Abbildung f ◦ g, also

af◦g7→ c und a′

f◦g7→ c. Folglich existieren Elemente b und b′ aus B mit af7→ b,

bg7→ c sowie a′

f7→ b′, b′g7→ c. Insbesondere erkennt man, daß b und b′ zum

vollstandigen Urbild von c bei der Abbildung g gehoren. Da diese als injektivvorausgesetzt wurde, folgt b = b′. Dann sind aber a, a′ zwei Urbilder von bbei der ebenfalls als injektiv vorausgesetzten Abbildung f , daher mussen siegleich sein. Damit haben wir gezeigt, daß das vollstandige Urbild von c beider Verkettung f ◦ g nur aus einem einzigen Element besteht. Also ist f ◦ ginjektiv.

21

Preliminary version – 8. Januar 2002

Page 24: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

ii) Zu zeigen ist Bild(f ◦ g) = C. Zu jedem c ∈ C existiert wegen der

Surjektivitat von g ein b ∈ B mit bg7→ c. Aufgrund der Surjektivitat von f

existiert dann ein a ∈ A mit af7→ b. Daraus ergibt sich aber a

f◦g7→ c, alsoc ∈ Bild(f ◦ g) und wir sind fertig.

iii) folgt sofort aus i) und ii).

iv) - vii) Ubungsaufgabe 7. 2

2.5 Algebraische Strukturen

Definition 7 Sei M eine Menge. Unter einer k-stelligen Operation ◦ auf

M versteht man eine Abbildung ◦ : Mk → M . Im Falle von k = 1 sprichtman auch von einer unaren und im Falle k = 2 von einer binaren Operation.Zu einer 0-stellige Operation sagt man Konstante.

Gemaß Definition ist eine Konstante c : M0 →M eine Abbildung mit leeremVorbereich, man faßt c als ein ausgezeichnetes Element von M auf.

Definition 8 Eine (homogene9) algebraische Struktur M = (M ; f1, . . . , fn;R1, . . . , Rm) ist ein geordnetes Tupel bestehend aus einer nichtleeren Trager-menge M , Operationen f1, . . . , fn uber M und Relationen R1, . . . , Rm uberM . Das (n+m)Tupel (r1, . . . , rn; q1, . . . , qm) der Stelligkeiten der Operatio-nen und Relationen wird Typ von M genannt.

Die Verwendung der Semikolon anstelle von Kommata dient ausschließlichder Ubersichtlichkeit der Schreibweise. Wenn Operationen und Relationenaus dem Kontext heraus klar sind, bezeichnet man algebraische Struktur undTragermenge der Einfachheit halber mit dem gleichen Symbol.Ein Beispiel einer algebraischen Struktur ist N = (N; +, ∗, 0; =,≤), also dienaturlichen Zahlen mit den binaren Operationen Addition und Multiplikati-on, der Konstanten 0, der (binaren) Gleichheitsrelation = und der (binaren)Ordnungsrelation ≤. Der Typ der soeben eingefuhrten algebraischen Struk-tur N ist (2, 2, 0; 2, 2). Mit dem Symbol N bezeichnet man ublicherweise die

9Man kann auch sogenannte inhomogene algebraische Strukturen betrachten. Bei die-sen hat man es mit einer endlichen Familie von Tragermengen zu tun. Operationen undRelationen treten dann ebenfalls in der allgemeinen Form auf. Damit reicht die Angabeder Stelligkeiten im Typ nicht mehr aus. Stattdessen fuhrt man sogenannte Signaturenein.

22

Preliminary version – 8. Januar 2002

Page 25: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

bloße Menge der naturlichen Zahlen ebenso wie die Menge gemeinsam mitOperationen und Relationen.

Definition 9 M = (M ; f1, . . . , fn;R1, . . . , Rm) und N = (N ; g1, . . . , gn;S1, . . . , Sm) seien zwei algebraische Strukturen gleichen Typs (r1, . . . , rn;q1, . . . , qm).Eine Abbildung ϕ : M → N mit den Eigenschaften der Operationstreue

∀a1, . . . , ari ∈M ϕ(fi(a1, . . . , ari)) = gi(ϕ(a1), . . . , ϕ(ari))

fur alle i ∈ {1, . . . , n} sowie der Relationstreue

∀b1, . . . , bqj ∈M (b1, . . . , bqj) ∈ Rj →(ϕ(b1), . . . , ϕ(bqj)

)∈ Sj

fur alle j ∈ {1, . . . ,m} nennt man Homomorphismus von M nach N . Istϕ surjektiv, so heißen ϕ auch Epimorphismus und N ein homomorphes Bildvon M. Fur injektives ϕ spricht man von einem Monomorphismus. Ist ϕbijektiv und ϕ−1 ebenfalls ein Homomorphismus, so wird ϕ als Isomorphismusbezeichnet.

Fur algebraische Strukturen ohne Relationen, d.h. m = 0, ist jeder bijektiveHomomorphismus ein Isomorphismus.

Satz 3 M = (M ; f1, . . . , fn;R1, . . . , Rm) und N = (N ; g1, . . . , gn; S1, . . . , Sm)seien zwei algebraische Strukturen gleichen Typs (r1, . . . , rn; q1, . . . , qm) undϕ : M → N ein Homomorphismus von M nach N .Die durch

a ≡ϕ b :⇐⇒ ϕ(a) = ϕ(b) (2.4)

definierte Relation der Bildgleichheit unter ϕ ist eine Aquivalenzrelation.Daruberhinaus gilt fur alle 1 ≤ i ≤ n und a1, . . . , ari , b1, . . . , bri die Implika-tion:

(∀j ∈ {1, . . . , ri} aj ≡ϕ bj) −→ fi(a1, . . . , ari) ≡ϕ fi(b1, . . . , bri) . (2.5)

Beweis: Zum Nachweis der Aquivalenzrelationseigenschaft reicht die Betrach-tung der Abbildung ϕ : M → N aus, die Homomorphieeigenschaft wird garnicht benotigt. Es ist zu zeigen, daß die binare Relation ≡ϕ die drei Eigen-schaften einer Aquivalenzrelation aufweist.

23

Preliminary version – 8. Januar 2002

Page 26: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Reflexivitat: Fur alle a ∈M gilt ϕ(a) = ϕ(a), also a ≡ϕ a.Symmetrie: Fur alle a, b ∈M gilt:

a ≡ϕ b(2.4)⇐⇒ ϕ(a) = ϕ(b)

=⇐⇒ ϕ(b) = ϕ(a)(2.4)⇐⇒ b ≡ϕ a

Transitivitat: Fur alle a, b, c ∈M gilt:

a ≡ϕ b ∧ b ≡ϕ c(2.4)⇐⇒ ϕ(a) = ϕ(b) ∧ ϕ(b) = ϕ(c)

==⇒ ϕ(a) = ϕ(c)

(2.4)⇐⇒ a ≡ϕ c

Die mit dem Gleichheitszeichen gekennzeichneten Schlußfolgerungen beruhenauf den Eigenschaften der identischen Gleichheit in N .Beweis der Beziehung (2.5): Wir halten ein beliebiges i ∈ {1, . . . , n} fest.Aus der Operationstreue von ϕ folgt

ϕ(fi(a1, . . . , ari)) = gi(ϕ(a1), . . . , ϕ(ari))

Aus der Pramisse der zu zeigenden Implikation ergeben sich die Gleichheitenϕ(aj) = ϕ(bj), 1 ≤ j ≤ ri, und daher

gi(ϕ(a1), . . . , ϕ(ari)) = gi(ϕ(b1), . . . , ϕ(bri)) .

Nochmalige Anwendung der Operationstreue in der umgekehrten Richtungliefert schließlich

gi(ϕ(b1), . . . , ϕ(bri)) = ϕ(fi(b1, . . . , bri)) .

Damit ist die Bildgleichheit von fi(a1, . . . , ari) und fi(b1, . . . , bri) gezeigt undes folgt Eigenschaft (2.5). 2

Im Beweis haben wir gesehen, daß die Aquivalenzrelationseigenschaft von ≡ϕallein aus der Bildgleichheit folgt. Es gilt auch die Umkehrung, jede Aquiva-lenzrelation auf M entspricht der Bildgleichheit einer Abbildung von M ineine geeignete Menge N . Keinesfalls braucht jedoch zu einer Aquivalenzre-lation R von M eine geeignete algebraische Struktur N zu existieren, so daßR sogar die Bildgleichheit unter einem Homomorphismus von M in N ist.Das gilt nur fur solche Aquivalenzrelationen mit der zusatzlichen Eigenschaft(2.5). Eine Aquivalenzrelationen mit Eigenschaft (2.5) heißt Kongruenzrela-tion von M.

24

Preliminary version – 8. Januar 2002

Page 27: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Ubungen zur Selbstkontrolle

7. Beweisen Sie die Eigenschaften iv)-vii) aus Satz 2.

8. N = (N,+) bezeichne die algebraische Struktur der naturlichen Zah-len mit der Addition und R = (R, ∗) die der reellen Zahlen mit derMultiplikation. Beide haben den Typ (2). Beweisen Sie, daß die durchexp(a) := ea definierte Exponentialabbildung exp : N → R ein Homo-morphismus von N nach R ist. Handelt es sich dabei sogar um einenEpimorphismus, Monomorphismus oder Isomorphismus?

9. Betrachten Sie die algebraische StrukturM mit der Tragermenge M ={wahr, falsch} und den Operation ∨,∧. ∨ bezeichnet die Verknupfungdes exklusiven Oders und ∧ die Und-Verknupfung. Geben Sie einenHomomorphismus von Z = (Z,+, ∗), Menge der ganzen Zahlen mitAddition und Multiplikation, nachM an und weisen Sie dessen Homo-morphieeigenschaft nach.

25

Preliminary version – 8. Januar 2002

Page 28: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 3

Lineare Gleichungssysteme I

Zunachst beschranken wir uns auf den Fall linearer Gleichungssysteme uberden reellen Zahlen. Spater werden wir noch feststellen, daß alle Untersuchun-gen genauso durchgefuhrt werden konnen, wenn wir uber einem beliebigenKorper rechnen. Eine (reelle) lineare Gleichung in n Unbekannten hat dieGestalt

a1x1 + a2x2 + · · ·+ anxn = b . (3.1)

Dabei bezeichnen a1, a2, . . . , an und b beliebige reelle Zahlen und x1, x2, . . . , xnVariablen. Man beachte, die Variablen sind keine reellen Zahlen, sonderneinfach Symbole oder Zeichenketten. Die Zahl aj, 1 ≤ j ≤ n, heißt derKoeffizient der Variablen xj. b nennt man das Absolutglied der Gleichung.Im Falle b = 0 spricht man von einer homogenen linearen Gleichung, sonstnennt man die Gleichung inhomogen. Man sagt, daß ein geordnetes n-Tupel(β1, β2, . . . , βn) ∈ Rn reeller Zahlen die obige lineare Gleichung erfullt, wenndie Gleichheit

a1β1 + a2β2 + · · ·+ anβn = b (3.2)

reeller Zahlen gilt. In diesem Falle nennt man (β1, β2, . . . , βn) auch eineLosung der Gleichung. Man beachte den qualitativen Unterschied zwischenden Gleichungen 3.1 und 3.2. Im ersten Fall handelt es sich um ein formalesObjekt, auf dessen linker Seite keine reelle Zahl, sondern ein sogenanntesPolynom, steht. Dagegen handelt es sich im zweiten Fall um einen Vergleichzweier reeller Zahlen. Auf beiden Seiten stehen reellwertige Ausdrucke undGleichung 3.2 ist eine elementare pradikatenlogische Aussage. Die Losungen

26

Preliminary version – 8. Januar 2002

Page 29: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

von 3.1 sind gerade die n-Tupel, bei deren Einsetzung fur die Variablensym-bole wahre Aussagen 3.2 entstehen. Eine weitere Bemerkung gilt der Nume-rierung der Variablen. Diese ist als fest gewahlt vorausgesetzt. Numeriertman die Variablen um, so andern sich die Losungen der Gleichung, genauergesagt: die Komponenten der Losungen werden vertauscht. Betrachten wirbeispielsweise die Gleichung x − 2y = 0. Fur x1 = x und x2 = y erhaltman die Paare reeller Zahlen als Losungen, deren zweite Komponente halbso groß wie die erste Komponente ist ({(t, 1

2t) | t ∈ R} ist die Menge aller

Losungen). Fur x1 = y und x2 = x sind die Paare Losungen, deren zweiteKomponente doppelt so groß wie die erste ist ({(s, 2s) | s ∈ R} ist dieMenge aller Losungen).Das Nulltupel O := (0, . . . , 0︸ ︷︷ ︸

nStuck

) der Lange n ist genau dann Losung der linea-

ren Gleichung 3.1, wenn diese homogen ist, also b = 0 gilt.Die Losungen einer linearen Gleichung zu bestimmen ist sehr einfach, wirwollen uns daher sofort mit dem simultanen Losen von m linearen Gleichun-gen in n Variablen befassen. Fur den Spezialfall m = 1 haben wir damitauch den einfachen Fall nur einer Gleichung mit erledigt.Ein (reelles) lineares Gleichungssystem bestehend aus m Gleichungen in nVariablen x1, . . . , xn kann in der Form

a1,1x1 + a1,2x2 + · · ·+ a1,nxn = b1

a2,1x1 + a2,2x2 + · · ·+ a2,nxn = b2

...... (3.3)

am,1x1 + am,2x2 + · · ·+ am,nxn = bm

geschrieben werden. Die ai,j sowie die bi, (i = 1, . . . ,m, j = 1, . . . , n),sind reelle Zahlen. Der Index i gibt die Nummer der Gleichung an, derIndex j der Koeffizienten bezieht sich auf die zugehorige Variable. Untereiner Losung des linearen Gleichungssystems 3.3 versteht man ein n-Tupel(β1, β2, . . . , βn) ∈ Rn reeller Zahlen, welches alle m Gleichungen des Systemserfullt, also:

a1,1β1 + a1,2β2 + · · ·+ a1,nβn = b1

a2,1β1 + a2,2β2 + · · ·+ a2,nβn = b2

......

am,1β1 + am,2β2 + · · ·+ am,nβn = bm

27

Preliminary version – 8. Januar 2002

Page 30: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Die Menge

L := {(β1, β2, . . . , βn) ∈ Rn | (β1, β2, . . . , βn) ist Losung von 3.3} (3.4)

nennt man die Losungsmenge des linearen Gleichungssystems 3.3. Li be-zeichne die Losungsmenge der i-ten Gleichung allein, d.h. die Menge allerLosungen der i-ten Gleichung. Dann gilt

L = L1 ∩ L2 ∩ · · · ∩ Lm . (3.5)

Im Spezialfall, daß alle Gleichungen des Systems homogen sind, d.h. b1 =b2 = · · · = bm = 0, spricht man von einem homogenen linearen Gleichungs-system, andernfalls von einem inhomogenen linearen Gleichungssystem. Einhomogenes lineares Gleichungssystem ist stets losbar, denn es gilt wenigstensO ∈ L.Ein inhomogenes lineares Gleichungssystem kann auch unlosbar sein, manbetrachte zum Beispiel

2x1 + x2 = 1

4x1 + 2x2 = −1

Die erste Gleichung hat genau alle geordneten Paare (t, 1− 2t), wobei t einebeliebige reelle Zahl ist, als Losungen. Die zweite Gleichung wird dagegengenau von den geordneten Paaren (s,−1

2− 2s), wobei s eine beliebige reelle

Zahl ist, erfullt. Daher gilt

L = {(t, 1− 2t) | t ∈ R} ∩ {(s,−1

2− 2s) | s ∈ R} = ∅ .

Betrachtet man die Definition der Losung eines linearen Gleichungssystems,so erkennt man, daß die Namen der Variablen fur die Losungsmenge keineRolle spielen. Die wesentliche Information der Variablen steckt in ihremIndex, also in der Angabe der Position der sie betreffenden Summanden inden Gleichungen. Dadurch wird insbesondere die Komponente der Losungenfestgelegt, die fur diese Variable eingesetzt werden muß. Stellt man sicher,daß die Angabe der Variablenpositionen nicht verloren geht, so reicht dieAngabe der Koeffizienten und Absolutglieder aus, um das gesamte lineareGleichungssystem zu beschreiben. Eine gebrauchliche Beschreibung ist

a1,1 a1,2 · · · a1,n b1

a2,1 a2,2 · · · a2,n b2...

... · · · ......

am,1 am,2 · · · am,n bm

(3.6)

28

Preliminary version – 8. Januar 2002

Page 31: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Der senkrechte Strich dient nur der optischen Abgrenzung der Koeffizientenvon den Absolutgliedern, man kann auch auf ihn verzichten. Denkt man sichden senkrechten Strich weg, so handelt es sich bei diesem Schema um eineMatrix.

3.1 Matrizen

Im Moment wollen wir den Bezug zum linearen Gleichungssystem 3.3 zuruck-stellen, insbesondere brauchen die ai,j vorerst nicht unbedingt Koeffizienteneines linearen Gleichungssystems zu sein. Ein Schema

A =

a1,1 a1,2 . . . a1,n

a2,1 a2,2 . . . a2,n...

......

am,1 am,2 . . . am,n

mit reellen Zahlen ai,j, i = 1, . . . ,m und j = 1, . . . , n, nennt man eine (re-ellwertige) Matrix vom Type (m,n). Abkurzend spricht man auch von einerm × n - Matrix oder (m,n)-Matrix. Wir halten fest, die erste Komponentedes Typs gibt die Anzahl der Zeilen und die zweite Komponente gibt dieAnzahl der Spalten der Matrix an. Fur eine m × n - Matrix schreibt manauch kurz

A = (ai,j)i=1,... ,mj=1,... ,n

oder wenn der Typ klar ist auch noch kurzer A = (ai,j). ai,j heißt der Eintrag(oder das Element) von A in der i-ten Zeile und j-ten Spalte. StimmenZeilen- und Spaltenzahl uberein, d.h. m = n, dann nennt man die Matrix A

quadratisch und n-reihig. Zwei Matrizen A und B sind genau dann gleich,wenn sie den gleichen Typ haben und ihre Eintrage in jeder Zeile und jederSpalte ubereinstimmen.Einige spezielle Matrizen werden haufig benotigt und wir wollen daher Sym-bole dafur vereinbaren.

• Die n-reihige quadratische Matrix

En =

1 0 . . . 00 1 . . . 0...

......

0 0 . . . 1

,

29

Preliminary version – 8. Januar 2002

Page 32: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

die auf der Hauptdiagonale Einsen und außerhalb der HauptdiagonaleNullen enthalt, heißt n-reihige Einheitsmatrix.

• Die (m,n)-Matrix, deren samtliche Eintrage Null sind bezeichnen wirmit Om,n.

• Mit In(i,j) bezeichnen wir die (n, n)-Matrix, deren Element in der i-tenZeile und j-ten Spalte eine 1 ist und die ansonsten nur Nulleintrageaufweist.

Falls der Typ der Matrizen aus dem Kontext klar ist, so werden wir dieAngaben von Zeilen- und Spaltenzahl weglassen.Zwischen Matrizen sind folgende Operationen erklart:

• Zwei Matrizen A = (ai,j) und B = (bi,j) konnen addiert werden, sofernsie vom gleichen Typ sind. Die Addition erfolgt dann elementweise, d.h.sind A und B vom Typ (m,n), dann ist ihre Summe C = A+B ebenfallseine (m,n)-Matrix und es gilt C = (ci,j)i=1,... ,m

j=1,... ,n, wobei ci,j = ai,j + bi,j

fur alle i = 1, . . . ,m und j = 1, . . . , n.

• Eine Matrix kann elementweise mit einer reellen Zahl vervielfacht wer-den. Fur β ∈ R und A = (ai,j)i=1,... ,m

j=1,... ,ngilt β · A = B = (bi,j)i=1,... ,m

j=1,... ,n,

wobei bi,j = βai,j fur alle i = 1, . . . ,m und j = 1, . . . , n. Die Operationder Vervielfachung nennt man auch Skalarmultiplikation.

• Zwei Matrizen A und B konnen miteinander multipliziert werden, so-fern sie verkettet sind, d.h. die Anzahl der Spalten von A muß gleich derAnzahl der Zeilen von B sein. Seien also A vom Typ (m,n) und B vomTyp (n, k), dann ist das Produkt C = AB = (ci,j) eine (m, k)-Matrixund ihr Eintrag in der i-ten Zeile und j-ten Spalte ist ci,j =

∑nl=1 ai,lbl,j,

fur alle 1 ≤ i ≤ m und 1 ≤ j ≤ k.

• Schließlich kann man eine (m,n)-Matrix A = (ai,j)i=1,... ,mj=1,... ,n

transponie-

ren, indem man die Rolle ihrer Zeilen und Spalten vertauscht. Dietransponierte Matrix AT =

(a′i,j)i=1,... ,nj=1,... ,m

ist vom Typ (n,m) und es gilt

a′i,j = aj,i fur alle 1 ≤ i ≤ n und 1 ≤ j ≤ m.

Wir halten also fest, daß Matrizen nur dann addiert oder multipliziert werdenkonnen, wenn ihre Typen gleich beziehungsweise verkettet sind. Die Multi-plikation von Matrizen unterscheidet sich in einem Punkt wesentlich von der

30

Preliminary version – 8. Januar 2002

Page 33: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Muliplikation von Zahlen, sie ist namlich nicht kommutativ. So folgt aus derVerkettung von A und B nicht einmal die Verkettung von B und A. Nurwenn in der obigen Definition der Spezialfall m = k vorliegt, dann existiertuberhaupt das Produkt BA. Selbst fur n-reihige quadratische Matrizen A

und B, wo AB und BA wenigstens erstmal den gleichen Typ aufweisen(namlich ebenfalls (n, n)), brauchen die beiden Produkte nicht ubereinzu-

stimmen, z.B. ergibt sich fur A =

(2 30 1

)und B =

(0 11 0

)die Ungleichheit

AB =

(3 21 0

)6=(

0 12 3

)= BA.

Fur jede (m,n)-Matrix A gelten die Gleichungen

A +O(m,n) = O(m,n) + A = A

AEn = EmA = A

Eine (m, 1)-Matrix nennt man auch Spaltenvektor, entsprechend heißt eine(1, n)-Matrix Zeilenvektor. Die Namensgebung folgt einfach der Anschauung,

ein Spaltenvektor ist von der Gestalt

a1,1...

am,1

und ein Zeilenvektor hat die

Form(a1,1 · · · a1,n

). In den kompakten Schreibweisen verzichtet man oft auf

die Angabe desjenigen Index, der nur von 1 bis 1 “lauft”.Kommen wir nun auf das Gleichungssystem 3.3 zuruck. Die Matrix

A =

a1,1 a1,2 . . . a1,n

a2,1 a2,2 . . . a2,n...

......

am,1 am,2 . . . am,n

nennt man Koeffizientenmatrix des Gleichungssystems und

(A bT ) =

a1,1 a1,2 . . . a1,n b1

a2,1 a2,2 . . . a2,n b2...

......

...am,1 am,2 . . . am,n bm

erweiterte Koeffizientenmatrix von 3.3. Die erweiterte Koeffizientenmatrixist das fruher bereits erwahnte Schema 3.6, den dort verwendeten senkrech-ten Strich zur Abgrenzung der Koeffizienten und Absolutglieder werden wir

31

Preliminary version – 8. Januar 2002

Page 34: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

zuweilen einfugen. Er dient aber nur der Ubersichtlichkeit, es handelt sichum eine ganze normale (m,n + 1)-Matrix. b bezeichnet den Zeilenvektor(b1 . . . bm

)der Absolutglieder und (A bT ) ist als Blockschreibweise zu verste-

hen, der erste Block ist die Matrix A, an diese wird die Spalte bT angefugt.Eine derartige Blockschreibweise verwendet man haufig. Zu beachten ist,daß aneinanderstoßende Reihenanzahlen gleich sein mussen. Betrachten wirdazu noch ein Beispiel, A sei eine (m,n)-Matrix, B eine (k, l)-Matrix und C

eine (m − k, l)-Matrix, wobei 1 ≤ k < m. Dann kann man die Blockmatrix(A B

C

)bilden und diese ist vom Typ (m,n+ l).

Schließlich fuhren wir noch den Zeilenvektor(x1 . . . xm

)der Variablen ein

und betrachten die Matrizengleichung

AxT = bT . (3.7)

Formales Ausmultiplizieren der linken Seite und elementweiser Vergleich derEintrage der beiden Zeilenvektoren auf der linken und rechten Seite fuhrtgenau auf unser Gleichungssystem 3.3. Jedes n-Tupel (β1, . . . , βn) reellerZahlen kann in naturlicher Weise als Zeilenmatrix c = (β1 . . . βn) aufgefaßtwerden. In diesem Sinne ist β genau dann Losung des linearen Gleichungs-systems 3.3, wenn es die Matrizengleichung AcT = bT erfullt.Wir halten also fest:

Merksatz 1 Das Losen eines linearen Gleichungssystems ist gleichbedeu-tend mit dem Losen einer einzelnen linearen Matrizengleichung.

Hatten wir b und x gleich als Spaltenvektoren eingefuhrt, so wurden sichdie obigen Gleichungen etwas vereinfachen, da wir dann auf das Transponie-ren verzichten konnten. Das man dennoch haufig Zeilenvektoren verwendet,liegt zum einen an der platzsparenderen Schreibweise und zum zweiten ander naturlicheren Identifizierung der n-Tupel reeller Zahlen mit den Zeilen-vektoren.

Ubungsaufgaben, Serie 1

1. Gegeben seien die Matrizen

A =

2 0 −1 42 4 2 3−2 5 0 0

und B =

4 3 03 −3 −25 6 26 2 −1

32

Preliminary version – 8. Januar 2002

Page 35: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Berechnen Sie, sofern diese existieren, die Matrizen

AT + 10 ·B, A−B, BA und (AB)T

2. A sei eine (m,n)-Matrix und B sei eine (n, k)-Matrix. Beweisen Siedie Gleichung

(AB)T = BTAT .

3. Berechnen Sie das Produkt AB der (3, n)-Matrix A = (ai,j) und der(n, 2)-Matrix B = (bj,k), wobei n eine gerade naturliche Zahl ≥ 6 istund die Eintrage der Matrizen A und B wie folgt definiert sind:

ai,j =

1 : falls j ungerade und i ≤ j+1

2

2 : falls j gerade und i ≤ j2

0 : sonst

fur i = 1, 2, 3 und j = 1, . . . , n, sowie

bj,1 =

{2j−1 : falls j ungerade2j−2 : falls j gerade

und bj,2 =

{j : falls j ungeradej2

: falls j gerade

fur j = 1, . . . , n.

Die Matrizen konnen folgendermaßen veranschaulicht werden:

A =

1 2 1 2 1 2 · · · 1 20 0 1 2 1 2 · · · 1 20 0 0 0 1 2 · · · 1 2

B =

1 11 14 34 216 516 3...

...2n−2 n− 12n−2 n

2

33

Preliminary version – 8. Januar 2002

Page 36: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

3.1.1 Aquivalenz von Matrizen

Zunachst betrachten wir drei weitere Matrixoperationen zur Manipulationeiner (m,n)-Matrix

A = (ai,j)i=1,... ,mj=1,... ,n

=

a1,1 a1,2 . . . a1,n...

......

ak,1 ak,2 . . . ak,n...

......

al,1 al,2 . . . al,n...

......

am,1 am,2 . . . am,n

.

In die Matrix haben wir die k-te und die l-te Zeile mit eingezeichnet, da sichunsere Manipulationen auf diese beiden Zeilen beziehen werden. Das Bildzeigt nur den Spezialfall 1 ≤ k < l ≤ m, die Operationen gelten aber genausofur 1 ≤ l < k ≤ m.

1. Die Matrix Azk↔zl entsteht durch Vertauschung der k-ten und der l-tenZeile von A. Fur die oben abgebildete Matrix ergibt sich also

Azk↔zl =

a1,1 a1,2 . . . a1,n...

......

al,1 al,2 . . . al,n...

......

ak,1 ak,2 . . . ak,n...

......

am,1 am,2 . . . am,n

2. λ sei eine beliebige reelle Zahl. Dann wollen wir die Matrix, die durch

Addition des λ-fachen der k-ten Zeile zur l-ten Zeile von A entsteht,

34

Preliminary version – 8. Januar 2002

Page 37: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

mit Azl+λ·zk bezeichnen, also

Azl+λ·zk =

a1,1 a1,2 . . . a1,n...

......

ak,1 ak,2 . . . ak,n...

......

al,1 + λak,1 al,2 + λak,2 . . . al,n + λak,n...

......

am,1 am,2 . . . am,n

3. Schließlich betrachten wir die Matrix Aλ·zl , die durch Multiplikation der

Elemente der l-Zeile von A mit einer festen, von Null verschiedenen,reellen Zahl λ 6= 0 entsteht.

Aλ·zl =

a1,1 a1,2 . . . a1,n...

......

ak,1 ak,2 . . . ak,n...

......

λal,1 λal,2 . . . λal,n...

......

am,1 am,2 . . . am,n

Die Operationen 1)-3) bezeichnen wir als elementare Zeilenoperationen. Ganzanalog lassen sich elementare Spaltenoperationen einfuhren, die dabei entste-henden Matrizen bezeichnen wir mit Ask↔sl , Asl+λ·sk und Aλ·sl . In diesemFalle sind k und l zwei verschiedene naturliche Zahlen zwischen 1 und n, siegeben die Nummern der Spalten an, auf die die jeweilige Operation wirkt.Die elementaren Zeilen- und Spaltenoperationen lassen sich mit Hilfe von Ma-trixprodukten beschreiben. Dabei wird die entsprechende elementare Zeilen-oder Spaltenoperation auf die Einheitsmatrix passenden Typs angewandt undvon links (bei Zeilenoperationen) beziehungsweise rechts (bei Spaltenopera-tionen) mit A multipliziert. Wir fassen zusammen, fur eine (m,n)-Matrix A

gilt:

Azk↔zl = (Em)zk↔zl · A Azl+λ·zk = (Em)zl+λ·zk · A Aλ·zl = (Em)λ·zl · AAsk↔sl = A · (En)sk↔sl Asl+λ·sk = A · (En)sl+λ·sk Aλ·sl = A · (En)λ·sl

35

Preliminary version – 8. Januar 2002

Page 38: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Definition 10 Zwei Matrizen A und B heißen aquivalent (Schreibweise:A ∼ B), wenn B durch sukzessive Anwendung endlich vieler elementarerZeilen- oder Spaltenoperationen aus A gewonnen werden kann.

Satz 4 Die Aquivalenz ∼ von (m,n)-Matrizen ist eine Aquivalenzrelation.

Beweis: Reflexivitat: Fur jede (m,n)-Matrix A gilt wegen A = A1·z1 dieBeziehung A ∼ A.

Transitivitat: A,B,C seien (m,n)-Matrizen mit A ∼ B und B ∼ C. Danngibt es eine Folge von (m,n)-Matrizen A1, . . . ,Ar, so daß A1 = A undAr = B gelten und Ai+1 fur jedes i = 1, . . . , r − 1 durch eine elementareZeilen- oder Spaltenoperation aus Ai hervorgeht. Analog wird B durch An-wendung von elementaren Zeilen- und Spaltenoperationen uber eine FolgeB = B1, . . . ,Bs = C von (m,n)-Matrizen in C uberfuhrt.Dann ist A = A1, . . . ,Ar = B1, . . . ,Bs = C eine Folge von Matrizen, wo-bei der Nachfolger jeweils durch Anwendung einer elementaren Zeilen- oderSpaltenoperation aus seinem Vorganger in der Folge entsteht. Also A ∼ C.

Symmetrie: Wir beginnen mit der Betrachtung zweier Matrizen A ∼ B,wobei B durch Anwendung einer einzigen elementaren Zeilenoperation ausA entsteht. Fur B = Azk↔zl gilt A = Bzk↔zl . Fur B = Azl+λ·zk gilt A =Bzl−λ·zk . Schließlich gilt fur B = Aλ·zl die Beziehung A = B 1

λ·zl . In allen drei

Fallen konnten wir demnach B ∼ A zeigen. Analog folgt B ∼ A auch dann,wenn B durch Anwendung einer einzigen elementaren Spaltenoperation ausA entsteht.Betrachten wir nun beliebige m × n-Matrizen A und B mit A ∼ B. Danngibt es eine Folge von elementaren Zeilen- und Spaltenoperationen, die A inB uberfuhrt. Die Folge der in den Zwischenschritten entstehenden Matrizensei A = A1, . . . ,Ar = B. Mit Hilfe der eben gezeigten Aussagen schließtman auf Ai+1 ∼ Ai fur alle i = 1, . . . , r− 1 und nach Anwendung der bereitsgezeigten Transitivitat von ∼ folgt schließlich B ∼ A. 2

Auf vollig analoge Weise laßt sich auch beweisen, daß die Relation∼Z , bei dernur elementare Zeilenoperationen zur Uberfuhrung der Matrizen zugelassensind, ebenfalls eine Aquivalenzrelation ist. Entsprechendes gilt fur die unterBeschrankung auf elementare Spaltenoperationen definierte binare Relation∼S. Offensichtlich gelten die Folgerungen

A ∼Z B ⇒ A ∼ B und

A ∼S B ⇒ A ∼ B .

36

Preliminary version – 8. Januar 2002

Page 39: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Lemma 1 m,n, s und r seien naturliche Zahlen mit m,n > 0 und s, r ≤min(n,m). Dann gilt genau dann(

Er Or,n−rOm−r,r Om−r,n−r

)∼(

Es Os,n−sOm−s,s Om−s,n−s

),

wobei eventuell auftretende Matrizen mit einer Null im Typ als nicht vorhan-den zu betrachten sind, wenn r = s vorliegt.

Die Aquivalenz im Falle r = s ist trivial. Den Beweis der Nichtaquivalenzim Falle r 6= s werden wir spater im Rahmen der Behandlung der linearenUnabhangigkeit von Vektoren noch nachreichen. Fur heute wollen wir esmit einer Plausibilitatserklarung bewenden lassen. Intuitiv sollte klar sein,daß es unmoglich ist, nur durch Anwendung elementarer Zeilen- und Spal-tenoperationen in einer Matrix der obigen Gestalt eine weitere Nullzeile oder-spalte zu erzeugen. Das ware aber Voraussetzung fur die Aquivalenz derbeiden Matrizen.

3.1.2 Der Gauß-Algorithmus

Der nach Carl Friedrich Gauß (1777-1855) benannte Algorithmus ist die zen-trale Methode der gesamten konstruktiven, linearen Algebra. Spater im Kurszur Numerik werden wir auf jeden Fall noch einmal darauf zuruckkommen.Sein Ziel ist es, eine beliebige vorgegebene (m,n)-Matrix A durch Anwendungelementarer Zeilenoperationen in eine aquivalente, Zeilenstufenform aufwei-sende (m,n)-Matrix B umzuformen. Dabei sagen wir, daß B in Zeilenstufen-form ist, wenn die Spaltennummern der jeweils ersten von Null verschiedenenElemente jeder Zeile (wir werden diese Eintrage in Zukunft auch Stufeneckender Matrix nennen) von oben nach unten streng monoton ansteigen. Die fol-gende Skizze soll die Zeilenstufenform einer (m,n)-Matrix veranschaulichen.Alle Eintrage unterhalb der Stufenlinie sind 0, die mit + gekennzeichnetenEintrage (dabei handelt es sich gerade um die Stufenecken) in den Ecken derStufenlinie sind von Null verschieden und die restlichen, oberhalb der Stu-fenlinie und auf den langen Stufen befindlichen und mit ∗ gekennzeichnetenElemente sind beliebige reeller Zahlen. Die Zeilenstufenform zeichnet sichdadurch aus, daß samtliche Stufen die Hohe 1 haben mussen, wogegen derenLange jedoch beliebig ist.

37

Preliminary version – 8. Januar 2002

Page 40: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Der Gauß-Algorithmus lauft wie folgt ab:

1. i := 1 Initialisierung des Zahlers auf die erste Zeile.

2. Falls i > m gilt oder alle Zeilen mit Index ≥ i nur Nullen enthalten, sosind wir fertig und die aktuelle Matrix wird als Ergebnis B ausgegeben.

3. Andernfalls suche man die Spalte von A mit kleinstem Index, in der ineiner Zeile mit Index k ≥ i ein von Null verschiedenes Element steht.Setze j auf die Nummer dieser Spalte.

4. Tausche die i-te und die k-te Zeile von A. In der entstehenden Matrixgilt ai,j 6= 0.

5. Fur l = i + 1, . . . ,m addiere das (−al,jai,j

)-fache der i-ten zur l-ten Zei-

le von A. Im Ergebnis dessen gilt in der dann aktuellen Matrix dieGleichheit al,j = 0 fur alle i < l ≤ m.

38

Preliminary version – 8. Januar 2002

Page 41: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6. i := i+ 1, Gehe zu Schritt 2.

Das der obige Algorithmus irgendwann anhalt ist klar, denn spatestens nachm Durchlaufen der Hauptschleife gilt die erste Abbruchbedingung i > m.Falls die zweite Bedingung vorher eintritt, so kann es aber auch bereits vor-her zum Anhalten kommen. Es bleibt zu uberlegen, daß das Resultat B

tatsachlich in Zeilenstufenform ist. Die Elemente ai,j, die im Laufe des Al-gorithmus in Schritt 4 entstehen, sind die mit + gekennzeichneten, von Nullverschiedenen Elemente der Zeilenstufenform. Die Stufenhohe 1 wird durchSchritt 4 garantiert. Das sich in der i-ten Zeile in allen Spalten mit Index< j und allen Zeilen mit Index großer i sogar in allen Spalten mit Index≤ j nur Nullen befinden, folgt aus den Schritten 3 und 5. Tritt in der m-ten Zeile keine Stufe mehr auf, dann erfolgte der Abbruch nach der zweitenBedingung und alle Zeilen unterhalb der letzten Stufe enthalten nur Nullen.Mehr Bedingungen waren aber an die Zeilenstufenform nicht gestellt.

Folgerung 1 aus dem Gauß-Algorithmus: Zu jeder (m,n)-Matrix A gibt eseine Matrix in Zeilenstufenform, die in der Relation ∼Z zu A steht, also erstrecht aquivalent zu A ist.

Folgerung 2 aus dem Gauß-Algorithmus: Eine Matrix in Zeilenstufenformkann durch Anwendung elementarer Spaltenoperationen in die Gestalt(

Er Or,n−rOm−r,r Om−r,n−r

)(3.8)

uberfuhrt werden. Also ist jede (m,n)-Matrix sogar zu einer Matrix der Ge-stalt 3.8 aquivalent. Die strengere Aquivalenz im Sinne von ∼Z braucht al-lerdings nicht mehr vorzuliegen.

Zum Beweis wende man den Gauß-Algorithmus auf die transponierte Matrixan. und transponiere das Ergebnis im Anschluß noch einmal. Zum Abschlußmulipliziert man jede Spalte, die nicht nur Nullen enthalt noch mit 1

ai,i, um in

jeder Stufenecke eine 1 zu erhalten. Der beschriebene Algorithmus zeigt auch,daß die naturliche Zahl r gleich der Anzahl der Stufen der Ausgangsmatrixin Zeilenstufenform ist.Unter Berufung auf Lemma 1 schlußfolgern wir, daß

Satz 5 Sei A eine (m,n)-Matrix. Jede zu A aquivalente Matrix in Zeilen-stufenform weist die gleiche Anzahl von Stufen auf.

39

Preliminary version – 8. Januar 2002

Page 42: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Dieser Satz rechtfertigt die folgende

Definition 11 A sei eine (m,n)-Matrix und

(Er Or,n−rOm−r,r Om−r,n−r

)die ein-

deutig bestimmte Matrix der Gestalt 3.8, die aquivalent zu A ist. Dann nen-nen wir die Zahl r den Rang der Matrix A (Bezeichnung Rang A).

Spater werden wir noch sehen, daß sich der Begriff des Ranges einer Matrixauch in einer eleganteren Form erklaren laßt. Wir halten fest:

Merksatz 2 Um den Rang einer Matrix zu bestimmen, kann man sie mitHilfe des Gauß-Algorithmus in eine aquivalente Matrix in Zeilenstufenformumformen und deren Stufenanzahl zahlen.

Ubungsaufgaben, Serie 2

4. Formen Sie die Matrix

1 −1 1 0 −2 0 02 1 8 2 −1 7 03 0 9 4 −3 11 01 −1 1 2 −2 4 21 2 7 0 1 3 −2

mittels elemen-

tarer Zeilenoperationen in eine aquivalente Matrix in Zeilenstufenformum.

5. Welche der Matrizen

A1 =

1 0 00 1 00 0 00 0 0

,A2 =

1 0 0 00 1 0 00 0 0 0

,A3 =

3 1 0 00 −2 0 00 0 0 0

,

A4 =

3 0 1 01 0 0 00 0 0 0

,A5 =

1 0 0 00 0 0 00 1 0 0

,A6 =

1 0 −1 00 0 0 0−1 0 1 0

sind bezuglich den in der Vorlesung eingefuhrten Relationen ∼, ∼Zbeziehungsweise ∼S aquivalent zueinander?

40

Preliminary version – 8. Januar 2002

Page 43: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6. Bestimmen Sie den Rang der Matrix

2 3 13 5 24 0 −41 2 10 1 11 3 25 7 22 2 0

.

3.2 Losung linearer Gleichungssysteme

Im weiteren werden wir die kompaktere Matrizenschreibweise fur lineare Glei-chungssysteme bevorzugen.Befindet sich die erweiterte Koeffizientenmatrix (A bT ) des linearen Glei-chungssystems AxT = bT in Zeilenstufenform, dann kann auf einfache Weiseseine Losungsmenge L bestimmt werden.Wir beginnen mit der Betrachtung der letzte Zeile der erweiterten Koeffi-zientenmatrix, die nicht nur Nullen enthalt. Angenommen, die Stufeneckedieser Zeile steht in der letzten, d.h. in der zu bT gehorigen, Spalte, danngehort dem Gleichungssystem eine Gleichung der Gestalt 0x1 + · · ·+ 0xn = ban. Einsetzen beliebiger reeller Zahlen fur die xi ergibt auf der linken Seite0. Die rechte Seite ist als Stufenecke allerdings von Null verschieden. Das istein Widerspruch, also besitzt die Gleichung und damit erst recht das gesamteSystem keine Losung.Betrachten wir nun den Fall, daß die Stufenecke der letzten Zeile weiter vorn,sagen wir in der j-ten Spalte der Koeffizientenmatrix A, steht. Dann stehtdiese Zeile fur eine Gleichung der Bauart

ajxj + · · ·+ anxn = b . (3.9)

Geben wir beliebige reelle Werte βj+1, . . . , βn vor und setzen dann

βj :=b− aj+1βj+1 − · · · − anβn

aj,

so ist (βj, . . . , βn) eine Losung der obigen Gleichung 3.9. Andererseits hataber auch jede Losung der Gleichung diese Gestalt, denn das von uns gewahl-te βj ist naturlich die einzige reelle Zahl, die das vorgegebene (n− j)-Tupel(βj+1, . . . , βn) zu einer Losung von 3.9 erganzt.

41

Preliminary version – 8. Januar 2002

Page 44: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Betrachten wir nun die vorletzte, nicht nur Nullen enthaltende Zeile dererweiterten Koeffizientenmatrix. Diese hat die Gestalt

a′kxk + · · ·+ a′jxj + · · ·+ a′nxn = b′ (3.10)

und es gilt k < j. Wir geben beliebige reelle Zahlen βk+1, . . . , βj−1, βj+1, . . . βnvor und berechnen zunachst

βj :=b− aj+1βj+1 − · · · − anβn

aj

und anschließend

βk :=b′ − a′k+1βk+1 − · · · − a′nβn

a′k.

Wichtig ist dabei die Beziehung k < j. Daher kann βj ohne Kenntnis vonβk berechnet werden und fur beliebige βk+1, . . . , βj−1, βj, βj+1, . . . βn (alsoinsbesondere auch fur die mit den vorher berechneten speziellen Werten furβj) ist tatsachlich die Existenz von βk gesichert.(βk, . . . , βn) ist Losung der beiden Gleichungen 3.9 und 3.10 und analog zuoben uberlegt man sich, daß sogar alle gemeinsamen Losungen beider Glei-chungen so gewonnen werden konnen. Fahrt man auf diese Weise mit dersukzessiven Einbeziehung immer weiterer Gleichungen von unten nach obenfort, dann gelangt man schließlich zu den Losungen des linearen Gleichungs-systems AxT = bT . Diese Losungsmenge ist mit Sicherheit nicht leer, denndie letzte Gleichung war losbar und bei unserem Verfahren kann es nicht pas-sieren, daß sich eine gemeinsame Losung aller Gleichungen unterhalb einerbestimmten Gleichung nicht auch auf diese nachsthohere Gleichung fortset-zen laßt.Fassen wir noch einmal zusammen:

Merksatz 3 Ist die erweiterte Koeffizientenmatrix des linearen Gleichungs-systems AxT = bT in Zeilenstufenform, so ist das Gleichungssystem genaudann losbar, wenn keine Stufenecke der erweiterten Koeffizientenmatrix inder letzten Spalte steht.Seien 1 ≤ i1 < . . . < ik ≤ n die Nummern der Spalten, denen keine Stufen-ecke angehort. Dann existiert zu beliebig vorgegebenen Werten βi1 , . . . , βikgenau eine Losung (β1, . . . , βn) des linearen Gleichungssystems, die diese

42

Preliminary version – 8. Januar 2002

Page 45: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

vorgegebenen Werte in den entsprechenden Komponenten aufweist. Die Wer-te der restlichen Komponenten lassen sich sukzessive erganzen. Ist ar,j eineStufenecke der erweiterten Koeffizientenmatrix und alle βj′ mit j′ > j undj′ /∈ {i1, . . . , ik} wurden bereits berechnet, so bestimmt man βj mit Hilfe von

βj :=br − ar,j+1βj+1 − · · · − ar,nβn

ar,j.

Als nachstes werden wir beweisen, daß sich jedes lineare Gleichungssystem inein aquivalentes Gleichungssystem in Zeilenstufenform umformen laßt. Dabeinennen wir zwei lineare Gleichungssysteme aquivalent, wenn sie die gleicheLosungsmenge besitzen.

Satz 6 Falls die erweiterten Koeffizientenmatrizen zweier linearer Gleichungs-systeme AxT = bT und A′xT = b′T zueinander in der Aquivalenzrelation ∼Zstehen, dann haben beide Gleichungssysteme die gleiche Losungsmenge.

Beweis: Zunachst betrachten wir den Spezialfall, daß B′ = (A′, b′T ) durchAnwendung einer einzelnen elementaren Zeilenoperation auf B = (A, bT )entsteht. Fur diesen Fall wollen wir die Inklusion L ⊆ L′ der LosungsmengenL von AxT = bT und L′ von A′xT = b′T nachweisen.1. Fall: B′ gehe durch eine Zeilenvertauschung aus B hervor. Dem entsprichtnur eine Vertauschung zweier Gleichungen des Gleichungssystems. UnterVerwendung der Kommutativitat der Durchschnittsbildung ergibt sich aus3.5 sogar sofort die Gleichheit der Losungsmengen L = L′.2. Fall: B′ gehe durch Multiplikation der j-ten Zeile mit einer von Null ver-schiedenen reellen Zahl λ aus B hervor. Aus aj,1β1 + · · · + aj,nβn = bj folgtdurch Multiplikation beider Seiten mit λ sofort, daß jede Losung (β1, . . . , βn)der j-ten Gleichung des Ausgangssystems auch die j-te Gleichung des umge-formten Systems erfullt und unter Verwendung 3.5 ergibt sich L ⊆ L′.3. Fall: B′ gehe durch Addition des λ-fachen der i-ten Zeile zur j-ten Zeileaus B hervor. Fur jedes (β1, . . . , βn) ∈ L gelten insbesondere die beidenGleichungen

ai,1β1 + · · ·+ ai,nβn = bi

aj,1β1 + · · ·+ aj,nβn = bj .

Dann gilt aber auch die Gleichheit

λ(ai,1β1 · · · ai,nβn) + (aj,1β1 · · · aj,nβn) = λbi + bj

43

Preliminary version – 8. Januar 2002

Page 46: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

(man beachte: hier handelt es sich einfach um Operationen zwischen reellenZahlen) und Ausklammern der βk zeigt, daß (β1, . . . , βn) die j-te Gleichungdes gestrichenen Systems befriedigt. Da alle weiteren Gleichungen des ge-strichenen Systems sogar Gleichungen des Ausgangssystems sind, haben sie(β1, . . . , βn) naturlich auch als Losung. Folglich L ⊆ L′.Fur den Fall, daß B′ erst nach Anwendung mehrerer elementarer Zeilenope-rationen auf B entsteht, d.h. B = C1, . . . ,Ck = B′ und Cl ensteht durch An-wendung einer einzelnen elementaren Zeilenoperation auf Cl−1 (l = 2, . . . , k),erhalt man eine aufsteigende Kette der Losungsmengen L = L1 ⊆ · · · ⊆Lk = L′ der Gleichungssysteme, deren erweiterte Koeffizientenmatrix geradeCl (l = 1, . . . , k) ist. Also ergibt sich L ⊆ L′.Umgekehrt gilt aber auch L′ ⊆ L, denn da ∼Z eine Aquivalenzrelation unddaher insbesondere symmetrisch ist, kann auch B′ durch Anwendung endlichvieler elementarer Zeilenoperationen in B uberfuhrt werden.Zusammenfassend ergibt sich die behauptete Gleichheit L = L′ der Losungs-mengen der beiden linearen Gleichungssysteme. 2

Fassen wir Merksatz 3 und Satz 6 zusammen, dann erhalten wir zunachst einnotwendiges und hinreichendes Kriterium fur die Losbarkeit und daruber-hinaus einen Algorithmus zum Ermitteln der Losungsmenge eines linearenGleichungssystems.

Satz 7 Die Losungsmenge eines linearen Gleichungssystems AxT = bT istgenau dann nicht leer, wenn die Koeffizientenmatrix und die erweiterte Koef-fizientenmatrix des linearen Gleichungssystems den gleichen Rang aufweisen,d.h. wenn Rang A = Rang

(A bT

)gilt.

Beweis: Bei aquivalenter Umformung von(A bT

)in eine Zeilenstufenform(

A′ b′T)

bleibt der Rang der Matrix der erweiterten Koeffizientenmatrix

erhalten. Außerdem hat aber der Vektor b der rechten Seiten der Gleichun-gen bei Anwendung von ausschließlich elementaren Zeilenoperationen keinenEinfluß auf die Elemente der Untermatrix A′. Anwendung der gleichen Zei-lenoperationen auf die Koeffizientenmatrix A liefert die gleiche Matrix A′,welche sich ebenfalls in Zeilenstufenform befindet.Aus diesem Grund ist die Anzahl der Stufen der Matrix

(A′ b′T

)gleich

Rang(A bT

)und die Anzahl der Stufen der Untermatrix A′ gleich Rang A.

Daher giltRang A ≤ Rang

(A bT

)≤ 1 + Rang A .

44

Preliminary version – 8. Januar 2002

Page 47: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Die Gleichheit Rang(A bT

)= 1 + Rang A liegt genau dann vor, wenn(

A′ b′T)

in der letzten Spalte eine Stufenecke hat, wenn also das Gleichungs-

system unlosbar ist. 2

Algorithmus zum Losen eines linearen Gleichungssystems AxT = bT :

1. Bilde die erweiterte Koeffizientenmatrix (A bT ).

2. Forme die Koeffizientenmatrix mittels des Gauß-Algorithmus in eineaquivalente Matrix (A′ b′T ) in Zeilenstufenform um.

3. Lose das so erhaltene aquivalente lineare Gleichungssystem A′xT = b′T .mit Hilfe von Hilfssatz 3.

Laßt man neben elementaren Zeilenoperationen zusatzlich noch Spaltenver-tauschungen der Koeffizientenmatrix zu, d.h. die letzte Spalte darf nichtin die Spaltenvertauschungen einbezogen werden, so kann man die erweiter-te Koeffizientenmatrix (A bT ) in eine spezielle Zeilenstufenform umformen.Eine Matrix der folgenden Gestalt wollen wir in Trapezform nennen:

45

Preliminary version – 8. Januar 2002

Page 48: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Die Eintrage a1,1, . . . , ar,r sind mit + gekennzeichnet und von Null verschie-den. Die mit Null gekennzeichneten Gebiete enthalten nur Nullen, in denmit ∗ gekennzeichneten Gebiete konnen beliebige Elemente stehen. Ebensoist das durch ? gekennzeichnete Element br+1 nicht naher bestimmt. Sicherist aber, es ist genau dann gleich 0, wenn das Gleichungssystem losbar ist.Das Vertauschen der Spalten der Koeffizientenmatrix entspricht einer Um-numerierung der Variablen des Gleichungssystems. Man darf also Spalten-vertauschungen bei der Umformung eines Gleichungssystems einsetzen, mußallerdings die Umnumerierungen der Variablen beim Aufstellen der Losungs-menge ruckgangig machen.Egal ob Spaltenvertauschungen zugelassen sind oder nicht, kann man durchAddition geeigneter Vielfacher der Stufenzeilen zu den jeweiligen daruberlie-genden Zeilen erreichen, daß jede Spalte, in der sich eine Stufenecke befin-det, außer diesem von Null verschiedenen Element nur noch Nullen aufweist.Durch Multiplikation jeder Stufenzeile mit dem Inversen ihrer Stufenecke er-reicht man, daß samtliche Stufenecken den Wert 1 haben. Wendet man diese

46

Preliminary version – 8. Januar 2002

Page 49: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

zusatzlichen elementaren Zeilenoperationen und Spaltenvertauschungen an,so erhalt man eine Matrix der Gestalt(

Er C b1

Om−r,r Om−r,n−r b2

)(3.11)

Die Eintrage der (r, n − r)-Matrix C und des Spaltenvektors b1 sind be-liebig und der Spaltenvektor b2 ist genau dann der Nullvektor, wenn dasGleichungssystem losbar ist. Die eben beschriebene Erweiterung des Gauß-Algorithmus zur Erzeugung einer Matrix der Form 3.11 bezeichnet man auchals Gauß-Jordan-Algorithmus.Die Losungsmenge eines linearen Gleichungssystems in der speziellen Trapez-gestalt 3.11 laßt sich besonders einfach bestimmen:

Merksatz 4 Hat die erweiterte Koeffizientenmatrix des linearen Gleichungs-systems AxT = bT die Gestalt 3.11, dann ist es genau fur b2 = Om−r,1 losbarund

L =

{(b1 −

n∑j=r+1

a1,jβj, . . . , br −n∑

j=r+1

ar,jβj, βr+1, . . . , βn

)|

βr+1, . . . , βn ∈ R}

ist in diesem Falle die Losungsmenge des Gleichungssystems.

Der Vorteil gegenuber Merksatz 3 besteht darin, daß die Komponenten derLosung nun unabhangig voneinander berechnet werden durfen.Um eine Losung zu erhalten, kann man die Werte βr+1, . . . , βn der Variablenxr+1, . . . , xn frei wahlen. Daher bezeichnet man diese Variablen auch als dieParameter der Losungsmenge.

Merksatz 5 Die Losungsmenge eines losbaren linearen GleichungsystemsAxT = bT in n Variablen x1, . . . , xn besitzt genau (n− Rang A) Parameter.Insbesondere gilt im Fall Rang A = Rang (A bT ) = n, daß die Losungsmengekeine Parameter hat und das Gleichungssystem genau eine Losung besitzt,das Gleichungssystem ist also eindeutig losbar.

Man beachte aber, daß man nicht immer die Variablen xr+1, . . . , xn als Para-meter wahlen kann. Das funktioniert nur dann, wenn man ohne Anwendung

47

Preliminary version – 8. Januar 2002

Page 50: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

von Spaltenvertauschungen auf Gestalt 3.11 kommen kann. Daruberhinausist festzustellen, daß es mehrere Moglichkeiten der Parameterauswahl ge-ben kann. Wenigstens die Anzahl der Parameter ist allerdings eindeutigbestimmt.Spater werden wir uns noch einmal genauer mit der Struktur der in Merksatz4 angegebenen Losungsmenge beschaftigen. Außerdem wird es in sehr spe-ziellen Fallen moglich sein, mit Hilfe sogenannter Determinanten einfachereLosungsmethoden als den Gauß-Algorithmus zu finden.Zunachst benotigen wir aber noch einige Grundkenntnisse uber klassischealgebraische Strukturen.

Ubungsaufgaben, Serie 3

7. Losen Sie das folgende lineare Gleichungssystem!

x1 + 2x2 − x3 + 3x4 + x5 = 0

2x1 + 3x2 − 3x3 + 4x4 + x5 = −3

x2 + x3 + x4 = 1

−x1 + 3x3 − x4 − x5 = 2

8. Welche der folgenden linearen Gleichungssysteme sind losbar und wie-viele Parameter haben ihre Losungsmengen?

(a) 1 0 10 2 12 −2 1

xyz

=

125

(b) 1 0 1 0

0 2 1 −12 −2 1 −1

x1

x2

x3

x4

=

125

(c)

1 0 10 2 12 −2 23 0 4

xyz

=

1258

48

Preliminary version – 8. Januar 2002

Page 51: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

9. Gibt es eine Matrix A, welche die Matrizengleichung1 2 3 42 3 4 51 1 0 2−1 0 −1 3

∗ A =

1 0 0 00 1 0 00 0 1 00 0 0 1

erfullt? Falls ja, so geben Sie eine derartige Matrix A an. Was konnenSie uber die Anzahl geeigneter Matrizen A aussagen?

49

Preliminary version – 8. Januar 2002

Page 52: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 4

Klassische algebraischeStrukturen

4.1 Strukturen mit einer binaren Operation

– Halbgruppen, Monoide und Gruppen

Algebraische Strukturen G = (G, ◦) mit nichtleerer Tragermenge G und nureiner binaren Operation bezeichnet man als Gruppoide. Wir wollen immervoraussetzen, daß die Operation ◦ wenigstens assoziativ ist, also

∀a, b, c ∈ G : a ◦ (b ◦ c) = (a ◦ b) ◦ c (Assoziativgesetz) ,

gilt. In diesem Fall nennt man G eine Halbgruppe, wir halten fest, eine Halb-gruppe ist ein Gruppoid mit assoziativer Operation. Typische Beispiele furHalbgruppen sind die naturlichen Zahlen mit entweder Addition oder Mul-tiplikation, die Menge Σ∗ der Worter uber einem Alphabet Σ mit der Wort-verkettung oder auch die Menge der n-Tupel positiver naturlicher Zahlen mitkomponentenweiser Addition.Aber auch die Menge der reellen (m,n)-Matrizen bilden mit der Additionein Halbgruppe. Die Menge der reellen n-reihigen quadratischen Matrizenbildet daruberhinaus auch mit der Matrizenmultiplikation eine Halbgruppe.Um nur ein Beispiel eines Gruppoids zu erwahnen, welches keine Halbgruppeist, verweisen wir auf die naturlichen Zahlen mit der Potenzierung.Gilt fur die Operation ◦ einer Halbgruppe G = (G, ◦) das Kommutativgesetz

∀a, b ∈ G : a ◦ b = b ◦ a (Kommutativgesetz) ,

50

Preliminary version – 8. Januar 2002

Page 53: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

so spricht man von einer kommutativen oder abelschen1 Halbgruppe. Naturli-che, ganze, rationale oder reelle Zahlen mit Addition oder Multiplikation sindabelsche Halbgruppen. Dagegen bilden die (n, n)-Matrizen (n > 1) mit derMultiplikation ebenso wie die Wortmenge Σ∗ (|Σ| > 1) mit der Verkettungnur eine Halbgruppe aber keine kommutative Halbgruppe.Ein Element e ∈ G heißt neutrales Element oder auch Einselement von G,wenn die Beziehung

∀g : e ◦ g = g ◦ e = g

erfullt ist. Besitzt die Halbgruppe G ein Einselement, so nennt man sie einMonoid. Die Bezeichnung des Einselementes ist der multiplikativen Vorstel-lung geschuldet, so ist 1 das Einselement der naturlichen, ganzen, rationalenoder reellen Zahlen mit Multiplikation. Ebenso ist die Einheitsmatrix En

Einselement der quadratischen n-reihigen Matrizen mit der Matrizenmulti-plikation. Etwas merkwurdig mutet die Bezeichnung Einselement an, wennman additiv geschriebene Halbgruppen betrachtet, so ist 0 das Einselementder naturlichen Zahlen mit der Addition und das Nulltupel (0, . . . , 0︸ ︷︷ ︸

n Stuck

) ist

Einselement der n-Tupel reeller Zahlen mit der Addition. In additiv ge-schriebenen Halbgruppen ist daher die Bezeichnung neutrales Element ubli-cher. Auch wenn uber die Schreibweise der Operation nichts vorausgesetztwird, ist diese Bezeichnung durchaus einzusehen. Denn in additiven Halb-gruppen vielleicht naherliegenden Begriff des Nullelementes wollen wir nichtverwenden, um ihn fur eine andere Bedeutung aufzusparen.

Lemma 2 Eine Halbgruppe G = (G, ◦) besitzt hochstens ein neutrales Ele-ment.

Beweis: Angenommen, es gabe zwei neutrale Elemente e1, e2 ∈ G. Dannfolgt e1 ◦e2 = e1 aus der ersten Eigenschaft des neutralen Elementes e1 sowiee1 ◦ e2 = e2 aus der zweiten Eigenschaft des neutralen Elementes e2. Darausergibt sich aber sofort e1 = e2. 2

An dieser Stelle ist eine kurze Anmerkung angebracht. Zuweilen trennt manden Begriff des Einselementes auf und nennt ein e ∈ G mit ∀g ∈ G : e◦g = gein Linkseinselement und ein e ∈ G mit ∀g ∈ G : g ◦ e = g ein Rechtseins-element. Wir sehen, daß wir im obigen Beweis von e1 nur die Linkseinseigen-schaft und von e2 nur die Rechtseinseigenschaft ausgenutzt haben. Demzu-folge folgt aus der Existenz einer Links- und einer Rechtseins die Gleichheit

1benannt nach dem norwegischen Mathematiker Nils Hendrik Abel (1802-1829)

51

Preliminary version – 8. Januar 2002

Page 54: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

beider Elemente und die Nichtexistenz weiterer davon verschiedener Links-einsen oder Rechtseinsen. In der Tat kann eine nichtkommutative Halbgrup-pe aber mehrere verschiedene Linkseinselemente oder mehrere verschiedeneRechtseinselemente besitzen, sofern in ihr uberhaupt kein Einselement derjeweils anderen Seitigkeit existiert. Ich mochte dafur ein Beispiel angeben.G sei eine beliebige Menge und die Operation ◦ sei durch a ◦ b = b fur allea, b ∈ G definiert. Wegen (a ◦ b) ◦ c = c und a ◦ (b ◦ c) = b ◦ c = c ist dieOperation assoziativ, also liegt eine Halbgruppe vor. In dieser Halbgruppeist jedes Element Linkseinselement, Rechtseinselemente gibt es dagegen kei-ne. Diese Halbgruppe mag auf den ersten Blick exotisch anmuten, sie hataber sogar eine Realisierung in der Informatik. Betrachten wir ein HTML-Formular zum Treffen einer Auswahl, dabei ist genau eine der angegebenenMoglichkeiten zu wahlen. Zu diesem Zweck richtet man eine Knopfleiste ein.Zu Beginn ist eine Standardvorauswahl getroffen, die Auswahl kann aberdurch Drucken eines Knopfes noch beliebig oft geandert werden, bevor dasFormular dann endgultig bestatigt wird. Die Elemente unserer Grundmengesind die gedruckten Knopfe. Zwei gedruckte Knopfe werden dadurch ver-knupft, daß man angibt, welcher Knopf zum Schluß gedruckt ist, wenn manzuerst den ersten und dann den zweiten Knopf betatigt. Das Ergebnis istnaturlich immer der zuletzt gedruckte Knopf.Sei G ein Monoid mit dem Einselement e. Ein Element g ∈ G heißt inver-tierbar, wenn es ein Element g′ ∈ G mit der Eigenschaft g ◦ g′ = g′ ◦ g = egibt. Das Element g′ nennt man in diesem Falle das Inverse, insbesondere inadditiv geschriebenen Monoiden auch entgegengesetztes Element, von g undschreibt dafur g′ = g−1.

Lemma 3 Jedes Element eines Monoids G = (G, ◦) mit Einselement e ∈ Gbesitzt hochstens ein Inverses.

Beweis: Seien g′1 und g′2 zwei Inverse des Elementes g ∈ G. Aus g ◦ g′1 = e,g′2 ◦ (g ◦ g′1) = g′2 ◦ e folgt e ◦ g′1 = g′2 ◦ e und daraus schließlich die Gleichheitg′1 = g′2 der beiden Inversen. 2

Das Einselement eines Monoids ist immer invertierbar, namlich e = e−1.Sind alle Elemente eines Monoids invertierbar, so nennt man es eine Gruppe.Wir wollen die Eigenschaften einer Gruppe noch einmal in einer Definitionzusammenfassen:

Definition 12 Eine algebraische Struktur G = (G, ◦) des Typs (2) heißteine Gruppe, wenn die Operation ◦ die folgenden Eigenschaften aufweist:

52

Preliminary version – 8. Januar 2002

Page 55: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

1. ∀a, b, c ∈ G : a ◦ (b ◦ c) = (a ◦ b) ◦ c (Assoziativgesetz) ,

2. ∃e ∈ G ∀a ∈ G : e ◦ a = a ◦ e = a (Existenz eines Einselements) .

3. ∀a ∈ G ∃a−1 ∈ G : a−1◦a = a◦a−1 = e (Existenz inverser Elemente) .

Im 3. Axiom bezeichnet e das Einselement, dessen Existenz im 2. Axiomgeforderte wurde. Gilt daruberhinaus

4. ∀a, b ∈ G : a ◦ b = b ◦ a (Kommutativgesetz) ,

so spricht man von einer kommutativen oder abelschen Gruppe.Besteht die Tragermenge G nur aus endlich vielen Elementen, dann nenntman die Anzahl |G| die Ordnung Ord (G) der Gruppe G. G wird dann auchals endliche Gruppe bezeichnet.

Diese Definition tragt eine gewisse Redundanz in sich. Es reicht bereits aus,die Existenz eines Linkseinselementes und die Existenz von Linksinversen(diese mussen nur die Bedingung a−1a = e erfullen) zu fordern. Der Nach-weis, daß es sich dann dabei gleichzeitig um Rechtseins und Rechtsinversehandelt bleibt zur Ubung. Der Begriff der Gruppenordnung kann unter Ver-wendung unendlicher Kardinalzahlen auch auf unendliche Gruppen ubertra-gen werden. Darauf wollen wir verzichten, im Falle einer unendlichen GruppeG schreiben wir einfach formal Ord (G) =∞.

Satz 8 In einer Gruppe G = (G, ◦) ist jede Gleichung der Form a ◦ x = b,a, b ∈ G, eindeutig losbar.

Beweis: Seien a, b ∈ G beliebig. Nach dem 2. Gruppenaxiom und Lemma 3gibt es ein eindeutig bestimmtes a−1 ∈ G mit a−1 ◦ a = a ◦ a−1 = e. Fur x =a−1b ist die Gleichung a◦x = b erfullt, also besitzt die Gleichung mindestenseine Losung. Nehmen wir nun an, es gabe zwei Elemente c1, c2 ∈ G mita ◦ c1 = a ◦ c2 = b, Multiplikation der Gleichung von links mit a−1 fuhrt auf

a−1 ◦ (a ◦ c1) = a−1 ◦ (a ◦ c1) = a−1 ◦ b ,

also c1 = c2 = a−1 ◦ b und damit gibt es nur hochstens eine Losung derGleichung. 2

Von diesem Satz gilt sogar eine gewisse Umkehrung, denn jede HalbgruppeG, in der alle Gleichungen der Gestalten a ◦ x = b und x ◦ a = b eindeutiglosbar sind, ist sogar eine Gruppe.

53

Preliminary version – 8. Januar 2002

Page 56: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Beispiele und Gegenbeispiele fur Gruppen

1. (Z,+) ist eine abelsche Gruppe. Neutrales Element ist die 0, das zua ∈ Z entgegengesetzte Element ist −a. Die Menge der geraden Zahlenbildet eine Untergruppe von (Z,+).

2. (Zn,+ mod n) ist fur jede naturliche Zahl n > 0 eine abelsche Gruppeder Ordnung n. Zn besteht aus den Divisionsresten modulo n, d.h.den Zahlen 0, 1, . . . , n− 1. Zwei Elemente von Zn werden addiert unddann der Rest modulo n als Ergebnis genommen. Das zu m ∈ Znentgegengesetzte Element ist n − m. Man nennt diese Gruppe diezyklische Gruppe der Ordnung n und bezeichnet sie mit Zn. Der Begriffder zyklischen Gruppe beruht darauf, das bei wiederholtem Addierenvon 1 zu sich selbst, alle Elemente der Gruppe durchlaufen werden.

3. (Z, ∗) ist keine Gruppe, sondern nur ein abelsches Monoid. Es gibt zwarein Einselement, namlich 1, aber beispielsweise besitzt 2 kein Inverses.

4. (Zn \ {0}, ∗ mod n) ist fur jede Primzahl n eine abelsche Gruppe derOrdnung n− 1.

5. (N,+) ist nur abelsches Monoid mit 0 als neutralem Element. KeinElement mit Ausnahme von 0 besitzt in N ein entgegengesetztes Ele-ment.

6. Die Menge S(M) der bijektiven Abbildungen einer Menge M ist mitder Hintereinanderausfuhrung von Korrespondenzen eine (nichtkom-mutative) Gruppe. Zunachst einmal ist die Hintereinanderausfuhrungtatsachlich eine Operation auf der Menge S(M), denn in Satz 2(iii))wurde nachgewiesen, daß die Verkettung zweier Elemente von S(M)nicht aus S(M) herausfuhrt. In Satz 1 wurde die Assoziativitat der Hin-tereinanderausfuhrung von Korrespondenzen gezeigt, also ist (S(M), ◦)eine Halbgruppe. Die identische Abbildung idM ist bijektiv, gehort al-so zu S(M), nach Satz 1 ist sie Einselement und damit ist (S(M), ◦)sogar Monoid. Schließlich wurde in Satz 2(iv)) (also Ubungsaufgabe7) nachgewiesen, daß die Umkehrkorrespondenzen aller Elemente vonS(M) ebenfalls zu S(M) gehoren. Gemaß Satz 2(vii)) ist f−1 das zuf ∈ S(M) inverse Element. Also ist (S(M), ◦) eine Gruppe. Wenn Maus mehr als zwei Elementen besteht, dann ist ◦ nicht kommutativ.

54

Preliminary version – 8. Januar 2002

Page 57: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

7. Die Menge der reellen (m,n)-Matrizen bilden mit der Matrizenadditioneine abelsche Gruppe.

8. Die Menge der reellen (n, n)-Matrizen bilden fur n > 1 keine Gruppemit der Matrizenmultiplikation.

9. Die Menge aller reellen (n, n)-Matrizen vom Rang n bilden eine (nicht-kommutative) Gruppe mit der Matrizenmultiplikation. Zum Beweisdieser Aussage muß insbesondere gezeigt werden, daß das Produkt zwei-er (n, n)-Matrizen des Ranges n stets auch den Rang n aufweist. Einderartiger Beweis kann mit den uns bisher zur Verfugung stehendenelementaren Mitteln bereits erbracht werden. A und B seien n-reihigequadratische Matrizen vom Rang n. Die Matrizengleichung CX = A

ist genau dann losbar, wenn Rang(C A) = Rang(C) gilt, denn genaudann sind alle n simultanen Gleichungen CxT = a mit den Spaltenvon A als rechten Seiten losbar. Wegen Rang(C A) ≥ RangA = nexistiert eine derartige Losung also nur fur Matrizen C vom Rang n.Wegen RangB = n ist die Gleichung BX = E auf jeden Fall losbar,die Losung X = B−1 ist gerade die zu B inverse Matrix. Multiplika-tion von AB = C von rechts mit B−1 ergibt ABB−1 = CB−1, alsoA = CB−1. Das heißt fur RangA = RangB = n existiert in jedem Falleine Losung der Gleichung A = CX, wobei C = AB ist. Damit mußnach den obigen Uberlegungen RangC = n gelten.

Die Einheitsmatrix En ist naturlich Einselement, die Existenz der In-versen wurde oben bereits mit gezeigt, also handelt es sich tatsachlichum eine Gruppe.

Dieser Beweis verwendet nur elementare Argumente, ist jedoch nichtelegant. Alternative Beweismethoden werden wir spater noch kennen-lernen.

10. Die Losungsmenge eines homogenen linearen Gleichungssystems bildetmit der komponentenweisen Addition eine abelsche Gruppe. (sieheUbungsaufgabe 10)

Definition 13 Ist G = (G, ◦) eine Gruppe und H ⊆ G eine das Einselemente enthaltende Teilmenge von G, so daß auch H = (H, ◦|H) mit der auf Heingeschrankten Operation von G eine Gruppe bildet, dann nennt man H

eine Untergruppe von G. Ublicherweise schreibt man fur die Einschrankung◦|H kurz ◦.

55

Preliminary version – 8. Januar 2002

Page 58: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Jede Gruppe besitzt zwei triviale Untergruppen, namlich fur H = G und furH = {e}. Der Nachweis der Gruppeneigenschaften vereinfacht sich, wennman weiß, daß H Teilmenge einer Gruppe ist. Es gilt das folgend Untergrup-penkriterium:

Satz 9 (Untergruppenkriterium) H = (H, ◦) ist genau dann Untergrup-pe von G = (G, ◦), wenn H ⊆ G nicht leer ist und fur alle a, b ∈ H dieBeziehung

a ◦ b−1 ∈ Herfullt ist.

Beweis: H ist nicht leer, also gibt es wenigstens ein a ∈ H. Also folgt aus demKriterium die Enthaltenseinsbeziehung a ◦ a−1 ∈ H, also e ∈ H. Daruber-hinaus gehort fur jedes a ∈ H auch das Inverse a−1 zu H, denn e ∈ H wurdebereits gezeigt und Anwendung des Kriteriums liefert e ◦ a−1 = a−1 ∈ H.Seien nun a, b ∈ H beliebig. Aus dem vorangegangenen folgt b−1 ∈ H, alsoa◦ (b−1)

−1= a◦ b ∈ H. Letzteres bedeutet, daß die Einschrankung von ◦ auf

H nicht aus H hinausfuhrt, daß also eine Operation auf H vorliegt. Damithaben wir die Gruppoideigenschaft von (H, ◦) nachgewiesen. Die Assoziati-vitat ergibt sich unmittelbar aus der von G. Damit ist (H, ◦) Halbgruppe,Existenz von Einselement und Inversen wurde oben bereits gezeigt, also liegteine Gruppe vor. 2

Merksatz 6 Sei G eine Gruppe. Dann ist der Durchschnitt beliebig vie-ler Untergruppen von G wieder eine Untergruppe von G. Dagegen ist dieVereinigung zweier Untergruppen im allgemeinen keine Untergruppe.

Beweis: H1 und H2 seien zwei Untergruppen von G. Zunachst ist H1∩H2 6= ∅,da beide Untergruppen das Einselement enthalten. Fur beliebige Elementea, b ∈ H1∩H2 gilt a◦b−1 ∈ H1∩H2, also ist der Durchschnitt nach dem obigenSatz eine Untergruppe von G. Analog verlauft der Untergruppennachweisvon

⋂i∈I Hi fur beliebige Indexmengen I.

Zum Nachweis, daß die Vereinigung im allgemeinen keine Untergruppe wiederist, reicht die Angabe eines Gegenbeispiels aus. Wir betrachten G = (Z,+)die additive Gruppe der ganzen Zahlen. Die gerade Zahlen H1 = (2Z,+)bilden ebenso eine Untergruppe von G, wie die durch drei teilbaren ZahlenH2 = (3Z,+). Ware H1 ∪ H2 eine Untergruppe, so musste die Vereinigungs-menge nach dem obigen Satz auch das Element 3 − 2 = 1 enthalten, wasjedoch offensichtlich nicht der Fall ist. 2

56

Preliminary version – 8. Januar 2002

Page 59: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Definition 14 Sei G = (G, ◦) und U ⊆ G eine beliebige Teilmenge von G.Die kleinste Untergruppe H = (H, ◦) mit U ⊆ H nennt man, die von Uerzeugte Untergruppe von G (Bezeichung H(U)).

Kleinste Untergruppe bedeutet, fur jede Untergruppe H′ = (H ′, ◦) mit U ⊆H ′ muß H ⊆ H ′ gelten.

Merksatz 7 Insbesondere gelten die Gleichheiten H(∅) = {e}, H(G) = G.Außerdem haben wir H(H) = H fur jede Untergruppe H = (H, ◦) von G.Fur beliebige nichtleere Teilmengen U ⊆ G besteht H(U) gerade aus allenendlichen Produkten von Elementen und Inversen von Elementen aus U , d.h.aus allen Elementen der Bauart u1 ◦ u2 ◦ · · · ◦ um mit uj ∈ U oder u−1

j ∈ Ufur alle 1 ≤ j ≤ m. Laßt man formal m = 0 zu und sieht das Produkt von 0Faktoren als das Einselement e an, so gilt die Beziehung

H(U) ={u1 ◦ u2 ◦ · · · ◦ um | uj ∈ U ∨ u−1

j ∈ U fur alle j = 1, . . . ,m}

auch fur U = ∅.

Definition 15 Seien G = (G, ◦) eine Gruppe und a ∈ G ein Element da-von. Dann nennen wir n = Ord H({a}) die Ordnung des Elementes a undschreiben dafur Ord (a).

Ord (a) ist die kleinste positive naturliche Zahl n mit an := a ◦ · · · ◦ a︸ ︷︷ ︸nMal

= e,

falls denn solch eine Zahl n uberhaupt existiert, was genau dann der Fallist, wenn H({a}) eine endliche Gruppe ist. Eine von einem Element a derOrdnung n erzeugte Gruppe nennt man zyklische Gruppe und bezeichnet sieauch mit Zn. Entsprechend schreibt man Z∞ fur die unendliche (bis aufIsomorphie gibt es nur eine solche, namlich (Z,+)) zyklische Gruppe. Dieseliegt immer dann vor, wenn H({a}) nicht endlich ist.

Satz 10 (Satz von Lagrange) Fur jede endliche Gruppe G und jede Un-tergruppe H von G gilt Ord H | Ord G. Daruberhinaus gilt fur jedes a ∈ G

die Beziehung Ord (a) | Ord G.

Auf den Beweis des Satzes wollen wir verzichten. Aber man erkennt sofort,daß die zweite Aussage eine einfache Folgerung aus der ersten ist. Aus diesemSatz kann man insbesondere auch folgern, daß eine Gruppe von Primzahl-ordnung nur die beiden trivialen Untergruppen besitzt, denn jedes Elementa ∈ G \ {e} muß bereits die ganze Gruppe G erzeugen.

57

Preliminary version – 8. Januar 2002

Page 60: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Definition 16 Seien G und H zwei Gruppen, dann nennt man einen Ho-momorphismus ϕ : G→ H der beiden algebraischen Strukturen vom Typ (2)einen Gruppenhomomorphismus. Entsprechend spricht man von Gruppen-monomorphismen, Gruppenepimorphismen und Gruppenisomorphismen.

Wir halten folgende Eigenschaften von Gruppenhomomorphismen fest:

Satz 11 G = (G, ◦) und H = (H, •) seien zwei Gruppen. Fur jeden Grup-penhomomorphismus ϕ : G→ H gilt:

i) Ist ϕ bijektiv, so ist ϕ sogar Gruppenisomorphismus,

ii) das Einselement von G wird auf das Einselement von H abgebildet, d.h.ϕ(eG) = eH,

iii) das Bild des Inversen eines Elementes a von G ist gleich dem Inversendes Bildes von a, d.h. ∀a ∈ G : ϕ(a−1) = ϕ(a)−1,

iv) der Bildbereich Bild(ϕ) ist eine Untergruppe von H,

v) das vollstandige Urbild ϕ−1(eH) des Einselementes von H ist eine Un-tergruppe von G, diese nennt man auch den Kern (Kern(ϕ)) des Ho-momorphismus,

vi) ϕ ist genau dann sogar ein Gruppenmonomorphismus, wenn ϕ−1(eH) ={eG} gilt.

Beweis: i) ist klar, denn Gruppen beinhalten keine Relationen.ii) Wir betrachten ein beliebiges a ∈ G. Es gilt a◦eG = a, also ϕ(a)•ϕ(eG) =ϕ(a). Da H eine Gruppe ist, ist die Gleichung h • x = h fur jedes h ∈ H,also auch fur h = ϕ(a), eindeutig losbar und diese eindeutige Losung istoffensichtlich x = eH. Da ϕ(eG) Losung der Gleichung ϕ(a) • x = ϕ(a) ist,muß ϕ(eG) = eH gelten.Mit Hilfe analoger Argumente zeigt man iii).iv) Seien u, v ∈ Bild(ϕ). Dann gibt es a, b ∈ G mit ϕ(a) = u und ϕ(b) = v.Wegen u•v−1 = ϕ(a)•ϕ(b)−1 = ϕ(a◦b−1) ergibt sich folglich u•v−1 ∈ Bild(ϕ).Damit erfullt Bild(ϕ) das Untergruppenkriterium 9, ist also Untergruppe vonH.v) Fur beliebige Elemente a, b ∈ G mit ϕ(a) = ϕ(b) = eH gilt ϕ(a ◦ b−1) =ϕ(a) • ϕ(b)−1 = eH • e−1

H = eH, also ist Kern(ϕ) nach Untergruppenkriterium9 eine Untergruppe von G.

58

Preliminary version – 8. Januar 2002

Page 61: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

vi) Falls ϕ ein Monomorphismus, also injektiver Homomorphismus, ist, dannbesitzt jedes Element von H, also insbesondere auch eH, ein hochstens ein-elementiges Urbild. Mit ii) folgt Kern(ϕ) = {eG}.Sei nun andererseits ϕ nicht injektiv, dann gibt es ein u ∈ H sowie Elementea, b ∈ G mit a 6= b und ϕ(a) = ϕ(b) = u. Ist u = eH, so gilt {a, b} ⊆Kern(ϕ) 6= {eG} und wir sind fertig. Andernfalls wahlen wir ein beliebigesc ∈ G mit ϕ(c) = u−1. Damit ergibt sich a ◦ c, b ◦ c ∈ Kern(ϕ). Da dieGleichung y ◦ c = eG eine eindeutig Losung besitzt, muß wenigstens eines derElemente a ◦ c und b ◦ c von eG verschieden sein. 2

Ubungsaufgaben, Serie 4

10. Beweisen Sie, daß die Losungsmenge eines homogenen linearen Glei-chungssystems

AxT = OT

in n Variablen mit der komponentenweisen Addition der n-Tupel reellerZahlen eine Gruppe bildet.

11. Geben Sie alle Untergruppen der symmetrischen Gruppe S3 an!

12. Welche Ordnung haben die ganzen Zahlen 4 und 12 jeweils in denGruppen

(a) (Z17,+ mod 17),

(b) (Z17 \ {0}, ∗ mod 17) ?

4.1.1 Die symmetrische Gruppe Sn

Fur Mn = {1, 2, . . . , n} nennt man die in Beispiel 6 definierte Gruppe S(Mn)aller bijektiven Abbildungen von Mn auf Mn die symmetrische Gruppe vonMn und schreibt dafur Sn. Die Elemente von Sn nennt man Permutationen.Es gilt die Beziehung Ord (Sn) = n!. Sn und ihre Untergruppen nennt manPermutationsgruppen.Eine Element der Sn laßt sich durch Angabe seiner Zuordnungsvorschrifteindeutig charakterisieren. Da der Vorbereich eine endliche Menge ist, kannman die Zuordnungsvorschrift mit Hilfe einer Wertetabelle beschreiben.

59

Preliminary version – 8. Januar 2002

Page 62: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Schauen wir uns das an einem Beispiel an: Sei n = 4 und π : M4 → M4 diedurch die Zuordnungsvorschrift

1 7→ 2

2 7→ 3

3 7→ 1

4 7→ 4

(4.1)

gegebene bijektive Abbildung von M4 auf M4. Eine Wertetabelle fur π hatdie Gestalt

x 1 2 3 4π(x) 2 3 1 4

Die erste Spalte und die Tabellenlinien tragen keine Information, wenn mandiese Art der Anordnung verbindlich vereinbart. Auf dieser Grundlage erhaltman eine der gelaufigsten Standardschreibweisen fur Permutationen, namlich(

1 2 3 42 3 1 4

)in unserem Beispiel oder ganz allgemein(

1 2 · · · nπ(1) π(2) · · · π(n)

).

Permutationen werden multipliziert, indem man ihre Hintereinanderausfuhrungals Abbildungen bildet. Fur das Produkt π ◦ σ ergibt sich auf diese Weise

π ◦ σ =

(1 2 · · · n

π(1) π(2) · · · π(n)

)◦(

1 2 · · · nσ(1) σ(2) · · · σ(n)

)=

(1 2 · · · n

σ(π(1)) σ(π(2)) · · · σ(π(n))

).

Eine einfache Methode, um das Produkt praktisch auszurechnen, besteht imUmsortieren der Spalten der Permutation σ, so daß die erste Zeile genausoaussieht, wie die zweite Zeile von π. Schreibt man dann die zweite Zeile derumsortierten Tabelle von σ unter die erste Zeile der Permutation π, so erhaltman die Permutation π ◦ σ.

60

Preliminary version – 8. Januar 2002

Page 63: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Eine zweite haufig verwendete Darstellungsart fur Permutationen ist die Zy-klendarstellung. Ein Zyklus der Lange k hat die Gestalt (i1 i2 . . . ik) mit1 ≤ i1, i2, . . . , ik ≤ n. Die Permutation π = (i1 i2 . . . ik) hat die Abbil-dungsvorschrift

π(i) =

ij+1 : fur i = ij, 1 ≤ j < ki1 : fur i = iki : fur i /∈ {i1, . . . , ik}

.

Beispiel: Die Wertetabellendarstellung der Permutation π = (2 4 3) ∈ S6 ist(1 2 3 4 5 61 4 2 3 5 6

).

Jeder Zyklus der Lange 1 beschreibt die identische Permutation. Nicht jedePermutation kann durch einen einzelnen Zyklus beschrieben werden, manbetrachte beispielsweise

σ =

(1 2 3 4 5 65 4 2 3 1 6

)∈ S6 ,

Fur Zyklen z1 = (i1 . . . ik) und z2 = (j1 . . . jl) mit {i1, . . . , ik}∩{j1, . . . , jl}= ∅ gilt z1◦z2 = z2◦z1. Man beachte aber, ohne die Voraussetzung paarweiseverschiedener Eintrage gilt die Kommutativitat im allgemeinen nicht. JedePermutation laßt sich als Produkt von hochstens n Zyklen darstellen, wobeijede der Zahlen 1, . . . , n in genau einem der Zyklen vorkommt. In unseremobigen Beispiel gilt σ = (1 5) ◦ (2 3 4) ◦ (6). Da es auf die Reihenfolge derZyklen und auf Zyklen der Lange 1 nicht ankommt, fuhrt man die kurzereSchreibweise

σ = (1 5)(2 4 3)

ein. An dieser Schreibweise werden zwei Sachverhalte deutlich, zum einenmuß bei Verwendung der Zyklenschreibweise im explizit festgehalten wer-den, in welcher symmetrischen Gruppe Sn man sich befindet. Zum zweitenerkennt man, daß sich die symmetrische Gruppe Sn auf naturliche Weise alsUntergruppe jeder symmetrischen Gruppe Sm mit m > n auffassen laßt.Jeder Permutation π ∈ Sn wird ein Signum (oder Vorzeichen) sgn(π) zuge-ordnet. Sei s die Anzahl der Paare (i, j) ∈ Mn ×Mn mit der Eigenschafti < j und π(i) > π(j), dann gilt per definitionem

sgn π := (−1)s . (4.2)

61

Preliminary version – 8. Januar 2002

Page 64: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Eine Permutation π heißt gerade Permutation, falls sgn π = 1 und ungeradePermutation sonst. Ohne Beweis halten wir fest:

Satz 12 Die Abbildung sgn : Sn → {1,−1}, n > 1, ist ein Gruppen-epimorphismus der symmetrischen Gruppe Sn auf die zyklische Gruppe Z2 =({1,−1}, ∗ mod 3), d.h. das Produkt der Signen zweier Permutationen istgleich dem Signum der Verkettung der beiden Permutationen.

Anmerkung: Anstelle der Reste 0, 1, 2 bei Division modulo 3 kann man wegen2 = −1 mod 3 auch das Restesystem 0, 1,−1 verwenden.Gemaß diesem Satz kann man das Signum einer Permutation dadurch be-stimmen, daß man sie in Zyklendarstellung aufschreibt und die Signen dereinzelnen Zyklen multipliziert. Fur Zyklen gilt die einfache Rechenregel

sgn (i1 i2 . . . ik) = (−1)k+1 .

Also haben wir zum Beispiel

sgn (1) = 1

sgn (1 5)(2 4 3) = −1 ∗ 1 = −1

Satz 13 Die Teilmenge aller geraden Permutationen von Sn bildet eine Un-tergruppe der Sn, man nennt sie alternierende Gruppe und bezeichnet sie mitAn.

Beweis: Die Behauptung folgt sofort aus Satz 12 und Satz 11(v) 2

4.2 Algebraische Strukturen mit zwei binaren

Operationen – Ringe und Korper

Wir betrachten nun algebraische Strukturen die entstehen, indem man zu ei-ner (additiv geschriebenen) abelschen Gruppe noch eine weitere binare Ope-ration hinzunimmt. Zur Vereinfachung der Schreibweise vereinbaren wir, daßdas Malzeichen ∗ stets starker bindet als das Pluszeichen + (Punktrechnunggeht vor Strichrechnung).

Definition 17 Unter einem (assoziativen) Ring versteht man eine algebrai-sche Struktur R = (R; +, ∗) des Typs (2, 2) mit folgenden Eigenschaften:

62

Preliminary version – 8. Januar 2002

Page 65: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

1. (R; +) ist eine abelsche Gruppe,

2. (R; ∗) ist eine Halbgruppe, d.h. es gilt das Assoziativgesetz der Multi-plikation,

3. die beiden Operationen + und ∗ erfullen die Distributivgesetze

∀a, b, c ∈ R : (a+ b) ∗ c = a ∗ c+ b ∗ c und

∀a, b, c ∈ R : c ∗ (a+ b) = c ∗ a+ c ∗ b (Distributivgesetze)

Ist (R, ∗) eine kommutative Halbgruppe, so spricht man von einem kommu-tativen Ring.Ist (R, ∗) ein Monoid, d.h. es existiert ein neutrales Element bezuglich derMultiplikation, dann heißt R ein Ring mit Einselement.Entsprechend spricht man von einem kommutativen Ring mit Einselement,wenn (R, ∗) kommutatives Monoid ist.

Man beachte: nicht ublich ist die Namensgebung abelscher Ring fur einenkommutativen Ring. Hingewiesen sei auch auf die Bedeutung der richtigenReihenfolge der Operationen + und ∗. Schreibt man (Z, ∗,+) so ist das imstrengen Sinn kein Ring, wohl aber ist (Z,+, ∗) einer.Beispiele fur Ringe sind:

1. die ganzen Zahlen (Z; +, ∗) sind ein kommutativer Ring mit Einsele-ment,

2. ebenso sind die rationalen Zahlen (Q; +, ∗) und die reellen Zahlen (R; +, ∗)kommutative Ringe mit Einselement,

3. die Menge der reellen (n, n)-Matrizen bildet einen (nichtkommutativen)Ring mit Einselement,

4. (Zn; + mod n, ∗ mod n) ist ein kommutativer Ring mit Einselement.

5. (R[x]; +, ∗) bezeichnet die Menge aller Polynome in einer Variablen xmit Koeffizienten aus R (reelle Zahlen) mit der bekannten Addition undMultiplikation von Polynomen. Man nennt R[x] einen Polynomring.Hierbei handelt es sich um einen kommutativen Ring mit Einselement.

63

Preliminary version – 8. Januar 2002

Page 66: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6. (R[x1, x2, . . . , xn]; +, ∗) ist ebenfalls ein Polynomring, namlich der, wel-cher aus allen Polynomen in den Variablen x1, x2, . . . , xn mit reellenKoeffizienten besteht. Es handelt sich wiederum um einen kommutati-ven Ring mit Einselement.

Wenngleich es auch Ringe ohne Einselement gibt, ein Beispiel dafur ist(2Z; +, ∗), d.h. die geraden ganzen Zahlen mit Addition und Multiplika-tion, so sind diese doch nicht von Interesse fur uns. Wir vereinbaren daher,daß wir in Zukunft abkurzend von Ringen sprechen, aber immer Ringe mitEinselement meinen werden.

Definition 18 Ein Korper K = (K,+, ∗) ist ein Ring mit der zusatzlichenEigenschaft, daß (K \ {0}, ∗) eine abelsche Gruppe ist.

In einem Korper kann man also uneingeschrankt Addieren, Subtrahieren,Multiplizieren und man kann durch alle Elemente mit Ausnahme von 0 divi-dieren. Beispiele fur Korper sind:

1. der Korper Q = (Q,+, ∗) der rationalen Zahlen,

2. der Korper R = (R,+, ∗) der reellen Zahlen,

3. der Korper Zp = (Zp,+ mod p, ∗ mod p) der ganzen Zahlen modulo einerPrimzahl p,

4. der Korper (R(x),+, ∗) der rationalen Funktionen mit reellen Koeffizi-enten in einer Variablen,

5. der Korper (R(x1, . . . , xn),+, ∗) der rationalen Funktionen mit reellenKoeffizienten in n Variablen.

Die ersten beiden Beispiele sind Ihnen bereits aus der Schule bekannt, Bei-spiel 3 haben wir schon in den vergangenen Kapiteln mehrfach aufgegrif-fen und insbesondere die erforderlichen Gruppeneigenschaften bereits fest-gestellt. Die beiden letzt genannten Korper bestehen gerade aus Bruchenvon Polynomen. Besonders im Falle nur einer Variablen verlaufen die Rech-nungen darin ganz ahnlich zu denen in den rationalen Zahlen. Bei mehrals zwei Variablen enstehen zusatzliche (aber keine unuberwindlichen) Pro-bleme beim Berechnen des großten gemeinsamen Teilers (ggT) von Zahlerund Nenner. Das Bestimmen des ggT von Zahler und Nenner benotigt man,

64

Preliminary version – 8. Januar 2002

Page 67: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

um die Bruche in vollstandig gekurzter Form darstellen zu konnen. In denganzen Zahlen ebenso wie im Polynomring R[x] kann das Berechnen großtergemeinsamer Teiler mit Hilfe des Euklidischen Algorithmus geschehen. Die-sen Algorithmus werden Sie in den einzelnen Ubungsgruppen besprechen,denn er ist auch die Grundlage der Inversen-Berechnung in Zp.Der Homomorphiebegriff algebraischer Strukturen laßt sich auch fur Ringeprazisieren. Aber zusatzlich zur Homorphieeigenschaft fur Strukturen desTyps (2, 2) verlangt man von Ringhomomorphismen, daß das Einselementdes Vorbereichsringes auf das Einselement des Nachbereichsringes abgebil-det wird. Im Gegensatz zu den Gruppen (siehe Satz 11(ii)) folgt ϕ(1) = 1nicht automatisch aus den Ringeigenschaften. Da jeder Ringhomomorphis-mus ϕ : (R,+, ∗) → (S,+, ∗) insbesondere auch Gruppenhomomorphismusder additiven Gruppen (R,+) und (S,+) ist, gelten die in Satz 11 aufgefuhr-ten Eigenschaften in Bezug auf die Operation +. Eigenschaft (i) gilt naturlichauch fur Ringe, denn diese beinhalten ebenfalls keine Relationen. In Bezugauf die Multiplikation mussten wir Eigenschaft (ii) explizit fordern, dannergibt sich jedoch Eigenschaft (iii) wieder von selbst, sofern denn a ∈ Ruberhaupt ein multiplikatives Inverses besitzt. Eigenschaften (iv) und (v)gelten in der scharferen Form, daß Bildϕ und Kernϕ = ϕ−1(0) sogar Un-terringe von S beziehungsweise R sind. Das Injektivitatskriterium (vi) giltnaturlich auch fur Ringe.Ein Beispiel fur einen Ringhomomorphismus ist

ϕn : (Z,+, ∗)→ (Zn,+ mod n, ∗ mod n)

mit ϕn(a) = a mod n.Handelt es sich bei beiden Ringen sogar um Korper, so sprechen wir auchvon Korperhomomorphismen. Ein Beispiel fur einen Korpermonomorphimusist die naturliche Einbettung ϕ : Q→ R, wobei ϕ(a) = a fur alle rationalenZahlen a. Im Vorgriff auf den nachsten Abschnitt sei bereits der durch ϕ(a+ib) = a− ib definierte Korperisomorphimus ϕ : C→ C der komplexen Zahlenmit genannt.

4.2.1 Der Korper C der komplexen Zahlen

Im Laufe des Aufbaus der Zahlenbereiche von den naturlichen bis zu den reel-len Zahlen wurden durch sukzessive Hinzunahme neuer Elemente Unzulang-lichkeiten beseitigt. Die reellen Zahlen haben schließlich die Eigenschaft, daß

65

Preliminary version – 8. Januar 2002

Page 68: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Addition, Subtraktion und Multiplikation ohne Einschrankung ausfuhrbarsind. Außerdem kann durch beliebige von Null verschiedene Zahlen dividiertwerden und jede Chauchy-Folge reeller Zahlen besitzt eine reelle Zahl alsGrenzwert. Letzteres bedeutet grob gesprochen, daß die reelle Zahlengeradekeine Lucken hat.Wir wollen jetzt eine Zahlenbereichserweiterung vornehmen, die eine weitereUnzulanglichkeit beseitigt. In den reellen Zahlen ist nicht jede Gleichung derGestalt

xn + an−1xn−1 + · · ·+ a1x+ a0 = 0 ,

wobei an−1, . . . , a0 reelle Zahlen sind, losbar. Zum Beispiel hat die einfacheGleichung x2 +1 = 0 keine reelle Losung. Wir legen fest, daß diese Gleichungin unserem neuen Zahlenbereich die Losung i haben soll, i heißt die imaginareEinheit und zeichnet sich durch die Eigenschaft i2 = −1 aus.Die Menge C = {a + ib | a, b ∈ R} der komplexen Zahlen besteht aus allenformalen Summen a+ ib, wobei a und b reelle Zahlen sind und i die imaginareEinheit ist. Fur eine komplexe Zahl z = a + ib nennt man a den RealteilRe z und b den Imaginarteil Im z von z. Vereinbarungsgemaß schreibt manabkurzend a fur a+ i0, b fur 0 + ib und a− ib fur a+ i(−b).Fur komplexe Zahlen z = a+ ib und s = c+ id gelten folgende Rechenregeln:

z + s = (a+ c) + i(b+ d)

−z = −a− ib

z ∗ s = (ac− bd) + i(ad+ bc)

z−1 =a

a2 + b2− i

b

a2 + b2fur z 6= 0 .

Diese ergeben sich einfach dadurch, daß man mit den komplexen Zahlen sorechnet, als waren sie Polynome oder Bruche von Polynomen in der Variableni und im Anschluß daran die Beziehung i2 = −1 ausnutzt. Bei Addition undNegation sind die Regeln einfach einzusehen. Betrachten wir Multiplikationund Inverses noch etwas genauer. Die Multiplikationsregel ergibt sich aus

(a+ ib)(c+ id) = ac+ i2bd+ iad+ ibc = ac− bd+ i(ad+ bc) .

Entsprechend berechnen wir

1

a+ ib=

a− ib

(a+ ib)(a− ib)=

a− ib

a2 − (ib)2=

a− ib

a2 − i2b2=

a− ib

a2 + b2.

66

Preliminary version – 8. Januar 2002

Page 69: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Die komplexen Zahlen mit + und ∗ bilden einen Korper. Neutrales Elementder Addition (Nullelement) ist 0 = 0 + i0 und neutrales Element der Multi-plikation (Einselement) ist 1 = 1+ i0. Durch Nachrechnen sieht man, daß dieoben angegebenen Elemente −z und z−1 entgegengesetztes beziehungsweisemultiplikatives Inverses von z sind.Daruberhinaus gilt der

Satz 14 (Fundamentalsatz der Algebra, Gauß) Jede Gleichung

xn + an−1xn−1 + · · ·+ a1x+ a0 = 0

mit n ≥ 1 und komplexen Koeffizienten an−1, . . . , a0 besitzt mindestens einekomplexe Losung.

x = α ist genau dann eine Losung der Gleichung

xn + an−1xn−1 + · · ·+ a1x+ a0 = 0 ,

wenn das Polynom xn + an−1xn−1 + · · ·+ a1x+ a0 durch das Polynom x− α

teilbar ist. Es gilt also xn + an−1xn−1 + · · · + a1x + a0 = (x − α)(xn−1 +

bn−2xn−2 + · · · + b1x + b0). Im Falle n > 1 kann man nun den obigen Satz

auf die Gleichung xn−1 + bn−2xn−2 + · · · + b1x + b0 = 0 anwenden. Mittels

vollstandiger Induktion zeigt man, daß es (nicht notwendigerweise paarweiseverschiedene) komplexe Zahlen α1, . . . , αn gibt, so daß

xn + an−1xn−1 + · · ·+ a1x+ a0 = Πn

j=1(x− αj) .

Man sagt dazu auch, uber den komplexen Zahlen zerfallt jedes Polynom ineiner Variablen in Linearfaktoren, d.h. in ein Produkt von Polynomen vomGrad 1.Bei der Herleitung der Rechenregel fur z−1 fur z = a + ib wurde der Bruch1z

mit der komplexen Zahl a− ib erweitert, diese Zahl nennt man die konju-giert komplexe Zahl z = a − ib von z. Die konjugiert komplexe Zahl besitzteine besondere Bedeutung, beispielsweise hatten wir im vorangegangen Ab-schnitt festgestellt, daß z 7→ z einen Automorphismus der komplexen Zahlen,d.h. einen Isomorphismus der komplexen Zahlen in sich, beschreibt. Dabeihandelt es sich neben dem identischen Automorphismus um den einzigen Au-tomorphismus komplexer Zahlen, welcher den Teilkorper der reellen Zahlenfestlaßt. Letzteres bedeutet, jede reelle Zahl a = a + i0 hat sich selbst alsBild.

67

Preliminary version – 8. Januar 2002

Page 70: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Eine komplexe Zahl laßt sich als geordnetes Paar zweier reeller Zahlen, namlichbestehend aus ihrem Real- und ihrem Imaginarteil, schreiben. Dieses Paarkann als Koordinaten eines Punktes der Ebene bezuglich eines kartesischenKoordinatensystems gedeutet werden. Dabei vereinbart man, daß die hori-zontale Achse (reelle Achse) den Real- und die vertikale Achse (imaginareAchse) den Imaginarteil angibt. Ahnlich der Darstellung der reellen Zahlenauf einer Zahlengerade erhalt man so eine Darstellung der komplexen Zah-len in der komplexen Zahlenebene. Wie die reellen Zahlen die Zahlengeradeluckenlos bedeckten, so bedecken die Zahlenebene ebenfalls luckenlos.Aus der geometrischen Veranschaulichung lassen sich zwei weitere Bestim-mungsstucke einer komplexen Zahl z = a + ib ablesen. Betrachtet manihren Ortsvektor, damit meint man die gerichtete Strecke vom Koordina-tenursprung zur komplexen Zahl, so wird dieser durch seine Lange und denWinkel ϕ, den er entgegen des Uhrzeigersinns mit der reellen Achse ein-schließt, eindeutig beschrieben.

Die Lange des Ortsvektors berechnet sich nach dem Satz des Pythagorasnach der Formel

√a2 + b2, man nennt sie den Betrag von z und bezeichnet

68

Preliminary version – 8. Januar 2002

Page 71: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

sie mit |z|. Es giltz = |z|(cosϕ+ i sinϕ)

und diese Darstellung nennt man die trigonometrische Darstellung der kom-plexen Zahl z. Durch Betrachtung der Taylorreihenentwicklungen zeigt mandie Eulersche Formel eiϕ = cosϕ + i sinϕ und gelangt zur Exponentialdar-stellung

z = |z|eiϕ

der komplexen Zahl z. Die Exponentialdarstellung eignet sich besonders zumBerechnen von Produkten, Potenzen und Wurzeln komplexer Zahlen.Fur beliebige komplexe Zahlen z, s ∈ C gelten die Beziehungen

1

i= −i

Re z =1

2(z + z)

Im z =i

2(z − z)

|z|2 = zz

|z| = |z|

z−1 =z

|z|2fur z 6= 0

|zs| = |z| ∗ |s||z + s| ≤ |z|+ |s| (Dreiecksungleichung)

69

Preliminary version – 8. Januar 2002

Page 72: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Ubungsaufgaben, Serie 5

13. Stellen Sie die folgenden komplexen Zahlen in Exponentialdarstellungdar!

(a) 3 + 4i

(b) 12− 2

3i

(c) 1 + i

(d) 3i

(e) π − πi

14. Berechnen Sie Betrag, Real- und Imaginarteil der folgenden komplexenZahlen!

(a) 1− i

(b)√

17 + 2i√

2

(c) 4eiπ4

(d) e−2i

(e)√

2(cos π2

+ i sin π2)

15. Losen Sie das lineare Gleichungssystem i 1 + i 2−1 2− i 3

1− 3i 0 2 + 3i

∗ xT =

31 + i

0

uber dem Korper C der komplexen Zahlen.

70

Preliminary version – 8. Januar 2002

Page 73: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 5

Lineare Gleichungssysteme II

Die in Kapitel 3 fur reelle Zahlen eingefuhrten Matrizen und die darauf auf-bauenden Algorithmen und Methoden benutzen nichts als die vier Grund-rechenarten Addition, Subtraktion, Multiplikation und Division durch vonNull verschiedene Zahlen. Sie konnen daher auf beliebige Korper ubertragenwerden. Die Menge der (m,n)-Matrizen mit Eintragen aus dem Korper K

werden wir in Zukunft mit Km,n bezeichnen. Eine Reihe von Ergebnissenund Methoden bedurfen nicht einmal der Division und lassen sich sogar aufMatrizen mit Eintragen aus einem kommutativen Ring R ubertragen. DenRaum der (m,n)-Matrizen uber dem kommutativen Ring R mit Einselementbezeichnen wir mit Rm,n, mit der Addition bildet dieser wiederum eine abel-sche Gruppe. Ebenso bildet Rn,n mit Matrizenaddition und -multiplikationeinen (nichtkommutativen) Ring.Wir wollen nun den Begriff der Determinante einer quadratischen Matrixeinfuhren, damit wird es uns zum einen moglich werden, einige Ergebnisseaus Kapitel 3 eleganter auszudrucken und zum anderen werden wir in Spezi-alfallen zu alternativen Algorithmen zum Losen von Gleichungssystemen ge-langen. Außerdem wollen wir in Zukunft die Einschrankung auf reelle Zahlenauch begrifflich aufgeben und davon ausgehen, daß unsere Rechnungen ubereinem beliebigen Korper, manchmal sogar uber einem kommutativen Ring,ablaufen.

71

Preliminary version – 8. Januar 2002

Page 74: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

5.1 Determinaten

Definition 19 (Nach Leibniz) 1 Sei A = (ai,j)i=1,... ,nj=1,... ,n

∈ Rn,n eine quadra-

tische, n-reihige Matrix mit Eintragen aus dem kommutativen Ring R mitEinselement. Dann definiert man die Determinante |A| (alternative Bezeich-nung det A) von A als

|A| =

∣∣∣∣∣∣∣∣∣a1,1 a1,2 . . . a1,n

a2,1 a2,2 . . . a2,n...

......

an,1 an,2 . . . an,n

∣∣∣∣∣∣∣∣∣ =∑π∈Sn

sgnπ a1,π(1)a2,π(2) · · · an,π(n)

=∑π∈Sn

sgnπ Πni=1ai,π(i)

Fur die Berechnung zwei- und dreireihiger Determinaten lassen sich leichtFormel angeben. ∣∣∣∣a b

c d

∣∣∣∣ = ad− cb (5.1)∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣ = aei+ bfg + cdh− ceg − bdi− afh (5.2)

Verbal kann man formulieren, die Determinante einer zweireihigen Matrixist die Differenz des Produktes der Elemente der Hauptdiagonalen und desProduktes der Elemente der Nebendiagonalen. Fur dreireihige Matrizen kannman sich die Berechnung der Determinanten mittels der Regel von Sarrusverdeutlichen.Dazu schreibt man die ersten zwei Spalten noch einmal rechts neben dieMatrix. Die Determinante ergibt sich dann als die Summe der Produkteder drei von links oben nach rechts unten verlaufenden Diagonalen (Haupt-diagonalen) minus die Summe der Produkte der drei von rechts oben nachlinks unten verlaufenden Diagonalen (Nebendiagonalen). Ganz analog zuden zweireihigen Determinanten kann man die Rechenvorschrift grob durchHauptdiagionalen - Nebendiagonalen umschreiben.

1Diese Definition geht auf Gottfried Wilhelm Leibniz (1646-1716), einen der bedeuten-sten Sohne unserer Stadt Leipzig, zuruck.

72

Preliminary version – 8. Januar 2002

Page 75: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Das folgende Bild verdeutlicht die Sarrussche Regel, die Produkte der Ele-mente der durchgezogenen Diagonalen werden addiert, die der gepunktetenDiagonalen subtrahiert. Man erkennt leicht die Ubereinstimmung mit Formel(5.2).

Auf Matrizen mit mehr als 3 Reihen laßt sich die Regel Hauptdiagonalen- Nebendiagonalen leider nicht ubertragen. Auch die direkte Anwendungder Leibnizschen Definition wird sehr schnell unpraktikabel, denn die Anzahlder Summanden wachst rasend schnell mit der Zeilenzahl (n!).Zunachst wollen wir uns einen rekursiven Algorithmus zur Determinanten-berechnung uberlegen.

Definition 20 Sei A = (ai,j)i=1,... ,nj=1,... ,n

∈ Rn,n eine quadratische Matrix mit

Eintragen aus dem kommutativen Ring R. Wir bezeichnen die Unterdeter-minante von |A|, welche durch Streichen der k-ten Zeile und l-ten Spalteentsteht, mit Dk,l, d.h.

Dk,l =

∣∣∣∣∣∣∣∣∣∣∣∣∣

a1,1 . . . a1,l−1 a1,l+1 . . . a1,n...

......

...ak−1,1 . . . ak−1,l−1 ak−1,l+1 . . . ak−1,n

ak+1,1 . . . ak+1,l−1 ak+1,l+1 . . . ak+1,n...

......

...an,1 . . . an,l−1 an,l+1 . . . an,n

∣∣∣∣∣∣∣∣∣∣∣∣∣.

Weiterhin wird Ak,l := (−1)k+lDk,l die zum Element ak,l gehorige Adjunktevon |A| genannt.

73

Preliminary version – 8. Januar 2002

Page 76: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Lemma 4 (Spezialfall des Entwicklungssatzes von Laplace) Fur jedequadratische Matrix A = (ai,j)i=1,... ,n

j=1,... ,n∈ Rn,n gilt

|A| =n∑j=1

(−1)j+1a1,jD1,j =n∑j=1

a1,jA1,j (5.3)

Beweis: Es gilt

D1,j =

∣∣∣∣∣∣∣a2,1 . . . a2,j−1 a2,j+1 . . . a2,n

......

......

an,1 . . . an,j−1 an,j+1 . . . an,n

∣∣∣∣∣∣∣=

∑σ∈S({1,2,... ,j−1,j+1,... ,n})

sgnσa2,σ(1) · · · an,σ(n−1)

Also kommen in a1,jDi,j bis auf das Vorzeichen gerade alle Summanden derGestalt a1,π(1) · · · an,π(n) mit π ∈ Sn und π(1) = j vor. Wir haben also dasVerhaltnis von sgnσ und sgnπ fur einander entsprechende Permutationenσ ∈ S({1, 2, . . . , j − 1, j + 1, . . . , n}) und π ∈ Sn zu untersuchen. JedeFehlstellung in σ ist auch Fehlstellung in π, dazu kommen aber noch dieFehlstellungen, die durch π(1) = j hervorgerufen werden. Dabei handelt essich um genau j − 1 Stuck, denn j steht vor allen Zahlen 1, . . . , j − 1. Alsounterscheiden sich sgnπ und sgnσ gerade um den Faktor (−1)j−1 = (−1)j+1

und dieser wird in der Entwicklungsformel ausgeglichen.Die Gleichheit der zweiten und der dritten Summe sind klar, denn die Ad-junkten enthalten die notwendige Vorzeichenkorrektur bereits. 2

Gleichung (5.3) nennt man auch die Entwicklung der Determinante |A| nachder 1. Reihe. Mit Hilfe der folgenden zwei Lemmata laßt sich der LaplacescheEntwicklungssatz noch etwas verallgemeinern.

Lemma 5 Fur alle A ∈ Rn,n gilt |A| = |AT |.

74

Preliminary version – 8. Januar 2002

Page 77: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Beweis: Es gilt

|AT | =

∣∣∣∣∣∣∣∣∣a1,1 a2,1 . . . an,1a1,2 a2,2 . . . an,2

......

...a1,n a2,n . . . an,n

∣∣∣∣∣∣∣∣∣=

∑π∈Sn

Πni=1sgnπ aπ(i),i

=∑π∈Sn

Πni=1sgnπ ai,π−1(i) (5.4)

Aufgrund der in Satz 12 festgestellten Homomorphieeigenschaft von sgn gilt

1 = sgn

(1 2 · · · n1 2 · · · n

)= sgn(π ◦ π−1) = sgn(π)sgn(π−1) und daraus folgt

sgn(π) = sgn(π−1) fur alle π ∈ Sn. Außerdem konnen die in (5.4) auftreten-den Summanden beliebig umsortiert werden. Damit ergibt sich schließlich

|AT | =∑π∈Sn

Πni=1sgnπ−1 ai,π−1(i) =

∑π∈Sn

Πni=1sgnπ ai,π(i) = |A|

2

Lemma 6 Fur alle A ∈ Rn,n und 1 ≤ k < l ≤ n gilt

|Azk↔zl| = −|A| .

Beweis: Azk↔zl entsteht aus A durch Vertauschen der k-ten und l-ten Zeile.Bis auf das Vorzeichen treten in der Leibnizschen Formel fur |Azk↔zl| die glei-chen Summanden auf, wie in der fur |A|. Allerdings gehoren die Summandennicht zur gleichen Permutation. Der zu π gehorige Summand a1,π(1) · · · an,π(n)

aus |A| gehort bei |Azk↔zl| zur Permutation σ = (k l)◦π und nach Satz 12 giltsgnσ = −sgnπ. Demzufolge werden die Vorzeichen samtlicher Summandender Leibnizschen Formel gerade umgedreht und es folgt die Behauptung. 2

Schließlich konnen wir sofort schlußfolgern:

Satz 15 (Entwicklungssatz von Laplace) Fur jede quadratische Matrix

75

Preliminary version – 8. Januar 2002

Page 78: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

A = (ai,j)i=1,... ,nj=1,... ,n

∈ Rn,n und jede naturliche Zahl i, 1 ≤ i ≤ n, gelten

|A| =n∑j=1

(−1)i+jai,jDi,j =n∑j=1

ai,jAi,j (5.5)

=n∑j=1

(−1)j+iaj,iDj,i =n∑j=1

aj,iAj,i (5.6)

Beweis: Formel (5.5) folgt, indem man zunachst die i-te Zeile von A mitallen vorherigen Zeilen vertauscht, bis sie ganz oben steht. Dazu sind i − 1Vertauschungen erforderlich, also andert sich die Determinante um (−1)i−1.Multipliziert man damit die Entwicklung (5.3) der nach dem Vertauschenerhaltenen Matrix, so erhalt man Formel (5.5).Formel (5.6) ergibt sich, indem man zur transponierten Matrix AT ubergehtund darauf Formel (5.5) anwendet. 2

(5.5) nennt man Entwicklung der Determinante nach der i-ten Zeile und(5.6) heißt Entwicklung der Determinante nach der i-ten Spalte. Mit Hilfedes Laplaceschen Entwicklungssatz kann man die Berechung einer n-reihigenDeterminante auf die Berechnung von (hochstens) n (n − 1)-reihigen De-terminanten zuruckfuhren. Durch wiederholtes Anwenden des LaplaceschenEntwicklungssatzes gelangt man schließlich zu einem rekursiven Algorithmus,der die Berechnung einer n-reihigen Determinanten (fur n ≥ 4) auf die Be-rechnung von (schlimmstenfalls) n!

6dreireihigen Determinanten zuruckfuhrt.

Letztere lassen sich mit der Regel von Sarrus bestimmen. Betrachtet mandiese Aufwandsabschatzung, so hat man den Eindruck, daß der Entwick-lungsaufwand auch nicht geringer ist als bei Anwendung des LeibnizschenVerfahrens. Im schlimmsten Fall ist das leider ebenso richtig wie unvermeid-lich, sind namlich die Eintrage der Matrix paarweise verschiedene Variableneines Polynomringes, so ist das Ergebnis in der Tat ein Polynom bestehendaus n! Summanden und allein der Aufwand, um das Ergebnis aufzuschrei-ben, gehort der Komplexitatsklasse O(n!) an. Andererseits nimmt der Ent-wicklungsaufwand aber deutlich ab, wenn die Matrix Nullen enthalt. Es istvorteilhaft, nach einer Zeile oder Spalte zu entwickeln, welche moglichst vieleNullen enthalt. Die zu den Nullen gehorigen Adjunkten brauchen nicht be-rechnet zu werden, da sie im Anschluß ohnehin mit Null multipliziert werdenwurden und daher keinen Einfluß auf die Determinante haben.

76

Preliminary version – 8. Januar 2002

Page 79: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Damit kommen wir zu einer Reihe von Folgerungen aus den vorangegangenenLemmata und dem Laplaceschen Entwicklungssatz. Diese erlauben es in vie-len Fallen, Determinanten sofort abzulesen oder wenigstens so umzuformen,daß sie mehr Nullen enthalten.

Folgerung 3 Sei A = (ai,j)i=1,... ,nj=1,... ,n

∈ Rn,n eine quadratische Matrix.

1. Enthalt eine Zeile oder Spalte von A ∈ Rn,n nur Nullen, so gilt |A| = 0.

2. Enthalt A eine Zeile oder Spalte doppelt, so gilt |A| = 0.

3. Gilt ai,j = 0 fur alle 1 ≤ i < j ≤ n, dann haben wir |A| = a1,1 · · · an,n.

4. |A| = a1,1 · · · an,n, falls ai,j = 0 fur alle 1 ≤ j < i ≤ n.

5. Jeder Eintrag der k-ten Zeile von A sei eine Summe ak,j = bk,j + ck,j.Dann gilt

|A| =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a1,1 . . . a1,n...

...ak−1,1 . . . ak−1,n

bk,1 + ck,1 . . . bk,n + ck,nak+1,1 . . . ak+1,n

......

an,1 . . . an,n

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a1,1 . . . a1,n...

...ak−1,1 . . . ak−1,n

bk,1 . . . bk,nak+1,1 . . . ak+1,n

......

an,1 . . . an,n

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣+

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a1,1 . . . a1,n...

...ak−1,1 . . . ak−1,n

ck,1 . . . ck,nak+1,1 . . . ak+1,n

......

an,1 . . . an,n

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣6. Aussage 5) gilt in entsprechender Weise auch fur Spalten.

7. Sei 1 ≤ k ≤ n. Fur beliebige λ ∈ R gelten |Aλzk | = λ|A| sowie|Aλsk | = λ|A|.

8. Fur beliebiges λ ∈ R gilt |λA| = λn|A|.

9. Fur alle k 6= l und λ ∈ R gilt |Azk+λzl| = |Ask+λsl| = |A|.

Beweis: 1) Entwicklung nach der Nullzeile beziehungsweise -spalte liefert eineSumme von Produkten, wobei jeweils einer der Faktoren 0 ist. Also sind alleProdukte und damit die Summe 0.

2) Nehmen wir an, die k-te und die l-te Zeile seien gleich (k 6= l), dann giltAzk↔zl = A. Außerdem gilt nach Lemma 6 |A| = −|Azk↔zl|. Also |A| = −|A|und folglich |A| = 0. Analog zeigt man die Behauptung fur gleiche Spalten.

77

Preliminary version – 8. Januar 2002

Page 80: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

3) Wir fuhren den Beweis durch vollstandige Induktion uber die Zeilenzahln.Induktionsanfang: Fur n = 1 ist die Behauptung richtig, denn fur A = (a1,1)gilt nach Leibnizscher Definition |A| = a1,1.Induktionsvoraussetzung: Fur jede (n− 1)-reihige Matrix A mit ai,j = 0 furalle 1 ≤ i < j ≤ n− 1 gilt |A| = a1,1 · · · an−1,n−1.Induktionsbehauptung: Fur jede n-reihige Matrix A mit ai,j = 0 fur alle1 ≤ i < j ≤ n gilt |A| = a1,1 · · · an,n.Induktionsbeweis: A sei n-reihig. Entwicklung nach der n-ten Zeile liefert|A| =

∑nj=1 an,jAn,j = an,nAn,n = an,nDn,n, da an,j = 0 fur alle j = 1, . . . , n−

1 und An,n = (−1)2nDn,n = Dn,n. Die Unterdeterminante An−1,n−1 ist (n−1)-reihig und genugt der Induktionsvoraussetzung, also An,n = a1,1 · · · an−1,n−1.Einsetzen liefert die Induktionsbehauptung |A| = a1,1 · · · an,n.

4) Konnte man analog zu 3 beweisen. Andererseits hat aber AT die unter3 vorausgesetzte Gestalt und daher folgt die Behauptung auch sofort aus 3und Lemma 5.

5) Entwicklung von A nach der k-ten Zeile liefert

A =n∑j=1

(bk,j + ck,j)Ak,j =n∑j=1

bk,jAk,j +n∑j=1

ck,jAk,j

Die Summen auf der rechten Seite sind gerade die Entwicklungen der auf derrechten Seite der Behauptung auftretenden Matrizen nach der k-ten Zeile.Also gilt die behauptete Gleichheit.

6) Folgt durch Transponieren von A aus 5).

7) Entwickeln nach der k-ten Zeile zeigt

|Aλzk | =n∑j=1

λak,jAk,j = λ

n∑j=1

ak,jAk,j = |A| .

Analog folgt die Behauptung fur Vervielfachung einer Spalte.

8) Folgt sofort aus 7).

9) Anwendung von 5 zeigt |Azk+λzl| = |A|+ |B|, wobei sich B aus A dadurchergibt, daß man die k-te Zeile durch das λ-Fache der l-ten Zeile ersetzt.Mittels 7 kann der Faktor λ aus |B| herausgezogen werden. Die l-te unddie k-te Zeile der dabei entstehenden Determinante sind gleich, also ist dieseDeterminante und damit auch |B| nach 2 gleich 0. 2

78

Preliminary version – 8. Januar 2002

Page 81: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Wir haben beim Beweis von Eigenschaft 3 das Beweisprinzip der vollstandi-gen Induktion gewahlt, um diese wichtige Prinzip einmal aufzufrischen. Al-ternativ kann man die Eigenschaft aber auch wie folgt nachweisen. MitAusnahme der identischen Permutation gilt fur jede Permutation π ∈ Sn,daß wenigstens einer der Faktoren des Produktes a1,π(1) · · · an,π(n) gleich Nullist. Demnach ergibt sich aus der Leibnizschen Determinantendefinition |A| =sgn(1) a1,1 · · · an,n = a1,1 · · · an,n und wir sind fertig.Im Vorfeld von Folgerung 3 hatten wir angedeutet, daß man haufig durchUmformung erreichen kann, daß in einer Determinante mehr Nulleintragevorkommen. Diesem Zweck dienen vorrangig die Folgerungen 5) und 7).Ist R sogar ein Korper und nicht einfach nur ein kommutativer Ring mitEinselement, so kann man Determinanten mit Hilfe des Gaußschen Algorith-mus berechnen. Der Aufwand dafur ist nur von der KomplexitatsordnungO(n3), was sehr viel kleiner als O(n!) ist. Lemma 6 sowie die Eigenschaften7) und 9) aus Folgerung 3 zeigen auf, wie sich die Determinante einer Matrixbei Anwendung elementarer Zeilenoperationen verandert.Wendet man den Gaußalgorithmus genau nach der in Abschnitt 3.1.2 an-gegebenen Vorschrift an, so benotigt man gar keine Zeilenvervielfachungen.Die Determinante der letztendlich enthaltenen Zeilenstufenform stimmt alsobis auf das Vorzeichen mit der der Ausgangsmatrix uberein. Ob ein Vorzei-chenwechsel erfolgt, richtet sich nur danach, wieviele Zeilenvertauschungenim Laufe der Abarbeitung in Schritt 4 des Algorithmus ausgefuhrt wurden.Ist die Anzahl gerade, so haben Ausgangsmatrix und Zeilenstufenform diegleiche Determinante andernfalls unterscheiden sie sich gerade um den Fak-tor −1. Die Determinante einer quadratischen Matrix in Zeilenstufenformberechnet sich aber gemaß Folgerung 3(3) ganz einfach als das Produkt derHauptdiagonalelemente. Insbesondere ist die Determinante genau dann Null,wenn weniger als n Stufen vorliegen, die Matrix also einen Rang kleiner nbesitzt.

Merksatz 8 Sei A ∈ Kn,n eine n-reihige quadratische Matrix mit Eintragenaus einem Korper K.Es gilt |A| = 0 genau dann, wenn RangA < n.Ist B = (bi,j) eine zu A aquivalente Matrix in Zeilenstufenform, welche mitHilfe des in Abschnitt 3.1.2 angegebenen Gaußalgorithmus berechnet wurde,so gilt

|A| = (−1)p|B| = (−1)pb1,1 · · · bn,n ,

79

Preliminary version – 8. Januar 2002

Page 82: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

wobei p die Anzahl der bei der Berechnung von B vorgenommenen Zeilen-vertauschungen ist.Fuhrt man den Gaußalgorithmus in allgemeinerer Form durch, wobei man dieVerwendung beliebiger elementarer Zeilen- und Spaltenoperationen zulaßt, sogilt

|A| = (−1)p+q

λ1 · · ·λk|B| = (−1)p+q

λ1 · · ·λkb1,1 · · · bn,n ,

wobei p wieder die Anzahl der vorgenommenen Zeilenvertauschungen, q dieAnzahl der vorgenommenen Spaltenvertauschungen bezeichnen sowie k Ver-vielfachungen von Zeilen oder Spalten mit den von Null verschiedenen Fak-toren λ1, . . . , λk−1 sowie λk aufgetreten sind.

Da die n-reihigen quadratischen Matrizen mit Rang n besonders bedeutsamsind, fuhrt man fur sie einen Namen ein:

Definition 21 Besitzt eine n-reihige quadratische Matrix A den Rang n, sosagt man A hat Vollrang und nennt A eine regulare Matrix. Gilt dagegenRangA < n, so nennt man A eine singulare Matrix.

Gemaß dem obigen Merksatz ist die Regularitat der quadratischen Matrix A

gleichbedeutend zu der Bedingung

|A| 6= 0 .

Entsprechend ist eine quadratische Matrix A genau dann singular, wenn ihreDeterminante gleich 0 ist.

Ubungsaufgaben, Serie 6

16. Berechnen Sie die Determinante∣∣∣∣∣∣∣∣∣∣3 2 −1 5 6−3 0 1 0 12 2 1 1 04 0 0 0 11 2 3 0 2

∣∣∣∣∣∣∣∣∣∣.

80

Preliminary version – 8. Januar 2002

Page 83: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

17. Berechnen Sie die Determinante∣∣∣∣∣∣∣∣x 0 0 00 x− 2 3 00 3 x+ 1 20 0 1 x

∣∣∣∣∣∣∣∣ .18. Berechnen Sie in Abhangigkeit von der Zeilenzahl n ≥ 1 die Determi-

nante der Matrix A = (ai,j)i=1,... ,nj=1,... ,n

mit den reellen Eintragen

ai,j =

i+ j falls i+ j < n+ 1

1 falls i+ j = n+ 10 falls i+ j > n+ 1

.

5.2 Cramersche Regel zum Losen linearer Glei-

chungssysteme

In speziellen Situation kann lineare Gleichungssysteme

AxT = bT

auf direkte Weise mittels Determinanten losen. Bedingung ist, daß das Glei-chungssystem eine nullparametrige Losungsmenge besitzt, d.h. die Losungs-menge ist einelementig also ist das Gleichungssystem eindeutig losbar, unddaß seine Koeffizientenmatrix A quadratisch ist.Sei also A quadratisch n-reihig. Die Parameteranzahl sollte 0 sein, also giltn − RangA = 0. Es ergibt sich RangA = n, was gleichbedeutend zur Re-gularitat der Matrix A ist. Die Losbarkeit des Gleichungsystems ist klar,denn da die erweiterte Koeffizientenmatrix (A bT ) nur n Zeilen aufweist,muß Rang(A bT ) ≤ n gelten, wegen RangA = n ≤ Rang(A bT ) ergibt sichdamit RangA = Rang(A bT ) = n.Ai bezeichne die Matrix, die entsteht, wenn man die i-te Spalte der Koeffizi-entenmatrix A durch den Spaltenvektor bT der Absolutglieder ersetzt.Dann gilt

Satz 16 (Cramersche Regel) Sind A ∈ Kn,n eine n-reihige regulare Ma-trix und b ∈ Kn ein beliebiges n-Tupel von Absolutgliedern, dann hat daslineare Gleichungssystem

AxT = bT

81

Preliminary version – 8. Januar 2002

Page 84: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

die einelementige Losungsmenge

L =

{(|A1||A|

,|A2||A|

, . . . ,|An||A|

)}.

Beweis: Zunachst ist klar, daß das Gleichungssystem genau eine Losungbesitzt, diese sei (β1, β2, β3) ∈ Kn. Es gilt die Matrizengleichung

β1

a1,1...an,1

+ · · ·+ βn

a1,n...

an,n

=

b1...bn

Die Matrix Ai hat also die Gestalt

Ai =

a1,1 · · · a1,i−1

∑nj=1 βja1,j a1,i+1 · · · a1,n

......

......

...an,1 · · · an,i−1

∑nj=1 βjan,j an,i+1 · · · an,n

und aus Folgerung 3 ergibt sich fur ihre Determinante

|Ai| = βi|A| ,

folglich βi = |Ai||A| , wie im obigen Satz behauptet. 2

Betrachten wir abschließend noch ein Beispiel dazu:

3x+ 2y − z = 4

−x− y + 2z = −3

x+ z = 5

Es gilt

|A| =

∣∣∣∣∣∣3 2 −1−1 −1 21 0 1

∣∣∣∣∣∣ = 2 .

82

Preliminary version – 8. Januar 2002

Page 85: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Somit sind die Voraussetzungen der Cramerschen Regel erfullt, und die ein-deutig bestimmte Losung des Gleichungssystems ist

x =1

2

∣∣∣∣∣∣4 2 −1−3 −1 25 0 1

∣∣∣∣∣∣ =17

2

y =1

2

∣∣∣∣∣∣3 4 −1−1 −3 21 5 1

∣∣∣∣∣∣ = −25

2

z =1

2

∣∣∣∣∣∣3 2 4−1 −1 −31 0 5

∣∣∣∣∣∣ = −7

2

Merke: Fur Gleichungssysteme mit mehr als drei Variablen ist der Gaußalgo-rithmus der Cramerschen Regel, vorausgesetzt diese ist uberhaupt anwend-bar, im allgemeinen vorzuziehen.

5.3 Berechnung inverser Matrizen

Fruher (siehe Ubungsaufgabe 9) hatten wir einen Algorithmus zum Berech-nen der inversen Matrix einer n-reihigen regularen Matrix A angegeben. Da-zu war das parallele Losen von n Gleichungssystemen mit gleicher Koeffizi-entenmatrix A und Absolutgliedvektoren (0, . . . , 0, 1, 0, . . . , 0)T erforderlich.Eine alternative Berechnungsvorschrift, welche daruberhinaus nicht nur inKorpern sondern beliebigen kommutativen Ringen anwendbar ist, lautet:

Satz 17 Sei A ∈ Rn,n eine n-reihige quadratische Matrix mit Eintragenaus dem kommutativen Ring R mit Einselement. A besitzt genau dann eineinverse Matrix in Rn,n, wenn ihre Determinante in R invertierbar ist, d.h.|A| | 1.Insbesondere muß A also regular sein und wenn R sogar ein Korper ist, soreicht die Regularitat auch bereits fur die Existenz der inversen Matrix aus.Im Falle der Existenz der inversen Matrix A−1 von A gilt

A−1 =1

|A|(Ai,j)

T , (5.7)

oder in Worten, die inverse Matrix ist gleich die transponierte Matrix derAdjunkten von A vervielfacht mit dem Inversen der Determinante von A.

83

Preliminary version – 8. Januar 2002

Page 86: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Beweis: Daß die Bedingung der Invertierbarkeit der Determinanten |A| hin-reichend fur die Existenz von A−1 ist, wird klar, wenn man nachpruft, daß dierechte Seite von (5.7) tatsachlich die zu A inverse Matrix ist. Ihre Existenzist dann auf jeden Fall gesichert.Die Notwendigkeit der Bedingung wollen wir hier ohne Beweis festhalten.Wir weisen aber darauf hin, daß die Notwendigkeit nicht unmittelbar ausder Formel (5.7) folgt, denn es konnte ja jede Adjunkte Vielfaches der De-terminante |A| sein.Kommen wir nun schließlich zum Nachweis, daß die rechte Seite von (5.7) imFalle seiner Existenz tatsachlich die inverse Matrix von A darstellt.Der Eintrag bk,l, 1 ≤ k, l ≤ n, der Produktmatrix

A · (Ai,j)T = (bk,l)k=1,... ,nl=1,... ,n

lautet bk,l =∑n

r=1 ak,rAl,r. Im Falle k = l handelt es sich dabei genau umdie Entwicklung von |A| nach der k-ten Zeile, also gilt bk,k = |A| fur allek = 1, . . . , n. Gilt dagegen k 6= l, so kann man bk,l als Entwicklung derMatrix nach der l-ten Zeile auffassen, die entsteht, wenn man in A die l-te Zeile durch die k-te Zeile ersetzt. Diese Matrix enthalt also die k-te Zeiledoppelt und daher ist ihre Determinante 0. Somit bk,l = 0 fur alle 1 ≤ k, l ≤ nmit k 6= l. Zusammenfassend erkennt man sofort

A ·(

1

|A|(Ai,j)

T

)= En ,

also wie behauptet A−1 = 1|A| (Ai,j)

T . 2

Zum Abschluß betrachten wir wieder ein Beispiel dafur. A =

2 1 01 0 13 4 −4

Wegen |A| = −1 besitzt A wenigstens dann eine inverse Matrix, wenn wir dieEintrage als zum Korper der rationalen Zahlen, oder auch der reellen oderkomplexen Zahlen, betrachten. Wir erkennen aber sogar noch mehr. Wegen(−1) ∗ (−1) = 1 ist −1 bereits im Ring der ganzen Zahlen invertierbar.Aus diesem Grund besitzt A sogar dann eine inverse Matrix, wenn man dieEintrage als zu Z gehorig betrachtet, mit anderen Worten – in der inversenMatrix von A treten keine Bruche auf.

84

Preliminary version – 8. Januar 2002

Page 87: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Anwendung von Satz 17 liefert

A−1 =1

−1

∣∣∣∣0 14 −4

∣∣∣∣ −∣∣∣∣1 13 −4

∣∣∣∣ ∣∣∣∣1 03 4

∣∣∣∣−∣∣∣∣1 04 −4

∣∣∣∣ ∣∣∣∣2 03 −4

∣∣∣∣ −∣∣∣∣2 13 4

∣∣∣∣∣∣∣∣1 00 1

∣∣∣∣ −∣∣∣∣2 01 1

∣∣∣∣ ∣∣∣∣2 11 0

∣∣∣∣

T

=

4 −4 −1−7 8 2−4 5 1

.

5.4 Determinantensatz

In Abschnitt 4.1 hatten wir als Beispiel 9 die multiplikative Gruppe derregularen reellen (n, n)-Matrizen angegeben. Wir wollen uns nun einen wei-teren (eleganteren) Beweis der Gruppeneigenschaft anschauen.

Satz 18 (Determinantensatz) Die durch det A = |A| definierte Abbil-dung det : Kn,n → K ist ein surjektiver Homomorphismus multiplikativerMonoide. Insbesondere gilt die Gleichheit

det (A ·B) = det A ∗ det B fur alle A,B ∈ Kn,n .

Beweis: A kann mittels Zeilenvertauschungen und Addition von Vielfacheneiner Zeile zu einer anderen in eine obere Dreiecksmatrix, d.h. unterhalb derHauptdiagonalen stehen nur Nullen, uberfuhrt werden. Sollte die Anzahl dervorgenommenen Zeilenvertauschungen ungerade sein, so vervielfachen wirzum Schluß die erste Zeile der Ergebnismatrix noch mit −1, die letztendlichauf diese Weise erhaltene Dreiecksmatrix nennen wir A′. Nach Merksatz 8 giltdie Gleichheit |A| = |A′| der Determinanten. Elementare Zeilenoperationenentsprechen Matrixmultiplikationen von links, also gilt A′ = UA fur einegeeignete (n, n)-Matrix U.Analog uberfuhrt man B mittels elementarer Spaltenoperationen in eine obe-re Dreiecksmatrix B′ = BV mit der Eigenschaft |B| = |B′|. Das Matrix-produkt C = A′B′ ist wieder eine obere Dreiecksmatrix und das i-te Haupt-diagonalelement ci,i von C ist gleich dem Produkt a′i,ib

′i,i der i-ten Hauptdia-

gonalelemente von A′ und B′. Fur jede der oberen Dreiecksmatrizen A′,B′

und C berechnet sich die Determinante gerade als das Produkt der Haupt-diagonalelemente, also gilt |C| = |A′| ∗ |B′| = |A| ∗ |B|.Die Argumente aus Merksatz 8 konnen auch auf die Anwendung der durch U

und V beschriebenen elementaren Zeilen- und Spaltenumformungen auf die

85

Preliminary version – 8. Januar 2002

Page 88: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Produktmatrix AB angewandt werden. Daher gilt |C| = |UABV| = |AB|und insgesamt folgt die im Satz behauptete Operationsvertraglichkeit derDeterminantenabbildung mit der Matrizenmultiplikation.Die zweite Forderung an einen Monoidhomomorphismus besteht darin, daßdas Einselement auf das Einselement abgebildet wird, wegen |En| = 1 ist dasoffensichtlich erfullt.Die letzte noch offene Behauptung besteht in der Surjektivitat von det . Seiα ∈ K beliebig, ein Beispiel fur eine Matrix mit Determinante α ist die Ma-trix, die links oben den Eintrag α hat, deren weiteren Hauptdiagonaleintragealle 1 sind und die außerhalb der Hauptdiagonalen nur Nullen enthalt. 2

Insbesondere ergibt sich |A−1| = 1|A| fur alle regularen Matrizen A ∈ Kn,n.

Daraus und aus dem obigen Satz folgt, daß Produkte und Inverse regularerMatrizen wieder regular sind. Zieht man die Existenz des EinselementesEn und der inversen Matrix zu jeder regularen Matrix hinzu, so folgt un-ter Berucksichtigung der Assoziativitat der Matrizenmultiplikation, daß dieMenge der regularen Matrizen aus Kn,n eine multiplikative Gruppe bilden.Diese Gruppe bezeichnet man auch als Allgemeine lineare Gruppe und be-zeichnet sie mit Gl(n,K) (fur General linear group).Schrankt man die Determinantenabbildung auf die Teilmenge der regularenMatrizen aus Kn,n ein, so erhalt man einen Gruppenepimorphismus auf diemultiplikative Gruppe der von Null verschiedenen Elemente von K. Der Kerndes Gruppenepimorphismus, d.h. die Menge aller Matrizen aus Kn,n, derenDeterminante 1 ist, bildet gemaß Satz 11(v) eine Untergruppe der Gl(n,K).Man nennt sie Spezielle lineare Gruppe und bezeichnet sie mit Sl(n,K) (furSpecial linear group).

5.5 Algebraische Struktur der Losungsmenge

eines linearen Gleichungssystems

Wir betrachten eine Matrix A ∈ Km,n und ein m-Tupel b ∈ Km von Ele-menten aus dem Korper K. Die Losungsmenge L des homogenen linearenGleichungssystems AxT = OT bildet mit der komponentenweisen Additioneine abelsche Gruppe (fur den Spezialfall K = R siehe auch Ubungsaufgabe10).Am einfachsten laßt sich diese Aussage dadurch nachweisen, daß man dasUntergruppenkriterium 9 auf L als Teilmenge der abelschen Gruppe (Kn,+)

86

Preliminary version – 8. Januar 2002

Page 89: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

anwendet. O ist Losung jedes homogenen linearen Gleichungssystems, alsoist L nicht leer. Fur beliebige a, c ∈ L gilt A(a − c)T = AaT − AcT =OT −OT = OT , also a− c ∈ L.Neben der Gruppeneigenschaft besitzt die Losungsmenge L eines homogenenlinearen Gleichungssystems noch eine weitere strukturelle Eigenschaft. Furalle λ ∈ K und a ∈ L ist auch das skalare Vielfache λa Losung des Systems.Es gilt

A(λa)T = λ(AaT

)= λOT = OT .

Eine derartige algebraische Struktur ist fur eine Vielzahl von Anwendungen,z.B. in der Robotertechnik, der Kodierungstheorie, der Kryptographie undder Physik, von großer Bedeutung. Man fuhrt daher einen eigenen Namenfur sie sein.

Definition 22 Sei K ein Korper. Unter einem K-Vektorraum2 V verstehtman eine additiv geschriebene abelsche Gruppe uber welcher der Korper K

operiert, d.h. zusatzlich zur Gruppenoperation + gibt es eine skalare Multi-plikation · : K×V→ V mit den Eigenschaften

1. 1 · a = a fur alle a ∈ V,

2. λ · (µ · a) = (λµ) · a fur alle λ, µ ∈ K und a ∈ V (Assoziativgesetz),

3. λ · (a+ b) = λ · a+ λ · b fur alle λ ∈ K und a, b ∈ V (Distributivgesetz),

4. (λ+µ) ·a = λ ·a+µ ·a fur alle λ, µ ∈ K und a ∈ V (Distributivgesetz)

Die Elemente von V nennt man Vektoren.

Die skalare Multiplikation nennt man auch Vervielfachung. Dabei handelt essich nicht um eine Operation von V, denn ihr Vorbereich ist keine Potenzvon V, sondern es geht neben einem Vektor auch ein Korperelement in dieAbbildung · ein. In diesem Sinne treffen die Bezeichnungen Assoziativ- undDistributivgesetz fur die Eigenschaften 2–4 nicht ganz zu, die Begriffe stellenaber naheliegende Verallgemeinerungen dar. Man beachte, daß der Ausdrucka · λ streng genommen nicht gebildet werden kann, da das erste Argumentvon · aus K und das zweite aus V sein muß.

2Wenn der Korper K aus dem Kontext heraus klar ist, dann sprechen wir haufigabkurzend von einem Vektorraum.

87

Preliminary version – 8. Januar 2002

Page 90: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Will man einen Vektorraum als abstrakte algebraische Struktur darstellen,so muß man zu inhomogenen Strukturen, d.h. solchen mit mehr als einerTragermenge, ubergehen. Man kann dann schreiben V = ({V,K} ; +, ·).Die Angabe eines Typs (2, 2) reicht zur Beschreibung der Abbildungen nichtmehr aus. An ihre Stelle tritt die Signatur (VVV,KVV), welche nicht nurdie Anzahl der Argument angibt, sondern auch die Typen der Argumenteund des Funktionswertes beschreibt.Was passiert nun aber, wenn man ein inhomogenes Gleichungssystem mitrechter Seite bT betrachtet? Fur b 6= O ist die Differenz zweier Losungena, c von AxT = bT sicher keine Losung dieses inhomogenen linearen Glei-chungssystems, denn analog zu oben uberzeugt man sich von A(a − c)T =AaT − AcT = bT − bT = OT . Aber man stellt fest, die Differenz zweierLosungen des inhomogenen linearen Gleichungssystems

AxT = bT

ist in jedem Fall Losung des zugeordneten homogenen linearen Gleichungs-systems

AxT = OT .Ist c eine beliebige Losung des inhomogenen Systems, so laßt sich nach derobigen Uberlegung jede weitere Losung c′ des inhomogenen Systems als Sum-me c′ = c + a aus c und einer geeigneten Losung a (= c′ − c) des homogenenSystems darstellen. Umgekehrt ist die Summe c + a fur jede Losung a deshomogenen Systems eine Losung des inhomogenen Systems. Daraus ergibtsich der folgende

Merksatz 9 Ein inhomogenes lineares Gleichungssystem

AxT = bT

laßt sich losen, indem man zunachst die Losungsmenge Lhom des zugehorigenhomogenen linearen Gleichungssystems

AxT = OT

berechnet, dann eine spezielle Losung c des inhomogenen Gleichungssystemsermittelt (sofern es eine solche Losung c uberhaupt gibt, andernfalls gilt aberohnehin Linhom = ∅) und daraus die Losungsmenge

Linhom = {c + a | a ∈ Lhom}

des inhomogenen Systems zusammensetzt.

88

Preliminary version – 8. Januar 2002

Page 91: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Der Satz zeigt, auch wenn die Losungsmenge eines inhomogenen linearenGleichungssystems selbst kein Vektorraumist, so ist sie doch eng mit einemVektorraum verbunden, da die Menge aller moglichen Differenzen zweierLosungen einen solchen bildet. Etwas allgemeiner definiert man derartigeRaume:

Definition 23 Unter einem affinen Raum A uber dem Korper K verstehtman ein Paar (A,V) bestehend aus einer Menge A von Punkten und einemK-Vektorraum V, die folgendermaßen zusammenhangen:

1. jedes geordnete Paar (P,Q) ∈ A2 von Punkten bestimmt eindeutig

einen Vektor aus V, diesen bezeichnet man mit−→PQ,

2. zu jedem Punkt P ∈ A und jedem Vektor v ∈ V gibt es einen Punkt

Q ∈ A, so daß−→PQ = v gilt,

3. fur drei Punkte P,Q,R gilt stets−→PQ+

−→QR =

−→PR.

Anmerkung: Zuweilen werden Bezeichner fur Vektoren in der Literatur mitPfeilen uberstrichen. Wir wollen das hier nicht tun, da die Vektoreigenschaftbereits aus der Zugehorigkeit zu einem Vektorraum deutlich wird. So schrei-ben wir in Eigenschaft 2) v und nicht −→v . Wegen v ∈ V handelt es sichdennoch um einen Vektor. Anders verhalt es sich dagegen mit der Schreib-

weise−→PQ aus Eigenschaft 1). Hier dient die Pfeiluberstreichung im Grunde

genommen als Symbol einer Abbildung −→ : A× A→ V .

Uberlegen wir uns, daß die Losungsmenge Linhom eines inhomogenen linearenGleichungssystemen in n Variablen uber dem Korper K tatsachlich ein affinerRaum gemaß dieser Definition ist. Dazu setzen wir A = Linhom und V =Lhom. Zwei beliebigen Losungen a, c ∈ Linhom = A ordnen wir den Vektor−→ac := c−a ∈ V = Lhom zu. Dabei steht auf der rechten Seite die gewohnlicheSubtraktion von Elementen aus Kn. Auf diese Weise haben wir der Forderung1 Genuge getan. Andererseits ist fur beliebige a ∈ Linhom und v ∈ Lhom

auch c := a + v ∈ Linhom, wobei sich die Summe wiederum auf Kn bezieht.Wegen −→ac = (a + v) − a = v gemaß der Rechenregeln in Kn ist somit auchEigenschaft 2 erfullt. Betrachten wir schließlich die Punkte a, c, d ∈ Linhom.Mittels der Rechenregeln in Kn uberzeugen wir uns leicht von der Gultigkeitder Gleichung −→ac +

−→cd = (c− a) + (d− c) = d− a =

−→ad, also Eigenschaft 3.

89

Preliminary version – 8. Januar 2002

Page 92: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

5.6 Geometrische Deutung der Losungsmen-

ge eines linearen Gleichungssystems

Ein geordnetes Paar reeller Zahlen kann als Punkt der Ebene gedeuted wer-den, indem man es als Koordinaten bezuglich eines fest gewahlten kartesi-schen Koordinatensystems der Ebene auffaßt. In diesem Sinne beschreibtdie Menge R2 die Punkte der reellen Ebene. Ebenso kann man Tripel reel-ler Zahlen als Punkte des Raumes deuten, indem man sie als Koordinatenbezuglich eines festen kartesischen Koordinatensystems des Raumes ansieht.Allgemein beschreiben die Elemente der Menge Rn durch Deutung als Ko-ordinaten bezuglich eines festen kartesischen Koordinatensystems die Punk-te des n-dimensionalen Raumes. Aus diesem Grund bezeichnet man denn-dimensionalen Raum auch mit Rn. Fur n ≥ 4 geht die geometrische An-schauung bereits verloren, noch weiter lost man sich davon, wenn man RaumeKn fur beliebige Korper K in die Untersuchung einbezieht. Dennoch habenauch diese interessante Anwendungen, z.B. fur K = Zp in der Kodierungs-theorie. Wenngleich wir die allgemeinere Schreibweise K fur den zugrunde-liegenden Korper wahlen, so konnen Sie sich, wenn nicht ausdrucklich andershervorgehoben, immer die reellen Zahlen als Grundkorper vorstellen. Damitentsprechen die geometrischen Objekte im 1,2 und 3-dimensionalen Raumtatsachlich der ublichen Anschauung.Die Nullstellenmenge eines Polynoms in n Variablen mit Koeffizienten ausK ist eine Teilmenge des n-dimensionalen Raumes Kn. Die Losungsmenge Ldes polynomialen (nicht unbedingt linearen) Gleichungssystems

p1(x1, . . . , xn) = 0...

pm(x1, . . . , xn) = 0

besteht gerade aus dem Durchschnitt der Nullstellengebilde der Polynomep1, . . . , pm ∈ K[x1, . . . , xn]. Auf diese Weise lassen sich eine Vielzahl geome-trischer Objekte durch eine Menge polynomialer Gleichungen beschreiben,deren Losungsmenge gerade genau aus den Punkten des Objektes besteht.Derartige geometrische Objekte nennt man auch algebraische Punktmengen.Betrachten wir nun die algebraischen Mengen, die als Losungsmengen li-nearer Gleichungssysteme, d.h. alle Polynome p1, . . . , pm sind vom Grad 1,auftreten konnen. Wir wollen uns auf die Untersuchung nichtleerer Losungs-

90

Preliminary version – 8. Januar 2002

Page 93: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

mengen beschranken. Da es zu jedem linearen Gleichungssystem ein aquiva-lentes Gleichungssystem (also insbesondere mit gleicher Losungsmenge) gibt,welches Zeilenstufenform aufweist, konnen wir uns auf die Diskussion linearerGleichungssysteme in Zeilenstufenform beschranken.Zunachst einmal ist intuitiv klar, daß die Anzahl der Parameter der Losungs-menge von entscheidender Bedeutung fur die geometrische Gestalt der durchL beschriebenen Menge ist. Ist die Parameteranzahl 0, so ist das geometri-sche Objekt ein einzelner Punkt des Kn. Auch den Fall der n-parametrigenLosungsmenge konnen wir schnell abhandeln. n Parameter bedeutet, derRang der erweiterten Koeffizientenmatrix ist 0, also lautet das Gleichungs-system einfach 0 = 0 und der gesamte Raum R

n ist die Losungsmenge desSystems. Den nichttrivialen parametrigen Fall wollen wir uns anhand einigerSpezialfalle verdeutlichen.Beginnen wir dazu mit dem einfachen Fall n = 2 und einem Parameter.Ein lineares Gleichungssystem mit diesen Eigenschaften in Zeilenstufenformbesitzt nur eine Stufe, besteht also nur aus einer von 0 = 0 verschiedenenGleichung. Das System hat somit die Gestalt

αx + βy = γ

und wenigstens einer der Koeffizienten α oder β ist von Null verschieden.Das beschriebene Objekt ist eine Gerade in der Ebene.Im Fall n = 3 konnen 1 oder 2 Parameter auftreten. Die Anzahl dervon 0 = 0 verschiedenen Gleichungen in einer Zeilenstufenform ist gleichRang(A bT ) = n − Parameteranzahl. Also entsprechen 2 Parameter einerGleichung und 1 Parameter zwei Gleichungen. Eine Gleichung beschreibteine Ebene im Raum. Befinden sich zwei Gleichungen in Zeilenstufenform,so beschreiben sie nichtparallele Ebenen und diese schneiden sich stets in ei-ner Geraden, diese wird gerade durch die einparametrige Losungsmenge desGleichungssystems beschrieben.Allgemein gilt, eine m-parametrige Losungsmenge beschreibt ein m-dimen-sionales geometrisches Objekt. Die Losungsmenge eines linearen Gleichungs-system ist stets ein ungekrummtes geometrisches Objekt. So handelt es sichbei eindimensionalen Objekten nur um Geraden und nicht um gekrumm-te Kurven. Die zweidimensionalen geometrischen Objekte sind Ebenen undkeine gekrummten Flachen. Fur hohere Parameterzahlen sind nicht zuletztaufgrund der fehlenden geometrischen Anschauung keine speziellen Begriffegebrauchlich. Nur fur (n − 1)-parametrige Losungsmengen, also fur solche,

91

Preliminary version – 8. Januar 2002

Page 94: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

die zu Zeilenstufenformen bestehend aus einer einzigen Gleichung

α1x1 + · · ·+ αnxn = β ,

wobei wenigstens ein αj von Null verschieden ist, gehoren, fuhrt man denBegriff der Hyperebene ein. Dabei folgt man der Anschauung, daß es sichum eine Verallgemeinerung einer Ebene im Raum handelt. Die Verallgemei-nerung besteht darin, daß es sich um ein lineares Objekt handelt, dessenDimension genau um 1 niedriger als die des Gesamtraumes ist.Auf diese Weise erhalten wir jeweils zwei Moglichkeiten zur Beschreibungungekrummter algebraischer Mengen. Eine Moglichkeit ist die Angabe eineslinearen Gleichungssystems mit genau dieser Losungsmenge, die zweite istdie direkte Angabe der Losungsmenge. Erinnern wir uns an die in Merksatz4 angegebenene (n− r)-parametrige Losungsmenge

L =

{(b1 −

n∑j=r+1

a1,jβj, . . . , br −n∑

j=r+1

ar,jβj, βr+1, . . . , βn

)|

βr+1, . . . , βn ∈ R}

des linearen Gleichungssystems AxT = bT , wobei sich die erweiterte Koef-fizientenmatrix (A bT ) in Dreiecksgestalt (3.11) befindet. Das allgemeineLosungstupel kann unter Verwendung der Rechenregeln des Kn als Summeder Gestalt

b1...br00...0

T

− βr+1

a1,r+1...

ar,r+1

10...0

T

− · · · − βn

a1,n...ar,n0...01

T

(5.8)

aufgeschrieben werden. Durch die an das Gleichungsystem gestellten Bedin-gungen, tragt diese Darstellung einige spezielle Zuge. Daruber hinaus ist dieDarstellung als Spaltenvektoren ohne Angabe der Transponierung ublich.Der Grund fur die Verwendung von Spaltenvektoren besteht in der besse-ren Uberschaubarkeit der Koordinaten des allgemeinen Losungstupels in der

92

Preliminary version – 8. Januar 2002

Page 95: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Summendarstellung. Dieser Vereinbarung werden wir in der Folge dadurchRechnung tragen, daß wir die Elemente der Losungsmengen Lhom und Linhom

transponieren werden, da diese vereinbarungsgemaß Zeilenvektoren sind.Allgemein kann man ein lineares d = (n − r)-dimensionales geometrischesObjekt in der Form

xT = aT + λ1vT1 + . . .+ λdv

Td (5.9)

darstellen. Man spricht auch von der Parameterdarstellung des Objektes.Gemaß Definition 23 werden wir die durch die Losungsmenge eines linea-ren Gleichungssystems beschreibbaren geometrischen Objekte auch als affineTeilraume des Kn bezeichnen. In der Parameterdarstellung bezeichnet a einbeliebiges Element aus Linhom, d.h. einen beliebigen, auf dem Objekt liegen-den Punkt und die v1, . . . , vd sind Vektoren3 aus Lhom, sie beschreiben dieRichtungen, in denen sich das Objekt vom Punkt a aus ausdehnt. Schließlichsind λ1, . . . , λd reelle Parameter und x der Koordinatenvektor (x1, . . . , xn).Einsetzen reeller Werte fur die Parameter liefert in eineindeutiger Weise diePunkte des affinen Teilraumes Linhom.An der Parameterdarstellung wird noch einmal die Aussage von Merksatz9 deutlich. a ist spezielle Losung des inhomogenen Systems und λ1v

T1 +

. . . + λdvTd durchlauft die allgemeine Losung des homogenen Systems. Aus

Sicht des affinen Losungsraumes des inhomgenen Gleichungssystems ist a einPunkt, wahrend die v1, . . . , vd Vektoren sind. Sowohl Punkte als auch Vek-toren gehoren zur Menge Kn. Folglich lassen sich beide Typen von Objektenals Koordinaten eines Punktes bezuglich eines kartesisches Koordinatensy-stems auffassen und auf diese Weise als Punkt des n-dimensionalen Raumeskenntlich machen. Bezogen auf ein Punkt aus Linhom ist diese Darstellungals Punkt des Raumes sicher zufriedenstellend. Die Natur eines Vektors ausLhom wird dagegen nur unzureichend reflektiert. Man ordnet einem n-Tupeldaher nicht nur den Punkt P mit diesen Koordinaten sondern daruberhin-aus auch die gerichtete Strecke vom Koordinatenursprung zum Punkt P zu.

Diese nennt man auch den Ortsvektor−→OP von P . Ein Vektor v ∈ Lhom kann

als Ortsvektor v =−→OP des Punktes P mit den Koordinaten von v graphisch

dargestellt werden. Ebenso wird der Vektor aber auch durch jede gerich-tete Strecke, die durch Parallelverschiebung aus diesem Ortsvektor ensteht,reprasentiert. Ein Vektor v ∈ Lhom ist also eine Aquivalenzklasse paralle-

3Die Vektoren mussen linear unabhangig sein, wir werden spater auf den Inhalt unddie Bedeutung dieser Bedingung zu sprechen kommen.

93

Preliminary version – 8. Januar 2002

Page 96: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

ler gerichteter Strecken gleichen Richtungssinnes und gleicher Lange und derOrtsvektor des Punktes mit den Koordinaten von v ist nur ein Reprasentantdavon. Das folgende Bild soll die beschriebenen Sachverhalte verdeutlichen.Zum Punkt P wird der Vektor v addiert, beide durchgezogenen Pfeile re-prasentieren den Vektor v. Die gepunkteten Pfeile sind die Ortsvektoren derPunkte P beziehungsweise Q = P + v. Den Punkt P + v erhalt man alsEndpunkt, wenn man den zu v gehorigen Ortsvektor so verschiebt, daß seinAnfangspunkt auf P liegt. Der Punkt R und der Vektor v werden durch dasgleiche Tupel aus Kn beschrieben.

R mit−→OR = v

P

Q = P + vv

v

Die Darstellung eines linearen geometrischen Objektes durch ein beschreiben-des Gleichungssystem nennt man implizite Darstellung, im Gegensatz dazubezeichnet man die Parameterdarstellung auch als explizite Darstellung.Ein Vorteil der impliziten Darstellung besteht darin, daß man leicht denDurchschnitt so gegebener geometrischer Objekte ermitteln kann. Eine Be-schreibung des Durchschnitts erhalt man einfach durch Vereinigung der bei-den Gleichungsmengen.Die explizite Darstellung besitzt vor allem den Vorteil, daß man das Objektleicht durch Variation der Parameter “durchlaufen kann”. Das ist besondersbei der graphischen Darstellung mittels Computer von Nutzen.Beide Darstellungen lassen sich ineinander umrechnen. Den Weg von derimpliziten zur expliziten Darstellung weist uns Merksatz 4. Den umgekehr-

94

Preliminary version – 8. Januar 2002

Page 97: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

ten Weg, man konnte dazu sagen, daß man zu gegebener Losungsmenge einpassendes Gleichungssystem sucht, wollen wir ohne Beweis angeben. Manstellt (5.9) zu

−λ1vT1 − . . .− λdvTd + xT = aT

um und faßt es als lineares Gleichungssystem in den Variablen λ1, . . . , λdsowie x1, . . . , xn auf. Dabei werden den λi die ersten d Spalten und den xjdie Spalten d + 1 bis d + n zugeordnet. Mittels Gaußalgorithmus uberfuhrtman das Gleichungssystem ohne Verwendung von Spaltenvertauschungen ineine aquivalente Zeilenstufenform. Den unteren Zeilen des Gleichungssystemsentsprechen Gleichungen der Form α1x1 + . . . + αnxn = β, die Variablen λikommen also darin nicht mehr vor. Die Menge dieser Gleichungen beschreibtden gegebenen affinen Raum implizit.Betrachten wir dazu ein abschließendes Beispiel. Die Parameterdarstellungxy

z

=

10−1

+ s

2−13

+ t

140

beschreibt eine Ebene im Raum. Zu Losen ist das lineare Gleichungssystemmit der erweiterten Koeffizientenmatrix −2 −1 1 0 0 1

1 −4 0 1 0 0−3 0 0 0 1 −1

Die eingezeichneten vertikalen Linien dienen nur der Verdeutlichung der Va-riablengruppierung und Absolutglieder. Die Zeilenstufenform enthalt 2 Glei-chungen mit Stufenecken in der 1. beziehungsweise 2. Spalte sowie die Glei-chung

4x− y − 3z = 7 .

Letztere beschreibt die Ebene implizit.

5.7 Lagebeziehungen von Geraden und Ebe-

nen im Raum

Betrachtet man Geraden in der Ebene, so gibt es drei prinzipielle Moglichkeitder Lage zueinander. Die Geraden konnen sich in (genau) einem Punktschneiden, zusammenfallen oder keine gemeinsamen Punkte haben.

95

Preliminary version – 8. Januar 2002

Page 98: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Die Falle des Zusammenfallens und keine gemeinsamen Punkte aufweisenhaben eines gemeinsam, die Ausdehnung beider Geraden verlauft in der glei-chen Richtung. Zwei Geraden

g1 : xT = aT1 + λvT1g2 : xT = aT2 + λvT2

dehnen sich genau dann in der gleichen Richtung aus, wenn es ein µ ∈ K mitv1 = µ · v2 gibt.Liegt der Punkt a1 auf g2, so folgt g1 = g2. Andernfalls schneiden sich diebeiden Geraden uberhaupt nicht und es liegt die Parallelitat g1‖g2 vor.Etwas vielfaltiger verhalt es sich mit zwei Geraden im dreidimensionalenRaum. In diesem Fall kann es zwei Ursachen dafur geben, daß sich zweiGeraden nicht schneiden. Zum einen die bereits im zweidimensionale vorge-fundene Tatsache g1‖g2, also v1 = µ · v2 fur ein µ ∈ K, und zum zweiten dieWindschiefheit der beiden Geraden. Schaut man aus geeigneter Richtungauf die beiden Geraden, so erhalt man den Eindruck, daß sie sich schnei-den. Allerdings sind die Geraden im scheinbaren Schnittpunkt in der drittenDimension versetzt, die eine verlauft also hinter der anderen.Weitere als diese vier Moglichkeiten der Lage von Geraden kommen auch inhoheren Dimensionen nicht hinzu. Wir nennen zwei Vektoren v und v′ ausKn\{O} zueinander parallel (Bezeichnung v‖v′), wenn ein µ ∈ K mit v = µv′

existiert.

Merksatz 10 Fur je zwei Geraden

g1 : xT = aT1 + λvT1g2 : xT = aT2 + λvT2

gilt eine der folgenden vier Bedingungen

1. g1‖g2 genau dann, wenn v1‖v2,

2. g1 = g2 genau dann, wenn g1‖g2 und g1 ∩ g2 6= ∅ 4

3. g1 und g2 schneiden sich in einem Punkt, d.h. g1 ∩ g2 = {a}. Das istgenau dann der Fall, wenn v1 6 ‖v2 und g1 ∩ g2 6= ∅,

4. g1 und g2 sind windschief, d.h. v1 6 ‖v2 und g1 ∩ g2 = ∅.4aquivalent zu g1 ∩ g2 6= ∅ ist in diesem Falle die Bedingung a1 ∈ g2

96

Preliminary version – 8. Januar 2002

Page 99: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Man beachte, 2 ist ein Spezialfall von 1.Zwei Ebenen im Raum zeigen ein ahnliches Verhalten wie Geraden in derEbene.

Merksatz 11 Zwei Ebenen

e1 : xT = aT1 + λvT1 + µwT1

e2 : xT = aT2 + λvT2 + µwT2

im Raum fallen zusammen, sind parallel zueinander oder schneiden sich ineiner Gerade.

Die Richtigkeit dieses Satzes ist zunachst aus der Anschauung heraus klar,auf einen Beweis werden wir spater noch einmal eingehen.Allgemein definiert man die Parallelitat affiner Raume als

Definition 24 Zwei affine Raume (A1,V1) und (A2,V2) nennt man paral-lel, wenn wenigstens eine der Inklusionen V1 ⊆ V2 oder V2 ⊆ V1 gilt.

Diese Definition erlaubt es uns, auch die Lagebeziehungen einer Ebene undeiner Gerade zueinander zu beschreiben.

Merksatz 12 Eine Gerade

g : xT = aT1 + λvT1

und eine Ebene

e : xT = aT2 + λvT2 + µwT2

sind zueinander parallel, die Gerade liegt vollstandig in der Ebene oder dieGerade durchstoßt die Ebene in einem Punkt.

5.8 Durchschnitte linearer geometrischer Ob-

jekte

Je nachdem, in welcher (expliziter oder impliziter) Form zwei lineare geome-trische Objekte gegeben sind, gibt es verschiedene Moglichkeiten der moglichstschnellen Beschreibung ihres Durchschnitts in expliziter oder impliziter Form.

97

Preliminary version – 8. Januar 2002

Page 100: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Sind beide Objekte implizit durch ein lineares Gleichungssystem, dessenLosungsmenge sie graphisch darstellen, gegeben, so ist die Vereinigung beiderGleichungssysteme eine implizite Beschreibung des Durchschnitts.Ist ein Objekt implizit durch ein lineares Gleichungssystem und eines explizitin Form einer Parameterdarstellung gegeben, dann setzt man die Parameter-darstellung des zweiten in die Gleichungen des ersten ein und erhalt aufdiese Weise ein lineares Gleichungssystem in den Parametern des zweitenSystems. Setzt man die allgemeine Losung dieses Gleichungssystems in dieParameterdarstellung des zweiten Objektes ein, so erhalt man eine Parame-terdarstellung des Durchschnitts.Schließlich konnen beide Objekte durch eine Parameterdarstellung gegebensein. Dann setzt man die einzelnen Komponenten beider Darstellungengleich. Dabei ist unbedingt zu beachten, daß zuerst die Namen der Parame-ter beider Objekte disjunkt gemacht werden mussen. Man erhalt ein Systembestehend aus genau n linearen Gleichungen in der Vereinigung der Para-meter beider Objekte als Variablen. Nach Uberfuhren in Zeilenstufenformmittels Gaußalgorithmus erhalt man Gleichungen (diese entsprechen den un-teren Stufen), die nur von den Parametern des zweiten Objektes abhangen.Es lassen sich also gewisse Parameter des zweiten Objektes durch die ande-ren Parameter dieses Objektes ausdrucken. Einsetzen dieser Darstellungenin das zweite Objekt liefert schließlich eine Parameterdarstellung des Durch-schnitts.Naturlich ware es auch moglich, die Darstellungen vor der Durchschnittsbe-rechnung erst in eine gewunschte Form umzuformen. Die oben beschriebenenAlgorithmen sind jedoch die jeweils schnellsten.

Ubungsaufgaben, Serie 7

19. Berechnen Sie die Vandermondeschen Determinanten

(a)

∣∣∣∣∣∣∣∣1 1 1 1x y z ux2 y2 z2 u2

x3 y3 z3 u3

∣∣∣∣∣∣∣∣

98

Preliminary version – 8. Januar 2002

Page 101: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

(b)

∣∣∣∣∣∣∣∣∣∣∣

1 1 · · · 1x1 x2 · · · xnx2

1 x22 · · · x2

n...

......

xn−11 xn−1

2 · · · xn−1n

∣∣∣∣∣∣∣∣∣∣∣20. Uberfuhren Sie die Parameterdarstellung

xyzu

=

1010

+ λ1

2101

+ λ2

0321

in eine implizite Darstellung des gleichen affinen Raumes.

21. Untersuchen Sie die Lage der Geraden g1, g2, g3 und g4 zueinander auf

(a) Ubereinstimmung,

(b) Parallelitat,

(c) Schnitt in einem Punkt,

(d) Windschiefheit.

g1 :

xyz

=

111

+ λ

210

g2 :

xyz

=

143

+ λ

21−1

g3 :

xyz

=

−101

+ λ

−4−22

g4 :

xyz

=

741

+ λ

−2−10

99

Preliminary version – 8. Januar 2002

Page 102: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 6

Vektorraume und lineareAbbildungen

Im Zusammenhang mit der Struktur der Losungsmenge L eines homogenenlinearen Gleichungssystems haben wir im vorangegangen Kapitel den Be-griff des K-Vektorraumes eingefuhrt. Wir erinnern uns, ein Vektorraum Vwar eine additiv geschriebene abelsche Gruppe uber der ein Korper operiert.Beispiele fur K-Vektorraume sind:

1. Losungsmengen homogener linearer Gleichungssysteme uber K,

2. der Raum Kn der n-Tupel der Elemente von K,

3. insbesondere ist der Korper K selbst ein K-Vektorraum,

4. der Raum Kn,m der (n,m)-Matrizen mit Eintragen aus K,

5. der Polynomring K[x1, . . . , xn],

6. die Menge alle Polynome aus K[x1, . . . , xn], welche einen Grad kleiner(beziehungsweise kleiner oder gleich) einem festen d haben.

7. die komplexen Zahlen C sind nicht nur ein C-Vektorraum, sondern z.B.auch ein R- sowie ein Q-Vektorraum.

Vektoren konnen also addiert und mit Elementen aus K vervielfacht werden.Sind v1, . . . , vm ∈ V Vektoren und α1, . . . , αm ∈ K Korperelemente, dannnennt man den Vektor α1v1 +α2v2 + · · ·+αmvm eine Linearkombination derVektoren v1, . . . , vm. Ein zentraler Begriff der Theorie der Vektorraume istdie lineare Unabhangigkeit.

100

Preliminary version – 8. Januar 2002

Page 103: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6.1 Lineare Unabhangigkeit von Vektoren

Definition 25 Sei V ein Vektorraum uber dem Korper K. Vektoren v1, . . . , vm ∈V heißen linear unabhangig, wenn die Gleichung

α1v1 + α2v2 + · · ·+ αmvm = O

nur die triviale Losung α1 = α2 = · · · = αm = 0 hat. Man sagt dazuauch, daß {v1, . . . , vm} ein System linear unabhangiger Vektoren ist. Dazuist anzumerken, daß die Anzahl der Vorkommen eines Vektors unter denv1, . . . , vm fur die lineare Unabhangigkeit bedeutsam ist und beachtet werdenmuß.1

Eine beliebige Menge U ⊆ V von Vektoren heißt linear unabhangig, wennjede endliche Teilmenge von U linear unabhangig ist.Ist U ⊆ V kein linear unabhangiges System, so spricht man von einem linearabhangigen System.

Ist U linear abhangig, so ist auch jede Obermenge U ′ ⊇ U linear abhangig.Umgekehrt ist mit U auch jede Teilmenge U ′ ⊆ U linear unabhangig.Die Menge {O} ist wegen 1 · O = O stets linear abhangig. Nach der obigenBemerkungen ist also auch jede den Nullvektor enthaltende Menge U ⊆ Vlinear abhangig. Kommt ein Vektor doppelt in der Folge v1, . . . , vm vor, d.h.es gibt i und j so, daß vi = vj und 1 ≤ i < j ≤ m, dann sind die Vektorenv1, . . . , vm linear abhangig, als ein Beispiel einer nichttrivialen Losung kannman αi = 1, αj = −1 und αk = 0 fur alle k 6= i, j wahlen.

Lemma 7 Ist U ein linear unabhangiges System und U∪{v} linear abhangig,dann laßt sich der Vektor v als Linearkombination

v = α1u1 + · · ·+ αnun

von Elementen u1, . . . , un ∈ U darstellen.

Beweis: Aus der linearen Abhangigkeit von U ∪ {v} folgt die Existenz vonElementen u1, . . . , un ∈ U so daß {u1, . . . , un, v} linear abhangig ist, also hat

α1u1 + · · ·+ αnun + βv = O (6.1)

1Streng genommen handelt es sich also nicht um Mengen sondern um sogenannte Mul-timengen linear unabhangiger Vektoren.

101

Preliminary version – 8. Januar 2002

Page 104: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

eine nichttriviale Losung, d.h. es gibt eine Losung, in der wenigstens eine derZahlen α1, . . . , αn oder β von Null verschieden ist. Angenommen β = 0, danngilt bereits α1u1 + · · · + αnun = O und wenigstens einer der Koeffizientenαi ist von Null verschieden. Damit ist {u1, . . . , un} und folglich auch dieObermenge U linear abhangig, im Widerspruch zur Voraussetzung. Alsomuß β 6= 0 gelten, damit laßt sich Gleichung (6.1) nach v auflosen und dieBehauptung ist gezeigt. 2

6.2 Untervektorraume und Basen

Analog zu fruheren Typen algebraischer Strukturen erklart man

Definition 26 Sei V ein K-Vektorraum und U ⊆ V eine Teilmenge von V .U heißt Untervektorraum (oder linearer Teilraum) von V , falls U ebenfallsein K-Vektorraum ist.Sei M ⊆ V eine Teilmenge von V , dann nennt man den kleinsten M um-fassenden Untervektorraum von V die lineare Hulle Span(M) von M . Mannennt Span(M) auch den von der Menge M erzeugten (oder aufgespannten)Vektorraum.Sei U ⊆ V ein Untervektorraum. Man nennt die Teilmenge M ⊆ U einErzeugendensystem von U , falls Span(M) = U gilt.Ein lineare unabhangiges Erzeugendensystem B von V heißt Basis des Vek-torraums V .

Merksatz 13 V sei ein K-Vektorraum und B eine Basis von V . Dann laßtsich jedes Element v ∈ V auf eindeutige Weise als endliche Linearkombina-tion

v =∑b∈B

αbb (6.2)

2 der Elemente von B darstellen.Daruberhinaus gilt:

1. Jede B echt enthaltende Teilmenge U von V , d.h. B ( U ⊆ V , istlinear abhangig.

2Die Endlichkeitsforderung der Linearkombination soll bedeuten, daß nur endlich vieleder Koeffizienten αb von Null verschieden sein durfen.

102

Preliminary version – 8. Januar 2002

Page 105: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

2. Keine der echten Teilmengen von B ist ebenfalls Basis von V ist.

Beweis: Sei v ∈ V beliebig. Die Existenz einer Darstellung von v als endlicheLinearkombination

v =∑b∈B

αbb

folgt aus der Erzeugendensystemeigenschaft von B. Angenommen

v =∑b∈B

βbb

ware eine weitere Darstellung der Gestalt 6.2. Subtraktion beider Darstellungliefert ∑

b∈B

(αb − βb)b = O

Falls fur wenigstens ein b ∈ B die Beziehung αb−βb 6= 0 gilt, so betrachten wirdie Teilsumme aller Summanden mit von Null verschiedenem Koeffizienten.Diese Summe enthalt nur endlich viele Summanden und ist eine nichttrivialeDarstellung des Nullvektors als Linearkombination der involvierten Elementevon B. Also ist die Menge der in die Summe involvierten Elemente von B li-near abhangig, im Widerspruch zur vorausgesetzten linearen Unabhangigkeitvon B, also ist die Eindeutigkeit von Darstellung 6.2 nachgewiesen.Die beiden weiteren Behauptungen ergeben sich unmittelbar daraus. Dennfalls v /∈ B, so besitzt v zwei verschiedene Darstellungen 6.2 in B ∪ {v},namlich die in B und v = 1 · v. Ebenso hat b ∈ B keine Darstellung 6.2 inB \ {b}, da b = 1 · b die einzige Darstellung in B war. 2

Merksatz 14 U ⊆ V ist genau dann ein Untervektorraum von V , wenn Ueine Untergruppe von V ist und gegen Vervielfachung mit Elementen aus K

abgeschlossen ist. Anders formuliert lautet das Kriterium

1. u− v ∈ U fur alle u, v ∈ U und

2. αu ∈ U fur alle u ∈ U und α ∈ K.

Fur beliebige Teilmengen U ⊆ V besteht die lineare Hulle von U genau ausallen endlichen Linearkombinationen von Elementen aus U , d.h.

Span(U) = {α1u1 + · · ·+ αkuk | k ∈ N, α1, . . . , αk ∈ K, u1, . . . , uk ∈ U} .

Dabei wird die Summe von k = 0 Summanden formal als 0 angesehen.

103

Preliminary version – 8. Januar 2002

Page 106: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Der Beweis verbleibt als Ubung. Es folgen einige Beispiele zur Erlauterungder eben eingefuhrten Begriffe:

1. Die Losungsmenge eines linearen homogenen Gleichungssystems in nVariablen ist ein Untervektorraum des Raumes Kn.

2. Die Polynome aus K[x1, . . . , xn] vom Grad ≤ d bilden einen Untervek-torraum des Polynomringes K[x1, . . . , xn].

3. Die Potenzprodukte 1, x, x2, x3, . . . , xd bilden eine Basis des Raumesder Polynome vom Grad hochstens d mit reellen Koeffizienten in einerVariablen x.

4. Die Menge aller Potenzen 1, x, x2, . . . ist eine Vektorraumbasis des Po-lynomrings R[x].

5. Die n-Tupel ei = (0, . . . , 0, 1︸︷︷︸i−te Stelle

, 0, . . . , 0) (i = 1, . . . , n), die an der

i-ten Stelle eine 1 und an allen anderen Stellen 0 aufweisen, bilden eineBasis des Vektorraums Kn.

6. Die Menge der Matrizen In(i,j), 1 ≤ i ≤ n 1 ≤ j ≤ m, die genau einenEinseintrag und sonst nur Nulleintrage haben, bilden eine Basis desVektorraums Kn,m.

7. Stellt man die Losungsmenge eines inhomogenen Gleichungssystems inParameterdarstellung dar (siehe 5.8 und 5.9), dann bilden die darinauftretenden Vektoren eine Basis des Losungsraumes des zugehorigenhomogenen Gleichungssystems.

8. C ist ein R-Vektorraum. Eine Basis ist {1, i}. R ist der von {1} erzeugteR-Untervektorraum von C.

Es gilt der folgende wichtige Satz.

Merksatz 15 Jeder K-Vektorraum V besitzt eine Basis B. Alle Basen einesVektorraumes sind gleichmachtig. Insbesondere gilt, besitzt V eine endlicheBasis, so sind alle Basen von V endlich und besitzen die gleiche Anzahl vonElementen.

104

Preliminary version – 8. Januar 2002

Page 107: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Beweis: Zunachst sei ein Erzeugendensystem M von V gegeben. Das kannman immer voraussetzen, denn schlimmstenfalls erfullt M = V diese Be-dingung. Ist M linear unabhangig, so sind wir fertig. Andernfalls gibt esein Element v ∈ M , welches sich als Linearkombination endlich vieler an-derer Elemente aus M darstellen laßt und M ′ := M \ {v} ist wieder einErzeugendensystem von V .Betrachten wir zunachst den Fall, daß M eine endlich Menge ist. Dannlaßt sich der obige Gedanke fortsetzen, indem man solange linear abhangigeElemente aus M entfernt, bis ein linear unabhangiges Erzeugendensystem,also eine Basis, vorliegt.Schwieriger stellt sich der Beweis fur unendliche Mengen M dar. In diesemFall folgt die Behauptung mittels des Zornschen Lemmas.Kommen wir nun zum zweiten Teil der Aussage. Seien B = (b1, . . . , bm) undC = (c1, . . . , cn) zwei endliche numerierte Basen von V . Unter einer nume-rierten Basis versteht man eine solche, in der die Reihenfolge der Elementefestgeschrieben ist. O.B.d.A. gelte m ≤ n. Da B insbesondere Erzeugen-densystem von V ist, besitzt jedes Element ci, i = 1, . . . , n, eine eindeutigeDarstellung

ci = αi,1b1 + · · ·+ αi,mbm

Wegen m ≤ n ist der Rang der (n,m)-Matrix A = (αi,j) i=1,... ,nj=1,... ,m

hochstens m.

Wenden wir nun den Gaußalgorithmus auf die Matrix A an und fuhren alleRechnungen formal als Linearkombinationbildung auch auf der letzten Spalteder Matrix

(A BT

)aus, so beschreibt die Linearkombination der Vektoren

von B in einem Eintrag der rechten Spalte stets den gleichen Vektor, wie dieLinearkombination von C mit den Eintragen der anderen Spalten in dieserZeile als Koeffizienten.Angenommen, es ware m < n. Dann ist der Rang von A echt kleiner als n,also enstehen bei Anwendung des Gaußalgorithmus auf A Nullzeilen, diesenentsprechen jedoch nichtlineare Linearkombinationen von B in der zusatz-lichen letzten Spalte. Folglich ist B linear abhangig, im Widerspruch zurvorausgesetzten Basiseigenschaft von B. Somit muß n = m gelten und dieAussage des Satzes ist bewiesen. 2

Im weiteren werden wir unsere Untersuchungen auf Vektorraume beschranken,die eine endliche Basis besitzen. Da nach dem obigen Satz alle Basen einesK-Vektorraumes die gleiche Anzahl von Elementen aufweisen, besitzt diese

105

Preliminary version – 8. Januar 2002

Page 108: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Zahl eine besondere Bedeutung fur den Vektorraum. Man nennt sie die Di-mension von V und schreibt dafur dimK(V ). Wenn der Korper K aus demKontext heraus klar ist, schreibt man auch kurz dim(V ). Allerdings beachteman, daß die Angabe des Korpers zuweilen von Bedeutung ist. Bereits fruherstellten wir fest, daß die komplexen Zahlen C sowohl ein Q-, ein R- als auchein C-Vektorraum sind. Es gilt dimC(C) = 1, eine Basis ist {1}. Außerdemgilt dimR(C) = 2 aufgrund der Basis {1, i}. Betrachtet als Q-Vektorraum istC nicht einmal von endlicher Dimension.

Merksatz 16 Jede Menge M ⊆ V linear unabhangiger Vektoren eines Vek-torraumes V kann zu einer Basis von V erganzt werden.Sei U ein linearer Teilraum des endlichdimensionalen K-Vektorraumes V .Dann folgt aus dim U = dim V die Gleichheit U = V .

Beweis: Wir zeigen zuerst den zweiten Teil der Behauptung. Angenommen,es wurde U ( V gelten. Fugt man dann zu einer Basis von U ein Elementvon u ∈ V \ U hinzu, so erhalt man wieder eine linear unabhangige Menge,diese bestunde aus mehr Elementen als die Dimension von V . Das ist aberein Widerspruch.Beim Beweis der ersten Aussage beschranken wir uns auf die Betrachtungdes Falles dim V = n < ∞. Angenommen, Span(M) = V , dann ist Meine Basis und wir sind bereits fertig. Andernfalls fugen wir einen beliebigenVektor u ∈ V \Span(M) zu M hinzu und erhalten die Menge M ′ := M∪{u}.M ′ ist linear unabhangig, andernfalls wurde Span(M) = Span(M ′) gelten,im Widerspruch zur Auswahl von u. Aufgrund der linearen Unabhangigkeitvon M ′ gilt dim Span(M ′) = dim Span(M) + 1.Gilt Span(M ′) = V , so ist M ′ die gesuchte Basis, andernfalls verfahren wirmit M ′ anstelle von M genau wie oben. Nach endlich vielen Schritten mussenwir auf diese Weise eine Menge M mit dim Span(M) = dim V erhalten.An dieser Stelle kann der obige Algorithmus unmoglich fortsetzbar sein, sowurden wir im nachsten Schritt eine Menge linear unabhangiger Vektorenvon V konstruieren, die aus mehr Elementen als eine Basis besteht.Also muß die Abbruchbedingung Span(M) = V erfullt sein und M ist eineBasis von V mit den behaupteten Eigenschaften. 2

Der fur Gruppen aufgestellte Merksatz 6 gilt sinngemaß auch fur Vektorraume.

Merksatz 17 Der Durchschnitt beliebig vieler Untervektorraume eines K-Vektorraumes V ist wieder ein Untervektorraum. Die Vereinigung von Un-tervektorraumen ist dagegen im allgemeinen kein Untervektorraum wieder.

106

Preliminary version – 8. Januar 2002

Page 109: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Anstelle der Vereinigung betrachtet man die Summe U + W zweier Unter-vektorraume U und W von V . Diese besteht aus allen Vektoren der Gestaltu+ w, wobei u ∈ U und w ∈ W . Es gilt

U + V = Span(U ∪ V ) .

Die Summe endlich vieler Untervektorraume von V ist wieder ein Untervek-torraum von V .Es gilt die Gleichung

dim U + dim V = dim (U + V ) + dim (U ∩ V ) .

Ubungsaufgaben, Serie 8

22. Uberprufen Sie die folgenden Systeme von Vektoren des R4 auf lineareUnabhangigkeit und begrunden Sie Ihre Antworten.

(a) v1 = (1, 0, 0, 1), v2 = (1, 1, 0, 2), v3 = (0, 1, 2, 3)

(b) v1 = (1, 0, 1, 1), v2 = (1, 1, 1, 2), v3 = (−1, 1, 2, 3)

(c) v1 = (1, 0,−1, 1), v2 = (1, 3, 1, 2), v3 = (1, 9, 5, 4)

23. V sei der von den Vektoren v1 = (1, 0, 1, 1), v2 = (1, 1, 1, 2) und v3 =(−1, 1, 2, 3) erzeugte Untervektorraum des R4. Welche der folgendenMengen von Vektoren spannen einen Untervektorraum von V auf? Be-grunden Sie Ihre Antworten.

(a) {(0, 1, 0, 1), (0, 2, 3, 5)}(b) {(0, 1, 0, 1), (0, 2, 3, 5), (0, 3, 3, 6), (−1, 0,−1,−1)}(c) {(0, 2, 0,−2), (0,−2,−3,−5)}

24. Betrachten Sie den R-Vektorraum R[x, y] der Polynome in den Varia-blen x und y mit reellen Koeffizienten. Jedes Polynom f ∈ R[x, y] kannals Summe endlich vieler Summanden der Gestalt αxiyj mit der zusatz-lichen Eigenschaft, daß α ∈ R\{0} gilt und sich in je zwei verschiedeneSummanden wenigstens einer der Exponenten i oder j unterscheidet,dargestellt werden. Die maximale Summe i + j unter allen auftre-tenden Summanden nennt man den Totalgrad von f (Bez. Grad f).Die hochste auftretende Zahl i unter allen Summanden nennt man denGrad von f in der Variablen x (Bez. Gradx f). Dem Nullpolynom

107

Preliminary version – 8. Januar 2002

Page 110: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

0 ∈ R[x, y] wird formal jede naturliche Zahl als Totalgrad und als Gradin x zugeordnet.

(a) Geben Sie eine Basis von R[x, y] an.

(b) Sei d eine naturliche Zahl großer 0. Untersuchen Sie, welche derfolgenden Mengen Untervektorraume von V sind.

i. {f ∈ R[x, y] | Grad f < d}ii. {f ∈ R[x, y] | Gradx f ≤ d}

iii. {f ∈ R[x, y] | Grad f = d}iv. {f ∈ R[x, y] | Grad f = d und f homogen }. Dabei heißt

ein Polynom homogen, wenn die Summe i + j fur alle inder oben beschriebenen Darstellung auftretenden Summan-den gleich ist.

6.3 Koordinatendarstellung von Vektoren

Im Falle eines endlichdimensionalen Vektorraumes V kann Darstellung 6.2in der Form

v = α1b1 + · · ·+ αdbd (6.3)

geschrieben werden, dabei gilt dim(V ) = d und B = {b1, . . . , bd} ist eineBasis von V . Die Eindeutigkeit von Darstellung 6.3 rechtfertigt

Definition 27 Sei B = (b1, . . . , bd) eine geordnete Basis3 des Vektorrau-mes V . Das d-Tupel (α1, . . . , αd)B der Koeffizienten aus Darstellung 6.3 desElementes v ∈ V nennt man die Koordinatendarstellung von v bezuglich B.

Die Angabe der Basis als Index ist insofern wichtig, daß die Koordinatendar-stellung von v naturlich von der Wahl der Basis B abhangt. Ist die gewahlteBasis aber aus dem Kontext heraus klar, so wird haufig auf die Angabe derBasis verzichtet.Die Zuordnungsvorschrift

v 7→ (α1, . . . , αd)B3Wenn wir von einer geordneten Basis sprechen, kommt es auch auf die Reihenfolge

der Basiselemente an. Eine geordnete Basis ist daher keine Menge, sondern ein geordnetesTupel.

108

Preliminary version – 8. Januar 2002

Page 111: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

beschreibt eine bijektive Abbildung von V in Kd. Diese Abbildung ist so-wohl mit der Addition als auch mit der Vervielfachung mit Elementen aus K

vertraglich, sie ist also ein Vektorraumisomorphismus. Wir halten fest, dieRaume Kn, n ∈ N,4 sind bis auf Isomorphie die einzigen endlichdimensionalenK-Vektorraume und es gilt dimKKn = n.

Merksatz 18 Die Vektoren v1, . . . , vr des K-Vektorraumes Kd sind genaudann linear unabhangig, wenn

Rang(vT1 · · · vTr

)= r

gilt.5

Allgemeiner gilt: Ist V ein beliebiger K-Vektorraum mit endlicher nume-rierter Basis B = (b1, . . . , bd), so sind v1, . . . , vr ∈ V genau dann linearunabhangig, wenn die Matrix, deren Spalten (oder Zeilen) die Koordinaten-darstellungen von v1, . . . , vr bezuglich B sind, den Rang r aufweist.

Gemaß dieses Satzes kann man den Rang einer Matrix nun auch unabhangigvom Gaußalgorithmus definieren. Weitaus haufiger gebrauchte aquivalenteAussagen zur Bestimmung des Ranges einer Matrix sind im folgenden Merk-satz zusammengefaßt.

Merksatz 19 Der Rang einer Matrix A ∈ Kn,m ist gleich zu jeder der fol-genden Zahlen

1. der maximalen Anzahl linear unabhangiger Zeilen von A,

2. der maximalen Anzahl linear unabhangiger Spalten von A,

3. der Dimension des von den Zeilen von A aufgespannten Untervektor-raumes von Km,

4. der Dimension des von den Spalten von A aufgespannten Untervektor-raumes von Kn.

4Formal setzen wir K0 = {0}.5Anmerkung: Die Matrix

(vT1 · · · vTr

)hat den Typ (d, r), ihre Spalten sind gerade die

Vektoren v1, . . . , vr.

109

Preliminary version – 8. Januar 2002

Page 112: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6.4 Lineare Abbildungen

Definition 28 V und W seien zwei K-Vektorraume. Eine Abbildung

F : V → W

heißt lineare Abbildung, falls fur alle α, β ∈ K und u, v ∈ V die Beziehung

F (αu + βv) = αF (u) + βF (v) (6.4)

gilt.

Im Sinne von Definition 9 handelt es sich bei den linearen Abbildungen genauum die richtigen Vektorraumhomomorphismen.Die Wirkung einer linearen Abbildung F : V → W ist durch die Bildereiner Basis B von V unter der Abbildung F bereits vollig festgelegt. Dasich jedes Element v ∈ V als Linearkombination v = α1b1 + · · ·αmbm vonBasiselementen b1, . . . , bm ∈ B darstellen laßt, ist sein Bild F (v) aufgrundder Eigenschaften einer linearen Abbildung als

F (v) = α1F (b1) + · · ·αmF (bm)

festgelegt. Diese Argumente gelten sogar fur beliebige ErzeugendensystemeB von V .Fur Basen B kommt zusatzlich hinzu, daß zu jeder beliebigen Zuordnungb 7→ wb ∈ W auch tatsachlich eine lineare Abbildung F : V → W mit derEigenschaft ∀b ∈ B : F (b) = wb existiert. Der Grund besteht darin, daßdie Darstellung von v als endliche Linearkombination von Elementen aus Beindeutig ist und F (v) durch die Forderung

F (v) = α1F (b1) + · · ·αmF (bm)

nur auf eine Weise festgelegt wird. Also erfullt F in der Tat die an einelineare Abbildung gestellten Bedingungen.Anders verhalt es sich bei linear abhangigen Erzeugendensystemen U . Dortgibt es ein u ∈ U , welches Linearkombination u = α1v1 + · · · + αmvm an-derer Elemente v1, . . . , vm ∈ U \ {u} ist. Bei willkurlicher Festlegung derZuordnungen u 7→ w ∈ W sowie vi 7→ wi ∈ W gilt im allgemeinen

w 6= α1w1 + · · ·αmwm ,

110

Preliminary version – 8. Januar 2002

Page 113: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

alsoF (u) 6= α1F (v1) + · · ·αmF (vm)

fur jede die Zuordnung zu U fortsetzende Abbildung.Seien nun B = (b1, . . . , bm) eine geordnete Basis von V und C = (c1, . . . , cn)eine geordnete Basis von W und F eine lineare Abbildung von V in W . Wieoben festgestellt wurde wird F durch die Beziehungen

F (b1) = w1 = α1,1c1 + · · ·α1,ncn... (6.5)

F (bm) = wm = αm,1c1 + · · ·αm,ncn

charakterisiert. Auf der rechten Seite wurde ausgenutzt, daß sich jedes Ele-ment von W auf eindeutige Weise als Linearkombination der Elemente vonC darstellen laßt.

Definition 29 Bei festgehaltenen geordneten Basen B und C beschreibt dieMatrix

AF := (αi,j)i=1,... ,mj=1,... ,n

(6.6)

die lineare Abbildung F vollstandig. Wir nennen sie die Abbildungsmatrixvon F bezuglich der geordneten Basen B und C.

Umgekehrt ist nach den eingangs gemachten Uberlegungen jede Matrix A ∈Km,n Abbildungsmatrix einer linearen Abbildungen FA bezuglich der geord-neten Basen B und C. Bei festgehaltenen geordneten Basen B und C ist dieZuordnung zwischen linearen Abbildungen und (m,n)-Matrizen bijektiv.Vermoge

(F +G)(u) := F (u) +G(u) und

(αF )(u) := αF (u)

kann man eine Addition und eine skalare Vervielfachung linearer Abbildungendefinieren. Auf diese Weise wird die Menge LinK(U, V ) aller linearen Abbil-dungen der K-Vektorraume U und V selbst zu einem K-Vektorraum. Beifestgehaltenen geordneten Basen B und C ist die Zuordnung F 7→ AF , diejeder linearen Abbildung F ∈ LinK(U, V ) ihre Abbildungsmatrix AF ∈ Km,n

bezuglich B und C zuweist, selbst eine bijektive lineare Abbildung, namlichaus LinK(LinK(U, V ),Km,n), also ein Vektorraumisomorphismus.

111

Preliminary version – 8. Januar 2002

Page 114: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Merksatz 20 U und V seien endlichdimensionale Vektorraume mit geord-neten Basen B = (b1, . . . , bm) beziehungsweise C = (c1, . . . , cn). Weiterhinsei F ∈ LinK(U, V ) eine lineare Abbildung von U nach V und AF die Abbil-dungsmatrix von F bezuglich B und C.u ∈ U habe die Koordinatendarstellung (β1, . . . , βm)B bezuglich B. Dannhangt die Koordinatendarstellung (γ1, . . . , γn)C des Bildes F (u) bezuglich Cmit der Koordinatendarstellung von u bezuglich B und der AbbildungsmatrixAF uber die Gleichung(

γ1 · · · γn)C

=(β1 · · · βm

)B· AF

zusammen.

Beweis: Einsetzen der Gleichungen (6.5) in F (u) = β1F (b1) + · · · βmF (bm)ergibt

F (u) =

(m∑i=1

βiαi,1

)c1 + · · ·+

(m∑i=1

βiαi,n

)cn .

Nach Definition der Koordinatendarstellung gilt γj =∑m

i=1 βiαi,j, j = 1, . . . , n,und die Richtigkeit der Behauptung folgt sofort. 2

Merksatz 21 Seien U , V und W drei endlichdimensionale K-Vektorraumemit geordneten Basen B,C beziehungsweise D. Fur lineare Abbildungen F :U → V und G : V → W gilt

AF◦G = AF ∗ AG ,

wobei die Abbildungsmatrizen jeweils bezuglich der zugehorigen Paare ge-ordneter Basen genommen sind. Mit anderen Worten, die Hintereinan-derausfuhrung linearer Abbildungen entspricht der Multiplikation der Abbil-dungsmatrizen.Im Spezialfall U = V = W und B = C = D erkennt man, daß LinK(U,U)und Kn,n nicht nur als K-Vektorraume isomorph sind, sondern daß es sichsogar um isomorphe Ringe handelt.

Merksatz 22 Sei F ∈ LinK(U, V ) eine lineare Abbildung der K-VektorraumeU und V . Das Bild eines linearen Teilraumes von U unter F ist ein linearerTeilraum von V . Ebenso ist das vollstandige Urbild eines linearen Teilraumesvon V ein linearer Teilraum von U .Insbesondere sind Bild(F ) ⊆ V und Null(F ) := F−1({O}) ⊆ U lineareTeilraume. Man nennt Bild(F ) den Bildraum und Null(F ) den Nullraumder linearen Abbildung F .

112

Preliminary version – 8. Januar 2002

Page 115: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Der Beweis kann analog zum Gruppenfall gefuhrt werden.

Merksatz 23 Eine lineare Abbildung F ist genau fur dim Null(F ) = 0 in-jektiv und genau im Fall dim Bild(F ) = dim V surjektiv.

Beweis: Das Injektivitatskriterium linearer Abbildungen kann bereits ausder Gruppenhomomorphismuseigenschaft und der Tatsache dim W = 0⇐⇒W = {O} gefolgert werden.Das Surjektivitatskriterium ergibt sich sofort aus Merksatz 16. 2

Die Dimension des Vektorraumes U steht in einer wichtigen Beziehung zuden Dimensionen von Null- und Bildraum. Es gilt

Merksatz 24 (Dimensionssatz) Sei F ∈ LinK(U, V ) eine lineare Abbil-dung der endlichdimensionalen K-Vektorraume U und V . B und C seienbeliebig fest gewahlte geordnete Basen von U beziehungsweise V und AF dieAbbildungsmatrix von F bzgl. B und C.Dann gelten die Gleichungen

dim Bild(F ) = RangAF und (6.7)

dim Null(F ) = dim U − dim Bild(F ) . (6.8)

Beweis: Der Bildbereich Bild(F ) der linearen Abbildung besteht aus allenElementen von V , deren Koordinatendarstellung bezuglich der Basis C eineLinearkombination der Zeilen der Transformationsmatrix AF ist. Die maxi-male Anzahl linear unabhangiger Zeilen ist daher gleich der Dimension vonBild(F ). Mit Merksatz 19 ergibt sich Beziehung (6.7).Der Nullraum Null(F ) ist isomorph zur Losungsmenge L des homogenenlinearen Gleichungssystems AT

F xT = O. Der Isomorphismus besteht einfachim Transponieren der Elemente. Die Dimension von L ergibt sich als

dimL = m− RangAF ,

wobei m die Anzahl der Spalten der Matrix ATF bezeichnet. Die Spaltenzahl

von ATF ist gleich der Zeilenzahl von AF , welche ihrerseits gleich der Dimen-

sion von U ist, denn nach (6.5) entspricht jede Zeile von AF einem Elementder Basis B.Damit ist auch die Gultigkeit von Gleichung (6.8) nachgewiesen. 2

113

Preliminary version – 8. Januar 2002

Page 116: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Ubungsaufgaben, Serie 9

25. Berechnen Sie fur die Vektoren (1, 3, 2), (0, 2, 1), (1, 0, 0) und (1, 1, 1)aus dem Vektorraum der Tripel reeller Zahlen die Koordinatendarstel-lungen bezuglich der geordneten Basis B = ((1, 1, 0), (2, 0, 0), (1, 1, 1)).

26. Welche der folgenden Vorschriften beschreiben lineare Abbildungen?Begrunden Sie Ihre Antworten!

(a) F : R3 → R3 mit Vorschrift

∀(a, b, c) ∈ R3 : F ( (a, b, c) ) := (2a, 2b, 2c)

(b) F : R2 → R mit Vorschrift

∀(a, b) ∈ R2 : F ( (a, b) ) := a− b

(c) F : R2 → R mit Vorschrift

∀(a, b) ∈ R2 : F ( (a, b) ) := a ∗ b

(d) F : R[x]→ R[x] mit Vorschrift

∀p ∈ R[x] : F (p) :=dp

dx.

Hinweis: dpdx

bezeichnet die Ableitung von p nach x, fur p =∑n

i=0 cixi

gilt dpdx

=∑n

i=1(i ∗ ci)xi−1

(e) Fa : R[x]→ R mit Vorschrift

∀p ∈ R[x] : Fa(p) := p(a) ,

wobei a eine vorgegebene reelle Zahl ist. Hinweis: p(a) bezeich-net den Wert der Polynomfunktion p an der Stelle a. Fur p =∑n

i=0 cixi gilt p(a) =

∑ni=0 cia

i

27. a sei eine fest vorgegebene reelle Zahlen. Beschreibt

∀p ∈ R[x] : F (p) :=

(p(a),

dp

dx(a)

)eine lineare Abbildung F : R[x]→ R

2? Falls ja, so

(a) Bestimmen Sie den Nullraum von F .

(b) Betrachten Sie Fd : R[x]d → R2, wobei R[x]d := {p ∈ R[x] :

Grad(p) ≤ d}. Beschreiben Sie Fd durch eine Abbildungsmatrixbezuglich geordneter Basen Ihrer Wahl.

114

Preliminary version – 8. Januar 2002

Page 117: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6.5 Basistransformationen

Betrachten wir nun den Spezialfall linearer Abbildungen F : U → U voneinem Vektorraum U in sich selbst.Zunachst einmal ergibt sich aus dieser Forderung nicht, daß man fur Vor-und Nachbereich gleiche Basen B und C wahlen muß. Fur den Fall, daßF die identische Abbildung ist und die Basen unterschiedlich gewahlt sind,zeigt Merksatz 20 gerade, auf welche Weise man die Koordinatendarstellungbezuglich beider Basen umrechnen kann. Es ergeben sich die beiden Bezie-hungen

uC = uBAF und

uB = uCA−1F

Dabei bezeichnet uC die Koordinatendarstellung eines beliebigen Vektorsu ∈ U bezuglich C und uB die Koordinatendarstellung des gleichen Vektorsbezuglich B. Im folgenden Merksatz fassen wir die Aussagen noch einmalzusammen.

Merksatz 25 Seien V ein n-dimensionaler Vektorraum und B und C zweibeliebige geordnete Basen von V .Die Abbildungsmatrix AB→C, welche zeilenweise aus den Koordinatendar-stellungen der Vektoren von B bezuglich der geordneten Basis C besteht, be-schreibt die identische Abbildung von V auf V . Fur u = β1b1+. . .+βnbn ∈ Verhalt man die Koordinaten γ1, . . . , γn von u bezuglich C mittels(

γ1 · · · γn)

=(β1 · · · βn

)AB→C ,

beziehungsweise in transponierter Darstellungγ1...γn

= ATB→C

β1...βn

.

Weiterhin giltAC→B = A−1

B→C .

115

Preliminary version – 8. Januar 2002

Page 118: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

6.6 Eigenwerte und Eigenvektoren einer li-

nearen Abbildung

Bei freier Wahl der beiden Basen B und C verbleiben große Freiheiten furdie Abbildungsmatrix einer linearen Abbildung F : V → V . Einzig dieBedingung (6.7) stellt eine ernsthafte Einschrankung dar. Der Rang der Ab-bildungsmatrix ist durch die Dimension des Bildraumes Bild F eindeutigbestimmt. Aber zu jeder (dim V )-reihigen quadratischen Matrix des Rangesdim Bild(F ) gibt es geeignete Basen B und C, so daß diese Matrix Abbil-dungsmatrix der Abbildung F wird.Will man aus einer Abbildungsmatrix mehr als nur die Dimension des Bildrau-mes der Abbildung F : V → V ablesen, so ist es vorteilhaft, sich auf einegemeinsame Basis des Vor- und Nachbereiches zu beschranken, also B = Czu fordern.Eine wichtige Frage besteht darin, festzustellen, welche linearen Teilraumevon V bei einer linearen Abbildung F : V → V invariant bleiben, d.h. insich selbst abgebildet werden. Man beachte aber, die Invarianz F (U) = Ueines linearen Teilraumes U ⊆ V braucht keineswegs zu bedeuten, daß jedesElement des Teilraumes U bei der Abbildung auf sich selbst abgebildet wird.Trivialerweise ist der nulldimensionale Teilraum {0} ⊆ V unter jeder linearenAbbildung F : V → V invariant. Wir wollen daruberhinaus untersuchen,welche eindimensionalen Teilraume U ⊆ V von einem gegebenen F invariantgelassen werden oder in einen Teilraum von sich selbst ubergehen. Das heißt,wir fragen nach linearen Teilraumen U der Dimension 1 mit F (U) ⊆ U .Da U eindimensional ist, ist jede einelementige Teilmenge von U \ {0} eineBasis von U . Sei b ∈ U \ {0}, dann bedeutet die Invarianz von U unter F ,daß es eine reelle Zahl λ 6= 0 mit bAF = λb gibt. Da {b} Basis ist, laßtsich jedes u ∈ U als Linearkombination u = ab darstellen und aufgrund derLinearitat von F folgt uAF = (ab)AF = a(bAF ) = a(λb) = λu. Mit anderenWorten, die Zahl λ hangt nicht von der Wahl von b ab. Die schwachereForderung F (U) ⊆ U anstelle der Invarianz hat nur zur Folge, daß auchλ = 0 zugelassen wird. In diesem Fall wird U auf seinen einzigen echtenlinearen Teilraum, namlich {0}, abgebildet.Man definiert

Definition 30 Sei F : U → U eine lineare Abbildung des n-dimensionalenK-Vektorraumes U in sich. Ein Skalar λ ∈ K heißt Eigenwert von F , fallses einen von O verschiedenen Vektor u ∈ U gibt, fur den F (u) = λu gilt.

116

Preliminary version – 8. Januar 2002

Page 119: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

In diesem Falle nennt man u einen zum Eigenwert λ gehorigen Eigenvektorvon F .Die Menge aller zu λ gehorigen Eigenvektoren bildet gemeinsam mit demNullvektor einen linearen Teilraum von V , diesen nennt man den zu λ gehori-gen Eigenraum von F .

Sei A ∈ Kn,n eine n-reihige quadratische Matrix. λ ∈ K heißt Eigenwert vonA, falls es ein vom Nulltupel verschiedenes c ∈ Kn mit

AcT = λcT

gibt. In diesem Falle nennt man c einen zu λ gehorigen Eigenvektor derMatrix A. Die Menge bestehend aus allen zum Eigenwert λ gehorigen Eigen-vektoren und dem Nulltupel nennt man den zu λ gehorigen Eigenraum vonA.

Ist AF eine zu F gehorige Abbildungsmatrix in Bezug auf eine gemeinsameBasis B fur Vor- und Nachbereich, so stimmen die oben eingefuhrten Begrif-fe der Eigenwerte, Eigenvektoren und Eigenraume von F und AT

F uberein.Insbesondere haben samtliche Abbildungsmatrizen zur Beschreibung von Fin Bezug auf eine gemeinsame Basis fur Vor- und Nachbereich die gleichenEigenwerte.Im folgenden wollen wir uns einen Algorithmus zum Berechnen der Eigen-werte einer Matrix uberlegen.Die Bedingung

AcT = λcT

kann auch in der Form(A− λEn) cT = OT

geschrieben werden. Die Eigenschaft, daß λ ein Eigenwert von A ist, ist alsogleichwertig dazu, daß das homogene lineare Gleichungssystem

(A− λEn) xT = OT

nichttrivial Losungen besitzt. Die Koeffizientenmatrix A− λEn entsteht ausA, indem man von jedem Hauptdiagonalelement λ subtrahiert und die ande-ren Eintrage von A unverandert laßt. Betrachten wir nun die Matrix A−xEn,bei welcher von jedem Hauptdiagonalelement von A die Variable x subtra-hiert wird. Die Determinante |A − xEn| ist ein Polynom in der Variablen xvom Grad n. Man nennt es auch das charakteristische Polynom der MatrixA.

117

Preliminary version – 8. Januar 2002

Page 120: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Merksatz 26 λ ist Eigenwert der n-reihigen quadratischen Matrix A genaudann, wenn

|A− λEn| = 0

gilt. Mit anderen Worten, die Eigenwerte von λ sind genau die Nullstellendes charakteristischen Polynoms |A−xEn| von A. Daher kann eine n-reihigeMatrix hochstens n Eigenwerte besitzen.Ist λ ein Eigenwert der Matrix A, so erhalt man den zugehorigen Eigenraumals die Losungsmenge des homogenen linearen Gleichungssystems

(A− λEn) xT = OT .

Definition 31 Sei A eine quadratische Matrix und λ ein Eigenwert von A.Die großte naturliche Zahl ν mit der Eigenschaft, daß (x−λ)ν das charakteri-stische Polynom |A−xEn| teilt, nennt man die algebraische Vielfachheit unddie Dimension des Eigenraumes von A zum Eigenwert λ die geometrischeVielfachheit des Eigenwertes λ.

Merksatz 27 Wenn fur jeden Eigenwert der linearen Abbildung F (in Bezugauf eine Abbildungsmatrix zu beliebiger gemeinsamer Basis B fur Vor- undNachbereich) algebraische und geometrische Vielfachheit ubereinstimmen unddie Summe der algebraischen Vielfachheiten gleich der Dimension von V ist6,dann besitzt V eine Basis bestehend aus Eigenvektoren. Die Abbildungsmatrixvon F in Bezug auf eine solche Basis C fur Vor- und Nachbereich ist eineDiagonalmatrix

AF,C =

λ1 0 · · · 00 λ2 · · · 0

...0 0 · · · λn

,

auf deren Hauptdiagonale gerade die Eigenwerte von F stehen.

Eine oben beschriebene Diagonalmatrix laßt sich wie folgt konstruieren. SeiAF,B Abbildungsmatrix von F in Bezug auf eine beliebige geordnete BasisB.

6D.h. alle Nullstellen des charakteristischen Polynoms gehoren dem Korper K an. ImFalle K = C ist das immer der Fall, fur K = R allerdings nicht.

118

Preliminary version – 8. Januar 2002

Page 121: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

1. Man bestimme die Eigenwerte und Eigenraume von ATF,B.

2. Man nehme fur jeden Eigenraum eine Basis und vereinige diese Basenzur Menge C.

3. Falls C weniger als n Elemente enthalt, so besitzt die Abbildung keineAbbildungsmatrix in Diagonalgestalt, also breche mit Fehler ab.

4. Die Produktmatrix AF,C = BAF,BB−1, wobei B = AC→B die Basi-stransformation von C nach B beschreibt, ist die Abbildungsmatrixvon F in Bezug auf C. Dabei handelt es sich um eine Diagonalmatrix.

Es gibt Matrizen (und somit lineare Abbildungen) mit “zu wenig” Eigenvek-toren. In diesem Falle besitzt F keine Abbildungsmatrix in Diagonalgestalt.Man kann dann wenigstens noch eine sogenannte Jordansche Normalformder Abbildungsmatrix erzielen, darauf soll aber aus Zeitgrunden nicht einge-gangen werden.Wenigstens in einem Spezialfall kann man aber sofort erkennen, daß es aus-reichend Eigenvektoren gibt:

Merksatz 28 Seien F : V → V eine lineare Abbildung des reellen Vek-torraumes V in sich selbst und B eine geordnete Basis von V . Falls dieAbbildungsmatrix AF,B = (ai,j)i=1,... ,n

j=1,... ,n∈ Rn,n bezuglich B fur Vor- und Nach-

bereich symmetrisch ist, d.h. fur alle 1 ≤ i, j ≤ n gilt ai,j = aj,i (gleichwertigist die Bedingung AT

F,B = AF,B), so sind alle Eigenwerte von F reell und furjeden Eigenwert stimmen algebraische und geometrische Vielfachheit uberein.Mit anderen Worten, V besitzt eine Basis C, welche nur aus Eigenvektorenvon F besteht. Insbesondere ist die Abbildungsmatrix AF,C in Diagonalge-stalt.

Aufgrund dieses Satzes konnen wir sofort schlußfolgern, daß die Matrix

A =

1 2 02 0 10 1 2

diagonalisierbar ist. Berechnen wir zunachst das charakteristische Polynomvon A, dieses lautet p = −x3 + 3x2 + 3x − 9. Einen Eigenwert, namlichλ1 = 3, erkennt man sofort. Wegen p = −(x − 3)(x2 − 3) sind λ2 =

√3

und λ3 = −√

3 die beiden anderen Eigenwerte. Da die Eigenwerte paarweise

119

Preliminary version – 8. Januar 2002

Page 122: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

verschieden sind, ist die Diagonalisierbarkeit spatestens jetzt ersichtlich, denndie geometrische Vielfachheit eines Eigenwertes ist immer mindestens 1.Den Eigenraum zum Eigenwert 3 berechnet man als Losung des linearenGleichungssystems mit der Koeffizientenmatrix−2 2 0

2 −3 10 1 −1

∼1 0 −1

0 1 −10 0 0

Also ist ER(3) = Span((1, 1, 1)) der Eigenraum zum Eigenwert 3. Entspre-chend berechnet man die Eigenraume ER(

√3) = Span((1−

√3,−2+

√3, 1))

und ER(−√

3) = Span((1 +√

3,−2−√

3, 1)).Fur die Matrix

C =

1 1 1

1−√

3 −2 +√

3 1

1 +√

3 −2−√

3 1

,

welche spaltenweise aus den Eigenvektoren besteht, gilt:

C−1AC =

3 0 0

0√

3 0

0 0 −√

3

.

Uberlegen wir uns nun, welche lineare Abbildung F mit der obigen Un-tersuchung verbunden ist. Fur die ursprungliche Abbildungsmatrix galtAF,B = AT . Die letztendlich erhaltene Matrix C−1AC ist die Transponierteder Abbildungsmatrix bezuglich der aus den Eigenvektoren der Matrix A ge-bildeten Basis C. Bezogen auf Punkt 4 des oben beschriebenen Algorithmusstellen wir fest:

AF,C = BAF,BB−1 = AC→BAF,BAB→C =(C−1AC

)T= CTAF,BC−1T .

Der letzte Term zeigt, daß die Spalten von C im Sinne des oben beschriebenenAlgorithmus gerade die Rolle der Parameterdarstellungen der Eigenvektorenaus der Basis C in Bezug auf die Ausgangsbasis B einnehmen.Diesen Zusammenhang muß man im Auge behalten, wenn man die Trans-formation in Diagonalgestalt vornimmt. Die hier direkt an A vorgenommeneTransformation erfordert die Anordnung der Eigenvektoren als Spalten undMultiplikation mit der nichtinvertierten Matrix von rechts. Dagegen bezieht

120

Preliminary version – 8. Januar 2002

Page 123: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

sich die Anweisung in Punkt 4 des obigen Algorithmus auf AF,B = AT underfordert daher folgerichtig die zeilenweise Anordnung der Eigenvektoren unddie Multiplikation mit der nichtinvertierten Matrix von links.Streng genommen fuhren beide Vorgehensweise auf unterschiedliche Ergeb-nisse, namlich a) auf die transponierte Abbildungsmatrix bezuglich der neuenBasis beziehungsweise b) direkt auf die Abbildungsmatrix bezuglich der neu-en Basis. Da die Abbildungsmatrix bezuglich der neuen Basis jedoch eineDiagonalmatrix ist, sind naturlich beide Ergebnisse gleich.

121

Preliminary version – 8. Januar 2002

Page 124: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Kapitel 7

Euklidische Raume

In unseren bisherigen Untersuchungen haben wir gezeigt, daß sich jeder n-dimensionale K-Vektorraum V uber die (bijektive lineare) Koordinatenabbil-dung FB : V → Kn isomorph als Raum der n-Tupel von Elementen aus K

darstellen laßt.Daraus ergibt sich eine Moglichkeit der Deutung der Elemente v ∈ V alsOrtsvektoren. Dazu betrachtet man den Vektor FB(v) ∈ Kn als Punkt Pbezuglich eines kartesischen Koordinatensystems. Der v zugeordnete Orts-vektor verlauft dann vom Koordinatenursprung zu diesem Punkt P .Da eine algebraische Struktur, insbesondere auch ein Vektorraum, nur bis aufIsomorphie eindeutig bestimmt werden kann, lassen sich zwischen den Vek-toren nur solche Beziehungen erklaren, die bei Anwendung eines beliebigenIsomorphismus unverandert bleiben.Betrachten wir dazu folgendes Beispiel: V = R

2 und B = ((1, 0), (1, 1)).Da V selbst R2 ist, kann man direkt eine geometrische Deutung vornehmenund erhalt einen Winkel von 45◦ zwischen den beiden Basisvektoren unddie Lange

√2 fur den Vektor (1, 1). Unter der Koordinatenabbildung FB

andert sich die Basis allerdings zu FB(B) = ((1, 0)B, (0, 1)B). Legen wirnun die gleiche geometrische Deutung zugrunde, so stellen wir fest, daß diebeiden Bildbasisvektoren einen Winkel von 90◦ einschließen und die Langedes Bildvektors (0, 1)B von (1, 1) nunmehr 1 betragt.Aus diesem Grund lassen sich wesentliche geometrische Eigenschaften, wieWinkel zwischen oder Langen von Vektoren, nicht aus der beschriebenen geo-metrischen Deutung eines Vektorraumes bestimmen. Um derartige Großendefinieren zu konnen, bedarf es zusatzlicher Operationen und/oder Relati-on, so daß der Vektorraum eine reichhaltigere Struktur aufgepragt bekommt.

122

Preliminary version – 8. Januar 2002

Page 125: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Im Ergebnis dessen wird die Klasse der Isomorphismen kleiner, denn zusatz-lich zu den Eigenschaften einer linearen Abbildung ist nun auch noch dieVertraglichkeit mit den neuen Operationen und Relationen erforderlich. Dieverbleibenden Isomorphismen mussen so beschaffen sein, daß sie Winkel undLangen nicht andern.

7.1 Das Skalarprodukt

Definition 32 V sei ein Vektorraum uber dem Korper R der reellen Zahlen.Unter einem Skalarprodukt von V versteht man eine Abbildung 〈 , 〉 : V ×V → R mit folgenden drei Eigenschaften:

1. Bilinearitat, d.h. fur alle u, v, w ∈ V und α, β ∈ R gilt

〈αu + βv, w〉 = α 〈u,w〉+ β 〈v, w〉〈w, αu + βv〉 = α 〈w, u〉+ β 〈w, v〉

2. Symmetrie, d.h. fur alle u, v ∈ V gilt 〈u, v〉 = 〈v, u〉.

3. positive Definitheit, d.h. fur alle v ∈ V gilt

〈v, v〉 ≥ 0 und

〈v, v〉 = 0 ⇐⇒ v = O

Unter einem Euklidischen Vektorraum versteht man einen R-Vektorraum Vzusammen mit einem Skalarprodukt 〈 , 〉.

Die Schreibweise mit den eckigen Klammern soll das Skalarprodukt vor allemvon einem eventuell auch noch vorhandenen Produkt (z.B. in Polynom- oderMatrizenringen) unterscheiden. Besteht eine derartige Verwechselungsgefahrnicht, so findet man haufig auch die Schreibweise u · v fur das Skalarprodukt〈u, v〉. Eine Verwechselung mit der Vervielfachung des Vektorraumes ist nie-mals moglich, da man bereits an den Argumenten erkennt, ob es sich umein Skalarprodukt (Vektor · Vektor) oder eine Vervielfachung (Zahl · Vektor)handelt.Von besonderem Interesse ist der Euklidische Vektorraum bestehend aus V =Rn und dem sogenannten inneren Produkt, welches durch

〈(u1, . . . , un), (v1, . . . , vn)〉 :=n∑i=1

uivi (7.1)

123

Preliminary version – 8. Januar 2002

Page 126: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

definiert ist. Sieht man die Elemente von V als Zeilenvektoren, d.h. Matrizenvom Typ (n, 1) an, und identifiziert man die (1, 1)-Matrizen mit ihrem einzi-gen Eintrag (also

(a)

= a), so laßt sich die Definition des inneren Produkteskurz in der Form 〈u, v〉 = uvT schreiben.Es sei aber darauf hingewiesen, daß es durchaus andere Skalarprodukte gibt,zum Beispiel definiert auch 〈(a, b), (c, d)〉 := 2ac+ad+bc+3bd ein Skalarpro-dukt. Ist V kein Rn, sondern beispielsweise ein von reellwertigen Funktionengebildeter Vektorraum, so sind auch ganz andere Definitionen. Betrachtenwir V = R[x] den Vektorraum der Polynome (die Aussage bleibt sogar furnoch allgemeinere Funktionenklassen gultig) in x mit reellen Koeffizientenund zwei beliebige reelle Zahlen a < b. Dann definiert

∀p, q ∈ R[x] : 〈p, q〉 :=

∫ b

a

p(x) ∗ q(x)dx

ein Skalarprodukt.Es sei noch einmal an das eingangs diskutierte Beispiel erinnert. In diesemFalle mußte der Bildraum R

n mit einem anderen Skalarprodukt als (7.1) aus-gestattet werden, um FB zu einem Isomorphismus Euklidischer Vektorraumezu machen, also auch die Skalarprodukt-Vertraglichkeit der Abbildung FBsicher zu stellen. Das korrekte Skalarprodukt fur den Bildbereich ware〈(a, b), (c, d)〉 := ac + 2bd + ad + bc. Verwendet man fur die transformier-ten Vektoren dieses Skalarprodukt zur Berechung von Langen und Winkelnim Sinne der im Anschluß angefuhrten Definition, so weichen diese nichtmehr von den entsprechenden Angaben der Ausgangsgroßen ab. Siehe dazuauch Ubungsaufgabe 29.

Definition 33 Sei V ein Euklidischer Vektorraum mit dem Skalarprodukt〈 , 〉.Die Quadratwurzel

√〈v, v〉 nennt man den Betrag (die Lange) des Vektors

v ∈ V und bezeichnet sie mit |v|. Einen Vektor v der Lange |v| = 1 nennenwir Einheitsvektor.Sind u, v ∈ V \ {O} vom Nullvektor verschiedene Vektoren aus V , danndefiniert man den von u und v eingeschlossenen Winkel ](u, v), als denWinkel aus dem Bereich [0◦, . . . , 180◦), dessen Kosinus der Gleichung

cos](u, v) :=〈u, v〉|u| |v|

genugt.

124

Preliminary version – 8. Januar 2002

Page 127: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Zwei Vektoren u, v ∈ V heißen zueinander orthogonal (senkrecht), wenn ihrSkalarprodukt 0 ist, d.h. 〈u, v〉 = 0.

Fur den Euklidischen Vektorraum V = Rn mit dem Standardskalarprodukt

erhalt man

|(a1, . . . , an)| =

√√√√ n∑i=1

a2i .

Legt man die gewohnlichen Anschauung der Punkte des R2 in Bezug aufein kartesisches Koordinatensystem zugrunde, so ist der unter Verwendungdes Skalarproduktes (7.1) erhaltene Betrag |(a, b)| =

√a2 + b2 gerade der

ubliche Euklidische Abstand des Punktes (a, b) vom Koordinatenursprung.Es handelt sich also um eine vernunftige Langendefinition fur den Ortsvek-tor. Mittels Kosinussatz zeigt man, daß ahnliches auch auf den von denOrtsvektoren (a, b) und (c, d) eingeschlossenen Winkel zutrifft. Im anderengeometrisch anschaulichen Fall R3 treffen diese Aussagen gleichermaßen zu.Fur die Zukunft vereinbaren wir, wenn wir ohne Angabe eines Skalarproduk-tes vom Euklidischen Vektorraum R

n sprechen, so ist dieser immer mit demStandardskalarprodukt (7.1) ausgestattet.Die Definition der Orthogonalitat zweier von Null verschiedener Vektorensteht mit der Definition des eingeschlossenen Winkels im Einklang. Zusatz-lich wird durch diese Definition vereinbart, daß der Nullvektor auf jedemVektor senkrecht stehen soll.Ohne Beweis halten wir zwei wichtige fur jedes Skalarprodukt gultige Un-gleichungen fest:

Merksatz 29 V sei ein Euklidischer Vektorraum mit dem Skalarprodukt〈 , 〉. Fur alle u, v ∈ V gelten:

1. |u+ v| ≤ |u|+ |v| (Dreiecksungleichung)

2. | 〈u, v〉 | ≤ |u| |v| (Schwarzsche Ungleichung)

Man beachte: Auf der linken Seite der Schwarzschen Ungleichung stehen diesenkrechten Striche fur die Bildung des Absolutbetrags einer reellen Zahl,auf der rechten Seite beziehen sich die senkrechten Striche auf die Lange vonVektoren.Die Gultigkeit der Schwarzschen Ungleichung ist die Rechtfertigung der inDefinition 33 vorgenommen Einfuhrung des Winkel zwischen zwei Vektoren.Durch sie ist abgesichert, daß 〈u,v〉

|u| |v| tatsachlich dem Intervall [−1 . . . 1] an-gehort, also Kosinus eines Winkels ist.

125

Preliminary version – 8. Januar 2002

Page 128: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Ubungsaufgaben, Serie 10

28. Gegeben sind die Vektoren mit den Koordinatendarstellungen

v1 = (1, 2, 1)B, v2 = (3,−1, 0)B, v3 =

(−1,

1

2,−2

3

)B

bezuglich der geordneten Basis

B = ((2,−1, 3), (0,−1, 2), (−1, 1, 1))

des Vektorraumes R3 der Tripel reeller Zahlen. Berechnen Sie die Ko-ordinatendarstellungen dieser Vektoren bezuglich der geordneten Basis

C = ((1, 1, 1), (2, 2,−2), (−3, 1, 2)) .

29. (a) Zeigen Sie, daß

〈(a, b), (c, d)〉 := ac+ 2bd+ ad+ bc

auf dem Vektorraum R2 der geordneten Paare reeller Zahlen ein

Skalarprodukt definiert.

(b) Berechnen Sie in Bezug auf dieses Skalarprodukt die Langen derVektoren (1, 0) und (0, 1)

(c) Berechnen Sie in Bezug auf dieses Skalarprodukt die eingeschlos-senen Winkel der Vektoren

i. (1, 0) und (0, 1)

ii. (1, 1) und (3, 3)

iii. (1, 3) und (−7, 4)

30. Berechnen Sie Eigenwerte und zugehorige Eigenraume der Matrix1 0 0 0 1 −10 1 0 0 1 −10 −1 2 0 1 −10 −1 0 2 1 −10 −1 −1 1 3 −10 −1 −1 1 3 −1

126

Preliminary version – 8. Januar 2002

Page 129: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

7.2 Schmidtsches Orthonormierungsverfahren

Definition 34 Wir betrachten einen Euklidischen Vektorraum V mit demSkalarprodukt 〈 , 〉. Eine Basis B von V heißt Orthogonalbasis von V , fallsdie Elemente von B paarweise orthogonal zueinander sind.Besteht B daruberhinaus nur aus Einheitsvektoren, so spricht man von einerOrthonormalbasis von V .

Betrachten wir den Vektorraum V = R3 mit dem Standardskalarprodukt.

Die Einheitsvektoren (1, 0, 0), (0, 1, 0), (0, 0, 1) bilden eine Orthonormalbasisvon V . Dagegen ist die Basis {(1, 0, 0), (1, 1, 0), (1, 1, 1)} keine solche, dennbeispielsweise stehen die Vektoren (1, 0, 0) und (1, 1, 0) wegen 〈(1, 0, 0), (1, 1, 0)〉 =1 nicht senkrecht aufeinander.Die Vektoren der Basis {(1, 1, 0), (1,−1, 0), (0, 0, 1)} stehen wiederum paar-weise senkrecht aufeinander. Dennoch handelt es sich hierbei nur um eineOrthogonalbasis und nicht um eine Orthonormalbasis, denn die beiden erstenBasisvektoren haben die Lange

√2 und nicht wie gefordert 1. Vervielfacht

man jeden der Basisvektoren mit dem Inversen seines Betrages, so erhalt mandie Orthonormalbasis {(1

2

√2, 1

2

√2, 0), (1

2

√2,−1

2

√2, 0), (0, 0, 1)}. Wie in die-

sem Beispiel kann man aus einer beliebigen Orthogonalbasis von V soforteine Orthonormalbasis von V gewinnen, indem man jeden der Vektoren mitdem Inversen seines Betrages vervielfacht.Betrachten wir zwei vom Nullvektor verschiedene Vektoren u, v ∈ V undbilden die Linearkombination w = v − 〈u,v〉〈u,u〉u. Dann gilt

〈u,w〉 = 〈u, v〉 − 〈u, v〉〈u, u〉

〈u, u〉 = 0 .

Diese Rechnung zeigt, daß w auf u senkrecht steht. Der Vektor 〈u,v〉〈u,u〉u ist dieProjektion von v auf die durch u bestimmte Gerade durch den Nullpunkt.Man kann die Beziehung

v = w +〈u, v〉〈u, u〉

u

so deuten, daß v in eine Summe bestehend aus einem zu u senkrechten undeinem zu u parallelen Vektor zerlegt wird. Insbesondere gilt im Falle u‖v dieBeziehung w = 0.Wir halten fest:

127

Preliminary version – 8. Januar 2002

Page 130: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Lemma 8 Fur linear unabhangige Vektoren u und v ist

w = v − 〈u, v〉〈u, u〉

u

ein vom Nullvektor verschiedener senkrecht auf u stehender Vektor. Ist u einEinheitsvektor, so vereinfacht sich die Bildung von w zu

w = v − 〈u, v〉u .

Weiterhin gilt:

Lemma 9 Seien u ∈ V ein Vektor und v, w ∈ V zwei zu u orthogonale Vek-toren. Dann ist jeder Vektor des von v und w erzeugten UntervektorraumesSpan(v, w) orthogonal zu u.

Beweis: Die Behauptung folgt sofort aus

〈u, αv + βw〉 = α 〈u, v〉+ β 〈u,w〉 = 0

2

Betrachten wir nun drei linear unabhangige Einheitsvektoren u, v, z ∈ V , dervon ihnen aufgespannte lineare Teilraum von V sei U = Span{u, v, z}. MitHilfe von Lemma 8 konnen wir zwei auf u senkrecht stehende Vektoren v′ :=v−〈u, v〉u und z′ := z−〈u, z〉u konstruieren. Diese sind von Null verschiedenund daher sind v := 1

|v′|v′ und z := 1

|z′|z′ dazu parallel Einheitsvektoren. Die

Menge B = {u, v, z} ist Basis von U , denn man uberzeugt sich leicht davon,daß sich die Vektoren u, v, z als Linearkombination von B darstellen lassen,also B ein Erzeugendensystem ist. Da U die Dimension 3 hat, muß diedreielementige Menge B linear unabhangig, also Basis von U , sein. DurchAnwendung von Lemma 8 auf v, z erhalt man einen auf v senkrecht stehendenVektor z = z− 〈v, z〉 v 6= O. Nach Lemma 9 steht dieser nicht nur senkrechtauf v sondern auch auf u. Durch Normierung auf die Lange 1 erhalt man denEinheitsvektor z. Die Menge B′ = {u, v, z} ist Orthonormalbasis von U .Dann konnen wir zunachst einen auf u senkrecht stehenden Einheitsvektorw konstruieren, indem wir zuerst das vorangegangene Lemma anwenden undden Ergebnisvektor durch Vervielfachung mit dem Inversen seines Betragesauf die Lange 1 normieren.

128

Preliminary version – 8. Januar 2002

Page 131: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Das eben fur 2 und 3 linear unabhangige Elemente durchgefuhrte Verfahren,laßt sich auf beliebige linear unabhangige endliche Mengen von Vektoren er-weitern. Auf diese Weise kann man aus einer beliebigen Basis eines endlich-dimensionalen Vektorraumes V eine Orthonormalbasis von V konstruieren.Man nennt dieses Verfahren

Schmidtsches Orthonormierungsierungsverfahren.

Gegeben: Erzeugendensystem B des endlichdimensionalen VektorraumesV .Gesucht: Orthonormalbasis C von V .

1 C := ∅, B := B \ {O}2 while B 6= ∅ do2.1 Wahle einen beliebigen Vektor c ∈ B.2.2 B := B \ {c}2.3 c := 1

|c|c

2.4 C := C ∪ {c}2.5 for all b ∈ B do2.5.1 b′ := b− 〈b, c〉 c2.5.2 B := B \ {b}2.5.3 if b′ 6= O then B := B ∪ {b′}

Da die Menge B in jedem Durchlauf von Schleife 2 kleiner wird ist klar,daß das Verfahren irgendwann anhalt. Daß die Menge C zum Terminations-zeitpunkt eine Orthonormalbasis von V ist, kann man analog zum eingangsbeschriebenen Fall eines dreidimensionalen Raumes V mittels vollstandigerInduktion nachweisen.Betrachten wir ein Beispiel zum Schmidtschen Orthonormierungsverfahren.V sei der von B = {u = (0, 2, 2,−1, 0), v = (2, 2,−2,−2, 0), z = (0, 1, 1, 1, 1)}erzeugte lineare Teilraum des R5.Wir wahlen den Vektor z und normieren ihn auf den Betrag 1. So erhaltenwir

(0, 1

2, 1

2, 1

2, 1

2

)als erstes Element der Orthonormalbasis C.

129

Preliminary version – 8. Januar 2002

Page 132: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Die verbleibenden Vektoren u und v aus B werden durch die Vektoren

u′ = (0, 2, 2,−1, 0)− 3

2

(0,

1

2,1

2,1

2,1

2

)=

(0,

5

4,5

4,−7

4,−3

4

)v′ = (2, 2,−2,−2, 0) +

(0,

1

2,1

2,1

2,1

2

)=

(2,

5

2,−3

2,−3

2,1

2

)Wir normieren u′ auf den Betrag 1 und nehmen den dabei erhaltenen Vektor

u =1

18

√3 (0, 5, 5,−7,−3)

in die Orthonormalbasis C auf. Dann ersetzen wir v′ in B durch

v =1

2(4, 5,−3,−3, 1)− 7

9

√3 ∗ 1

18

√3 (0, 5, 5,−7,−3)

=

(2,

50

27,−58

27,−16

27,8

9

)Schließlich normieren wir den Vektor v noch auf den Betrag 1 und fugen ihnin C ein. Dabei erhalten wir die Orthonormalbasis

C =

{1

2(0, 1, 1, 1, 1) ,

1

18

√3 (0, 5, 5,−7,−3) ,

1

801

√267 (27, 25,−29,−8, 12)

}des Untervektorraumes V ⊂ R5.

7.3 Isomorphismen Euklidischer Vektorraume

Eine lineare Abbildung F : V → W zweier Euklidischer Vektorraume,welche mit dem Skalarprodukt vertraglich ist, d.h.

∀u, v ∈ V : 〈u, v〉 = 〈F (u), F (v)〉 ,

ist stets injektiv. Fur v ∈ Null(F ) gilt aufgrund der Skalarproduktver-traglichkeit 〈v, v〉 = 〈F (v), F (v)〉 = 〈0, 0〉 = 0 und aus den Eigenschaften

130

Preliminary version – 8. Januar 2002

Page 133: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

des Skalarprodukts folgt v = 0. Im Falle dim V = dim W <∞ ist also jedesderartige F ein Isomorphismus Euklidischer Vektorraume.Die Invarianz des Skalarprodukts hat fur alle u, v ∈ V die Gultigkeit von

|v| = |F (v)|](u, v) = ](F (u), F (v))

zur Folge. Insbesondere geht eine Orthonormalbasis von V bei Anwendungvon F stets in eine Orthonormalbasis von Bild(F ) uber. Im weiteren wollenwir dim V = dim W voraussetzen, dann geht eine Orthonormalbasis von Vin eine Orthonormalbasis von W uber.Seien B = (b1, . . . , bn) und C = (c1, . . . , cn) geordnete Orthonormalbasenvon V beziehungsweise W und

F (b1) = a1,1c1 + · · ·+ a1,ncn...

F (bn) = an,1c1 + · · ·+ an,ncn

(7.2)

die Koordinatendarstellungen der Bilder der Elemente von B bezuglich C.Aus der Invarianz des Skalarproduktes ergibt sich

〈bi, bj〉 = 〈ai,1c1 + · · ·+ ai,ncn, aj,1c1 + · · ·+ aj,ncn〉 =n∑k=1

n∑l=1

ai,kaj,l 〈ck, cl〉 .

Aufgrund der Orthonormalbasiseigenschaft von C gilt

〈ck, cl〉 =

{1 : falls k = l0 : sonst

und die obige Gleichung vereinfacht sich zu

〈bi, bj〉 =n∑k=1

ai,kaj,k . (7.3)

Betrachten wir nun die Abbildungsmatrix AF = (ai,j)i=1,... ,nj=1,... ,n

von F bezuglich

der geordneten Basen B und C. Wegen (7.3) bilden die Zeilen der Matrix

131

Preliminary version – 8. Januar 2002

Page 134: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

AF eine Orthonormalbasis des Euklidischen Vektorraumes Rn mit dem Stan-dardskalarprodukt (7.1). Aus dieser Tatsache ergibt sich sofort die Gultigkeitvon

AFATF = AT

FAF = En . (7.4)

Eine Matrix mit dieser Eigenschaft nennt man Orthogonalmatrix. Ortho-gonalmatrizen lassen sich besonders einfach invertieren. Wir wollen hervor-heben, daß insbesondere jede Koordinatentransformationsmatrix, welche dieKoordinatendarstellungen der Elemente von Rn bezuglich einer Orthonor-malbasis in deren Koordinatendarstellungen bezuglich einer weiteren Ortho-normalbasis umrechnet, von dieser speziellen Bauart ist. Die umgekehrteKoordinatentransformation beruhte gerade auf der inversen Abbildungsma-trix. Wir stellen fest, daß sich diese im Falle der Transformation zwischenOrthonormalbasen einfach durch Transponieren gewinnen laßt. Mit ande-ren Worten, hat man die Matrix fur die Transformation in einer Richtunggegeben, so bedarf es praktisch keines Rechenaufwandes um auch die Ruck-transformation ausfuhren zu konnen.Um Gleichung (7.3) herzuleiten, mussten wir keinen Gebrauch von den Eigen-schaften der Basis B machen. Diese benotigten wir erst im nachsten Schritt,um auf die Orthogonalitat der Abbildungsmatrix schließen zu konnen. Inder Tat gilt

〈u, v〉 =n∑k=1

αkβk . (7.5)

fur beliebige Vektoren u, v ∈ W , wobei diese die KoordinatendarstellungenuC = (α1, . . . , αn)C bzw. vC = (β1, . . . , βn)C bezuglich der Orthonormalba-sis C haben. Wir halten also fest, ist W ein Euklidischer Vektorraum mitbeliebigem Skalarprodukt und C eine Orthonormalbasis von W , so kann mandas Skalarprodukt 〈u, v〉 immer berechnen, indem man das Standardskalar-produkt der Koordinatendarstellungen von u und v bezuglich C berechnet.

Merksatz 30 Jeder n-dimensionale Euklidische Vektorraum W ist zu demEuklidischen Vektorraum R

n mit Standardskalarprodukt isomorph.

132

Preliminary version – 8. Januar 2002

Page 135: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

7.4 Euklidische affine Raume und Bewegun-

gen

Unter einem Euklidischen affinen Raum wollen wir einen affinen Raum (A, V )verstehen, dessen Vektorraum V sogar Euklidischer Vektorraum ist.Unter einem Koordinatensystem eines n-dimensionalen affinen Raumes ver-steht man ein (n + 1)-Tupel S = (O; e1, . . . , en) bestehenden aus einem be-liebigen festen Punkt O ∈ A, dem sogenanten Koordinatenursprung, undden Vektoren e1, . . . , en einer geordneten Basis E von V . Ist V ein Eukli-discher Vektorraum und E Orthonormalbasis von V , so sprechen wir voneinem kartesischen Koordinatensystem.

Jeder Punkt P ∈ A laßt sich eindeutig durch den Ortsvektor−→OP ∈ V be-

schreiben. Die Koordinatendarstellung (p1, . . . , pn)E von−→OP bezuglich der

geordneten Basis E, d.h.−→OP =

∑ni=1 piei, nennt man auch die Koordinaten-

darstellung (p1, . . . , pn)S von P bezuglich des Koordinatensystems S.Sei (A, V ) ein Euklidischer affiner Raum. Als Bewegung von (A, V ) bezeich-nen wir eine Abbildung G : A → A mit der Eigenschaft, daß die durch

F (−→PQ) :=

−−−−−−−→G(P ) G(Q) induzierte Abbildung F : V → V ein Isomor-

phismus Euklidischer Vektorraume ist. Insbesondere muß die Abbildung F

wohldefiniert sein, d.h. fur beliebige Punkte P, P ′, Q,Q′ ∈ A mit−→PQ =

−−→P ′Q′

muß auch die Gleichheit−−−−−−−→G(P ) G(Q) =

−−−−−−−−→G(P ′) G(Q′) der Verbindungsvekto-

ren im Bildraum gelten. Man sieht leicht, daß die Hintereinanderausfuhrungzweier Bewegungen ebenso wie die inverse Abbildung einer Bewegung wiederBewegungen sind.

Merksatz 31 Die Bewegungen, d.h. die abstands- und winkeltreuen Abbil-dungen, des Euklidischen affinen Raumes (A, V ) auf sich bilden eine Gruppe.

Eine spezielle Art der Bewegung sind die Translationen. Bei der TranslationTv : A → A um den Vektor v ∈ V wird jedem Punkt P ∈ A der Punkt

Q ∈ A mit−→PQ = v zugeordnet. Bei einer Translation fur beliebige Punkte

P,Q ∈ A sogar die Gleichheit−→PQ =

−−−−−−−→Tv(P ) T(Q), die induzierte Abbildung

auf dem Vektorraum V ist also einfach die Identitat.Fur ein festes Koordinatensystem S von (A, V ) ergibt sich fur die Koordina-tendarstellungen bezuglich S die Transformationsgleichung

(Tv(P ))S = PS + vE .

133

Preliminary version – 8. Januar 2002

Page 136: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Hierbei bezeichnen PS und (Tv(P ))S die Koordinatendarstellung von P be-ziehungsweise Tv(P ) bezuglich S und vE die Koordinatendarstellung von vbezuglich E.Betrachten wir nun solche Bewegungen D : A → A, bei denen der Ko-ordinatenursprung Fixpunkt ist, d.h. D(O) = O. In diesem Falle nimmtdie Transformationsgleichung der Koordinatendarstellungen bezuglich S dieGestalt

(D(P ))S = PS · AD ,

wobei AD die Abbildungsmatrix der induzierten linearen Abbildung des Eu-klidischen Vektorraums V bezuglich der geordneten Basis E bezeichnet. Zudiesem Ergebnis kommt man bei Betrachtung des Ubergang O 7→ O und

P 7→ D(P ), denn gemaß der Eigenschaften einer Bewegung muß F (−→OP ) =

−−−−−→O D(P ) erfullt sein. Das heißt aber gerade F (PS) = (D(P ))S.Jede Bewegung G von (A, V ) laßt sich also Hintereinanderausfuhrung einerBewegung D mit fixem Koordinatenursprung und einer Translation T dar-stellen, also G(P ) = T (D(P )). In Koordinatenschreibweise erhalt man

(G(P ))S = PS · AD + vE (7.6)

in Bezug auf das Koordinatensystem S. Ist S kartesisch, so ist AD eine Or-thogonalmatrix und die Bewegung G−1 genugt der Koordinatenschreibweise(

G−1(Q))S

= QS · ATD − vE · AT

D (7.7)

Aus der Orthogonalitatseigenschaft ADATD = E und dem Determinantensatz

18 schließt man sofort det AD ∗ det ATD = (det AD)2 = 1, also det AD = ±1.

Im Falle det AD = 1 spricht man von eigentlichen Bewegungen und imFalle det AD = −1 von uneigentlichen Bewegungen. Fur den durch dieAbbildungsmatrix AD gegebenen Isomorphismus Euklidischer Vektorraumekommen nur 1 und −1 als reelle Eigenwerte in Frage, jeder andere reelleEigenwert wurde offensichtlich die Langentreue verletzen.

7.4.1 Bewegungen in Ebene und Raum

Wir wollen nun die anschaulichen affinen Raume R2 und R3 genauer unter-suchen, dabei legen wir stets ein kartesisches Koordinatensystem S zugrundeund rechnen mit den Koordinatendarstellungen bezuglich S.

134

Preliminary version – 8. Januar 2002

Page 137: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Bewegungen in der Ebene R2

Beginnen wir mit der Untersuchung des R2. Wann ist eine Matrix A ∈ R2,2

orthogonal? Da alle Vektoren als durch ihre Koordinaten bezuglich einesOrthonormalssystems (Vektoranteil des kartesischen Koordinatensystems S)gegeben betrachtet werden, haben wir es immer mit dem Standardskalarpro-

dukt 7.1 zu tun. Die Normalitat der Zeilen und Spalten von A =

(a bc d

)bedeutet folglich

a2 + b2 = c2 + d2 = a2 + c2 = b2 + d2 = 1 . (7.8)

Zieht man nun noch die Orthogonalitat der Zeilen und Spalten hinzu, soerhalt man die Beziehungen

ac+ bd = ab+ cd = 0 . (7.9)

Aus 7.8 ergibt sich, daß jede der Variablen a, b, c und d einen Wert zwischen−1 und +1 hat, also als Sinus oder Kosinus eines Winkels aufgefaßt werdenkann. Mehr noch, es gibt einen Winkel 0 ≤ ϕ ≤ π, so daß a2 = d2 = cos2 ϕund b2 = c2 = sin2 ϕ. Wegen 7.9 und |a| = |d| sowie |b| = |c| erhalten wir,daß einer der beiden Falle

d = a und c = −b

oderd = −a und c = b

vorliegen muß. Gehort A zu einer eigentlichen Bewegung, dann scheidet derzweite Fall wegen ∣∣∣∣a b

b −a

∣∣∣∣ = −a2 − b2 ≤ 0

aus. Es gibt genau einen Winkel 0 ≤ ϕ < 2π, so daß die Beziehungena = cosϕ und b = sinϕ gelten.Wir halten also fest, jede eigentliche Bewegung D des R2, welche den Koor-dinatenursprung fest laßt, ist von der Art

D(x, y)S = (x, y)S ·(

cosϕ sinϕ− sinϕ cosϕ

).

In der Tat beschreibt die Gleichung gerade eine Drehung des affinen Raumesum den Koordinatenursprung um den Winkel ϕ, d.h. ist (x, y)S ein Punkt

135

Preliminary version – 8. Januar 2002

Page 138: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

von R2, dann ergeben sich die Koordinaten des Bildpunktes D(x, y)S, indemman den Ortsvektor von (x, y)S entgegen des Uhrzeigersinnes um ϕ dreht.Hierbei beachte man: Wir hatten oben die Auswahl, ob wir a oder b als Ko-sinus wahlen. Die von uns getroffene Entscheidung ist insofern die vernunf-tigere, daß nur sie die geometrische Deutung der Drehung um eben diesenWinkel ϕ erlaubt.Es bleibt noch die Untersuchung der uneigentlichen Bewegungen. Bereitsfruher hatten wir festgestellt, daß diese durch eine Matrix

A =

(a bb −a

)beschrieben werden. Ein wichtigter Spezialfall ist a = 1, b = 0, also

M(x, y)S = (x, y)S ·(

1 00 −1

).

Hierbei handelt es sich um eine Spiegelung an der x-Achse. Eine beliebi-ge andere uneigentliche Bewegung mit fixem Koordinatenursprung laßt sichwegen (

a bb −a

)=

(1 00 −1

)∗(a b−b a

)als Hintereinanderausfuhrung einer Spiegelung an der x-Achse und anschlie-ßender Drehung darstellen. Der Spezialfall a = −1, b = 0 stellt naturlich eineSpiegelung an der y-Achse dar. Nach unserer obigen Untersuchung kann mandiese auch erhalten, indem man an der x-Achse spiegelt und anschließend umden Winkel 180◦ (wegen cos π = −1) dreht.Betrachten wir ein weiteres Beispiel dafur, namlich die Bewegung mit A =(

0 11 0

), welche x- und y-Koordinate vertauscht. Die Zerlegung in x-Achsen-

spiegelung und Drehung gibt(0 11 0

)=

(1 00 −1

)∗(

0 1−1 0

)Im Anschluß an die Spiegelung an der x-Achse erfolgt also eine Drehung um90◦.Insgesamt halten wir fest:

136

Preliminary version – 8. Januar 2002

Page 139: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Merksatz 32 Jede Bewegung des affinen Raumes R2 ergibt sich als Hinter-einanderausfuhrung von optional einer Spiegelung an der x-Achse und danneiner Drehung um einen Winkel 0 ≤ ϕ < 360◦ und einer abschließendenParallelverschiebung um einen Vektor v ∈ R2.

Wenn eine Drehung reelle Eigenwerte hat, so muß es sich um einen doppel-ten Eigenwert 1 oder einen doppelten Eigenwert −1 handeln. Im ersten Fallhaben wir den Drehwinkel 0◦, also die Identitat. Im zweiten Fall betragt derDrehwinkel 180◦, also die Punktspiegelung am Koordinatenursprung. EineDrehspiegelung mit reellen Eigenwerten hat die Eigenwerte 1 und −1, eshandelt sich also immer um eine Spiegelung, die Richtung der Spiegelachseist durch den Eigenvektor zum Eigenwert 1 festgelegt. Achtung: die Eigen-vektoren zum Eigenwert −1 werden umgedreht, sie stehen daher nicht inRichtung zur sondern senkrecht auf der Spiegelachse.

Bewegungen im Raum R3

Betrachten wir nun eine den Koordinatenursprung fest lassende Bewegungdes R3. Die zugehorige Transformationsmatrix A besitzt immer einen reellenEigenwert, da ein Polynom vom Grad 3 mit reellen Koeffizienten aufgrund despaarweisen Auftretens komplexer Eigenwerte mindestens eine reelle Nullstellehaben muß.Betrachten wir zuerst den Fall, daß sogar alle drei Eigenwerte reell sind.

• Eigenwert 1 mit algebraischer Vielfachheit 3, Identitat.

• Eigenwert 1 mit algebraischer Vielfachheit 2 und Eigenwert −1 mitalgebraischer Vielfachheit 1, Spiegelung an der Ebene, die durch dieEigenvektoren zum Eigenwert 1 bestimmt wird.

• Eigenwert 1 mit algebraischer Vielfachheit 1 und Eigenwert −1 mit al-gebraischer Vielfachheit 2, Spiegelung an der durch den Eigenvektorenzum Eigenwert 1 bestimmten Geraden.

• Eigenwert −1 mit algebraischer Vielfachheit 3, Punktspiegelung amKoordinatenursprung.

Wir betrachten nun den allgemeinen Fall und setzen voraus, daß der ersteVektor der zugrundeliegenden Orthonormalbasis des zum affinen Raumes

137

Preliminary version – 8. Januar 2002

Page 140: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

gehorigen Vektorraumes ein Eigenvektor eines reellen Eigenwertes ist. DieAbbildungsmatrix hat dann die Gestalt

A =

±1 0 00 a b0 c d

,

wobei B =

(a bc d

)eine Bewegungsmatrix des R2 ist. Ist B eine uneigentli-

che Bewegung, also eine Drehspiegelung, dann zerlegen wir A in

A =

±1 0 00 a b0 c d

=

±1 0 00 1 00 0 −1

∗1 0 0

0 a b0 −c −d

und andernfalls in

A =

±1 0 00 a b0 c d

=

±1 0 00 1 00 0 1

∗1 0 0

0 a b0 c d

In beiden Fallen erreichen wir so, daß der rechte Faktor eine Drehung um diex-Achse ist. Der erste Faktor gehort zu einer der oben klassifizierten Bewe-gungen mit ausschließlich reellen Eigenwerten. Zusammenfassend halten wirfest:

A =

±1 0 00 1 00 0 ±1

∗1 0 0

0 cosϕ sinϕ0 − sinϕ cosϕ

und

Merksatz 33 Jede Bewegung des affinen Raumes R3 ergibt sich als Hin-tereinanderausfuhrung einer Spiegelung an einer Geraden oder einer Ebene,einer Drehung um eine Achse und einer abschließenden Parallelverschiebung.

Liegt unseren Untersuchungen eine beliebige Orthonormalbasis zugrunde,dann wird ein Problem des obigen Satzes deutlich, denn Spiegelung undDrehung mussen bezuglich irgendwie im Raum liegender Achsen beschriebenwerden.Alternativ kann man eine Zerlegung der folgenden Art vornehmen:

Merksatz 34 Jede Bewegung des affinen Raumes R3 ergibt sich als Hinter-einanderausfuhrung einer optionalen Spiegelung an der x-Ebene, einer Dre-hung um die x-Achse, einer Drehung um die y-Achse, einer Drehung um diez-Achse und einer abschließenden Parallelverschiebung.

138

Preliminary version – 8. Januar 2002

Page 141: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

7.5 Abstande und Schnittwinkel Euklidischer

affiner Teilraume

Zum Abschluß wollen wir uns noch zwei geometrischen Fragestellungen zu-wenden. Dabei betrachten wir zwei affine Teilraume A1 = (A1, V1) undA2 = (A2, V2) des Euklidischen affinen Raumes A = (A, V ) und fragen nachdem Abstand d(A1,A2), sowie in einigen Spezialfallen nach dem Schnittwin-kel ](A1,A2). Unseren Untersuchungen sollen immer Koordinaten bezuglicheines kartesischen Koordinatensystems S von A zugrunde liegen.

Definition 35 A = (A, V ) sei ein Euklidischer affiner Raum. Die Lange des

Verbindungsvektors−−→P1P2, d.h.

√⟨−−→P1P2,

−−→P1P2

⟩, bezeichnen wir als Abstand

d (P1, P2) der Punkte P1, P2 ∈ A.Sind A1 = (A1, V1) und A2 = (A2, V2) affine Teilraume von A, dann definiert

d (A1,A2) := minP1∈A1∧P2∈A2

d (P1, P2)

den Abstand der beiden Teilraume.

Die Definition des Abstands zweier Punkte als Lange ihres Verbindungsvek-tors ist naheliegend. Wie sieht es aber mit der Definition des Abstandesbeliebiger affiner Teilraume A1 und A2 von A aus? Wenn sich A1 und A2

scheiden ist das Minimum 0, das ist sicher vernunftig. Andernfalls erhebtsich zunachst die Frage nach der Existenz des Minimums der Punktabstande.Falls P1 ∈ A1 und P2 ∈ A2 Punkte minimalen Abstandes sind, so muß der

Verbindungsvektor−−→P1P2 senkrecht auf jedem Vektor der beiden Vektorraume

V1 und V2 stehen. Nehmen wir an, daß ware nicht der Fall, also existiert

o.B.d.A. ein Vektor v ∈ V1, welcher nicht orthogonal zu−−→P1P2 ist. Mit Hilfe

des Schmidtschen Orthonormalisierungsverfahrens finden wir einen Vektor

w, welcher senkrecht auf v steht und linear abhangig von v und−−→P1P2 ist.

Die in Richtung w durch P2 verlaufende Gerade g1 und die in Richtung vdurch P1 verlaufende Gerade g2 haben einen gemeinsamen Schnittpunkt P3.g2 ist Teilraum von A1, also P3 ∈ A1. Die Strecke P1P2 ist Hypothenusedes rechtwinkligen Dreiecks 4(P1, P2, P3), also in jedem Falle langer als dieStrecke P3P2. Wegen P3 ∈ A1 und P2 ∈ A2 stunde das im Widerspruch zu

d (A1,A2) = d (P1, P2), also konnte ein derartiger zu−−→P1P2 nicht orthogonaler

Vektor v ∈ V1 nicht existieren. Sind nun P1, P′1 ∈ A1 und P2, P

′2 ∈ A2 zwei

139

Preliminary version – 8. Januar 2002

Page 142: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Punktepaare mit−−→P1P2 ⊥ V1, V2 und

−−→P ′1P

′2 ⊥ V1, V2. Dann gilt insbesondere

auch −−→P1P2,

−−→P ′1P

′2 ⊥−−→P1P

′1,−−→P2P

′2 .

P2P1P′1P′2 sind demzufolge die Eckpunkte eines Rechtecks und daher folgt∣∣∣−−→P1P2

∣∣∣ =∣∣∣−−→P ′1P

′2

∣∣∣ .Wir stellen also fest, fur beliebige Punkte P1 ∈ A1 und P2 ∈ A2 mit

−−→P1P2 ⊥

V1, V2 ist d (A1,A2) = d (P1, P2). Es bleibt noch zu zeigen, daß es immerderartige Punkte gibt. Betrachtet man den in Abschnitt 5.8 angegebenenAlgorithmus zur Berechnung des Durchschnitts zweier implizit gegebener af-finer Raume, so stellt man fest, daß sich A1 und A2 im Falle V1 + V2 = Vschneiden mussen. In diesem Falle ist P1 = P2 ∈ A1 ∩ A2 eine geeigneteWahl. Schneiden sich A1 und A2 dagegen nicht, so laßt sich eine Orthonor-malbasis von V1 + V2 mittels Schmidtschem Orthonormalisierungsverfahrendurch Hinzunahme mindestens eines Vektors zu einer Orthonormalbasis vonganz V erganzen. Wir finden demnach eine Vektor O 6= v ⊥ V1, V2 und ohne

Beweis merken wir an, daß es Punkte P1 ∈ A1 und P2 ∈ A2 mit−−→P1P2‖v gibt.

Abstandsberechnungen affiner Teilraume des R3

Es gibt drei Typen echter affiner Teilraume des R3, namlich Punkte, Geradenund Ebenen. Die Abstande derartiger affiner Teilraume kann man wie folgtberechnen.

Punkt P1 - Punkt P2 Dieser Fall ist trivial, man berechnet einfach dieLange des Verbindungsvektors.

Punkt P - Gerade G G verlaufe in Richtung v durch den Punkt Q. Wir

setzen w :=−→QP . Ahnlich dem Schmidtschen Orthonmormierungsverfahren

berechnen wir den Vektor u := w − 〈v,w〉〈v,v〉 v. Dieser steht senkrecht auf v undseine Lange ist gleich dem Abstand

d (P,G) = |u| .

140

Preliminary version – 8. Januar 2002

Page 143: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Punkt P - Ebene E E verlaufe durch den Punkt Q und dehne sich in denRichtungen v, w ∈ V aus. Berechne mittels des Schmidtschen Orthonmor-mierungsverfahren einen Vektor u ∈ V , welcher senkrecht auf v und w steht.Berechne den Durchschnitt {R} von E mit der Geraden P + λu. Dann gilt

d (P,E) = |−−→P,R| .

Ebene E1 - Ebene E2 Wenn sich beide Ebenen schneiden, so haben wir

d (E1, E2) = 0 ,

andernfalls sind sie parallel und es gilt

d (E1, E2) = d (P1, E2)

fur jeden beliebigen Punkt P1 von E1.

Gerade G1 - Gerade G2 Es seien G1 : x = P1 +λv1 und G2 : x = P2 +µv2

explizite Darstellungen der beiden Geraden. Wenn sich G1 und G2 schneiden,so

d (G1, G2) = 0 ,

sind die Geraden parallel, so gilt

d (G1, G2) = d (P1, G2) .

Schließlich bleibt noch die Moglichkeit windschiefer Geraden. Dann sind E1 :x = P1 + λv1 +µv2 und E2 : x = P2 + λv1 +µv2 zwei nicht zusammenfallendeparallele Ebenen und es gilt die Beziehung

d (G1, G2) = d (E1, E2) = d (P1, E2) .

Gerade G - Ebene E Im Fall G‖E haben wir

d (G,E) = d (P,E)

fur einen beliebigen Punkt P von G. Andernfalls haben wir

d (G,E) = 0 .

141

Preliminary version – 8. Januar 2002

Page 144: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Schnittwinkel von Geraden und Ebenen des R3

Von einem Schnittwinkel affiner Raume A1 und A2 kann man sinnvollerweisehochstens dann sprechen, wenn sich A1 und A2 tatsachlich schneiden. Fursich schneidende Geraden liegt es nahe, den von den Richtungsvektoren v1

beziehungsweise v2 beider Geraden eingeschlossenen Winkel zu verwenden.Da mit v2 auch −v2 Richtungsvektor der zweiten Gerade ist und ](v1, v2) =180◦−](v1,−v2) gilt, bedarf es einer weiteren Prazisierung dieser Definition.Wir verlangen, daß der Schnittwinkel im Bereich zwischen 0◦ und 90◦ liegensoll. Also

cos](G1, G2) = cos](v1, v2) =〈v1, v2〉|v1| |v2|

,

wobei die Richtungsvektoren v1 und v2 so gewahlt sind, daß 〈v1, v2〉 ≥ 0 gilt.Ohne sich uber den Richtungssinn der Vektoren v1 und v2 Gedanken machenzu mussen, kann man diese Beziehung auch durch

cos](G1, G2) =

∣∣∣∣ 〈v1, v2〉|v1| |v2|

∣∣∣∣charakterisieren.Nun mag man hoffen, analog zur Abstandsdefinition das Minimum oder Ma-ximum von ](v1, v2) fur v1 ∈ V und v2 ∈ V als Schnittwinkel zu vereinbaren.Beide Definitionen sind jedoch leider nicht sinnvoll.Einen Ausweg gibt es im Falle von Hyperebenen, da man dort eine eindeutigbestimmte Richtung hat, die senkrecht auf der Hyperebene steht.So definiert man den Schnittwinkel zweier nicht paralleler Ebenen E1 und E2

des R3 durch](E1, E2) = ](v1, v2) ,

wobei v1 ⊥ V1, v2 ⊥ V2 und 〈v1, v2〉 ≥ 0.Schließlich kann man den Winkel zwischen einer Ebene E und einer schnei-denden Geraden G als

](E,G) = 90◦ − ](v, w) ,

wobei v senkrecht auf E steht, w Richtungsvektor von G ist und 〈v, w〉 ≥ 0gilt.

142

Preliminary version – 8. Januar 2002

Page 145: Lineare Algebra und analytische Geometrieapel/LA0102/skript/linalg.pdfLineare Algebra und analytische Geometrie J. Apel Vorlesung WS 2001/02 Preliminary version { 8. Januar 2002

Literaturverzeichnis

[1] Eisenreich. Lineare Algebra und analytische Geometrie, Akademie-Verlag, Berlin, 1989.

[2] Kiyek, Schwarz. Mathematik fur Informatiker 1,2. Teubner, Stuttgart,1991. (Band 1, Kapitel I, II; Band 2, Kapitel VIII, XII,XIII,XIV)

[3] Lau. Mathematik fur Informatiker. Band 1, Grundbegriffe derMathematik, Lineare Algebra und analytische Geometrie I, 1995.URL: http://www.math.uni-rostock.de/~dlau, Anonymous-ftp:ftp://ftp.math.uni-rostock.de/pub/members/lau/skripte/MfI1.ps.gz

[4] Manteuffel, Seiffart, Vetters. Lineare Algebra. MINOL (Mathematik furIngenieure, Naturwissenschaftler, Okonomen, Landwirte) 13, Teubner,Leipzig, 1978.

143

Preliminary version – 8. Januar 2002