Skript LAAG II - Fakultät Mathematik — TU Dresdensschmidt/laag-2/skript-laag2.pdf ·...

Preview:

Citation preview

Skript LAAG II

Stefan E. Schmidt

LATEX: Maximilian Marx

Jens Zumbr�agel

TU Dresden

Sommersemester 2014

Version vom 29.08.2014

Inhaltsverzeichnis

”Wenn Leute nicht glauben, dass Mathematik einfach ist, dann nur deshalb,

weil sie nicht begreifen, wie kompliziert das Leben ist.“

(– John von Neumann)

1 Projektionen, Basen, Austauschprinzip 1

1.1 Projektionen und Retraktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Steinitzsches Austauschprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Erzeugter Unterraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Projektive und affine Geometrie 9

2.1 Unterraumverband . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2 Projektive Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.3 A�ne Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.4 Rang- und Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Multilinearitat und Determinanten 25

3.1 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.2 Determinanten, Leibniz-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.3 Multilineare Fortsetzung und Anwendungen . . . . . . . . . . . . . . . . . . 30

3.4 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.5 Elementargeometrie in euklidischen Vektorr�aumen . . . . . . . . . . . . . . . 35

4 Charakteristisches Polynom 41

4.1 Aktionsnetzwerke und Faltungsalgebren . . . . . . . . . . . . . . . . . . . . . 42

4.2 Eigenwerte, Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.3 Caley-Hamilton, Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . 51

iii

1 Projektionen, Basen, Austauschprinzip

SeiM = (M,S,σ) linksseiter Semiring-Modul,"Modul �uber S\.

Laxe Schreibweise MS

∶=M.

1.1 Beispiel

Mod(S,P) = (S(P)add

,S,σ), P Menge, wobei σ(s,λ) ∶= s ⋅ λ ∶ P → S, p↦ s ⋅ λp.(Anwender: 3 ⋅ (7, 3, 5) = (3 ⋅ 7, 3 ⋅ 3, 3 ⋅ 5), P = {p,q, r}, s = 3, λp = 7, λq = 3, λr = 5.)Laxe Schreibweise S

(P)S

∶= Mod(S,P), f�ur P endlich SPS

. F�ur S = R also RPR

reeller

Vektorraum.

Ganz lax S(P) ∶= S(P)

S, f�ur S = R also R(P). F�ur P = [n] sei Sn ∶=Mod(S, [n]), also Rn

n-dimensionaler reeller Vektorraum (n = 2 Ebene, n = 3 Raum). 2

Es ist δP ∶ P → S(P), p↦ δPp Standardbasis"Diracbasis\ von Mod(S,P) = S(P), wobei

δPp ∶ P → S, q↦⎧⎪⎪⎨⎪⎪⎩

1 f�ur q = p,0 sonst.

Universelle Eigenschaft (lineare Abbildungen): Sei M = (M,S,σ) Semiring-Modul und

sei γ ∈MP:

PδP

}}||||||||γ

��????????

S(P) M

Dann existiert genau eine lineare Abbildung fγ ∶ Mod(S,P) → M, gegeben durch λ ↦λ ∗ γ ∶= ∑p∈P λp ⋅ γp, so dass das Diagramm

PδP

}}||||||||γ

��????????

S(P) fγ//

///

M

kommutiert, das hei�t fγ ○ δP = γ. Sinnbild:

PδP

zzuuuuuuuuuuγ

��@@@@@@@@

Mod(S,P)∃!fγ

//

///

M

1

1 Projektionen, Basen, Austauschprinzip

1.1 Projektionen und Retraktionen

Jede Abbildung f ∶ A→ B hat eine Zerlegung f = ι ○ g ○ πA/kerf wie folgt:

x_

��

Af //

πA/ker f

����

///

B y

[x]ker f A/ker f ∼g

// Im f� ?

ι

OO

y_

OO

[x]ker f � // fx

Entsprechendes gilt f�ur Morphismen f ∶ A→ B (zum Beispiel) von Monoiden A und B.

Wichtige Einsicht zu Projektionen Was ist eine Projektion?

"intern\: lineare Projektion, das hei�t lineare AbbildungM ϕ−→M (Endomorphismus)

mit ϕ2 = ϕ (idempotent)

"extern\: Retraktion (Zur�uckziehung), Split-Epi (entscheidender Teil einer Projektion,

"externe Projektion\)

(Raum) Af //

B (Ebene)goo

Zum Beispiel f ∶ R3 → R2, (x,y, z) ↦ (x,y), und g ∶ R2 → R3, (x,y) ↦ (x,y, 0), dannprojiziert f Raum auf Ebene, g bettet Ebene in den Raum ein.

1. f Retraktion zu g, das hei�t f ○ g = idB.

2. g Sektion zu f, das hei�t f ○ g = idB.

3. π ∶= g ○ f idempotente Abbildung ("verallgemeinerte Projektion\), denn

π ○ π = (g ○ f) ○ (g ○ f) = g ○ (f ○ g) ○ f = g ○ f = π.

p

f

fp

g

gfp = πp

1.2 Beispiel

Sei ϕ Morphismus von einem Monoid M = (M,+, 0) in ein Monoid M ′ = (M ′,+ ′, 0 ′), dashei�t M

ϕ−→ M ′, ϕ(x + y) = ϕx + ′ ϕy, ϕ0 = 0 ′.Sei U ⊆ M Transversale von ϕ, das hei�t zu jedem x ∈ M existiert genau ein ux ∈ U

mit ϕx = ϕ(ux), also ist U Vertretersystem von M/kerϕ, und U bildet ein Untermonoid

von M (das hei�t u,w ∈ U⇒ u +w ∈ U und 0 ∈ U).

2

1.1 Projektionen und Retraktionen

Sei ε ∶ M → U, x ↦ ux und ι ∶ U → M, u ↦ u. O�ensichtlich (nach De�nition) gilt

ε ○ ι = idU, das hei�t ε ist Retraktion zu ι. Zugeh�orige Projektion ist π ∶= ι ○ ε ∶M→M.

Mϕ //

ε

@@@@@@@@@@@@@

π∶=ι○ε

��

M ′

M ε// U/ O

ι

``@@@@@@@@@@@@@� ?

ψ∶=ϕ○ι

OO

Behauptung: ε Morphismus, das hei�t ux+y = ux + uy f�ur alle x,y ∈M, und u0 = 0.Begr�undung: Es gilt ϕ(ux+y) = ϕ(x + y) = ϕx + ϕy = ϕ(ux) + ϕ(uy) = ϕ(ux + uy)

(weil U Transversale von ϕ, und ϕ Morphismus). Also ϕ(ux+y) = ϕ(ux + uy), somit

ux+y = ux + uy (weil U Transversale von ϕ). Au�erdem gilt ux = x f�ur alle x ∈ U, da UTransversale von ϕ ist. Insbesondere ist u0 = 0, da 0 ∈ U ist.

Also ist ε ∶M→ U, x↦ ux Morphismus von M nach U ∶= M∣U mit ε ○ ι = idU, das hei�tε ist Retraktion zu ι. Also π ∶= ι ○ ε ist idempotent (verallgemeinerte Projektion), es gilt

sogar ε ○ π = ε, da ε ○ (ι ○ ε) = (ε ○ ι) ○ ε = idU ○ε = ε.

Behauptung: ψ ∶= ϕ ○ ι = ι∣U ist Einbettung, das hei�t injektiv. F�ur x ∈ U ist ψx =ϕ(ιx) = ϕx. Sei x,y ∈ U mit ψx = ψy, also ϕx = ϕy, dann ist x = y, da U Transversale ist.

Also ist ϕ = ψ ○ ε mit ψ Einbettung und ε Retraktion. 2

Warnung: Oft hat ϕ keine Transversale U. Beispiel: ϕ ∶ Z→ Z2, x↦⎧⎪⎪⎨⎪⎪⎩

1 x ungerade,

0 gerade.

Versuche U ∶= 2Z = Kerϕ? Es gibt kein 2-elementiges Untermonoid von Zadd.

Transversalen von linearen Abbildungen Seien M = (M,S,σ) und M ′ = (M ′,S,σ ′)Semiring-Moduln. U ⊆M bilde Untermodul (

"Unterraum\) vonM, das hei�t �0 ∈ U und

aus u,v ∈ U folgt stets u + v ∈ U, und f�ur s ∈ S und u ∈ U ist stets su = σ(s,u) ∈ U (laxe

Notation U ≤M).

Sei au�erdem ϕ lineare Abbildung von M nach M ′, das hei�t ϕ�0 = �0 ′, ϕ(v1 + v2) =ϕv1 +ϕv2 und ϕ(sv) = sϕv f�ur alle v,v1,v2 ∈M, s ∈ S (folglich ist ϕ(λ ∗ γ) = λ ∗ (ϕ ○ γ),das hei�t ϕ(∑p∈P λp ⋅ γp) = ∑p∈P λp ⋅ ϕ(γp), f�ur alle λ ∈ SP und γ ∈ MP f�ur beliebige

endliche Mengen P).

Eine Transversale von ϕ ∶M→M ′ ist ein Untermodul U ≤M derart, dass:

∀x ∈M ∃!ux ∈ U ∶ ϕx = ϕ(ux).

1.3 Beispiel

Sei ϕ Projektion von R3 =Mod(R, [3]), zum Beispiel

R3 → R3, (x1,x2,x3)→ (x1,x2, 0),

U = Imϕ = R2 × {0} = {λ ∈ R[3] ∣ suppλ ⊆ [2]}. Zu x = (x1,x2,x3) ist ux = (x1,x2, 0) = ϕx,ϕx = ϕ(ϕx) = ϕ(ux) (R3 ≡ R[3], (x1,x2,x3) = x1δP1 + x2δP2 + x3δP3 f�ur P = [3] = {1, 2, 3}).Beachte R2 ≠ U = R2 × {0}. 2

3

1 Projektionen, Basen, Austauschprinzip

Allgemein gilt: IstM ϕ−→M (alsoM =M ′) Projektion, das hei�t ϕ linear und idem-

potent, so ist U ∶= Imϕ = ϕM Transversale von ϕ.

Begr�undung: Sei x ∈M, setze ux ∶= ϕx. Dann ist ϕx = ϕ(ϕx) = ϕ(ux). Sei u ∈ U mit

ϕx = ϕu. Dann existiert y ∈ M mit u = ϕy (da u ∈ U = Imϕ), also ux = ϕx = ϕu =ϕ(ϕy) = ϕy = u. Also ist ux eindeutig.

Weiter ist ε ∶ M → U, x ↦ ux lineare Abbildung (�Ubung!). Es ist sogar ε Retraktion

von ι ∶ U→M, x ↦ x, da ε ○ ι = idU.Dann ist π ∶= ι ○ ε ∶ M → M, x ↦ (ι ○ ε)x = ι(εx) = ι(ux) = ux (triviale Fortsetzung

von ε im Wertebereich) Projektion, und ψ ∶= ϕ ○ ι = ϕ∣U (Einschr�ankung von ϕ auf

U) ist injektiv, das hei�t U ψ−→ M ist Einbettung von U (der von U in M induzierte

Semiring-Modul) inM.

1.4 Theorem

Seien M = (M,S,σ) und M ′ = (M ′,S,σ ′) Semiring-Moduln und M ϕ−→ M ′ lineare

Abbildung mit Transversale U; bezeichne U den induzierten Untermodul zu U inM,

also U ∶= M∣U. Dann gibt es eine Retraktion ε von ι ∶ U →M, x ↦ x (Inklusionsab-

bildung von U in M) mit

M ϕ //

ε

!!CCCCCCCCCCCCCC M ′

M

ι○ε=∶π

OO

ε//

///

///

U

ψ∶=ϕ○ι

OO

ι

aaCCCCCCCCCCCCCC

Insbesondere ist ϕ = ψ ○ ε Verkettung einer Retraktion mit einer Einbettung. 2

Warnung:M = (Zadd,Z,σ) undM ′ = ((Zadd)12,Z,σ ′) und

ϕ ∶ Z→ Z12, x↦ x12 ∶= x mod 12

(Rest von x geteilt durch 12). Dann gibt es keine Transversale von ϕ!

Denn ist U ≤ Zadd, dann existiert n ∈ N mit U = n ⋅ Z, somit ist U unendlich (n ≠ 0)

oder einelementig (n = 0), das hei�t U = {0}, ϕZ ist aber 12-elementig. Es m�usste ϕ∣Uinjektiv sein, Widerspruch.

Ausblick: Ist S Divisionsring (zum Beispiel K�orper), so hat jede lineare Abbildung

M ϕ−→ M ′ eine Transversale (also ϕ = ψ ○ ε mit ψ Einbettung, ε Retraktion). (Und:

Steinitzsche Austauscheigenschaft.)

1.2 Steinitzsches Austauschprinzip

Sei S Divisionsring, M = (M,S,σ) =∶ MS

Semiring-Modul. M hei�t auch (linksseitiger)

Vektorraum �uber S. Ein kommutativer Divisionsring hei�t K�orper. Meist werden Vek-

torr�aume �uber K�orpern betrachtet.

Q,R,C,Zp (p prim) sind Beispiele f�ur K�orper. H Hamiltonsche Quaternionen ist Beispiel

eines Divisionsringes ("Schiefk�orper\), der kein K�orper ist.

CR

≃ R2R

, HR

≃ R4R

.

4

1.2 Steinitzsches Austauschprinzip

Steinitzsche Austauscheigenschaft Sei M Vektorraum, M = MS

, M = (M,+, �0) kom-

mutative Gruppe von"abstrakten\ Vektoren, S = (S,+, ⋅, 0, 1) Divisionsring (zum Beispiel

K�orper). Bilde U ⊆M Unterraum vonM, das hei�t �0 ∈ U und ∀u,w ∈ U ∶ u +w ∈ U und

∀s ∈ S ∀u ∈ U ∶ su = σ(s,u) ∈ U.

�0 ∈!U

u ∈ Uw ∈ U

u +w ∈!U

�0

u ∈ U

su ∈!U

Dann folgt Su + Sw ∶= {su + tw ∣ s, t ∈ S} ⊆ U f�ur alle u,w ∈ U.

�0u ∈ U

w ∈ U

su + tw ∈!U

Su + Sw ⊆!U

1.5 Beispiel

SeiM = R3 und seien u,w ∈ R3∖{�0} mit Ru ≠ Rw, sowie U ∶= Ru+Rw. F�ur jedes v ∈ R3∖Ugilt dann

U + Rv = R3,

also ∀λ ∈ R3 ∃u ∈ U, r ∈ R ∶ u + rv = λ.Das hei�t, ist (u,w) unabh�angig in R3 und ist v ∈ R3 ∖U, dann ist (u,v,w) Basis. 2

Steinitz verallgemeinert das Austauschprinzip des R3:

1.6 Theorem

SeiM Vektorraum �uber Divisionsring S. Bilde U ⊆M Unterraum vonM, und seien

p,q ∈M mit q ∈ U + Sp und q /∈ U. Dann ist p ∈ U + Sq, das hei�t U + Sp = U + Sq. 2

Beweis

Sei q ∈ U + Sp. Dann existieren u ∈ U und s ∈ S mit q = u + sp. W�are s = 0, so folgte

q = u ∈ U, Widerspruch (denn q /∈ U). Also ist s ≠ 0, und folglich p = −s−1u+s−1q ∈ U+Sq.Also q ∈ U + Sp und q /∈ U impliziert p ∈ U + Sq, daraus folgt U + Sp = U + Sq. ∎

Anwendung:

1. Jedes minimale endliche"Erzeugendensystem\ (das hei�t γ ∶ P →M erzeugtM, das

hei�t fγ ist surjektiv; minimal: γ∣P0 erzeugt nicht, falls P0 ⫋ P; P endlich) ist bereits

Basis vonM.

2. Ist M endlich erzeugt (das hei�t, es gibt γ ∶ P → M mit P endlich und γ erzeugt

M), so l�asst sich jede unabh�angige Familie vonM zu einer Basis erg�anzen.

5

1 Projektionen, Basen, Austauschprinzip

Etwas formaler: Seien P,Q endliche Mengen und sei γ ∶ P → M erzeugend

bez�uglichM,"Erzeugendensystem\ vonM (zum BeispielM =Mod(S,P), γ ∶= δP).

Ist η ∶Q→M unabh�angig inM (das hei�t fη injektiv, also Ker fη = {�0}), so existiert�Q ⊇Q mit #�Q ≤#P, und �η ∶ �Q→M mit �η∣Q = η, so dass �η Basis vonM ist.

1.3 Erzeugter Unterraum

Der Nullraum Kleine Quizfrage: SeiM = (M,S,σ) Semiring-Modul.

∅δ∅

yyttttttttttγ ?

@@@@@@@@

Mod(S,∅)?fγ ?

//M

Fall P = ∅, γ ∶ ∅→M, δ∅ ∶ ∅→ S∅ = {∅→ S}. Macht das hier Sinn?

Es ist Mod(S,∅) = (S∅add

,S,σ), S∅add

= (S∅,+, �0), mit S∅ = {∅→ S} = {�0} (setze �0 ∶=(∅→ S)) der Nullraum zu S.

Zu λ ∈ S∅ ist fγλ = λ ∗ γ = ∑p∈∅ λp ⋅ γp = ∑(∅ →M) = 0M, wobei M = (M,+, 0M). Alsoist S∅ = {�0}

fγ−→M, �0↦ 0M die Nullabbildung. Macht also auch Sinn f�ur P = ∅.Es ist fγ injektiv, also γ = (∅→M) unabh�angig inM { die leere Familie ist unabh�angig.

Erzeugter Unterraum, Mengensicht Sei M = (M,S,σ) Semiring-Modul mit M =(M,+, �0) kommutatives Monoid und S = (S,+, ⋅, 0, 1) Semiring. F�ur γ ∶ P →M sei

spanM γ ∶= ⟨γ⟩M ∶= Im fγ = {λ ∗ γ = ∑p∈P

λp ⋅ γp ∣ λ ∈ S(P)} = S(P) ∗ γ = ∑p∈P

Sγp,

also spanM γ = ∑p∈P Sγp ist der von γ inM erzeugte Unterraum vonM.

F�ur v ∈M ist Sv ∶= {sv ∣ s ∈ S} die von v erzeugte Gerade durch �0 inM.

reLAXed: spanγ ∶= spanM γ, ⟨γ⟩ ∶= ⟨γ⟩M.

1.7 Beispiel

SeiM = R3, P = [2] und γ ∶ P → R3, γ = (γ1,γ2), γ1 = (1, 1, 0), γ2 = (2, 0, 1). Dann ist

spanR3 γ = ∑i∈[2]

Rγi = Rγ1 + Rγ2

= {rγ1 + sγ2 ∣ r, s ∈ R}= {(r, r, 0) + (2s, 0, s) ∣ r, s ∈ R}= {(r + 2s, r, s) ∣ r, s ∈ R}

die von γ = ((1, 1, 0), (2, 0, 1)) erzeugte Ebene durch (0, 0, 0) im R3. 2

"Mengensicht\: F�ur X ∈ 2M (das hei�t X ⊆M) sei id(X,M) ∶ X→M, x↦ x und

spanMX ∶= ⟨X⟩M ∶= spanM id(X,M) = ∑x∈X

Sx,

6

1.3 Erzeugter Unterraum

das hei�t X ⊆ M wird als id(X,M) interpretiert (�ubliche Schreibweisen ⊆MX ∶= ιMX ∶=id(X,M)).Also gilt: spanM γ = spanM γP f�ur jedes γ ∈MP.

Beispiel: P = [3], 1↦ γ1, 2↦ γ2, 3↦ γ3, dann γ = (γ1,γ2,γ3)↦ γP = {γ1,γ2,γ3}.

In der Mengensicht ("ungeordnet\,

"ohne Bezug\,

"Reihenfolge vergessen\) de�nie-

ren wir nun unabh�angige Teilmengen, erzeugende Teilmengen und Basis als Menge in

Semiring-Moduln: �Ubergang von γ ∈MP nach Imγ = γP.SeiM = (M,S,σ) Semiring-Modul. Ist X ⊆M, dann l�asst sich Xmit sich selbst indizieren,

das hei�t X ersetzen durch id(X,M) = ⊆MX = ιMX ∶ X→M, x↦ x.

1.8 Definition

SeiM = (M,S,σ) Semiring-Modul und X ⊆M.

� X hei�t unabh�angig inM, falls id(X,M) unabh�angig inM ist, das hei�t ∑x∈X λx⋅x =∑x∈X νx ⋅x impliziert λ = ν (das hei�t λx = νx f�ur alle x ∈ X) f�ur beliebige λ,ν ∈ S(X).

� X erzeugt M, falls id(X,M) den Modul M erzeugt, das hei�t zu jedem v ∈ Mexistiert ein λ ∈ S(X) mit v = ∑x∈X λx ⋅ x.

� X ist Basis vonM, falls X unabh�angig und erzeugend bez�uglichM ist. 2

Hullenoperatoren

1.9 Proposition

Es ist spanM ∶ 2M → 2M ein H�ullenoperator auf 2M ∶= (2M,⊆) (Potenzmengenverband),

das hei�t

1. ∀X ∈ 2M ∶ X ⊆ spanMX (da v ∈ ∑x∈X Sx f�ur jedes v ∈ X), und

2. ∀X,Y ∈ 2M ∶ X ⊆ spanM Y ⇒ spanMX ⊆ spanM Y (�Ubung). 2

1.10 Definition

Allgemein hei�t f�ur eine geordnete Menge P = (P,≤P) eine Abbildung h ∶ P → P

H�ullenoperator auf P, falls gilt:

1. ∀x ∈ P ∶ x ≤P hx,2. ∀x,y ∈ P ∶ x ≤P hy ⇒ hx ≤P hy.

Es hei�t hx die H�ulle von x bez�uglich h. 2

Anmerkung: Eine Abbildung h ∶ P → P ist H�ullenoperator auf P genau dann, wenn

1. h expansiv, das hei�t x ≤P hx f�ur alle x ∈ P,

2. h isoton bzw. monoton, das hei�t x ≤P y ⇒ hx ≤P hy f�ur alle x,y ∈ P, und

3. h idempotent, das hei�t h(hx) = hx f�ur alle x ∈ P, ist.

Es ist h ∶ P → P H�ullenoperator genau dann, wenn ∀x,y ∈ P ∶ x ≤P hy ⇔ hx ≤P hy.

7

1 Projektionen, Basen, Austauschprinzip

1.11 Definition (Matroid-Operatoren)

Sei M Menge und sei span H�ullenoperator auf 2M. span hei�t algebraisch, falls spanX =⋃{span T ∣ T endliche Teilmenge von X} f�ur alle X ∈ 2M.

span hat die Steinitzsche Austauscheigenschaft, falls gilt:

∀p,q ∈M ∀X ∈ 2M ∶ p ∈ span(X ∪ {q}) ⇒ p ∈ spanX ∨ q ∈ span(X ∪ {p}).

Ist span algebraisch mit Austauscheigenschaft, so hei�t span Matroid-Operator.

span hei�t endlich erzeugend, falls eine endliche Teilmenge T von M mit span T =Mexistiert. 2

Gegenbeispiel: Konvexe H�ulle hat nicht Austauscheigenschaft.

1.12 Satz

Ist span endlich erzeugender Matroid-Operator, so hatM bez�uglich span eine endliche

Basis. Je zwei Basen sind gleichm�achtig; diese M�achtigkeit sei die Dimension von M

bez�uglich span. 2

Was ist hier eine Basis? Basis ist erzeugende unabh�angige Teilmenge von M:

1. X ∈ 2M hei�t unabh�angig in (M, span), falls ∀x ∈ X ∶ x /∈ span(X ∖ {x}) gilt.

2. X ∈ 2M hei�t erzeugend bez�uglich (M, span), falls spanX =M.

3. X Basis bez�uglich (M, span) falls X unabh�angig und erzeugend ist.

1.13 Satz

Ist (M, span) endlich erzeugtes Matroid (das hei�t span ist endlich erzeugender

Matroid-Operator auf 2M). Dann ist jede unabh�angige Menge in einer Basis enthal-

ten (bez�uglich (M, span))"Basis-Fortsetzung\.

Jede bez�uglich (M, span) minimale, erzeugende Menge ist bereits Basis bez�uglich

(M, span). 2

8

2 Projektive und affine Geometrie

2.1 Unterraumverband

SeiM = (M,S,σ) Modul �uber Semiring, M = (M,+, �0), U ⊆M Unterraum, falls �0 ∈ U und

∀x,y ∈ U ∶ x + y ∈ U und ∀s ∈ S ∀x ∈ U ∶ sx = σ(s,x) ∈ U. Betrachte

LM ∶= {U ⊆M ∣ U bildet Unterraum vonM} ,

dann ist LM ∶= (LM,⊆) der Unterraumverband vonM.

Vollstandige Verbande Was ist ein Verband (\lattice")?

x ∨ y kleinste obere Schranke von {x,y}

x

zzzzzz

DDDDDD y

EEEEEE

yyyyyy

x ∧ y gr�o�te untere Schranke von {x,y}

2.1 Definition

P = (P,≤P) hei�t verbandsgeordnete Menge (kurz Verband), falls P = (P,≤P) geordnete

Menge ist, f�ur die gilt: Zu x,y ∈ P existiert stets das Supremum von {x,y} (kleinste obereSchranke von {x,y}), und das In�mum von {x,y} (gr�o�te untere Schranke von {x,y})in P; Bezeichnung x ∨ y ∶= sup{x,y}, x ∧ y ∶= inf {x,y}. 2

Formal: Es existieren zwei 2-stellige Operationen auf P, bezeichnet mit ∨ ∶ P × P → P,

(p,q)↦ p ∨ q und ∧ ∶ P × P, (p,q)↦ p ∧ q derart, dass gilt:

1. ∀p,q ∈ P ∶ p ≤P p ∨ q, q ≤P p ∨ q und ∀t ∈ P ∶ p ≤P t, q ≤P t ⇒ p ∨ q ≤P t,

2. ∀p,q ∈ P ∶ p ∧ q ≤P p, p ∧ q ≤P q und ∀t ∈ P ∶ t ≤P p, t ≤P q ⇒ t ≤P p ∧ q.

Notation: supP {p,q} ∶= p ∨ q Supremum von {p,q} und infP {p,q} ∶= p ∧ q In�mum von

{p,q} in P.

"Supremum-Bild\:

p ∨ q

p

??�������q

__???????und

t

p ∨ q

OO���

p

AA

<<yyyyyyyyq

^^

bbEEEEEEEE

9

2 Projektive und a�ne Geometrie

"In�mum-Bild\:

p q

p ∧ q

__???????

??�������und

p q

p ∧ q

bbEEEEEEEE

<<yyyyyyyy

t

OO���

UU II

Gegenbeispiel: Geordnete Menge, die kein Verband ist:

x y

x ∨ y ? x ∨ y ?

Geometrisch, in LR3:

U ∩W = U ∧W = infLR3

{U,W} = inf {U,W}

U +W = U ∨W = supLR3

{U,W} = sup{U,W}

U

W�0

U ∩W

U +W

Allgemein ist LM f�urM Semiring-Modul ein Verband!

Hierbei ist U ∨W = supLM {U,W} = U +W (wobei U +W ∶= {u +w ∣ u ∈ U ∧w ∈W})und U ∧W = infLM {U,W} = U ∩W f�ur U,W ∈ LM.

Versch�arfung: P = (P,≤P) hei�t vollst�andiger Verband, falls zu jeder Teilmenge X von P

in P eine kleinste obere Schranke, genannt das Supremum von X in P, und eine gr�o�te un-

tere Schranke, genannt das In�mum von X in P, existiert. Das hei�t, es gibt Abbildungen

⋁ ∶ 2P → P"Join\ (Operator) und ⋀ ∶ 2P → P

"Meet\ (Operator) mit:

1. ∀X ∈ 2P ∶ ∀x ∈ X ∶ x ≤P ⋁X und ∀t ∈ P ∶ (∀x ∈ X ∶ x ≤P t) ⇒ ⋁X ≤P t.

2. ∀X ∈ 2P ∶ ∀x ∈ X ∶ ⋀X ≤P x und ∀t ∈ P ∶ (∀x ∈ X ∶ t ≤P x) ⇒ t ≤P ⋀X.

Notation: supPX ∶= ⋁X, infPX ∶= ⋀X. Schreibweisen: x1∨x2 ∶= supL {x1,x2}, x1∨⋯∨xn ∶=supL {x1, . . . ,xn}, x1 ∧ x2 ∶= infL {x1,x2}, x1 ∧⋯ ∧ xn ∶= infL {x1, . . . ,xn}.

10

2.2 Projektive Geometrie

Unterraumverband SeiM = (M,S,σ) Modul �uber Semiring, LMMenge aller U ⊆M, die

Unterraum vonM bilden. Dann ist LM ∶= (LM,⊆) vollst�andiger Verband mit supLMX =⋁X = ∑X und infLMX = ⋀X = ⋂X f�ur alle X ∈ 2LM (das hei�t X ⊆ LM).

F�ur A ∈ (LM)I sei ∑A ∶= {∑α ∣ α ∈M(I),∀i ∈ I ∶ αi ∈ Ai} und f�ur X ∈ 2LM sei ∑X ∶=∑ id(X ,LM). F�ur X ⊆ LM ist also

supLMX =∑X =∑ id(X ,LM) = ∑

X∈XX = { ∑

X∈XvX ∣ ∀X ∈ X ∶ vx ∈ X}

(Notation ist okay, aber nicht sch�on).

Bessere Notation: Sei L vollst�andiger Verband, f�ur α ∶ I→ L sei supLα ∶= supLαI.F�ur L = LM ist dann

supLM

A =∑i∈IAi = {∑α ∣ α ∈M(I),∀i ∈ I ∶ αi ∈ Ai} = {∑

i∈Iαi ∣ α ∈M(I),∀i ∈ I ∶ αi ∈ Ai}

("Index-Notation\ ist hier sch�oner).

2.2 Projektive Geometrie

"Geometrie mit Verb�anden\ geht zur�uck insbesondere auf Karl Menger, aber auch Rein-

hold Baer, John von Neumann.

M Semiring-Modul, LM = (LM,⊆) Unterraumverband.IstM Vektorraum, so hei�t LM die zuM geh�orige projektive Geometrie.

Projektive Punkte 1-dimensionale Unterr�aume,

Projektive Geraden 2-dimensionale Unterr�aume,

Projektive Ebenen 3-dimensionale Unterr�aume,

Projektive k-dim. Unterraume (k + 1)-dimensionale Unterr�aume (das hei�t, es gibt eine

(k + 1)-elementige Basis).

"Strahlenmodell\:

0

Sv

vw

Sv + Sw

11

2 Projektive und a�ne Geometrie

Projektive Ebene Die projektive Ebene (als Verband) �uber R ist gerade LR3 (wobei

R3 =Mod(R, [3])),"Albrecht D�urer\.

�0R(1, 0, 0)

E

E"Anschauungsebene\, R(1, 0, 0) = Rδ31 tri�t nicht E, ist Fernpunkt (δni ∶= δ

[n]i ).

x1

x2 x ′1x ′2

Fernpunkt

Horizontlinie

a�ne Sicht projektive Sicht

A�ne Sicht und projektive Sicht in ein Paket: (LR3,E0 = R2 × {0}), wobei E0 "Horizontli-nie\, Ferngerade und E ∶= E1 = R2 × {1}.

Rδ33

E = E1 = R2 × {1}

E0 = R2 × {0}

Projektive Erweiterung des Rn (als"a�ner Raum\) ist (LRn+1,Rn×{0}), wobei Rn×{0}

Fernhyperebene (n = 2 Ferngerade, n = 3 Fernebene"Firmament\).

Seien U1,U2 projektive Geraden (/⊆ E0) und seien ~U1 ∶= U1 ∩ E, ~U2 ∶= U2 ∩ E "a�ne

Geraden\. Dann gilt:

~U1 ∥ ~U2 (parallel) ⇔ U1 ∩U2 ⊆ E0 oder U1 = U2

A�(M ∣ E) a�ne Geometrie induziert durchM betrachtet auf E.

E = E1

E0

~U1

~U2

U1 U2

U1 ∩U2

Sei U0 = U1 ∩U2 und u1 ∈ ~U1, u2 ∈ ~U2, dann ~U1 = u1 +U0, ~U2 = u2 +U0 (algebraischer

Begri� von Parallelit�at).

12

2.2 Projektive Geometrie

Verbandstheoretische Charakterisierung F�ur projektive Geometrie wichtiges Gesetz:

Ein vollst�andiger Verband L = (L,≤) hei�t modular, falls

∀x, z,u ∈ L ∶ x ≤ u ⇒ (x ∨ z) ∧ u = x ∨ (z ∧ u).

2.2 Proposition

Ist M = (M,S,σ) Ringmodul (also S ist Ring), so ist LM modular, das hei�t f�ur alle

X,Z,U ∈ LM mit X ⊆ U gilt (X +Z) ∩U = X + (Z ∩U). 2

Beweis

"⊆\: Sei u ∈ (X+Z)∩U, also gibt es x ∈ X und z ∈ Z mit u = x+ z. Dann ist z = −x+u ∈ U,denn x ∈ X ⊆ U und u ∈ U; also z ∈ Z ∩U. Somit ist u = x + z ∈ X + (Z ∩U).

"⊇\: Es ist X ⊆ X +Z und X ⊆ U, sowie Z ∩U ⊆ X +Z und Z ∩U ⊆ U. ∎

Sei L = (L,≤) ein vollst�andiger Verband. Wir bezeichnen mit 0L ∶= supL∅ = infL L das

kleinste Element in L und mit 1L ∶= infL∅ = supL L das gr�o�te Element in L. Es sei

⋖ ∶= {(x,y) ∈ L × L ∣ x ≤ y und /∃ t ∈ L ∶ x < t < y}

die Nachbarschaftsrelation, dann ist N (L,⋖) Hasse-Diagramm (Hasse-Netzwerk) zu L.

Ein vollst�andiger Verband L hei�t atomistisch, falls jedes x ∈ L Supremum seiner Atome

ist, das hei�t x = supA(x), wobei A(x) ∶= {a ∈ A ∣ a ≤ x} und A ∶= {a ∈ L ∣ 0L ⋖ a} die

Menge der Atome in L sei.

2.3 Satz

Sei L = (L,≤) vollst�andiger Verband derart, dass eine endliche Teilmenge P von

Atomen mit supL P = 1L existiert ("1L endlich erzeugt von Atomen\), und es gebe

vier unabh�angige Atome: a2 ≠ a1, a3 /≤ a1 ∨ a2, a4 /≤ a1 ∨ a2 ∨ a3.

a1

a2

a3a4

Dann sind �aquivalent:

1. L modular, atomistisch mit #A(x) ≥ 3 f�ur jedes x ∈ L ∖ (A ∪ {0L}), und

2. es gibt einen Divisionsring S und ein n ∈ N mit n ≥ 4 derart, dass L ≃ LM f�ur

M =Mod(S, [n]) (≃ isomorph).

"ohne Beweis\ 2

Verbandsgeometrie Projektive Geometrie wird als Verband axiomatisch de�niert als

vollst�andiger Verband, atomistisch,"Atome sind kompakt\, modular und folgende

"Reich-

haltigkeit\:"Auf jeder Geraden liegen mindestens drei Punkte.\

Begri�skl�arung: Sei L = (L,≤) vollst�andiger Verband, das hei�t f�ur alle X ∈ 2L existiert

supLX und infLX. Interpretiere x ≤ y als"x ist enthalten in y\ bzw.

"x liegt auf/in y\.

13

2 Projektive und a�ne Geometrie

y

x

Sei AL = A(L) Menge der Atome von L, das sind die minimalen Element aus L ∖ {0L}bez�uglich ≤. Atome nennen wir auch Punkte. Die Menge {a ∨ b ∣ a,b ∈ AL mit a ≠ b} ist

die Menge der Geraden in L.

ab

Gerade

Es ist k ∈ L kompakt in L, falls f�ur alle X ∈ 2L gilt:

k ≤ supX ⇒ ∃X0 ⊆ X endlich ∶ k ≤ supX0.

L atomistisch hei�t x = supLAL(x) f�ur alle x ∈ L, wobei AL(x) ∶= {a ∈ AL ∣ a ≤ x}. Dashei�t, jeder

"Raum\ in L (Element von L) ist Verbindung (Supremum) seiner Punkte;

AL(x) Menge der Punkte auf x in L.

Ist l Gerade in L, dann #AL(l) ≥ 3, Reichhaltigkeit.

la1

a2a3

0L

a1 a2 a3

l

1L

geometrisches Diagramm,"horizontal\ Ordnungsdiagramm,

"vertikal\

Ein Element h ∈ L hei�t Hyperebene, falls h Coatom in L ist, das hei�t h ist maximales

Element in L ∖ {1L} bez�uglich ≤.

0L

1L

Punkte, Atome

Hyperebenen, Coatome

2.4 Beispiel

L = LM wobei M Vektorraum (�uber Divisionsring) ist projektive Geometrie, genauer

"projektive Verbandsgeometrie\. 2

Sind P = (P,≤) und L = (L,≤) geordnete Mengen, so hei�t eine Abbildung ϕ ∶ P → L

Ordungsisomorphismus von P nach L, falls ϕ Bijektion ist mit

t ≤ x ⇔ ϕt ≤ ϕx f�ur alle t,x ∈ P.

Existiert ein Ordnungsisomorphismus von P nach L, so schreiben wir P ≃ L.

14

2.2 Projektive Geometrie

3

1

6

2

12

4 ≃

2

1

6

3

18

9

2i3jϕ−→ 2j3i Ordnungsisomorphismus

2.5 Satz (Darstellungssatz)

Sei L = (L,≤) geordnete Menge. Dann sind �aquivalent:

1. L ist projektive Geometrie, die zwei windschiefe Geraden enth�alt (das hei�t, es

gibt l1, l2 Geraden mit l1 ∧ l2 = 0L).

2. Es gibt M Vektorraum �uber Divisionsring mit ≥ 4 unabh�angigen Vektoren, so

dass L ≃ LM gilt. 2

Anmerkung: Algebra zu Geometrie: einfach. Projektive Geometrie zu linearer Algebra:

schwierig.

2.6 Beispiel

Ist S Divisionsring und n ∈ N ∪ {−1}, so hei�t L(Sn+1) die n-dimensionale projektive

Geometrie �uber S.

n = −1: LS0 = ({∅→ S} ,=) = ({�0},⊆), die leere projektive Geometrie (Nullgeometrie)

�uber S, ist −1-dimensional.

n = 0: LS = ({{0S} ,S} ,⊆), die 1-punktige projektive Geometrie �uber S, ist 0-dimensional.

n = 1: LS2 = ({{�0}}∪{Sv ∣ v ∈ S2∖{�0}}∪{S2} ,⊆) (Nullraum, projektive Punkte, projektive

Gerade), die Geometrie der projektiven Geraden �uber S.

S × {0}Fernpunkt

S × {1}Sv

v

n = 2: LS3 = ({{�0}} ∪ {Sv ∣ v ∈ S3 ∖ {�0}} ∪ {Sv1 + Sv2 ∣ v1,v2 ∈ S3 unabh�angig} ∪ {S3} ,⊆)(Nullraum, projektive Punkte, projektive Geraden, projektive Ebene), die Geometrie

der projektiven Ebene �uber S.

S2 × {0}

S2 × {1}

0

Sv

vw

Sv + Sw

15

2 Projektive und a�ne Geometrie

n = 3: LS4 = (LS4,⊆), die projektive Geometrie des 3-dimensionalen projektiven

Raumes �uber S, wobei LS4 Menge aller Unterr�aume von S4 = Mod(S, [4])ist: {�0} Nullraum, {Sv ∣ v ∈ S4 ∖ {�0}} Menge der projektiven Punkte,

{Sv1 + Sv2 ∣ (v1,v2) unabh�angig in S4} Menge der projektiven Geraden in LS4,

{Sv1 + Sv2 + Sv3 ∣ (v1,v2,v3) unabh�angig in S4} Menge der projektiven Ebenen

in LS4, S4 3-dimensionaler projektiver Raum in LS4.

0L = {�0}

Punkte

Geraden

Ebenen

1L = S4

Ordnunsdiagramm zu LS4 (hierarchisch) 2

2.7 Beispiel

L = LZ32 Geometrie der projektiven Ebene �uber Z2 = F2, "kleinste projektive Ebene\.

Abk�urzung: ⟨x1 x2 x3⟩ ∶= S(x1,x2,x3), projektiver Punkt zu (x1,x2,x3).

⟨100⟩ ⟨110⟩ ⟨010⟩

⟨101⟩ ⟨011⟩

⟨001⟩

⟨111⟩

Horizontales"Punkt-Geraden-Modell\

⟨100⟩ + ⟨010⟩ = {⟨100 + 010⟩ = ⟨110⟩ , ⟨100⟩ , ⟨010⟩}, projektive Gerade durch ⟨100⟩ und

⟨010⟩ enth�alt ⟨110⟩. 2

Es bilde {⟨100⟩ , ⟨110⟩ , ⟨010⟩} die Ferngerade. Entferne Ferngerade und streiche dritte

Komponenten, dann erhalte a�nen Teil:

⟨101⟩ ⟨011⟩

⟨001⟩

⟨111⟩

10 01

00

11

∼−→ ∼−→00 10

01 11

16

2.3 A�ne Geometrie

2.3 Affine Geometrie

Sei M = (M,S,σ), M = (M,+, �0), S = (S,+, ⋅, 0, 1) ein Ringmodul, das hei�t S ist Ring,

und sei LM = (LM,⊆) der Unterraumverband von M. Die a�ne Geometrie zu M ist

de�niert als A�M ∶= (A�M, ⊆ ,∥) mit

A�M ∶= {u +W ∣ u ∈M ∧ W ∈ LM} ∪ {∅} ,

und ∥ ∶= {(u +W,v +W) ∣ u,v ∈M ∧ W ∈ LM} ∪ {(∅,∅)} (Parallelismus von A�M).

O�ensichtlich ist ∥ eine �Aquivalenzrelation auf A�M.

Au�erdem bildet A�M ein H�ullensystem in 2M, das hei�t ist A ∈ (A�M)I f�ur einebeliebige Indexmenge I, so ist auch ⋂A ∈ A�M (wobei ⋂A = ⋂i∈IAi, zum Beispiel f�ur

I = [2] hei�t das A1,A2 ∈ A�M ⇒ A1 ∩A2 ∈ A�M).

Also ist (A�M,⊆) ein vollst�andiger Verband mit inf(A�M,⊆)A = ⋂A f�ur jedes A ∈2A�M. Frage: Was ist sup(A�M,⊆)A? Insbesondere A1 ∨A2 = ?.

2.8 Beispiel

Sei A1 ∶= (1, 0) +R(0, 1) ∈ A� R2 ∖ LR2 und A2 ∶= R(0, 1) ∈ A� R2 ∩ LR2, dann A1 ∥ A2, das

hei�t A1 parallel zu A2.

A2

A1

�02

2.9 Proposition (Euklidisches Parallelenpostulat)

IstM Ringmodul, so gilt f�ur alle p ∈M und X ∈ A�M:

∃!Y ∈ A�M ∶ p ∈ Y und Y ∥ X (kurz: p ∈ Y ∥ X).

�0

p

X

∃!Y ∶ p ∈ Y ∥ X

Es hei�t Y die Parallele zu X durch p und wird mit π(p ∣ X) bezeichnet. 2

Beweis

Zu X existiert u ∈M und W ∈ LM mit X = u +W. Setze Y ∶= p +W. ∎

"Teilparallelit�at\: Zu X,Y ∈ A�(M) de�niere

X ⊆∥ Y ⇔ ∃Z ∶ X ⊆ Z ∧ Z ∥ Y,

X ist teilparallel zu Y.

17

2 Projektive und a�ne Geometrie

2.10 Beispiel

SeiM = R3 und X = δ33 + Rδ32, Y ∶= 2δ33 + Rδ31 + Rδ32, dann X ⊆∥ Y.

X

Y

δ31

δ32

δ33

2

Es ist ⊆∥ re exiv und transitiv (im Allgemeinen nicht antisymmetrisch) auf A�M, das

hei�t Pr�aordnung auf A�M. Die zugeh�orige �Aquivalenzrelation ⊆∥ ∩ ∥⊇ (wo ∥⊇ ∶= (⊆∥)d)ist gerade der Parallelismus von A�M.

Bestimmung von ⊆∥:

⊆∥ = {(p +U,q +W) ∣ p,q ∈M und U,W ∈ LM mit U ⊆W} ∪ {∅} ×A�M.

Begr�undung: F�ur X ∈ A�M und p ∈ X ist stets X = p+π(�0 ∣ X). Denn sei p ∈ X = u+W,

also gibt es w ∈W mit p = u+w, somit p+W = u+w+W = u+W = X. Damit ist X = p+W,

und wegen X ∥W, 0 ∈W ist W = π(�0 ∣ X).Also gilt (f�ur X,Y ∈ A�M mit X ≠ ∅ und Y ≠ ∅):

X ⊆∥ Y ⇔ π(z ∣ X) ⊆ π(z ∣ Y) f�ur ein z ∈M⇔ π(�0 ∣ X) ⊆ π(�0 ∣ Y) (da z + π(�0 ∣ X) = π(z ∣ X))

Sei α ∶ I→ A�M, αi = Xi. Was ist supA�Mα in A�M ∶= (A�M,⊆)? Insbesondere f�urX1,X2 ∈ A�M berechne X1 ∨X2 bzw. supA�M {X1,X2}.Angenommen (ohne Einschr�ankung) Xi ≠ ∅ f�ur alle i ∈ I. Behauptung:

supA�M

α = supi∈IXi = p +∑

i∈IS(−p + pi) +∑

i∈Iπ(�0 ∣ Xi),

wobei Xi ∶= αi und ∀i ∈ I ∶ pi ∈ Xi, sowie p ∈ ⋃α = ⋃i∈IXi.

X1

X2

p = p1

p2

−p + p2

π(�0 ∣ X1)

π(�0 ∣ X2)

�0

π(�0 ∣ X1) +π(�0 ∣ X2)

W ∶= S(−p + p2) + π(�0 ∣ X1) + π(�0 ∣ X2), verschiebe W um p = p1, also X1 ∨X2 = p +W.

18

2.3 A�ne Geometrie

Zum Beweis: Zu zeigen supA�Mα = p+W mit W ∶= U+W ′, wobei U ∶= ∑i∈I S(−p + pi)und W ′ ∶= ∑i∈IWi mit Wi ∶= π(�0 ∣ Xi). Hierbei seien pi ∈ Xi und Xi ∶= αi f�ur alle i ∈ I.Sei T ∈ LM mit supA�Mα ⊆ p + T (das hei�t Xi ⊆ p + T f�ur alle i ∈ I). Da pi ∈ p + T ist,

gilt −p + pi ∈ T , also S(−p + pi) ⊆ T f�ur alle i ∈ I. Damit ist U = ∑i∈I S(−p + pi) ⊆ T .Weiter ist Xi ⊆ p + T = pi + T f�ur alle i ∈ I, also ist Wi = π(�0 ∣ Xi) = −pi + Xi ⊆ T ;

somit W ′ = ∑i∈IWi ⊆ T . Also ist W = U +W ′ ⊆ T , also p +W ⊆ p + T . Damit folgt die

Behauptung.

2.11 Beispiel

F�ur p,q ∈M mit p ≠ q ist

p ∨ q ∶= p + S(−p + q) = {s1p + s2q ∣ s1, s2 ∈ S mit s1 + s2 = 1}

"Verbindungsgerade von p und q\.

�0

−p + qS(−p + q)

p

q p ∨ q = p + S(−p + q)

Denn p+ s(−p+q) = (1− s)p+ sq = s1p+ s2q; ist umgekehrt s1 + s2 = 1, also mit s ∶= s2auch 1 − s = s1, dann ist s1p + s2q = (1 − s)p + sq = p + s(−p + q). 2

2.12 Bemerkung

F�ur X ⊆M sind �aquivalent:

1. X ∈ A�M.

2. Ist λ ∈ S(I) mit ∑λ = 1 und γ ∈ XI, so gilt λ ∗ γ ∈ X.3. ∀p,q,q ′ ∈ X ∶ π(p ∣ q ∨ q ′) ⊆ X.

q ∈ Xq ′ ∈ X

p ∈ X⊆ X

2

A�ne Linearkombination: Sei λ = (λ1, . . . ,λn), λ1 + ⋯ + λn = 1 und γ = (γ1, . . . ,γn),γi ∈ X f�ur alle i ∈ [n], so ist auch λ ∗ γ = λ1γ1 +⋯ + λnγn ∈ X.Beispiel: p ∶= 1

3p1 + 1

3p2 + 1

3p3 Schwerpunkt von (p1,p2,p3), 1

3+ 1

3+ 1

3= 1.

p1

p2

p3

p

19

2 Projektive und a�ne Geometrie

2.13 Proposition

IstM Vektorraum �uber Divisionsring S, so ist (M, spanA�) Matroid, wobei

spanA� X ∶= { ∑x∈X

λx ⋅ x ∣ λ ∈ S(X) mit ∑λ = 1}

= {λ ∗ γ ∣ I Menge,γ ∈ XI,λ ∈ S(I) mit ∑λ = 1}

= p + ∑x∈X

S(−p + x) f�ur p ∈ X und X ⊆M. 2

2.14 Beispiel

Sei X = {p1,p2,p3}, dann ist

spanA� X = spanA� {p1,p2,p3}= p1 ∨ p2 ∨ p3 ∶= {p1} ∨ {p2} ∨ {p3}= p1 + S(−p1 + p2) + S(−p1 + p3)= {s1p1 + s2p2 + s3p3 ∣ s1, s2, s3 ∈ S mit s1 + s2 + s3 = 1}

die von X aufgespannte a�ne Ebene (falls p1,p2,p3 nicht kollinear).

−p1+p2−p1+p3

�0

p1

p2

p3 X

2

Achtung: spanA� =∶ spanA�M.

Projektive vs affine Geometrie Erweiterung vonM: SeiM ′ ∶=M × S.

M

S

M1

(�0, 0)

(�0, 1)

X ∈ A�M

βX = X × {1} ∈ A

Dann ist

M1 ∶= M × {1} = (�0, 1) +M × {0}

ein a�ner Raum inM ′ (allgemein ist (u+W)×(u ′+W ′) = (u,u ′)+W×W ′ a�ner Raum,

falls u +W und u ′ +W ′ a�ne R�aume).

Sei A ∶= {X ∈ A�M ′ ∣ X ⊆M1}, dann hat man eine Bijektion

β ∶ A�M→ A, X↦ X × {1} .

20

2.4 Rang- und Dimensionsformel

Sei L ∶= {X ∈ LM ′ ∣ X ∩M1 ≠ ∅ oder X = {(�0, 0)}}; die Abbildung

ρ ∶ A→ L, X ′ ↦ spanM ′ X ′

ist bijektiv und hat als Inverse

σ ∶ L→ A, Y ↦ Y ∩M1.

Beachte: spanM ′ X×{1} = S(u, 1)+W×{0}, wobei X = u+W, also X×{1} = (u, 1)+W×{0}.

2.4 Rang- und Dimensionsformel

Das Matroschka-Prinzip"Ineinanderliegen\: Punkt auf Gerade in Ebene im Raum et

cetera. Verb�ande sind sehr gut geeignet, das Ineinanderliegen zu beschreiben (durch Ket-

ten),"gut f�ur hierarchische Eigenschaften\.

Sei L = (L,≤) geordnete Menge und sei x ⋖ y ∶⇔ x < y∧ /∃ t ∶ x < t < y die Nachbar-

schaftsrelation zu L.

Eine Kette in L ist eine nichtleere Teilmenge K ⊆ L, so dass L∣K = (K,≤L ∩ (K × K))linear geordnet ist. Ist K endlich, also #K = n+1 f�ur ein n ∈ N, so gibt es x0,x1, . . . ,xn ∈ Lmit K = {x0,x1, . . . ,xn} und x0 < x1 < ⋅ ⋅ ⋅ < xn, und wir nennen K eine Kette von L�ange n;

dann hei�t K maximal, falls x0 ⋖ x1 ⋖ ⋅ ⋅ ⋅ ⋖ xn gilt.

2.15 Beispiel

Sei L Teilerverband zu 12.

12

6

~~~~~4

@@@@@

3

�����2

~~~~~

@@@@@

1

=====~~~~~

Eine Kette in L ist {1, 4, 12}, eine maximale Kette in L ist {1, 3, 6, 12}. 2

2.16 Beispiel

Geometrisches Beispiel:

1L = p ∨ g

p ∨ qtttttt

g

EEEEEE

p

yyyyyq

xxxxxx

KKKKKKK

0L

DDDDDttttttt

Eine Kette ist {0L,g, 1L}, eine maximale Kette ist {0L,p,p ∨ q, 1L}. 2

H�au�ge Situation: Je zwei maximale Ketten haben die gleiche L�ange.

21

2 Projektive und a�ne Geometrie

Ubersicht"F�ur uns relevante Verb�ande\:

vollst�andigeVerb�ande

semimodulareVerb�ande

llllllllllllllatomistischeVerb�ande

SSSSSSSSSSSSSS

modulareVerb�ande

ppppppppppgeometrischeVerb�ande

nnnnnnnnnnn

OOOOOOOOOOO

PPPPPPPPPPPPPP

mmmmmmmmmmmmmmLµ a�ne Geometrie

QQQQQQQQQQQQQ

projektive Geometrie

LM f�ur VektorraumM

xxxxxxxxxxxxxxxxxxxxA�M f�ur VektorraumM

GGGGGGGGGGGGGGGGGGGG

� Atomistische Verb�ande: supLA(x) = supL {a ∈ L ∣ a Atom,a ≤ x} = x f�ur jedes x ∈ L,

"jeder Raum x ∈ L ist Supremum seiner Punkte\ (Punkte sind Atome).

� Geometrische Verb�ande: Austauscheigenschaft, p,q Punkte, x ∈ L, dann p ≤ x ∨ qimpliziert p ≤ x oder q ≤ x ∨ p.

� Lµ Verband aller abgeschlossenen Mengen eines Matroids µ = (M, span): Lµ ∶={X ∈ 2M ∣ spanX = X}

"abgeschlossene Mengen von µ\, Lµ ∶= (Lµ,⊆).

� LM Verband der Unterr�aume des VektorraumsM, µ ∶= (M, spanM).

� Modulares Gesetz: x ≤ u ⇒ (x∨ z)∧u = x∨ (z∧u) (modulare Geometrie, \pointless

Geometry\, John von Neumann).

Semimodulare Verbande, Rangformeln Betrachte nun semimodulares Gesetz:

x ∧ y ⋖ y ⇒ x ⋖ x ∨ y,

wobei ⋖ die Nachbarschaftsrelation zu L sei.

2.17 Satz

Sei L semimodularer vollst�andiger Verband (SM-Verband), welcher eine endliche

maximale Kette der L�ange n ∈ N enth�alt. Dann ist in L jede Kette von L�ange

h�ochstens n. Insbesondere haben alle maximalen Ketten die L�ange n. 2

22

2.4 Rang- und Dimensionsformel

2.18 Korollar

Zu v,w ∈ L mit v ≤ w sei [v,w]L ∶= {x ∈ L ∣ v ≤ x ≤ w}"Intervall\ zu (v,w) in L, dann

ist auch L∣ [v,w]L ein SM-Verband, und es sei der Rang ∆L(v,w) de�niert als L�angeeiner maximalen Kette in L∣ [v,w]L. Zu x ∈ L sei rLx de�niert als ∆L(0L,x), alsoL�ange eines maximalen Pfades von 0L nach x in L.

Dann ist ∆L funktoriell, das hei�t

∆L(p,q) = ∆L(p, t) +∆L(t,q) f�ur alle p, t,q ∈ L mit p ≤ t ≤ q,∆L(p,p) = 0 f�ur alle p ∈ L.

Es folgt ∆L(p,q) = −∆L(0L,p) +∆L(0L,q), und somit die Rangformel:

∆L(p,q) = −rLp + rLq. 2

Anwendung: SeienM,M ′ Vektorr�aume �uber Divisionsring S, und seiM ϕ−→M ′ lineare

Abbildung. Dann M/Kerϕ ≃ Imϕ. Also rLM Imϕ = rLM(M/Kerϕ) = ∆LM(Kerϕ,M) =−rLMKerϕ + rLMM, und mit rLMM = DimM somit

DimImϕ = −DimKerϕ +DimM.

Beweis (Satz)

(MATROSCHKA-Beweis)

Sei L = (L,≤) semimodularer vollst�andiger Verband mit endlicher maximaler Kette

0 ⋖ x1 ⋖ ⋯ ⋖ xn−1 ⋖ 1L der L�ange n ∈ N. Zu zeigen: Ist K Kette in L, so ist K von L�ange

h�ochstens n. Dies sei Aussage A(n).Vollst�andige Induktion: A(0) klar.F�ur n > 0 sei A(i) wahr f�ur alle i < n, und sei 0 ⋖ x1 ⋖ ⋯ ⋖ xn−1 ⋖ 1L maximale Kette X

in L, und sei K Kette in L.

1. Fall K ∖ {0L} ⊆ [x1, 1L]. Fertig, da A(n − 1) f�ur L∣ [x1, 1L] gilt.

2. Fall ∃k ∈ K ∖ {0L} mit x1 /≤ k, das hei�t x1 ∧ k = 0L (da x1 Atom). Da 0 ⋖ x1 folgt

k ⋖ k ∨ x1, da L semimodular.

0L

1L

x1

k

k ∨ x1

HK X

Sei K ′ ∶= K ∩ [k, 1L]. Wegen A(n − 1) f�ur L∣ [x1, 1L] gibt es maximale Kette H in

[x1, 1L] mit k ∨ x1 ∈ H (\missing link") und H hat L�ange n − 1. Dann ist H ′ ∶=(H∩ [k∨ x1, 1L])∪ {k} maximale Kette in [k, 1L], und hat L�ange i ≤ n− 1 < n. NachA(i) f�ur L∣ [k, 1L] folgt: K ′ hat L�ange ≤ i.

23

2 Projektive und a�ne Geometrie

Au�erdem ist H ′′ ∶= H ∩ [x1,k ∨ x1] maximale Kette in [x1,k ∨ x1] der L�ange n − i.Betrachte die Kette K ′′ ∶= K∩[0L,k]; sind a1, . . . ,al−1 ∈ L mit 0L < a1 < ⋅ ⋅ ⋅ < al−1 < k,dann folgt x1 < x1 ∨a1 < ⋅ ⋅ ⋅ < x1 ∨al−1 < k∨ x1, da L semimodular; wir erhalten also

eine Kette in [x1,k ∨ x1]. Wegen A(n − i) hat somit K ′′ endliche L�ange ≤ n − i.Damit hat K = K ′ ∪K ′′ L�ange h�ochstens i + (n − i) = n. ∎

2.19 Satz

Sei L = (L,≤) modularer vollst�andiger Verband und x,y ∈ L. Die Abbildungen

ϕ ∶ [x ∧ y,y]L → [x,x ∨ y]L, z↦ x ∨ z,ψ ∶ [x,x ∨ y]L → [x ∧ y,y]L, u↦ y ∧ u,

sind zueinander invers, also ist L∣ [x ∧ y,y]L isomorph zu L∣ [x,x ∨ y]L; insbesondereist L semimodular. Es folgt −rL(x∧y)+ rLy = −rLx+ rL(x∨y) und somit die modulare

Rangformel:rL(x ∨ y) + rL(x ∧ y) = rLx + rLy. 2

24

3 Multilinearitat und Determinanten

3.1 Multilineare Abbildungen

Multilinearit�at:"in jeder Komponente linear\, und ihre Modellierungen.

3.1 Beispiel

Betrachte det ∶ (R[2])[2] → R, γ↦ detγ = det(γ1,γ2).γ ∶ [2] → R[2], also 1 ↦ γ1 ∈ R[2], 2 ↦ γ2 ∈ R[2], wobei γ1 ∶ [2] → R, i ↦ (γ1)i,

γ2 ∶ [2]→ R, j↦ (γ2)j. Also γ = (γ1,γ2) = (((γ1)1, (γ1)2), (γ2)1, (γ2)2)).

mγ ≡ (γ1γ2

) ≡ ((γ1)1 (γ1)2(γ2)1 (γ2)2) Matrixmaker zu γ (Vektorenfamilie), (mγ)(i, j) ∶= (γi)j.

detmγ ∶= detγ, also

det(a11 a12a21 a22

) = det(γ1,γ2) = detγ = det((a11,a12), (a21,a22)),

wobei aij ∶= (γi)j, mγ = a. 2

Eigenschaften:

1. det(γ1,v+w) = det(γ1,v)+det(γ1,w), sowie det(v+w,γ2)+det(v,γ2)+det(w,γ2)f�ur alle v,w ∈ R[2],

"det biadditiv\,

2. det(r ⋅ γ1,γ2) = r ⋅ det(γ1,γ2) = det(γ1, r ⋅ γ2) f�ur alle r ∈ R,"Skalare darf ich

komponentenweise rausziehen\.

Setze γ1 ● γ2 ∶= detγ, dann:Biadditivit�at: (γ1)●(v+w) = (γ1)●v+(γ1)●w, und (v+w)●(γ2) = v●(γ2)+w●(γ2).Skalare rausziehen: r ⋅ (γ1 ● γ2) = (r ⋅ γ1) ● γ2 = γ1 ● (r ⋅ γ2).

Was ist det(r1v1 + r2v2, s1w1 + s2w2) = (r1v1 + r2v2) ● (s1w1 + s2w2) f�ur ri, sj ∈ R,vi,wj ∈ R[2]? Mit xi ∶= rivi, yj ∶= sjvj und 1. ist

(x1 + x2) ● (y1 + y2) = x1 ● y1 + x1 ● y2 + x2 ● y1 + x2 ● y2.

Wegen 2. folgt (r1v1 + r2v2) ● (s1w1 + s2w2) = x1 ● y1 + x1 ● y2 + x2 ● y1 + x2 ● y2 =(r1s1) ⋅ (v1 ●w1) + (r1s2) ⋅ (v1 ●w2) + (r2s1) ⋅ (v2 ●w1) + (r2s2) ⋅ (v2 ●w2), also

(r1v1 + r2v2) ● (s1w1 + s2w2) = ∑(i,j)∈[2]×[2]

(risj) ⋅ (vi ●wj).

Hier: Zwei Faktoren und in jeder Summe zwei Summanden.

25

3 Multilinearit�at und Determinanten

3.2 Beispiel (Ausmultiplizieren)

Sei P = [m], Q = [n] (m = n = 2 hatten wir gerade), sei

F ∶ (RQ)P → R, γ↦ ∏p∈P

∑q∈Q

(γp)q = ∏p∈P

∑γp,

wobei ∏p∈P∑γp = ∏i∈[m] ((γi)1 +⋯ + (γi)n) = ∏i∈[m] (ai1 +⋯ + ain) f�ur aij ∶= (γi)j,mit a ∶= mγ ∶ P ×Q → R, (i, j) ↦ aij, die zugeh�orige Matrix, γi die i-te Zeile von a, also

∑γi die Zeilensumme der i-ten Zeile. Das hei�t:

F((a11, . . . ,a1n), . . . , (am1, . . . ,amn)) ∶= (a11 +⋯ + a1n) ⋅ ⋯ ⋅ (am1 +⋯ + amn)

("dots-Notation\,

"semiformal\). F ist

"multilineare Abbildung\.

Challenge: Fγ = ∏p∈P∑γp ausmultiplizieren { wie sieht das dann aus? Wie kann ich

das hinschreiben? 2

Linearit�at in der ersten Komponente: Betrachte RQ → R, x ↦ F(x,γ2, . . . ,γm), also(x11, . . . ,x1n)↦ F((x11, . . . ,x1n), (a21, . . . ,a2n), . . . , (am1, . . . ,amn)).Notation: Sei

⟨γ⟩1 ∶ RQ → (RQ)P, x↦ (x,γ2, . . . ,γm),

wobei γ ∈ (RQ)P, das hei�t γ = (γ1, . . . ,γm).3.3 Definition

SeienM,M ′ Semiring-Moduln �uber kommutativen Semiring S, sei P endliche nichtleere

Menge. Eine Abbildung F ∶ MP → M ′ hei�t multilinear von MP nach M ′, falls f�ur

⟨γ⟩p ∶M→MP, v↦ ⟨γ⟩p v gilt, dass F ○ ⟨γ⟩p ∶M→M ′ linear ist, das hei�t

M→M ′, v↦ F(⟨γ⟩p v)

ist linear,"F ist in der p-ten Komponente linear\, f�ur jedes p ∈ P (und jedes γ ∈MP).

F�ur γ ∈MP, p ∈ P und v ∈M sei hierbei

⟨γ⟩p v ∶ P →M, p ′ ↦⎧⎪⎪⎨⎪⎪⎩

v falls p ′ = pγp ′ sonst

(ersetze p-te Komponente durch v). 2

Semiformal im Fall P = [n], γ = (γ1, . . . ,γn), ist

⟨γ⟩p v = (γ1, . . . , vp-te

, . . . ,γn)

= (γ1, . . . ,γp−1,v,γp+1, . . . ,γn).

Warnung: Im Allgemeinen ist ⟨γ⟩p nicht linear. Beispiel P = [3], F ∶ RP → R, x ↦ ∏x =∏p∈P xp ist multilinear. F�ur γ = (1, 3, 7) ∈ RP ist ⟨γ⟩1 v = (v, 3, 7), dann

⟨γ⟩1 (v +w) = (v +w, 3, 7) = (v, 3, 7) + (w, 0, 0) ≠ (v, 3, 7) + (w, 3, 7) = ⟨γ⟩1 v + ⟨γ⟩1w,

aber F ○ ⟨γ⟩p ∶ R→ R, v↦ v ⋅ 3 ⋅ 7 ist linear.

26

3.1 Multilineare Abbildungen

3.4 Beispiel

Sei P = [2], γ = (γ1,γ2) ∈ MP. Sei v ∈ M, dann ist ⟨γ⟩1 v = (v,γ2) und ⟨γ⟩2 v = (γ1,v),also F(⟨γ⟩1 v) = F(v,γ2), F(⋅,γ2) linear (in der ersten Komponente), und F(γ1, ⋅) linear (inder zweiten Komponente): F ist

"bilinear\.

M�ogliche Notation: γ1●γ2 ∶= F(γ). Dann (v+w)●γ2 = v●γ2+w●γ2, (s⋅v)●γ2 = s⋅(v●γ2)und γ1 ● (v +w) = γ1 ● v + γ2 ●w, γ1 ● (s ⋅ v) = s ⋅ (γ1 ● v). Allgemein gilt

(s1v1 + s2v2) ● (t1w1 + t2w2)= s1t1(v1 ●w1) + s1t2(v1 ●w2) + s2t1(v2 ●w1) + s2t2(v2 ●w2).

Sonderfall: Gelte hier v ● v = �0 f�ur alle v ∈M, so ist

�0 = (v +w) ● (v +w) = v ● v + v ●w +w ● v +w ●w = v ●w +w ● v

f�ur alle v,w ∈M. Es folgt v ●w +w ● v = 0 f�ur alle v,w ∈M, das hei�t w ● v = −v ●w (f�ur

S Ring). F hei�t dann alternierend.

Zum Beispiel: M = R2, M ′ = R, dann F = det ∶ (R2)2 → R, (x,y) ↦ x1y2 − x2y1 ist

alternierend. 2

"Masterformel\ f�ur multilineare Abbildungen (Ausmultiplizierung):

3.5 Satz

Sei F ∶MP →M ′ multilinear (bez�uglich P), und sei Q endliche nichtleere Menge. Zu

α ∈ SP×Q und η ∈MQ sei α ∗ η ∶ P →M, p↦ (α ∗ η)p mit (α ∗ η)p ∶= ∑q∈Qα(p,q) ⋅ ηq.Dann gilt:

F(α ∗ η) = ∑σ∈QP

∏p∈P

α(p,σp) ⋅ F(η ○ σ).2

Interpretation: P Faktorenmenge, Q Summandenmenge pro Faktor p ∈ P, σ ∶ P → Q,

p ↦ σp ordnet jedem"Faktor\ p den Summanden an der Stelle σp zu. #QP Anzahl der

Summanden nach dem Ausmultiplizieren.

Wir betrachten hier"homogenen Fall\, das hei�t Elemente in MP sind p ↦ ηp ∈ M,

zum Beispiel M[2] ≡ M ×M; allgemeiner w�are (Mp)p∈P, also p ↦ ηp ∈ Mp, mit Mp

abh�angig von p, zum BeispielM ×N .

3.6 Beispiel

Ausmultiplizieren:

(a11x1 + a12x2)(a21x1 + a22x2)= (a11x1)(a21x1) + (a11x1)(a22x2) + (a12x2)(a21x1) + (a12x2)(a22x2)= a11a21x1x1 + a11a22x1x2 + a12a21x2x1 + a12a22x2x2= ∑

(i,j)∈{1,2}2a1ia2jxixj = ∑

σ∈[2][2]a1σ1a2σ2xσ1xσ2

= ∑σ∈PP

∏p∈P

ap,σp∏p∈P

xσp

mit P ∶= [2], wobei σ ∈ [2][2] ∶ 1↦ i, 2↦ j (1, 2 Faktoren, i, j Summanden).

27

3 Multilinearit�at und Determinanten

Mit Fx ∶= F(x1,x2) ∶= x1x2 (bilinear) ist

∏p∈P

xσp = F(xσ1,xσ2) = F(x ○ σ),

wobei x ○ σ = ((x ○ σ)p)p∈P = (xσp)p∈P.Also ist wegen α∗x = ∑(p,q)∈P×P apq ⋅xq f�ur α = (apq)(p,q)∈P×P (das hei�t α ∶ P×P → S

mit S Rechenbereich) dann α ∗ x = (a11x1 + a12x2,a21x1 + a22x2), und somit

F(α ∗ x) = (a11x1 + a12x2)(a21x1 + a22x2) = ∑σ∈PP

∏p∈P

ap,σp ⋅ F(x ○ σ).2

3.7 Beispiel

F ∶ R3 → R, x↦ x1x2x3. Notation f�ur F(x + y) ausmultipliziert (gesuchte Formel)?

F(x + y) = (x1 + y1)(x2 + y2)(x3 + y3)= x1x2x3 + x1x2y3 + x1y2x3 + x1y2y3 + y1x2x3 + y1x2y3 + y1y2x3 + y1y2y3.

P = [3] Faktorenmenge, Q = [2] Summandenmenge, σ ∶ P → Q ordnet jedem Faktor p

einen Summanden σp zu, zum Beispielp 1 2 3

σp 1 2 1entspricht x1y2x3.

Sei α(p, 1) ∶= xp "1. Summand des Faktors p\, und α(p, 2) ∶= yp "

2. Summand des

Faktors p\. Dann ist (α ∗ η)p ∶= ∑q∈Qα(p,q) ⋅ ηq = α(p, 1) + α(p, 2) = xp + yp f�ur η ∈ R2via η = (1, 1). Also ist α ∗ η = (x1 + y1,x2 + y2,x3 + y3). Also:

F(α ∗ η) = ∑σ∈QP

∏p∈P

α(p,σp) ⋅ F(η ○ σ)

(σp ist der durch σ ausgew�ahlte Summand im Faktor p), #QP = 23 = 8.Anmerkung: η ○ σ = ((η ○ σ)p)p∈P = (η(σp))p∈P. 2

3.8 Beispiel

F ∶ RP → R, x↦∏x. Dann ist F(α ∗ η) = ∑σ∈QP∏p∈P α(p,σp), falls η ∶Q→ R, q↦ 1. 2

Zum Beweis: Sei α ′ ∶ P×Q→M, (p,q)↦ α(p,q) ⋅ηq. Aus Multiadditivit�at und Skalare

rausziehen folgt

F(( ∑q∈Q

α ′(p,q))p∈P) = ∑

σ∈QPF((α ′(p,σp))p∈P)

= ∑σ∈QP

F((α(p,σp) ⋅ η(σp))p∈P)

= ∑σ∈QP

∏p∈P

α(p,σp) ⋅ F((η(σp))p∈P),

wobei (η(σp))p∈P = η ○ σ.

28

3.2 Determinanten, Leibniz-Formel

3.2 Determinanten, Leibniz-Formel

Alternierende Abbildungen Sei F ∶MP →M ′ multilineare Abbildung. Wir betrachten

f�ur γ ∈MP folgende"Ersetzung an zwei Stellen\ p1,p2 ∈ P mit p1 ≠ p2:

⟨γ⟩p1,p2 ∶M2 →MP, (v,w)↦ ⟨γ⟩p1,p2 (v,w),

wobei

⟨γ⟩p1,p2 (v,w) ∶ P →M, p↦

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩

v falls p = p1w falls p = p2γp sonst.

F�ur P = [n], ⟨γ⟩p1,p2 (v,w) = (γ1, . . . , vp1-te

, . . . , wp2-te

, . . . ,γn).

Damit ist F ○ ⟨γ⟩p1,p2 ∶ M2 → M ′ bilinear. Sei v ⋅ w ∶= (F ○ ⟨γ⟩p1,p2)(v,w) und gelte

v ⋅v = 0 f�ur alle v ∈M, dann gilt �0 = (v+w) ⋅ (v+w) = v ⋅v+v ⋅w+w ⋅v+w ⋅w = v ⋅w+w ⋅vund damit w ⋅ v = −v ⋅w.

3.9 Definition

Sei S kommutativer Ring. F ist Determinantenabbildung, falls (F ○ ⟨γ⟩p1,p2)(v,v) = �0 f�uralle v ∈M ist (das hei�t F(γ1, . . . , v

p1-te, . . . , v

p2-te, . . . ,γn) = �0 f�ur P = [n]). 2

Dann ist (F○⟨γ⟩p1,p2)(w,v) = −(F○⟨γ⟩p1,p2)(v,w) (S Ring). F hei�t dann alternierend.

Unsere Formel ist hier:

F(α ∗ η) = ∑σ∈QP

∏p∈P

α(p,σp) ⋅ F(η ○ σ),

wobei F(η ○ σ) = �0, falls σ nicht injektiv. Im Fall Q = P, also α ∈ SP×P, η ∈MP, gilt:

F(α ∗ η) = ∑σ∈PP

∏p∈P

α(p,σp) ⋅ F(η ○ σ)

= ∑σ∈SymP

sgnσ ⋅∏p∈P

α(p,σp) ⋅ Fη,

wobei SymP Menge der Permutationen von P, und

sgnσ ∶=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩

1 falls σ gerade Permutation,

−1 falls σ ungerade Permutation,

0 falls σ nicht bijektiv;

eine gerade Permutation ist eine Permutation der Form σ = τ1 ∗⋯∗ τ2n f�ur τi Transpo-

sitionen (Vertauschung zweier Elemente).

Determinanten det ∶= F ist Determinante, falls M = SP ∶= Mod(S,P) und M ′ = S,

sowie detδP = 1 (Volumen des durch δP induzierten Einheitshyperw�urfels in M).

29

3 Multilinearit�at und Determinanten

(1, 0) = δ[2]1

δ[2]

2= (0, 1)

(0, 0)

Formel f�ur η = δP (Leibniz-Formel):

det(rα) = det(α ∗ δP) = ∑σ∈SymP

sgnσ ⋅∏p∈P

α(p,σp),

da Fη = FδP = detδP = 1.Zu α ∈ SP×P setze detα ∶= det rα, wobei rα ∶ P → SP, p ↦ α(p, ⋅). Dann lautet die

Leibniz-Formel:

detα = ∑σ∈SymP

sgnσ ⋅∏p∈P

α(p,σp).

Seien nun α,β ∈ SP×P. Setze η ∶= rβ. Dann gilt: α ∗ η = α ∗β, also ist

det(α ∗β) = det(α ∗ η) = ( ∑σ∈SymP

sgnσ ⋅∏p∈P

α(p,σp)) ⋅ detη = detα ⋅ detβ.

3.10 Satz (Determinanten-Multiplikationssatz)

Sei S kommutativer Ring. F�ur alle α,β ∈ SP×P gilt

det(α ∗β) = detα ⋅ detβ. 2

Au�erdem gilt f�ur α ∈ SP×P stets:

det(αT ) = ∑σ∈SymP

sgnσ ⋅∏p∈P

αT (p,σp)

= ∑σ∈SymP

sgnσ ⋅∏p∈P

α(p,σ−1p)

= ∑σ∈SymP

sgn(σ−1) ⋅∏p∈P

α(p,σp) = detα,

da αT (p,σp) = α(σp,p) und sgn(σ−1) = sgnσ.Ergebnis: detαT = detα f�ur alle α ∈ SP×P.

3.3 Multilineare Fortsetzung und Anwendungen

3.11 Satz (Existenz und Eindeutigkeit multilinearer Abbildungen)

Seien P und Q endliche nichtleere Mengen, und seien M und M ′ Moduln �uber

einem kommutativen Semiring S. Ferner sei η ∶ Q → M eine Basis von M; setze

ηP ∶QP →MP, σ↦ η ○ σ.Dann existiert zu jeder Abbildung Φ ∶QP →M ′ genau eine bez�uglich P multilineare

Abbildung F von MP nach M ′ mit F ○ ηP =Φ.

30

3.3 Multilineare Fortsetzung und Anwendungen

Im Diagramm (laxe Version):

QP

ηP

}}zzzzzzzzΦ

!!CCCCCCCC

///

MP∃!F

//M ′

Genauer:

QP

ηP

}}{{{{{{{{Φ

!!BBBBBBBB

///

MPF

//M ′

und MP F−→M multilinear bzgl. P.

2

Wir nennen F die multilineare Fortsetzung (bez�uglich P) von Φ bez�uglich η.

Beweis

Eindeutigkeit: Sei F wie im Satz gegeben. Dann gilt f�ur jedes γ ∈ MP: Zu jedem p ∈ Pexistiert genau ein λ(p) ∈ SQ mit γp = λ(p)∗η (da η Basis vonM). F�ur α ∶ P×Q→ S,(p,q)↦ λ(p)q folgt γ = α ∗ η (denn γp = λ(p) ∗ η = ∑q∈Q λ(p)q ⋅ ηq = ∑q∈Qα(p,q) ⋅ηq = (α ∗ η)p f�ur alle p ∈ P). Unsere

"Masterformel\ impliziert nun

Fγ = F(α ∗ η) = ∑σ∈QP

∏p∈P

α(p,σp) ⋅ F(η ○ σ) = ∑σ∈QP

∏p∈P

λ(p)(σp) ⋅Φ(σ),

denn α(p,σp) = λ(p)(σp), F(η ○ σ) = F(ηP(σ)) = (F ○ ηP)σ =Φ(σ).

Existenz: De�niere F ∶MP →M ′ f�ur jedes γ ∈MP mit γp = λ(p) ∗ η, wobei λ(p) ∈ SQ f�ur

alle p ∈ P, wie folgt:Fγ ∶= ∑

σ∈QP∏p∈P

λ(p)(σp) ⋅Φ(σ).

�Uberpr�ufe:

1. F ist bez�uglich P multilinear vonMP nachM ′.

Begr�undung: Sei γ ∈ MP und p0 ∈ P fest gew�ahlt, und sei γp = λ(p) ∗ η mit

λ(p) ∈ SQ f�ur alle p ∈ P. F�ur alle x ∈ SQ folgt, wobei f ∶= F ○ ⟨γ⟩p0 ∶M →M ′ sei

f(x ∗ η) = ∑σ∈QP x(σp0) ⋅∏p∈P∖{p0} λ(p)(σp) ⋅Φ(σ) =∶ ∑σ∈QP x(σp0) ⋅ lσ.

F�ur x,y ∈ SQ folgt f(x ∗ η + y ∗ η) = f((x + y) ∗ η) = ∑σ∈QP (x + y)(σp0) ⋅ lσ =∑σ∈QP x(σp0) ⋅ lσ+∑σ∈QP y(σp0) ⋅ lσ = f(x∗η)+f(y∗η), also f(v+w) = fv+fwf�ur alle v,w ∈M. Entsprechend ist f(s ⋅ v) = s ⋅ fv f�ur s ∈ S.

2. F ○ ηP =Φ.

Begr�undung: F�ur jedes σ0 ∈QP ist (F ○ ηP)σ0 = ∑σ∈QP∏p∈P δQσ0p(σp) ⋅Φ(σ) =Φ(σ0) (wegen (η○σ0)p = η(σ0p) = δQσ0p∗η und∏p∈P δ

Qσ0p(σp) = 0 f�ur σ ≠ σ0).∎

31

3 Multilinearit�at und Determinanten

Determinanten Spezialfall: Q = P,M = SP (M = SP), S kommutativer Ring, und η = δP,sowie Φ = sgn ∶ PP → R, σ↦ sgnσ,

sgnσ ∶=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩

0 falls σ nicht injektiv,

1 falls σ gerade Permutation,

−1 falls σ ungerade Permutation.

Dann ist die eindeutig bestimmte multilineare Abbildung det von (SP)P nach S mit

det ○ (δP)P = sgn die Determinantenfunktion auf (SP)P.

PP

(δP)P

||yyyyyyyysgn

��>>>>>>>>

///

(SP)Pdet

// S

Also ist die Determinante det die multilineare Fortsetzung von sgn ∶ PP → S bez�uglich der

Standardbasis δP.

Bilinearformen Sei hier P = [2],M ′ = S kommutativer Semiring (X[2] ≡ X ×X).

I[2]

η[2]

||yyyyyyyyβ

��@@@@@@@@

///

M[2]b

// S

Dann ist b die bilineare Fortsetzung der Matrix β ∶ I × I → S, also b ○ η[2] = β, das hei�tb(ηi,ηj) = β(i, j) f�ur alle i, j ∈ I. Es hei�t b dann Bilinearform zu β bez�uglich η.

Ist b gegeben, so nennt man β ∶= b ○ η[2], das hei�t

β ∶ I × I→ S, (i, j)↦ b(ηi,ηj)

die Gramsche Matrix zu b.

Sind v,w ∈M und λ,µ ∈ SI mit v = λ ∗ η und w = µ ∗ η, so ist

b(v,w) = ∑(i,j)∈I×I

λi ⋅ µj ⋅β(i, j).

Also ist b(v,w) = λ ∗β ∗ µ, wobei λ ∗β = ∑i∈I λi ⋅β(i, ⋅) und β ∗ µ = ∑j∈Iβ(⋅, j) ⋅ µj.F�ur alle λ,µ ∈ SI ist insgesamt

b(λ ∗ η,µ ∗ η) = λ ∗β ∗ µ.

Sonderfall: η = δJ Standardbasis, M = SJ (Umbenennung: ersetze I durch J). Dann

λ ∗ η = λ ∗ δJ = λ f�ur λ ∈ SJ. Also hier

b(λ,µ) = λ ∗β ∗ µ.

32

3.4 Cramersche Regel

Sei η = δJ und β = IJ ∶ J × J→ S, (i, j)↦⎧⎪⎪⎨⎪⎪⎩

1 falls i = j,0 sonst.

Dann b(λ,µ) = λ ∗ IJ ∗ µ = λ ∗ µ ist Elementarfaltung von λ mit µ f�ur alle λ,µ ∈ SJ. Eshei�t b das Standard-Skalarprodukt auf SJ. F�ur S = R ist b das euklidische Skalarprodukt.

3.4 Cramersche Regel

Noch einmal zu Determinanten: Sei S Ring, α ∈ SP×P und v ∈ SP. Gesucht sei x ∈ SP mit

x ∗α = v, das hei�t ∑p∈P xp ⋅α(p, ⋅) = v.Setze γ ∶= rα. Also x ∗α = v besagt x ∗ γ = ∑p∈P xp ⋅ γp = v. F�ur jedes p ∈ P ist

det(⟨γ⟩p v) = det(⟨γ⟩p ( ∑p ′∈P

xp ′ ⋅ γp ′))

= ∑p ′∈P

xp ′ ⋅ det(⟨γ⟩p γp ′)

= xp ⋅ detγ,

denn det(⟨γ⟩p γp ′) =⎧⎪⎪⎨⎪⎪⎩

γ falls p = p ′,0 sonst.

Ergebnis:

det(⟨γ⟩p v) = xp ⋅ detγ.

Wegen detα = det rα = detγ folgt ("Cramer\)

det(⟨rα⟩p v) = xp ⋅ detα,

falls x ∗α = v. Dabei ist ⟨rα⟩p v die Ersetzung der p-ten Zeile von α durch v.

3.12 Beispiel

Sei n = 3, P = [n] = 3, und sei

α =⎛⎜⎜⎝

1 2 3

4 5 6

7 8 9

⎞⎟⎟⎠,

also γ1 = α(1, ⋅) = (1, 2, 3), γ2 = α(2, ⋅) = (4, 5, 6), γ3 = α(3, ⋅) = (7, 8, 9), γ = (γ1,γ2,γ3) =((1, 2, 3), (4, 5, 6), (7, 8, 9)) ∈ (N3)3 = (N[3])[3]. Sei p = 2 und v = (10, 11, 12), dann ist

⟨γ⟩2 v = (γ1,v,γ3) = ((1, 2, 3), (10, 11, 12), (7, 8, 9)), als Matrix

m(⟨γ⟩2 v) =⎛⎜⎜⎝

γ1

v

γ2

⎞⎟⎟⎠=⎛⎜⎜⎝

1 2 3

10 11 12

7 8 9

⎞⎟⎟⎠

2

Ist detγ in Smult invertierbar und x ∗α = v, so gilt

xp =det(⟨rα⟩p v)

detα.

33

3 Multilinearit�at und Determinanten

Adjunkte Setze v ∶= δPq und betrachte x(q) ∗α = δPq, also gilt x(q)p ⋅ detα = det ⟨rα⟩p δPq.

3.13 Definition

Sei S kommutativer Ring und P endliche nichtleere Menge. Zur Matrix α ∈ SP×P setze

adjα ∶ P × P → S, (q,p)↦ det ⟨rα⟩p δPq,

dann ist die Matrix adjα ∈ SP×P die sogenannte Adjunkte zu α. 2

F�ur P = [n] ist (semiformal)

det ⟨rα⟩p δPq = det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

α(1, 1) . . . α(1,q) . . . α(1,n)⋮ ⋮ ⋮

α(p−1, 1) . . . α(p−1,q) . . . α(p−1,n)0 . . . 1 . . . 0

α(p+1, 1) . . . α(p+1,q) . . . α(p+1,n)⋮ ⋮ ⋮

α(n, 1) . . . α(n,q) . . . α(n,n)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

= (−1)p+q ⋅ det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

α(1, 1) . . . α(1,q−1) α(1,q+1) . . . α(1,n)⋮ ⋮ ⋮ ⋮

α(p−1, 1) . . . α(p−1,q−1) α(p−1,q+1) . . . α(p−1,n)α(p+1, 1) . . . α(p+1,q−1) α(p+1,q+1) . . . α(p+1,n)

⋮ ⋮ ⋮ ⋮α(n, 1) . . . α(n,q−1) α(n,q+1) . . . α(n,n)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

(Streichungsmatrix zu (p,q),"streiche p-te Zeile und q-te Spalte von α\).

Dann gilt also stets ("Cramersche Regel\):

(adjα) ∗α = (detα) ⋅ IP.

Anmerkungen:

1. Daraus ergibt sich f�ur α ∈ SP×P: Es ist α multiplikativ invertierbar in MatP S genau

dann, wenn detα multiplikativ invertierbar in S ist.

Zusatz: Ist detα invertierbar in Smult, so gilt

α−1 = 1

detα⋅ adjα.

2. Genau genommen ben�otigt man in 1., dass auch α ∗ (adjα) = (detα) ⋅ IP gilt.

Beachte dazu Folgendes: Sei S = (S,+, ⋅, 0, 1) Semiring. Dann ist auch Sop ∶=(S,+, ⋅op, 0, 1) Semiring, wobei

⋅op ∶ S × S→ S, (y,x)↦ x ⋅ y

die transponierte Multiplikation bezeichne (op \opposite"). Also ist y ⋅T x ∶= x ⋅ y.

34

3.5 Elementargeometrie in euklidischen Vektorr�aumen

Zu β ∈ SP×Q ist βT ∶ Q × P → S, (q,p) ↦ β(p,q), also βT (q,p) ∶= β(p,q), die transpo-nierte Matrix. F�ur endliche Mengen P, T ,Q seien α ∈ SP×T und β ∈ ST×Q, also βT ∈ SQ×T ,αT ∈ ST×P. Dann gilt (α ∗β)T = βT ∗(T) αT , wobei

(βT ∗(T) αT )(q,p) ∶= ∑t∈TβT (q, t) ⋅op αT (t,p),

denn ∑t∈T βT (q, t) ⋅op αT (t,p) = ∑t∈T αT (t,p) ⋅ βT (q, t) = ∑t∈T α(p, t) ⋅ β(t,q) f�ur alle

(p,q) ∈ P ×QIst S kommutativer Semiring, dann ist ⋅T = ⋅ und folglich (α ∗β)T = βT ∗αT .

Anwendung f�ur 1.: Sei S kommutativer Ring, α ∈ SP×P. Dann ist (adjα)∗α = detα ⋅ IP.Weil (αT )T = α und (adjαT ) ∗ αT = det(αT ) ⋅ IP = detα ⋅ IP ist, gilt α ∗ (adjαT )T =(detα ⋅ IP)T = detα ⋅ IP, das hei�t α hat beidseitiges Inverses, falls detα invertierbar ist.

Ist S K�orper, so folgt: detα ≠ 0⇔ α invertierbar, und detα ≠ 0⇒ α−1 = 1detα

⋅ adjα.Beispiel: Sei S = Z und detα = 2, ist nicht invertierbar in (Z, ⋅, 1), also ist α nicht

invertierbar.

3.5 Elementargeometrie in euklidischen Vektorraumen

Sei N endliche nichtleere Menge, und sei b ∶ RN × RN, (x,y)↦ x ∗ y mit

x ∗ y ∶= ∑i∈N

xiyi

das euklidische Skalarprodukt zu N (Elementarfaltung von x mit y, andere Bezeichnung:

⟨x,y⟩ = x ∗ y). Dann hei�t EN ∶= (RN,b) der euklidische Vektorraum zu N.

Das euklidische Skalarprodukt b(x,y) = x∗y = ∑i∈I xiyi hat die Eigenschaften b(x,y) =b(y,x), b(x,x) ≥ 0 und b(x,x) = 0 ⇔ x = �0, das hei�t, b ist symmetrische und positiv

de�nite Bilinearform auf RN.

In EN lassen sich Orthogonalit�at, Winkel und Abst�ande beschreiben. F�ur x,y ∈ RNnennen wir x orthogonal zu y, kurz x ⊥ y, falls x ∗ y = 0.

�0 x

y

Andere Sicht: x,y ∈ RN als Punkte interpretierbar:

�0 x

y

35

3 Multilinearit�at und Determinanten

Auch beides geht:

�0x

y

x

y

y

x

x + y

x + y = y + xx

Punkte vs Vektoren Sei −→pq ∶= −p + q Vektor vom Punkt p ∈ RN zum Punkt q ∈ RN.Abstrakte Modellierung: P sei Menge, vec ∶ P×P → RN sei Abbildung mit vec(p, ⋅) ∶ P → RN

bijektiv und vec(p, t) + vec(t,q) = vec(p,q) f�ur alle p,q ∈ P. Wir nennen P ∶= (P,P × P)Punktraum und vec vektorielle Abbildung von P nach RN.

Dann −→pq ∶= vec(p,q) f�ur alle p,q ∈ P (oft P ∩ RN = ∅).Bei uns (Modell) ist (leider) P = RN als Menge, w�ahrend RN =Mod(R,N) der zugrun-

deliegende Vektorraum ist, und

vec ∶ P × P → RN, (p,q)↦ −→pq ∶= −p + q.

Dann ist vec(p, ⋅) ∶ P → RN , q↦ −→pq = −p + q bijektiv. Ausgezeichnet als Ursprung ist

p = �0 ∈ RN, vec(�0, ⋅) ∶ P → RN, q↦ −→�0q = q.

Bestimmung von Lotfußpunkten Satz des Pythagoras (vektorielle Version): Seien

v, l,w ∈ RN mit l +w = v und l ⊥ w.

�0l

wv

Dann gilt:

l ∗ l +w ∗w = v ∗ v.

Begr�undung: v∗v = (l+w)∗ (l+w) = l∗ l+2(l∗w)+w∗w = l∗ l+w∗w, da l∗w = 0.

Sei u ∈ RN ∖ {�0} und sei v ∈ RN. Bestimme den Lotfu�punkt l von v auf Ru, das hei�t

�nde λ ∈ R mit l = λu und u ⊥ w, wobei w = −→lv = −λu + v.

�0

v

u

w

l = λu

Die Bedingung u ⊥ w = −λu + v hei�t u ∗ (−λu + v) = 0, also −λ(u ∗ u) + u ∗ v = 0, das

hei�t λ = u∗vu∗u . Ergebnis: l = λu mit λ = u∗v

u∗u .

Setze f�ur v ∈ RN stets ∥v∥ ∶=√v ∗ v = (v ∗ v) 1

2

"Norm des Vektors v\ (beachte v ∗ v =

∑i∈N v2i ≥ 0), und sei d ∶ RN × RN → R, (p,q) ↦ ∥−→pq∥ =∶ d(p,q) der"euklidische Abstand

von p zu q\.

36

3.5 Elementargeometrie in euklidischen Vektorr�aumen

Anwendung: Herleitung"CSU" (Cauchy-Schwarz-Ungleichung). Gegeben v,u ∈ RN ∖

{�0}. Sei l Lotfu�punkt zu v auf Ru, und sei w ∶= −→lv. Pythagoras ergibt:

l ∗ l +w ∗w = v ∗ v ⇒ 0 ≤ d(l,v)2 = w ∗w = v ∗ v − l ∗ l.

Wegen l = λu mit λ = u∗vu∗u folgt 0 ≤ v ∗ v − l ∗ l = v ∗ v − λ2 ⋅u ∗u = v ∗ v − (u∗v)2

u∗u , das hei�t

(u ∗ v)2 ≤ (u ∗ u) ⋅ (v ∗ v), also∣u ∗ v∣ ≤ ∥u∥ ⋅ ∥v∥ .

Also"elementargeometrisch gesehen\:

0 ≤ sin2∠(u,v) = (Gegenkathete)2(Hypothenuse)2 = w ∗w

v ∗ v = 1 − (u ∗ v)2(u ∗ u) ⋅ (v ∗ v) (liefert CSU),

cos2∠(u,v) = (Ankathete)2(Hypothenuse)2 = l ∗ l

v ∗ v =(u ∗ v)2

(u ∗ u) ⋅ (v ∗ v) = ( (u ∗ v)∥u∥ ⋅ ∥v∥)

2

,

also −1 ≤ cos∠(u,v) ∶= u∗v∥u∥⋅∥v∥ ≤ 1, das hei�t ∠(u,v) = arccos ( u∗v

∥u∥⋅∥v∥) ∈ [0,π].

Orthonormalsysteme

3.14 Definition

Ein Orthogonal-System in EN ist γ ∶ P → RN mit γi ≠ �0 f�ur alle i ∈ P (sonst schwaches

Orthogonal-System), so dass γi ⊥ γj f�ur alle i, j ∈ P mit i ≠ j gilt. Gilt zus�atzlich ∥γi∥ = 1f�ur alle i ∈ P, so hei�t γ Orthonormal-System (ON-System) in EN. 2

Es ist also γ ∶ P → RN ein ON-System in EN genau dann, wenn

γi ∗ γj = IN(i, j) =⎧⎪⎪⎨⎪⎪⎩

1 falls i = j,0 sonst,

f�ur alle (i, j) ∈N ×N gilt.

Seien u,v linear unabh�angig (also Ru + Rv ist 2-dimensional), dann w ≠ �0 und w ⊥ u,

"w orthogonalisisiert v zu Ru\.

�0

v

v

u

w

l = λu

w

Allgemein f�ur V Vektorraum und γ ∶ P → V sei rangγ ∶= Dim ⟨γ⟩ = DimIm fγ.

3.15 Proposition (Gram-Schmidtsches ON-Verfahren)

Sei k ∈ N+, setze P ∶= [k]. Sei γ ∶ P → RN unabh�angig (das hei�t fγ injektiv), also

rang(γ) = k. Dann existiert η ∶ P → RN ON-System mit ⟨η1, . . . ,ηj⟩ = ⟨γ1, . . . ,γj⟩ f�ur allej ∈ P (das hei�t ∑i∈[j] Rηi = ∑i∈[j] Rγi). 2

Beweis

Vor�uberlegung: Ist γ ′ ∶ [j] → Rn und x ⊥ γ ′i f�ur alle i ∈ [j], dann ist x ⊥ ∑γ ′ = ∑i∈[j] γ ′i.Denn x ∗∑i∈[j] γ ′i = ∑i∈[j] x ∗ γ ′i = 0.

37

3 Multilinearit�at und Determinanten

Setze η1 ∶= γ1∥γ1∥ , und f�ur h ∈ [k − 1] sei η(h + 1) ∶= η ′(h+1)

∥η ′(h+1)∥ , sowie

η ′(h + 1) ∶= γ(h + 1) − ∑i∈[h]

(γ(h + 1) ∗ ηi)ηi

(i-ter Summand ist Lotfu�punkt von γ(h + 1) auf Rηi).Zu zeigen: η ′(h + 1) ⊥ ηj f�ur jedes j ∈ [h].Nach Induktionsannahme ⟨γ1, . . . ,γh⟩ = ⟨η1, . . . ,ηh⟩ und η∣ [h] ON-System. Dann ist

η ′(h+ 1)∗ηj = γ(h+ 1)∗ηj−∑i∈[h](γ(h + 1) ∗ ηi)ηi∗ηj = γ(h+ 1)∗ηj−γ(h+ 1)∗ηj = 0,somit η ′(h + 1) ⊥ ηj, also η(h + 1) ⊥ ηj. ∎

Euklidische Raume M�oglichkeit den RN als Punktmenge zu konstruieren:

Sei P ∶= RN × {Punkt} und sei

vec ∶ P × P → RN, ((v, Punkt), (w, Punkt)) =∶ (P(v),P(w))↦ −v +w.

Ist p = P(v) = (v, Punkt), q = P(w) = (w, Punkt), dann −→pq ∶= vec(p,q) = −v +w ="−→vw".

Damit ist RN als Punktraum modelliert,

(P, vec,RN ≡Mod(R,N))

ist vektorieller Punktraum zum RN und EN ∶= (P, vec,EN) ist euklidischer Raum zu N.

Die Abbildung

d ∶ P × P → R≥0, (p,q)↦ d(p,q) ∶= ∥vec(p,q)∥

hei�t euklidische Metrik (bzw. euklidischer Abstand, euklidische Distanz) auf EN, wobei∥x∥ ∶=

√x ∗ x die euklidische Norm von x ∈ Rn bezeichne.

Dies ist eine Metrik:

� d(p,p) = 0,da ∥vec(p,p)∥ = 0 ist, da vec(p,p) + vec(p,p) = vec(p,p), also vec(p,p) = �0;

� d(p,q) = d(q,p) f�ur alle p,q ∈ P,da vec(q,p) = −vec(p,q) (da vec(p,q) + vec(q,p) = vec(p,p) = �0),

� d(p,q) ≤ d(p, t) + d(t,q) f�ur alle p,q, t ∈ P (Dreiecks-Ungleichung),

denn sei u ∶= vec(p,q), v ∶= vec(p, t), w ∶= vec(t,q), also d(p,q) = ∥u∥, d(p, t) = ∥v∥,d(t,q) = ∥w∥, dann ist u = v +w, also zeige: ∥u∥ = ∥v +w∥ ≤ ∥v∥ + ∥w∥.

p

q

t

vw

u

Es ist ∥v +w∥2 = (v + w) ∗ (v + w) = v ∗ v + 2v ∗ w + w ∗ w, und (∥v∥ + ∥w∥)2 =∥v∥2 + 2 ∥v∥ ⋅ ∥w∥+ ∥w∥2. Wegen CSU ist v∗w ≤ ∥v∥ ⋅ ∥w∥, woraus (wegen v∗ v = ∥v∥2und w ∗w = ∥w∥2) sofort ∥v +w∥2 ≤ (∥v∥ + ∥w∥)2 folgt, also ∥v +w∥ ≤ ∥v∥ + ∥w∥.

38

3.5 Elementargeometrie in euklidischen Vektorr�aumen

Eine Abbildung ϕ ∶ P → P hei�t Bewegung des EN, falls ϕ abstandstreu ist, das hei�t

d(ϕp,ϕq) = d(p,q)

f�ur alle p,q ∈ P, wobei d die euklidische Distanz sei.

3.16 Satz

Ist ϕ ∶ P → P Bewegung, dann ist

ψ ∶ RN → RN, v↦ ψv ∶= vec (ϕ(o),ϕ(P(v))),

wobei o ∶= P(�0) = (�0,Punkt) ∈ P, eine orthogonale Abbildung des EN.Fall P = RN: Sei ϕ a�n-orthogonal, falls ψv = −ϕ�0 + ϕv orthogonale Abbildung ψ

auf EN de�niert (−ϕ�0 Translationsanteil). A�n orthogonal entspricht dann einer

Bewegung im EN. 2

Vektorieller Punktraum Sei P"Punktmenge\ (Menge interpretiert als Punktmenge),

N endliche Menge, dann ist (P, vec,RN) vektorieller Punktraum (bzw. a�ner Raum),

falls vec ∶ P×P → RN vektorielle Abbildung auf (N (P,P×P),∗, id) ist, wobei N (P,P×P) ∶=(P,P × P, idP×P) das "logistische Netzwerk\ zu P sei.

Die Kanten von N (P,P×P) hei�en"syntaktische Vektoren\ zu P (also P×P Menge der

syntaktischen Vektoren) und P ist Menge von"Punkten". Es ist

(p, t) ∗ (t,q) ∶= (p,q)

das"Weglassprodukt\ von (p, t) mit (t,q) (syntaktische Verkettung zwischen syntakti-

schen Vektoren), idp ∶= (p,p)"synaktischer ID-Loop\ von p ∈ P, und (N (P,P × P),∗, id)

"syntaktischer Punktraum\ zu P.

t(t,q)

��>>>>>>>

p

(p,t)@@�������

(p,q)// q

Abbildung vec ∶ P × P → RN vektoriell bedeute, dass

vec ((p, t) ∗ (t,q)) = vec(p, t) + vec(t,q),

das hei�t vec(p,q) = vec(p, t) + vec(t,q), f�ur alle p, t,q ∈ P gilt (vec(p, t), vec(t,q) sind

"semantische Vektoren\, + ist semantische Verkettung zwischen semantischen Vektoren).

Ferner sei vec(p, ⋅) ∶ P → RN bijektiv f�ur jedes p ∈ P.Sei o ∈ P, vec(o, ⋅) bijektiv hei�t: Zu jedem v ∈ RN existiert genau ein p ∈ P mit

vec(o,p) = v. Notation: o + v =∶ p.

o

p = o+vv

39

3 Multilinearit�at und Determinanten

3.17 Beispiel

1. Sei P ∶= RN × {Punkt}, setze P(v) ∶= (v, Punkt), also P ∶ RN → P, v ↦ (v, Punkt) ist

Bijektion, und

vec ∶ P × P → RN, (P(v),P(w))↦ −v +w

ist vektoriell, denn vec(P(v),P(u)) + vec(P(u),P(w)) = (−v + u) + (−u + w) =−v + w = vec(P(v),P(w)) f�ur alle v,w ∈ Rn, und vec(P(v), ⋅) ∶ P → RN, P(w) ↦vec(P(v),P(w)) = −v +w ist bijektiv f�ur jedes feste v ∈ RN.

2."brutal\,

"hoch ambivalent\, Punkte vs (semantische) Vektoren: Sei P = RN, dann

vec ∶ P × P → RN, (p,q)↦ −p + q =∶ −→pq = vec(p,q)

ist vektoriell, da vec(p, t) + vec(t,q) = (−p + t) + (−t + q) = −p + q = vec(p,q) =vec((p, t) ∗ (t,q)) f�ur alle p,q, t ∈ P, und vec(p, ⋅) ∶ P → RN, q ↦ −p + q = vec(p,q)ist bijektiv f�ur jedes feste p ∈ P. 2

40

4 Charakteristisches Polynom

Ist α ∈ SP×P invertierbar in MatP S, wobei S Semiring, P endliche nichtleere Menge, so

hei�t α regul�ar. Es sei GLP S die Menge aller regul�aren Matrizen α ∈ SP×P.Sei S K�orper, f�ur γ ∈ (SP)P ist

rangγ ∶= Dim ⟨γ⟩ = Dim∑i∈PSγi = DimIm fγ,

dann rangα ∶= rang rα maximale Anzahl linear unabh�angiger Zeilenvektoren von α,

"Zeilenrang von α\. Es gilt rangα = rang cα "

Spaltenrang von α\, also"Zeilenrang =

Spaltenrang\.

Ausblick Sei P endliche nichtleere Menge. Eine bin�are Relation R auf P ist azyklisch,

falls das Netzwerk N (P,R) keine Kreise enth�alt. Ist R ∖ diagP azyklisch, so nennen wir R

fast azyklisch (hierbei bezeichnet diagP ∶= {(p,p) ∣ p ∈ P} die Diagonale von P).

Sei S Semiring. Eine Matrix α ∈ SP×P hei�t Trigonalmatrix, falls suppα ∶={(p,q) ∈ P × P ∣ α(p,q) ≠ 0} fast azyklisch ist. Man nennt α ∈ SP×P �ahnlich zu α ′ ∈ SP×Pin MatP S, falls ein β ∈ GLP S mit α∗β = β∗α ′ existiert. Eine Matrix ist trigonalisierbar,

falls sie �ahnlich zu einer Trigonalmatrix ist.

4.1 Satz

Ist S kommutativer Ring und α ∈ SP×P Trigonalmatrix, dann

detα =∏i∈Pα(i, i).

2

F�ur α# ∶= adjα Adjunkte zu α, also α#(j, i) = ⟨rα⟩i δPj , gilt

α ∗α# = detα ⋅ IP = α# ∗α.

Daher folgt: Ist α Trigonalmatrix, dann ist α regul�ar genau dann, wenn α(i, i) ∈ S× f�ur

alle i ∈ P ist, wobei S× die Menge der multiplikativ invertierbaren Elemente von S sei.

4.2 Satz

Sei S K�orper und α ∈ SP×P. Dann ist α trigonalisierbar genau dann, wenn das cha-

rakteristische Polynom χα in Linearfaktoren zerf�allt. 2

Ist S = C, dann hat jedes Polynom Nullstelle, zerf�allt also in Linearfaktoren. Insbeson-

dere zerf�allt χα in Linearfaktoren.

4.3 Korollar

Jede Matrix aus CP×P ist trigonalisierbar. 2

41

4 Charakteristisches Polynom

4.1 Aktionsnetzwerke und Faltungsalgebren

Was sind Polynome, was sind Matrizen?

Polynome Typische Antwort: Ein Polynom ist eine Abbildung von R in sich der Form

p ∶ R→ R, x↦n

∑i=0aix

i = a0 + a1x +⋯ + anxn,

wobei a0, . . . ,an ∈ R. Sie eignen sich zur Interpolation von n + 1"St�utzstellen\.

Mathematisch unbefriedigend: hier wird nur eingesetzt, die eigentliche Information ist

(a0,a1, . . . ,an) ∈ Rn+1, bzw. α ∶= (a0,a1, . . . ,an, 0, . . . ) ∈ R(N) (das hei�t suppα ∶={i ∈ N ∣ ai ≠ 0} ist endlich,

"reelle Folge mit endlichem Support\). Also ist

α = ∑i∈Naiδ

N

i ∶= ∑i∈suppα

αiδN

i

(interpretierbar als"Polynom\, α ∈ RN interpretierbar als formale Potenzreihe).

F�ur α ∈ R(N) ist α = α ∗ δN = ∑i∈Nαi ⋅ δNi = ∑i∈N aiδNi f�ur ai ∶= αi. Setze Xi ∶= δNi , dannist α ∈ R(N) gerade α = ∑i∈N aiXi, dabei ist aiXi das i-te Monom zu α. Es hei�t anX

n

Leitmonom von α und an Leitkoe�zient von α, falls n ∶=max(suppα).Einsetzen: W�ahle s ∈ R �x und ersetze Xi durch si, das hei�t N → R, i ↦ si. Ergebnis:

αs ∶= ∑i∈N aisi = ∑ni=0 aisi (dabei ist αs \abuse of notation").Eventuell klappt das auch f�ur α ∈ RN, also ist αs ∶= ∑i∈N aisi wohlde�niert (zum Beispiel

falls α konvergente Reihe).

Multiplikation von Polynomen ist noch zu kl�aren: Setze δNi ∗ δNj ∶= δNi+Nj, das hei�t

XiXj ∶= Xi ∗Xj ∶= Xi+j. F�ur α,β ∈ R(N) folgt durch Ausmultiplizieren:

α ∗β ∶= ∑(i,j)∈N×N

(aiδNi ) ∗ (bjδNj )

= ∑(i,j)∈N×N

aibj ⋅ δNi ∗ δNj = ∑(i,j)∈N×N

aibj ⋅ δNi+j

= ∑h∈N

( ∑(i,j)∈N×Ni+j=h

aibj) ⋅ δNh = ∑h∈N

( ∑i+j=h

aibj) ⋅ δNh (lax),

also (∑i∈N aiXi) ∗ (∑j∈N bjXj) = ∑h∈N (∑i+j=h aibj)Xh.

Matrizen Was ist eine Matrix? Typische Antwort:

Ein Schema (kein mathematisches Objekt im Sinne einer mengenbasierten Modellie-

rung), mit dem ich eine lineare Abbildung beschreiben kann (wenn ich Basen gegeben

habe). Das sieht so aus:

⎛⎜⎜⎝

a11 ⋯ a1n⋮ ⋮

am1 ⋯ amn

⎞⎟⎟⎠∈ Rm,n

(reelles Schema, reelle Matrix).

42

4.1 Aktionsnetzwerke und Faltungsalgebren

Ist also algebraisch modelliert eine Abbildung α ∶ [m]× [n]→ R, das hei�t α ∈ R[m]×[n].

Dabei [m] × [n] syntaktisches Schema von α, sowie (i, j) ∈ [m] × [n]"Position\ im syn-

taktischen Schema.

Verallgemeinerte Sicht jetzt m�oglich: W�ahle P und Q beliebige Mengen an Stelle von

[m] und [n], dann α ∶ P × Q → R reelle Matrix, wobei (P,Q) Paar von Indexmengen,

"formales (syntaktisches) Schema von α\ und P ×Q realisiertes (syntaktisches) Schema.

(Beachte: Falls P = ∅ ≠ Q, dann ist P ×Q = ∅, also ist Q nicht aus P ×Q rekonstruierbar,

wohl aber aus (P,Q); setze P ××Q ∶= (P,Q).)Matrix-Multiplikation: Zu α ∈ RP×T und β ∈ RT×Q ist α ∗β ∈ RP×Q de�niert als

(α ∗β)(p,q) ∶= ∑t∈Tα(p, t) ⋅β(t,q).

Speziell sei δP×T ∶ P × T → RP×T , (p, t)↦ δP×T(p,t), wobei

δP×T(p,t) ∶ P × T → R, (p ′, t ′) ↦⎧⎪⎪⎨⎪⎪⎩

1 (p ′, t ′) = (p, t),0 sonst,

Elementarmatrix zu (p, t). Dann gilt

(δP×T(p ′,t ′) ∗ δT×Q(t ′′,q ′′))(p,q) = ∑

t∈TδP×T(p ′,t ′)(p, t) ⋅ δ

T×Q(t ′′,q ′′)(t,q)

=⎧⎪⎪⎨⎪⎪⎩

1 p = p ′ ∧ t ′ = t ′′ ∧ q = q ′′,0 sonst,

das hei�t

δP×T(p ′,t ′) ∗ δT×Q(t ′′,q ′′) =

⎧⎪⎪⎨⎪⎪⎩

δP×Q(p ′,q ′′) f�ur t ′ = t ′′,0 sonst.

Ergebnis:

δP×T(p,t) ∗ δT×Q(t,q) = δ

P×Q(p,q).

Speziell f�ur P = T = Q ist δP×P(p,t) ∗ δP×P(t,q) = δ

P×P(p,q) = δ

P×P(p,t)∗(t,q), mit (p, t) ∗ (t,q) = (p,q)

dem Weglassprodukt im logistischen Netzwerk N (P,P × P).

Aktionsnetzwerke Zur Erinnerung, ein Netzwerk (gerichteter Multigraph) ist ein Tripel

G = (V,E,ρ), wobei V, E Mengen und ρ ∶ E → V × V Abbildung sind, setze ρe =∶ (σe,τe)f�ur alle e ∈ E, also sind σ,τ ∈ VE.

e

σeτe

Es bezeichne E⟨n⟩ ∶= {(e1, . . . ,en) ∈ EN ∣ τei = σei+1 f�ur alle i ∈ [n − 1]} die Pfade der

L�ange n in G.

43

4 Charakteristisches Polynom

4.4 Definition

G ∶= (G,∗, id) hei�t Aktionsnetzwerk, kurz ANW, falls G = (V,E,ρ) Netzwerk ist, sowie

∗ ∶ E⟨2⟩ → E, (a,b)↦ a ∗ b

und id ∶ V → E Abbildungen sind derart, dass gilt:

1. ρ(a∗b) = (σa,τb) = ρa∗ρb f�ur alle (a,b) ∈ E⟨2⟩, wobei ρa∗ρb Weglassprodukt im

logistischen Netzwerk:

ab

a ∗ b

2. (a ∗ b) ∗ c = a ∗ (b ∗ c) f�ur alle (a,b, c) ∈ E⟨3⟩ (Assoziativit�at):

ab

c

a ∗ b b ∗ c

(a ∗ b) ∗ c = a ∗ (b ∗ c)

3. ρ(idp) = (p,p) = idp (logistische Sicht) f�ur alle p ∈ V,"passiv in p sein\,

4. idp ∗ e = e = e ∗ idq f�ur alle e ∈ E und p ∶= σe, q ∶= τe ("Passivit�atsaxiom\):

e

pqidp

idq

2

Anmerkung: Die Elemente in E betrachten wir h�au�g als"Aktionen\ und a ∗ b ist die

(covariante) Verkettung der Aktion a mit der Aktion b ("erst a, dann b\) f�ur (a,b) ∈ E⟨2⟩.

Achtung: Die Verkettung ist nicht f�ur a,b mit τa ≠ σb de�niert.

4.5 Beispiel

1. Sei V Menge von Mengen, E Menge von Abbildungen f mit dom f, codom f ∈ Vund ∗ covariante Verkn�upfung von Abbildungen; f�ur P ∈ V ist idP ∶ P → P, x ↦ x,

idP ∶= idP. Bedingungen:a) {idP ∣ P ∈ V} ⊆ E ,

b) P, T ,Q ∈ E , P f−→ T g−→Q Abbildungen mit f,g ∈ E , so auch f ∗ g ∈ E .

2. Logistisches ANW zur Menge P:

GP ∶= (GP,∗, id) mit GP ∶= (P,P × P, idP×P) logistisches Netzwerk zu P, und

(p, t) ∗ (t,q) ∶= (p,q) f�ur alle p, t,q ∈ P Weglassprodukt, (syntaktische) Verket-

tung syntaktischer Vektoren (p, t) mit (t,q), sowie id ∶ P → P × P, p↦ (p,p).Jede transitive, re exive Relation R auf der Menge P (das hei�t (P,R) ist

Pr�aordnung) liefert ein ANW G(P,R) als Unterstruktur von GP.

44

4.1 Aktionsnetzwerke und Faltungsalgebren

3. Monoide als ANWe,"Schreibtischt�ater ANW\:

Ist M = (M,∗M, 1M) Monoid, so sei GM ∶= (GM,∗M, id) mit GM ∶= ({1M} ,M,ρ), woρ ∶ M → {1M}2, x ↦ (1M, 1M), und id ∶ {1M} → M, 1M ↦ 1M, das zu M geh�orige

ANW' "M als einknotiges ANW\.

●1M

id 1M

x

yx ∗M y

Umgekehrt induziert jedes einknotige ANW (das hei�t #V = 1) ein Monoid. 2

Anmerkung: ANWe hei�en auch kleine covariante Kategorien.

Faltungsalgebren Sei S Semiring und G = (G = (V,E,ρ),∗, id) ANW, dann betrachte

S(E) ∶= {u ∈ SE ∣ suppu endlich}, die Menge der endlichen Multimengen zu E �uber S, das

hei�t Menge der Kantenbewertungen von G mit endlichem Support.

4.6 Beispiel

Sei P = {p,q, t} und betrachte das logistische ANW GP = (N (P,P × P),∗, id), wobeiN (P,P × P) das logistische Netzwerk sei:

p

t

q

Sei R ∶= {(p, t), (t,q), (p,q), (p,p), (t, t), (q,q)} ⊆ P×P transitive re exive Relation auf P,

liefert ein ANW G(P,R) als Unterstruktur von GP. Beispiel f�ur u ∈ SE = NR (also S = N,E = R) ist dann:

3

2

0

4

1

2

2

4.7 Definition (Faltungsalgebra)

Sei S Semiring und G endlichknotiges ANW (das hei�t V ist endlich). Dann sei

S[G] ∶= (S(E),+,∗, 0, I)

mit + und ∗ zweistellige Operationen auf S(E), so dass (u + w)e ∶= ue + we f�ur alle

u,w ∈ S(E) und(u ∗w)e ∶= ∑

(c,d)∈E⟨2⟩

c∗d=e

uc ⋅wd

45

4 Charakteristisches Polynom

f�ur alle e ∈ E und u,w ∈ S(E) (die Faltung, \convolution" von u mit w, Split(e) ∶={(c,d) ∈ E⟨2⟩ ∣ c ∗ d = e} der Split von e),

e

c d

(u ∗w)e

uc wd

sowie 0 ∶ E→ S, e↦ 0, und

I ∶ E→ S, e↦⎧⎪⎪⎨⎪⎪⎩

1 f�ur e ∈ idV,0 sonst;

es hei�t S[G] die Faltungsalgebra von G �uber S. 2

Also lax: (u ∗w)e = ∑c∗d=e uc ⋅wd.Wichtig sind Rtrop und Rarc in der Optimierung, zum Beispiel f�ur S = Rtrop ist (u∗w)e =

min(c,d)∈Split(e)(uc +wd).

Ist S[G] Faltungsalgebra, dann ist

(δEa ∗ δEb)e = ∑(c,d)∈Split(e)

δEac ⋅ δEbd =⎧⎪⎪⎨⎪⎪⎩

1 f�ur (a,b) ∈ Split(e),0 sonst,

denn der Fall a = c ∧ b = d tritt auf, falls (a,b) ∈ Split(e). Das hei�t

δEa ∗ δEb = δEa∗b f�ur alle (a,b) ∈ E⟨2⟩,

sowie δEa ∗ δEb = 0, falls (a,b) ∈ E2 mit τa ≠ σb.F�ur u,v ∈ S(E) ist dann

u ∗w = ∑(c,d)∈E2

uc ⋅wd ⋅ (δEc ∗ δEd),

wegen u = ∑c∈E uc ⋅ δEc , w = ∑d∈Ewd ⋅ δEd und der Distributivit�at von ∗ bez�uglich +.

4.8 Satz

Es ist S[G] ein Semiring f�ur jedes echt knotenendliche ANW G (das hei�t V endlich

und V ≠ ∅) und jeden Semiring S. 2

Zum Beispiel Assoziativit�at: Sei (a,b, c) ∈ E⟨3⟩, dann (δEa ∗ δEb) ∗ δEc = δEa∗b ∗ δEc =δE(a∗b)∗c = δ

Ea∗(b∗c) = δ

Ea ∗ δEb∗c = δEa ∗ (δEb ∗ δEc ); gilt auch allgemein (�Ubung).

Zum Beispiel (u ∗ I)e = ∑(c,d)∈Split(e) uc ⋅ I(d) = ue, denn I(d) = 1 falls d = idq, das

hei�t q = τe, und c = c ∗ idq = c ∗ d = e; also u ∗ I = u.4.9 Beispiel

1. Sei P endliche nichtleere Menge. F�ur jeden Semiring S gilt

S[GP] = MatP S.

46

4.1 Aktionsnetzwerke und Faltungsalgebren

Begr�undung: Sei u,w ∈ SP×P, hier E = P×P Kantenmenge. Ist e = (p,q) ∈ P×P, dannist Split(e) = {((p, t), (t,q)) ∣ t ∈ P}, also ist (u ∗ w)(p,q) = ∑t∈P u(p, t) ⋅ w(t,q)Matrizenprodukt, und I(p,q) = 1 f�ur p = q (idp = (p,p)), I(p,q) = 0 sonst, I ist

Einheitsmatrix.

2. Sei G = G(N,+, 0) = GNadd und S kommutativer Semiring, also N = E, {0} = V. F�uru,w ∈ S(N) ist

(u ∗w)k = ∑(i,j)∈N×Ni+j=k

ui ⋅wj

(denn Split(k) = {(i, j) ∈ N ×N ∣ i + j = k}), also gilt u ∗w = ∑k∈N (∑i+j=k ui ⋅wj)Xkf�ur Xk ∶= δNk . Ergebnis: S[G] = S[X] Polynomsemiring in X.

3. Sei M = (M,∗M, 1M) Monoid, S kommutativer Semiring,

(u ∗w)x = ∑(y,z)∈M×Mx=y∗Mz

uy ⋅wz.

Dann ist S[M] ∶= S[GM] der sogenannte Monoidsemiring zu M �uber S.

Speziell f�ur M = N(P)add

setze XP ∶= δMp , dann S[M] =∶ S[(Xp)p∈P] Polynomsemiring in

(Xp)p∈P, "multivariate Polynome\ sind Elemente u ∈ S(M).

Ber�uhmter Fall: S = C, M bilde Gruppe, dann C[M] komplexer Gruppenring zu M.2

Einsetzungsmorphismus Anwendung:"Einsetzen in Polynome\.

Eine Algebra A �uber einem kommutativen Semiring S (auch S-Algebra) ist ein S-Modul

mit Multiplikation, so dass (A,+, ⋅, 0, 1) Semiring ist, sowie s ⋅(a ⋅Ab) = (s ⋅a) ⋅Ab = a ⋅A(s ⋅b)f�ur alle s ∈ S und a,b ∈ A. Insbesondere ist S[G] Algebra �uber S f�ur jedes echt endlich-

knotiges ANW G.

4.10 Satz (Einsetzungsmorphismen)

Sei ϕ ∶ M → Amult Monoidmorphismus, wobei A Algebra �uber kommutativen Semi-

ring S sei. Dann existiert genau ein Algebramorphismus ψ ∶ S[M] → A (das hei�t ψ

ist S-linear und ein Semiringmorphismus) mit ψ ○ δM = ϕ, das hei�t:

Mϕ //

δM

��///

Amult

idA

��S[M]

∃!ψ// A

2

Es sei ψ der Einsetzungsmorphismus f�ur ϕ, \evalution morphism"; also ψ regelt das

Einsetzen von ϕ in jedes u ∈ S(M). Explizit ist

ψ ∶ S(M) → A, u↦ u ∗ϕ mit u ∗ϕ ∶= ∑x∈M

ux ⋅ϕx ∈ A.

Wir schreiben u(ϕ) ∶= u∗ϕ = ∑x∈M ux ⋅ϕx, "u(ϕ) ist die Einsetzung von ϕ in u ∈ S(M)\.

47

4 Charakteristisches Polynom

Beispiel: Sei ϕ ein Charakter von (Z12)add, das hei�t ϕ ∶ (Z12)add = (12,+, 0)→ C×mult =(C×, ⋅, 1) ist Gruppenmorphismus; induziert Monoidmorphismus, da ϕx = ϕ(0 + x) = ϕ0 ⋅ϕx, also ϕ0 = 1. Zum Beispiel a↦ ea(2π/12)i, also 0↦ 1 und 1↦ e(2π/12)i (30○).Beweis

Zeige ψ(u ∗ w) = ψu ⋅A ψw f�ur alle u,w ∈ S(E) (Rest: �Ubung). Begr�undung: Wegen

(u ∗w)x = ∑(y,z)∶y∗Mz=x uy ⋅wz und ϕ(y ∗M z) = ϕy ⋅A ϕz ist

ψ(u ∗w) = (u ∗w) ∗ϕ = ∑x∈M

(u ∗w)x ⋅ϕx

= ∑x∈M

∑(y,z)∈M×My∗Mz=x

(uy ⋅wz) ⋅ϕ(y ∗M z)

= ∑(y,z)∈M×M

(uy ⋅wz) ⋅ (ϕy ⋅A ϕz)

= ∑(y,z)∈M×M

(uy ⋅ϕy) ⋅A (wz ⋅ϕz)

= ( ∑y∈M

uy ⋅ϕy) ⋅A ( ∑z∈M

wz ⋅ϕz)

= (u ∗ϕ) ⋅A (w ∗ϕ) = ψu ⋅A ψw,

das hei�t ψ(u ∗w) = ψu ⋅A ψw. ∎

Es ist ψ(δMi ) = ϕi f�ur alle i ∈M, also u = ∑i∈M uiδMiψ↦ u(ϕ) ∶= ∑i∈M ui ⋅ϕi f�ur jedes

u ∈ S(M),"Einsetzen von ϕ\. Setzt man Xi ∶= δMi und ϕi ∶= ϕi f�ur alle i ∈M (mit Vorsicht

zu genie�en), so gilt

∑i∈M

uiXi ψ↦ ∑

i∈Muiϕ

i.

Wichtige Anwendung: Sei M = Nadd = (N,+, 0). W�ahle a ∈ A �x. Dann ist

[a] ∶ N→ A, i↦ ai

Monoidmorphismus von Nadd nach Amult. Die Einsetzung von a in u ∈ S[X] = S[Nadd]ist dann gerade u(a) = ∑uiai, das hei�t u(a) ⋅A w(a) = (u ∗ w)a f�ur u = ∑i∈N uiXi,w = ∑i∈NwiXi in S[X].Es ist uA ∶ A→ A, a↦ u(a) die Polynomfunktion zum Polynom u ∈ S[X]. Im Fall A = S

ist also uS ∶ S→ S, s↦ u(s) = ∑i∈N uisi die Polynomfunktion zum Polynom u ∈ S[X].

Produkt von Aktionsnetzwerken4.11 Definition

Seien G,G ′ ANWe. Dann sei

G ×G ′ ∶= (G ×G ′,∗, id)

de�niert via G×G ′ ∶= (V ×V ′,E×E ′,ρ) mit ρ(e,e ′) ∶= ((σe,σ ′e ′), (τe,τ ′e ′)) und (a,a ′)∗(b,b ′) ∶= (a ∗ b,a ′ ∗ b ′) f�ur ((a,a ′), (b,b ′)) ∈ (E × E ′)⟨2⟩.Es ist G ×G ′ ebenfalls ANW, das sogenannte Produkt von G mit G ′. 2

48

4.2 Eigenwerte, Eigenvektoren

4.12 Satz

Sei S Semiring, seien G,G ′ echt knotenendliche ANWe. Dann gilt:

1. (S[G])[G ′] ≅ S[G ×G ′],

2. S[G ×G ′] ≅ S[G ′ ×G]. 2

Beweisidee: Sei S ′ ∶= S[G]. F�ur u ′ ∈ S ′(E ′) (das hei�t u ′ ∈ (S[G])[G ′]) ist dann u ′e ′ =∑e∈E(u ′e ′)e ⋅ δEe . Setze ~u(e,e ′) ∶= (u ′e ′)e f�ur alle (e,e ′) ∈ E × E ′, also ~u ∶=mTu ′ ∈ SE×E ′ .Dann ist u ′ ↦ ~u Isomorphismus von (S[G])[G ′] nach S[G ×G ′].Anwendung: G ∶= GNadd, G

′ ∶= GN, S kommutativer Semiring, N ≠ ∅ endlich. Dann

MatN(S[X]) ≅ (MatN S)[X]

(Matrizen von Polynomen vs Polynome von Matrizen).

4.2 Eigenwerte, Eigenvektoren

SeiM Modul �uber einem kommutativen Ring S und sei ϕ ∈ EndM. F�ur v ∈M und s ∈ Sist v

"Eigenvektor zum Eigenwert s bez�uglich ϕ\, falls ϕv = s ⋅ v gilt.

4.13 Definition

Es ist s ∈ S Eigenwert von ϕ, falls ein v ∈M∖{�0} mit ϕv = s ⋅v existiert; ferner bezeichneEigValue(ϕ) die Menge der Eigenwerte von ϕ. Es ist v ∈M Eigenvektor von ϕ, falls v ≠ �0ist und ein s ∈ S mit ϕv = s ⋅ v existiert. F�ur s ∈ S sei

Eig(ϕ, s) ∶= {v ∈M ∣ ϕv = s ⋅ v} ,

und ist s Eigenwert von ϕ, so hei�t Eig(ϕ, s) Eigenraum von ϕ zu s. Gilt ∑s∈SEig(ϕ, s) =M, so hat ϕ eine Eigenraumzerlegung (Eig(ϕ, s) ∣ s ∈ EigValue(ϕ)). 2

Es ist U ∈ LM ein ϕ-invarianter Unterraum, falls ϕU ⊆ U gilt.

4.14 Bemerkung

F�ur ϕ ∈ EndM gilt:

� Eig(ϕ, s) = Ker(s ⋅ idM −ϕ) f�ur alle s ∈ S.

� Eig(ϕ, r) ∩Eig(ϕ, s) = {�0} f�ur r, s ∈ S mit r ≠ s, falls S K�orper ist.

� Eig(ϕ, s) ist ϕ-invariant f�ur alle s ∈ S.

� Existiert eine Basis η ∶ P →M vonM bestehend aus Eigenvektoren von ϕ (das hei�t

ηp ist Eigenvektor von ϕ f�ur jedes p ∈ P), so ist ϕ diagonalisierbar. In diesem Fall

hat ϕ eine Eigenraumzerlegung. 2

4.15 Definition

Sei S kommutativer Ring, N ≠ ∅ endlich und α ∈ SN×N. Dann hei�t

χα ∶= det(X ⋅ IN −α) ∈ S[X]

das charakteristische Polynom von α. 2

49

4 Charakteristisches Polynom

4.16 Proposition

F�ur das charakteristische Polynom von α ∈ SN×N gilt

χα =n

∑k=0

(−1)k ⋅ ( ∑J∈(N

k)detαJ) ⋅Xn−k ,

wobei n ∶=#N, (Nk) ∶= {J ∈ 2N ∣ #J = k} und αJ ∶= α∣ J × J. 2

Zum Beispiel f�ur n = 2 und α = (a bc d

) erhalten wir χα = X2 − (a + d)X + (ad − bc).

Beweis

Zun�achst"Determinante einer Summe\. F�ur α,β ∈ SN×N gilt nach der Leibniz-Formel

det(α +β) = ∑σ∈SymN

sgnσ ⋅ λσ f�ur λσ ∶= ∏i∈N

(α(i,σi) +β(i,σi)) .

Dabei ist λσ = ∑J∈2N λ(σ, J) f�ur λ(σ, J) ∶=∏i∈Jα(i,σi) ⋅∏i∈N∖Jβ(i,σi), und es folgt

det(α +β) = ∑σ∈SymN

∑J∈2N

sgnσ ⋅ λ(σ, J) = ∑J∈2N

∑σ∈SymN

sgnσ ⋅ λ(σ, J) .

Speziell f�ur β = X ⋅ IN ∈ (S[X])N×N und σ ∈ SymN, J ∈ 2N ergibt sich

∏i∈N∖J

β(i,σi) =⎧⎪⎪⎨⎪⎪⎩

X#(N∖J) falls N ∖ J ⊆ {i ∈N ∣ σi = i} ,0 sonst.

Somit ist

λ(σ, J) =⎧⎪⎪⎨⎪⎪⎩

∏i∈Jα(i,σi) ⋅X#(N∖J) falls N ∖ J ⊆ {i ∈N ∣ σi = i} ,0 sonst,

woraus folgt

∑σ∈SymN

sgnσ ⋅ λ(G, J) = (detαJ) ⋅X#(N∖J) .

Also gilt

det(α +X ⋅ IN) = ∑J∈2N

(detαJ) ⋅Xn−#J =n

∑k=0

( ∑J∈(N

k)detαJ) ⋅Xn−k ,

woraus mit χα = det(X ⋅ IN −α) leicht die Behauptung folgt. ∎

4.17 Bemerkung

Seien S,N,α wie oben.

1. Ist α ′ ∈ SN×N �ahnlich zu α, so ist χα ′ = χα.

2. Ist S K�orper, so ist λ ∈ S Nullstelle von χα genau dann, wenn λ Eigenwert von α. 2

50

4.3 Caley-Hamilton, Jordan-Normalform

4.18 Definition

Sei S K�orper, N ≠ ∅ endlich und α ∈ SN×N. Ist λ Eigenwert von α, so ist

� Dimension von Eig(α,λ) ∶= {v ∈ SN ∣ v ∗α = λ ⋅ v} die geometrische Vielfachheit,

� gr�o�tes k ∈ N+ mit χα = (X − λ)k ⋅ f f�ur ein f ∈ S[X] die algebraische Vielfachheit

von λ bez�uglich α. 2

4.19 Bemerkung

Es ist (bez�uglich α) die geometrische Vielfachheit von λ immer kleiner oder gleich der

algebraischen Vielfachheit von λ. 2

4.3 Caley-Hamilton, Jordan-Normalform

4.20 Satz (Cayley-Hamilton)

Sei S kommutativer Ring, N ≠ ∅ endlich. Dann gilt f�ur α ∈ SN×N stets

χα(α) = 0,

wobei χα ∶= det(X ⋅ IN −α) ∈ S[X] und X ⋅ IN −α ∈MatN S[X] ≡ (MatN S)[X]. 2

Zum Beweis:

4.21 Lemma

Sei α ∈MatN S und u ∈ S[X]. Dann folgt aus (X⋅IN−α)∗γ = u⋅IN f�ur ein γ ∈MatN S[X]bereits u(α) = 0. 2

Anwendung: Sei γ ∶= (X ⋅IN−α)# die Adjunkte zu X ⋅IN−α und u ∶= det(X ⋅IN−α) = χα.Also ist (X ⋅ IN −α) ∗ (X ⋅ IN −α)# = χα ⋅ IN, und somit ist χα(α) = 0.Zu zeigen bleibt das Lemma.

Beweis (Lemma)

Links: (X ⋅ IN − α) ∗ γ = ∑k∈N(γkXk+1 − α ∗ γkXk) = ∑k∈N γk−1Xk − ∑k∈Nα ∗ γkXk, daγ = ∑k∈N γkXk und γ−1 ∶= 0.Rechts: u ⋅ IN = ∑k∈N ukXk ⋅ IN = ∑k∈N ukIN ⋅Xk.Koe�zientenvergleich ergibt: γk−1 −α ∗ γk = ukIN f�ur alle k ∈ N.Es folgt αk ∗γk−1−αk+1 ∗γk = ukαk f�ur alle k ∈ N. Summiere, also 0 = ∑k∈N ak ∗γk−1−

∑k∈Nαk+1 ∗ γk = ∑k∈N ukαk = u(α). ∎

Anwendungen"Charakteristisches Polynom\.

4.22 Satz

Sei S K�orper, N ≠ ∅ endlich, α ∈ MatN S. Dann gilt: α ist trigonalisierbar (�ahnlich

zu einer Trigonalmatrix) genau dann, wenn χα in Linearfaktoren zerf�allt, das hei�t

χα =∏i∈N(X − λi) f�ur ein λ ∈ SN. 2

Beweis

"⇒\: Sei α �ahnlich zu α ′ mit α ′ Trigonalmatrix. Dann ist χα = χα ′ = det(X ⋅ IN − α ′) =∏i∈N(X −α ′(i, i)).

51

4 Charakteristisches Polynom

"⇐\: Sei χα = ∏i∈N(X − λi), sei j ∈ N fest, χα(λj) = 0. Dann gibt es vj ∈ SN ∖ {�0}

mit fα(vj) = vj ∗ α = λjvj, das hei�t vj ist Eigenvektor. Spalte auf in Svj ⊕U = SN mit

fα(U) ⊆ U. Induktion nach #N.

(Erster Beweisversuch, so klappt's nicht! Gegenbeispiel α = (0 1

0 0), . . . ) ∎

4.23 Korollar

Jede Matrix in MatNC ist trigonalisierbar (da C algebraisch abgeschlossen, das hei�t

jedes Polynom zerf�allt in Linearfaktoren). 2

Jordansche Normalform Sei N = [n], n ∈ N+, S K�orper. Zu 1 ≤m ≤ n und λ ∈ S sei

J(λ,m) =

⎛⎜⎜⎜⎜⎜⎜⎜⎝

λ 0

1 ⋱ ⋱ 0

⋱ ⋱ ⋱0 ⋱ λ 0

1 λ

⎞⎟⎟⎟⎟⎟⎟⎟⎠

∈ S[m]×[m]

("einfache Gestalt\) die Jordanmatrix (evtl. transponieren, wenn kontravariante Sicht).

4.24 Satz

Zerf�allt χα f�ur α ∈ MatN S in Linearfaktoren, dann existiert eine zu α �ahnliche

Matrix α ′ (das hei�t α ∗β = β ∗α ′ mit β invertierbar) der Form

⎛⎜⎜⎝

J(λ1,m1) 0

⋱0 J(λk,mk)

⎞⎟⎟⎠,

wobei m1 + ⋅ ⋅ ⋅ +mk = n und λi ∈ S, "fast Diagonalgestalt\. 2

Liften:"orthogonal in C\ hei�t unit�ar: Zu x,y ∈ CN sei

⟨x,y⟩ ∶= ∑i∈N

xi�yi = x ∗ �y,

wo �yi ∶= yi; zu s = s1 + is2 ∈ C sei dabei �s = s1 − is2 die konjugiert komplexe Zahl zu s,

dann s ⋅ �s = ∣s∣2, denn (s1 + is2)(s − is2) = s21 − i2s22 = s21 + s22.Dann ⟨λx,y⟩ = λ ⟨x,y⟩, ⟨x,λy⟩ = �λ ⟨x,y⟩;

√x ∗ �x = ∥x∥, λx ∗ λx = λ�λ ⋅ x ∗ x, also ∥λx∥ =

∣λ∣ ⋅ ∥x∥. Sei x ⊥ y⇔ ⟨x,y⟩ = 0⇔ x ∗ �y = 0 (x unit�ar orthogonal zu y).

Orthogonale Gruppe wird zur unit�aren Gruppe: α ∗ αT = IN, das hei�t α orthogonal,

entspricht α ∗α∗ = IN, das hei�t α unit�ar, wobei α∗ = �αT .

52