Upload
phamtruc
View
219
Download
0
Embed Size (px)
Citation preview
Skript LAAG II
Stefan E. Schmidt
LATEX: Maximilian Marx
Jens Zumbr�agel
TU Dresden
Sommersemester 2014
Version vom 29.08.2014
Inhaltsverzeichnis
”Wenn Leute nicht glauben, dass Mathematik einfach ist, dann nur deshalb,
weil sie nicht begreifen, wie kompliziert das Leben ist.“
(– John von Neumann)
1 Projektionen, Basen, Austauschprinzip 1
1.1 Projektionen und Retraktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Steinitzsches Austauschprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Erzeugter Unterraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Projektive und affine Geometrie 9
2.1 Unterraumverband . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Projektive Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 A�ne Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Rang- und Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Multilinearitat und Determinanten 25
3.1 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Determinanten, Leibniz-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3 Multilineare Fortsetzung und Anwendungen . . . . . . . . . . . . . . . . . . 30
3.4 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5 Elementargeometrie in euklidischen Vektorr�aumen . . . . . . . . . . . . . . . 35
4 Charakteristisches Polynom 41
4.1 Aktionsnetzwerke und Faltungsalgebren . . . . . . . . . . . . . . . . . . . . . 42
4.2 Eigenwerte, Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Caley-Hamilton, Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . 51
iii
1 Projektionen, Basen, Austauschprinzip
SeiM = (M,S,σ) linksseiter Semiring-Modul,"Modul �uber S\.
Laxe Schreibweise MS
∶=M.
1.1 Beispiel
Mod(S,P) = (S(P)add
,S,σ), P Menge, wobei σ(s,λ) ∶= s ⋅ λ ∶ P → S, p↦ s ⋅ λp.(Anwender: 3 ⋅ (7, 3, 5) = (3 ⋅ 7, 3 ⋅ 3, 3 ⋅ 5), P = {p,q, r}, s = 3, λp = 7, λq = 3, λr = 5.)Laxe Schreibweise S
(P)S
∶= Mod(S,P), f�ur P endlich SPS
. F�ur S = R also RPR
reeller
Vektorraum.
Ganz lax S(P) ∶= S(P)
S, f�ur S = R also R(P). F�ur P = [n] sei Sn ∶=Mod(S, [n]), also Rn
n-dimensionaler reeller Vektorraum (n = 2 Ebene, n = 3 Raum). 2
Es ist δP ∶ P → S(P), p↦ δPp Standardbasis"Diracbasis\ von Mod(S,P) = S(P), wobei
δPp ∶ P → S, q↦⎧⎪⎪⎨⎪⎪⎩
1 f�ur q = p,0 sonst.
Universelle Eigenschaft (lineare Abbildungen): Sei M = (M,S,σ) Semiring-Modul und
sei γ ∈MP:
PδP
}}||||||||γ
��????????
S(P) M
Dann existiert genau eine lineare Abbildung fγ ∶ Mod(S,P) → M, gegeben durch λ ↦λ ∗ γ ∶= ∑p∈P λp ⋅ γp, so dass das Diagramm
PδP
}}||||||||γ
��????????
S(P) fγ//
///
M
kommutiert, das hei�t fγ ○ δP = γ. Sinnbild:
PδP
zzuuuuuuuuuuγ
��@@@@@@@@
Mod(S,P)∃!fγ
//
///
M
1
1 Projektionen, Basen, Austauschprinzip
1.1 Projektionen und Retraktionen
Jede Abbildung f ∶ A→ B hat eine Zerlegung f = ι ○ g ○ πA/kerf wie folgt:
x_
��
Af //
πA/ker f
����
///
B y
[x]ker f A/ker f ∼g
// Im f� ?
ι
OO
y_
OO
[x]ker f � // fx
Entsprechendes gilt f�ur Morphismen f ∶ A→ B (zum Beispiel) von Monoiden A und B.
Wichtige Einsicht zu Projektionen Was ist eine Projektion?
"intern\: lineare Projektion, das hei�t lineare AbbildungM ϕ−→M (Endomorphismus)
mit ϕ2 = ϕ (idempotent)
"extern\: Retraktion (Zur�uckziehung), Split-Epi (entscheidender Teil einer Projektion,
"externe Projektion\)
(Raum) Af //
B (Ebene)goo
Zum Beispiel f ∶ R3 → R2, (x,y, z) ↦ (x,y), und g ∶ R2 → R3, (x,y) ↦ (x,y, 0), dannprojiziert f Raum auf Ebene, g bettet Ebene in den Raum ein.
1. f Retraktion zu g, das hei�t f ○ g = idB.
2. g Sektion zu f, das hei�t f ○ g = idB.
3. π ∶= g ○ f idempotente Abbildung ("verallgemeinerte Projektion\), denn
π ○ π = (g ○ f) ○ (g ○ f) = g ○ (f ○ g) ○ f = g ○ f = π.
p
f
fp
g
gfp = πp
1.2 Beispiel
Sei ϕ Morphismus von einem Monoid M = (M,+, 0) in ein Monoid M ′ = (M ′,+ ′, 0 ′), dashei�t M
ϕ−→ M ′, ϕ(x + y) = ϕx + ′ ϕy, ϕ0 = 0 ′.Sei U ⊆ M Transversale von ϕ, das hei�t zu jedem x ∈ M existiert genau ein ux ∈ U
mit ϕx = ϕ(ux), also ist U Vertretersystem von M/kerϕ, und U bildet ein Untermonoid
von M (das hei�t u,w ∈ U⇒ u +w ∈ U und 0 ∈ U).
2
1.1 Projektionen und Retraktionen
Sei ε ∶ M → U, x ↦ ux und ι ∶ U → M, u ↦ u. O�ensichtlich (nach De�nition) gilt
ε ○ ι = idU, das hei�t ε ist Retraktion zu ι. Zugeh�orige Projektion ist π ∶= ι ○ ε ∶M→M.
Mϕ //
ε
@@@@@@@@@@@@@
π∶=ι○ε
��
M ′
M ε// U/ O
ι
``@@@@@@@@@@@@@� ?
ψ∶=ϕ○ι
OO
Behauptung: ε Morphismus, das hei�t ux+y = ux + uy f�ur alle x,y ∈M, und u0 = 0.Begr�undung: Es gilt ϕ(ux+y) = ϕ(x + y) = ϕx + ϕy = ϕ(ux) + ϕ(uy) = ϕ(ux + uy)
(weil U Transversale von ϕ, und ϕ Morphismus). Also ϕ(ux+y) = ϕ(ux + uy), somit
ux+y = ux + uy (weil U Transversale von ϕ). Au�erdem gilt ux = x f�ur alle x ∈ U, da UTransversale von ϕ ist. Insbesondere ist u0 = 0, da 0 ∈ U ist.
Also ist ε ∶M→ U, x↦ ux Morphismus von M nach U ∶= M∣U mit ε ○ ι = idU, das hei�tε ist Retraktion zu ι. Also π ∶= ι ○ ε ist idempotent (verallgemeinerte Projektion), es gilt
sogar ε ○ π = ε, da ε ○ (ι ○ ε) = (ε ○ ι) ○ ε = idU ○ε = ε.
Behauptung: ψ ∶= ϕ ○ ι = ι∣U ist Einbettung, das hei�t injektiv. F�ur x ∈ U ist ψx =ϕ(ιx) = ϕx. Sei x,y ∈ U mit ψx = ψy, also ϕx = ϕy, dann ist x = y, da U Transversale ist.
Also ist ϕ = ψ ○ ε mit ψ Einbettung und ε Retraktion. 2
Warnung: Oft hat ϕ keine Transversale U. Beispiel: ϕ ∶ Z→ Z2, x↦⎧⎪⎪⎨⎪⎪⎩
1 x ungerade,
0 gerade.
Versuche U ∶= 2Z = Kerϕ? Es gibt kein 2-elementiges Untermonoid von Zadd.
Transversalen von linearen Abbildungen Seien M = (M,S,σ) und M ′ = (M ′,S,σ ′)Semiring-Moduln. U ⊆M bilde Untermodul (
"Unterraum\) vonM, das hei�t �0 ∈ U und
aus u,v ∈ U folgt stets u + v ∈ U, und f�ur s ∈ S und u ∈ U ist stets su = σ(s,u) ∈ U (laxe
Notation U ≤M).
Sei au�erdem ϕ lineare Abbildung von M nach M ′, das hei�t ϕ�0 = �0 ′, ϕ(v1 + v2) =ϕv1 +ϕv2 und ϕ(sv) = sϕv f�ur alle v,v1,v2 ∈M, s ∈ S (folglich ist ϕ(λ ∗ γ) = λ ∗ (ϕ ○ γ),das hei�t ϕ(∑p∈P λp ⋅ γp) = ∑p∈P λp ⋅ ϕ(γp), f�ur alle λ ∈ SP und γ ∈ MP f�ur beliebige
endliche Mengen P).
Eine Transversale von ϕ ∶M→M ′ ist ein Untermodul U ≤M derart, dass:
∀x ∈M ∃!ux ∈ U ∶ ϕx = ϕ(ux).
1.3 Beispiel
Sei ϕ Projektion von R3 =Mod(R, [3]), zum Beispiel
R3 → R3, (x1,x2,x3)→ (x1,x2, 0),
U = Imϕ = R2 × {0} = {λ ∈ R[3] ∣ suppλ ⊆ [2]}. Zu x = (x1,x2,x3) ist ux = (x1,x2, 0) = ϕx,ϕx = ϕ(ϕx) = ϕ(ux) (R3 ≡ R[3], (x1,x2,x3) = x1δP1 + x2δP2 + x3δP3 f�ur P = [3] = {1, 2, 3}).Beachte R2 ≠ U = R2 × {0}. 2
3
1 Projektionen, Basen, Austauschprinzip
Allgemein gilt: IstM ϕ−→M (alsoM =M ′) Projektion, das hei�t ϕ linear und idem-
potent, so ist U ∶= Imϕ = ϕM Transversale von ϕ.
Begr�undung: Sei x ∈M, setze ux ∶= ϕx. Dann ist ϕx = ϕ(ϕx) = ϕ(ux). Sei u ∈ U mit
ϕx = ϕu. Dann existiert y ∈ M mit u = ϕy (da u ∈ U = Imϕ), also ux = ϕx = ϕu =ϕ(ϕy) = ϕy = u. Also ist ux eindeutig.
Weiter ist ε ∶ M → U, x ↦ ux lineare Abbildung (�Ubung!). Es ist sogar ε Retraktion
von ι ∶ U→M, x ↦ x, da ε ○ ι = idU.Dann ist π ∶= ι ○ ε ∶ M → M, x ↦ (ι ○ ε)x = ι(εx) = ι(ux) = ux (triviale Fortsetzung
von ε im Wertebereich) Projektion, und ψ ∶= ϕ ○ ι = ϕ∣U (Einschr�ankung von ϕ auf
U) ist injektiv, das hei�t U ψ−→ M ist Einbettung von U (der von U in M induzierte
Semiring-Modul) inM.
1.4 Theorem
Seien M = (M,S,σ) und M ′ = (M ′,S,σ ′) Semiring-Moduln und M ϕ−→ M ′ lineare
Abbildung mit Transversale U; bezeichne U den induzierten Untermodul zu U inM,
also U ∶= M∣U. Dann gibt es eine Retraktion ε von ι ∶ U →M, x ↦ x (Inklusionsab-
bildung von U in M) mit
M ϕ //
ε
!!CCCCCCCCCCCCCC M ′
M
ι○ε=∶π
OO
ε//
///
///
U
ψ∶=ϕ○ι
OO
ι
aaCCCCCCCCCCCCCC
Insbesondere ist ϕ = ψ ○ ε Verkettung einer Retraktion mit einer Einbettung. 2
Warnung:M = (Zadd,Z,σ) undM ′ = ((Zadd)12,Z,σ ′) und
ϕ ∶ Z→ Z12, x↦ x12 ∶= x mod 12
(Rest von x geteilt durch 12). Dann gibt es keine Transversale von ϕ!
Denn ist U ≤ Zadd, dann existiert n ∈ N mit U = n ⋅ Z, somit ist U unendlich (n ≠ 0)
oder einelementig (n = 0), das hei�t U = {0}, ϕZ ist aber 12-elementig. Es m�usste ϕ∣Uinjektiv sein, Widerspruch.
Ausblick: Ist S Divisionsring (zum Beispiel K�orper), so hat jede lineare Abbildung
M ϕ−→ M ′ eine Transversale (also ϕ = ψ ○ ε mit ψ Einbettung, ε Retraktion). (Und:
Steinitzsche Austauscheigenschaft.)
1.2 Steinitzsches Austauschprinzip
Sei S Divisionsring, M = (M,S,σ) =∶ MS
Semiring-Modul. M hei�t auch (linksseitiger)
Vektorraum �uber S. Ein kommutativer Divisionsring hei�t K�orper. Meist werden Vek-
torr�aume �uber K�orpern betrachtet.
Q,R,C,Zp (p prim) sind Beispiele f�ur K�orper. H Hamiltonsche Quaternionen ist Beispiel
eines Divisionsringes ("Schiefk�orper\), der kein K�orper ist.
CR
≃ R2R
, HR
≃ R4R
.
4
1.2 Steinitzsches Austauschprinzip
Steinitzsche Austauscheigenschaft Sei M Vektorraum, M = MS
, M = (M,+, �0) kom-
mutative Gruppe von"abstrakten\ Vektoren, S = (S,+, ⋅, 0, 1) Divisionsring (zum Beispiel
K�orper). Bilde U ⊆M Unterraum vonM, das hei�t �0 ∈ U und ∀u,w ∈ U ∶ u +w ∈ U und
∀s ∈ S ∀u ∈ U ∶ su = σ(s,u) ∈ U.
�0 ∈!U
u ∈ Uw ∈ U
u +w ∈!U
�0
u ∈ U
su ∈!U
Dann folgt Su + Sw ∶= {su + tw ∣ s, t ∈ S} ⊆ U f�ur alle u,w ∈ U.
�0u ∈ U
w ∈ U
su + tw ∈!U
Su + Sw ⊆!U
1.5 Beispiel
SeiM = R3 und seien u,w ∈ R3∖{�0} mit Ru ≠ Rw, sowie U ∶= Ru+Rw. F�ur jedes v ∈ R3∖Ugilt dann
U + Rv = R3,
also ∀λ ∈ R3 ∃u ∈ U, r ∈ R ∶ u + rv = λ.Das hei�t, ist (u,w) unabh�angig in R3 und ist v ∈ R3 ∖U, dann ist (u,v,w) Basis. 2
Steinitz verallgemeinert das Austauschprinzip des R3:
1.6 Theorem
SeiM Vektorraum �uber Divisionsring S. Bilde U ⊆M Unterraum vonM, und seien
p,q ∈M mit q ∈ U + Sp und q /∈ U. Dann ist p ∈ U + Sq, das hei�t U + Sp = U + Sq. 2
Beweis
Sei q ∈ U + Sp. Dann existieren u ∈ U und s ∈ S mit q = u + sp. W�are s = 0, so folgte
q = u ∈ U, Widerspruch (denn q /∈ U). Also ist s ≠ 0, und folglich p = −s−1u+s−1q ∈ U+Sq.Also q ∈ U + Sp und q /∈ U impliziert p ∈ U + Sq, daraus folgt U + Sp = U + Sq. ∎
Anwendung:
1. Jedes minimale endliche"Erzeugendensystem\ (das hei�t γ ∶ P →M erzeugtM, das
hei�t fγ ist surjektiv; minimal: γ∣P0 erzeugt nicht, falls P0 ⫋ P; P endlich) ist bereits
Basis vonM.
2. Ist M endlich erzeugt (das hei�t, es gibt γ ∶ P → M mit P endlich und γ erzeugt
M), so l�asst sich jede unabh�angige Familie vonM zu einer Basis erg�anzen.
5
1 Projektionen, Basen, Austauschprinzip
Etwas formaler: Seien P,Q endliche Mengen und sei γ ∶ P → M erzeugend
bez�uglichM,"Erzeugendensystem\ vonM (zum BeispielM =Mod(S,P), γ ∶= δP).
Ist η ∶Q→M unabh�angig inM (das hei�t fη injektiv, also Ker fη = {�0}), so existiert�Q ⊇Q mit #�Q ≤#P, und �η ∶ �Q→M mit �η∣Q = η, so dass �η Basis vonM ist.
1.3 Erzeugter Unterraum
Der Nullraum Kleine Quizfrage: SeiM = (M,S,σ) Semiring-Modul.
∅δ∅
yyttttttttttγ ?
@@@@@@@@
Mod(S,∅)?fγ ?
//M
Fall P = ∅, γ ∶ ∅→M, δ∅ ∶ ∅→ S∅ = {∅→ S}. Macht das hier Sinn?
Es ist Mod(S,∅) = (S∅add
,S,σ), S∅add
= (S∅,+, �0), mit S∅ = {∅→ S} = {�0} (setze �0 ∶=(∅→ S)) der Nullraum zu S.
Zu λ ∈ S∅ ist fγλ = λ ∗ γ = ∑p∈∅ λp ⋅ γp = ∑(∅ →M) = 0M, wobei M = (M,+, 0M). Alsoist S∅ = {�0}
fγ−→M, �0↦ 0M die Nullabbildung. Macht also auch Sinn f�ur P = ∅.Es ist fγ injektiv, also γ = (∅→M) unabh�angig inM { die leere Familie ist unabh�angig.
Erzeugter Unterraum, Mengensicht Sei M = (M,S,σ) Semiring-Modul mit M =(M,+, �0) kommutatives Monoid und S = (S,+, ⋅, 0, 1) Semiring. F�ur γ ∶ P →M sei
spanM γ ∶= ⟨γ⟩M ∶= Im fγ = {λ ∗ γ = ∑p∈P
λp ⋅ γp ∣ λ ∈ S(P)} = S(P) ∗ γ = ∑p∈P
Sγp,
also spanM γ = ∑p∈P Sγp ist der von γ inM erzeugte Unterraum vonM.
F�ur v ∈M ist Sv ∶= {sv ∣ s ∈ S} die von v erzeugte Gerade durch �0 inM.
reLAXed: spanγ ∶= spanM γ, ⟨γ⟩ ∶= ⟨γ⟩M.
1.7 Beispiel
SeiM = R3, P = [2] und γ ∶ P → R3, γ = (γ1,γ2), γ1 = (1, 1, 0), γ2 = (2, 0, 1). Dann ist
spanR3 γ = ∑i∈[2]
Rγi = Rγ1 + Rγ2
= {rγ1 + sγ2 ∣ r, s ∈ R}= {(r, r, 0) + (2s, 0, s) ∣ r, s ∈ R}= {(r + 2s, r, s) ∣ r, s ∈ R}
die von γ = ((1, 1, 0), (2, 0, 1)) erzeugte Ebene durch (0, 0, 0) im R3. 2
"Mengensicht\: F�ur X ∈ 2M (das hei�t X ⊆M) sei id(X,M) ∶ X→M, x↦ x und
spanMX ∶= ⟨X⟩M ∶= spanM id(X,M) = ∑x∈X
Sx,
6
1.3 Erzeugter Unterraum
das hei�t X ⊆ M wird als id(X,M) interpretiert (�ubliche Schreibweisen ⊆MX ∶= ιMX ∶=id(X,M)).Also gilt: spanM γ = spanM γP f�ur jedes γ ∈MP.
Beispiel: P = [3], 1↦ γ1, 2↦ γ2, 3↦ γ3, dann γ = (γ1,γ2,γ3)↦ γP = {γ1,γ2,γ3}.
In der Mengensicht ("ungeordnet\,
"ohne Bezug\,
"Reihenfolge vergessen\) de�nie-
ren wir nun unabh�angige Teilmengen, erzeugende Teilmengen und Basis als Menge in
Semiring-Moduln: �Ubergang von γ ∈MP nach Imγ = γP.SeiM = (M,S,σ) Semiring-Modul. Ist X ⊆M, dann l�asst sich Xmit sich selbst indizieren,
das hei�t X ersetzen durch id(X,M) = ⊆MX = ιMX ∶ X→M, x↦ x.
1.8 Definition
SeiM = (M,S,σ) Semiring-Modul und X ⊆M.
� X hei�t unabh�angig inM, falls id(X,M) unabh�angig inM ist, das hei�t ∑x∈X λx⋅x =∑x∈X νx ⋅x impliziert λ = ν (das hei�t λx = νx f�ur alle x ∈ X) f�ur beliebige λ,ν ∈ S(X).
� X erzeugt M, falls id(X,M) den Modul M erzeugt, das hei�t zu jedem v ∈ Mexistiert ein λ ∈ S(X) mit v = ∑x∈X λx ⋅ x.
� X ist Basis vonM, falls X unabh�angig und erzeugend bez�uglichM ist. 2
Hullenoperatoren
1.9 Proposition
Es ist spanM ∶ 2M → 2M ein H�ullenoperator auf 2M ∶= (2M,⊆) (Potenzmengenverband),
das hei�t
1. ∀X ∈ 2M ∶ X ⊆ spanMX (da v ∈ ∑x∈X Sx f�ur jedes v ∈ X), und
2. ∀X,Y ∈ 2M ∶ X ⊆ spanM Y ⇒ spanMX ⊆ spanM Y (�Ubung). 2
1.10 Definition
Allgemein hei�t f�ur eine geordnete Menge P = (P,≤P) eine Abbildung h ∶ P → P
H�ullenoperator auf P, falls gilt:
1. ∀x ∈ P ∶ x ≤P hx,2. ∀x,y ∈ P ∶ x ≤P hy ⇒ hx ≤P hy.
Es hei�t hx die H�ulle von x bez�uglich h. 2
Anmerkung: Eine Abbildung h ∶ P → P ist H�ullenoperator auf P genau dann, wenn
1. h expansiv, das hei�t x ≤P hx f�ur alle x ∈ P,
2. h isoton bzw. monoton, das hei�t x ≤P y ⇒ hx ≤P hy f�ur alle x,y ∈ P, und
3. h idempotent, das hei�t h(hx) = hx f�ur alle x ∈ P, ist.
Es ist h ∶ P → P H�ullenoperator genau dann, wenn ∀x,y ∈ P ∶ x ≤P hy ⇔ hx ≤P hy.
7
1 Projektionen, Basen, Austauschprinzip
1.11 Definition (Matroid-Operatoren)
Sei M Menge und sei span H�ullenoperator auf 2M. span hei�t algebraisch, falls spanX =⋃{span T ∣ T endliche Teilmenge von X} f�ur alle X ∈ 2M.
span hat die Steinitzsche Austauscheigenschaft, falls gilt:
∀p,q ∈M ∀X ∈ 2M ∶ p ∈ span(X ∪ {q}) ⇒ p ∈ spanX ∨ q ∈ span(X ∪ {p}).
Ist span algebraisch mit Austauscheigenschaft, so hei�t span Matroid-Operator.
span hei�t endlich erzeugend, falls eine endliche Teilmenge T von M mit span T =Mexistiert. 2
Gegenbeispiel: Konvexe H�ulle hat nicht Austauscheigenschaft.
1.12 Satz
Ist span endlich erzeugender Matroid-Operator, so hatM bez�uglich span eine endliche
Basis. Je zwei Basen sind gleichm�achtig; diese M�achtigkeit sei die Dimension von M
bez�uglich span. 2
Was ist hier eine Basis? Basis ist erzeugende unabh�angige Teilmenge von M:
1. X ∈ 2M hei�t unabh�angig in (M, span), falls ∀x ∈ X ∶ x /∈ span(X ∖ {x}) gilt.
2. X ∈ 2M hei�t erzeugend bez�uglich (M, span), falls spanX =M.
3. X Basis bez�uglich (M, span) falls X unabh�angig und erzeugend ist.
1.13 Satz
Ist (M, span) endlich erzeugtes Matroid (das hei�t span ist endlich erzeugender
Matroid-Operator auf 2M). Dann ist jede unabh�angige Menge in einer Basis enthal-
ten (bez�uglich (M, span))"Basis-Fortsetzung\.
Jede bez�uglich (M, span) minimale, erzeugende Menge ist bereits Basis bez�uglich
(M, span). 2
8
2 Projektive und affine Geometrie
2.1 Unterraumverband
SeiM = (M,S,σ) Modul �uber Semiring, M = (M,+, �0), U ⊆M Unterraum, falls �0 ∈ U und
∀x,y ∈ U ∶ x + y ∈ U und ∀s ∈ S ∀x ∈ U ∶ sx = σ(s,x) ∈ U. Betrachte
LM ∶= {U ⊆M ∣ U bildet Unterraum vonM} ,
dann ist LM ∶= (LM,⊆) der Unterraumverband vonM.
Vollstandige Verbande Was ist ein Verband (\lattice")?
x ∨ y kleinste obere Schranke von {x,y}
x
zzzzzz
DDDDDD y
EEEEEE
yyyyyy
x ∧ y gr�o�te untere Schranke von {x,y}
2.1 Definition
P = (P,≤P) hei�t verbandsgeordnete Menge (kurz Verband), falls P = (P,≤P) geordnete
Menge ist, f�ur die gilt: Zu x,y ∈ P existiert stets das Supremum von {x,y} (kleinste obereSchranke von {x,y}), und das In�mum von {x,y} (gr�o�te untere Schranke von {x,y})in P; Bezeichnung x ∨ y ∶= sup{x,y}, x ∧ y ∶= inf {x,y}. 2
Formal: Es existieren zwei 2-stellige Operationen auf P, bezeichnet mit ∨ ∶ P × P → P,
(p,q)↦ p ∨ q und ∧ ∶ P × P, (p,q)↦ p ∧ q derart, dass gilt:
1. ∀p,q ∈ P ∶ p ≤P p ∨ q, q ≤P p ∨ q und ∀t ∈ P ∶ p ≤P t, q ≤P t ⇒ p ∨ q ≤P t,
2. ∀p,q ∈ P ∶ p ∧ q ≤P p, p ∧ q ≤P q und ∀t ∈ P ∶ t ≤P p, t ≤P q ⇒ t ≤P p ∧ q.
Notation: supP {p,q} ∶= p ∨ q Supremum von {p,q} und infP {p,q} ∶= p ∧ q In�mum von
{p,q} in P.
"Supremum-Bild\:
p ∨ q
p
??�������q
__???????und
t
p ∨ q
OO���
p
AA
<<yyyyyyyyq
^^
bbEEEEEEEE
9
2 Projektive und a�ne Geometrie
"In�mum-Bild\:
p q
p ∧ q
__???????
??�������und
p q
p ∧ q
bbEEEEEEEE
<<yyyyyyyy
t
OO���
UU II
Gegenbeispiel: Geordnete Menge, die kein Verband ist:
x y
x ∨ y ? x ∨ y ?
Geometrisch, in LR3:
U ∩W = U ∧W = infLR3
{U,W} = inf {U,W}
U +W = U ∨W = supLR3
{U,W} = sup{U,W}
U
W�0
U ∩W
U +W
Allgemein ist LM f�urM Semiring-Modul ein Verband!
Hierbei ist U ∨W = supLM {U,W} = U +W (wobei U +W ∶= {u +w ∣ u ∈ U ∧w ∈W})und U ∧W = infLM {U,W} = U ∩W f�ur U,W ∈ LM.
Versch�arfung: P = (P,≤P) hei�t vollst�andiger Verband, falls zu jeder Teilmenge X von P
in P eine kleinste obere Schranke, genannt das Supremum von X in P, und eine gr�o�te un-
tere Schranke, genannt das In�mum von X in P, existiert. Das hei�t, es gibt Abbildungen
⋁ ∶ 2P → P"Join\ (Operator) und ⋀ ∶ 2P → P
"Meet\ (Operator) mit:
1. ∀X ∈ 2P ∶ ∀x ∈ X ∶ x ≤P ⋁X und ∀t ∈ P ∶ (∀x ∈ X ∶ x ≤P t) ⇒ ⋁X ≤P t.
2. ∀X ∈ 2P ∶ ∀x ∈ X ∶ ⋀X ≤P x und ∀t ∈ P ∶ (∀x ∈ X ∶ t ≤P x) ⇒ t ≤P ⋀X.
Notation: supPX ∶= ⋁X, infPX ∶= ⋀X. Schreibweisen: x1∨x2 ∶= supL {x1,x2}, x1∨⋯∨xn ∶=supL {x1, . . . ,xn}, x1 ∧ x2 ∶= infL {x1,x2}, x1 ∧⋯ ∧ xn ∶= infL {x1, . . . ,xn}.
10
2.2 Projektive Geometrie
Unterraumverband SeiM = (M,S,σ) Modul �uber Semiring, LMMenge aller U ⊆M, die
Unterraum vonM bilden. Dann ist LM ∶= (LM,⊆) vollst�andiger Verband mit supLMX =⋁X = ∑X und infLMX = ⋀X = ⋂X f�ur alle X ∈ 2LM (das hei�t X ⊆ LM).
F�ur A ∈ (LM)I sei ∑A ∶= {∑α ∣ α ∈M(I),∀i ∈ I ∶ αi ∈ Ai} und f�ur X ∈ 2LM sei ∑X ∶=∑ id(X ,LM). F�ur X ⊆ LM ist also
supLMX =∑X =∑ id(X ,LM) = ∑
X∈XX = { ∑
X∈XvX ∣ ∀X ∈ X ∶ vx ∈ X}
(Notation ist okay, aber nicht sch�on).
Bessere Notation: Sei L vollst�andiger Verband, f�ur α ∶ I→ L sei supLα ∶= supLαI.F�ur L = LM ist dann
supLM
A =∑i∈IAi = {∑α ∣ α ∈M(I),∀i ∈ I ∶ αi ∈ Ai} = {∑
i∈Iαi ∣ α ∈M(I),∀i ∈ I ∶ αi ∈ Ai}
("Index-Notation\ ist hier sch�oner).
2.2 Projektive Geometrie
"Geometrie mit Verb�anden\ geht zur�uck insbesondere auf Karl Menger, aber auch Rein-
hold Baer, John von Neumann.
M Semiring-Modul, LM = (LM,⊆) Unterraumverband.IstM Vektorraum, so hei�t LM die zuM geh�orige projektive Geometrie.
Projektive Punkte 1-dimensionale Unterr�aume,
Projektive Geraden 2-dimensionale Unterr�aume,
Projektive Ebenen 3-dimensionale Unterr�aume,
Projektive k-dim. Unterraume (k + 1)-dimensionale Unterr�aume (das hei�t, es gibt eine
(k + 1)-elementige Basis).
"Strahlenmodell\:
0
Sv
vw
Sv + Sw
11
2 Projektive und a�ne Geometrie
Projektive Ebene Die projektive Ebene (als Verband) �uber R ist gerade LR3 (wobei
R3 =Mod(R, [3])),"Albrecht D�urer\.
�0R(1, 0, 0)
E
E"Anschauungsebene\, R(1, 0, 0) = Rδ31 tri�t nicht E, ist Fernpunkt (δni ∶= δ
[n]i ).
x1
x2 x ′1x ′2
Fernpunkt
Horizontlinie
a�ne Sicht projektive Sicht
A�ne Sicht und projektive Sicht in ein Paket: (LR3,E0 = R2 × {0}), wobei E0 "Horizontli-nie\, Ferngerade und E ∶= E1 = R2 × {1}.
Rδ33
E = E1 = R2 × {1}
E0 = R2 × {0}
Projektive Erweiterung des Rn (als"a�ner Raum\) ist (LRn+1,Rn×{0}), wobei Rn×{0}
Fernhyperebene (n = 2 Ferngerade, n = 3 Fernebene"Firmament\).
Seien U1,U2 projektive Geraden (/⊆ E0) und seien ~U1 ∶= U1 ∩ E, ~U2 ∶= U2 ∩ E "a�ne
Geraden\. Dann gilt:
~U1 ∥ ~U2 (parallel) ⇔ U1 ∩U2 ⊆ E0 oder U1 = U2
A�(M ∣ E) a�ne Geometrie induziert durchM betrachtet auf E.
E = E1
E0
~U1
~U2
U1 U2
U1 ∩U2
Sei U0 = U1 ∩U2 und u1 ∈ ~U1, u2 ∈ ~U2, dann ~U1 = u1 +U0, ~U2 = u2 +U0 (algebraischer
Begri� von Parallelit�at).
12
2.2 Projektive Geometrie
Verbandstheoretische Charakterisierung F�ur projektive Geometrie wichtiges Gesetz:
Ein vollst�andiger Verband L = (L,≤) hei�t modular, falls
∀x, z,u ∈ L ∶ x ≤ u ⇒ (x ∨ z) ∧ u = x ∨ (z ∧ u).
2.2 Proposition
Ist M = (M,S,σ) Ringmodul (also S ist Ring), so ist LM modular, das hei�t f�ur alle
X,Z,U ∈ LM mit X ⊆ U gilt (X +Z) ∩U = X + (Z ∩U). 2
Beweis
"⊆\: Sei u ∈ (X+Z)∩U, also gibt es x ∈ X und z ∈ Z mit u = x+ z. Dann ist z = −x+u ∈ U,denn x ∈ X ⊆ U und u ∈ U; also z ∈ Z ∩U. Somit ist u = x + z ∈ X + (Z ∩U).
"⊇\: Es ist X ⊆ X +Z und X ⊆ U, sowie Z ∩U ⊆ X +Z und Z ∩U ⊆ U. ∎
Sei L = (L,≤) ein vollst�andiger Verband. Wir bezeichnen mit 0L ∶= supL∅ = infL L das
kleinste Element in L und mit 1L ∶= infL∅ = supL L das gr�o�te Element in L. Es sei
⋖ ∶= {(x,y) ∈ L × L ∣ x ≤ y und /∃ t ∈ L ∶ x < t < y}
die Nachbarschaftsrelation, dann ist N (L,⋖) Hasse-Diagramm (Hasse-Netzwerk) zu L.
Ein vollst�andiger Verband L hei�t atomistisch, falls jedes x ∈ L Supremum seiner Atome
ist, das hei�t x = supA(x), wobei A(x) ∶= {a ∈ A ∣ a ≤ x} und A ∶= {a ∈ L ∣ 0L ⋖ a} die
Menge der Atome in L sei.
2.3 Satz
Sei L = (L,≤) vollst�andiger Verband derart, dass eine endliche Teilmenge P von
Atomen mit supL P = 1L existiert ("1L endlich erzeugt von Atomen\), und es gebe
vier unabh�angige Atome: a2 ≠ a1, a3 /≤ a1 ∨ a2, a4 /≤ a1 ∨ a2 ∨ a3.
a1
a2
a3a4
Dann sind �aquivalent:
1. L modular, atomistisch mit #A(x) ≥ 3 f�ur jedes x ∈ L ∖ (A ∪ {0L}), und
2. es gibt einen Divisionsring S und ein n ∈ N mit n ≥ 4 derart, dass L ≃ LM f�ur
M =Mod(S, [n]) (≃ isomorph).
"ohne Beweis\ 2
Verbandsgeometrie Projektive Geometrie wird als Verband axiomatisch de�niert als
vollst�andiger Verband, atomistisch,"Atome sind kompakt\, modular und folgende
"Reich-
haltigkeit\:"Auf jeder Geraden liegen mindestens drei Punkte.\
Begri�skl�arung: Sei L = (L,≤) vollst�andiger Verband, das hei�t f�ur alle X ∈ 2L existiert
supLX und infLX. Interpretiere x ≤ y als"x ist enthalten in y\ bzw.
"x liegt auf/in y\.
13
2 Projektive und a�ne Geometrie
y
x
Sei AL = A(L) Menge der Atome von L, das sind die minimalen Element aus L ∖ {0L}bez�uglich ≤. Atome nennen wir auch Punkte. Die Menge {a ∨ b ∣ a,b ∈ AL mit a ≠ b} ist
die Menge der Geraden in L.
ab
Gerade
Es ist k ∈ L kompakt in L, falls f�ur alle X ∈ 2L gilt:
k ≤ supX ⇒ ∃X0 ⊆ X endlich ∶ k ≤ supX0.
L atomistisch hei�t x = supLAL(x) f�ur alle x ∈ L, wobei AL(x) ∶= {a ∈ AL ∣ a ≤ x}. Dashei�t, jeder
"Raum\ in L (Element von L) ist Verbindung (Supremum) seiner Punkte;
AL(x) Menge der Punkte auf x in L.
Ist l Gerade in L, dann #AL(l) ≥ 3, Reichhaltigkeit.
la1
a2a3
0L
a1 a2 a3
l
1L
geometrisches Diagramm,"horizontal\ Ordnungsdiagramm,
"vertikal\
Ein Element h ∈ L hei�t Hyperebene, falls h Coatom in L ist, das hei�t h ist maximales
Element in L ∖ {1L} bez�uglich ≤.
0L
1L
Punkte, Atome
Hyperebenen, Coatome
2.4 Beispiel
L = LM wobei M Vektorraum (�uber Divisionsring) ist projektive Geometrie, genauer
"projektive Verbandsgeometrie\. 2
Sind P = (P,≤) und L = (L,≤) geordnete Mengen, so hei�t eine Abbildung ϕ ∶ P → L
Ordungsisomorphismus von P nach L, falls ϕ Bijektion ist mit
t ≤ x ⇔ ϕt ≤ ϕx f�ur alle t,x ∈ P.
Existiert ein Ordnungsisomorphismus von P nach L, so schreiben wir P ≃ L.
14
2.2 Projektive Geometrie
3
1
6
2
12
4 ≃
2
1
6
3
18
9
2i3jϕ−→ 2j3i Ordnungsisomorphismus
2.5 Satz (Darstellungssatz)
Sei L = (L,≤) geordnete Menge. Dann sind �aquivalent:
1. L ist projektive Geometrie, die zwei windschiefe Geraden enth�alt (das hei�t, es
gibt l1, l2 Geraden mit l1 ∧ l2 = 0L).
2. Es gibt M Vektorraum �uber Divisionsring mit ≥ 4 unabh�angigen Vektoren, so
dass L ≃ LM gilt. 2
Anmerkung: Algebra zu Geometrie: einfach. Projektive Geometrie zu linearer Algebra:
schwierig.
2.6 Beispiel
Ist S Divisionsring und n ∈ N ∪ {−1}, so hei�t L(Sn+1) die n-dimensionale projektive
Geometrie �uber S.
n = −1: LS0 = ({∅→ S} ,=) = ({�0},⊆), die leere projektive Geometrie (Nullgeometrie)
�uber S, ist −1-dimensional.
n = 0: LS = ({{0S} ,S} ,⊆), die 1-punktige projektive Geometrie �uber S, ist 0-dimensional.
n = 1: LS2 = ({{�0}}∪{Sv ∣ v ∈ S2∖{�0}}∪{S2} ,⊆) (Nullraum, projektive Punkte, projektive
Gerade), die Geometrie der projektiven Geraden �uber S.
S × {0}Fernpunkt
S × {1}Sv
v
n = 2: LS3 = ({{�0}} ∪ {Sv ∣ v ∈ S3 ∖ {�0}} ∪ {Sv1 + Sv2 ∣ v1,v2 ∈ S3 unabh�angig} ∪ {S3} ,⊆)(Nullraum, projektive Punkte, projektive Geraden, projektive Ebene), die Geometrie
der projektiven Ebene �uber S.
S2 × {0}
S2 × {1}
0
Sv
vw
Sv + Sw
15
2 Projektive und a�ne Geometrie
n = 3: LS4 = (LS4,⊆), die projektive Geometrie des 3-dimensionalen projektiven
Raumes �uber S, wobei LS4 Menge aller Unterr�aume von S4 = Mod(S, [4])ist: {�0} Nullraum, {Sv ∣ v ∈ S4 ∖ {�0}} Menge der projektiven Punkte,
{Sv1 + Sv2 ∣ (v1,v2) unabh�angig in S4} Menge der projektiven Geraden in LS4,
{Sv1 + Sv2 + Sv3 ∣ (v1,v2,v3) unabh�angig in S4} Menge der projektiven Ebenen
in LS4, S4 3-dimensionaler projektiver Raum in LS4.
0L = {�0}
Punkte
Geraden
Ebenen
1L = S4
Ordnunsdiagramm zu LS4 (hierarchisch) 2
2.7 Beispiel
L = LZ32 Geometrie der projektiven Ebene �uber Z2 = F2, "kleinste projektive Ebene\.
Abk�urzung: ⟨x1 x2 x3⟩ ∶= S(x1,x2,x3), projektiver Punkt zu (x1,x2,x3).
⟨100⟩ ⟨110⟩ ⟨010⟩
⟨101⟩ ⟨011⟩
⟨001⟩
⟨111⟩
Horizontales"Punkt-Geraden-Modell\
⟨100⟩ + ⟨010⟩ = {⟨100 + 010⟩ = ⟨110⟩ , ⟨100⟩ , ⟨010⟩}, projektive Gerade durch ⟨100⟩ und
⟨010⟩ enth�alt ⟨110⟩. 2
Es bilde {⟨100⟩ , ⟨110⟩ , ⟨010⟩} die Ferngerade. Entferne Ferngerade und streiche dritte
Komponenten, dann erhalte a�nen Teil:
⟨101⟩ ⟨011⟩
⟨001⟩
⟨111⟩
10 01
00
11
∼−→ ∼−→00 10
01 11
16
2.3 A�ne Geometrie
2.3 Affine Geometrie
Sei M = (M,S,σ), M = (M,+, �0), S = (S,+, ⋅, 0, 1) ein Ringmodul, das hei�t S ist Ring,
und sei LM = (LM,⊆) der Unterraumverband von M. Die a�ne Geometrie zu M ist
de�niert als A�M ∶= (A�M, ⊆ ,∥) mit
A�M ∶= {u +W ∣ u ∈M ∧ W ∈ LM} ∪ {∅} ,
und ∥ ∶= {(u +W,v +W) ∣ u,v ∈M ∧ W ∈ LM} ∪ {(∅,∅)} (Parallelismus von A�M).
O�ensichtlich ist ∥ eine �Aquivalenzrelation auf A�M.
Au�erdem bildet A�M ein H�ullensystem in 2M, das hei�t ist A ∈ (A�M)I f�ur einebeliebige Indexmenge I, so ist auch ⋂A ∈ A�M (wobei ⋂A = ⋂i∈IAi, zum Beispiel f�ur
I = [2] hei�t das A1,A2 ∈ A�M ⇒ A1 ∩A2 ∈ A�M).
Also ist (A�M,⊆) ein vollst�andiger Verband mit inf(A�M,⊆)A = ⋂A f�ur jedes A ∈2A�M. Frage: Was ist sup(A�M,⊆)A? Insbesondere A1 ∨A2 = ?.
2.8 Beispiel
Sei A1 ∶= (1, 0) +R(0, 1) ∈ A� R2 ∖ LR2 und A2 ∶= R(0, 1) ∈ A� R2 ∩ LR2, dann A1 ∥ A2, das
hei�t A1 parallel zu A2.
A2
A1
�02
2.9 Proposition (Euklidisches Parallelenpostulat)
IstM Ringmodul, so gilt f�ur alle p ∈M und X ∈ A�M:
∃!Y ∈ A�M ∶ p ∈ Y und Y ∥ X (kurz: p ∈ Y ∥ X).
�0
p
X
∃!Y ∶ p ∈ Y ∥ X
Es hei�t Y die Parallele zu X durch p und wird mit π(p ∣ X) bezeichnet. 2
Beweis
Zu X existiert u ∈M und W ∈ LM mit X = u +W. Setze Y ∶= p +W. ∎
"Teilparallelit�at\: Zu X,Y ∈ A�(M) de�niere
X ⊆∥ Y ⇔ ∃Z ∶ X ⊆ Z ∧ Z ∥ Y,
X ist teilparallel zu Y.
17
2 Projektive und a�ne Geometrie
2.10 Beispiel
SeiM = R3 und X = δ33 + Rδ32, Y ∶= 2δ33 + Rδ31 + Rδ32, dann X ⊆∥ Y.
X
Y
δ31
δ32
δ33
2
Es ist ⊆∥ re exiv und transitiv (im Allgemeinen nicht antisymmetrisch) auf A�M, das
hei�t Pr�aordnung auf A�M. Die zugeh�orige �Aquivalenzrelation ⊆∥ ∩ ∥⊇ (wo ∥⊇ ∶= (⊆∥)d)ist gerade der Parallelismus von A�M.
Bestimmung von ⊆∥:
⊆∥ = {(p +U,q +W) ∣ p,q ∈M und U,W ∈ LM mit U ⊆W} ∪ {∅} ×A�M.
Begr�undung: F�ur X ∈ A�M und p ∈ X ist stets X = p+π(�0 ∣ X). Denn sei p ∈ X = u+W,
also gibt es w ∈W mit p = u+w, somit p+W = u+w+W = u+W = X. Damit ist X = p+W,
und wegen X ∥W, 0 ∈W ist W = π(�0 ∣ X).Also gilt (f�ur X,Y ∈ A�M mit X ≠ ∅ und Y ≠ ∅):
X ⊆∥ Y ⇔ π(z ∣ X) ⊆ π(z ∣ Y) f�ur ein z ∈M⇔ π(�0 ∣ X) ⊆ π(�0 ∣ Y) (da z + π(�0 ∣ X) = π(z ∣ X))
Sei α ∶ I→ A�M, αi = Xi. Was ist supA�Mα in A�M ∶= (A�M,⊆)? Insbesondere f�urX1,X2 ∈ A�M berechne X1 ∨X2 bzw. supA�M {X1,X2}.Angenommen (ohne Einschr�ankung) Xi ≠ ∅ f�ur alle i ∈ I. Behauptung:
supA�M
α = supi∈IXi = p +∑
i∈IS(−p + pi) +∑
i∈Iπ(�0 ∣ Xi),
wobei Xi ∶= αi und ∀i ∈ I ∶ pi ∈ Xi, sowie p ∈ ⋃α = ⋃i∈IXi.
X1
X2
p = p1
p2
−p + p2
π(�0 ∣ X1)
π(�0 ∣ X2)
�0
π(�0 ∣ X1) +π(�0 ∣ X2)
W ∶= S(−p + p2) + π(�0 ∣ X1) + π(�0 ∣ X2), verschiebe W um p = p1, also X1 ∨X2 = p +W.
18
2.3 A�ne Geometrie
Zum Beweis: Zu zeigen supA�Mα = p+W mit W ∶= U+W ′, wobei U ∶= ∑i∈I S(−p + pi)und W ′ ∶= ∑i∈IWi mit Wi ∶= π(�0 ∣ Xi). Hierbei seien pi ∈ Xi und Xi ∶= αi f�ur alle i ∈ I.Sei T ∈ LM mit supA�Mα ⊆ p + T (das hei�t Xi ⊆ p + T f�ur alle i ∈ I). Da pi ∈ p + T ist,
gilt −p + pi ∈ T , also S(−p + pi) ⊆ T f�ur alle i ∈ I. Damit ist U = ∑i∈I S(−p + pi) ⊆ T .Weiter ist Xi ⊆ p + T = pi + T f�ur alle i ∈ I, also ist Wi = π(�0 ∣ Xi) = −pi + Xi ⊆ T ;
somit W ′ = ∑i∈IWi ⊆ T . Also ist W = U +W ′ ⊆ T , also p +W ⊆ p + T . Damit folgt die
Behauptung.
2.11 Beispiel
F�ur p,q ∈M mit p ≠ q ist
p ∨ q ∶= p + S(−p + q) = {s1p + s2q ∣ s1, s2 ∈ S mit s1 + s2 = 1}
"Verbindungsgerade von p und q\.
�0
−p + qS(−p + q)
p
q p ∨ q = p + S(−p + q)
Denn p+ s(−p+q) = (1− s)p+ sq = s1p+ s2q; ist umgekehrt s1 + s2 = 1, also mit s ∶= s2auch 1 − s = s1, dann ist s1p + s2q = (1 − s)p + sq = p + s(−p + q). 2
2.12 Bemerkung
F�ur X ⊆M sind �aquivalent:
1. X ∈ A�M.
2. Ist λ ∈ S(I) mit ∑λ = 1 und γ ∈ XI, so gilt λ ∗ γ ∈ X.3. ∀p,q,q ′ ∈ X ∶ π(p ∣ q ∨ q ′) ⊆ X.
q ∈ Xq ′ ∈ X
p ∈ X⊆ X
2
A�ne Linearkombination: Sei λ = (λ1, . . . ,λn), λ1 + ⋯ + λn = 1 und γ = (γ1, . . . ,γn),γi ∈ X f�ur alle i ∈ [n], so ist auch λ ∗ γ = λ1γ1 +⋯ + λnγn ∈ X.Beispiel: p ∶= 1
3p1 + 1
3p2 + 1
3p3 Schwerpunkt von (p1,p2,p3), 1
3+ 1
3+ 1
3= 1.
p1
p2
p3
p
19
2 Projektive und a�ne Geometrie
2.13 Proposition
IstM Vektorraum �uber Divisionsring S, so ist (M, spanA�) Matroid, wobei
spanA� X ∶= { ∑x∈X
λx ⋅ x ∣ λ ∈ S(X) mit ∑λ = 1}
= {λ ∗ γ ∣ I Menge,γ ∈ XI,λ ∈ S(I) mit ∑λ = 1}
= p + ∑x∈X
S(−p + x) f�ur p ∈ X und X ⊆M. 2
2.14 Beispiel
Sei X = {p1,p2,p3}, dann ist
spanA� X = spanA� {p1,p2,p3}= p1 ∨ p2 ∨ p3 ∶= {p1} ∨ {p2} ∨ {p3}= p1 + S(−p1 + p2) + S(−p1 + p3)= {s1p1 + s2p2 + s3p3 ∣ s1, s2, s3 ∈ S mit s1 + s2 + s3 = 1}
die von X aufgespannte a�ne Ebene (falls p1,p2,p3 nicht kollinear).
−p1+p2−p1+p3
�0
p1
p2
p3 X
2
Achtung: spanA� =∶ spanA�M.
Projektive vs affine Geometrie Erweiterung vonM: SeiM ′ ∶=M × S.
M
S
M1
(�0, 0)
(�0, 1)
X ∈ A�M
βX = X × {1} ∈ A
Dann ist
M1 ∶= M × {1} = (�0, 1) +M × {0}
ein a�ner Raum inM ′ (allgemein ist (u+W)×(u ′+W ′) = (u,u ′)+W×W ′ a�ner Raum,
falls u +W und u ′ +W ′ a�ne R�aume).
Sei A ∶= {X ∈ A�M ′ ∣ X ⊆M1}, dann hat man eine Bijektion
β ∶ A�M→ A, X↦ X × {1} .
20
2.4 Rang- und Dimensionsformel
Sei L ∶= {X ∈ LM ′ ∣ X ∩M1 ≠ ∅ oder X = {(�0, 0)}}; die Abbildung
ρ ∶ A→ L, X ′ ↦ spanM ′ X ′
ist bijektiv und hat als Inverse
σ ∶ L→ A, Y ↦ Y ∩M1.
Beachte: spanM ′ X×{1} = S(u, 1)+W×{0}, wobei X = u+W, also X×{1} = (u, 1)+W×{0}.
2.4 Rang- und Dimensionsformel
Das Matroschka-Prinzip"Ineinanderliegen\: Punkt auf Gerade in Ebene im Raum et
cetera. Verb�ande sind sehr gut geeignet, das Ineinanderliegen zu beschreiben (durch Ket-
ten),"gut f�ur hierarchische Eigenschaften\.
Sei L = (L,≤) geordnete Menge und sei x ⋖ y ∶⇔ x < y∧ /∃ t ∶ x < t < y die Nachbar-
schaftsrelation zu L.
Eine Kette in L ist eine nichtleere Teilmenge K ⊆ L, so dass L∣K = (K,≤L ∩ (K × K))linear geordnet ist. Ist K endlich, also #K = n+1 f�ur ein n ∈ N, so gibt es x0,x1, . . . ,xn ∈ Lmit K = {x0,x1, . . . ,xn} und x0 < x1 < ⋅ ⋅ ⋅ < xn, und wir nennen K eine Kette von L�ange n;
dann hei�t K maximal, falls x0 ⋖ x1 ⋖ ⋅ ⋅ ⋅ ⋖ xn gilt.
2.15 Beispiel
Sei L Teilerverband zu 12.
12
6
~~~~~4
@@@@@
3
�����2
~~~~~
@@@@@
1
=====~~~~~
Eine Kette in L ist {1, 4, 12}, eine maximale Kette in L ist {1, 3, 6, 12}. 2
2.16 Beispiel
Geometrisches Beispiel:
1L = p ∨ g
p ∨ qtttttt
g
EEEEEE
p
yyyyyq
xxxxxx
KKKKKKK
0L
DDDDDttttttt
Eine Kette ist {0L,g, 1L}, eine maximale Kette ist {0L,p,p ∨ q, 1L}. 2
H�au�ge Situation: Je zwei maximale Ketten haben die gleiche L�ange.
21
2 Projektive und a�ne Geometrie
Ubersicht"F�ur uns relevante Verb�ande\:
vollst�andigeVerb�ande
semimodulareVerb�ande
llllllllllllllatomistischeVerb�ande
SSSSSSSSSSSSSS
modulareVerb�ande
ppppppppppgeometrischeVerb�ande
nnnnnnnnnnn
OOOOOOOOOOO
PPPPPPPPPPPPPP
mmmmmmmmmmmmmmLµ a�ne Geometrie
QQQQQQQQQQQQQ
projektive Geometrie
LM f�ur VektorraumM
xxxxxxxxxxxxxxxxxxxxA�M f�ur VektorraumM
GGGGGGGGGGGGGGGGGGGG
� Atomistische Verb�ande: supLA(x) = supL {a ∈ L ∣ a Atom,a ≤ x} = x f�ur jedes x ∈ L,
"jeder Raum x ∈ L ist Supremum seiner Punkte\ (Punkte sind Atome).
� Geometrische Verb�ande: Austauscheigenschaft, p,q Punkte, x ∈ L, dann p ≤ x ∨ qimpliziert p ≤ x oder q ≤ x ∨ p.
� Lµ Verband aller abgeschlossenen Mengen eines Matroids µ = (M, span): Lµ ∶={X ∈ 2M ∣ spanX = X}
"abgeschlossene Mengen von µ\, Lµ ∶= (Lµ,⊆).
� LM Verband der Unterr�aume des VektorraumsM, µ ∶= (M, spanM).
� Modulares Gesetz: x ≤ u ⇒ (x∨ z)∧u = x∨ (z∧u) (modulare Geometrie, \pointless
Geometry\, John von Neumann).
Semimodulare Verbande, Rangformeln Betrachte nun semimodulares Gesetz:
x ∧ y ⋖ y ⇒ x ⋖ x ∨ y,
wobei ⋖ die Nachbarschaftsrelation zu L sei.
2.17 Satz
Sei L semimodularer vollst�andiger Verband (SM-Verband), welcher eine endliche
maximale Kette der L�ange n ∈ N enth�alt. Dann ist in L jede Kette von L�ange
h�ochstens n. Insbesondere haben alle maximalen Ketten die L�ange n. 2
22
2.4 Rang- und Dimensionsformel
2.18 Korollar
Zu v,w ∈ L mit v ≤ w sei [v,w]L ∶= {x ∈ L ∣ v ≤ x ≤ w}"Intervall\ zu (v,w) in L, dann
ist auch L∣ [v,w]L ein SM-Verband, und es sei der Rang ∆L(v,w) de�niert als L�angeeiner maximalen Kette in L∣ [v,w]L. Zu x ∈ L sei rLx de�niert als ∆L(0L,x), alsoL�ange eines maximalen Pfades von 0L nach x in L.
Dann ist ∆L funktoriell, das hei�t
∆L(p,q) = ∆L(p, t) +∆L(t,q) f�ur alle p, t,q ∈ L mit p ≤ t ≤ q,∆L(p,p) = 0 f�ur alle p ∈ L.
Es folgt ∆L(p,q) = −∆L(0L,p) +∆L(0L,q), und somit die Rangformel:
∆L(p,q) = −rLp + rLq. 2
Anwendung: SeienM,M ′ Vektorr�aume �uber Divisionsring S, und seiM ϕ−→M ′ lineare
Abbildung. Dann M/Kerϕ ≃ Imϕ. Also rLM Imϕ = rLM(M/Kerϕ) = ∆LM(Kerϕ,M) =−rLMKerϕ + rLMM, und mit rLMM = DimM somit
DimImϕ = −DimKerϕ +DimM.
Beweis (Satz)
(MATROSCHKA-Beweis)
Sei L = (L,≤) semimodularer vollst�andiger Verband mit endlicher maximaler Kette
0 ⋖ x1 ⋖ ⋯ ⋖ xn−1 ⋖ 1L der L�ange n ∈ N. Zu zeigen: Ist K Kette in L, so ist K von L�ange
h�ochstens n. Dies sei Aussage A(n).Vollst�andige Induktion: A(0) klar.F�ur n > 0 sei A(i) wahr f�ur alle i < n, und sei 0 ⋖ x1 ⋖ ⋯ ⋖ xn−1 ⋖ 1L maximale Kette X
in L, und sei K Kette in L.
1. Fall K ∖ {0L} ⊆ [x1, 1L]. Fertig, da A(n − 1) f�ur L∣ [x1, 1L] gilt.
2. Fall ∃k ∈ K ∖ {0L} mit x1 /≤ k, das hei�t x1 ∧ k = 0L (da x1 Atom). Da 0 ⋖ x1 folgt
k ⋖ k ∨ x1, da L semimodular.
0L
1L
x1
k
k ∨ x1
HK X
Sei K ′ ∶= K ∩ [k, 1L]. Wegen A(n − 1) f�ur L∣ [x1, 1L] gibt es maximale Kette H in
[x1, 1L] mit k ∨ x1 ∈ H (\missing link") und H hat L�ange n − 1. Dann ist H ′ ∶=(H∩ [k∨ x1, 1L])∪ {k} maximale Kette in [k, 1L], und hat L�ange i ≤ n− 1 < n. NachA(i) f�ur L∣ [k, 1L] folgt: K ′ hat L�ange ≤ i.
23
2 Projektive und a�ne Geometrie
Au�erdem ist H ′′ ∶= H ∩ [x1,k ∨ x1] maximale Kette in [x1,k ∨ x1] der L�ange n − i.Betrachte die Kette K ′′ ∶= K∩[0L,k]; sind a1, . . . ,al−1 ∈ L mit 0L < a1 < ⋅ ⋅ ⋅ < al−1 < k,dann folgt x1 < x1 ∨a1 < ⋅ ⋅ ⋅ < x1 ∨al−1 < k∨ x1, da L semimodular; wir erhalten also
eine Kette in [x1,k ∨ x1]. Wegen A(n − i) hat somit K ′′ endliche L�ange ≤ n − i.Damit hat K = K ′ ∪K ′′ L�ange h�ochstens i + (n − i) = n. ∎
2.19 Satz
Sei L = (L,≤) modularer vollst�andiger Verband und x,y ∈ L. Die Abbildungen
ϕ ∶ [x ∧ y,y]L → [x,x ∨ y]L, z↦ x ∨ z,ψ ∶ [x,x ∨ y]L → [x ∧ y,y]L, u↦ y ∧ u,
sind zueinander invers, also ist L∣ [x ∧ y,y]L isomorph zu L∣ [x,x ∨ y]L; insbesondereist L semimodular. Es folgt −rL(x∧y)+ rLy = −rLx+ rL(x∨y) und somit die modulare
Rangformel:rL(x ∨ y) + rL(x ∧ y) = rLx + rLy. 2
24
3 Multilinearitat und Determinanten
3.1 Multilineare Abbildungen
Multilinearit�at:"in jeder Komponente linear\, und ihre Modellierungen.
3.1 Beispiel
Betrachte det ∶ (R[2])[2] → R, γ↦ detγ = det(γ1,γ2).γ ∶ [2] → R[2], also 1 ↦ γ1 ∈ R[2], 2 ↦ γ2 ∈ R[2], wobei γ1 ∶ [2] → R, i ↦ (γ1)i,
γ2 ∶ [2]→ R, j↦ (γ2)j. Also γ = (γ1,γ2) = (((γ1)1, (γ1)2), (γ2)1, (γ2)2)).
mγ ≡ (γ1γ2
) ≡ ((γ1)1 (γ1)2(γ2)1 (γ2)2) Matrixmaker zu γ (Vektorenfamilie), (mγ)(i, j) ∶= (γi)j.
detmγ ∶= detγ, also
det(a11 a12a21 a22
) = det(γ1,γ2) = detγ = det((a11,a12), (a21,a22)),
wobei aij ∶= (γi)j, mγ = a. 2
Eigenschaften:
1. det(γ1,v+w) = det(γ1,v)+det(γ1,w), sowie det(v+w,γ2)+det(v,γ2)+det(w,γ2)f�ur alle v,w ∈ R[2],
"det biadditiv\,
2. det(r ⋅ γ1,γ2) = r ⋅ det(γ1,γ2) = det(γ1, r ⋅ γ2) f�ur alle r ∈ R,"Skalare darf ich
komponentenweise rausziehen\.
Setze γ1 ● γ2 ∶= detγ, dann:Biadditivit�at: (γ1)●(v+w) = (γ1)●v+(γ1)●w, und (v+w)●(γ2) = v●(γ2)+w●(γ2).Skalare rausziehen: r ⋅ (γ1 ● γ2) = (r ⋅ γ1) ● γ2 = γ1 ● (r ⋅ γ2).
Was ist det(r1v1 + r2v2, s1w1 + s2w2) = (r1v1 + r2v2) ● (s1w1 + s2w2) f�ur ri, sj ∈ R,vi,wj ∈ R[2]? Mit xi ∶= rivi, yj ∶= sjvj und 1. ist
(x1 + x2) ● (y1 + y2) = x1 ● y1 + x1 ● y2 + x2 ● y1 + x2 ● y2.
Wegen 2. folgt (r1v1 + r2v2) ● (s1w1 + s2w2) = x1 ● y1 + x1 ● y2 + x2 ● y1 + x2 ● y2 =(r1s1) ⋅ (v1 ●w1) + (r1s2) ⋅ (v1 ●w2) + (r2s1) ⋅ (v2 ●w1) + (r2s2) ⋅ (v2 ●w2), also
(r1v1 + r2v2) ● (s1w1 + s2w2) = ∑(i,j)∈[2]×[2]
(risj) ⋅ (vi ●wj).
Hier: Zwei Faktoren und in jeder Summe zwei Summanden.
25
3 Multilinearit�at und Determinanten
3.2 Beispiel (Ausmultiplizieren)
Sei P = [m], Q = [n] (m = n = 2 hatten wir gerade), sei
F ∶ (RQ)P → R, γ↦ ∏p∈P
∑q∈Q
(γp)q = ∏p∈P
∑γp,
wobei ∏p∈P∑γp = ∏i∈[m] ((γi)1 +⋯ + (γi)n) = ∏i∈[m] (ai1 +⋯ + ain) f�ur aij ∶= (γi)j,mit a ∶= mγ ∶ P ×Q → R, (i, j) ↦ aij, die zugeh�orige Matrix, γi die i-te Zeile von a, also
∑γi die Zeilensumme der i-ten Zeile. Das hei�t:
F((a11, . . . ,a1n), . . . , (am1, . . . ,amn)) ∶= (a11 +⋯ + a1n) ⋅ ⋯ ⋅ (am1 +⋯ + amn)
("dots-Notation\,
"semiformal\). F ist
"multilineare Abbildung\.
Challenge: Fγ = ∏p∈P∑γp ausmultiplizieren { wie sieht das dann aus? Wie kann ich
das hinschreiben? 2
Linearit�at in der ersten Komponente: Betrachte RQ → R, x ↦ F(x,γ2, . . . ,γm), also(x11, . . . ,x1n)↦ F((x11, . . . ,x1n), (a21, . . . ,a2n), . . . , (am1, . . . ,amn)).Notation: Sei
⟨γ⟩1 ∶ RQ → (RQ)P, x↦ (x,γ2, . . . ,γm),
wobei γ ∈ (RQ)P, das hei�t γ = (γ1, . . . ,γm).3.3 Definition
SeienM,M ′ Semiring-Moduln �uber kommutativen Semiring S, sei P endliche nichtleere
Menge. Eine Abbildung F ∶ MP → M ′ hei�t multilinear von MP nach M ′, falls f�ur
⟨γ⟩p ∶M→MP, v↦ ⟨γ⟩p v gilt, dass F ○ ⟨γ⟩p ∶M→M ′ linear ist, das hei�t
M→M ′, v↦ F(⟨γ⟩p v)
ist linear,"F ist in der p-ten Komponente linear\, f�ur jedes p ∈ P (und jedes γ ∈MP).
F�ur γ ∈MP, p ∈ P und v ∈M sei hierbei
⟨γ⟩p v ∶ P →M, p ′ ↦⎧⎪⎪⎨⎪⎪⎩
v falls p ′ = pγp ′ sonst
(ersetze p-te Komponente durch v). 2
Semiformal im Fall P = [n], γ = (γ1, . . . ,γn), ist
⟨γ⟩p v = (γ1, . . . , vp-te
, . . . ,γn)
= (γ1, . . . ,γp−1,v,γp+1, . . . ,γn).
Warnung: Im Allgemeinen ist ⟨γ⟩p nicht linear. Beispiel P = [3], F ∶ RP → R, x ↦ ∏x =∏p∈P xp ist multilinear. F�ur γ = (1, 3, 7) ∈ RP ist ⟨γ⟩1 v = (v, 3, 7), dann
⟨γ⟩1 (v +w) = (v +w, 3, 7) = (v, 3, 7) + (w, 0, 0) ≠ (v, 3, 7) + (w, 3, 7) = ⟨γ⟩1 v + ⟨γ⟩1w,
aber F ○ ⟨γ⟩p ∶ R→ R, v↦ v ⋅ 3 ⋅ 7 ist linear.
26
3.1 Multilineare Abbildungen
3.4 Beispiel
Sei P = [2], γ = (γ1,γ2) ∈ MP. Sei v ∈ M, dann ist ⟨γ⟩1 v = (v,γ2) und ⟨γ⟩2 v = (γ1,v),also F(⟨γ⟩1 v) = F(v,γ2), F(⋅,γ2) linear (in der ersten Komponente), und F(γ1, ⋅) linear (inder zweiten Komponente): F ist
"bilinear\.
M�ogliche Notation: γ1●γ2 ∶= F(γ). Dann (v+w)●γ2 = v●γ2+w●γ2, (s⋅v)●γ2 = s⋅(v●γ2)und γ1 ● (v +w) = γ1 ● v + γ2 ●w, γ1 ● (s ⋅ v) = s ⋅ (γ1 ● v). Allgemein gilt
(s1v1 + s2v2) ● (t1w1 + t2w2)= s1t1(v1 ●w1) + s1t2(v1 ●w2) + s2t1(v2 ●w1) + s2t2(v2 ●w2).
Sonderfall: Gelte hier v ● v = �0 f�ur alle v ∈M, so ist
�0 = (v +w) ● (v +w) = v ● v + v ●w +w ● v +w ●w = v ●w +w ● v
f�ur alle v,w ∈M. Es folgt v ●w +w ● v = 0 f�ur alle v,w ∈M, das hei�t w ● v = −v ●w (f�ur
S Ring). F hei�t dann alternierend.
Zum Beispiel: M = R2, M ′ = R, dann F = det ∶ (R2)2 → R, (x,y) ↦ x1y2 − x2y1 ist
alternierend. 2
"Masterformel\ f�ur multilineare Abbildungen (Ausmultiplizierung):
3.5 Satz
Sei F ∶MP →M ′ multilinear (bez�uglich P), und sei Q endliche nichtleere Menge. Zu
α ∈ SP×Q und η ∈MQ sei α ∗ η ∶ P →M, p↦ (α ∗ η)p mit (α ∗ η)p ∶= ∑q∈Qα(p,q) ⋅ ηq.Dann gilt:
F(α ∗ η) = ∑σ∈QP
∏p∈P
α(p,σp) ⋅ F(η ○ σ).2
Interpretation: P Faktorenmenge, Q Summandenmenge pro Faktor p ∈ P, σ ∶ P → Q,
p ↦ σp ordnet jedem"Faktor\ p den Summanden an der Stelle σp zu. #QP Anzahl der
Summanden nach dem Ausmultiplizieren.
Wir betrachten hier"homogenen Fall\, das hei�t Elemente in MP sind p ↦ ηp ∈ M,
zum Beispiel M[2] ≡ M ×M; allgemeiner w�are (Mp)p∈P, also p ↦ ηp ∈ Mp, mit Mp
abh�angig von p, zum BeispielM ×N .
3.6 Beispiel
Ausmultiplizieren:
(a11x1 + a12x2)(a21x1 + a22x2)= (a11x1)(a21x1) + (a11x1)(a22x2) + (a12x2)(a21x1) + (a12x2)(a22x2)= a11a21x1x1 + a11a22x1x2 + a12a21x2x1 + a12a22x2x2= ∑
(i,j)∈{1,2}2a1ia2jxixj = ∑
σ∈[2][2]a1σ1a2σ2xσ1xσ2
= ∑σ∈PP
∏p∈P
ap,σp∏p∈P
xσp
mit P ∶= [2], wobei σ ∈ [2][2] ∶ 1↦ i, 2↦ j (1, 2 Faktoren, i, j Summanden).
27
3 Multilinearit�at und Determinanten
Mit Fx ∶= F(x1,x2) ∶= x1x2 (bilinear) ist
∏p∈P
xσp = F(xσ1,xσ2) = F(x ○ σ),
wobei x ○ σ = ((x ○ σ)p)p∈P = (xσp)p∈P.Also ist wegen α∗x = ∑(p,q)∈P×P apq ⋅xq f�ur α = (apq)(p,q)∈P×P (das hei�t α ∶ P×P → S
mit S Rechenbereich) dann α ∗ x = (a11x1 + a12x2,a21x1 + a22x2), und somit
F(α ∗ x) = (a11x1 + a12x2)(a21x1 + a22x2) = ∑σ∈PP
∏p∈P
ap,σp ⋅ F(x ○ σ).2
3.7 Beispiel
F ∶ R3 → R, x↦ x1x2x3. Notation f�ur F(x + y) ausmultipliziert (gesuchte Formel)?
F(x + y) = (x1 + y1)(x2 + y2)(x3 + y3)= x1x2x3 + x1x2y3 + x1y2x3 + x1y2y3 + y1x2x3 + y1x2y3 + y1y2x3 + y1y2y3.
P = [3] Faktorenmenge, Q = [2] Summandenmenge, σ ∶ P → Q ordnet jedem Faktor p
einen Summanden σp zu, zum Beispielp 1 2 3
σp 1 2 1entspricht x1y2x3.
Sei α(p, 1) ∶= xp "1. Summand des Faktors p\, und α(p, 2) ∶= yp "
2. Summand des
Faktors p\. Dann ist (α ∗ η)p ∶= ∑q∈Qα(p,q) ⋅ ηq = α(p, 1) + α(p, 2) = xp + yp f�ur η ∈ R2via η = (1, 1). Also ist α ∗ η = (x1 + y1,x2 + y2,x3 + y3). Also:
F(α ∗ η) = ∑σ∈QP
∏p∈P
α(p,σp) ⋅ F(η ○ σ)
(σp ist der durch σ ausgew�ahlte Summand im Faktor p), #QP = 23 = 8.Anmerkung: η ○ σ = ((η ○ σ)p)p∈P = (η(σp))p∈P. 2
3.8 Beispiel
F ∶ RP → R, x↦∏x. Dann ist F(α ∗ η) = ∑σ∈QP∏p∈P α(p,σp), falls η ∶Q→ R, q↦ 1. 2
Zum Beweis: Sei α ′ ∶ P×Q→M, (p,q)↦ α(p,q) ⋅ηq. Aus Multiadditivit�at und Skalare
rausziehen folgt
F(( ∑q∈Q
α ′(p,q))p∈P) = ∑
σ∈QPF((α ′(p,σp))p∈P)
= ∑σ∈QP
F((α(p,σp) ⋅ η(σp))p∈P)
= ∑σ∈QP
∏p∈P
α(p,σp) ⋅ F((η(σp))p∈P),
wobei (η(σp))p∈P = η ○ σ.
28
3.2 Determinanten, Leibniz-Formel
3.2 Determinanten, Leibniz-Formel
Alternierende Abbildungen Sei F ∶MP →M ′ multilineare Abbildung. Wir betrachten
f�ur γ ∈MP folgende"Ersetzung an zwei Stellen\ p1,p2 ∈ P mit p1 ≠ p2:
⟨γ⟩p1,p2 ∶M2 →MP, (v,w)↦ ⟨γ⟩p1,p2 (v,w),
wobei
⟨γ⟩p1,p2 (v,w) ∶ P →M, p↦
⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩
v falls p = p1w falls p = p2γp sonst.
F�ur P = [n], ⟨γ⟩p1,p2 (v,w) = (γ1, . . . , vp1-te
, . . . , wp2-te
, . . . ,γn).
Damit ist F ○ ⟨γ⟩p1,p2 ∶ M2 → M ′ bilinear. Sei v ⋅ w ∶= (F ○ ⟨γ⟩p1,p2)(v,w) und gelte
v ⋅v = 0 f�ur alle v ∈M, dann gilt �0 = (v+w) ⋅ (v+w) = v ⋅v+v ⋅w+w ⋅v+w ⋅w = v ⋅w+w ⋅vund damit w ⋅ v = −v ⋅w.
3.9 Definition
Sei S kommutativer Ring. F ist Determinantenabbildung, falls (F ○ ⟨γ⟩p1,p2)(v,v) = �0 f�uralle v ∈M ist (das hei�t F(γ1, . . . , v
p1-te, . . . , v
p2-te, . . . ,γn) = �0 f�ur P = [n]). 2
Dann ist (F○⟨γ⟩p1,p2)(w,v) = −(F○⟨γ⟩p1,p2)(v,w) (S Ring). F hei�t dann alternierend.
Unsere Formel ist hier:
F(α ∗ η) = ∑σ∈QP
∏p∈P
α(p,σp) ⋅ F(η ○ σ),
wobei F(η ○ σ) = �0, falls σ nicht injektiv. Im Fall Q = P, also α ∈ SP×P, η ∈MP, gilt:
F(α ∗ η) = ∑σ∈PP
∏p∈P
α(p,σp) ⋅ F(η ○ σ)
= ∑σ∈SymP
sgnσ ⋅∏p∈P
α(p,σp) ⋅ Fη,
wobei SymP Menge der Permutationen von P, und
sgnσ ∶=
⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩
1 falls σ gerade Permutation,
−1 falls σ ungerade Permutation,
0 falls σ nicht bijektiv;
eine gerade Permutation ist eine Permutation der Form σ = τ1 ∗⋯∗ τ2n f�ur τi Transpo-
sitionen (Vertauschung zweier Elemente).
Determinanten det ∶= F ist Determinante, falls M = SP ∶= Mod(S,P) und M ′ = S,
sowie detδP = 1 (Volumen des durch δP induzierten Einheitshyperw�urfels in M).
29
3 Multilinearit�at und Determinanten
(1, 0) = δ[2]1
δ[2]
2= (0, 1)
(0, 0)
Formel f�ur η = δP (Leibniz-Formel):
det(rα) = det(α ∗ δP) = ∑σ∈SymP
sgnσ ⋅∏p∈P
α(p,σp),
da Fη = FδP = detδP = 1.Zu α ∈ SP×P setze detα ∶= det rα, wobei rα ∶ P → SP, p ↦ α(p, ⋅). Dann lautet die
Leibniz-Formel:
detα = ∑σ∈SymP
sgnσ ⋅∏p∈P
α(p,σp).
Seien nun α,β ∈ SP×P. Setze η ∶= rβ. Dann gilt: α ∗ η = α ∗β, also ist
det(α ∗β) = det(α ∗ η) = ( ∑σ∈SymP
sgnσ ⋅∏p∈P
α(p,σp)) ⋅ detη = detα ⋅ detβ.
3.10 Satz (Determinanten-Multiplikationssatz)
Sei S kommutativer Ring. F�ur alle α,β ∈ SP×P gilt
det(α ∗β) = detα ⋅ detβ. 2
Au�erdem gilt f�ur α ∈ SP×P stets:
det(αT ) = ∑σ∈SymP
sgnσ ⋅∏p∈P
αT (p,σp)
= ∑σ∈SymP
sgnσ ⋅∏p∈P
α(p,σ−1p)
= ∑σ∈SymP
sgn(σ−1) ⋅∏p∈P
α(p,σp) = detα,
da αT (p,σp) = α(σp,p) und sgn(σ−1) = sgnσ.Ergebnis: detαT = detα f�ur alle α ∈ SP×P.
3.3 Multilineare Fortsetzung und Anwendungen
3.11 Satz (Existenz und Eindeutigkeit multilinearer Abbildungen)
Seien P und Q endliche nichtleere Mengen, und seien M und M ′ Moduln �uber
einem kommutativen Semiring S. Ferner sei η ∶ Q → M eine Basis von M; setze
ηP ∶QP →MP, σ↦ η ○ σ.Dann existiert zu jeder Abbildung Φ ∶QP →M ′ genau eine bez�uglich P multilineare
Abbildung F von MP nach M ′ mit F ○ ηP =Φ.
30
3.3 Multilineare Fortsetzung und Anwendungen
Im Diagramm (laxe Version):
QP
ηP
}}zzzzzzzzΦ
!!CCCCCCCC
///
MP∃!F
//M ′
Genauer:
QP
ηP
}}{{{{{{{{Φ
!!BBBBBBBB
///
MPF
//M ′
und MP F−→M multilinear bzgl. P.
2
Wir nennen F die multilineare Fortsetzung (bez�uglich P) von Φ bez�uglich η.
Beweis
Eindeutigkeit: Sei F wie im Satz gegeben. Dann gilt f�ur jedes γ ∈ MP: Zu jedem p ∈ Pexistiert genau ein λ(p) ∈ SQ mit γp = λ(p)∗η (da η Basis vonM). F�ur α ∶ P×Q→ S,(p,q)↦ λ(p)q folgt γ = α ∗ η (denn γp = λ(p) ∗ η = ∑q∈Q λ(p)q ⋅ ηq = ∑q∈Qα(p,q) ⋅ηq = (α ∗ η)p f�ur alle p ∈ P). Unsere
"Masterformel\ impliziert nun
Fγ = F(α ∗ η) = ∑σ∈QP
∏p∈P
α(p,σp) ⋅ F(η ○ σ) = ∑σ∈QP
∏p∈P
λ(p)(σp) ⋅Φ(σ),
denn α(p,σp) = λ(p)(σp), F(η ○ σ) = F(ηP(σ)) = (F ○ ηP)σ =Φ(σ).
Existenz: De�niere F ∶MP →M ′ f�ur jedes γ ∈MP mit γp = λ(p) ∗ η, wobei λ(p) ∈ SQ f�ur
alle p ∈ P, wie folgt:Fγ ∶= ∑
σ∈QP∏p∈P
λ(p)(σp) ⋅Φ(σ).
�Uberpr�ufe:
1. F ist bez�uglich P multilinear vonMP nachM ′.
Begr�undung: Sei γ ∈ MP und p0 ∈ P fest gew�ahlt, und sei γp = λ(p) ∗ η mit
λ(p) ∈ SQ f�ur alle p ∈ P. F�ur alle x ∈ SQ folgt, wobei f ∶= F ○ ⟨γ⟩p0 ∶M →M ′ sei
f(x ∗ η) = ∑σ∈QP x(σp0) ⋅∏p∈P∖{p0} λ(p)(σp) ⋅Φ(σ) =∶ ∑σ∈QP x(σp0) ⋅ lσ.
F�ur x,y ∈ SQ folgt f(x ∗ η + y ∗ η) = f((x + y) ∗ η) = ∑σ∈QP (x + y)(σp0) ⋅ lσ =∑σ∈QP x(σp0) ⋅ lσ+∑σ∈QP y(σp0) ⋅ lσ = f(x∗η)+f(y∗η), also f(v+w) = fv+fwf�ur alle v,w ∈M. Entsprechend ist f(s ⋅ v) = s ⋅ fv f�ur s ∈ S.
2. F ○ ηP =Φ.
Begr�undung: F�ur jedes σ0 ∈QP ist (F ○ ηP)σ0 = ∑σ∈QP∏p∈P δQσ0p(σp) ⋅Φ(σ) =Φ(σ0) (wegen (η○σ0)p = η(σ0p) = δQσ0p∗η und∏p∈P δ
Qσ0p(σp) = 0 f�ur σ ≠ σ0).∎
31
3 Multilinearit�at und Determinanten
Determinanten Spezialfall: Q = P,M = SP (M = SP), S kommutativer Ring, und η = δP,sowie Φ = sgn ∶ PP → R, σ↦ sgnσ,
sgnσ ∶=
⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩
0 falls σ nicht injektiv,
1 falls σ gerade Permutation,
−1 falls σ ungerade Permutation.
Dann ist die eindeutig bestimmte multilineare Abbildung det von (SP)P nach S mit
det ○ (δP)P = sgn die Determinantenfunktion auf (SP)P.
PP
(δP)P
||yyyyyyyysgn
��>>>>>>>>
///
(SP)Pdet
// S
Also ist die Determinante det die multilineare Fortsetzung von sgn ∶ PP → S bez�uglich der
Standardbasis δP.
Bilinearformen Sei hier P = [2],M ′ = S kommutativer Semiring (X[2] ≡ X ×X).
I[2]
η[2]
||yyyyyyyyβ
��@@@@@@@@
///
M[2]b
// S
Dann ist b die bilineare Fortsetzung der Matrix β ∶ I × I → S, also b ○ η[2] = β, das hei�tb(ηi,ηj) = β(i, j) f�ur alle i, j ∈ I. Es hei�t b dann Bilinearform zu β bez�uglich η.
Ist b gegeben, so nennt man β ∶= b ○ η[2], das hei�t
β ∶ I × I→ S, (i, j)↦ b(ηi,ηj)
die Gramsche Matrix zu b.
Sind v,w ∈M und λ,µ ∈ SI mit v = λ ∗ η und w = µ ∗ η, so ist
b(v,w) = ∑(i,j)∈I×I
λi ⋅ µj ⋅β(i, j).
Also ist b(v,w) = λ ∗β ∗ µ, wobei λ ∗β = ∑i∈I λi ⋅β(i, ⋅) und β ∗ µ = ∑j∈Iβ(⋅, j) ⋅ µj.F�ur alle λ,µ ∈ SI ist insgesamt
b(λ ∗ η,µ ∗ η) = λ ∗β ∗ µ.
Sonderfall: η = δJ Standardbasis, M = SJ (Umbenennung: ersetze I durch J). Dann
λ ∗ η = λ ∗ δJ = λ f�ur λ ∈ SJ. Also hier
b(λ,µ) = λ ∗β ∗ µ.
32
3.4 Cramersche Regel
Sei η = δJ und β = IJ ∶ J × J→ S, (i, j)↦⎧⎪⎪⎨⎪⎪⎩
1 falls i = j,0 sonst.
Dann b(λ,µ) = λ ∗ IJ ∗ µ = λ ∗ µ ist Elementarfaltung von λ mit µ f�ur alle λ,µ ∈ SJ. Eshei�t b das Standard-Skalarprodukt auf SJ. F�ur S = R ist b das euklidische Skalarprodukt.
3.4 Cramersche Regel
Noch einmal zu Determinanten: Sei S Ring, α ∈ SP×P und v ∈ SP. Gesucht sei x ∈ SP mit
x ∗α = v, das hei�t ∑p∈P xp ⋅α(p, ⋅) = v.Setze γ ∶= rα. Also x ∗α = v besagt x ∗ γ = ∑p∈P xp ⋅ γp = v. F�ur jedes p ∈ P ist
det(⟨γ⟩p v) = det(⟨γ⟩p ( ∑p ′∈P
xp ′ ⋅ γp ′))
= ∑p ′∈P
xp ′ ⋅ det(⟨γ⟩p γp ′)
= xp ⋅ detγ,
denn det(⟨γ⟩p γp ′) =⎧⎪⎪⎨⎪⎪⎩
γ falls p = p ′,0 sonst.
Ergebnis:
det(⟨γ⟩p v) = xp ⋅ detγ.
Wegen detα = det rα = detγ folgt ("Cramer\)
det(⟨rα⟩p v) = xp ⋅ detα,
falls x ∗α = v. Dabei ist ⟨rα⟩p v die Ersetzung der p-ten Zeile von α durch v.
3.12 Beispiel
Sei n = 3, P = [n] = 3, und sei
α =⎛⎜⎜⎝
1 2 3
4 5 6
7 8 9
⎞⎟⎟⎠,
also γ1 = α(1, ⋅) = (1, 2, 3), γ2 = α(2, ⋅) = (4, 5, 6), γ3 = α(3, ⋅) = (7, 8, 9), γ = (γ1,γ2,γ3) =((1, 2, 3), (4, 5, 6), (7, 8, 9)) ∈ (N3)3 = (N[3])[3]. Sei p = 2 und v = (10, 11, 12), dann ist
⟨γ⟩2 v = (γ1,v,γ3) = ((1, 2, 3), (10, 11, 12), (7, 8, 9)), als Matrix
m(⟨γ⟩2 v) =⎛⎜⎜⎝
γ1
v
γ2
⎞⎟⎟⎠=⎛⎜⎜⎝
1 2 3
10 11 12
7 8 9
⎞⎟⎟⎠
2
Ist detγ in Smult invertierbar und x ∗α = v, so gilt
xp =det(⟨rα⟩p v)
detα.
33
3 Multilinearit�at und Determinanten
Adjunkte Setze v ∶= δPq und betrachte x(q) ∗α = δPq, also gilt x(q)p ⋅ detα = det ⟨rα⟩p δPq.
3.13 Definition
Sei S kommutativer Ring und P endliche nichtleere Menge. Zur Matrix α ∈ SP×P setze
adjα ∶ P × P → S, (q,p)↦ det ⟨rα⟩p δPq,
dann ist die Matrix adjα ∈ SP×P die sogenannte Adjunkte zu α. 2
F�ur P = [n] ist (semiformal)
det ⟨rα⟩p δPq = det
⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
α(1, 1) . . . α(1,q) . . . α(1,n)⋮ ⋮ ⋮
α(p−1, 1) . . . α(p−1,q) . . . α(p−1,n)0 . . . 1 . . . 0
α(p+1, 1) . . . α(p+1,q) . . . α(p+1,n)⋮ ⋮ ⋮
α(n, 1) . . . α(n,q) . . . α(n,n)
⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠
= (−1)p+q ⋅ det
⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
α(1, 1) . . . α(1,q−1) α(1,q+1) . . . α(1,n)⋮ ⋮ ⋮ ⋮
α(p−1, 1) . . . α(p−1,q−1) α(p−1,q+1) . . . α(p−1,n)α(p+1, 1) . . . α(p+1,q−1) α(p+1,q+1) . . . α(p+1,n)
⋮ ⋮ ⋮ ⋮α(n, 1) . . . α(n,q−1) α(n,q+1) . . . α(n,n)
⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠
(Streichungsmatrix zu (p,q),"streiche p-te Zeile und q-te Spalte von α\).
Dann gilt also stets ("Cramersche Regel\):
(adjα) ∗α = (detα) ⋅ IP.
Anmerkungen:
1. Daraus ergibt sich f�ur α ∈ SP×P: Es ist α multiplikativ invertierbar in MatP S genau
dann, wenn detα multiplikativ invertierbar in S ist.
Zusatz: Ist detα invertierbar in Smult, so gilt
α−1 = 1
detα⋅ adjα.
2. Genau genommen ben�otigt man in 1., dass auch α ∗ (adjα) = (detα) ⋅ IP gilt.
Beachte dazu Folgendes: Sei S = (S,+, ⋅, 0, 1) Semiring. Dann ist auch Sop ∶=(S,+, ⋅op, 0, 1) Semiring, wobei
⋅op ∶ S × S→ S, (y,x)↦ x ⋅ y
die transponierte Multiplikation bezeichne (op \opposite"). Also ist y ⋅T x ∶= x ⋅ y.
34
3.5 Elementargeometrie in euklidischen Vektorr�aumen
Zu β ∈ SP×Q ist βT ∶ Q × P → S, (q,p) ↦ β(p,q), also βT (q,p) ∶= β(p,q), die transpo-nierte Matrix. F�ur endliche Mengen P, T ,Q seien α ∈ SP×T und β ∈ ST×Q, also βT ∈ SQ×T ,αT ∈ ST×P. Dann gilt (α ∗β)T = βT ∗(T) αT , wobei
(βT ∗(T) αT )(q,p) ∶= ∑t∈TβT (q, t) ⋅op αT (t,p),
denn ∑t∈T βT (q, t) ⋅op αT (t,p) = ∑t∈T αT (t,p) ⋅ βT (q, t) = ∑t∈T α(p, t) ⋅ β(t,q) f�ur alle
(p,q) ∈ P ×QIst S kommutativer Semiring, dann ist ⋅T = ⋅ und folglich (α ∗β)T = βT ∗αT .
Anwendung f�ur 1.: Sei S kommutativer Ring, α ∈ SP×P. Dann ist (adjα)∗α = detα ⋅ IP.Weil (αT )T = α und (adjαT ) ∗ αT = det(αT ) ⋅ IP = detα ⋅ IP ist, gilt α ∗ (adjαT )T =(detα ⋅ IP)T = detα ⋅ IP, das hei�t α hat beidseitiges Inverses, falls detα invertierbar ist.
Ist S K�orper, so folgt: detα ≠ 0⇔ α invertierbar, und detα ≠ 0⇒ α−1 = 1detα
⋅ adjα.Beispiel: Sei S = Z und detα = 2, ist nicht invertierbar in (Z, ⋅, 1), also ist α nicht
invertierbar.
3.5 Elementargeometrie in euklidischen Vektorraumen
Sei N endliche nichtleere Menge, und sei b ∶ RN × RN, (x,y)↦ x ∗ y mit
x ∗ y ∶= ∑i∈N
xiyi
das euklidische Skalarprodukt zu N (Elementarfaltung von x mit y, andere Bezeichnung:
⟨x,y⟩ = x ∗ y). Dann hei�t EN ∶= (RN,b) der euklidische Vektorraum zu N.
Das euklidische Skalarprodukt b(x,y) = x∗y = ∑i∈I xiyi hat die Eigenschaften b(x,y) =b(y,x), b(x,x) ≥ 0 und b(x,x) = 0 ⇔ x = �0, das hei�t, b ist symmetrische und positiv
de�nite Bilinearform auf RN.
In EN lassen sich Orthogonalit�at, Winkel und Abst�ande beschreiben. F�ur x,y ∈ RNnennen wir x orthogonal zu y, kurz x ⊥ y, falls x ∗ y = 0.
�0 x
y
Andere Sicht: x,y ∈ RN als Punkte interpretierbar:
�0 x
y
35
3 Multilinearit�at und Determinanten
Auch beides geht:
�0x
y
x
y
y
x
x + y
x + y = y + xx
Punkte vs Vektoren Sei −→pq ∶= −p + q Vektor vom Punkt p ∈ RN zum Punkt q ∈ RN.Abstrakte Modellierung: P sei Menge, vec ∶ P×P → RN sei Abbildung mit vec(p, ⋅) ∶ P → RN
bijektiv und vec(p, t) + vec(t,q) = vec(p,q) f�ur alle p,q ∈ P. Wir nennen P ∶= (P,P × P)Punktraum und vec vektorielle Abbildung von P nach RN.
Dann −→pq ∶= vec(p,q) f�ur alle p,q ∈ P (oft P ∩ RN = ∅).Bei uns (Modell) ist (leider) P = RN als Menge, w�ahrend RN =Mod(R,N) der zugrun-
deliegende Vektorraum ist, und
vec ∶ P × P → RN, (p,q)↦ −→pq ∶= −p + q.
Dann ist vec(p, ⋅) ∶ P → RN , q↦ −→pq = −p + q bijektiv. Ausgezeichnet als Ursprung ist
p = �0 ∈ RN, vec(�0, ⋅) ∶ P → RN, q↦ −→�0q = q.
Bestimmung von Lotfußpunkten Satz des Pythagoras (vektorielle Version): Seien
v, l,w ∈ RN mit l +w = v und l ⊥ w.
�0l
wv
Dann gilt:
l ∗ l +w ∗w = v ∗ v.
Begr�undung: v∗v = (l+w)∗ (l+w) = l∗ l+2(l∗w)+w∗w = l∗ l+w∗w, da l∗w = 0.
Sei u ∈ RN ∖ {�0} und sei v ∈ RN. Bestimme den Lotfu�punkt l von v auf Ru, das hei�t
�nde λ ∈ R mit l = λu und u ⊥ w, wobei w = −→lv = −λu + v.
�0
v
u
w
l = λu
Die Bedingung u ⊥ w = −λu + v hei�t u ∗ (−λu + v) = 0, also −λ(u ∗ u) + u ∗ v = 0, das
hei�t λ = u∗vu∗u . Ergebnis: l = λu mit λ = u∗v
u∗u .
Setze f�ur v ∈ RN stets ∥v∥ ∶=√v ∗ v = (v ∗ v) 1
2
"Norm des Vektors v\ (beachte v ∗ v =
∑i∈N v2i ≥ 0), und sei d ∶ RN × RN → R, (p,q) ↦ ∥−→pq∥ =∶ d(p,q) der"euklidische Abstand
von p zu q\.
36
3.5 Elementargeometrie in euklidischen Vektorr�aumen
Anwendung: Herleitung"CSU" (Cauchy-Schwarz-Ungleichung). Gegeben v,u ∈ RN ∖
{�0}. Sei l Lotfu�punkt zu v auf Ru, und sei w ∶= −→lv. Pythagoras ergibt:
l ∗ l +w ∗w = v ∗ v ⇒ 0 ≤ d(l,v)2 = w ∗w = v ∗ v − l ∗ l.
Wegen l = λu mit λ = u∗vu∗u folgt 0 ≤ v ∗ v − l ∗ l = v ∗ v − λ2 ⋅u ∗u = v ∗ v − (u∗v)2
u∗u , das hei�t
(u ∗ v)2 ≤ (u ∗ u) ⋅ (v ∗ v), also∣u ∗ v∣ ≤ ∥u∥ ⋅ ∥v∥ .
Also"elementargeometrisch gesehen\:
0 ≤ sin2∠(u,v) = (Gegenkathete)2(Hypothenuse)2 = w ∗w
v ∗ v = 1 − (u ∗ v)2(u ∗ u) ⋅ (v ∗ v) (liefert CSU),
cos2∠(u,v) = (Ankathete)2(Hypothenuse)2 = l ∗ l
v ∗ v =(u ∗ v)2
(u ∗ u) ⋅ (v ∗ v) = ( (u ∗ v)∥u∥ ⋅ ∥v∥)
2
,
also −1 ≤ cos∠(u,v) ∶= u∗v∥u∥⋅∥v∥ ≤ 1, das hei�t ∠(u,v) = arccos ( u∗v
∥u∥⋅∥v∥) ∈ [0,π].
Orthonormalsysteme
3.14 Definition
Ein Orthogonal-System in EN ist γ ∶ P → RN mit γi ≠ �0 f�ur alle i ∈ P (sonst schwaches
Orthogonal-System), so dass γi ⊥ γj f�ur alle i, j ∈ P mit i ≠ j gilt. Gilt zus�atzlich ∥γi∥ = 1f�ur alle i ∈ P, so hei�t γ Orthonormal-System (ON-System) in EN. 2
Es ist also γ ∶ P → RN ein ON-System in EN genau dann, wenn
γi ∗ γj = IN(i, j) =⎧⎪⎪⎨⎪⎪⎩
1 falls i = j,0 sonst,
f�ur alle (i, j) ∈N ×N gilt.
Seien u,v linear unabh�angig (also Ru + Rv ist 2-dimensional), dann w ≠ �0 und w ⊥ u,
"w orthogonalisisiert v zu Ru\.
�0
v
v
u
w
l = λu
w
Allgemein f�ur V Vektorraum und γ ∶ P → V sei rangγ ∶= Dim ⟨γ⟩ = DimIm fγ.
3.15 Proposition (Gram-Schmidtsches ON-Verfahren)
Sei k ∈ N+, setze P ∶= [k]. Sei γ ∶ P → RN unabh�angig (das hei�t fγ injektiv), also
rang(γ) = k. Dann existiert η ∶ P → RN ON-System mit ⟨η1, . . . ,ηj⟩ = ⟨γ1, . . . ,γj⟩ f�ur allej ∈ P (das hei�t ∑i∈[j] Rηi = ∑i∈[j] Rγi). 2
Beweis
Vor�uberlegung: Ist γ ′ ∶ [j] → Rn und x ⊥ γ ′i f�ur alle i ∈ [j], dann ist x ⊥ ∑γ ′ = ∑i∈[j] γ ′i.Denn x ∗∑i∈[j] γ ′i = ∑i∈[j] x ∗ γ ′i = 0.
37
3 Multilinearit�at und Determinanten
Setze η1 ∶= γ1∥γ1∥ , und f�ur h ∈ [k − 1] sei η(h + 1) ∶= η ′(h+1)
∥η ′(h+1)∥ , sowie
η ′(h + 1) ∶= γ(h + 1) − ∑i∈[h]
(γ(h + 1) ∗ ηi)ηi
(i-ter Summand ist Lotfu�punkt von γ(h + 1) auf Rηi).Zu zeigen: η ′(h + 1) ⊥ ηj f�ur jedes j ∈ [h].Nach Induktionsannahme ⟨γ1, . . . ,γh⟩ = ⟨η1, . . . ,ηh⟩ und η∣ [h] ON-System. Dann ist
η ′(h+ 1)∗ηj = γ(h+ 1)∗ηj−∑i∈[h](γ(h + 1) ∗ ηi)ηi∗ηj = γ(h+ 1)∗ηj−γ(h+ 1)∗ηj = 0,somit η ′(h + 1) ⊥ ηj, also η(h + 1) ⊥ ηj. ∎
Euklidische Raume M�oglichkeit den RN als Punktmenge zu konstruieren:
Sei P ∶= RN × {Punkt} und sei
vec ∶ P × P → RN, ((v, Punkt), (w, Punkt)) =∶ (P(v),P(w))↦ −v +w.
Ist p = P(v) = (v, Punkt), q = P(w) = (w, Punkt), dann −→pq ∶= vec(p,q) = −v +w ="−→vw".
Damit ist RN als Punktraum modelliert,
(P, vec,RN ≡Mod(R,N))
ist vektorieller Punktraum zum RN und EN ∶= (P, vec,EN) ist euklidischer Raum zu N.
Die Abbildung
d ∶ P × P → R≥0, (p,q)↦ d(p,q) ∶= ∥vec(p,q)∥
hei�t euklidische Metrik (bzw. euklidischer Abstand, euklidische Distanz) auf EN, wobei∥x∥ ∶=
√x ∗ x die euklidische Norm von x ∈ Rn bezeichne.
Dies ist eine Metrik:
� d(p,p) = 0,da ∥vec(p,p)∥ = 0 ist, da vec(p,p) + vec(p,p) = vec(p,p), also vec(p,p) = �0;
� d(p,q) = d(q,p) f�ur alle p,q ∈ P,da vec(q,p) = −vec(p,q) (da vec(p,q) + vec(q,p) = vec(p,p) = �0),
� d(p,q) ≤ d(p, t) + d(t,q) f�ur alle p,q, t ∈ P (Dreiecks-Ungleichung),
denn sei u ∶= vec(p,q), v ∶= vec(p, t), w ∶= vec(t,q), also d(p,q) = ∥u∥, d(p, t) = ∥v∥,d(t,q) = ∥w∥, dann ist u = v +w, also zeige: ∥u∥ = ∥v +w∥ ≤ ∥v∥ + ∥w∥.
p
q
t
vw
u
Es ist ∥v +w∥2 = (v + w) ∗ (v + w) = v ∗ v + 2v ∗ w + w ∗ w, und (∥v∥ + ∥w∥)2 =∥v∥2 + 2 ∥v∥ ⋅ ∥w∥+ ∥w∥2. Wegen CSU ist v∗w ≤ ∥v∥ ⋅ ∥w∥, woraus (wegen v∗ v = ∥v∥2und w ∗w = ∥w∥2) sofort ∥v +w∥2 ≤ (∥v∥ + ∥w∥)2 folgt, also ∥v +w∥ ≤ ∥v∥ + ∥w∥.
38
3.5 Elementargeometrie in euklidischen Vektorr�aumen
Eine Abbildung ϕ ∶ P → P hei�t Bewegung des EN, falls ϕ abstandstreu ist, das hei�t
d(ϕp,ϕq) = d(p,q)
f�ur alle p,q ∈ P, wobei d die euklidische Distanz sei.
3.16 Satz
Ist ϕ ∶ P → P Bewegung, dann ist
ψ ∶ RN → RN, v↦ ψv ∶= vec (ϕ(o),ϕ(P(v))),
wobei o ∶= P(�0) = (�0,Punkt) ∈ P, eine orthogonale Abbildung des EN.Fall P = RN: Sei ϕ a�n-orthogonal, falls ψv = −ϕ�0 + ϕv orthogonale Abbildung ψ
auf EN de�niert (−ϕ�0 Translationsanteil). A�n orthogonal entspricht dann einer
Bewegung im EN. 2
Vektorieller Punktraum Sei P"Punktmenge\ (Menge interpretiert als Punktmenge),
N endliche Menge, dann ist (P, vec,RN) vektorieller Punktraum (bzw. a�ner Raum),
falls vec ∶ P×P → RN vektorielle Abbildung auf (N (P,P×P),∗, id) ist, wobei N (P,P×P) ∶=(P,P × P, idP×P) das "logistische Netzwerk\ zu P sei.
Die Kanten von N (P,P×P) hei�en"syntaktische Vektoren\ zu P (also P×P Menge der
syntaktischen Vektoren) und P ist Menge von"Punkten". Es ist
(p, t) ∗ (t,q) ∶= (p,q)
das"Weglassprodukt\ von (p, t) mit (t,q) (syntaktische Verkettung zwischen syntakti-
schen Vektoren), idp ∶= (p,p)"synaktischer ID-Loop\ von p ∈ P, und (N (P,P × P),∗, id)
"syntaktischer Punktraum\ zu P.
t(t,q)
��>>>>>>>
p
(p,t)@@�������
(p,q)// q
Abbildung vec ∶ P × P → RN vektoriell bedeute, dass
vec ((p, t) ∗ (t,q)) = vec(p, t) + vec(t,q),
das hei�t vec(p,q) = vec(p, t) + vec(t,q), f�ur alle p, t,q ∈ P gilt (vec(p, t), vec(t,q) sind
"semantische Vektoren\, + ist semantische Verkettung zwischen semantischen Vektoren).
Ferner sei vec(p, ⋅) ∶ P → RN bijektiv f�ur jedes p ∈ P.Sei o ∈ P, vec(o, ⋅) bijektiv hei�t: Zu jedem v ∈ RN existiert genau ein p ∈ P mit
vec(o,p) = v. Notation: o + v =∶ p.
o
p = o+vv
39
3 Multilinearit�at und Determinanten
3.17 Beispiel
1. Sei P ∶= RN × {Punkt}, setze P(v) ∶= (v, Punkt), also P ∶ RN → P, v ↦ (v, Punkt) ist
Bijektion, und
vec ∶ P × P → RN, (P(v),P(w))↦ −v +w
ist vektoriell, denn vec(P(v),P(u)) + vec(P(u),P(w)) = (−v + u) + (−u + w) =−v + w = vec(P(v),P(w)) f�ur alle v,w ∈ Rn, und vec(P(v), ⋅) ∶ P → RN, P(w) ↦vec(P(v),P(w)) = −v +w ist bijektiv f�ur jedes feste v ∈ RN.
2."brutal\,
"hoch ambivalent\, Punkte vs (semantische) Vektoren: Sei P = RN, dann
vec ∶ P × P → RN, (p,q)↦ −p + q =∶ −→pq = vec(p,q)
ist vektoriell, da vec(p, t) + vec(t,q) = (−p + t) + (−t + q) = −p + q = vec(p,q) =vec((p, t) ∗ (t,q)) f�ur alle p,q, t ∈ P, und vec(p, ⋅) ∶ P → RN, q ↦ −p + q = vec(p,q)ist bijektiv f�ur jedes feste p ∈ P. 2
40
4 Charakteristisches Polynom
Ist α ∈ SP×P invertierbar in MatP S, wobei S Semiring, P endliche nichtleere Menge, so
hei�t α regul�ar. Es sei GLP S die Menge aller regul�aren Matrizen α ∈ SP×P.Sei S K�orper, f�ur γ ∈ (SP)P ist
rangγ ∶= Dim ⟨γ⟩ = Dim∑i∈PSγi = DimIm fγ,
dann rangα ∶= rang rα maximale Anzahl linear unabh�angiger Zeilenvektoren von α,
"Zeilenrang von α\. Es gilt rangα = rang cα "
Spaltenrang von α\, also"Zeilenrang =
Spaltenrang\.
Ausblick Sei P endliche nichtleere Menge. Eine bin�are Relation R auf P ist azyklisch,
falls das Netzwerk N (P,R) keine Kreise enth�alt. Ist R ∖ diagP azyklisch, so nennen wir R
fast azyklisch (hierbei bezeichnet diagP ∶= {(p,p) ∣ p ∈ P} die Diagonale von P).
Sei S Semiring. Eine Matrix α ∈ SP×P hei�t Trigonalmatrix, falls suppα ∶={(p,q) ∈ P × P ∣ α(p,q) ≠ 0} fast azyklisch ist. Man nennt α ∈ SP×P �ahnlich zu α ′ ∈ SP×Pin MatP S, falls ein β ∈ GLP S mit α∗β = β∗α ′ existiert. Eine Matrix ist trigonalisierbar,
falls sie �ahnlich zu einer Trigonalmatrix ist.
4.1 Satz
Ist S kommutativer Ring und α ∈ SP×P Trigonalmatrix, dann
detα =∏i∈Pα(i, i).
2
F�ur α# ∶= adjα Adjunkte zu α, also α#(j, i) = ⟨rα⟩i δPj , gilt
α ∗α# = detα ⋅ IP = α# ∗α.
Daher folgt: Ist α Trigonalmatrix, dann ist α regul�ar genau dann, wenn α(i, i) ∈ S× f�ur
alle i ∈ P ist, wobei S× die Menge der multiplikativ invertierbaren Elemente von S sei.
4.2 Satz
Sei S K�orper und α ∈ SP×P. Dann ist α trigonalisierbar genau dann, wenn das cha-
rakteristische Polynom χα in Linearfaktoren zerf�allt. 2
Ist S = C, dann hat jedes Polynom Nullstelle, zerf�allt also in Linearfaktoren. Insbeson-
dere zerf�allt χα in Linearfaktoren.
4.3 Korollar
Jede Matrix aus CP×P ist trigonalisierbar. 2
41
4 Charakteristisches Polynom
4.1 Aktionsnetzwerke und Faltungsalgebren
Was sind Polynome, was sind Matrizen?
Polynome Typische Antwort: Ein Polynom ist eine Abbildung von R in sich der Form
p ∶ R→ R, x↦n
∑i=0aix
i = a0 + a1x +⋯ + anxn,
wobei a0, . . . ,an ∈ R. Sie eignen sich zur Interpolation von n + 1"St�utzstellen\.
Mathematisch unbefriedigend: hier wird nur eingesetzt, die eigentliche Information ist
(a0,a1, . . . ,an) ∈ Rn+1, bzw. α ∶= (a0,a1, . . . ,an, 0, . . . ) ∈ R(N) (das hei�t suppα ∶={i ∈ N ∣ ai ≠ 0} ist endlich,
"reelle Folge mit endlichem Support\). Also ist
α = ∑i∈Naiδ
N
i ∶= ∑i∈suppα
αiδN
i
(interpretierbar als"Polynom\, α ∈ RN interpretierbar als formale Potenzreihe).
F�ur α ∈ R(N) ist α = α ∗ δN = ∑i∈Nαi ⋅ δNi = ∑i∈N aiδNi f�ur ai ∶= αi. Setze Xi ∶= δNi , dannist α ∈ R(N) gerade α = ∑i∈N aiXi, dabei ist aiXi das i-te Monom zu α. Es hei�t anX
n
Leitmonom von α und an Leitkoe�zient von α, falls n ∶=max(suppα).Einsetzen: W�ahle s ∈ R �x und ersetze Xi durch si, das hei�t N → R, i ↦ si. Ergebnis:
αs ∶= ∑i∈N aisi = ∑ni=0 aisi (dabei ist αs \abuse of notation").Eventuell klappt das auch f�ur α ∈ RN, also ist αs ∶= ∑i∈N aisi wohlde�niert (zum Beispiel
falls α konvergente Reihe).
Multiplikation von Polynomen ist noch zu kl�aren: Setze δNi ∗ δNj ∶= δNi+Nj, das hei�t
XiXj ∶= Xi ∗Xj ∶= Xi+j. F�ur α,β ∈ R(N) folgt durch Ausmultiplizieren:
α ∗β ∶= ∑(i,j)∈N×N
(aiδNi ) ∗ (bjδNj )
= ∑(i,j)∈N×N
aibj ⋅ δNi ∗ δNj = ∑(i,j)∈N×N
aibj ⋅ δNi+j
= ∑h∈N
( ∑(i,j)∈N×Ni+j=h
aibj) ⋅ δNh = ∑h∈N
( ∑i+j=h
aibj) ⋅ δNh (lax),
also (∑i∈N aiXi) ∗ (∑j∈N bjXj) = ∑h∈N (∑i+j=h aibj)Xh.
Matrizen Was ist eine Matrix? Typische Antwort:
Ein Schema (kein mathematisches Objekt im Sinne einer mengenbasierten Modellie-
rung), mit dem ich eine lineare Abbildung beschreiben kann (wenn ich Basen gegeben
habe). Das sieht so aus:
⎛⎜⎜⎝
a11 ⋯ a1n⋮ ⋮
am1 ⋯ amn
⎞⎟⎟⎠∈ Rm,n
(reelles Schema, reelle Matrix).
42
4.1 Aktionsnetzwerke und Faltungsalgebren
Ist also algebraisch modelliert eine Abbildung α ∶ [m]× [n]→ R, das hei�t α ∈ R[m]×[n].
Dabei [m] × [n] syntaktisches Schema von α, sowie (i, j) ∈ [m] × [n]"Position\ im syn-
taktischen Schema.
Verallgemeinerte Sicht jetzt m�oglich: W�ahle P und Q beliebige Mengen an Stelle von
[m] und [n], dann α ∶ P × Q → R reelle Matrix, wobei (P,Q) Paar von Indexmengen,
"formales (syntaktisches) Schema von α\ und P ×Q realisiertes (syntaktisches) Schema.
(Beachte: Falls P = ∅ ≠ Q, dann ist P ×Q = ∅, also ist Q nicht aus P ×Q rekonstruierbar,
wohl aber aus (P,Q); setze P ××Q ∶= (P,Q).)Matrix-Multiplikation: Zu α ∈ RP×T und β ∈ RT×Q ist α ∗β ∈ RP×Q de�niert als
(α ∗β)(p,q) ∶= ∑t∈Tα(p, t) ⋅β(t,q).
Speziell sei δP×T ∶ P × T → RP×T , (p, t)↦ δP×T(p,t), wobei
δP×T(p,t) ∶ P × T → R, (p ′, t ′) ↦⎧⎪⎪⎨⎪⎪⎩
1 (p ′, t ′) = (p, t),0 sonst,
Elementarmatrix zu (p, t). Dann gilt
(δP×T(p ′,t ′) ∗ δT×Q(t ′′,q ′′))(p,q) = ∑
t∈TδP×T(p ′,t ′)(p, t) ⋅ δ
T×Q(t ′′,q ′′)(t,q)
=⎧⎪⎪⎨⎪⎪⎩
1 p = p ′ ∧ t ′ = t ′′ ∧ q = q ′′,0 sonst,
das hei�t
δP×T(p ′,t ′) ∗ δT×Q(t ′′,q ′′) =
⎧⎪⎪⎨⎪⎪⎩
δP×Q(p ′,q ′′) f�ur t ′ = t ′′,0 sonst.
Ergebnis:
δP×T(p,t) ∗ δT×Q(t,q) = δ
P×Q(p,q).
Speziell f�ur P = T = Q ist δP×P(p,t) ∗ δP×P(t,q) = δ
P×P(p,q) = δ
P×P(p,t)∗(t,q), mit (p, t) ∗ (t,q) = (p,q)
dem Weglassprodukt im logistischen Netzwerk N (P,P × P).
Aktionsnetzwerke Zur Erinnerung, ein Netzwerk (gerichteter Multigraph) ist ein Tripel
G = (V,E,ρ), wobei V, E Mengen und ρ ∶ E → V × V Abbildung sind, setze ρe =∶ (σe,τe)f�ur alle e ∈ E, also sind σ,τ ∈ VE.
e
σeτe
Es bezeichne E⟨n⟩ ∶= {(e1, . . . ,en) ∈ EN ∣ τei = σei+1 f�ur alle i ∈ [n − 1]} die Pfade der
L�ange n in G.
43
4 Charakteristisches Polynom
4.4 Definition
G ∶= (G,∗, id) hei�t Aktionsnetzwerk, kurz ANW, falls G = (V,E,ρ) Netzwerk ist, sowie
∗ ∶ E⟨2⟩ → E, (a,b)↦ a ∗ b
und id ∶ V → E Abbildungen sind derart, dass gilt:
1. ρ(a∗b) = (σa,τb) = ρa∗ρb f�ur alle (a,b) ∈ E⟨2⟩, wobei ρa∗ρb Weglassprodukt im
logistischen Netzwerk:
ab
a ∗ b
2. (a ∗ b) ∗ c = a ∗ (b ∗ c) f�ur alle (a,b, c) ∈ E⟨3⟩ (Assoziativit�at):
ab
c
a ∗ b b ∗ c
(a ∗ b) ∗ c = a ∗ (b ∗ c)
3. ρ(idp) = (p,p) = idp (logistische Sicht) f�ur alle p ∈ V,"passiv in p sein\,
4. idp ∗ e = e = e ∗ idq f�ur alle e ∈ E und p ∶= σe, q ∶= τe ("Passivit�atsaxiom\):
e
pqidp
idq
2
Anmerkung: Die Elemente in E betrachten wir h�au�g als"Aktionen\ und a ∗ b ist die
(covariante) Verkettung der Aktion a mit der Aktion b ("erst a, dann b\) f�ur (a,b) ∈ E⟨2⟩.
Achtung: Die Verkettung ist nicht f�ur a,b mit τa ≠ σb de�niert.
4.5 Beispiel
1. Sei V Menge von Mengen, E Menge von Abbildungen f mit dom f, codom f ∈ Vund ∗ covariante Verkn�upfung von Abbildungen; f�ur P ∈ V ist idP ∶ P → P, x ↦ x,
idP ∶= idP. Bedingungen:a) {idP ∣ P ∈ V} ⊆ E ,
b) P, T ,Q ∈ E , P f−→ T g−→Q Abbildungen mit f,g ∈ E , so auch f ∗ g ∈ E .
2. Logistisches ANW zur Menge P:
GP ∶= (GP,∗, id) mit GP ∶= (P,P × P, idP×P) logistisches Netzwerk zu P, und
(p, t) ∗ (t,q) ∶= (p,q) f�ur alle p, t,q ∈ P Weglassprodukt, (syntaktische) Verket-
tung syntaktischer Vektoren (p, t) mit (t,q), sowie id ∶ P → P × P, p↦ (p,p).Jede transitive, re exive Relation R auf der Menge P (das hei�t (P,R) ist
Pr�aordnung) liefert ein ANW G(P,R) als Unterstruktur von GP.
44
4.1 Aktionsnetzwerke und Faltungsalgebren
3. Monoide als ANWe,"Schreibtischt�ater ANW\:
Ist M = (M,∗M, 1M) Monoid, so sei GM ∶= (GM,∗M, id) mit GM ∶= ({1M} ,M,ρ), woρ ∶ M → {1M}2, x ↦ (1M, 1M), und id ∶ {1M} → M, 1M ↦ 1M, das zu M geh�orige
ANW' "M als einknotiges ANW\.
●1M
id 1M
x
yx ∗M y
Umgekehrt induziert jedes einknotige ANW (das hei�t #V = 1) ein Monoid. 2
Anmerkung: ANWe hei�en auch kleine covariante Kategorien.
Faltungsalgebren Sei S Semiring und G = (G = (V,E,ρ),∗, id) ANW, dann betrachte
S(E) ∶= {u ∈ SE ∣ suppu endlich}, die Menge der endlichen Multimengen zu E �uber S, das
hei�t Menge der Kantenbewertungen von G mit endlichem Support.
4.6 Beispiel
Sei P = {p,q, t} und betrachte das logistische ANW GP = (N (P,P × P),∗, id), wobeiN (P,P × P) das logistische Netzwerk sei:
p
t
q
Sei R ∶= {(p, t), (t,q), (p,q), (p,p), (t, t), (q,q)} ⊆ P×P transitive re exive Relation auf P,
liefert ein ANW G(P,R) als Unterstruktur von GP. Beispiel f�ur u ∈ SE = NR (also S = N,E = R) ist dann:
3
2
0
4
1
2
2
4.7 Definition (Faltungsalgebra)
Sei S Semiring und G endlichknotiges ANW (das hei�t V ist endlich). Dann sei
S[G] ∶= (S(E),+,∗, 0, I)
mit + und ∗ zweistellige Operationen auf S(E), so dass (u + w)e ∶= ue + we f�ur alle
u,w ∈ S(E) und(u ∗w)e ∶= ∑
(c,d)∈E⟨2⟩
c∗d=e
uc ⋅wd
45
4 Charakteristisches Polynom
f�ur alle e ∈ E und u,w ∈ S(E) (die Faltung, \convolution" von u mit w, Split(e) ∶={(c,d) ∈ E⟨2⟩ ∣ c ∗ d = e} der Split von e),
e
c d
(u ∗w)e
uc wd
sowie 0 ∶ E→ S, e↦ 0, und
I ∶ E→ S, e↦⎧⎪⎪⎨⎪⎪⎩
1 f�ur e ∈ idV,0 sonst;
es hei�t S[G] die Faltungsalgebra von G �uber S. 2
Also lax: (u ∗w)e = ∑c∗d=e uc ⋅wd.Wichtig sind Rtrop und Rarc in der Optimierung, zum Beispiel f�ur S = Rtrop ist (u∗w)e =
min(c,d)∈Split(e)(uc +wd).
Ist S[G] Faltungsalgebra, dann ist
(δEa ∗ δEb)e = ∑(c,d)∈Split(e)
δEac ⋅ δEbd =⎧⎪⎪⎨⎪⎪⎩
1 f�ur (a,b) ∈ Split(e),0 sonst,
denn der Fall a = c ∧ b = d tritt auf, falls (a,b) ∈ Split(e). Das hei�t
δEa ∗ δEb = δEa∗b f�ur alle (a,b) ∈ E⟨2⟩,
sowie δEa ∗ δEb = 0, falls (a,b) ∈ E2 mit τa ≠ σb.F�ur u,v ∈ S(E) ist dann
u ∗w = ∑(c,d)∈E2
uc ⋅wd ⋅ (δEc ∗ δEd),
wegen u = ∑c∈E uc ⋅ δEc , w = ∑d∈Ewd ⋅ δEd und der Distributivit�at von ∗ bez�uglich +.
4.8 Satz
Es ist S[G] ein Semiring f�ur jedes echt knotenendliche ANW G (das hei�t V endlich
und V ≠ ∅) und jeden Semiring S. 2
Zum Beispiel Assoziativit�at: Sei (a,b, c) ∈ E⟨3⟩, dann (δEa ∗ δEb) ∗ δEc = δEa∗b ∗ δEc =δE(a∗b)∗c = δ
Ea∗(b∗c) = δ
Ea ∗ δEb∗c = δEa ∗ (δEb ∗ δEc ); gilt auch allgemein (�Ubung).
Zum Beispiel (u ∗ I)e = ∑(c,d)∈Split(e) uc ⋅ I(d) = ue, denn I(d) = 1 falls d = idq, das
hei�t q = τe, und c = c ∗ idq = c ∗ d = e; also u ∗ I = u.4.9 Beispiel
1. Sei P endliche nichtleere Menge. F�ur jeden Semiring S gilt
S[GP] = MatP S.
46
4.1 Aktionsnetzwerke und Faltungsalgebren
Begr�undung: Sei u,w ∈ SP×P, hier E = P×P Kantenmenge. Ist e = (p,q) ∈ P×P, dannist Split(e) = {((p, t), (t,q)) ∣ t ∈ P}, also ist (u ∗ w)(p,q) = ∑t∈P u(p, t) ⋅ w(t,q)Matrizenprodukt, und I(p,q) = 1 f�ur p = q (idp = (p,p)), I(p,q) = 0 sonst, I ist
Einheitsmatrix.
2. Sei G = G(N,+, 0) = GNadd und S kommutativer Semiring, also N = E, {0} = V. F�uru,w ∈ S(N) ist
(u ∗w)k = ∑(i,j)∈N×Ni+j=k
ui ⋅wj
(denn Split(k) = {(i, j) ∈ N ×N ∣ i + j = k}), also gilt u ∗w = ∑k∈N (∑i+j=k ui ⋅wj)Xkf�ur Xk ∶= δNk . Ergebnis: S[G] = S[X] Polynomsemiring in X.
3. Sei M = (M,∗M, 1M) Monoid, S kommutativer Semiring,
(u ∗w)x = ∑(y,z)∈M×Mx=y∗Mz
uy ⋅wz.
Dann ist S[M] ∶= S[GM] der sogenannte Monoidsemiring zu M �uber S.
Speziell f�ur M = N(P)add
setze XP ∶= δMp , dann S[M] =∶ S[(Xp)p∈P] Polynomsemiring in
(Xp)p∈P, "multivariate Polynome\ sind Elemente u ∈ S(M).
Ber�uhmter Fall: S = C, M bilde Gruppe, dann C[M] komplexer Gruppenring zu M.2
Einsetzungsmorphismus Anwendung:"Einsetzen in Polynome\.
Eine Algebra A �uber einem kommutativen Semiring S (auch S-Algebra) ist ein S-Modul
mit Multiplikation, so dass (A,+, ⋅, 0, 1) Semiring ist, sowie s ⋅(a ⋅Ab) = (s ⋅a) ⋅Ab = a ⋅A(s ⋅b)f�ur alle s ∈ S und a,b ∈ A. Insbesondere ist S[G] Algebra �uber S f�ur jedes echt endlich-
knotiges ANW G.
4.10 Satz (Einsetzungsmorphismen)
Sei ϕ ∶ M → Amult Monoidmorphismus, wobei A Algebra �uber kommutativen Semi-
ring S sei. Dann existiert genau ein Algebramorphismus ψ ∶ S[M] → A (das hei�t ψ
ist S-linear und ein Semiringmorphismus) mit ψ ○ δM = ϕ, das hei�t:
Mϕ //
δM
��///
Amult
idA
��S[M]
∃!ψ// A
2
Es sei ψ der Einsetzungsmorphismus f�ur ϕ, \evalution morphism"; also ψ regelt das
Einsetzen von ϕ in jedes u ∈ S(M). Explizit ist
ψ ∶ S(M) → A, u↦ u ∗ϕ mit u ∗ϕ ∶= ∑x∈M
ux ⋅ϕx ∈ A.
Wir schreiben u(ϕ) ∶= u∗ϕ = ∑x∈M ux ⋅ϕx, "u(ϕ) ist die Einsetzung von ϕ in u ∈ S(M)\.
47
4 Charakteristisches Polynom
Beispiel: Sei ϕ ein Charakter von (Z12)add, das hei�t ϕ ∶ (Z12)add = (12,+, 0)→ C×mult =(C×, ⋅, 1) ist Gruppenmorphismus; induziert Monoidmorphismus, da ϕx = ϕ(0 + x) = ϕ0 ⋅ϕx, also ϕ0 = 1. Zum Beispiel a↦ ea(2π/12)i, also 0↦ 1 und 1↦ e(2π/12)i (30○).Beweis
Zeige ψ(u ∗ w) = ψu ⋅A ψw f�ur alle u,w ∈ S(E) (Rest: �Ubung). Begr�undung: Wegen
(u ∗w)x = ∑(y,z)∶y∗Mz=x uy ⋅wz und ϕ(y ∗M z) = ϕy ⋅A ϕz ist
ψ(u ∗w) = (u ∗w) ∗ϕ = ∑x∈M
(u ∗w)x ⋅ϕx
= ∑x∈M
∑(y,z)∈M×My∗Mz=x
(uy ⋅wz) ⋅ϕ(y ∗M z)
= ∑(y,z)∈M×M
(uy ⋅wz) ⋅ (ϕy ⋅A ϕz)
= ∑(y,z)∈M×M
(uy ⋅ϕy) ⋅A (wz ⋅ϕz)
= ( ∑y∈M
uy ⋅ϕy) ⋅A ( ∑z∈M
wz ⋅ϕz)
= (u ∗ϕ) ⋅A (w ∗ϕ) = ψu ⋅A ψw,
das hei�t ψ(u ∗w) = ψu ⋅A ψw. ∎
Es ist ψ(δMi ) = ϕi f�ur alle i ∈M, also u = ∑i∈M uiδMiψ↦ u(ϕ) ∶= ∑i∈M ui ⋅ϕi f�ur jedes
u ∈ S(M),"Einsetzen von ϕ\. Setzt man Xi ∶= δMi und ϕi ∶= ϕi f�ur alle i ∈M (mit Vorsicht
zu genie�en), so gilt
∑i∈M
uiXi ψ↦ ∑
i∈Muiϕ
i.
Wichtige Anwendung: Sei M = Nadd = (N,+, 0). W�ahle a ∈ A �x. Dann ist
[a] ∶ N→ A, i↦ ai
Monoidmorphismus von Nadd nach Amult. Die Einsetzung von a in u ∈ S[X] = S[Nadd]ist dann gerade u(a) = ∑uiai, das hei�t u(a) ⋅A w(a) = (u ∗ w)a f�ur u = ∑i∈N uiXi,w = ∑i∈NwiXi in S[X].Es ist uA ∶ A→ A, a↦ u(a) die Polynomfunktion zum Polynom u ∈ S[X]. Im Fall A = S
ist also uS ∶ S→ S, s↦ u(s) = ∑i∈N uisi die Polynomfunktion zum Polynom u ∈ S[X].
Produkt von Aktionsnetzwerken4.11 Definition
Seien G,G ′ ANWe. Dann sei
G ×G ′ ∶= (G ×G ′,∗, id)
de�niert via G×G ′ ∶= (V ×V ′,E×E ′,ρ) mit ρ(e,e ′) ∶= ((σe,σ ′e ′), (τe,τ ′e ′)) und (a,a ′)∗(b,b ′) ∶= (a ∗ b,a ′ ∗ b ′) f�ur ((a,a ′), (b,b ′)) ∈ (E × E ′)⟨2⟩.Es ist G ×G ′ ebenfalls ANW, das sogenannte Produkt von G mit G ′. 2
48
4.2 Eigenwerte, Eigenvektoren
4.12 Satz
Sei S Semiring, seien G,G ′ echt knotenendliche ANWe. Dann gilt:
1. (S[G])[G ′] ≅ S[G ×G ′],
2. S[G ×G ′] ≅ S[G ′ ×G]. 2
Beweisidee: Sei S ′ ∶= S[G]. F�ur u ′ ∈ S ′(E ′) (das hei�t u ′ ∈ (S[G])[G ′]) ist dann u ′e ′ =∑e∈E(u ′e ′)e ⋅ δEe . Setze ~u(e,e ′) ∶= (u ′e ′)e f�ur alle (e,e ′) ∈ E × E ′, also ~u ∶=mTu ′ ∈ SE×E ′ .Dann ist u ′ ↦ ~u Isomorphismus von (S[G])[G ′] nach S[G ×G ′].Anwendung: G ∶= GNadd, G
′ ∶= GN, S kommutativer Semiring, N ≠ ∅ endlich. Dann
MatN(S[X]) ≅ (MatN S)[X]
(Matrizen von Polynomen vs Polynome von Matrizen).
4.2 Eigenwerte, Eigenvektoren
SeiM Modul �uber einem kommutativen Ring S und sei ϕ ∈ EndM. F�ur v ∈M und s ∈ Sist v
"Eigenvektor zum Eigenwert s bez�uglich ϕ\, falls ϕv = s ⋅ v gilt.
4.13 Definition
Es ist s ∈ S Eigenwert von ϕ, falls ein v ∈M∖{�0} mit ϕv = s ⋅v existiert; ferner bezeichneEigValue(ϕ) die Menge der Eigenwerte von ϕ. Es ist v ∈M Eigenvektor von ϕ, falls v ≠ �0ist und ein s ∈ S mit ϕv = s ⋅ v existiert. F�ur s ∈ S sei
Eig(ϕ, s) ∶= {v ∈M ∣ ϕv = s ⋅ v} ,
und ist s Eigenwert von ϕ, so hei�t Eig(ϕ, s) Eigenraum von ϕ zu s. Gilt ∑s∈SEig(ϕ, s) =M, so hat ϕ eine Eigenraumzerlegung (Eig(ϕ, s) ∣ s ∈ EigValue(ϕ)). 2
Es ist U ∈ LM ein ϕ-invarianter Unterraum, falls ϕU ⊆ U gilt.
4.14 Bemerkung
F�ur ϕ ∈ EndM gilt:
� Eig(ϕ, s) = Ker(s ⋅ idM −ϕ) f�ur alle s ∈ S.
� Eig(ϕ, r) ∩Eig(ϕ, s) = {�0} f�ur r, s ∈ S mit r ≠ s, falls S K�orper ist.
� Eig(ϕ, s) ist ϕ-invariant f�ur alle s ∈ S.
� Existiert eine Basis η ∶ P →M vonM bestehend aus Eigenvektoren von ϕ (das hei�t
ηp ist Eigenvektor von ϕ f�ur jedes p ∈ P), so ist ϕ diagonalisierbar. In diesem Fall
hat ϕ eine Eigenraumzerlegung. 2
4.15 Definition
Sei S kommutativer Ring, N ≠ ∅ endlich und α ∈ SN×N. Dann hei�t
χα ∶= det(X ⋅ IN −α) ∈ S[X]
das charakteristische Polynom von α. 2
49
4 Charakteristisches Polynom
4.16 Proposition
F�ur das charakteristische Polynom von α ∈ SN×N gilt
χα =n
∑k=0
(−1)k ⋅ ( ∑J∈(N
k)detαJ) ⋅Xn−k ,
wobei n ∶=#N, (Nk) ∶= {J ∈ 2N ∣ #J = k} und αJ ∶= α∣ J × J. 2
Zum Beispiel f�ur n = 2 und α = (a bc d
) erhalten wir χα = X2 − (a + d)X + (ad − bc).
Beweis
Zun�achst"Determinante einer Summe\. F�ur α,β ∈ SN×N gilt nach der Leibniz-Formel
det(α +β) = ∑σ∈SymN
sgnσ ⋅ λσ f�ur λσ ∶= ∏i∈N
(α(i,σi) +β(i,σi)) .
Dabei ist λσ = ∑J∈2N λ(σ, J) f�ur λ(σ, J) ∶=∏i∈Jα(i,σi) ⋅∏i∈N∖Jβ(i,σi), und es folgt
det(α +β) = ∑σ∈SymN
∑J∈2N
sgnσ ⋅ λ(σ, J) = ∑J∈2N
∑σ∈SymN
sgnσ ⋅ λ(σ, J) .
Speziell f�ur β = X ⋅ IN ∈ (S[X])N×N und σ ∈ SymN, J ∈ 2N ergibt sich
∏i∈N∖J
β(i,σi) =⎧⎪⎪⎨⎪⎪⎩
X#(N∖J) falls N ∖ J ⊆ {i ∈N ∣ σi = i} ,0 sonst.
Somit ist
λ(σ, J) =⎧⎪⎪⎨⎪⎪⎩
∏i∈Jα(i,σi) ⋅X#(N∖J) falls N ∖ J ⊆ {i ∈N ∣ σi = i} ,0 sonst,
woraus folgt
∑σ∈SymN
sgnσ ⋅ λ(G, J) = (detαJ) ⋅X#(N∖J) .
Also gilt
det(α +X ⋅ IN) = ∑J∈2N
(detαJ) ⋅Xn−#J =n
∑k=0
( ∑J∈(N
k)detαJ) ⋅Xn−k ,
woraus mit χα = det(X ⋅ IN −α) leicht die Behauptung folgt. ∎
4.17 Bemerkung
Seien S,N,α wie oben.
1. Ist α ′ ∈ SN×N �ahnlich zu α, so ist χα ′ = χα.
2. Ist S K�orper, so ist λ ∈ S Nullstelle von χα genau dann, wenn λ Eigenwert von α. 2
50
4.3 Caley-Hamilton, Jordan-Normalform
4.18 Definition
Sei S K�orper, N ≠ ∅ endlich und α ∈ SN×N. Ist λ Eigenwert von α, so ist
� Dimension von Eig(α,λ) ∶= {v ∈ SN ∣ v ∗α = λ ⋅ v} die geometrische Vielfachheit,
� gr�o�tes k ∈ N+ mit χα = (X − λ)k ⋅ f f�ur ein f ∈ S[X] die algebraische Vielfachheit
von λ bez�uglich α. 2
4.19 Bemerkung
Es ist (bez�uglich α) die geometrische Vielfachheit von λ immer kleiner oder gleich der
algebraischen Vielfachheit von λ. 2
4.3 Caley-Hamilton, Jordan-Normalform
4.20 Satz (Cayley-Hamilton)
Sei S kommutativer Ring, N ≠ ∅ endlich. Dann gilt f�ur α ∈ SN×N stets
χα(α) = 0,
wobei χα ∶= det(X ⋅ IN −α) ∈ S[X] und X ⋅ IN −α ∈MatN S[X] ≡ (MatN S)[X]. 2
Zum Beweis:
4.21 Lemma
Sei α ∈MatN S und u ∈ S[X]. Dann folgt aus (X⋅IN−α)∗γ = u⋅IN f�ur ein γ ∈MatN S[X]bereits u(α) = 0. 2
Anwendung: Sei γ ∶= (X ⋅IN−α)# die Adjunkte zu X ⋅IN−α und u ∶= det(X ⋅IN−α) = χα.Also ist (X ⋅ IN −α) ∗ (X ⋅ IN −α)# = χα ⋅ IN, und somit ist χα(α) = 0.Zu zeigen bleibt das Lemma.
Beweis (Lemma)
Links: (X ⋅ IN − α) ∗ γ = ∑k∈N(γkXk+1 − α ∗ γkXk) = ∑k∈N γk−1Xk − ∑k∈Nα ∗ γkXk, daγ = ∑k∈N γkXk und γ−1 ∶= 0.Rechts: u ⋅ IN = ∑k∈N ukXk ⋅ IN = ∑k∈N ukIN ⋅Xk.Koe�zientenvergleich ergibt: γk−1 −α ∗ γk = ukIN f�ur alle k ∈ N.Es folgt αk ∗γk−1−αk+1 ∗γk = ukαk f�ur alle k ∈ N. Summiere, also 0 = ∑k∈N ak ∗γk−1−
∑k∈Nαk+1 ∗ γk = ∑k∈N ukαk = u(α). ∎
Anwendungen"Charakteristisches Polynom\.
4.22 Satz
Sei S K�orper, N ≠ ∅ endlich, α ∈ MatN S. Dann gilt: α ist trigonalisierbar (�ahnlich
zu einer Trigonalmatrix) genau dann, wenn χα in Linearfaktoren zerf�allt, das hei�t
χα =∏i∈N(X − λi) f�ur ein λ ∈ SN. 2
Beweis
"⇒\: Sei α �ahnlich zu α ′ mit α ′ Trigonalmatrix. Dann ist χα = χα ′ = det(X ⋅ IN − α ′) =∏i∈N(X −α ′(i, i)).
51
4 Charakteristisches Polynom
"⇐\: Sei χα = ∏i∈N(X − λi), sei j ∈ N fest, χα(λj) = 0. Dann gibt es vj ∈ SN ∖ {�0}
mit fα(vj) = vj ∗ α = λjvj, das hei�t vj ist Eigenvektor. Spalte auf in Svj ⊕U = SN mit
fα(U) ⊆ U. Induktion nach #N.
(Erster Beweisversuch, so klappt's nicht! Gegenbeispiel α = (0 1
0 0), . . . ) ∎
4.23 Korollar
Jede Matrix in MatNC ist trigonalisierbar (da C algebraisch abgeschlossen, das hei�t
jedes Polynom zerf�allt in Linearfaktoren). 2
Jordansche Normalform Sei N = [n], n ∈ N+, S K�orper. Zu 1 ≤m ≤ n und λ ∈ S sei
J(λ,m) =
⎛⎜⎜⎜⎜⎜⎜⎜⎝
λ 0
1 ⋱ ⋱ 0
⋱ ⋱ ⋱0 ⋱ λ 0
1 λ
⎞⎟⎟⎟⎟⎟⎟⎟⎠
∈ S[m]×[m]
("einfache Gestalt\) die Jordanmatrix (evtl. transponieren, wenn kontravariante Sicht).
4.24 Satz
Zerf�allt χα f�ur α ∈ MatN S in Linearfaktoren, dann existiert eine zu α �ahnliche
Matrix α ′ (das hei�t α ∗β = β ∗α ′ mit β invertierbar) der Form
⎛⎜⎜⎝
J(λ1,m1) 0
⋱0 J(λk,mk)
⎞⎟⎟⎠,
wobei m1 + ⋅ ⋅ ⋅ +mk = n und λi ∈ S, "fast Diagonalgestalt\. 2
Liften:"orthogonal in C\ hei�t unit�ar: Zu x,y ∈ CN sei
⟨x,y⟩ ∶= ∑i∈N
xi�yi = x ∗ �y,
wo �yi ∶= yi; zu s = s1 + is2 ∈ C sei dabei �s = s1 − is2 die konjugiert komplexe Zahl zu s,
dann s ⋅ �s = ∣s∣2, denn (s1 + is2)(s − is2) = s21 − i2s22 = s21 + s22.Dann ⟨λx,y⟩ = λ ⟨x,y⟩, ⟨x,λy⟩ = �λ ⟨x,y⟩;
√x ∗ �x = ∥x∥, λx ∗ λx = λ�λ ⋅ x ∗ x, also ∥λx∥ =
∣λ∣ ⋅ ∥x∥. Sei x ⊥ y⇔ ⟨x,y⟩ = 0⇔ x ∗ �y = 0 (x unit�ar orthogonal zu y).
Orthogonale Gruppe wird zur unit�aren Gruppe: α ∗ αT = IN, das hei�t α orthogonal,
entspricht α ∗α∗ = IN, das hei�t α unit�ar, wobei α∗ = �αT .
52