Upload
dotuyen
View
214
Download
0
Embed Size (px)
Citation preview
UNIVERSITA DEGLI STUDI DI FERRARA
FACOLTA DI SCIENZE MATEMATICHE, FISICHE E
NATURALI
Corso di Laurea Triennale in Matematica
Indirizzo Modelli Matematici per l’Economia
RAPPRESENTAZIONI DI GRUPPIE
APPLICAZIONI IN STATISTICA
Relatore:Chiar.mo Prof.Josef Eschgfaller
Laureanda:Valentina Elisa Vitale
Anno Accademico 2009-2010
Indice
Introduzione 3
1. Il teorema di Maschke 5
2. Il lemma di Schur 14
3. Teoremi di ortogonalita per i coefficienti 17
4. Il teorema di Burnside 20
5. Tavole dei caratteri 31
6. Le rappresentazioni irriducibili di S3 35
7. Caratteri di gruppi abeliani finiti 38
8. Esempi di tavole dei caratteri 41
9. Un criterio di irriducibilita 43
10. Interi algebrici 44
11. Il teorema della dimensione 49
12. Applicazioni in statistica 52
Bibliografia 55
1
2
Introduzione
La tesi tratta una parte della teoria delle rappresentazioni dei grup-pi finiti accennando nell’ultimo capitolo alle possibili applicazioni alla
statistica e al calcolo delle probabilita . E costituita da dodici capitoli.
Nel primo vengono definiti i concetti fondamentali per il resto del-
la tesi; vengono infatti date le definizioni di rappresentazioni di ungruppo finito su spazi vettoriali in C e rappresentazioni matriciali digruppi. Inoltre, molto importante e la definizione di rappresentazio-
ne irriducibile. Alla fine viene enunciato e dimostrato il teorema diMaschke, che afferma che una rappresentazione di un gruppo su uno
spazio vettoriale di dimensione finita e completamente riducibile.
Nel secondo capitolo si dimostra il lemma di Schur riguardante le
rappresentazioni irriducibili che sta alla base delle relazioni di orto-gonalita discusse nei capitoli successivi. Di seguito e stato dimostratoche se G possiede una rappresentazione irriducibile iniettiva, alloraZ(G) e un gruppo ciclico e di conseguenza se G e un gruppo abeliano
non ciclico, allora G non possiede rappresentazioni irriducibili inietti-ve.
Nel terzo capitolo viene introdotto il concetto di coefficiente di unarappresentazione matriciale e si ottengono i teoremi di ortogonalitatra i coefficienti. Da esso segue che esiste un solo numero finito di rap-
presentazioni irriducibili non equivalenti di G. Inoltre si definisce un
sistema di Burnside di G come una sequenza (R1, . . . , Rκ) di rappre-
sentazioni matriciali irriducibili e unitarie non equivalenti di cui con(n1, . . . , nκ) denotiamo il vettore delle dimensioni. Viene poi dimostra-
to cheκ∑
α=1
n2α ≤ |G|. Tutto cio da la base per poter dimostrare, attra-
verso la teoria dei caratteri che verra trattata nel quarto capitolo, cheκ∑
α=1
n2α = |G|.
Nel capitolo 4 si richiamano il concetto di traccia di una matrice e lesue proprieta, perche da quest’ultime si deduce che rappresentazioni
di dimensione finita equivalenti possiedono la stessa traccia. Cio che
si dimostrera in questo capitolo e che viceversa 2 rappresentazioni di
dimensione finita che hanno la stessa traccia sono equivalenti. Inol-tre si definisce il concetto di carattere di un gruppo finito G come una
funzione χ : G −→ C tale che esiste una rappresentazione irriducibile(matriciale o su uno spazio vettoriale) R tale che χ = trR. Dunque
i caratteri sono le tracce delle rappresentazioni irriducibili di G. Con
l’introduzione dell’algebra di gruppo (CG,+, ∗) di G e la definizionedi rappresentazione regolare L : G −→ GL(CG) e stato possibile di-
mostrare il teorema di Burside secondo il qualeκ∑
α=1
n2α = |G| e che i
coefficienti Rijα, introdotti nel capitolo precedente, formano una base
ortogonale di CG, per cui in particolare per ogni funzione f : G −→ G
esiste una rappresentazione f =κ∑
α=1
nα∑i=1
nα∑j=1
λijαR
ijα, con λi
jα ∈ C univo-
3
camente determinati e direttamente calcolabili.
Nel quinto capitolo si lavora sui sistemi di Burnside di G, viene de-
finito il concetto di funzione delle classi. Verra inoltre dimostrato cheogni carattere e una funzione delle classi. Per poi arrivare a dimostra-
re un teorema che afferma che κ coincide con il numero delle classi diG. Cio ha due importanti applicazioni:
(1) Siccome e facile determinare il numero delle classi di G, si puofacilmente calcolare il numero delle rappresentazioni irriducibili di G.
(2) La costruzione delle tavole dei caratteri.
Nel sesto capitolo, vengono determinate le rappresentazioni irridu-
cibili di S3 e la tavola dei caratteri.
Nei capitoli 7 e 8 vengono trattati i caratteri dei gruppi abeliani fini-
ti. In particolare nel settimo capitolo si da la definizione di carattere
di un gruppo abeliano finito, si denota con G il gruppo dei caratteri di
G. Viene dimostrato che G e isomorfo a G. Mentre nell’ottavo capitolosono state compilate le tavole dei caratteri di alcuni gruppi abelianifiniti: Z/2,Z/3,Z/4,Z/5,Z/6, V4, S3.
Nel nono capitolo troveremo un criterio di irriducibilita attraversoun teorema che afferma che una rappresentazione R di G di dimensio-
ne finita e irriducibile se e solo se ‖ trR‖2 = |G|.
Nei capitoli 10 e 11 si sviluppano alcuni richiami all’algebra sugli
interi algebrici perche si vuole dimostrare che, se (R1, . . . , Rκ) e unsistema di Burnside di un gruppo finito G e (n1, . . . , nκ) il vettore delle
dimensioni, allora nα divide |G|.
L’ultimo capitolo da l’idea dell’applicazione della teoria delle rappre-
sentazioni dei gruppi finiti in statistica e calcolo delle probabilita .Viene fornito un esempio di un’indagine di mercato nella quale 1200persone hanno scelto, su 3 prodotti proposti, una graduatoria prefe-renziale.
4
1. Il teorema di Maschke
Situazione 1.1. Sia G un gruppo finito.
Definizione 1.2. K sia un campo.
(1) Denotiamo con Kn l’insieme dei vettori colonna su K con n ele-
menti e con Km l’insieme dei vettori riga su K con m elementi.
(2) Knm sia l’insieme delle matrici su K aventi n righe e m colonne.
Identifichiamo Kn1 con Kn e K1
m con Km.
(3) GL(n,K) sia il gruppo delle matrici invertibili in Knn .
Denotiamo con δ l’elemento neutro di GL(n,K), cioe la matrice
identita n× n.
(4) Per uno spazio vettoriale V su K sia GL(V ) il gruppo delle ap-
plicazioni lineari invertibili V −→ V .
Denotiamo con id l’applicazione identita.
Definizione 1.3.
(1) V sia uno spazio vettoriale su C.
Una rappresentazione di G in V e un omomorfismo di gruppi
R : G −→ GL(V ).La rappresentazione si dice di dimensione finita, se dimV < ∞.
(2) Una rappresentazione matriciale di rango n di G e un omomor-
fismo di gruppi R : G −→ GL(n,C).Anche in questo caso diremo spesso semplicemente che R e una
rappresentazione.
Osservazione 1.4. Si possono naturalmente anche definire in modo
analogo rappresentazioni in spazi vettoriali o tramite matrici su un
campo arbitrario; in tal caso le rappresentazioni su C introdotte in 1.3
vengono dette rappresentazioni ordinarie.
Situazione 1.5.
(1) Sia V uno spazio vettoriale di dimensione finita n su C ed
R : G −→ GL(V ) una rappresentazione.
Scegliendo una base di V ad ogni g ∈ G corrisponde una matrice
invertibile S(g) ed e immediato che l’applicazione
S : G −→ GL(n,C) e una rappresentazione matriciale.
(2) Se viceversa S : G −→ GL(n,C) e una rappresentazione ma-
triciale, definendo R(g) := ©xS(g)x : Cn −→ Cn otteniamo una
rappresentazione R : G −→ GL(Cn).
Definizione 1.6. Una rappresentazione matriciale R : G −→ GL(n,C)si dice reale, se le matrici R(g) sono tutte reali.
In tal caso scriveremo anche R : G −→ GL(n,R).
Definizione 1.7. Una rappresentazione R : G −→ GL(n,C) si dice
unitaria, se le matrici R(g) sono tutte unitarie.
Una rappresentazione R : G −→ GL(n,R) si dice ortogonale, se le
matrici R(g) sono tutte ortogonali.
5
Definizione 1.8. V e W siano spazi vettoriali su C. Due rappresanta-
zioni R : G −→ GL(V ) ed S : G −→ GL(W ) si dicono equivalenti, se
esiste un isomorfismo ϕ : V −→ W tale che il diagramma
VR(g)
//
ϕ
��
V
ϕ
��
WS(g)
// W
sia commutativo per ogni g ∈ G, cioe tale che si abbia
S(g) = ϕ ◦R(g) ◦ ϕ−1 per ogni g ∈ G.
Definizione 1.9. Due rappresentazioni matriciali R : G −→ GL(n,C)ed S : G −→ GL(n,C) si dicono equivalenti se esiste una matrice
T ∈ GL(n,C) tale che S(g) = TR(g)T−1 per ogni g ∈ G.
E chiaro che cio accade se e solo se le rappresentazioni
©g©xR(g)x : Cn −→ Cn e ©
g©xS(g)x : Cn −→ Cn
sono equivalenti nel senso della definizione 1.8.
Definizione 1.10. K sia un campo e V uno spazio vettoriale su K. Per
E = (e1, . . . , en) con e1, . . . , en ∈ V ed x ∈ Kn poniamo
Ex := x1e1 + . . .+ xnen. Se E e una base di V , per ogni v ∈ V esiste un
unico x ∈ Kn tale che v = Ex.
Se inoltre ϕ : V −→ V e un’applicazione lineare, allora ϕv = EAx,
dove A ∈ Knn e la matrice associata a ϕ rispetto alla base E (che infatti
puo essere definita in questo modo). Poniamo ϕE := (ϕe1, . . . , ϕen).Osserviamo in particolare che ei = Eδi e quindi ϕei = EAi per ogni i.
Per dettagli su questa notazione rimandiamo a Paset, pagg. 36-40.
Definizione 1.11. Sia V uno spazio vettoriale su C e ‖‖ un prodotto
scalare su V . E = (e1, . . . , en) sia una base di V. Allora definiamo la
matrice fondamentale (o di Gram) ‖E,E‖ ponendo
‖E,E‖ij := ‖ei, ej‖
La base E e quindi ortonormale rispetto a ‖‖ se e solo se ‖E,E‖ = δ.
Definizione 1.12. V sia uno spazio vettoriale su C e ‖‖ un prodotto
scalare su V . Un’applicazione lineare ϕ : V −→ V si dice unitaria
rispetto a ‖‖, se ‖ϕv, ϕw‖ = ‖v, w‖ per ogni v, w ∈ V .
Lemma 1.13. V sia uno spazio vettoriale su C e ‖‖ un prodotto scalare
su V . ϕ : V −→ V sia un’applicazione lineare, E = (e1, . . . , en) una base
di V ed A ∈ Cnn la matrice associata a ϕ rispetto alla base E. Allora
‖ϕE,ϕE‖ = At‖E,E‖A
Dimostrazione. Per ogni i,j abbiamo
6
‖ϕei, ϕej‖ = ‖EAi, EAj‖ = ‖∑
α
Aαi eα,
∑
β
Aβj eβ‖
=∑
α
∑
β
Aαi A
βj ‖eα, eβ‖ =
∑
α
∑
β
(At)iα‖E,E‖αβAβj
= (At‖E,E‖αβA)ij
Corollario 1.14. V sia uno spazio vettoriale su C e ‖‖ un prodotto
scalare su V . ϕ : V −→ V sia un’applicazione lineare.
E = (e1, . . . , en) sia una base ortonormale rispetto a ‖‖ ed A la matri-
ce di ϕ rispetto ad E. Allora sono equivalenti:
(1) ϕ e unitaria rispetto a ‖‖.
(2) La matrice A e unitaria, cioe A∗A = δ.
Dimostrazione. Per ipotesi ‖E,E‖ = δ.
Nel lemma 1.13 abbiamo quindi ‖ϕE,ϕE‖ = AtA. Ma ϕ e unitaria
se e solo se ‖ϕE,ϕE‖ = ‖E,E‖ = δ, e quindi se e solo se AtA = δ.
Ma cio a sua volta e equivalente ad A∗A = δ come si vede formando il
complesso coniugato.
Osservazione 1.15. R : G −→ GL(n,C) sia una rappresentazione e ‖‖il prodotto scalare comune su Cn. Per x, y ∈ Cn definiamo
‖x, y‖R :=∑
g∈G
‖R(g)x,R(g)y‖
Allora:
(1) ‖‖R e un prodotto scalare su Cn.
(2) Per ogni g ∈ G l’applicazione ©xR(g)x e unitaria rispetto a ‖‖R.
Dimostrazione. (1) E immediato che ‖‖R e sesquilineare.
Per ogni x ∈ C inoltre ‖x, x‖R =∑
g∈G
‖R(g)x,R(g)y‖ ≥ 0, siccome ogni
sommando e ≥ 0. Per la stessa ragione, se ‖x, x‖ = 0 necessariamente
‖R(g)x,R(g)x‖ = 0 per ogni g ∈ G e quindi x = 0, come si vede ad
esempio prendendo g = 1G.
(2) Per x, y ∈ Cn e g ∈ G
‖R(g)x,R(g)y‖R =∑
h∈G
‖R(h)R(g)x,R(h)R(g)y‖ =
=∑
h∈G
‖R(hg)x,R(hg)y‖ =∑
h∈G
‖R(h)x,R(h)y‖ = ‖x, y‖R
Teorema 1.16. Ogni rappresentazione R : G −→ GL(n,C) e equivalen-
te a una rappresentazione unitaria.
7
Dimostrazione. Il prodotto scalare ‖‖R sia definito come nell’osserva-
zione 1.15. Sia e1, . . . , en una base ortonormale di Cn rispetto a ‖‖R e
T := (e1, . . . , en) ∈ GL(n,C). Per g ∈ G sia U(g) la matrice dell’applica-
zione lineare ©xR(g)x : Cn −→ Cn rispetto alla base (e1, . . . , en).
Dall’oss. 1.15 e dal cor. 1.14 segue che questa matrice e unitaria.
D’altra parte pero U(g) = T−1R(g)T come e ben noto e come si vede an-
che considerando x = Ty, R(g)x = TU(g)y e quindi R(g)Ty = TU(g)y.
Osservazione 1.17. Per ogni rappresentazione R : G −→ GL(n,R)esiste una matrice T ∈ GL(n,R) tale che T−1R(g)T ∈ O(n) per ogni
g ∈ G.
Dimostrazione. E immediato che i ragionamenti che hanno portato
al teorema 1.16 possono essere ripetuti per il caso reale.
Osservazione 1.18. V sia uno spazio vettoriale e W1 e W2 sottospazi
vettoriali di V tali che V = W1 ⊕W2. Se e1, . . . , es e una base di W1 ed
es+1, . . . , en e una base di W2, allora e1, . . . , en e una base di V.
Definizione 1.19. V sia uno spazio vettoriale e ϕ : V −→ V un’applica-
zione lineare. Un sottospazio vettoriale W di V si dice ϕ-invariante, se
ϕW ⊂ W .
Definizione 1.20. R : G −→ GL(V ) sia una rappresentazione. Un
sottospazio vettoriale W di V si dice R-invariante, se R(g)W ⊂ W per
ogni g ∈ G.
Si noti che, se inoltre dimV < ∞, questa condizione implica
R(g)W = W per ogni g ∈ G.
Lemma 1.21. V sia uno spazio vettoriale di dimensione finita su un
campo K e ϕ : V −→ V un’applicazione lineare.
(1) W sia un sottospazio vettoriale ϕ-invariante di V ed e1, . . . , esuna base di W . Se allunghiamo questa base ad una base
E = (e1, . . . , en) di V , allora la matrice di ϕ rispetto ad E ha la
forma(
A X
0 B
)
con A ∈ Kss .
(2) Se viceversa E = (e1, . . . , en) e una base di V , rispetto alla quale
la matrice di ϕ e della forma(
A X
0 B
)
con A ∈ Kss , allora W := SV (e1, . . . , es) e un sottospazio vettoria-
le ϕ-invariante di V con dimW = s
Proposizione 1.22. R : G −→ GL(V ) sia una rappresentazione di
dimensione finita.
(1) W sia un sottospazio vettoriale R-invariante di V ed e1, . . . , es una
base di W . Se allunghiamo questa base ad una base E = (e1, . . . , en) di
V , allora per ogni g ∈ G la matrice di R(g) rispetto ad E ha la forma
8
(
A(g) X(g)0 B(g)
)
con A(g) ∈ GL(s,C).
(2) Se viceversa E = (e1, . . . , en) e una base di V , rispetto alla quale
per ogni g ∈ G la matrice di R(g) e della forma(
A(g) X(g)0 B(g)
)
con A ∈ GL(s,C) ed s non dipende da g, allora W := SV (e1, . . . , es) e
un sottospazio vettoriale R-invariante di V con dimW = s.
(3) In entrambi i casi le applicazioni
A := ©gA(g) : G −→ GL(s,C)
B := ©gB(g) : G −→ GL(n− s,C)
sono rappresentazioni matriciali di G.
Lemma 1.23. V sia uno spazio vettoriale di dimensione finita su un
campo K e ϕ : V −→ V un’applicazione lineare.
(1) W1 e W2 siano due sottospazi vettoriali ϕ-invariante di V tali che
V = W1 ⊕W2.
e1, . . . , es sia una base di W1 ed es+1, . . . , en una base di W2. Per l’oss.
1.18 allora e1, . . . , en e una base di V rispetto alla quale la matrice di
ϕ e della forma(
A 00 B
)
con A ∈ Kss e B ∈ Kn−s
n−s .
(2) Se viceversa e1, . . . , en e una base di V , rispetto alla quale la ma-
trice di ϕ e della forma(
A 00 B
)
con A ∈ Kss e B ∈ Kn−s
n−s , allora gli spazi vettoriali W1 := SV (e1, . . . , es)e W2 := SV (es+1, . . . , en) generati rispettivamente da e1, . . . , es e
es+1, . . . , en sono entrambi sottospazi vettoriali ϕ-invarianti di V tali
che V = W1 ⊕W2.
Proposizione 1.24. R : G −→ GL(V ) sia una rappresentazione.
(1) W1 e W2 siano due sottospazi vettoriali R-invarianti di V tali che
V = W1 ⊕W2. e1, . . . , es sia una base di W1 ed es+1, . . . , en una base di
W2. Allora e1, . . . , en e una base di V e per ogni g ∈ G la matrice di R(g)rispetto ad E e della forma
(
A(g) 00 B(g)
)
con A(g) ∈ GL(s,C) e B(g) ∈ GL(n− s,C).
9
(2) Se viceversa e1, . . . , en e una base di V , rispetto alla quale per ogni
g ∈ G la matrice di R(g) e della forma(
A(g) 00 B(g)
)
con A(g) ∈ GL(s,C) ed s non dipende da g, allora W1 := SV (e1, . . . , es) e
W2 := SV (es+1, . . . , en) sono entrambi sottospazi vettoriali R-invarianti
di V con V = W1 ⊕W2.
Definizione 1.25. Una rappresentazione R : G −→ GL(V ) si dice
irriducibile, se V 6= 0 e se gli unici sottospazi vettoriali R-invarianti di
V sono 0 e V stesso.
Definizione 1.26. R : G −→ GL(V ) sia una rappresentazione. Per
H ⊂ G ed Y ⊂ V sia R(H)Y := {R(h)y | h ∈ H, y ∈ Y }.
Per un vettore v ∈ V l’insieme R(G)v si chiama l’orbita di v sotto R.
Questo insieme e finito e lo spazio vettoriale SV (R(G)v) e evidente-
mente R-invariante e di dimensione finita.
Osservazione 1.27. R : G −→ GL(V ) sia una rappresentazione. Allo-
ra sono equivalenti:
(1) R e irriducibile.
(2) Per ogni v ∈ V con v 6= 0 lo spazio vettoriale generato dall’orbita
di v sotto R coincide con V .
Dimostrazione. (1) =⇒ (2): Ovvio, perche SV (R(g)v) e
invariante 6= 0.
(2) =⇒ (1): Sia W un sottospazio vettoriale R-invariante 6= 0 di V .
Allora esiste un w ∈ W con w 6= 0. Per ipotesi SV (R(G)w) = V . Pero W
e R-invariante, per cui (R(G)w) ⊂ W e quindi anche SV (R(g)v) ⊂ W e
cio implica W = V .
Proposizione 1.28. La rappresentazione R : G −→ GL(V ) sia irridu-
cibile. Allora dimV < ∞.
Dimostrazione. Sia v ∈ V e v 6= 0. Per l’oss. 1.27 SV (R(G)v) = V .
Ma, come gia osservato nella def. 1.26, l’orbita R(g)v e finita e dunque
dimV < ∞.
Definizione 1.29. R : G −→ GL(V ) sia una rappresentazione e W un
sottospazio vettoriale di V .
Allora possiamo considerare l’applicazione
RW : G −→ GL(W )g 7−→ ©
wR(g)w
Essa e evidentemente ben definita e una rappresentazione di G.
Definizione 1.30. (1) R : G −→ GL(V ) sia una rappresentazione e W1
e W2 sottospazi vettoriali R-invarianti di V tali che V = W1 ⊕W2.
Allora scriviamo R = RW1⊕RW2
.
10
(2) Se viceversa sono date due rappresentazioni R1 : G −→ GL(V1) e
R2 : G −→ GL(V2), allora possiamo definire una rappresentazione
R1 ⊕R2 := ©g
©(v1,v2)
(R1(g)v1, R2(g)v2) : G −→ GL(V1 ⊕ V2)
Le interpretazioni della somma diretta di due rappresentazioni conte-
nute nei punti (1) e (2) sono equivalenti; le rappresentazioni matriciali
corrispondenti si ottengono come nella proposizione 1.24.
(3) La somma diretta di due rappresentazioni matriciali
R1 : G −→ GL(n1,C) ed R2 : G −→ GL(n2,C)
e definita, in accordo con quanto sopra, ponendo
(R1 ⊕R2)(g) :=
(
R1(g) 00 R2(g)
)
Definizione 1.31. Una rappresentazione R : G −→ GL(V ) si dice
completamente irriducibile, se R puo essere scritta come somma diret-
ta R = R1 ⊕ . . .⊕Rs in cui ogni Ri e irriducibile.
Dalla proposizione 1.28 segue che in tal caso 0 < dimV < ∞.
Definizione 1.32. V sia uno spazio vettoriale su C e ‖‖ un prodotto
scalare su V . Per un sottoinsieme X di V poniamo
X⊥ := {v ∈ V | ‖x, v‖ = 0 per ogni x ∈ X}
E chiaro che X⊥ e un sottospazio vettoriale di V (anche quando X
stesso non e un sottospazio vettoriale).
Nota 1.33. V sia uno spazio vettoriale di dimensione finita su C e ‖‖un prodotto scalare su V . W sia un sottospazio vettoriale di V . Allora:
(1) W ∩W⊥ = 0.
(2) dimV = dimV + dimV ⊥.
(3) (W⊥)⊥ = W .
(4) V = W ⊕W⊥.
Dimostrazione. Corsi di geometria.
Definizione 1.34. V sia uno spazio vettoriale su C e ‖‖ un prodotto
scalare su V . Una rappresentazione R : G −→ GL(V ) si dice unitaria
rispetto a ‖‖, se per ogni g ∈ G l’applicazione R(g) e unitaria rispetto
a ‖‖ (cfr. def. 1.7).
Lemma 1.35. V sia uno spazio vettoriale su C e ‖‖ un prodotto scalare
su V . R : G −→ GL(V ) sia una rappresentazione unitaria rispetto a ‖‖e W un sottospazio vettoriale R-invariante di V . Allora:
(1) La rappresentazione RW : G −→ GL(W ) e unitaria rispetto alla
restrizione del prodotto scalare ‖‖ a W .
(2) Anche W⊥ e un sottospazio vettoriale R-invariante di V .
11
(3) La dimV < ∞, allora R = RW ⊕RW⊥ .
Dimostrazione. (1) Chiaro.
(2) Siano v ∈ W⊥ e g ∈ G. Per ogni w ∈ W allora
‖R(g)v, w‖ = ‖R(g)v,R(g)R(g−1)w‖ = ‖v,R(g−1)w‖ = 0
perche per ipotesi R(g−1)w ∈ W.
(3) Cio segue dalla nota 1.33, tenendo conto del punto (2).
Teorema 1.36 (teorema di Maschke). R : G −→ GL(V ) sia una rap-
presentazione e 0 < dimV < ∞. Allora R e completamente riducibile.
Dimostrazione. Per il teorema 1.16 possiamo assumere che su V sia
dato un prodotto scalare rispetto al quale R e unitaria. Per ipotesi
V 6= 0.
(1) Assumiamo che R non sia irriducibile. Allora esiste un sotto-
spazio vettoriale R-invariante W di V con 0 < dimW < dimV . Per il
lemma 1.35 R = RW ⊕RW⊥ , mentre dal punto (2) della nota 1.33 segue
che anche 0 < dimW⊥ < dimV .
(2) Se le rappresentazioni RW e RW⊥ sono entrambe irriducibili, ab-
biamo dimostrato l’enunciato. Altrimenti ripetiamo il ragionamento
del punto (1) sia per RW che per RW⊥ , entrambe di dimensione finita
minore della dimensione di partenza.
Corollario 1.37. Ogni rappresentazione 1-dimensionale di G e irridu-
cibile.
Definizione 1.38. L’esponente di G e il piu piccolo numero naturale
m 6= 0 tale che gm = 1G per ogni g ∈ G.
Ricordiamo che anche g|G| = 1G per ogni g ∈ G.
Osservazione 1.39. L’esponente di G divide l’ordine di G.
Dimostrazione. Sia H := {n ∈ Z | gn = 1G per ogni g ∈ G}. Allora H
e un sottogruppo 6= 0 di Z. Dal corso di Algebra sappiamo che
H = mZ, dove m e il piu piccolo elemento > 0 di H. Percio m coincide
con l’esponente di G. Siccome |G| ∈ H, vediamo che |G| e un multiplo
di m.
Osservazione 1.40. Una rappresentazione matriciale 1-dimensionale
e per definizione un omomorfismo di gruppi
R : G −→ GL(1,C) = (C \ 0, ·)
Siano m l’esponente di G e g ∈ G. Allora gm = 1G, per cui
(R(g))m = R(gm) = R(1G) = 1
cosicche R(g) e una m-esima radice dell’unita e quindi (o per la stessa
ragione) anche una |G|-esima radice dell’unita .
In particolare |R(g)| = 1 e R(g−1) = R(g).
12
Osservazione 1.41. Due rappresentazioni matriciali 1-dimensionali
sono equivalenti se e solo se coincidono.
Dimostrazione. Cio e chiaro dalla def. 1.3, perche il gruppo GL(1,C)e commutativo.
Osservazione 1.42. Se due rappresentazioni 1-dimensionali
R, S : G −→ GL(V ) nello stesso spazio vettoriale sono equivalenti,
allora coincidono.
Dimostrazione. Per ipotesi esiste esiste un isomorfismo ϕ : V −→ V
tale che il diagramma
VR(g)
//
ϕ
��
V
ϕ
��
VS(g)
// V
sia commutativo per ogni g ∈ G. Siccome pero dimV = 1, deve esistere
un λ ∈ C \ 0 tale che ϕv = λv per ogni v ∈ V .
Per ogni v ∈ V ed ogni g ∈ G allora abbiamo
S(g)v = ϕR(g)ϕ−1v = λR(g)λ−1v = R(g)v
13
2. Il lemma di Schur
Situazione 2.1. G sia un gruppo finito.
Nota 2.2. Siano date due rappresentazioni R : G −→ GL(V ) ed
S : G −→ GL(W ) e un’applicazione lineare ϕ : V −→ W che rende
commutativo il diagramma
VR(g)
//
ϕ
��
V
ϕ
��
WS(g)
// W
per ogni g ∈ G. Se ϕ e un isomorfismo, le due rappresentazioni sono
(per definizione) equivalenti. Cosa si puo dedurre invece dalla situa-
zione piu generale, in cui ϕ non e un isomorfismo?
Il lemma di Schur afferma che allora, se le rappresentazioni R ed S
sono entrambe irriducibili, l’applicazione ϕ e identicamente nulla.
Osservazione 2.3. Nella definizione 2.2 kerϕ e R-invariante, imϕ e
S-invariante.
Dimostrazione. Sia g ∈ G.
(1) Sia v ∈ kerϕ. Allora ϕ(R(g)v) = S(g)ϕv = S(g)0 = 0, e vediamo
che R(g)v ∈ kerϕ.
(2) Sia w ∈ imϕ. Allora esiste v ∈ V tale che w = ϕv, per cui
S(g)w = S(g)ϕv = ϕR(g)v ∈ imϕ.
Teorema 2.4 (lemma di Schur). Siano date due rappresentazioni
irriducibili R : G −→ GL(V ) ed S : G −→ GL(W ) e un’applicazione
lineare ϕ : V −→ W che rende commutativo il diagramma
VR(g)
//
ϕ
��
V
ϕ
��
WS(g)
// W
per ogni g ∈ G. Se ϕ 6= 0, allora ϕ e un isomorfismo.
Dimostrazione. Usiamo l’osservazione 2.3.
(1) Siccome ϕ 6= 0, abbiamo kerϕ 6= V e imϕ 6= 0. kerϕ e un sotto-
spazio R-invariante di V e quindi per ipotesi si ha kerϕ = 0 oppure
kerϕ = V e quindi necessariamente kerϕ = 0.
(2) imϕ e un sottospazio S-invariante di W e quindi per ipotesi
imϕ = 0 oppure imϕ = W . Cio implica imϕ = W .
Corollario 2.5. Le rappresentazioni matriciali R : G −→ GL(n,C) ed
S : G −→ GL(n,C) siano irriducibili e T ∈ Cmn una matrice tale che
TR(g) = S(g)T per ogni g∈ G.
Se T 6= 0, allora n = m e la matrice T e invertibile.
14
Teorema 2.6. R : G −→ GL(V ) sia una rappresentazione. Allora sono
equivalenti:
(1) R e irriducibile.
(2) 0 < dimV < ∞ e per ogni applicazione lineare ϕ : V −→ V che
rende commutativo il diagramma
VR(g)
//
ϕ
��
V
ϕ
��
VR(g)
// V
per ogni g ∈ G, esiste λ ∈ C tale che ϕ = λ id.
Dimostrazione. (1) =⇒ (2): Per ipotesi V 6= 0 e dalla proposizione
1.28 segue che dimV < ∞. Cio implica che esiste λ ∈ C tale che
l’applicazione ϕ − λid non e invertibile. E chiaro che per ogni g ∈ G
commuta anche il diagramma
VR(g)
//
ϕ−λid
��
V
ϕ−λid
��
VR(g)
// V
Il lemma di Schur implica che ϕ− λid = 0, cioe ϕ = λid.
(2) =⇒ (1): R non sia irriducibile. Per il teorema di Maschke possia-
mo scrivere V = W1 ⊕W2 con sottospazi R-invarianti non banali.
Sia ϕ : V −→ V , la proiezione su W1. E chiaro che ϕ commuta con
R(g) per ogni g ∈ G:
R(g)ϕ(w1 + w2) = R(g)w1
ϕR(g)(w1 + w2) = ϕR(g)w1 + ϕR(g)w2 = ϕR(g)w1
per w1 ∈ W1 e w2 ∈ W2.
Per ipotesi esiste λ ∈ C tale che ϕ = λid, e cio e impossibile.
Corollario 2.7. R : G −→ GL(n,C) sia una rappresentazione
matriciale. Allora sono equivalenti:
(1) R e irriducibile.
(2) Per ogni matrice T ∈ Cnn tale che R(g)T = TR(g) per ogni g ∈ G
esiste λ ∈ C tale che T = λ δ.
Definizione 2.8. Il centro Z(G) di G e definito da
Z(G) := {a ∈ G | ag = ga per ogni g ∈ G }
Osservazione 2.9. Z(G) e un sottogruppo normale di G.
Nota 2.10. R : G −→ GL(V ) sia una rappresentazione ed a ∈ Z(G).Allora l’applicazione R(a) : V −→ V e lineare e invertibile e rende
commutativo il diagramma
15
VR(g)
//
R(a)��
V
R(a)��
VR(g)
// V
per ogni g ∈ G. Se R e irriducibile, per il teorema 2.6 esiste λ ∈ C \ 0tale che R(a) = λ id.
Proposizione 2.11. Se G e un gruppo abeliano, ogni rappresentazione
irriducibile di G e 1-dimensionale.
Dimostrazione. Per ipotesi si ha Z(G) = G. Sia data una rappresen-
tazione irriducibile R : G −→ GL(V ). Per la nota 2.10 per ogni g ∈ G
esiste λ ∈ C tale che R(g) = λid. Ma cio implica che ogni sottospazio
vettoriale di V e R-invariante e, siccome R e irriducibile, necessaria-
mente dimV = 1.
Lemma 2.12. K sia un campo ed H un sottogruppo finito di (K \ 0, ·).Allora H e ciclico.
Dimostrazione. Corsi di Algebra.
Proposizione 2.13. Se G possiede una rappresentazione irriducibile
iniettiva, allora Z(G) e un gruppo ciclico.
Dimostrazione. R : G −→ GL(V ) sia una rappresentazione irriduci-
bile iniettiva. Per la nota 2.10 per ogni a ∈ Z(G) esiste un λa ∈ C \ 0tale che R(a) = λaid. Per l’iniettivita di R il numero λa e univocamente
determinato e cio a sua volta implica che l’applicazione
©aλa : Z(G) −→ (C \ 0, ·) e un omomorfismo iniettivo e quindi Z(G) e
isomorfo ad un sottogruppo (necessariamente finito) di (C\0, ·). Questo
sottogruppo e ciclico per il lemma 2.12.
Corollario 2.14. G sia un gruppo abeliano non ciclico. Allora G non
possiede rappresentazioni irriducibili iniettive.
Osservazione 2.15. Il cor. 2.14 puo essere dedotto direttamente dalla
prop. 2.11, senza utilizzare la prop. 2.13. Infatti sia R una rappre-
sentazione irriducibile di G. Per la prop. 2.11 R e un omomorfismo
R : G −→ (C \ 0, ·). Se G non e ciclico, esiste un m < |G| tale che
gm = 1 per ogni g ∈ G. Percio R(G) e un sottoinsieme dell’insieme
{z ∈ C | zm = 1} e cio implica |R(G)| ≤ m. Ma allora R non puo essere
iniettiva.
16
3. Teoremi di ortogonalita per i coefficienti
Situazione 3.1. G sia un gruppo finito.
Definizione 3.2. R : G −→ GL(n,C) sia una rappresentazione matri-
ciale. Per ogni i,j ∈ {1, . . . , n} otteniamo una funzione Rij ∈ CG definita
da Rij(g) := (R(g))ij .
Le funzioni cosı ottenute si dicono coefficienti di R.
In modo simile definiamo le funzioni Ri : G −→ Cn ed Rj : G −→ Cn
tramite Ri(g) := (R(g))i e Rj(g) := (R(g))j .
Definizione 3.3. E sia un gruppo abeliano ed F : G −→ E un’appli-
cazione. Allora poniamo
[F ] :=∑g∈G
F (g)
Lemma 3.4. R : G −→ GL(n,C) ed S : G −→ GL(m,C) siano rappre-
sentazioni matriciali ed A ∈ Cnm. Sia
P := [RAS−1] =∑g∈G
R(g)AS(g−1)
Allora R(g)P = PS(g) per ogni g ∈ G.
Dimostrazione. Sia g ∈ G. Allora
R(g)P = R(g)∑
h∈G
R(h)AS(h−1) =∑
h∈G
R(gh)AS(h−1) =
=∑
h∈G
R(h)AS(h−1g)
PS(g) = (∑
h∈G
R(h)AS(h−1))S(g) =∑
h∈G
R(h)AS(h−1g)
Corollario 3.5. R : G −→ GL(n,C) ed S : G −→ GL(m,C) siano
rappresentazioni matriciali e 1 ≤ j ≤ n, 1 ≤ k ≤ m. Sia
P := [Rj(S−1)k] =
∑g∈G
Rj(g)Sk(g−1)
Allora R(g)P = PS(g) per ogni g ∈ G.
Dimostrazione. Rj(S−1)k = Rδiδ
kS−1, cosicche si tratta di un caso
speciale del lemma con A = δiδk.
Teorema 3.6. R : G −→ GL(n,C) ed S : G −→ GL(m,C) siano rappre-
sentazioni matriciali irriducibili e non equivalenti. Per ogni scelta di
indici i,j,k,l allora∑g∈G
Rij(g)S
kl (g
−1) = 0
17
Dimostrazione. Per il cor. 3.5 R(g)[Rj(S−1)k] = [Rj(S
−1)k]S(g) per
ogni g ∈ G. Il lemma di Schur implica [Rj(S−1)k] = 0 (altrimenti R ed
S sarebbero equivalenti) e da cio segue l’enunciato.
Teorema 3.7. R : G −→ GL(n,C) sia una rappresentazione matriciale
irriducibile. Siano i,j,k,l ∈ {1, . . . , n}. Allora:
(1)∑g∈G
Rij(g)R
ji (g
−1) =|G|
n.
(2)∑g∈G
Rij(g)R
kl (g
−1) = 0 se (i, j) 6= (l, k).
Dimostrazione. Per il cor. 3.5 abbiamo
R(g)[Rj(R−1)k] = [Rj(R
−1)k]R(g) per ogni g ∈ G, cosicche per il cor. 2.7
esiste λkj ∈ C tale che [Rj(R
−1)k] = λkj δ. Adesso distinguiamo due casi:
(1) Per i 6= l quindi 0 =∑g∈G
Rij(g)R
kl (g
−1).
(2) Per i = l otteniamo invece λkj =
∑g∈G
Rij(g)R
ki (g
−1) e sommando su
i si ha
nλkj =
n∑
i=1
∑
g∈G
Rij(g)R
ki (g
−1) =∑
g∈G
n∑
i=1
Rki (g
−1)Rij(g) =
=∑
g∈G
Rkj (1G) =
∑
g∈G
δkj = δkj |G|
Per j 6= k percio λkj = 0, mentre λ
jj =
|G|
n.
Definizione 3.8. In CG denotiamo con ‖‖ il prodotto scalare comune,
quindi
‖u, v‖ =∑g∈G
u(g)v(g) = [uv]
Osservazione 3.9. R −→ GL(n,C) sia una rappresentazione matri-
ciale unitaria. Per ogni g ∈ G allora R(g−1) = (R(g))∗. Per ogni coppia
di indici i,j abbiamo quindi Rij(g
−1) = Rji (g).
Corollario 3.10. R : G −→ GL(n,C) ed S : G −→ GL(m,C) siano rap-
presentazioni matriciali irriducibili e non equivalenti. La rappresenta-
zione S sia unitaria. Per ogni scelta di indici i,j,k,l allora ‖Rij , S
lk‖ = 0.
Corollario 3.11. R : G −→ GL(n,C) sia una rappresentazione ma-
triciale irruducibile e unitaria. Per ogni scelta di indici i,j,k,l allora
‖Rij , R
lk‖ = δilδ
jk
|G|
n.
Teorema 3.12. Esiste solo un numero finito di rappresentazioni
irriducibili non equivalenti di G.
Dimostrazione. Per il teorema 1.16 in ogni classe di rappresentazioni
irriducibili possiamo scegliere una rappresentazione unitaria R. Essa
18
determina una funzione R1
1: G −→ C che, per il corollario 3.10, e
ortogonale ai primi coefficienti dei rappresentanti delle altre classi.
Ma in CG esistono al massimo |G| funzioni ortogonali tra di loro.
Definizione 3.13. κ sia il numero delle rappresentazioni irriducibili
non equivalenti di G. Dal teorema 3.12 sappiamo che κ e finito.
Definizione 3.14. Un sistema di Burnside di G e una sequenza
(R1, . . . , Rκ) di rappresentazioni matriciali irriducibili e unitarie non
equivalenti Rα : G −→ GL(nα,C) per α = 1, . . . , κ in cui R1 := ©g1
coincide con la rappresentazione banale. Denotiamo in questo caso i
coefficienti di Rα con Rijα. Il vettore (n1, . . . , nκ) si chiama il vettore
delle dimensioni del sistema.
Teorema 3.15. (n1, . . . , nκ) sia il vettore delle dimensioni di un sistema
di Burnside di G. Allora n2
1+ . . .+ n2
κ ≤ |G|.
Dimostrazione. Per ogni α ∈ {1, . . . , k} e ogni i,j ∈ {1, . . . , nα} abbia-
mo un coefficiente Rijα ∈ CG. Per i cor. 3.10 e 3.11 questi coefficienti
sono tra di loro ortogonali. Il loro numero non puo quindi superare |G|.
Osservazione 3.16. Tramite la teoria dei caratteri saremo in grado
di dimostrare che in questa osservazione si ha uguaglianza:
n2
1+ . . .+ n2
κ = |G|.
19
4. Il teorema di Burnside
Situazione 4.1. G sia un gruppo finito.
Come nella def. 3.8 sia ‖‖ il prodotto scalare comune su CG.
Definizione 4.2. Sia A ∈ Cnn. Definiamo la traccia di A, denotata con
trA, come la somma degli elementi sulla diagonale principale di A,
quindi trA :=n∑
i=1
Aii. E chiaro che l’applicazione tr : Cn
n −→ C e lineare.
Proposizione 4.3. Siano A ∈ Cnm, B ∈ Cm
n . Allora trAB = trBA.
Si noti che AB ∈ Cnn, BA ∈ Cm
m.
Dimostrazione.
trAB =
n∑
i=1
(AB)ii =
n∑
i=1
m∑
α=1
AiαB
αi =
m∑
α=1
n∑
i=1
Bαi A
iα =
=
m∑
α=1
(BA)αα = trBA
Corollario 4.4. Siano A ∈ Cnn e T ∈ GL(n,C). Allora
trT−1AT = trA.
Definizione 4.5. (1) R : G −→ GL(n,C) sia una rappresentazione
matriciale di G. Allora trR := ©gtrR(g) : G −→ C si chiama la traccia
di R.
(2) R : G −→ GL(V ) sia una rappresentazione di dimensione finita
di G. Per il cor. 4.4 l’applicazione trR := ©gtrR(g) : G −→ C e ben
definita e si chiama la traccia di R.
Osservazione 4.6. Dal cor. 4.4 e immediato che rappresentazioni di
dimensione finita equivalenti possiedono la stessa traccia. Dimostre-
remo in questo capitolo che viceversa due rappresentazioni di dimen-
sione finita che hanno la stessa traccia sono equivalenti. Siccome e
molto facile calcolare la traccia, possiamo altrettanto facilmente sta-
bilire se due rappresentazioni di dimensione finita sono equivalenti.
Definizione 4.7. Un carattere di G e una funzione χ : G −→ C tale che
esiste una rappresentazione irriducibile (matriciale o su uno spazio
vettoriale) R tale che χ = trR.
I caratteri di G sono quindi le tracce delle rappresentazioni irridu-
cibili di G. Ricordiamo che per la prop. 1.28 ogni rappresentazione
irriducibile di G e di dimensione finita e quindi possiede una traccia.
Situazione 4.8. (R1, . . . , Rκ) sia un sistema di Burnside fissato di Ged (n1, . . . , nκ) il corrispondente vettore delle dimensioni. Per ogni
α = 1, . . . , κ sia χα := trRα. Allora i caratteri di G sono esattamente le
funzioni χ1, . . . , χκ.
20
Siccome per la def. 3.14 R1 = ©g1, il carattere χ1 (detto carattere
banale) coincide con la funzione costante ©g1.
Osservazione 4.9. Faremo adesso vedere come le relazioni di ortogo-
nalita per i coefficienti si traducono in relazioni di ortogonalita per i
caratteri.
Teorema 4.10. Per α,β ∈ {1, . . . , κ} vale ‖χα, χβ‖ = |G| δαβ .
Dimostrazione.
‖χα, χβ‖ =∑
g∈G
χα(g)χβ(g) =∑
g∈G
nα∑
j=1
nβ∑
k=1
(Rα)jj(g)(Rβ)
kk(g) =
=
nα∑
j=1
nβ∑
k=1
∑
g∈G
(Rα)jj(g)(Rβ)
kk(g
−1) = |G| δαβ
Definizione 4.11. Per una rappresentazione (vettoriale o matriciale)
di R di G ed m ∈ N sia mR := R⊕ . . .⊕R︸ ︷︷ ︸
m volte
.
Proposizione 4.12. Siano m1, . . . ,mκ ∈ N ed R := m1R1⊕ . . .⊕mκRκ.
Per ogni α ∈ {1, . . . , κ} allora mα =1
|G|‖χα, trR‖.
Il numero mα e in particolare univocamente determinato.
Dimostrazione. Siccome
trR = m1 trR1 + . . .+mκ trRκ
dal teorema 4.10 segue ‖χα, trR‖ = ‖χα,mαχα‖ e cio implica il risul-
tato.
Corollario 4.13. Ogni rappresentazione di dimensione finita di G e
equivalente a una rappresentazione della forma m1R1⊕ . . .⊕mκRκ con
m1, . . . ,mκ ∈ N.
Dimostrazione. Per il teorema di Maschke R e completamente ri-
ducibile, cioe puo essere scritto come R = R1 ⊕ . . . ⊕ Rκ dove gli Ri
sono irriducibili. Per la rappresentazione 0-dimensionale prendiamo
m1 = . . . = mκ = 0. L’unicita segue dalla prop. 4.12.
Teorema 4.14. R ed S siano due rappresentazioni di dimensione finita
di G. Allora R ed S sono equivalenti se e solo se possiedono la stessa
traccia
Dimostrazione. (1) R ed S siano equivalenti. Dall’oss. 4.6 sappiamo
che le tracce di R ed S coincidono.
(2) Sia trR = trS. Per il cor. 4.13 R e equivalente a una rappresen-
tazione m1R1 ⊕ . . .⊕mκRκ, S a una rappresentazione l1R1 ⊕ . . .⊕ lκRκ
21
con m1, . . . ,mκ,l1, . . . , lκ ∈ N. Dalla prop. 4.12 per ogni α ∈ {1, . . . , κ} si
ha pero mα =1
|G|‖χα, trR‖ =
1
|G|‖χα, trS‖ = lα.
Per la transitivita della relazione di equivalenza cio implica che R e
equivalente ad S.
Definizione 4.15. Sullo spazio vettoriale CG introduciamo come mol-
tiplicazione la convoluzione ∗ definita da
u ∗ v := ©g
∑
h∈G
u(h)v(h−1g)
Si verifica facilmente che questa operazione e associativa, mentre e
chiaro che e bilineare.
(CG,+, ∗) e quindi una C-algebra che si chiama l’algebra di gruppo
di G. Essa viene denotata con CG.
Osservazione 4.16. Le algebre CG e CG coincidono come insiemi e
come spazi vettoriali, si distinguono invece come anelli, cioe nella mol-
tiplicazione: CG = (CG,+, ·), mentre CG = (CG,+, ∗).
Definizione 4.17. Per a ∈ G sia εa ∈ CG definita da
εa(x) := (x = a) =
{
1 se x = a
0 altrimenti
E chiaro che l’applicazione ε := ©aεa : G −→ CG e iniettiva.
Osservazione 4.18. ε1Ge l’elemento neutro (rispetto alla convoluzione)
di CG.
Dimostrazione. Per u ∈ CG e g ∈ G abbiamo
u ∗ ε1G(g) =
∑
h∈G
u(h)(h−1g = 1G) = u(g)
ε1G(g) ∗ u =
∑
h∈G
(h = 1G)u(h−1g) = u(g)
Osservazione 4.19. L’applicazione ε : G −→ (CG, ∗) e un omomor-
fismo di semigruppi. Insieme all’oss. 4.18 cio mostra che G puo in modo
naturale essere considerato come sottomonoide di (CG, ∗).
Dimostrazione. Dati a,b ∈ G dobbiamo dimostrare che εab = εa ∗ εb.Sia g ∈ G. Allora
(εa ∗ εb)(g) =∑
h∈G
(h = a)(h−1g = b) = (g = ab) = εab(g)
Osservazione 4.20. G, o piu precisamente l’insieme {εa | a ∈ G},
costituisce una base di CG e quindi anche di CG (che come spazio vet-
toriale coincide con CG).
Per u ∈ CG si ha u =∑
a∈G
u(a)εa.
Dimostrazione. (1) Sia g ∈ G. Allora
22
∑
a∈G
u(a)εa(g) =∑
a∈G
u(a)(g = a) = u(g)
Cio mostra che G genera CG.
(2) Dimostriamo la lineare indipendenza.
Sia λa ∈ C per ogni a ∈ G e∑
λaεa = 0. Per ogni g ∈ G allora
0 =∑
a∈G
λa(a = g) = λg.
Osservazione 4.21. Siano G = {a1, . . . , aN} con gli elementi a1, . . . , aNtutti distinti ed u,v ∈ CG. Allora esistono α1, . . . , αN , β1, . . . , βN ∈ C
univocamente determinati (ricavabili dall’oss. 4.20) tali che
u = α1εa1+ . . .+ αNεaN
e v = β1εa1+ . . .+ βNεaN
.
La convoluzione u ∗ v e allora data da u ∗ v =N∑
i=1
N∑
j=1
αiβjεaiaj.
Dimostrazione. Cio segue dall’oss. 4.19 e dalla bilinearita della con-
voluzione.
Definizione 4.22. Per g ∈ G ed u ∈ CG sia L(g)u := ©xu(g−1x).
E chiaro che l’applicazione L(g) : CG −→ CG e lineare
e che L(1G) = id.
Lemma 4.23. Per g,h ∈ G si ha che L(gh) = L(g)L(h).
Dimostrazione. Siano u ∈ CG ed x ∈ G. Allora
(L(gh)u)(x) = u((gh)−1x) = u(h−1g−1x)
(L(g)L(h)u)x = (L(h)u)(g−1x) = u(h−1g−1x).
Osservazione 4.24. Per ogni g ∈ G si ha L(g) ∈ GL(CG).
Dimostrazione. Abbiamo gia osservato che L(g) e lineare.
Dal lemma 4.23 segue che L(g)L(g−1) = L(gg−1) = L(1G) = id,
per cui L(g) ∈ GL(CG).
Definizione 4.25. L’applicazione L : G −→ GL(CG) e ben definita e
una rappresentazione di G.
Essa si chiama la rappresentazione regolare di G.
Osservazione 4.26. L’algebra CG e commutativa se e solo se G e com-
mutativo.
Dimostrazione. (1) Se CG e commutativo, lo e anche G, essendo iso-
morfo a un sottomonoide di CG come sappiamo dall’oss. 4.19.
(2) G sia commutativo. Siano u,v ∈ G. Per l’oss. 4.21 possiamo scri-
vere u e v nella forma u = α1εa1+ . . .+ αNεaN
, v = β1εa1+ . . .+ βNεaN
,
dove a1, . . . , aN sono gli elementi distinti di G. A questo punto e evi-
dente che e sufficiente dimostrare che εa ∗ εb = εb ∗ εa per ogni a,b ∈ G.
Ma per l’oss. 4.19 εa ∗ εb = εab = εba = εb ∗ εa.
23
Osservazione 4.27. Siano a,g ∈ G. Allora L(g)εa = εga.
Dimostrazione. Infatti
L(g)εa = ©xεa(g
−1x) = ©x(g−1x = a) = ©
x(x = ga) = εga
Osservazione 4.28. Siano G = {a1, . . . , aN} con gli elementi a1, . . . , aNtutti distinti. Siano α1, . . . , αN ∈ C e g ∈ G. Dalla linearita di L(g) e
dall’oss. 4.27 segue allora che
L(g)(α1εa1+ . . .+ αNεaN
) = α1εga1+ . . .+ αNεgaN
Corollario 4.29. La rappresentazione regolare di G e iniettiva.
Dimostrazione. Siano g,h ∈ G tali che L(g) = L(h)
Sia a un elemento qualsiasi di G. Per l’oss. 4.27 allora εga = εha e cio
implica ga = ha per l’iniettivita di ε. Ma allora g = h.
Nota 4.30. Dall’oss. 4.27 discende un altro fatto importante.
Per ogni g,a ∈ G si ha L(g)εa = εga ∈ ε(G) e cio mostra, insieme con
l’oss. 4.29, che L(g) induce una permutazione dell’insieme ε(G).
Se scriviamo ancora G = {a1, . . . , aN} con gli ai tutti distinti, allora
possiamo prendere εa1, . . . , εaN
come base ordinata di CG e rappresen-
tare L(g) mediante una matrice M(g).
Questa matrice e una matrice di permutazione. Siccome inoltre
εga = εa implica g = 1, vediamo che la matrice di M(g) ha tutti zeri
nella diagonale principale tranne che per g = 1G.
Esempio 4.31. Sia G = V4 = {1, a, b, c} con la tavola di moltiplicazione
V4 1 a b c
1 1 a b ca a 1 c bb b c 1 ac c b a 1
Allora
L(a)ε1 = εa
L(a)εa = εa2 = ε1
L(a)εb = εab = εc
L(a)εc = εac = εb
per cui la matrice di L(a) rispetto alla base ε1, εa, εb, εc e data da
0 1 0 01 0 0 00 0 0 10 0 1 0
24
Nota 4.32. Siano di nuovo G = {a1, . . . , aN} con gli elementi ai tutti
distinti ed M(g) per g ∈ G la matrice di L(g) rispetto alla base ortogo-
nale εa1, . . . , εaN
. Allora
M(g)ij = 1 ⇐⇒ gaj = ai ⇐⇒ g = aia−1
j
e quindi nella notazione abbreviata gia usata in precedenza abbiamo
M(g)ij = (g = aia−1
j )
Cio permette di determinare in modo molto veloce la matrice M(g):
Dalla tavola di moltiplicazione di G otteniamo in modo immediato
gli inversi x−1 per x ∈ G. Formiamo la tabella
1G a−1
2. . . a−1
j . . . a−1
N
1Ga2. . .ai aia
−1
j
. . .aN
Qui assumiamo, per comodita, che a1 = 1G.
La matrice M(g) si ottiene da questa tabella, sostituendo dapprima
g con 1 e tutti gli altri elementi con 0.
Esempio 4.33. Sia G = Z/4. La tavola di moltiplicazione e
0 1 2 3
0 0 1 2 31 1 2 3 02 2 3 0 13 3 0 1 2
Gli inversi sono dati da 0−1 = 0, 1−1 = 3, 2−1 = 2, 3−1 = 1, per cui la
tabella nella nota 4.32 diventa
0 3 2 1
0 0 3 2 11 1 0 3 22 2 1 0 33 3 2 1 0
Percio le matrici M(x), rispetto alla base ε1, εa, εb, εc, per ogni x ∈ Gsono:
25
M(0) =
1 0 0 00 1 0 00 0 1 00 0 0 1
M(1) =
0 0 0 11 0 0 00 1 0 00 0 1 0
M(2) =
0 0 1 00 0 0 11 0 0 00 1 0 0
M(3) =
0 1 0 00 0 1 00 0 0 11 0 0 0
Esempio 4.34. Per G = S3 = {id, (123), (132), (12), (13), (23)}. La tavola
di moltiplicazione e
S3 id (123) (132) (12) (13) (23)
id id (123) (132) (12) (13) (23)(123) (123) (132) id (13) (23) (12)(132) (132) id (123) (23) (12) (13)(12) (12) (23) (13) id (132) (123)(13) (13) (12) (23) (123) id (132)(23) (23) (13) (12) (132) (123) id
Gli inversi sono dati da id−1 = id, (123)−1 = (132), (132)−1 = (123),(12)−1 = (12), (13)−1 = (13), (23)−1 = (23), per cui la tabella nella nota
4.32 diventa
S3 id (132) (123) (12) (13) (23)
id id (123) (132) (12) (13) (23)(123) (123) id (132) (13) (23) (12)(132) (132) (123) id (23) (12) (13)(12) (12) (13) (23) id (132) (123)(13) (13) (23) (12) (123) id (132)(23) (23) (12) (13) (132) (123) id
Percio le matrici L(x), rispetto alla base ε1, εa, εb, εc, εd, εe, per ogni x ∈G sono:
M(id) =
1 0 0 0 0 00 1 0 0 0 00 0 1 0 0 00 0 0 1 0 00 0 0 0 1 00 0 0 0 0 1
M((123)) =
0 1 0 0 0 01 0 0 0 0 00 1 0 0 0 00 0 0 0 0 10 0 0 1 0 00 0 0 0 1 0
M((132)) =
0 0 1 0 0 00 0 1 0 0 01 0 0 0 0 00 0 0 0 1 00 0 0 0 0 10 0 0 1 0 0
M((12)) =
0 0 0 1 0 00 0 0 0 0 10 0 0 0 1 01 0 0 0 0 00 0 1 0 0 00 1 0 0 0 0
26
M((13)) =
0 0 0 0 1 00 0 0 1 0 00 0 0 0 0 10 1 0 0 0 01 0 0 0 0 00 0 1 0 0 0
M((23)) =
0 0 0 0 0 10 0 0 0 1 00 0 0 1 0 00 0 1 0 0 00 1 0 0 0 01 0 0 0 0 0
Esempio 4.35. Sia G = D4 il gruppo delle simmetrie del quadrato.
D4 puo essere identificato con un sottogruppo di S4:
D4 = {id, (1234), (12)(34), (13)(24), (1432), (14)(23), (13), (24)}.
La tavola di moltiplicazione e
D4 id (1234) (13)(24) (1432) (12)(34) (14)(23) (13) (24)
id id (1234) (13)(24) (1432) (12)(34) (14)(23) (13) (24)(1234) (1234) (13)(24) (1432) id (13) (24) (14)(23) (12)(34)(13)(24) (13)(24) (1432) id (1234) (14)(23) (12)(34) (24) (13)(1432) (1432) id (1234) (13)(24) (24) (13) (12)(34) (14)(23)(12)(34) (12)(34) (24) (14)(23) (13) id (13)(24) (1423) (1234)(14)(23) (14)(23) (13) (12)(34) (24) (13)(24) id (1234) (1432)(13) (13) (12)(34) (24) (14)(23) (1234) (1432) id (13)(24)(24) (24) (14)(23) (13) (12)(34) (14)(32) (1234) (13)(24) id
La tabella nella nota 4.32 diventa quindi
D4 id (1432) (13)(24) (1234) (12)(34) (14)(23) (13) (24)
id id (1432) (13)(24) (1234) (12)(34) (14)(23) (13) (24)(1234) (1234) id (1432) (13)(24) (13) (24) (14)(23) (12)(34)(13)(24) (13)(24) (1234) id (1432) (14)(23) (12)(34) (24) (13)(1432) (1432) (13)(24) (1234) id (24) (13) (12)(34) (14)(23)(12)(34) (12)(34) (13) (14)(23) (24) id (13)(24) (1423) (1234)(14)(23) (14)(23) (24) (12)(34) (13) (13)(24) id (1234) (1432)(13) (13) (14)(23) (24) (12)(34) (1234) (1432) id (13)(24)(24) (24) (12)(34) (13) (14)(23) (14)(32) (1234) (13)(24) id
Percio le matrici L(x), rispetto alla base ε1, εa, εb, εc, εd, εe, εf , εg, per
ogni x ∈ G sono:
M(id) =
1 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 1 0 0 0 00 0 0 0 1 0 0 00 0 0 0 0 1 0 00 0 0 0 0 0 1 00 0 0 0 0 0 0 1
27
M((1234)) =
0 0 0 1 0 0 0 01 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 0 0 0 10 0 0 0 0 0 1 00 0 0 0 1 0 0 00 0 0 0 0 1 0 0
M((13)(24)) =
0 0 1 0 0 0 0 00 0 0 1 0 0 0 01 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 0 0 0 1 0 00 0 0 0 1 0 0 00 0 0 0 0 0 0 10 0 0 0 0 0 1 0
M((1432)) =
0 1 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 1 0 0 0 01 0 0 0 0 0 0 00 0 0 0 0 0 1 00 0 0 0 0 0 0 10 0 0 0 0 1 0 00 0 0 0 1 0 0 0
M((12)(34)) =
0 0 0 0 1 0 0 00 0 0 0 0 0 0 10 0 0 0 0 1 0 00 0 0 0 0 0 1 01 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 1 0 0 0 00 1 0 0 0 0 0 0
M((14)(23)) =
0 0 0 0 0 1 0 00 0 0 0 0 0 1 00 0 0 0 1 0 0 00 0 0 0 0 0 0 10 0 1 0 0 0 0 01 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 0 1 0 0 0 0
M((13)) =
0 0 0 0 0 0 1 00 0 0 0 1 0 0 00 0 0 0 0 0 0 10 0 0 0 0 1 0 00 1 0 0 0 0 0 00 0 0 1 0 0 0 01 0 0 0 0 0 0 00 0 0 1 0 0 0 0
28
M((24)) =
0 0 0 0 0 0 0 10 0 0 0 0 1 0 00 0 0 0 0 0 1 00 0 0 0 1 0 0 00 0 0 1 0 0 0 00 1 0 0 0 0 0 00 0 1 0 0 0 0 01 0 0 0 0 0 0 0
Osservazione 4.36. Nelle ipotesi della nota 4.30 abbiamo
trL(g) = trM(g) =
{
|G| se g = 1G
0 se g 6= 1G
Dimostrazione. Cio e una conseguenza immediata della nota 4.30.
Teorema 4.37. La rappresentazione regolare e equivalente alla rap-
presentazione n1R1 ⊕ . . .⊕ nκRκ.
Dimostrazione. Ricordiamo che per le ipotesi nella situazione 4.8
nα e la dimensione di Rα : G −→ GL(nα,C).
Dal cor. 4.13 sappiamo che L e equivalente ad una rappresentazione
della forma m1R1⊕ . . .⊕mκRκ. Dobbiamo dimostrare che mα = nα per
ogni α. Per la prop. 4.12
mα =1
|G|‖χα, trL‖ =
1
|G|
∑
g∈G
χα(g)trL(g) =
4.36=
1
|G|χα(1G) |G| = χα(1G) = trRα(1G) = nα
Nota 4.38. Vediamo in particolare che nα 6= 0 per ogni α = 1, . . . , κ.
Cio significa che ogni rappresentazione irriducibile di G appare nella
rappresentazione regolare la quale contiene quindi (in forma nascosta)
l’informazione su tutte le rappresentazioni di dimensione finita di G.
Per questa ragione l’algebra di gruppo e cosı importante.
Definizione 4.39. Per una rappresentazione R : G −→ GL(V ) con
dimV = n < ∞ oppure una rappresentazione matriciale
R : G −→ GL(n,C) sia dimR := n.
Osservazione 4.40. Siano S1, . . . , Sp rappresentazioni matriciali o di
dimensione finita di G ed m1, . . . ,mp ∈ N. Allora
dim(m1S1 ⊕ . . .⊕mpSp) = m1 dimS1 + . . .+mp dimSp
Teorema 4.41 (teorema di Burnside).κ∑
α=1
n2α = |G|.
Dimostrazione. Per il teorema 4.37 la rappresentazione regolare e
equivalente alla rappresentazione n1R1 ⊕ . . .⊕ nκRκ, cosicche dall’oss.
4.40 si ha
29
|G| = dimL = n1 dimR1 + . . .+ nκ dimRκ = n21+ . . .+ n2
κ
Teorema 4.42. I coefficienti Rijα per α = 1, . . . , κ e 1 ≤ i,j ≤ nα formano
una base ortogonale di CG.
In particolare quindi per ogni funzione f : G −→ C esiste una rap-
presentazione
f =κ∑
α=1
nα∑
i=1
nα∑
j=1
λijαR
ijα
con i coefficienti λijα ∈ C univocamente determinati.
Dimostrazione. Per i risultati del terzo capitolo i coefficienti sono
tra loro ortogonali e percio linearmente indipendenti, il loro numero e
uguale aκ∑
α=1
n2α e coincide per il teorema di Burnside con dimCG.
Proposizione 4.43. I coefficienti λijα nella rappresentazione di una
funzione f ∈ CG nel teorema 4.42 possono essere esplicitamente calco-
lati, infatti si ha
λijα =
‖f,Rijα‖
G
nα
.
Dimostrazione. Siccome i coefficienti formano una base ortogonale
di CG abbiamo
λijα =
‖f,Rijα‖
‖Rijα, R
ijα‖
=‖f,Ri
jα‖
G/nα
Osservazione 4.44. Piu esplicitamente nella nota 4.43 si ha
λijα =
nα
|G|
∑
g∈G
f(g)Rijα(g)
30
5. Tavole dei caratteri
Situazione 5.1. G sia un gruppo finito, (R1, . . . , Rκ) un sistema di
Burnside di G e (n1, . . . , nκ) il corrispondente vettore delle dimensioni.
Per ogni α = 1, . . . , κ sia χα := trRα.
Definizione 5.2. Due elementi a,b ∈ G si dicono coniugati (in G), se
esiste g ∈ G tale che b = g−1ag. In tal caso scriviamo a ∼ b. In que-
sto modo otteniamo una relazione di equivalenza su G, le cui classi si
chiamano classi di G.
Lemma 5.3. Siano a,b ∈ G ed a ∼ b. Allora χα(a) = χα(b) per ogni
α = 1, . . . , κ.
Dimostrazione. Per ipotesi b = g−1ag per qualche g ∈ G. Percio
χα(b) = trRα(b) = trRα(g−1ag) =
= tr((Rα(g))−1Rα(a)Rα(g)) = trRα(a) = χα(a)
Definizione 5.4. Una funzione f : G −→ C si chiama una funzione
delle classi, se e costante su ogni classe di G, cioe se a ∼ b implica
f(a) = f(b). Per il lemma 5.3 ogni carattere e una funzione delle classi.
Denotiamo con CG l’insieme delle funzioni delle classi su G.
Proposizione 5.5. CG = SV (χ1, . . . , χκ).
Dimostrazione. (1) E chiaro che ogni elemento di SV (χ1, . . . , χκ) e
una funzione delle classi.
(2) Sia f ∈ CG. Allora f ∈ CG, percio esiste una rappresentazione
f =κ∑
α=1
nα∑i=1
nα∑j=1
λijαR
ijα come abbiamo visto nel teorema 4.42. Nel se-
guente tralasciamo i limiti di sommazione.
Sia a ∈ G fissato. Per ogni g ∈ G abbiamo allora
f(a) = f(gag−1) =∑
α
∑
i
∑
j
λijαR
ijα(gag
−1) =
=∑
α
∑
i
∑
j
λijα
∑
r
∑
s
Rirα(g)R
rsα(a)R
sjα(g
−1)
Sommando su g ∈ G abbiamo quindi
31
|G| f(a) =∑
α
∑
i
∑
j
λijα
∑
r
∑
s
Rrsα(a)
∑
g∈G
Rirα(g)R
sjα(g
−1) =
=∑
α
∑
i
∑
j
λijα
∑
r
∑
s
Rrsα(a)
1
nα
δijδsr =
=∑
α
1
nα
∑
i
λiiα
∑
r
Rrrα(a) =
∑
α
1
nα
∑
i
λiiαχα(a)
per cui
f =1
|G|
∑
α
(1
nα
∑
i
λiiα
)χα ∈ SV (χ1, . . . , χκ)
Teorema 5.6. κ e uguale al numero delle classi di G.
Dimostrazione. Sia m il numero delle classi di G. Allora CG ∼= Cm, e
siccome i caratteri sono ortogonali tra loro, si ha
dimSV (χ1, . . . , χκ) = κ. Dalla prop. 5.5 otteniamo
m = dim CG = dimSV (χ1, . . . , χκ) = κ
Osservazione 5.7. Il teorema precedente ha due applicazioni prati-
che immediate:
(1) Siccome e facile determinare il numero delle classi di G, possiamo
facilmente calcolare il numero delle rappresentazioni irriducibili di G.
Se ad esempio G e abeliano, il numero delle classi e uguale al numero
di elementi di G, per cui esistono |G| rappresentazioni irriducibili
inequivalenti di G.
In S3 invece ci sono tre classi, per cui esistono esattamente 3 rappre-
sentazioni irriducibili inequivalenti di S3.
(2) Il teorema 5.6 permette la costruzione delle tavole dei caratteri,
come vedremo adesso.
Corollario 5.8. Siano a, b ∈ G. Allora a ∼ b ⇐⇒ χα(a) = χα(b) per
ogni α = 1, . . . , κ
Dimostrazione. =⇒: Lemma 5.3.
⇐=: L’ipotesi implica, per la prop. 5.5, che f(a) = f(b) per ogni
f ∈ CG. Adesso definiamo una funzione f : G −→ C nel modo seguente.
Poniamo:
f(x) =
{1 per x ∼ b
0 altrimenti
E chiaro che f e una funzione delle classi. Ma allora f(a) = f(b) e cio
significa che a ∼ b.
Osservazione 5.9. Sia a ∈ G. Allora χα(a−1) = χα(a) per ogni
α = 1, . . . , κ.
32
Dimostrazione. Infatti per l’oss. 3.9 abbiamo
χα(a−1) = trRα(a
−1) = tr(Rα(a))∗ = trRα(a) = χα(a)
Corollario 5.10. Sia a ∈ G. Allora
a ∼ a−1 se e solo se χα(a) ∈ R per ogni α = 1, . . . , κ.
Dimostrazione. Per il corollario 5.8 abbiamo
a ∼ a−1 ⇐⇒ χα(a) = χα(a−1) per ogni α.
Pero χα(a−1) = χα(a) come sappiamo dall’oss. 5.9.
Nota 5.11. C1, . . . , Cκ siano le classi di G. Questa numerazione sia
arbitraria, ma fissata, con C1 = {1}. Per j = 1, . . . , κ sia Nj := |Cj |. I
caratteri dipendono solo dalle classi, per cui per 1 ≤ α, j ≤ κ possiamo
definire χα(Cj) := χα(g) se g ∈ Gj .
Otteniamo cosı la tavola dei caratteri di G:
N1 . . . Nj . . . Nκ
C1 . . . Cj . . . Cκ
χ1
. . .
χα χα(Cj). . .
χκ
Proposizione 5.12. Per α, β = 1, . . . , κ vale
κ∑j=1
Njχα(Cj)χβ(Cj) = |G| δαβ
Dimostrazione. La sommatoria coincide con∑g∈G
χα(g)χβ(g) = ‖χα, χβ‖ = |G| δαβ
Nota 5.13. Definiamo la matrice Γ ∈ Cκκ tramite
Γαj :=
√Nj
|G|χα(Cj)
La relazione nella prop. 5.12 diventa allora
κ∑j=1
Γαj Γ
βj = δαβ
ovvero
‖Γα,Γβ‖ = δαβ per ogni α, β = 1, . . . , κ.
33
Cio significa che le righe della matrice Γ formano un sistema ortonor-
male, Γ e quindi una matrice unitaria, per cui anche le colonne di Γformano una base ortonormale, ovvero
κ∑α=1
Γαj Γ
ακ = δ
jκ
per ogni j, κ = 1, . . . , κ.
Proposizione 5.14. Per ogni j, k = 1, . . . , κ si ha
κ∑α=1
χα(Cj)χα(Cκ) =|G|
Nk
δjκ
Dimostrazione. Questa relazione non e altro che l’ultima equazione
nella nota 5.13. La sommatoria coincide con
δjκ =
κ∑
α=1
Γαj Γ
ακ =
κ∑
α=1
√Nj
|G|χα(Cj)
√Nκ
|G|χα(Cκ) =
=1
|G|
√NjNκ
κ∑
α=1
χα(Cj)χα(Cκ)
evidentemente equivalente all’enunciato.
34
6. Le rappresentazioni irriducibili di S3
Definizione 6.1. Il gruppo S3 e isomorfo al gruppo delle simmetrie
piane del triangolo equilatero. Siano ρα :=
(
cosα -sinαsinα cosα
)
la rotazione
per α, σα :=
(
cos 2α sin 2αsin 2α -cos 2α
)
la riflessione all’angolo α. Otteniamo
cosı una rappresentazione R3 di S3:
id 7−→ δ =
(
1 00 1
)
(12) 7−→ σ0 =
(
1 00 −1
)
(23) 7−→ σ 2π
3
=1
2
(
−1 −√3√
3 1
)
(13) 7−→ σ 4π
3
=1
2
(
−1√3√
3 1
)
(123) 7−→ ρ 2π
3
=1
2
(
−1 −√3√
3 −1
)
(132) 7−→ ρ 4π
3
=1
2
(
−1√3
−√3 −1
)
Si vede facilmente che queste matrici non possiedono un autovettore
comune; la rappresentazione e percio irriducibile.
Osservazione 6.2. Siano G un gruppo finito ed R : G −→ GL(V ) una
rappresentazione irriducibile, oppure R : G −→ GL(n,C) una rappre-
sentazione matriciale irriducibile.
Allora anche detR := ©gdetR(g) : G −→ C \ 0 = GL(1,C) e una
rappresentazione, necessariamente irriducibile (essendo una rappre-
sentazione unidimensionale).
Puo naturalmente accadere che detR(g) = 1 per ogni g ∈ G; in tal
caso questa rappresentazione coincide con la rappresentazione banale.
Nota 6.3. Per la rappresentazione R3 : S3 −→ GL(2,C) della def. 6.1
otteniamo la rappresentazione R2 := detR3 descritta dalla seguente
tabella:
id 7−→ 1
(12) 7−→ −1
(23) 7−→ −1
(13) 7−→ −1
(123) 7−→ 1
(132) 7−→ 1
35
Per g ∈ S3 si ha quindi semplicemente R2(g) = sgn g. Dal teorema
4.14 sappiamo che le rappresentazioni R1 e R2 non sono equivalen-
ti e naturalmente nessuna delle due e equivalente ad R3, essendo
quest’ultima 2-dimensionale. Il numero delle classi di S3 e uguale a
3, percio (R1, R2, R3) e un sistema di Burnside per S3, come sappiamo
dall’oss. 5.7. Per il teorema 4.42 i coefficienti R1
11, R1
12, R1
13, R1
23, R2
13, R2
23,
formano una base ortogonale di CS3 ∼= C6, che possiamo trascrivere nel
seguente schema:
g R1
11R1
12R1
13R1
23R2
13R2
23
id 1 1 1 0 0 1(12) 1 −1 1 0 0 −1
(23) 1 −1 −1
2−
√
3
2
√
3
2
1
2
(13) 1 −1 −1
2
√
3
2
√
3
2
1
2
(123) 1 1 −1
2−
√
3
2
√
3
2−1
2
(132) 1 1 −1
2
√
3
2−
√
3
2−1
2
Osservazione 6.4. Conoscendo cosı un sistema di Burnside di S3, cal-
colando le tracce otteniamo direttamente le tavole dei caratteri:
1 3 2
C1 C2 C3
χ1 1 1 1χ2 1 −1 1χ3 2 0 −1
Osservazione 6.5. Anche quando non si conoscono tutte le rappresen-
tazioni irriducibili di un gruppo, spesso e possibile calcolare le tavole
dei caratteri appellandosi alla teoria trattata nei capitoli precedenti.
Proviamo a fare cio per le rappresentazioni di S3.
(1) Dopo aver denotato, come sempre, con R1 la rappresentazione
banale, considerando il segno di una permutazione arriviamo subito
alla R2 = ©gsgn g. Assumiamo invece di conoscere R3. Dal teorema di
Burnside sappiamo che n2
1+ n2
2+ n2
3= |S3|, ovvero 1+ 1+ n2
3= 6 , e cio
implica n3 = 2. In questo modo otteniamo la tavola incompleta :
1 3 2
C1 C2 C3
χ1 1 1 1χ2 1 −1 1χ3 2 a b
36
Dobbiamo ancora determinare a e b. Dalla proposizione 5.14 abbiamo
pero :{
1 · 1− 1 · 1 + 2 · a = 0
1 · 1 + 1 · 1 + 2 · b = 0
da cui segue che a = 0 e b = −1, in accordo con quanto visto nell’oss.6.4.
37
7. Caratteri di gruppi abeliani finiti
Situazione 7.1. G sia un gruppo abeliano finito. Poniamo
ε := e2πi
|G| .
Proposizione 7.2. I caratteri di G sono esattamente le applicazioni
χ : G −→ C tale che
χ(1) = 1
χ(gh) = χ(g)χ(h)
Dimostrazione. (1) Ogni funzione della forma indicata puo essere
considerata come una rappresentazione matriciale 1-dimensionale
G −→ GL(1,C). Essa e quindi irriducibile e coincide con la propria
traccia, ed e quindi un carattere di G.
(2) Sia viceversa ϕ una rappresentazione matriciale irriducibile di
G. Per la prop. 2.11 ϕ e allora 1-dimensionale e coincide quindi con
la propria traccia χ. Ma χ e allora un omomorfismo G −→ GL(1,C) e
soddisfa quindi le condizioni nell’enunciato.
Definizione 7.3. Denotiamo con G l’insieme dei caratteri di G.
Osservazione 7.4. |G| = |G|
Dimostrazione. Per il teorema 5.6 |G| e uguale al numero delle classi
di G. Siccome G e abeliano, si ha pero κ = |G|.
Proposizione 7.5. Siano χ ∈ G e g ∈ G. Allora χ(g) e una |G|-esima
radice dell’unita . In particolare vediamo che |χ(g)| = 1.
Dimostrazione. Infatti χ(g)|G| = χ(g|G|) = χ(1) = 1.
Proposizione 7.6. G diventa un gruppo abeliano finito se per χ, ψ ∈ G
poniamo
χψ := ©gχ(g)ψ(g)
L’elemento neutro di questo gruppo e il carattere banale χ1 := ©g1,
inoltre per χ ∈ G si ha χ−1 = χ.
Dimostrazione. (1) G e finito essendo |G| = |G| per l’oss. 7.4.
(2) Siano χ, ψ ∈ G e g, h ∈ G. Allora
(χψ)(gh) = χ(gh)ψ(gh) = χ(g)χ(h)ψ(g)ψ(h) = χ(g)ψ(g)χ(h)ψ(h) =
= (χψ)(g)(χψ)(h)
Inoltre (χψ)(1) = χ(1)ψ(1) = 1 · 1 = 1, e vediamo che sono soddisfatte
le condizioni della prop. 7.2. Percio χψ ∈ G.
38
(3) E chiaro che χ1 e l’elemento neutro di G.
(4) E inoltre evidente che G e un monoide.
(5) Per χ ∈ G e g ∈ G abbiamo infine
χ(g) = χ(g)7.5=
1
χ(g), cosicche (χχ)(g) = χ(g)χ(g) = 1. Cio mostra che
G e un gruppo, ovviamente abeliano.
Definizione 7.7. Il gruppo G e detto gruppo dei caratteri o gruppo
duale di G.
Lemma 7.8. G sia ciclico e t un generatore di G. Allora l’applica-
zione χt : G −→ C definita da
χt(tk) := εk
per k ∈ Z e ben definita e un carattere di G. In particolare abbiamo
χt(t) = ε.
Dimostrazione. (1) Dimostriamo prima che l’applicazione χt e ben
definita. Ogni elemento di G e della forma tκ per qualche κ ∈ Z. Sia
tκ = tm. Allora m = κ+ j |G| per qualche j ∈ Z, per cui
εm = εκ+j|G| = εκ.
(2) Dimostriamo che χt soddisfa le condizioni della prop. 7.1.
χt(1) = χt(t0) = ε0 = 1
χt(tktm) = χt(t
k+m) = εk+m = εkεm = χt(tk)χt(t
m)
Teorema 7.9. G sia ciclico e t un generatore di G. Allora i caratteri
χ1, χt, χ2t , . . . , χ
|G|−1t sono tutti distinti tra di loro e
G = {χ1, χt, χ2t , . . . , χ
|G|−1t }
G e quindi un gruppo ciclico (dello stesso ordine di G), generato da χt.
Dimostrazione. (1) I numeri
χ1(t) = 1, χt(t) = ε, χ21(t) = ε2, . . . , χ
|G|−11 = ε|G|−1 sono tutti distinti tra
di loro, percio lo sono anche le applicazioni χ1, χt, . . . , χ|G|−1t . Queste
sono caratteri come sappiamo dalla prop. 7.6.
(2) Dobbiamo ancora dimostrare che ogni carattere di G e uno dei
caratteri elencati. Sia χ ∈ G. Dalla prop. 7.5 sappiamo che χ(t) e una
|G|-esima radice dell’unita; quindi esiste un k ∈ {0, 1, . . . , |G| − 1} tale
che χ(t) = εk. Ma allora χ = χkt .
Corollario 7.10. G sia ciclico. Allora G ∼= G. Questo isomorfismo pero
non e canonico, perche dipende dalla scelta del generatore t nel teorema
7.9, tranne nel caso |G| ≤ 2 in cui esiste un solo generatore.
Corollario 7.11. G sia ciclico e t un generatore di G. Allora ogni fun-
zione f : G −→ C possiede un’unica rappresentazione della forma
39
f = α0χ1 + α1χt + α2χ2t + . . .+ α|G|−1χ
|G|−1t
con α0, α1, . . . , α|G|−1 ∈ C. Per k ∈ Z abbiamo quindi
f(tk) = α0 + α1ε1 + α2ε
2 + . . .+ α|G|−1ε|G|−1
Dimostrazione. Cio segue dal teorema 7.9 e dalla prop. 5.5 (o dal
teorema 4.42).
Proposizione 7.12. Sia H un altro gruppo abeliano finito. Allora
l’applicazione
G× H −→ G×H
(χ, ψ) 7−→ χ⊗ ψ := ©(x,y)
χ(x)ψ(y)
e ben definito ed e un isomorfismo di gruppi.
Dimostrazione. Facile verifica.
Teorema 7.13. G e prodotto diretto di gruppi ciclici.
Dimostrazione. Corso di algebra.
Corollario 7.14. G ∼= G.
Dimostrazione. Teorema 7.13, prop. 7.12 e cor. 7.10.
40
8. Esempi di tavole dei caratteri
Situazione 8.1. Nelle tavole dei caratteri dei gruppi abeliani trala-
sciamo la riga degli Nj , essendo questi tutti uguali ad 1, mentre nella
casella della classe scriviamo l’unico elemento di essa. Nel caso dei
gruppi ciclici denotiamo con t un generatore.
Esempio 8.2. Tavola dei caratteri di Z/2.
1 t
χ1 1 1χ2 1 −1
Esempio 8.3. Tavola dei caratteri di Z/3. Sia ε := ε2πi
3 , per cui ε3 = 1.
1 t t2
χ1 1 1 1χ2 1 ε ε2
χ3 1 ε2 ε
Esempio 8.4. Tavola dei caratteri di Z/4. Sia ε := ε2πi
4 , per cui ε4 = 1.
1 t t2 t3
χ1 1 1 1 1χ2 1 ε ε2 ε3
χ3 1 ε2 1 ε2
χ4 1 ε3 ε2 ε
Esempio 8.5. Tavola dei caratteri di Z/5. Sia ε := ε2πi
5 , per cui ε5 = 1.
1 t t2 t3 t4
χ1 1 1 1 1 1χ2 1 ε ε2 ε3 ε4
χ3 1 ε2 ε4 ε ε3
χ4 1 ε3 ε ε4 ε2
χ5 1 ε4 ε3 ε2 ε
Osservazione 8.6. Si osservi che in un gruppo ciclico finito con ge-
neratore t e χj = χjt si ha χj(t
κ) = εκj = χκ(tj), per cui la tavola dei
caratteri risulta simmetrica.
41
Esempio 8.7. Tavola dei caratteri di Z/6. Sia ε := ε2πi
6 , per cui ε6 = 1.
1 t t2 t3 t4 t5
χ1 1 1 1 1 1 1χ2 1 ε ε2 ε3 ε4 ε5
χ3 1 ε2 ε4 1 ε2 ε4
χ4 1 ε3 1 ε3 1 ε3
χ5 1 ε4 ε2 1 ε4 ε2
χ6 1 ε5 ε4 ε3 ε2 ε
Esempio 8.8. Tavola dei caratteri V4. Usando l’isomorfismo
V4 = Z/2× Z/2, dalla prop. 7.12 e dall’esempio 8.2 otteniamo
(0, 0) (0, 1) (1, 0) (1, 1)
χ1 1 1 1 1χ2 1 −1 1 −1χ3 1 1 −1 −1χ4 1 −1 −1 1
dove abbiamo posto χ2 := ϕ1 ⊗ ϕ2, χ3 := ϕ2 ⊗ ϕ1, χ4 := ϕ2 ⊗ ϕ2.
Esempio 8.9. Tavola dei caratteri di S3, gia calcolata nell’oss. 6.4
1 3 2
C1 C2 C3
χ1 1 1 1χ2 1 −1 1χ3 2 0 −1
42
9. Un criterio di irriducibilita
Situazione 9.1. G sia un gruppo finito, (R1, . . . , Rκ) un sistema di
Burnside di G e (n1, . . . , nκ) il corrispondente vettore delle dimensioni.
Per ogni α = 1, . . . , κ sia χα := trRα.
Lemma 9.2. Siano m1, . . . ,mκ ∈ N ed R := m1R1⊕ . . .⊕κmκRκ. Allora
‖ trR‖2 = |G|κ∑
α=1
m2
α
Dimostrazione. Abbiamo trR =κ∑
α=1
mαχα, per cui
‖ trR, trR‖ =
κ∑
α=1
κ∑
β=1
mαmβ‖χα, χβ‖ =
κ∑
α=1
κ∑
β=1
mαmβ |G| δαβ =
= |G|
κ∑
α=1
m2
α
Teorema 9.3. Una rappresentazione R di G di dimensione finita e
irriducibile se e solo se ‖ trR‖2 = |G|.
Dimostrazione. Per il cor. 4.13 possiamo scrivere R nella forma
m1R1 ⊕ . . .⊕mκRκ con m1, . . . ,mκ ∈ N univocamente determinati. Al-
lora sono equivalenti:
(1) R e irriducibile.
(2) Esattamente uno degli mα e uguale a 1 mentre mβ = 0 per ogni
β 6= α.
(3)κ∑
α=1
m2
α = 1.
(4) |G|κ∑
α=1
m2
α = |G|.
L’enunciato segue dal lemma 9.2.
Lemma 9.4.∑
g∈G
χα(g) =
{
|G| per α = 1
0 altrimenti
Dimostrazione. Si tratta di un utile caso particolare delle relazioni
di ortogonalita per i caratteri. Infatti∑
g∈G
χα(g) = ‖χα, χ1‖ = |G| δ1α
43
10. Interi algebrici
Situazione 10.1. Siano E un anello commutativo ed A un sottoanellodi E.
Definizione 10.2. Un polinomio in A[x] si dice monico, se e di gradon ≥ 1 e se il coefficiente di xn e uguale ad 1.
Denotiamo con A{x} l’insieme dei polinomi monici in A[x].
Definizione 10.3. Un elemento α ∈ E si dice algebrico su A, se esiste
f ∈ A[x] tale che f(α) = 0, e intero su A, se esiste f ∈ A{x} tale chef(α) = 0.
Denotiamo con Alg(E : A) l’insieme degli elementi algebrici di E suA e con Int(E : A) l’insieme degli elementi interi di E su A.
Osservazione 10.4. A ⊂ Int(E : A) ⊂ Alg(E : A).
Dimostrazione. Per ogni α ∈ A abbiamo f := x− α ∈ A{x} edf(α) = 0. Cio mostra la prima inclusione. La seconda e evidente percheA{x} ⊂ A[x].
Osservazione 10.5. Se A e un campo, allora Int(E : A) = Alg(E : A).
Definizione 10.6. Denotiamo con A• l’insieme degli elementi inverti-bili di A e poniamo A2 := A• ∪ {0}.
Definizione 10.7. L’anello A (per ipotesi commutativo) si dice fatto-
riale, se e integro e se ogni elemento di A \ A2 e prodotto di elementiprimi.
Proposizione 10.8. I sia un ideale di A. Allora l’omomorfismo ca-
nonico A[x] −→ (A/I)[x] e suriettivo e il suo nucleo e uguale a I[x].Otteniamo in questo modo un isomorfismo naturale
A[x]/I[x] ∼= (A/I)[x]
Dimostrazione. Facile verifica.
Proposizione 10.9. Siano A integro ed a ∈ A. Allora sono equivalenti:
(1) a e primo in A.
(2) a e primo in A[x].
Dimostrazione. E sufficiente dimostrare che Aa e un ideale primo diA se e solo A[x]a e un ideale primo in A[x]. Ma cio segue dall’isomorfia
A[x]/A[x]a ∼= (A/Aa)[x] e del fatto che (A/Aa)[x] e integro se e solo seA/Aa e integro.
Osservazione 10.10. A sia fattoriale. Allora per a1, . . . , am ∈ A esiste
un massimo comune divisore (mcd) di a1, . . . , am, essenzialmente unico
(cioe determinato a meno di un fattore invertibile).
Se (a1, . . . , am) 6= (0, . . . , 0) e se d e un mcd di a1, . . . , am, allora d 6= 0e gli elementi a1
d, . . . , am
dsono relativamente primi.
44
Definizione 10.11. Un polinomio f ∈ A[x] si dice primitivo, se e digrado ≥ 1 e se i coefficienti di f sono relativamente primi.
Lemma 10.12. Sia A fattoriale e sia K il campo dei quozienti di A.
Siano f, g ∈ K[x] tale che fg ∈ A[x].
Allora esiste λ ∈ K \ 0 tale che λf ,λ−1g ∈ A[x].
Dimostrazione. Sia h := fg. Per ipotesi h ∈ A[x].
Siccome K e il campo dei quozienti di A, esiste un b ∈ A tale che
bf, bg ∈ A[x]. Possiamo assumere f, g 6= 0. Siano d un massimo comunedivisore dei coefficienti di bf ed e un massimo comune divisore dei co-
efficienti di bg in A. Allora i polinomi F := bdf e G := b
eg siano primitivi.
Inoltre h = fg = deb2FG, cosicche b2h = deFG.
Per la prop 10.9 ogni fattore primo di b2 deve dividere uno dei fattoride, F o G in A. Siccome F e G sono primitivi, necessariamente b2|de in
A. Percio esiste c ∈ A tale che b2c = de e quindi b2h = b2cFG.
Corollario 10.13. A sia fattoriale e K il campo dei quozienti di A.
Siano f ∈ K{x} e g ∈ K[x] tali che fg ∈ A{x}.
Allora f, g ∈ A{x}.
Dimostrazione. (1) E chiaro che g ∈ K{x}.
(2) Per il lemma 10.12 esiste λ ∈ K \ 0 con λf , λ−1g ∈ A[x]. Cio
implica pero , essendo f e g monici, che λ, λ−1 ∈ A, per cuif = λ−1(λf) ∈ A[x] e g = λ(λ−1g) ∈ A[x].
Definizione 10.14. Siano K un sottocampo di E ed α ∈ Alg(E : K).Allora denotiamo con πα:K il polinomio di α su K.
Proposizione 10.15. A sia fattoriale ed E contenga il campo dei quo-
zienti K di A. Sia α ∈ Int(E : A). Allora πα:K ∈ A{x}.
Dimostrazione. Per ipotesi esiste h ∈ A{x} con h(α) = 0. Cio implicain particolare che α ∈ Alg(E : H) e che πα:K |h in K[x] e cio significa che
esiste g ∈ K[x] tale che πα:Kg = h. Dal cor. 10.13 segue πα:K ∈ A{x}.
Definizione 10.16. Gli elementi di Int(C : Z) sono detti interi
algebrici.
Osservazione 10.17. α sia un intero algebrico. Allora πα:Q ∈ Z{x}.
Osservazione 10.18. Siano α ∈ E ed αn + a1αn−1 + . . . + an = 0 con
a1, . . . , an ∈ A. Allora αm ∈ A + Aα + . . . + Aαn−1 per ogni m ≥ 0,
cosicche
A[α] = A+Aα+ . . .+Aαn−1
A[α] e percio un A-modulo finitamente generato.
Nota 10.19. M sia un E-modulo. Per ogni n ≥ 1 allora anche Mn e un
E-modulo, quindi anche un Enn -modulo. Per v1, . . . , vn ∈ M e T ∈ En
n si
ha semplicemente
45
T
v1
. . .vn
=
w1
. . .wn
con wi =n∑
k=1
T ikv
k per ogni i = 1, . . . , n. Per n = 2 si ha ad esempio
(
T 11 T 1
2
T 21 T 2
2
)(
v1
v2
)
=
(
T 11 v
1 + T 12 v
2
T 21 v
1 + T 22 v
2
)
Per S, T ∈ Enn si ha STv = S(Tv) per ogni v ∈ Mn.
Osservazione 10.20. M sia un E-modulo e v ∈ Mn. Sia T ∈ Enn tale
che Tv = 0. Allora (detT )v = 0.
Dimostrazione. Cio segue da TadT = (detT )δ.
Lemma 10.21. Siano α ∈ E ed M un A[x]-modulo. M sia finitamente
generato come A-modulo. Allora esistono n ≥ 1 e T ∈ Ann tali che
det(α− T )M = 0.
Dimostrazione. Per ipotesi esistono v1, . . . , vn ∈ M tali che
M = Av1+ . . .+Avn. Allora αvi =n∑
k=1
T ikv
k per ogni i, con T ik ∈ A. Siano
v :=
v1
. . .vn
∈ Mn e T :=
T 11 . . . T 1
n
. . .Tn1 . . . Tn
n
∈ Ann.
Allora αv = Tv, percio (α− T )v = 0. Per l’oss. 10.20 alloradet(α−T )v = 0, e cio significa det(α−T )vi = 0 per ogni i. Siccome pero
M = Av1 + · · ·+Avn, otteniamo det(α− T )M = 0.
Teorema 10.22. Per α ∈ E sono equivalenti :
(1) α ∈ Int(E : A).
(2) A[α] e un A-modulo finitamente generato.
(3) Esiste un sottoanello B di E con A[α] ⊂ B tale che B sia un
A-modulo finitamente generato.
(4) Esiste un A[α]-modulo M , finitamente generato come A-modulo
tale che annA[α]M = 0.
(5) Esistono n ≥ 1 e T ∈ Ann tali che det(α− T ) = 0.
Dimostrazione.
(1) =⇒ (2): Segue dall’oss. 10.18.
(2) =⇒ (3): Possiamo prendere B := A[α].
(3) =⇒ (4): Possiamo prendere M := B. Infatti, per ipotesi B eun A-modulo finitamente generato. Dobbiamo solo dimostrare
che annA[α]B = 0. Ma cio e vero perche 1 ∈ B.
(4) =⇒ (5): Sia M come nel punto (4). Per il lemma 10.21 esistono
n ≥ 1 e T ∈ Ann tale che det(α − T )M = 0. Per ipotesi annA[α]M = 0,
percio det(α− T ) = 0, essendo chiaramente det(α− T ) ∈ A[α].
46
(5) =⇒ (1): Siano n ≥ 1 e T ∈ Ann con det(α− T ) = 0. Allora
f := det(x− T ) ∈ A{x} con f(α) = 0.
Corollario 10.23. Sia α ∈ Int(E : A). Allora A[α] ⊂ Int(E : A).
Dimostrazione. Sia β ∈ A[α]. Allora A[β] ⊂ A[α], percio A[α] e unA[β]-modulo, il quale e un A-modulo finitamente generato per l’oss.
10.18, perche per ipotesi α ∈ Int(E : A). Inoltre I ∈ A[α], per cuiannA[β]A[α] = 0. L’enunciato segue dal punto (4) del teorema 10.22.
Definizione 10.24. E si dice intero su A, se E = Int(E : A), cioe se
ogni elemento di E e intero su A.
Osservazione 10.25. Sia E un A-modulo finitamente generato. Allora
E e intero su A.
Dimostrazione. Segue dal teorema 10.22.
Osservazione 10.26. Per α ∈ E sono equivalenti:
(1) α ∈ Int(E : A).
(2) A[α] e intero su A
Dimostrazione. Cor. 10.23.
Lemma 10.27. M sia un E-modulo finitamente generato ed E stesso un
A-modulo finitamente generato. Allora M e un A-modulo finitamente
generato.
Dimostrazione. Siano M = Ev1 + . . . + Evm con v1, . . . , vm ∈ M ed
E = Aα1 + . . .+Aαn con α1, . . . , αn ∈ E. AlloraM = Aα1v1 + . . .+Aα1vm + . . .+Aαnv1 +Aαnvm.
Proposizione 10.28. Per α1, . . . , αn ∈ E sono equivalenti:
(1) A[α1, . . . , αn] e intero su A.
(2) α1, . . . , αn ∈ Int(E : A).
(3) A[α1, . . . , αn] e un A-modulo finitamente generato.
Dimostrazione.
(1) =⇒ (2): Chiaro.
(2) =⇒ (3): Induzione su n.
n = 1: Sia α1 ∈ Int(E : A). Allora per l’oss. 10.18 A[α] e un A-modulofinitamente generato.
n −→ n + 1: Per ipotesi di induzione A[α1, . . . , αn−1] e un A-modulo
finitamente generato. Inoltre αn ∈ Int(E : A), per cui anche
αn ∈ Int(E : A[α1, . . . , αn−1]). Quindi A[α1, . . . , αn] e un A[α1, . . . , αn−1]-modulo finitamente generato. Per il lemma 10.27 A[α1, . . . , αn] e un
A-modulo finitamente generato.
(3) =⇒ (1): A[α1, . . . , αn] sia un A-modulo finitamente generato e
β ∈ A[α1, . . . , αn]. Allora A[β] ⊂ A[α1, . . . , αn] e del punto (3) del teore-
ma 10.22 segue che β ∈ Int(E : A).
47
Teorema 10.29. Int(E : A) e un sottoanello di E.
Dimostrazione. Siano α, β ∈ Int(E : A). Per la prop. 10.28
A[α, β] ⊂ Int(E : A). In particolare quindi α+ β, αβ ∈ Int(E : A).
Proposizione 10.30. B sia un sottoanello di E con A ⊂ B. B sia intero
su A. Allora Int(E : B) = Int(E : A).
Dimostrazione. (1) Chiaramente Int(E : A) ⊂ Int(E : B).
(2) Sia α ∈ Int(E : B). Allora esistono b1, . . . , bn ∈ B conαn + b1α
n−1 + . . . + bn = 0. Percio α e un intero su D := A[b1, . . . , bn],e quindi D[α] e un D-modulo finitamente generato. D stesso e un A-
modulo finitamente generato, e dal lemma 10.27 segue che D[α] e unA-modulo finitamente generato.
Corollario 10.31. B sia un sottoanello di E con A ⊂ B. E sia intero
su B e B intero su A. Allora E e intero su A.
Definizione 10.32. A sia integro. Allora A si dice integralmente chiu-
so, se Int(K(A) : A) = A.
K(A) e il campo quoziente di A.
Teorema 10.33. Ogni anello fattoriale e integralmente chiuso.
Dimostrazione. A sia un anello fattoriale ed α =b
ccon b, c ∈ A, c 6= 0,
e mcd(b, c) = 1. α sia intero su A. Allora esistono a1, . . . , an ∈ A conαn+ a1α
1+ . . .+ an = 0, per cui bn+ a1bn−1c+ a2b
n−2c2+ . . .+ ancn = 0.
Vogliamo dimostrare che c ∈ A. Assumiamo che non sia cosı. Allora
esiste un elemento primo in A con p|c. Cio implica pero p|bn e quindip|b, in contraddizione con l’ipotesi che mcd(b, c) = 1.
Corollario 10.34. (1) Z e integralmente chiuso.
Quindi ogni numero razionale intero su Z appartiene a Z.
(2) Ogni anello Z[x1, . . . , xn] e integralmente chiuso.
(3) Ogni anello K[x1, . . . , xn], dove K e un campo, e integralmente
chiuso.
(4) Ogni anello ed ideale principale e integralmente chiuso.
48
11. Il teorema della dimensione
Situazione 11.1. G sia un gruppo finito, (R1, . . . , Rκ) un sistema di
Burnside di G e (n1, . . . , nκ) il corrispondente vettore delle dimensioni.
Per ogni α = 1, . . . , κ sia χα := trRα.
Definizione 11.2. Siano K un campo ed
f = xn + a1xn−1 + . . .+ an ∈ K{x}. Allora la matrice
0 0 . . . 0 −an1 0 . . . 0 −an−1
0 1 . . . 0 −an−2
0 0 . . . 0 −an−3
. . . . . . . . . . . . . . .
0 0 . . . 1 −a1
si chiama la matrice compagna (talvolta anche matrice di Frobenius)
di f .
Lemma 11.3. Siano K un campo ed f ∈ K{x}. Allora f coincide con il
polinomio caratteristico della sua matrice compagna.
Dimostrazione. Horn/Johnson, pagg. 146-147, Scheja/Storch, pagg.
260-261, Simon, pag. 44.
Corollario 11.4. Sia α ∈ C. Allora sono equivalenti:
(1) α ∈ Int(C : Z).
(2) α e autovalore di una matrice appartenente a Znn per
qualche n ∈ N+ 1.
(3) α e autovalore di una matrice che appartiene a (Int(C : Z))nn per
qualche n ∈ N+ 1.
Dimostrazione. (1) =⇒ (2): Sia α ∈ Int(C : Z). Allora esiste f ∈ Z {x}tale che f(α) = 0. Sia A la matrice compagna di f . Chiaramente
A ∈ Znn. Per il lemma 11.3 α e autovalore di A.
(2) =⇒ (3): Chiaro.
(3) =⇒ (1): Poniamo D := Int(C : Z). α sia autovalore di una matrice
A ∈ Dnn. Sia f il polinomio caratteristico di A. Allora f(α) = 0, mentre
l’ipotesi A ∈ Dnn implica f ∈ D {x}, per cui α ∈ Int(C : D). Dalla prop.
10.30 segue α ∈ Int(C : Z).
Proposizione 11.5. I caratteri sono ortogonali rispetto alla convolu-
zione. Piu precisamente per ogni α, β = 1, . . . , κ abbiamo:
(1) χα ∗ χβ = 0 per α 6= β.
(2) χα ∗ χα = |G|nα
χα.
Dimostrazione. Per g ∈ G abbiamo
49
χα ∗ χβ(g) =∑
h∈G
χα(h)χβ(h−1g) =
∑
h∈G
κ∑
i=1
κ∑
j=1
Riiα(h)R
jjβ(h)R
jjβ(g)
=
κ∑
j=1
Rjjβ(g)
κ∑
i=1
‖Riiα, R
jjβ‖
Dal cor. 3.10 segue anche che χα ∗χβ = 0 per α 6= β. Infine dal cor. 3.11
abbiamo
χα ∗ χα =κ∑
j=1
Rjjα‖R
jjα, R
jjα‖ =
κ∑
j=1
Rjjα
|G|
nα
=|G|
nα
χα
Corollario 11.6. Gli elementi nα
|G|χα sono quindi idempotenti ortogo-
nali in CG.
Lemma 11.7. Per ogni α = 1, . . . , κ, per ogni g ∈ G
vale χα(g) ∈ Int(C : Z).
Dimostrazione. Sappiamo che g|G| = 1. Percio la G-esima potenza
della matrice Rα(g) e la matrice identica e cio implica che per ogni
autovalore λ di Rα(g) si ha λ|G| = 1. Cio mostra in particolare che
λ ∈ Int(C : Z) e siccome la traccia χα(g) e la somma degli autovalori di
Rα(g), per il teorema 10.29 anche χα(g) ∈ Int(C : Z).
Definizione 11.8. In questa parte finale del capitolo usiamo le se-
guenti notazioni. Sia α ∈ {1, . . . , κ} un indice fissato. Allora:
(1) g1 = 1G, g2, . . . , g|G| siano gli elementi di G (necessariamente tutti
distinti).
(2) Per i, j = 1, . . . , |G| sia Bji := χα(g
−1
j gi). In questo modo otteniamo
una matrice B ∈ C|G||G|.
(3) Per i = 1, . . . , |G| sia vi := χα(gi). In questo modo otteniamo un
vettore v ∈ C|G|.
Osservazione 11.9. v 6= 0
Dimostrazione. Infatti v1 = χα(1G) = nα 6= 0.
Lemma 11.10. Bv = |G|nα
v.
Per l’osservazione 11.9|G|nα
e quindi autovalore di B.
Dimostrazione. Per ogni i = 1, . . . , κ abbiamo per definizione
(Bv)i =
κ∑
j=1
Bijv
j =
κ∑
j=1
χα(g−1
j gi)χα(gj) =
= χα ∗ χα(gi)11.5=
|G|
nα
χα(gi) =|G|
nα
vi
.
50
Osservazione 11.11. B ∈ (Int(C : Z))|G||G|.
Dimostrazione. Cio segue dal lemma 11.7.
Corollario 11.12.|G|nα
∈ Int(C : Z).
Dimostrazione. Per il lemma 11.10 λ := |G|nα
e un autovalore di B. Ma
B ∈ (Int(C : Z))|G||G|, per cui dalla prop. 10.30 segue λ ∈ Int(C : Z).
Teorema 11.13. nα divide |G|.
Dimostrazione. Ovviamente|G|nα
∈ Q. Dal cor. 11.12 sappiamo pero
che|G|nα
∈ Q ∩ Int(C : Z)10.34= Z.
51
12. Applicazioni in statististica
Situazione 12.1. Il libro di Diaconis tratta in modo dettagliato l’utilizzo
della teoria delle rappresentazioni dei gruppi finiti in statistica e cal-
colo delle probabilita . Presentiamo l’idea fondamentale di questa tec-
nica.
Nota 12.2. In un’indagine di mercato 1200 persone hanno scelto, su
tre prodotti proposti, una graduatoria preferenziale con il seguente
risultato:
123 id 100213 (12) 500132 (23) 120321 (13) 140231 (123) 300312 (132) 40
La prima colonna contiene la graduatoria scelta, la seconda la permu-
tazione corrispondente e la terza il numero delle preferenze. L’ultima
colonna puo essere interpretata come funzione f : S3 −→ C alla quale
possiamo applicare la formula di rappresentazione del teorema 4.42:
f =κ∑
α=1
nα∑
i=1
nα∑
j=1
λijα
con λijα =
nα
6‖f,Ri
jα‖.
Osservazione 12.3. Dalla tabella della nota 6.3 otteniamo i λijα
λ1
11 =1
6[f(id) + f(12) + f(23) + f(13) + f(123) + f(132)]
=1
6[100 + 500 + 120 + 140 + 300 + 40] =
1200
6= 200
λ1
12 =1
6[f(id)− f(12)− f(23)− f(13) + f(123) + f(132)]
=1
6[100− 500− 120− 140 + 300 + 40] =
320
6≈ 53
λ1
13 =2
6[f(id) + f(12)− 1
2f(23)− 1
2f(13)− 1
2f(123)− 1
2f(132)]
=2
6[100 + 500− 60− 70− 150− 20] =
600
6= 100
λ1
23 =2
6[0 + 0−
√3
2f(23) +
√3
2f(13)−
√3
2f(123) +
√3
2f(132)]
=2
6[√3(−60 + 70− 150 + 20)] =
1
3[√3(−120)] ≈ −81
52
λ2
13 =2
6[0 + 0 +
√3
2f(23) +
√3
2f(13) +
√3
2f(123)−
√3
2f(132)]
=2
6[√3(60 + 70 + 150− 20)] =
1
3[√3(260)] ≈ 69
λ2
23 =2
6[f(id)− f(12) +
1
2f(23) +
1
2f(13)− 1
2f(123)− 1
2f(132)]
=2
6[100− 500 + 60 + 70− 150− 20] = −440
3≈ 176
Abbiamo quindi (approssimativamente)
f = 200R1
11− 53R1
12+ 100R1
13− 81R1
23+ 69R2
13− 176R2
23(∗)
La funzione R1
11e costante e quindi statisticamente irrilevante; degli
altri coefficienti il piu importante e il coefficiente della componente
R2
23, che corrisponde all’ultima colonna della tabella nella nota 6.3.
Abbiamo invertito i segni in accordo con (∗):
g −R2
23(g)
id −1(12) 1(23) −1
2
(13) −1
2
(123) 1
2
(132) 1
2
Questa e quindi la componente piu significativa della funzione.
53
54
Bibliografia
P. Diaconis: Group representations in probability and statistics. IMS 1988.
R. Horn/C. Johnson: Matrix analysis. Cambridge UP 1993.
I. Isaacs: Character theory of finite groups. Dover 1994.
A. Machı: Gruppi. Springer 2007.
F. Paset: Regressione, correlazione e analisi delle componenti principali.
Tesi, Ferrara 2003.
B. Simon: Representations of finite and compact groups. AMS 1996.
G. Scheja/U. Storch: Lehrbuch der Algebra II. Teubner 1988.
55