51
Geometria I appunti (non rivisti dai professori) delle lezioni Ateneo Studenti Fisica Alessandro Principi

Geometria I - Giorgio Busoni's Blog · Geometria I appunti (non rivisti dai professori) delle lezioni Ateneo Studenti Fisica Alessandro Principi

  • Upload
    others

  • View
    5

  • Download
    1

Embed Size (px)

Citation preview

  • Geometria Iappunti (non rivisti dai professori) delle lezioni

    Ateneo Studenti FisicaAlessandro Principi

  • Indice

    Strutture algebriche 2Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

    Costruire sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Altri sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

    Applicazioni Lineari, Sistemi Lineari 7Nucleo e Immagine di un’applicazione lineare, Sistemi Lineari . . . . . . . . . . . . . . . . . . . 7

    Risoluzione di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    Prodotto di Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    Dimensione e base di uno spazio vettoriale 12Formula di Grassman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    Rango di un’applicazione lineare 16Classe di Equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16Calcolo del rango di una matrice a scalini S e di una base di ImS . . . . . . . . . . . . . . . . . 18Matrici Elementari e invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18Calcolo della matrice inversa attraverso l’algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . 20Matrice associata a un’applicazione lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

    SD-equivalenza 23

    Determinante 25Criterio dei minori orlati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    Coniugio e Similitudine 30Calcolo di autovalori e autospazi per una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 31Diagonalizzabilitá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33Triangolabilitá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    Forme bilineari 36Forma quadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    Congruenza, forme isometriche 38Rango di un’applicazione bilineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

    Prodotti Scalari 40Prodotti scalari definiti positivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

    Proprietá degli spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    Teorema Spettrale e prodotti Hermitiani 47Prodotti Hermitiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

    Ateneo Studenti Fisica 1

  • Strutture algebriche

    Definizione: Sia X un insieme, e sia ∗ una funzione tale che: ∗ : X × X −→ X. Allora si dice che ∗ èun’operazione su X.

    Definizione:(X, ∗) si dice gruppo se X è un insieme e ∗ un’operazione su X che verifica 3 proprietà:

    1. Esistenza dell’elemento neutro: ∃e ∈ X t. c. a ∗ e = e ∗ a = a;2. Esistenza dell’inverso: ∀a ∈ X ∃b ∈ X t.c. a ∗ b = b ∗ a = e;3. Proprietà associativa: ∀a, b, c ∈ X, (a ∗ b) ∗ c = a ∗ (b ∗ c).

    Definizione:(X, ∗) si dice gruppo commutativo (o abeliano) se è un gruppo e vale la proprietà com-

    mutativa: ∀a, b ∈ X , a ∗ b = b ∗ a.

    Definizione: Sia X un insieme, + (detta somma) e · (detto prodotto) due operazioni su X. Allorasi dice che

    (X, +, · ) è un campo se valgono le seguenti proprietà:

    1. Esistenza dell’elemento neutro (detto 0) per la somma;

    2. Esistenza dell’inverso per la somma;

    3. Proprietà associativa per la somma;

    4. Proprietà commutativa per la somma;

    5. Esistenza dell’elemento neutro (detto 1) per il prodotto;

    6. Proprietà associativa per il prodotto;

    7. Proprietà distributiva: ∀a, b, c ∈ X, a·(b +c) = a·b +a·c, (a +b)·c = a·c +b·c(Conta l’ordine!);

    8. Esistenza dell’inverso per il prodotto;

    9. Proprietà commutativa per il prodotto.

    Definizione:(X, +, · ) è un anello se valgono le proprietà 1 - 7 sopra elencate. É un anello commutativo

    se vale anche la proprietà 9.

    Definizione:(X, +, · ) è un corpo se valgono le proprietà 1 - 8 sopra elencate.

    2 Ateneo Studenti Fisica

  • Strutture algebriche

    Definizione:(V, +, ·, K) si dice spazio vettoriale se:

    • V è un insieme;• K è un campo;• + è una somma in V (+: V × V −→ V);• ·: K × V −→ V (detto prodotto per scalare).

    e valgono le seguenti proprietà:

    • (V, +) è un gruppo commutativo;• ∀α, β ∈ K, ∀v ∈ V, (αβ)v = α(βv);• ∃1 ∈ K t. c. ∀v ∈ V 1 · v = v;• ∀α, β ∈ K, ∀v ∈ V, (α + β)v = αv + βv;• ∀α ∈ K, ∀v, w ∈ V, α(v + w) = αv + αw;

    Spazi Vettoriali

    Definiamo ora alcuni spazi vettoriali:

    1) Sia K un campo, chiamiamo Kn = {(x1, x2, . . . , xn) | xi ∈ K ∀i = 1, . . . , n}.Definiamo + e · in questo modo:

    (x1, x2, . . . , xn) + (y1, y2, . . . , yn)def= (x1 + y1, x2 + y2, . . . , xn + yn),

    ∀(x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Kn

    a · (x1, x2, . . . , xn) def= (a · x1, a · x2, . . . , a · xn), ∀a ∈ K, ∀(x1, x2, . . . , xn) ∈ Kn

    Notiamo innanzitutto che + e · sono ben definiti (poichè si basano sulle proprietà del campo K), e che,grazie a queste definizioni, otteniamo uno spazio vettoriale.

    2) Sia K un campo, e sia

    K[x] = {a0 + a1x + . . . + anxn | ai ∈ K, ∀i = 1, . . . , n}

    e siano + e · le due operazioni classiche sui polinomi (somma e prodotto tra polinomi). Si verifica che,con le definizioni date, K[x] è un anello commutativo:

    • Elemento neutro per la somma: il polinomio i cui coefficienti sono tutti uguali a zero;• Inverso per la somma: polinomio con i coefficienti inversi;• Elemento neutro per il prodotto: è il polinomio 1 (tutti i coefficienti dei termini di grado

    superiore a zero sono zero);

    • le altre proprietà valgono perchè i coefficienti sono in un campo;

    Verifichiamo che non vale l’esistenza dell’inverso per il prodotto:consideriamo due polinomi p(x) e q(x) entrambi diversi da zero di grado rispettivamente m e n e consi-deriamo il loro prodotto p(x) · q(x). In tal modo otteniamo un polinomio di grado m +n.Se fosse, ad esempio, q = p−1, allora avremmo che p(x) · q(x) = 1. Ma ciò é impossibile per polinomi chenon siano costanti (i cui coefficienti dei termini di grado superiore a zero siano diversi da zero), in quantoessi avrebbero grado maggiore di zero (ovvero il grado di 1).

    Se ora consideriamo (K[x],+, ·,K), con + definito come sopra e · definito come:

    Ateneo Studenti Fisica 3

  • Strutture algebriche

    · : K×K[x] −→ K[x](a, p(x)) 7−→ a · p(x)

    Si verifica che é uno spazio vettoriale.

    3) Sia V spazio vettoriale su K e sia A un insieme qualsiasi. Sia F l’insieme delle applicazioni (funzioni)da A in V . (F, +, ·,K) é uno spazio vettoriale se definiamo + e · come segue:

    ∀f, g ∈ F , f + g : A −→ V é t. c.:∀a ∈ A, (f + g)(a) def= f(a) + g(a)

    ∀f ∈ F , ∀λ ∈ K, λf : A −→ V é t. c.:∀a ∈ A, (λf)(a) def= λf(a)

    4) Sia K un campo. Definiamo:M(p, q,K) = {matrici con p righe, q colonne con elementi in K}

    Una Matrice é nella forma:

    a11 · · · a1q...

    . . ....

    ap1 · · · apq

    dove aij ∈ K, ∀i = 1, . . . , p, ∀j = 1, . . . , q.

    Sia A ∈ M(p, q,K):Ai = i-esima riga;Ai = i-esima colonna;[A]ij = elemento di posto (i, j), dove i indica la riga e j la colonna;

    0 é la matrice nulla ([0]ij = 0 ∀i, j)A, B ∈ M(p, q,K), A = B ⇐⇒ [A]ij = [B]ij ∀i, j

    Definiamo + e · :∀A,B ∈ M(p, q,K), [A + B]ij def= [A]ij + [B]ij ∀i, j∀λ ∈ K,∀A ∈ M(p, q,K), [λA]ij def= λ[A]ij ∀i, j

    (M(p, q,K),+, ·,K) é uno spazio vettoriale:• (M(p, q,K),+) é un gruppo abeliano:

    1. 0 é l’elemento neutro;

    2. esiste l’inverso: [A]ij + (−[A]ij) = 0;3. vale la proprietá associativa:

    [(A + B) + C]ij = [A + B]ij + [C]ij = [A]ij + [B]ij + [C]ij = [A]ij + [B + C]ij == [A + (B + C)]ij ;

    4. si verifica analogamente la commutativa;

    • con metodi analoghi si verificano le altre proprietà.

    ProposizioniSia V uno spazio vettoriale:

    1. lo 0 è unico in V:se ∃01, 02 ∈ V =⇒ 01 = 01 + 02 = 02 per gli assiomi;

    2. ∀x ∈ V ∃!− x ∈ Vse ∃(−x)1, (−x)2 ∈ V inversi di x per somma =⇒ (−x)1 = (−x)1 + x + (−x)2 = (−x)2;

    4 Ateneo Studenti Fisica

  • Strutture algebriche

    3. ∀v ∈ V 0 · v = 00 · v = (0 + 0)v = 0 · v + 0 · v =⇒ 0 · v = 0;

    4. se α · x = 0 =⇒ o α = 0 o x = 0se α = 0, ok.se α 6= 0 =⇒ ∃α−1 ∈ K t. c. α−1α = 1 =⇒ x = α−1αx = α−1 · 0 = 0 =⇒ x = 0;

    5. (−1)x = −xx + (−1)x = (1− 1)x = 0 · x = 0.

    Sottospazi vettoriali

    Definizione: V spazio vettoriale su K. W ⊂ V si dice sottospazio vettoriale di V se:• 0 ∈ W ;• ∀x, y ∈ W, x + y ∈ W ;• ∀α ∈ K, ∀x ∈ W, αx ∈ W .

    dove + e · in questo caso sono le restrizioni della somma e del prodotto su V a W .

    Costruire sottospazi

    Si puó fare prendendo alcuni vettori e il piú piccolo sottospazio che li contiene.Sia V sp. vett. su K, v1, . . . , vn ∈ V , c1, . . . , cn ∈ K. Chiamiamo c1v1 + . . . + cnvn combinazione linearedi v1, . . . , vn. Chiamiamo poi:

    span(v1, . . . , vn) = {c1v1 + . . . + cnvn | c1, . . . , cn ∈ K}

    tale insieme è il piú piccolo sottospazio di V contenente v1, . . . , vn:

    • contiene 0 (tutti i ci = 0);• contiene vi ∀i = 1, . . . , n;• (a1v1 + . . . + anvn) + (b1v1 + . . . + bnvn) = (a1 + b1)v1 + . . . + (an + bn)vn

    (la somma di due combinazioni lineari é ancora una combinazione lineare);

    • lo stesso per il prodotto per scalare;• é il piú piccolo per la definizione che ne abbiamo dato: in un sottospazio vettoriale ci devono

    stare v1, . . . , vn e le loro combinazioni lineari. Abbiamo imposto solo questo nella definizione dispan(v1, . . . , vn).

    Altri sottospazi

    Sia V sp. vett. su K, U, W due sottospazi vettoriali di V. Allora U ∩W è un sottospazio vettoriale diV. Verifichiamolo:

    • contiene 0 (sia U che W lo contengono);• ∀x, y ∈ U ∩ W, x + y ∈ U ∩ W , infatti x e y appartengono sia ad U che a W . Essendo questi

    sottospazi, la somma de due vettori appartiene ancora ad entrambi, quindi alla loro intersezione;

    • lo stesso per il prodotto per scalare.Vogliamo costruire il piú piccolo sottospazio contenente U e W . Notiamo innanzitutto che U ∪W nonsoddisfa la nostra ricerca, in quanto non è chiuso per somma. Chiamiamo:

    U + W = {u + w | u ∈ U, w ∈ W}

    La definizione che abbiamo dato é buona, poiché sia u che w appartengono a V , quindi ha senso sommarli.

    Ateneo Studenti Fisica 5

  • Strutture algebriche

    Facciamo vedere che é il sottospazio che cercavamo:

    • U ⊂ U + W : ∀u ∈ U, u ∈ U + W , perché u = u + 0 (con 0 ∈ W );• W ⊂ U + W , per lo stesso motivo (con 0 ∈ U);• 0 ∈ U + W : infatti 0 = 0 + 0;• ∀u1, u2 ∈ U, ∀w1, w2 ∈ W =⇒ (u1 + w1) + (u2 + w2) = (u1 + u2) + (w1 + w2)

    ma (u1 + u2) ∈ U, (w1 + w2) ∈ W =⇒ (u1 + w1) + (u2 + w2) ∈ U + W ;• ∀u ∈ U, ∀w ∈ W,∀k ∈ K =⇒ k(u + w) = ku + kw

    ku ∈ U, kw ∈ W =⇒ k(u + w) ∈ U + W ;

    • é il piú piccolo: se Z sottosp. vett. t. c. U ⊂ Z, W ⊂ Z ?=⇒ U + W ⊂ Z:∀ u + w ∈ U + W, u ∈ U, w ∈ W =⇒ u + w ∈ Z (poiché é sottosp. vett.) =⇒ U + W ⊂ Z

    Definizione: se U ∩ W = {0}, allora U + W si denota U ⊕ W e si dice che i due sottospazi sono insomma diretta tra loro.

    Proposizione: in U ⊕W ogni vettore si scrive in modo unico come: u + w, u ∈ U, w ∈ W .Dimostrazione: se ∃u1, u2 ∈ U, ∃w1, w2 ∈ W t. c. u1 + w1 = u2 + w2 =⇒ u1 − u2 = w1 − w2.

    Ma u1 − u2 ∈ U,w1 − w2 ∈ W =⇒ u1 − u2 ∈ U ∩W,w1 − w2 ∈ U ∩W .Poiché U ∩W = {0}, u1 − u2 = 0, w1 − w2 = 0, e i vettori sono a due a due uguali.

    Definizione: se U é sottospazio vett. di V , un sottospazio W di V si dice supplementare di U seU ⊕W = V .N.B.: Il supplementare non é unico.

    6 Ateneo Studenti Fisica

  • Applicazioni Lineari, Sistemi Lineari

    Siano V, W K-spazi vettoriali, e sia f : V −→ W un’applicazione. Si dice che f é un’applicazione linearese soddisfa:

    • ∀x, y ∈ V f(x + y) = f(x) + f(y);• ∀α ∈ K, ∀x ∈ V f(αx) = αf(x).

    Osservazione: Se f é lineare allora f(0) = 0.Dimostrazione: f(0) = f(0 + 0) = f(0) + f(0) =⇒ f(0) = 0.

    Definiamo la moltiplicazione tra due vettori (uno riga e uno colonna, entrambi con n elementi) e tra unamatrice A ∈ M(p, n,K) e un vettore B ∈ Kn:

    (a1 . . . an) ·

    b1...

    bn

    def= a1b1 + . . . + anbn =

    n∑

    i=1

    aibi

    a11 . . . a1n...

    ...ap1 . . . apn

    ·

    b1...

    bn

    def=

    a11b1 + . . . + a1nbn...

    ap1b1 + . . . + apnbn

    Osservazione: il vettore risultato della seconda moltiplicazione é un vettore C ∈ Kp

    Sia A ∈ M(p, n,K) e sia LA : Kn −→ KpX 7−→ AX

    Si verifica che LA é un’applicazione lineare. Tutte le applicazioni lineari sono infatti prodotte da un’op-portuna matrice.Osservazione: A ∈ M(p, n,K), X ∈ Kn, A ·X = x1A1 + . . . + xnAn

    Proposizione: sia g : Kn −→ Kp lineare, siano e1 =

    10...0

    , . . . , en =

    0...01

    (ossia ei é il vettore

    formato da tutti 0, eccetto l’elemento i-esimo, uguale ad 1) e sia inoltre:

    A =

    g(e1) . . . g(en)

    . Allora g = LA.

    Dimostrazione: ∀X ∈ Kn, g(X) ?= LA(X):Sapendo che A ·X = x1A1 + . . . + xnAn, X = x1e1 + . . . + xnen e che g é lineare, allora:LA(X) = AX = x1A1 + . . . + xnAn = x1g(e1) + . . . + xng(en) = g(x1e1) + . . . + g(xnen) == g(x1e1 + . . . + xnen) = g(X).

    Nucleo e Immagine di un’applicazione lineare, Sistemi Lineari

    Definizione: Siano V e W due spazi vett. e sia f : V −→ W lineare. Definiamo nucleo e immagine dif come:

    Ateneo Studenti Fisica 7

  • Applicazioni Lineari, Sistemi Lineari

    Kerf = {x ∈ V | f(x) = 0}Imf = {y ∈ W | ∃x ∈ V t. c. f(x) = y}

    Osservazione: f é surgettiva ⇐⇒ Imf = WProposizione:

    1. Kerf é un sottospazio vett. di V ;

    2. Imf é un sottospazio vett. di W ;

    3. f é iniettiva ⇐⇒ Kerf = {0}Dimostrazione: :

    1. • 0 ∈ Kerf , poiché f(0) = 0;• ∀x, y ∈ Kerf =⇒ x + y ∈ Kerf : f(x + y) = f(x) + f(y) = 0 + 0 = 0;• ∀x ∈ Kerf, ∀α ∈ K =⇒ αx ∈ Kerf : f(αx) = αf(x) = α · 0 = 0.

    2. • 0 ∈ Imf , poiché f(0) = 0;• ∀z, w ∈ Imf, ∃x, y ∈ V t. c. z = f(x), w = f(y) =⇒ z + w = f(x) + f(y) =

    = f(x + y) =⇒ z + w ∈ Imf ;• ∀z ∈ Imf, ∃x ∈ V t. c. z = f(x) =⇒ ∀α ∈ K, αz = αf(x) = f(αx) =⇒ αz ∈ Imf .

    3. =⇒: Sappiamo che {0} ⊂ Kerf . Facciamo vedere che Kerf ⊂ {0}.Sia x ∈ Kerf =⇒ f(x) = 0 = f(0). Poiché f é iniettiva: f(x) = f(0) ⇐⇒ x = 0⇐=: Facciamo vedere che se f(x) = f(y) ⇐⇒ x = yf(x)− f(y) = f(x− y) = 0 =⇒ x− y ∈ Kerf =⇒ x− y = 0, x = y

    Analogamente: KerLA = {X ∈ Kn | AX = 0}.

    Risoluzione di sistemi lineari

    Definizione: Si dice sistema lineare di p equazioni in n incognite x1, . . . , xn un sistema nella forma:

    a11x1 + a12x2 + . . . + a1nxn = b1a21x1 + a22x2 + . . . + a2nxn = b2. . .ap1x1 + ap2x2 + . . . + apnxn = bp

    tale che aij ∈ K, bk ∈ K.

    Definizione: (y1, . . . , yn) ∈ Kn é una soluzione di un sistema lineare se é soluzione di tutte le equazioniche lo compongono. Risolvere un sistema lineare vuol dire trovare tutte le soluzioni.

    Definizione: due sistemi lineari si dicono equivalenti fra loro se hanno le stesse soluzioni.

    Dedichiamoci ora alla risoluzione dei sistemi lineari. Prima osserviamo che:Osservazione: i sistemi a scalini sono semplici da risolvere. Essi sono nella forma:

    a11x1 + a12x2 + a13x3 + . . . + a1nxn = b1a22x2 + a23x3 + . . . + a2nxn = b2

    . . .appxp + . . . + apnxn = bp

    Chiamiamo aii 6= 0 pivot.É importante che le incognite calino scendendo nel sistema: é possibile, in tale situazione, risolvere l’ul-tima equazione ricavando xp = a−1pp (bp − ap,p+1xp+1 − . . . − apnxn), sostituire la variabile ricavata nellaprecedente equazione e iterare il processo fino ad arrivare alla prima equazione.

    8 Ateneo Studenti Fisica

  • Applicazioni Lineari, Sistemi Lineari

    Osservazione: : Eseguendo su un sistema lineare le seguenti operazioni elementari si ottiene un sistemaad esso equivalente:

    1. scambiare due equazioni (l’ordine non conta);

    2. moltiplicare un’equazione per α ∈ K, α 6= 0;3. sommare ad una equazione un multiplo di un’altra.

    Possiamo vedere un sistema lineare anche nella forma:

    a11 . . . a1n...

    ...ap1 . . . apn

    x1...

    xn

    =

    b1...

    bn

    dove la matrice appartiene a M(p, n,K) ed é detta matrice dei coefficienti.

    Osservazione: AX = B é risolubile ⇐⇒ ∃Y ∈ Kn t. c. AY = B ⇐⇒ B ∈ ImLA.Se LA é surgettiva il sistema é sempre risolubile (esiste sempre Y t. c. AY = B).Se LA é iniettiva il sistema ha un’unica soluzione (se esiste Y soluzione, é unica: LA(X) = LA(Y ) ⇐⇒X = Y ).Un sistema a scalini é rappresentato da una matrice a scalini.

    Ci preoccupiamo ora di trasformare una matrice in una a scalini. Per far questo possiamo usare le seguentioperazioni elementari per riga (che altro non sono che le operazioni elementari sopra citate):

    1. scambiare due righe;

    2. moltiplicare una riga per α ∈ K, α 6= 0 (Ai → αAi);3. sommare ad una riga un multiplo di un’altra (Ai → Ai + βAj).

    Algoritmo di Gauss

    Cominciamo con un esempio: (1 2 42 −1 3

    )=

    {x + 2y = 42x− y = 3

    Se la prima colonna é non nulla, guardo l’elemento [A]11. Se é 0, scambio due righe portando al primoposto una riga il cui primo elemento é diverso da 0. A questo punto (nel nostro esempio) A2 → A2−2A1:

    (1 2 40 −5 −5

    )

    Faccio in modo che sotto al primo pivot non rimangano che 0, quindi itero il procedimento considerandoil secondo pivot (l’elemento di posto [A]22) senza toccare piú la prima riga.

    Enunciamo ora l’algoritmo di Gauss per ridurre una matrice A a scalini utilizzando le operazioni per riga:

    1. sia j1 il minimo intero t. c. Aj1 6= 0 (prendo la prima colonna non nulla);2. a meno di scambiare due righe posso supporre che [A]1j1 6= 0;3. ∀i > 1 sostituisco Ai → Ai − ([A]−11j1 · [A]ij1) ·A1;4. itero il procedimento sulla sottomatrice ottenuta scartando la prima riga e le prime j1 colonne.

    Esempio:

    1 2 3 01 2 4 −32 1 0 1

    1 2 3 00 0 1 −30 −3 −6 1

    1 2 3 00 −3 −6 10 0 1 −3

    Teorema:

    1. Tramite un numero finito di operazioni per riga ogni matrice puó essere trasformata in una a scalini.

    Ateneo Studenti Fisica 9

  • Applicazioni Lineari, Sistemi Lineari

    2. Ogni sistema AX = B é equivalente ad un sistema a scalini (cioé ad A1X = B1 con (A1|B1) ascalini).

    Osservazione: se AX = B é un sistema equivalente a SX = T , dove (S | T ) é a scalini:• il sistema é risolubile ⇐⇒ numero di pivots di S = numero di pivots di (S | T );• se é risolubile, ricavo r variabili in funzione di n− r parametri.

    Prodotto di Matrici

    Siano f e g due applicazioni lineari tale che:

    Kn f−→ Kp g−→ Kq

    con f(X) = AX e g(X) = BX, dove A ∈ M(p, n,K), B ∈ M(q, p,K).Osservazione: La composizione di due applicazioni lineari é lineare:

    • (g ◦ f)(x + y) = g(f(x + y)) = g(f(x) + f(y)) = g(f(x)) + g(f(y)) = (g ◦ f)(x) + (g ◦ f)(y);

    • (g ◦ f)(αx) = g(f(αx)) = g(αf(x)) = αg(f(x)) = α(g ◦ f)(x).Anche (g ◦ f) deve essere indotta da una matrice: ∃C ∈ M(q, n) t. c. (g ◦ f)(X) = CX ∀X ∈ Kn.Per capire come la matrice C derivi dalle matrici A e B, calcoliamo l’elemento di posto j nel vettore(g ◦ f)(X) ∈ Kq. Utilizziamo la notazione [(g ◦ f)(X)]j1 in quanto vediamo il vettore come una matricecon q righe e 1 colonna.Ricordiamo inoltre che data una matrice A ∈ M(p, n,K) e un vettore X ∈ Kn:

    [AX]i1 =n∑

    k=1

    ([A]ik · [X]k1

    )

    [(g◦f)(X)]j1 = [B(AX)]j1 =p∑

    h=1

    [B]jh·[AX]h1 =p∑

    h=1

    [B]jh·n∑

    i=1

    ([A]hi·[X]i1

    )=

    n∑

    i=1

    (p∑

    h=1

    [B]jh · [A]hi)·[X]i1

    Dunque se B ·A ∈ M(q, n) allora:

    [AX]ji =p∑

    h=1

    [B]jh · [A]hi = Bj ·Ai

    Poiché si moltiplica la j-esima riga di B per la i-esima colonna di A, tale prodotto viene detto: prodottoriga per colonna.Osservazione: non sempre due matrici sono moltiplicabili: abbiamo visto che la prima deve avere unnumero di colonne pari al numero di righe della seconda.

    Si verifica che, nei casi in cui il prodotto ha senso:

    • (AB)C = A(BC)• (λA)B = λ(AB)• (A + B)C = AC + BC• A(B + C) = AB + AC• IpA = AIq = A, ∀A ∈ M(p, q), In ∈ M(n, n) t. c. [In]ii = 1, [In]ji = 0 j 6= i

    La matrice In, detta matrice identica é nella forma:

    1 0. . .

    0 1

    10 Ateneo Studenti Fisica

  • Applicazioni Lineari, Sistemi Lineari

    Ci restingiamo ora al caso delle matrici quadrate, ossia quelle in cui il numero di righe e di colonne é lostesso. Le indichiamo con M(n). Consideriamo

    (M(n), +, ·), con · restrizione del prodotto fra matrici

    all’insieme delle matrici quadrate. Esso é un anello non commutativo.Facciamo vedere con un esempio che non vale le proprietá commutativa:

    (1 23 1

    )·(

    2 −10 3

    )=

    (2 56 0

    )

    (2 −10 3

    )·(

    1 23 1

    )=

    ( −1 39 3

    )

    Dimostriamo che non esiste l’inverso per tutti gli elementi dell’anello (e dimostriamo quindi che é effet-tivamente un anello e non un corpo).

    Consideriamo la matrice(

    1 10 0

    )6= 0 e facciamo vedere che non esiste nessuna matrice che, moltipli-

    candola a destra, ci dia la matrice identitá:(

    1 10 0

    )·(

    a bc d

    )=

    (a + b c + d

    0 0

    )=

    (1 00 1

    )

    Ne ricaviamo un assurdo, poiché abbiamo 0 = 1.

    Definizione: sia A un anello, a ∈ A, a 6= 0 si dice divisore di zero se ∃b ∈ A, b 6= 0 t. c. a · b = 0.Osservazione: un campo e un corpo non contengono divisori di 0 (a causa dell’esistenza dell’inverso).

    Facciamo vedere che l’anello considerato contiene divisori di 0:(

    1 00 0

    )·(

    0 01 1

    )=

    (0 00 0

    )

    Definizione: A ∈ M(n) si dice nilpotente se ∃m ∈ N t. c. Am = 0.La seguente matrice é nilpotente:

    (0 10 0

    )·(

    0 10 0

    )=

    (0 00 0

    )

    Ateneo Studenti Fisica 11

  • Dimensione e base di uno spaziovettoriale

    Definizione: V spazio vettoriale si dice finitamente generato se ∃v1, . . . , vn t. c. V = span(v1, . . . , vn),cioé

    ∀v ∈ V ∃c1, . . . , cn ∈ K t. c. v =n∑

    i=1

    civi

    .Osservazione: R[x] non é finitamente generato. Se p1(x), . . . , pm(x) fossero generatori, dettos = max deg

    (pi(x)

    ), ∀i = 1, . . . , m, non si potrebbero ottenere polinomi di grado maggiore ad s.

    Definizione: v1, . . . , vn ∈ V si dicono linearmente indipendenti se l’unica combinazione lineare nulla deivi é quella con i coefficienti tutti nulli. Ossia:

    c1v1 + . . . + cnvn = 0 ⇐⇒ c1 = . . . = cn = 0Definizione: {v1, . . . , vn} si dice base di V se sono generatori di V e linearmente indipendenti.

    Esempi:{e1, . . . , en} sono una base di Kn{1, x, . . . , xd} sono una base di Kd[x], ossia il sottospazio vettoriale di K[x] contenente i polinomi di gradominore o uguale a d.

    Osservazione: v ∈ V é linearmente indipendente =⇒ v 6= 0.

    Proposizione: se uno almeno fra v1, . . . , vk é nullo =⇒ v1, . . . , vk sono linearmente dipendenti;Dimostrazione: se v1 = 0 =⇒ v1 + 0 · v2 + . . . + 0 · vn = 0, ma il primo coefficiente é non nullo.

    Proposizione: Sia k ≥ 2. v1, . . . , vk sono linearmente indipendenti ⇐⇒ almeno uno di essi é combina-zione lineare degli altri.Dimostrazione:=⇒: ∃α1, . . . , αk ∈ K non tutti nulli t. c. α1v1 + . . . + αkvk = 0.Se per esempio: α1 6= 0 =⇒ α1v1 = −(α2v2 + . . . + αkvk) =⇒ v1 = −α−11 (α2v2 + . . . + αkvk). Cioé v1 écombinazione lineare degli altri vettori.⇐=: Se v1 = b2v2 + . . . + bkvk =⇒ v1 − b2v2 − . . .− bkvk = 0, ossia sono linearmente dipendenti.

    Osservazione: v1, . . . , vk sono vettori linearmente indipendenti e m ≤ k =⇒ v1, . . . , vm sono linear-mente indipendenti.Osservazione: se vp ∈ span(v1, . . . , vp−1) =⇒ span(v1, . . . , vp) = span(v1, . . . , vp−1).

    Proposizione: Se B = {v1, . . . , vm} é una base di V , allora ogni v ∈ V si scrive in modo unico come:v = a1v1 + . . . + amvm. a1, . . . , am si dicono coordinate di v rispetto alla base B e si scrive [v]B.Dimostrazione:Se v = a1v1 + . . . + amvm = b1v1 + . . . + bmvm =⇒ (a1 − b1)v1 + . . . + (am − bm)vm = 0.Essendo v1, . . . , vm linearmente indipendenti: ai − bi = 0 ∀i = 1, . . . , m =⇒ ai = bi ∀i = 1, . . . , m.

    In uno spazio Kn le componenti di un vettore coincidono con le coordinate, se si una la base canonicaC = {e1, . . . , en}.

    12 Ateneo Studenti Fisica

  • Dimensione e base di uno spazio vettoriale

    Fissare B base di V significa fissare l’applicazione: [ ]B : V −→ Kn.Verifichiamo che l’applicazione [ ]B é lineare:

    • [ ]B(v + w) ?= [ ]B(v) + [ ]B(w)v = a1v1 + . . . + anvn, w = b1v1 + . . . + bnvn =⇒ v + w = (a1 + b1)v1 + . . . + (an + bn)vn

    [v + w]B =

    a1 + b1...

    an + bn

    =

    a1...

    an

    +

    b1...

    bn

    = [v]B + [w]B;

    • allo stesso modo per il multiplo.[ ]B é iniettiva: se v ∈ Ker[ ]B =⇒ [v]B =

    (0, . . . , 0

    )=⇒ v = 0 · v1 + . . . + 0 · vn.

    [ ]B é surgettiva: ∀(c1, . . . , cn

    ) ∃v ∈ V t. c. [v]B =(c1, . . . , cn

    ), basta prendere v = c1v1 + . . . + cnvn.

    Definizione: un’applicazione lineare inettiva e surgettiva si dice isomorfismo.Definizione: quando tra due spazi vettoriale c’é un isomorfismo si dicono isomorfi.

    Teorema: sia {v1, . . . , vn} una base di V , e siano w1, . . . , wp p vettori di V . Se p > n =⇒ w1, . . . , wpsono linearmente dipendenti.Dimostrazione: Essendo {v1, . . . , vn} una base posso scrivere w1, . . . , wp come loro combinazioni li-neari:

    w1 = a11v1 + . . . + an1vnw2 = a12v1 + . . . + an2vn...wp = a1pv1 + . . . + anpvn

    Cerco α1, . . . , αp non tutti nulli t. c. α1w1 + . . . + αpwp = 0:0 = α1w1 + . . . + αpwp = α1(a11v1 + . . . + an1vn) + . . . + αp(a1pv1 + . . . + anpvn) == (a11α1 + . . . + a1pαp)v1 + . . . + (an1α1 + . . . + anpαp)vn

    Ma v1, . . . , vn sono tutti linearmente indipendenti, quindi una loro combinazione lineare nulla si ot-tiene sono se i coefficienti sono tutti nulli, cioé se:

    a11α1 + . . . + a1pαp = 0...an1α1 + . . . + anpαp = 0

    Quindi (α1, . . . , αp) devono essere soluzioni del sistema lineare omogeneo (i cui termini noti sono tuttinulli) la cui matrice associata é:

    a11 . . . a1p...

    ...an1 . . . anp

    ∈ M(n, p)

    Sappiamo che un sistema omogeneo ha sempre soluzione (almeno la soluzione nulla), ma ci interessa chene abbia almeno un’altra non nulla. Osserviamo che il numero di pivot é al piú n, ma n < p, quindi esistealmeno un’altra soluzione (α1, . . . , αp) non nulla.

    Corollario: se B = {v1, . . . , vn} e S = {w1, . . . , wp} sono due basi di V =⇒ n = pDimostrazione: dal teorema n ≥ p, ma anche p ≥ n, poiché sono entrambe basi =⇒ n = p

    Definizione: se V ammette una base B = {v1, . . . , vn}, si dice che V ha dimensione n e si indicadimV = n

    (per convenzione si pone dim

    {0}

    = 0).

    Proposizione: sia V 6= {0}. Da ogni insieme finito di generatori é possibile estrarre una base di V (ognispazio vettoriale finitamente generato ammette una base).

    Ateneo Studenti Fisica 13

  • Dimensione e base di uno spazio vettoriale

    Dimostrazione: sia v1, . . . , vk un insieme di generatori di V . Posso supporre vi 6= 0 ∀i = 1, . . . , k.v1 é linearmente indipendente poiché é diverso da 0. Se span

    {v1

    }= V =⇒ {v1

    }é base di V .

    Altrimenti consideriamo v2 e{v1, v2

    }. Se sono linearmente indipendenti allora tengo v2, altrimenti lo si

    scarta e i rimanenti{v1, v3, . . . , vk

    }sono ancora generatori, poiché v2 ∈ span

    {v1

    }=⇒ span{v1, v2

    }=

    = span{v1

    }=⇒ span{v1, v3, . . . , vk

    }= span

    {v1, v2, v3, . . . , vk

    }.

    Si itera l’algoritmo per gli altri generatori. Alla fine si ottiene una lista di vettori linearmente indipendentie generatori.Corollario: se v1, . . . , vk generano V =⇒ dimV ≤ k

    Lemma: se dimV = n e v1, . . . , vn sono linearmente indipendenti =⇒ {v1, . . . , vn} é una base di V .Dimostrazione: se per assurdo v1, . . . , vn non generano V =⇒ ∃v ∈ V − span(v1, . . . , vn). Allorav1, . . . , vn, v sono linearmente indipendenti, infatti sia a1v1 + . . . + anvn + bv = 0; sicuramente b = 0 al-trimenti v ∈ span(v1, . . . , vn), ma v1, . . . , vn sono linearmente indipendenti, quindi a1 = 0 ∀i = 1, . . . , n.Abbiamo allora trovato n + 1 vettori linearmente indipendenti, ma dimV = n. Assurdo.

    Teorema: (di completamento a base) se dimV = n e {v1, . . . , vk} sono vettori linearmente indipendenti,(k ≤ n) =⇒ ∃vk+1, . . . , vn ∈ V t. c. {v1, . . . , vk, vk+1, . . . , vn} é una base di V .Dimostrazione: se k = n é giá una base. Se k < n =⇒ v1, . . . , vk =⇒ span(v1, . . . , vk) ⊂ V . Quindi∃vk+1 ∈ V − span(v1, . . . , vk) t. c. v1, . . . , vk, vk+1 sono linearmente indipendenti. Se k + 1 = n la baseé trovata, altrimenti si itera il procedimento cercando vk+2 ∈ V − span(v1, . . . , vk+1).

    Osservazione: se v1, . . . , vk sono linearmente indipendenti e conosco una base B = {w1, . . . , wn} diV =⇒ posso completare v1, . . . , vk a base cośı: {v1, . . . , vk, w1, . . . , wn}. Ottengo in tal modo un insiemedi generatori di V non tutti linearmente indipendenti. Da questo, applicando l’algoritmo sopra esposto,estraggo una base di V della forma: S = {v1, . . . , vn, w1, . . . , win−k}.

    Proposizione: sia V uno spazio vettoriale finitamente generato, W ⊂ V sottospazio vettoriale =⇒ Wé finitamente generato e dimW ≤ dimV .Dimostrazione: se W = {0} sicuramente dimV ≥ 0. Sia quindi W 6= {0} =⇒ ∃w1 ∈ W, w1 6= 0.{w1} é linearmente indipendente in W e anche in V , poiché w1 ∈ V e la verifica da fare é la stessa.Ora, se span(w1) = W =⇒ dimW = 1 e dimV ≥ 1.Altrimenti se span(w1) ⊂ W =⇒ ∃w2 ∈ W − span(w1) t. c. {w1, w2} sono linearmente indipendenti inV e W . Si itera il procedimento un numero finito di volte, al piú pari a dimV , poiché quest’ultimo éfinitamente generato.

    Corollario: se dimW = dimV, W ⊂ V =⇒ W = V .Dimostrazione: dimW = n =⇒ B = {w1, . . . , wn} é base di W . Ma w1, . . . , wn ∈ V , sono linearmenteindipendenti e generatori, sono n = dimV =⇒ V = span(w1, . . . , wn) = W .

    Formula di Grassman

    Sia V uno spazio vettoriale, e siano U,W ⊂ V sottospazi vettoriali. Allora:

    dim(U + W ) = dimU + dimW − dim(U ∩W )

    Dimostrazione: sia {v1, . . . , vm} una base di U ∩W . Possiamo completare a base di U e di W :∃um+1, . . . , up ∈ U t. c. {v1, . . . , vm, um+1, . . . , up} base di U . Allora dimU = p.∃wm+1, . . . , wq ∈ W t. c. {v1, . . . , vm, wm+1, . . . , wq} base di W . Quindi dimW = q.

    Proviamo che dim(U + W ) = p + q −m; basta provare che {v1, . . . , vm, um+1, . . . , up, wm+1, . . . , wq} éuna base di U + W , poiché sono nel numero giusto. Dimostriamo innanazitutto che sono generatori:

    ∀u + w ∈ U + W :u = a1v1 + . . . + amvm + bm+1um+1 + . . . + bpup;w = c1v1 + . . . + cmvm + dm+1wm+1 + . . . + dqwq;

    quindi ogni u + w ∈ U + W si scrive come combinazione lineare di questi vettori. Dimostriamo ora chesono linearmente indipendenti:

    a1v1 + . . . + amvm + bm+1um+1 + . . . + bpup + cm+1wm+1 + . . . + cqwq = 0a1v1 + . . . + amvm + bm+1um+1 + . . . + bpup = −(cm+1wm+1 + . . . + cqwq)

    14 Ateneo Studenti Fisica

  • Dimensione e base di uno spazio vettoriale

    quindi cm+1wm+1+ . . .+cqwq appartiene sia a W (poiché combinazione di wm+1, . . . , wq), sia a U (poichécombinazione lineare di v1, . . . , vm, um+1, . . . , up base di U). Allora:

    cm+1wm+1 + . . .+ cqwq ∈ U ∩W =⇒ ∃α1, . . . , αm t. c. cm+1wm+1 + . . .+ cqwq = α1v1 + . . . + αmvmLa combinazione lineare nulla di cui sopra diventa:

    a1v1 + . . . + amvm + bm+1um+1 + . . . + bpup + α1v1 + . . . + αmvm = 0Essa é una combinazione lineare nulla dei vettori della base di U , che sono linearmente indipendenti.Sicuramente quindi bi = 0 ∀i = m + 1, . . . , p. In tal modo abbiamo che:

    a1v1 + . . . + amvm + cm+1wm+1 + . . . + cqwq = 0Ma tali vettori formano una base di W =⇒ i coefficienti di una loro combinazione lineare nulla sono tuttinulli. Dunque {v1, . . . , vm, um+1, . . . , up, wm+1, . . . , wq} é una base di U + W .

    Corollario: se U ∩W = {0} =⇒ dim(U ⊕W ) = dimU + dimW .

    Proposizione: sia V uno spazio vettoriale, U ⊂ V sottospazio vettoriale. Sia {u1, . . . , up} una base diU , ∃vp+1, . . . , vn ∈ V t. c. {u1, . . . , up, vp+1, . . . , vn} é una base di V . Sia Z = span(vp+1, . . . , vn)=⇒ V = U ⊕ Z.Dimostrazione: facciamo innanzitutto vedere che U ∩ Z = {0}:Se v ∈ U ∩ Z allora possiamo scrivere v come:

    v = a1u1 + . . . + apup, dato che v ∈ U ev = bp+1vp+1 + . . . + bnvn, dato che v ∈ Z.

    Allora, eguagliando le due espressioni:a1u1 + . . . + apup − bp+1vp+1 − . . .− bnvn = 0.

    Ma una combinazione lineare nulla dei vettori della base di V é possibile se e solo se i coefficienti sonotutti nulli. Allora v = 0 é l’unico vettore in U ∩ Z.Mostriamo ora che U ⊕ Z = V . Sappiamo che:

    dim(U ⊕ Z) = dimV , ma anche U ⊕ Z ⊂ V =⇒ U ⊕ Z = V .

    Proposizione: sia V = U ⊕ Z, B = {u1, . . . , up} base di U , S = {z1, . . . , zq} base di Z. Allora B ∪ S ébase di V .Dimostrazione: Sicuramente sono generatori, visto la loro somma diretta é V . Facciamo vedere chesono anche linearmente indipendenti:

    α1u1 + . . . + αpup + β1z1 + . . . + βqzq = 0 =⇒ α1u1 + . . . + αpup = −(β1z1 + . . . + βqzq)Allora sia α1u1 + . . . + αpup che β1z1 + . . . + βqzq appartengono contemporaneamente a U e Z, quindiappartengono a U ∩ Z.Ma U ∩ Z = {0}, quindi:

    α1u1 + . . . + αpup = 0β1z1 + . . . + βqzq = 0

    Essendo u1, . . . , up linearmente indipendenti (poiché formano una base di U), cośı come z1, . . . , zq, tuttii coefficienti αi, βi sono zero, quindi i vettori {u1, . . . , up, z1, . . . , zq} sono tra loro tutti linearmenteindipendenti e formano una base di V .

    Ateneo Studenti Fisica 15

  • Rango di un’applicazione lineare

    Lemma: siano V e W due spazi vettoriali, f : V −→ W un’applicazione lineare. Allora1. se v1, . . . , vk sono vettori linearmente indipendenti in V e f é iniettiva =⇒ f(v1), . . . , f(vk) sono

    indipendenti in W ;

    2. se v1, . . . , vk generano V =⇒ f(v1), . . . , f(vk) generano Imf (se f é surgettiva generano W ).Dimostrazione:

    1. a1f(v1) + . . . + akf(vk) = f(a1v1 + . . . + akvk) = 0 =⇒ a1v1 + . . . + akvk ∈ Kerf = {0} =⇒=⇒ a1 = . . . = ak = 0;

    2. ∀f(y) ∈ Imf, y ∈ V, ∃b1, . . . , bk t. c. y = b1v1 + . . . + bkvk =⇒ f(y) = f(b1v1 + . . . + bkvk) == b1f(v1) + . . . + bkf(vk). Ogni vettore in Imf é generato da f(v1), . . . , f(vk).

    Corollario: se f é un isomorfismo =⇒ f trasforma una base di V in una di W .

    Teorema: (formula delle dimensioni) sia f : V −→ W lineare =⇒ dimV = dimKerf + dimImf .Dimostrazione: sia dimV = n, dimKerf = p. Proviamo che dimImf = n− p.Sia {v1, . . . , vp} una base di Kerf . La completiamo a base di V : B = {v1, . . . , vp, vp+1, . . . , vn} =⇒=⇒ f(v1), . . . , f(vp), f(vp+1), . . . , f(vn) generano Imf (per il Lemma 2). Ma f(v1) = . . . = f(vp) = 0,quindi basta dimostrare che f(vp+1), . . . , f(vn) sono linearmente indipendenti:

    0 = ap+1f(vp+1) + . . . + anf(vn) = f(ap+1vp+1 + . . . + anvn) =⇒ ap+1vp+1 + . . . + anvn ∈ Kerf =⇒=⇒ ∃b1, . . . , bp ∈ K t. c. ap+1vp+1 + . . . + anvn = b1v1 + . . . + bpvp =⇒=⇒ ap+1vp+1 + . . . + anvn − (b1v1 + . . . + bpvp) = 0 =⇒ ap+1 = . . . = an = b1 = . . . = bp = 0

    Poiché sono tutti vettori di una base di V , quindi linearmente indipendenti. Dunque dimImf = n− p == dimV − dimKerf .

    Conseguenze:

    1. dimImf ≤ dimV ;2. se dimV = dimW, f é iniettiva ⇐⇒ f é surgettiva

    Dimostrazione: (=⇒): f iniettiva =⇒ Kerf = {0} =⇒ dimW = dimV = dimImf =⇒ essendoImf ⊂ W, dimImf = dimW =⇒ Imf = W .(⇐=): f surgettiva ⇐⇒ Imf = W =⇒ dimKerf = dimV − dimImf = dimV − dimW = 0 =⇒=⇒ Kerf = {0} =⇒ f é iniettiva;

    Corollario: V, W K-spazi vettoriali, V, W sono isomorfi ⇐⇒ dimV = dimW .Dimostrazione:(⇐=) : dimV = dimW = n =⇒ V ∼= Kn ∼= W .(=⇒) : ∃f : V −→ W isomorfismo di spazi vettoriali =⇒ Kerf = {0}, Imf = W =⇒ dimV =dimKerf + dimImf = dimW .Si dice che V e W appartengono alla stessa classe di equivalenza.

    Classe di Equivalenza

    Definizione: Sia E un insieme. Data R una relazione tra gli elementi dell’insieme, é possibile stabilirese, presi due elementi di E, essi sono in relazione fra loro. In particolare R é una relazione di equivalenza

    16 Ateneo Studenti Fisica

  • Rango di un’applicazione lineare

    se valgono le seguenti proprietá:

    • riflessiva: ∀x ∈ E xRx;• simmatrica: ∀x, y ∈ E, xRy =⇒ yRx;• transitiva: ∀x, y, z ∈ E, xRy e yRz =⇒ xRz.

    Definizione: ∀x ∈ E, R relazione di equivalenza, si dice classe di equivalenza di x l’insieme: [x] = {y ∈E | yRx}

    Proprietá:

    1.⋃

    [x] = E (ossia le classi di equivalenza ricoprono E);

    2. [x] = [y] ⇐⇒ xRy:Dimostrazione: (=⇒): x ∈ [x] = [y] =⇒ x ∈ [y] =⇒ xRy per definizione di classe d’equivalenza.(⇐=): ∀z ∈ [x] zRx, poiché si ha anche che xRy =⇒ zRy (proprietá transitiva) =⇒ z ∈ [y]. Valeil viceversa: ∀z ∈ [y] zRy, yRx (proprietá riflessiva) =⇒ zRx =⇒ z ∈ [x];

    3. se [x] 6= [y] =⇒ [x] ∩ [y] = ∅.Definizione: dato E un insieme, R una relazione d’equivalenza, si dice insieme quoziente:

    E/R = {[x] | x ∈ E}Proposizione: siano V , W e Z tre spazi vettoriali, e siano f, g due applicazioni lineari tali che:V

    f−→ W g−→ Z:1. dimIm(g ◦ f) ≤ min(dimImf, dimImg);2. se f é un isomorfismo =⇒ dimIm(g ◦ f) = dimImg;3. se g é un isomorfismo =⇒ dimIm(g ◦ f) = dimImf .

    Dimostrazione: :

    1. dimIm(g ◦ f) = dimIm(g|Imf ) = dimImf − dimKer(g|Imf ) ≤ dimImf .Im(g ◦ f) ⊆ Img =⇒ dimIm(g ◦ f) ≤ dimImg.Allora, dovendo essere minore dell’una e dell’altra: dimIm(g ◦ f) ≤ min(dimImf, dimImg);

    2. f isomorfismo =⇒ f surgettiva, quindi Imf = W . Allora:dimIm(g ◦ f) = dimIm(g|Imf ) = dimIm(g|W ) = dimImg;

    3. g isomorfismo =⇒ g iniettiva, quindi Kerg = {0}. Allora:dimIm(g ◦ f) = dimImf − dimKer(g|Imf ) = dimImf − dim{0} = dimImf .

    Teorema: sia dimV = n e sia B = {v1, . . . , vn} una base di V . Siano w1, . . . , wn vettori di W . =⇒∃!f lineare tale che f : V −→ W e f(vi) = wi ∀i = 1, . . . , n.Dimostrazione:Esistenza:

    ∀v ∈ V, ∃a1, . . . , an ∈ K, unici, t. c. v = a1v1 + . . . + anvn.Definiamo f(v) = a1w1 + . . . + anwn. Proviamo che tale definizione verifica i vincoli, ossia che f definitain questo modo é lineare:

    • ∀v, w ∈ V, v = a1v1 + . . . + anvn, w = b1v1 + . . . + bnvn.f(v+w) = f

    ((a1+b1)v1+. . .+(an+bn)vn

    )= (a1+b1)w1+. . .+(an+bn)wn = a1w1 + . . . + anwn+

    + b1w1 + . . . + bnwn = f(v) + f(w);

    • Lo stesso si fa per il multiplo.

    Ateneo Studenti Fisica 17

  • Rango di un’applicazione lineare

    Unicitá:∀v ∈ V, v = a1v1 + . . . + anvn.

    Se f é un’applicazione lineare tale che f(vi) = wi ∀i = 1, . . . , n, allora:f(v) = f(a1v1 + . . . + anvn) = a1f(v1) + . . . + anf(vn) = a1w1 + . . . + anwn.

    Quindi la definizione che abbiamo dato é l’unica affiché f fosse lineare.

    Definizione: sia f un’applicazione lineare. Si dice rango di f (e si indica rkf) la dimensione di Imf .

    Cominciamo considerando le matrici M(p, q,K), ovvero le applicazioni lineari da Kq a Kp.Se A ∈ M(p, q,K), data C = {e1, . . . , eq} la base canonica di Kq, abbiamo dimostrato che Ae1, . . . , Aeqgenerano l’immagine di A.Ma Aei = Ai, ossia l’i-esima colonna di A. Quindi: ImA = span(A1, . . . , Aq).

    Proposizione: sia A ∈ M(p, n) e sia S una sua ridotta a scala. Allora rkA = rkS.Dimostrazione: dalla formula delle dimensioni:

    rkA = dimImA = dimKn − dimKerA = n− dimKerA;rkS = n− dimKerS.

    Ma KerA = KerS. Infatti essi sono gli insiemi delle soluzioni dei due sistemi lineari omogenei associati:AX = 0 e SX = 0. Essendo essi due sistemi equivalenti (S é ottenuto da A tramite riduzione di Gauss)hanno le stesse soluzioni, cioé KerA = KerS =⇒ rkA = rkS.

    Calcolo del rango di una matrice a scalini S e di una base di ImS

    Proposizione: sia S ∈ M(p, n,K), con p1, . . . , pr r pivots non nulli nelle colonne Sj1 , . . . , Sjr . Alloraesse formano una base di ImS e che, quindi, rkS = r.

    Dimostrazione: Sj1 , . . . , Sjr sono linearmente indipendenti:a1S

    j1 +. . .+arSjr = 0. Dalla prima somma otteniamo un vettore. Consideriamo l’ultima componentenon nulla di tale vettore (che otteniamo dalla sola colonna Sjr ):

    ...arpr

    0

    =

    ...00

    Affinché sia uguale a 0, poiché pr 6= 0 per ipotesi =⇒ ar = 0. Si itera il procedimento, considerando cheora l’ultima componente non nulla é data dalla colonna Sjr−1 .

    Sono generatori:facciamo vedere che ∀i 6= j1, . . . , jr, Si é una combinazione lineare di Sj1 , . . . , Sjr , ossia che∃a1, . . . , ar ∈ K t. c. Si = a1Sj1 + . . . + arSjr . Cercare a1, . . . , ar significa cercare le soluzioni delseguente sistema lineare:

    Sj1 . . . Sjr ·

    a1...

    ar

    =

    Si

    Sappiamo che la soluzione esiste se non compare un pivot nella colonna dei termini noti. Nel nostro casotutte le colonne in cui compaiono pivot sono Sj1 , . . . , Sjr , quindi esiste la soluzione, poiché abbiamo postoi 6= j1, . . . , jr.

    Corollario: In particolare il numero di pivots non dipende dalla riduzione a scala (abbiamo dimostratoche il rango é invariante rispetto alla riduzione di Gauss).

    Matrici Elementari e invertibili

    Sia M ∈ M(m,n). Le mosse di Gauss per riga si realizzano moltiplicando M a sinistra con opportunematrici elementari, che si ottengono apportando modifiche alla matrice identitá:

    18 Ateneo Studenti Fisica

  • Rango di un’applicazione lineare

    1. scambiare due righe i, j t. c. i 6= j, 1 ≤ i, j ≤ m. La relativa matrice elementare (Aij) si ottienedalla matrice identitá scambiando la riga i-esima con la j-esima;

    2. moltiplicare la riga i-esima per k: basta moltiplicare la i-esima riga della matrice identitá per k eotteniamo la matrice elementare (Bik);

    3. aggiungere alla i-esima riga k volte la j-esima:

    Cijk =

    I1 k

    I1

    I

    dove si é indicata con I un’opportuna matrice identitá (ossia una serie di 1 sulla diagonale). kcompare nel posto [C]ij .

    Sappiamo che le mosse di Gauss sono invertibili, quindi devono essere indotte da matrici invertibili. In-fatti:

    A2ij = I (scambiando due volte le righe i, j otteniamo nuovamente la matrice di partenza);Bi 1k ·Bik = I (moltiplicando la riga i per k e

    1k otteniamo la riga stessa);

    Ci,j,k · Ci,j,−k = I (sommiamo e sottraiamo la stessa riga moltiplicata per k).

    Osservazione: Per ottenere le mosse di Gauss sulle colonne, anziché sulle righe, basta utilizzare le stessematrici elementari moltiplicando a destra.

    Proposizione: Sia A ∈ M(n) (A : Kn −→ Kn). Sono fatti equivalenti:1. A é una matrice invertibili;

    2. A é un isomorfismo;

    3. rkA = n.

    Dimostrazione:(1) ⇐⇒ (2): A matrice invertibile ⇐⇒ ∃B ∈ M(n) t. c. A · B = B · A = I ⇐⇒ (considerando A e Bcome applicazioni lineari) B é l’inversa di A ⇐⇒ A é bigettiva ⇐⇒ A é un isomorfismo.(2) ⇐⇒ (3): A isomorfismo ⇐⇒ n = dim(Kn) = dim(ImA) + dim(KerA) = rkA + dim{0} = rkA.

    Teorema: (di Rouché-Capelli) AX = B é risolubile ⇐⇒ rkA = rk(A|B).Dimostrazione: (idea)

    (A|B) → (S|T ) a scalini (sono equivalenti). Sappiamo che rkA = rkS,

    rk(A|B) = rk(S|T ). Ma (S|T ) é risolubile ⇐⇒ rk(S|T ) = rkS.

    Data A ∈ M(p, n) sappiamo che ImA = span(A1, . . . , An). Resta da determinare una base di ImA,sapendo che dim(ImA) = rkA = rkS = r. A tal proposito consideriamo una qualunque riduzione diGauss che trasforma la matrice A in S (a scalini). Sappiamo che ∃E1, . . . , Em matrici elementari taliche:

    S = Em · . . . · E1 ·ADetta M = Em · . . . · E1, possiamo dare un’interpretazione dell’algoritmo di Gauss sotto forma diapplicazioni lineari:

    Kn A−→ Kp M−→ Kp

    Sappiamo che M é una matrice invertibile (poiché prodotto di matrici invertibili), dunque é un isomorfi-smo di spazi vettoriali. Ma un isomorfismo manda basi in basi, quindi M trasforma una base di ImS inuna di ImA.

    Sia {Sj1 , . . . , Sjr} una base di ImS. Poiché M ·Aj = Sj :M ·Aj1 = Sj1

    ...M ·Ajr = Sjr

    Ateneo Studenti Fisica 19

  • Rango di un’applicazione lineare

    Di conseguenza {Aj1 , . . . , Ajr} sono una base di ImA.

    Conseguenza: Algoritmo di estrazione di una base per span(v1, . . . , vm), v1, . . . , vm ∈ Kp. Costruiamola seguente matrice:

    v1 . . . vm

    ∈ M(p,m).

    Allora span(v1, . . . , vm) = ImA. Per trovare la base cercata si considerano le colonne che in una ridottaa scala contengono i pivots. Abbiamo visto che tali colonne formano una base di ImA, quindi anche dispan(v1, . . . , vm).

    Osservazione: sia V un qualsiasi spazio vettoriale, non necessariamente Kn, e siano v1, . . . , vm vettoridi V da cui vogliamo estrarre una base di span(v1, . . . , vm). Fissata B una base di V , abbiamo l’isomor-fismo [ ]B : V −→ Kn. Si applica l’algoritmo di estrazione di una base a [v1]B, . . . , [vn]B.

    Calcolo della matrice inversa attraverso l’algoritmo di Gauss

    Sia A ∈ M(n) t. c. rkA = n. Cerchiamo X tale che AX = I (inversa a destra).Es. Sia A =

    (1 21 3

    ). Si puó calcolare il rango attraverso una riduzione di Gauss e vedere che rkA = 2.

    Cerchiamo una matrice X tale che:(

    1 21 3

    )·(

    x yz t

    )=

    (1 00 1

    )

    Ossia AX1 = I1, AX2 = I2. Possiamo rappresentare il sistema (e risolverlo):(1 2 1 01 3 0 1

    )→

    (1 2 1 00 1 −1 1

    )→

    (1 0 3 −20 3 −1 1

    ). Quindi X =

    (3 −2−1 1

    )é quello che

    cercavamo.

    Ripetiamo il procedimento nel caso generico con A ∈ M(n):

    AX1 = I1...AXn = In

    ⇐⇒ (A | I) Gauss−→ (I |B) ⇐⇒

    IX1 = B1...IXn = Bn

    ⇐⇒ X = B

    Facciamo vedere che B é anche inversa a sinistra:∃M invertibile (prodotto di elementari) t. c. (I |B) = M(A | I) = (MA |MI) =⇒ B = MI = M,I = MA = BA.

    Matrice associata a un’applicazione lineare

    Proposizione: Siano V e W due spazi vettoriali tali che n = dimV, p = dimW , e sia f : V −→ Wun’applicazione lineare. Siano B = {v1, . . . , vn} e S = {w1, . . . , wp} basi rispettivamente di V e di W .Sia A ∈ M(p, n) tale che:

    A =

    [f(v1)

    ]S . . .

    [f(vn)

    ]S

    che indichiamo come A = mB,S(f) o A = mBS(f) (cioé la matrice associata nelle basi B e S ad f).

    Proposizione: se A = mBS(f) =⇒ ∀v ∈ V[f(v)

    ]S = A ·

    [v]B

    Dimostrazione: ∀v ∈ V ∃a1, . . . , an ∈ K, t. c. v = a1v1 + . . . + anvn =⇒ [v]B =(a1, . . . , an

    ).

    Per linearitá di f e sostituendo i valori di f(v1), . . . , f(vn) otteniamo:f(v) = a1f(v1) + . . . + anf(vn) = a1(a11w1 + . . . + ap1wp) + . . . + an(a1nw1 + . . . + apnwp) == (a11a1 + . . . + a1nan)w1 + . . . + (ap1a1 + . . . + apnan)wp.

    20 Ateneo Studenti Fisica

  • Rango di un’applicazione lineare

    Allora:

    [f(v)

    ]S =

    a11a1 + . . . + a1nan...

    ap1a1 + . . . + apnan

    =

    a11 a1n... . . .

    ...ap1 apn

    ·

    a1...

    an

    = A ·

    [v]B

    Osservazione: Da quanto sopra segue che il diagramma:V

    f−→ W↓ ↓Kn A−→ Kpé commutativo.

    Proposizione: Siano V , W spazi vettoriali, con n = dimV e p = dimW , f : V −→ W lineare e sianoB = {v1, . . . , vn} e S = {w1, . . . , wp} basi rispettivamente di V e W . Allora l’applicazione:

    fα−→ mBS(f)

    che ad ogni applicazione associa la sua matrice associata nelle basi B e S, é un isomorfismo.Dimostrazione: α é lineare:

    ∀f, g ∈ Hom(V,W ), α(f + g) = [(f + g)(v1)

    ]S . . .

    [(f + g)(vn)

    ]S

    Utilizzando la definizione di somma di funzioni((f + g)(v) = f(v) + g(v)

    )e la linearitá di [ ]S :

    α(f + g) =

    [f(v1)

    ]S . . .

    [f(vn)

    ]S

    +

    [g(v1)

    ]S . . .

    [g(vn)

    ]S

    = α(f) + α(g)

    Allo stesso modo per il multiplo.

    α é iniettiva (dimostriamo che Ker(f) = {0}):se α(f) = 0 (matrice nulla) =⇒ f(v1) = . . . = f(vn) = 0. Da teorema sappiamo che un’applicazione

    lineare é ben definita da ció che fa su una base dello spazio di partenza. Poiché f manda tutti i vettoriin 0 =⇒ f = 0.

    α é surgettiva (facciamo vedere che data A esiste sempre f t. c. A = mBS(f)):Presa A = mBS(f), definisco f tale che

    [f(vi)

    ]S = A

    i, ∀i = 1, . . . , n. Per teorema ∃!f ∈ Hom(V, W )che manda una base in vettori prescritti.

    Corollario: dim(Hom(V,W )

    )= pn

    Proposizione: siano V, W, Z spazi vettoriali, con basi rispettivamente B, S, T . Siano f, g applicazionilineari tali che VB

    f−→ WS g−→ ZT . Siano A = mBS(f), B = mST (g). Allora mBT (g ◦ f) = B ·A.Dimostrazione: ∀v ∈ V, [(g ◦ f)(v)]T =

    [(g

    (f(v)

    )]T = B ·

    [f(v)

    ]S = B ·A ·

    [v]B.

    Definizione: sia f un’applicazione lineare. Definiamo rkf = dim(Imf).

    Diamo un modo per calcolare rkf :Imf = span

    (f(v1), . . . , f(vn)

    ) ∼= span(A1, . . . , An) =⇒ dim(Imf) = dim(ImA) = rkA.

    Matrice del cambiamento di base

    Il cambiamento di base avviene tramite un’applicazione lineare che manda ciascun vettore in sé stesso.Tale applicazione é l’identitá (da non confondere con la matrice identitá):

    Id : VB −→ VSLa matrice associata all’applicazione identitá (A ∈ M(n) t. c. A = mBS(Id)) é tale che:

    ∀v ∈ V [v]S = A · [v]B

    Ateneo Studenti Fisica 21

  • Rango di un’applicazione lineare

    che segue da[f(v)

    ]S = A · [v]B, con f = Id.

    É chiaro che la matrice A é invertibile, essendo rkA = dim(Imf) = dimV = n

    Osservazione: B = mSB(Id) é la matrice inversa di A, poiché A ·B = I, cioé applicando le due matriciin sequenza, le coordinate di ciascun vettore rimangono immutate.

    22 Ateneo Studenti Fisica

  • SD-equivalenza

    Definizione: chiameremo gruppo lineare di rango n su campo K:

    GL(n,K) = {A ∈ M(n,K) | Aé invertibile}

    Dimostriamo che(GL(n,K), ·), con · prodotto fra matrici, é effettivamente un gruppo (non commutativo):

    1. · é un’operazione in GL(n,K): ∀A,B ∈ GL(n,K) ?=⇒ AB ∈ GL(n,K).Sia (AB)−1 = B−1A−1. Verifichiamo che é una buona definizione: AB ·B−1A−1 = A ·A−1 = I;

    2. Esistenza dell’inverso: ∀A ∈ GL(n,K) =⇒ A−1 ∈ GL(n,K), poiché (A−1)−1 = A;3. esiste l’elemento neutro per il prodotto, ossia I;

    4. Proprietá associativa: vale per tutte le matrici, quindi anche per quelle invertibili.

    Siano V, W due spazi vettoriali, f : V −→ W un’applicazione lineare, B e B′ due basi di V , S e S ′ duebasi di W . Siano n = dimV, p = dimW, A = mBS(f), A

    ′ = mB′S′(f). Consideriamo il seguente diagramma:

    VBA−→ WS

    ↑N ↓MVB′

    A′−→ WS′

    A′ = MAN dove M e N sono le matrici associate all’identitá (matrici di cambio di base).

    Osservazione: M ∈ GL(p,K), N ∈ GL(n,K), poiché prodotto di matrici elementari invertibili.

    Definizione: due matrici A,B ∈ M(p, n) sono dette SD-equivalenti se ∃M ∈ GL(p,K), ∃N ∈ GL(n,K) t. c.B = MAN .

    Osservazioni:

    1. SD-equivalenza é una relazione di equivalenza:

    • Proprietá riflessiva: A ≡ A, poiché ∃Ip ∈ GL(p), ∃In ∈ GL(n) t. c. A = IpAIn;• Proprietá simmetrica: A ≡ B =⇒ B ≡ A, poiché B = MAN =⇒ A = M−1BN−1;• Proprietá transitiva: A ≡ B, B ≡ C =⇒ A ≡ C, poiché B = MAN, C = PBQ =⇒

    =⇒ C = (PM)A(NQ). Infatti P,M ∈ GL(p) =⇒ PM ∈ GL(p); lo stesso per N e Q.2. se A ≡ B =⇒ rkA = rkB:

    rkB = rk(MAN); N isomorfismo =⇒ rk(MAN) = rk((MA)N) = rk(MA), M isomorfismo =⇒=⇒ rk(MA) = rkA (poiché rk(f ◦g) ≤ min(rkf, rkg)). Il rango é un invariante per SD-equivalenza;

    3. che A e B siano SD-equivalenti vuol dire che rappresentano la stessa applicazione in basi diverse;

    4. equivalentemente, per le applicazioni lineari, date f, g ∈ Hom(V, W ), dove dimV = n, dimW = p:f ≡ g ⇐⇒ ∃ϕ ∈ GL(V ), ∃ψ ∈ GL(W ) t. c. g = ψ ◦ f ◦ ϕ;f ≡ g ⇐⇒ mBS(g) = mSS(ψ) ·mBS(f) ·mBB(ϕ) ⇐⇒ mBS(g) ≡ mBS(f);In questo caso f e g sono applicazioni diverse nelle stesse basi, non la stessa applicazione vista inbasi diverse.

    Ateneo Studenti Fisica 23

  • SD-equivalenza

    Proposizione: siano V, W due spazi vettoriali tali che dimV = n, dimW = p. Si f : V −→ W linearetale che r = rkf . Allora esistono una base B di V e una base S di W tali che mBS(f) =

    (Ir 00 0

    )

    Dimostrazione: rkf = r =⇒ dim(Kerf) = n− r. Sia {vr+1, . . . , vn} una base di Kerf .La completiamo a base B = {v1, . . . , vr, vr+1, . . . , vn} di V .Sappiamo che {f(v1), . . . , f(vr)} generano Imf , dato che f(vr+1) = . . . = f(vn) = 0, sono r =⇒ sonouna base di Imf .Li completiamo a base S = {f(v1), . . . , f(vr), wr+1, . . . , wp} di W .La matrice associata ad f nelle basi B, S é: mBS(f) =

    (Ir 00 0

    )

    Corollario: sia A ∈ M(p, n), se rkA = r =⇒ A ≡(

    Ir 00 0

    )

    Basta scegliere le basi come nella dimostrazione precedente.

    Teorema: A ≡ B ⇐⇒ rkA = rkB (ossia il rango é un invariante completo di SD-equivalenza).Dimostrazione: (=⇒) giá fatto.(⇐=) rkA = rkB = r =⇒ A ≡

    (Ir 00 0

    )≡ B =⇒ A ≡ B (transitivitá).

    Corollario: ∀A ∈ M(p, n), rkA = rktA.Dimostrazione: sia r = rkA =⇒ A = M ·

    (Ir 00 0

    )·N con M ∈ GL(p), N ∈ GL(n).

    =⇒ tA = tN ·t(

    Ir 00 0

    )· tM ,

    t(Ir 00 0

    )=

    (Ir 00 0

    )∈ M(n, p).

    tN ∈ GL(n,K), perché I = tI = t(NN−1) = t(N−1)tN =⇒ t(N−1) é l’inversa di tN ; lo stesso pertM .

    =⇒ tA ≡(

    Ir 00 0

    )=⇒ rktA = r.

    Corollario: sia R(A) = span(A1, . . . , Ap) lo spazio generato dalle righe di A. Allora dimR(A) = rkA.Dimostrazione: dimR(A) = dimC(tA) = rktA = rkA (dove C(tA) = span(tA1, . . . , tAn)).

    Proposizione: se A ∈ M(p, n) e B é sottomatrice di A =⇒ rkB ≤ rkA.Dimostrazione: B = (Ai1 , . . . , Aim | Aj1 , . . . , Ajk). Sia C = (Ai1 , . . . , Aim | A1, . . . , An).C é ottenuta da A prendendo tutte le colonne e alcune righe. Pensando al rango per riga: rkC ≤ rkA.Allo stesso modo B é ottenuta da C prendendo tutte le righe e alcune colonne. Pensando al rango percolonna: rkB ≤ rkC ≤ rkA.

    Definizione: ogni sottomatrice quadrata é detta un minore. Si dice ordine del minore il numero dellesue righe (e colonne).

    Proposizione: sia A ∈ M(p, n), e sia B un minore di A di ordine q invertibile =⇒ le righe di A cheentrano a formare B sono linearmente indipendenti.Dimostrazione: Supponiamo che B sia formato dalle prime q righe e q colonne di A. Proviamo cheA1, . . . , Aq sono linearmente indipendenti:

    α1A1 + . . . + αqAq = 0 =⇒ α1B1 + . . . + αqBq = 0 ⇐⇒ α1 = . . . = αq = 0 (sono linearmente indi-pendenti).

    Proposizione: il rango di una matrice A ∈ M(p, q) é il massimo degli ordini dei suoi minori invertibili.Dimostrazione: sia rkA = r, ρ il massimo ordine dei suoi minori invertibili.Sia B un minore di A di ordine ρ invertibile =⇒ A contiene ρ righe linearmente indipendenti =⇒=⇒ rkA ≥ ρ, ρ ≤ r.Ma in A esistono r righe linearmente indipendenti, che supponiamo essere A1, . . . , Ar.Sia C = (A1, . . . , Ar | A1, . . . , Aq) =⇒ rkC = r (pensato come rango per riga). Allora C contiene rcolonne linearmente indipendenti, supponiamo Cj1 , . . . , Cjr .Sia M = (A1, . . . , Ar | Aj1 , . . . , Ajr ) ∈ M(r), minore di A di ordine r, invertibile (contiene r colonnelinearmente indipendenti) =⇒ ρ ≥ r.Poiché valgono contemporaneamente ρ ≤ r e ρ ≥ r =⇒ ρ = r.

    24 Ateneo Studenti Fisica

  • Determinante

    Sia A ∈ M(n,K), sappiamo che rkA é il massimo numero di righe e colonne indipendenti.Cerchiamo una funzione: det : M(n,K) −→ K tale che detA = 0 ⇐⇒ le righe di A sono linearmentedipendenti.

    Esempio:

    sia n = 2 : A =(

    a11 a12a21 a22

    ). Abbiamo 3 casi:

    1. Se a11 e a21 sono entrambi nulli, le righe sono dipendenti.

    2. Se a11 6= 0 =⇒ tramite operazioni per righe:

    A →(

    a11 a120 a22 − a−111 · a21 · a12

    )

    Le righe di A sono dipendenti ⇐⇒ a22 − a−111 · a21 · a12 = 0 ⇐⇒ a11 · a22 − a21 · a12 = 0.3. Se a11 = 0 ma a21 6= 0:

    n = 2 : A =(

    a21 a220 a12

    )

    Le righe di A sono dipendenti ⇐⇒ a12 = 0, ossia se non é un pivot.Ponendo, nel caso n = 2, detA = a11 · a22 − a12 · a21 =⇒ detA = 0 ⇐⇒ Le righe sono linearmentedipendenti.

    Abbiamo trovato la funzione che cercavamo nel caso n = 2. Vediamo ora alcune sue proprietá:

    1. det é lineare nelle righe. Supponiamo che la prima riga di A sia combinazione lineare di altre due:

    ∃B, C ∈ K2 t. c. A =(

    λB + µC−A2−

    ). Verifichiamo che det A = λ det

    ( −B−−A2−

    )+ µ

    ( −C−−A2−

    )

    Infatti: se B = (b1 b2), C = (c1 c2), A2 = (a1 a2):

    det(

    λb1 + µc1 λb2 + µc2a1 a2

    )= a2(λb1 +µc1)−a1(λb2 +µc2) = λ(a2b1−a1b2)+µ(a2c1−a1c2) =

    = λ(

    b1 b2a1 a2

    )+ µ

    (c1 c2a1 a2

    )

    2. Se A ha due righe uguali =⇒ det A = 0;3. det I = 1.

    Passiamo ora al caso generico, e supponiamo che detA, definito prima, verifichi le 3 proprietá sopraelencate. Abbiamo le seguenti conseguenze:

    • se A ha una riga nulla =⇒ detA = 0.Dimostrazione: se Ai = 0, ∀B ∈ Kn (riga) =⇒ Ai = 0 ·B. Allora, applicando la proprietá 1:det(A1, . . . , 0 ·B, . . . , An) = 0 · det(A1, . . . , B, . . . , An) = 0;

    • se A′ é ottenuta da A scambiando due righe =⇒ detA′ = −det A.Dimostrazione:A = (A1, . . . , Ai, . . . , Aj , . . . , An)

    Ateneo Studenti Fisica 25

  • Determinante

    A′ = (A1, . . . , Aj , . . . , Ai, . . . , An).Consideriamo la matrice A′′ = (A1, . . . , Ai + Aj , . . . , Ai + Aj , . . . , An). Poiché ha due righe uguali:det A′′ = 0. Applicando le proprietá 1 e 2:

    0 = det A′′ = det(A1, . . . , Ai, . . . , Aj , . . . , An) +

    0︷ ︸︸ ︷det(A1, . . . , Ai, . . . , Ai, . . . , An)+

    +

    0︷ ︸︸ ︷det(A1, . . . , Aj , . . . , Aj , . . . , An)+ det(A1, . . . , Aj , . . . , Ai, . . . , An) = det A + det A′

    =⇒ detA′ = − detA;• se B ∈ M(n,K) é ottenuta da A sommando ad una riga una combinazione lineare delle altre

    =⇒ detB = det A.Dimostrazione: B = (A1 + α2A2 + . . . + αnAn, A2, . . . , An). Applicando la proprietá 1:

    detB = det A +n∑

    i=2

    αi

    0︷ ︸︸ ︷det(Ai, A2, . . . , An) = det A

    • se le righe di A sono linearmente dipendenti =⇒ detA = 0.Dimostrazione: se A = (α2A2 + . . . + αnAn, A2, . . . , An):

    detA =n∑

    i=2

    αi

    0︷ ︸︸ ︷det(Ai, A2, . . . , An) = 0

    • se A é diagonale A =

    a1 0. . .

    0 an

    =⇒ detA = a1 · . . . · an.

    Dimostrazione: Per le proprietá 2 e 3:

    det

    a1 0. . .

    0 an

    = a1 · . . . · an · det

    1 0. . .

    0 1

    = a1 · . . . · an

    Teorema: (unicitá) se det verifica le proprietá 1, 2 e 3 =⇒ ∀A ∈ M(n,K), det A é univocamentedeterminato.Dimostrazione: Riduciamo A a scalini (S) con operazioni per riga di primo e terzo tipo (scambi dirighe, somma con multiplo). Dalla terza conseguenza sopra elencata, sappiamo che sommare ad una rigail multiplo di un’altra non fa variare il determinante.Se sono stati fatti m scambi di righe =⇒ detA = (−1)m · det S. Abbiamo 2 casi:

    • rkS < n (almeno l’ultima riga é nulla) =⇒ detS = 0 =⇒ detA = 0;• rkS = n. Finora abbiamo ridotto A in forma triangolare. Con ulteriori operazioni elementari per

    riga riduciamo S a S′ diagonale.

    S′ =

    p1 0. . .

    0 pn

    =⇒ detS = det S′ = p1 · . . . · pn

    =⇒ detA = (−1)m · p1 · . . . · pnQuindi il valore della funzione é univocamente determinato.N.B. I pivots possono essere diversi a seconda della riduzione che é stata fatta, ma il loro prodotto écostante (a meno del segno).

    Corollario: detA = 0 ⇐⇒ le righe di A sono linearmente indipendenti.Dimostrazione: (⇐=) giá fatta.(=⇒) Se per assurdo le righe di A fossero indipendenti =⇒ A Gauss−→ S. S ha n pivots =⇒ detA == (−1)m · detS = (−1)m · p1 · . . . · pn 6= 0. Assurdo.

    26 Ateneo Studenti Fisica

  • Determinante

    Esistenza:

    n = 1 =⇒ det a def= a;n = 2 =⇒ detA = a11a22 − a21a12;n =⇒ Sia A ∈ M(n), ai1 = [A]i1, Ai1 la sottomatrice ottenua da A scartando la prima colonna e lai-aesima riga (detta complemento algebrico). Allora si chiama sviluppo di Laplace:

    detn

    A =n∑

    i=1

    (−1)i+1ai1 · detn−1

    Ai1

    Verifichiamo per induzione su n che valgono le 3 proprietá per lo sviluppo di Laplace.

    • n = 2 giá fatto.• Passo induttivo: supponiamo che le 3 proprietá valgano per il caso detn−1 e verifichiamo che valgono

    anche detn:

    1. supponiamo che ∃B, C ∈ Kn t. c. Aj = λB + µC.Siano A′ = (A1, . . . , B, . . . , An), A′′ = (A1, . . . , C, . . . , An)

    ?=⇒ detA = λ detA′ + µ det A′′.

    Consideriamo [A]i1 e Ai1 al variare di i:se i 6= j =⇒ [A]i1 = [A′]i1 = [A′′]i1, mentre det Ai1 = λ detA′i1 + µ detA′′i1;se i = j =⇒ [A]j1 = λ[A′]j1 + µ[A′′]j1, mentre Aj1 = A′j1 = A′′j1.

    detA =∑

    i6=j

    [(−1)i+1[A]i1 ·

    (λ detA′i1 + µ det A′′i1

    )]+ (−1)j+1(λ[A′]j1 + µ[A′′]j1

    ) · detAj1

    Applicando quanto sopra:

    detA = λ

    (n∑

    i=1

    (−1)i+1[A′]i1 · det A′i1)

    (n∑

    i=1

    (−1)i+1[A′′]i1 · detA′′i1)

    = λ detA′+µ detA′′

    2. Sia A tale che Ai = Aj . Verifichiamo che det A = 0A = (A1, . . . , Ai, . . . , Ai, . . . , An)

    Se k 6= i, j =⇒ detAk1 = 0 perché contiene due righe uguali.Se k = i =⇒ [A]k1 = [A]i1 = [A]j1 e det Ai1 = (−1)j−i−1 · detAj1 (come se la j-esima rigavenisse spostata verso l’alto di j − i− 1 posizioni, scambiandola ogni volta con la precedente,fino ad assumere l’i-esima posizione).

    detA =

    0︷ ︸︸ ︷∑

    k 6=i,j(−1)k+1[A]k1 · detAk1 +(−1)i+1[A]j1 ·

    ((−1)j−i−1 ·detAj1

    )+(−1)j+1[A]j1 ·detAj1

    Ma il secondo e il terzo blocco sono opposti, quindi det A = 0.

    3. Verifichiamo che det In = 1.Se i 6= 1 =⇒ [A]i1 = 0;se i = 1 =⇒ [A]11 = 1 e det A11 = 1 (é ancora una matrice identitá di rango n− 1).

    detA = (−1)2[A]11 · detA11 +

    0︷ ︸︸ ︷n∑

    i=2

    (−1)i+1[A]i1 · detAi1 = 1

    Osservazione: facendo lo sviluppo di Laplace lungo qualsiasi colonna della matrice si ottiene una fun-zione che verifica le proprietá 1, 2 e 3. Poiché abbiamo dimostrato l’unicitá del determinante concludiamoche tutte queste funzioni sono uguali.

    Osservazione: se A ∈ M(n) =⇒ det(αA) = αn det A.

    Ateneo Studenti Fisica 27

  • Determinante

    Teorema: (di Binet) siano A, B ∈ M(n,K) =⇒ det(AB) = det A · detB.Dimostrazione: se det B = 0 =⇒ rkB < n =⇒ rk(AB) < min(rkA, rkB) < n =⇒ det(AB) = 0.Se det B 6= 0 definiamo f(A) = det(AB)det B . Vogliamo dimostrare che f(A) = det A; basta quindi provareche verifica le proprietá 1, 2 e 3 e ricordarsi dell’unicitá del determinante.

    1. Linearitá nelle righe: sia Ai = λP + µQ, P, Q ∈ Kn, allora:

    det(AB) = det

    λP + µQ

    ·

    B

    = det

    λPB + µQB

    = λ det

    PB

    +µ det

    QB

    Poiché detB 6= 0 =⇒ rkB = n =⇒ PB 6= 0, QB 6= 0 =⇒ la i-esima riga della matrice AB écombinazione lineare di altre due. Essendo det(AB) lineare nelle righe lo é anche f(A).

    2. Allo stesso modo, se A ha due righe uguali, anche AB le avrá. Allora det AB = 0.

    3. f(I) = det(IB)det B = 1.

    Corollario: sia A ∈ M(n) invertibile =⇒ det A−1 = (det A)−1.Dimostrazione: A ·A−1 = I =⇒ det(A ·A−1) = 1 =⇒ detA ·detA−1 = 1 =⇒ det A−1 = (det A)−1

    Corollario: siano A, B ∈ M(n) invertibili =⇒ AB é invertibile.Dimostrazione: det A 6= 0, det B 6= 0 =⇒ det(AB) = det A · detB 6= 0 =⇒ AB é invertibile.

    Proposizione: ∀A ∈ M(n,K), det tA = det A.Dimostrazione: se det A = 0 =⇒ rktA = rkA < n =⇒ det tA = 0.Consideriamo le matrici elementari : quelle di primo e secondo tipo sono simmetriche, quindi sono ugualialla loro trasposta (e di conseguenza vale la proposizione), mentre quelle di terzo possono essere ricondottetramite un’operazione elementare (che non fa variare il determinante) all’identitá, quindi a una matricesimmetrica. La proposizione vale per tutte le matrici elementari.

    Passiamo ora al caso generico con det A 6= 0. Con opportune matrici elementari:Em · . . . · E1 ·A = I =⇒ tA · tE1 · . . . · tEm = I =⇒ A = (tEm)−1· . . . ·(tE1)−1det tA = det(tE−1m )· . . . · det(tE−11 ) = (det tEm)−1· . . . ·(det tE1)−1 · (det A)−1 · detA == (detEm)−1· . . . ·(det E1)−1 · (detA)−1 · det A =

    [det(Em · . . . · E1 ·A︸ ︷︷ ︸

    I

    )]−1 · detA = det A.

    Osservazione: lo sviluppo di Laplace secondo la prima riga:

    f(a) =n∑

    i=1

    (−1)1+i[A]1i · detA1i

    é uguale a det A.Dimostrazione:

    f(a) =n∑

    i=1

    (−1)i+1[tA]i1 ·det(tA)i1︷ ︸︸ ︷

    det t(A1i) = det tA = det A

    Proposizione: (regola di Cramer) Sia AX = B un sistema tale che A ∈ M(n,K), B ∈ Kn, e supponiamodet A 6= 0. Se y1, . . . , yn é soluzione del sistema =⇒ yi = det B(i)det A , doveB(i) = (A1, . . . , Ai−1, B, Ai+1, . . . , , An).

    Dimostrazione: se Y =

    y1...

    yn

    , sappiamo che AY = B =⇒ y1A1+ . . . +ynAn = B. Allora:

    det B(i) = det(A1, . . . , Ai−1,n∑

    i=1

    yiAi, Ai+1, . . . , , An) =

    n∑

    i=1

    yi det(A1, . . . , Ai, . . . , , An) = yi detA

    Proposizione: sia A ∈ M(n,K) inveribile. Allora la matrice B ∈ M(n,K) definita da (Aij é ilcomplemento algebrico):

    [B]ij =(−1)i+j detAij

    det A

    28 Ateneo Studenti Fisica

  • Determinante

    é la matrice inversa di A.Dimostrazione: verifichiamo che AB = I:

    [AB]hk =n∑

    i=1

    [A]hi · [B]ik =n∑

    i=1

    (−1)i+k[A]hi · det Akidet A

    Tale espressione assume i valori:1 se k = h, poiché il numeratore della frazione é lo sviluppo di det A;0 se k 6= h: possiamo costruire la matrice A′ in cui A′k = A′h = Ah (cioé la h-esima e la k-esima rigadi A′ sono uguali alla h-esima di A) =⇒ det A′ = 0.

    Nei casi in cui k 6= h: [A]hi = [A′]ki e Aki = A′ki (viene cancellata proprio la k-esima riga, l’unicache abbiamo modificato; non ci si accorge della differenza). Dunque, in questo caso:

    [AB]hk =n∑

    i=1

    (−1)i+k[A′]ki · detA′ki

    det A=

    detA′

    detA= 0

    Criterio dei minori orlati

    Definizione: sia A ∈ M(p, q) e sia B un minore di A di ordine n. C é un minore orlato di B se éun minore di A di ordine n + 1 e B = (C1, . . . , Cn | C1, . . . , Cn) (ossia scartando da C l’ultima riga el’ultima colonna si ottiene B).

    Esempio:

    A =

    1 2 3 10 9 5 1π

    √2 1 0

    B =

    (1 20 9

    )

    Sono minori orlati di B:

    C ′ =

    1 2 30 9 5π

    √2 1

    C ′′ =

    1 2 10 9 1π

    √2 0

    Proposizione: : sia A ∈ M(p, q), e sia B un minore di ordine n tale che:• detB 6= 0;• tutti i minori orlati di B hanno determinante nullo.

    Allora rkA = n.Dimostrazione: supponiamo che B = (A1, . . . , An | A1, . . . , An) (cioé che sia composto dalle primen righe e colonne di A). Sicuramente A1, . . . , An sono linearmente indipendenti (entrano a formare ilminore). Dimostriamo che generano tutte le altre righe.Consideriamo quindi la sottomatrice C = (A1, . . . , An, Ai | A1, . . . , Aq), i = n + 1, . . . , p (costituitadalle righe che entrano a formare B piú una e da tutte le colonne di A).C1, . . . , Cn sono indipendenti, ma ∀i = n + 1, . . . , p, Ci ∈ span(C1, . . . , Cn), perché prendendo tutte lerighe e le prime n colonne piú una (tra le rimanenti) di C si ottiene un minore orlato di B =⇒ C ha ncolonne linearmente indipendenti =⇒ rkC = n =⇒ Ai é linearmente dipendente.

    Ateneo Studenti Fisica 29

  • Coniugio e Similitudine

    Definizione: siano f, g ∈ End(V ) = Hom(V, V ) (detto insieme degli endomorfismi di V ). f e g sidicono coniugati (e si indica f ∼ g) ⇐⇒ ∃h ∈ GL(V ) t. c. g = h−1 ◦ f ◦ h.

    Osservazione: f ∼ g =⇒ f ≡ g (ψ = ϕ−1) =⇒ il rango é invariante per coniugio.

    Definizione: siano A, B ∈ M(n,K). A ∼ B (A e B sono simili) ⇐⇒ ∃M ∈ GL(n,K) t. c.B = M−1AM .

    Proposizione: siano f, g ∈ End(V ), B base di V . f ∼ g ⇐⇒ mB(f) ∼ mB(g) (utilizziamo la stessabase sia in partenza che in arrivo).

    Da quanto sopra, studiare End(V )/∼ o M(n,K)/∼ é la stessa cosa.

    Osservazione: come per SD-equivalenza, possiamo vedere la similitudine fra matrici in due modi diver-si: date A, B ∈ M(n), con A ∼ B, possiamo vederle come endomorfismi coniugati oppure come matriciassociate alla stessa applicazione in basi diverse. Per capire questa seconda interpretazione consideriamoil diagramma:

    VSB−→ VS

    ↑ M ↓ M−1VB

    A−→ VB

    Sia nello spazio di partenza che in quello di arrivo, per entrambe le applicazioni, utilizziamo la stes-sa base. Le matrici di cambio di base

    (mBS(Id), m

    SB(Id) ∈ GL(n,K)

    )sono una l’inversa dell’altra.

    Pertanto A e B sono matrici simili.

    Lemma: ∀A ∈ M(n,K), ∀M ∈ GL(n) =⇒ detB = det A (il determinante é invariante per similitudine).Dimostrazione: det B = det(M−1AM) = det M−1 · detA · det M = (det M)−1 · detM · det A = det A.

    Definizione: sia f ∈ End(V ), B base di V , definiamo det f def= det mB(f)

    Osserviamo che si tratta di una buona definizione, indipendente dalla scelta della base. Infatti, se B e B′sono due basi allora, per quanto detto sopra, mB(f) ∼ mB′(f), quindi det

    (mB(f)

    )= det

    (mB′(f)

    )=

    = det f .

    Osservazione: siano f, g ∈ End(V ). f ∼ g =⇒ det f = det g.Dimostrazione: ∀B base di V , mB(f) ∼ mB(g) =⇒ det f = det mB(f) = det mB(g) = det g.

    Tuttavia {rk, det} non é un sistema completo di invarianti. Consideriamo infatti le matrici:

    I =(

    1 00 1

    ), A =

    (1 10 1

    )

    A 6∼ I, benché abbiano stesso rango e determinante, infatti la classe di equivalenza di I é:[I] =

    {M−1IM | M ∈ GL(N)} = {I}

    dunque é composta dalla sola matrice identitá. Cerchiamo altri invarianti.

    30 Ateneo Studenti Fisica

  • Coniugio e Similitudine

    Definizione: f ∈ End(V ), λ ∈ K si dice autovalore per f se ∃v ∈ V, v 6= 0 t. c. f(v) = λv (v si diceautovettore per f).

    Proprietá:

    1. f(span(v)

    ) ⊆ span(v).Se λ 6= 0 vale l’uguaglianza (la retta viene mandata in sé stessa), mentre se λ = 0 :f(span(v)

    )= {0} ⊂ span(v).

    2. L’autovalore relativo ad un autovettore é univocamente determinato.Infatti, se f(v) = λv e f(v) = µv =⇒ (λ− µ)v = 0. Ma v 6= 0 =⇒ λ− µ = 0 =⇒ λ = µ.

    3. 0 é autovalore =⇒ f non é iniettiva.Infatti ∃v ∈ V, v 6= 0 t. c. f(v) = 0 =⇒ Kerf 6= {0}.

    Definizione: V (λ, f) = {v ∈ V | f(v) = λv}.Osservazione: V (λ, f) = Ker(f −λId), infatti f(v)−λId(v) = 0 =⇒ V (λ, f) é uno spazio vettoriale.

    V (λ, f) é interessante se λ é un autovalore. In tal caso dimV (λ, f) ≥ 1 ed é detto autospazio relativo a λ.

    Proposizione: f, g ∈ End(V ), f ∼ g:1. λ autovalore per f =⇒ λ autovalore per g;2. λ autovalore per f e g =⇒ dimV (λ, f) = dimV (λ, g).

    Dimostrazione: ∃h ∈ GL(V ) t. c. g =.1. per ipotesi ∃v ∈ V, v 6= 0 t. c. f(v) = λv.

    g(h−1(v)

    )= (h−1 ◦ f ◦ h)(h−1(v)) = h−1(f(v)) = λh−1(v).

    2. Abbiamo visto che ∀v ∈ V (λ, f) =⇒ h−1(v) ∈ V (λ, g), ossia h−1(V (λ, f)) ⊆ V (λ, g).Allo stesso modo h

    (V (λ, g)

    ) ⊆ V (λ, f) (poiché f = h ◦ g ◦ h−1). Allora:h(V (λ, g)

    ) ⊆ V (λ, f) ⊆ h(V (λ, g)) =⇒ h(V (λ, g)) = V (λ, f). Poiché h é un isomorfismo epreserva le dimensioni: dimV (λ, f) = dimV (λ, g).

    Corollario: Autovalori e dimensione degli autospazi sono invarianti per coniugio.

    Proposizione: siano f ∈ End(V ), B base di V , A = mB(f), [ ]B : V −→ Kn (isomorfismo indotto dallascelta della base). Allora:

    1. λ autovalore per f =⇒ λ autovalore per A;2.

    [V (λ, f)

    ]B = V (λ, A).

    Dimostrazione:

    1. λ autovalore per f ⇐⇒ ∃v ∈ V, v 6= 0 t. c. f(v) = λv ⇐⇒ [f(v)]B =[λv

    ]B ⇐⇒ A[v]B = λ[v]B

    ⇐⇒ ∃X ∈ Kn, X 6= 0 (X = [v]B)

    t. c. AX = λX ⇐⇒ λ autovalore per A;

    2. da quanto sopra:[V (λ, f)

    ]B = V (λ, A).

    Calcolo di autovalori e autospazi per una matrice

    Sia A ∈ M(n,K).λ autovalore per A ⇐⇒ ∃X ∈ Kn, X 6= 0 t. c. AX = λX ⇐⇒ (A − λI)X = 0 ⇐⇒ det(A − λI) = 0(Poiché tale sistema ha almeno una soluzione X ∈ Ker(A− λI) non nulla).

    Definizione: sia A ∈ M(n,K). Si dice polinomio caratteristico di A: pA(t) = det(A− tI).

    Osservazione: λ autovalore per A ⇐⇒ pA(λ) = 0. (λ é radice del polinomio caratteristico).

    Ateneo Studenti Fisica 31

  • Coniugio e Similitudine

    Osservazione: degpA(t) = n =⇒ A ha al piú n autovalori distinti.

    Richiamo: p(t) ∈ K[x], λ ∈ K t. c. p(λ) = 0 =⇒ p(t) = (t − λ)h · q(t) per il teorema del resto, conh > 0, q(λ) 6= 0. h é detta molteplicitá algebrica di λ.

    Proposizione: siano A, B ∈ M(n,K). A ∼ B =⇒ pA(t) = pB(t).Dimostrazione: B = M−1AM =⇒ pB(t) = det(B − tI) = det(M−1AM − tI) = det

    (M−1(A− tI)M).

    Applicando il teorema di Binet:pB(t) = det

    (M−1(A− tI)M) = det M−1 · detM · det(A− tI) = det(A− tI) = pA(t).

    Definizione: ∀f ∈ End(V ), sia B una base di V e A = mB(f). Allora pf (t) def= pA(t)É una buona definizione: al cambiar della base A cambia per similitudine e il polinomio caratteristico éinvariante per similitudine.

    Corollario: f ∼ g =⇒ pf (t) = pg(t) (il polinomio caratteristico é invariante per coniugio).

    Finora abbiamo trovato i seguenti invarianti per similitudine:

    1. rango;

    2. determinante;

    3. autovalori;

    4. dimensione degli autospazi;

    5. polinomio caratteristico.

    Tale lista é ridondante, cioé alcuni di questi possono essere cancellati:

    Osservazione: possiamo cancellare gli autovalori: se pA(t) = pB(t) =⇒ A e B hanno gli stessi autovalori(gli autovalori sono le radici del polinomio caratteristico).

    Osservazione: il determinante non é necessario: det A = det(A− 0 · I) = pA(0), cioé il termine noto delpolinomio caratteristico.

    (pA(t) = (−1)ntn + (−1)n−1trA + . . . + det A

    )

    Osservazione: cancelliamo il rango: rkA = dim(ImA) = n− dim(KerA) = n− dimV (0, A).

    Mostriamo che gli invarianti trovati non sono sufficienti a descrivere completamente la relazione d’equi-valenza. Prima osserviamo:

    Osservazione: siano A, B ∈ M(n,K). A ∼ B =⇒ ∀p ∈ N Ap ∼ Bp.Dimostrazione: ∃Q ∈ GL(n) t. c. B = Q−1AQ. Allora:

    Bp = (Q−1AQ) · (Q−1AQ)· . . . ·(Q−1AQ) = Q−1ApQ.

    Consideriamo ora le matrici:

    A =

    0 10

    0 10

    B =

    0 10 1

    00

    Hanno stesso polinomio caratteristico e uguale dimensione degli autospazi ma non sono simili:

    1. pA(t) = pB(t) = t4, l’unico autovalore é 0;

    2. dim V (0, A) = dim(KerA) = 4− rkA = 2dim V (0, B) = dim(KerB) = 4− rkB = 2.

    32 Ateneo Studenti Fisica

  • Coniugio e Similitudine

    A2 6∼ B2 =⇒ A 6∼ B :

    A2 = 0 B2 =

    0 0 10 0

    00

    La lista non é un sistema completo di invarianti. Per tal motivo restringiamo la classe delle matriciconsiderate.

    Diagonalizzabilitá

    Osservazione: se λ é autovalore per f =⇒ λn é autovalore per fn.

    Definizione: sia λ autovalore per A. Chiameremo:

    • molteplicitá algebrica di λ (h(λ)) la sua molteplicitá come radice di pA(t);• molteplicitá geometrica di λ: dimV (λ, A)

    Proposizione: ∀λ autovalore di A: dimV (λ, A) ≤ h(λ).Dimostrazione: sia d = dimV (λ, A), {v1, . . . , vd} una base di V (λ, A). La completiamo a base B diKn. Allora:

    mB(A) =(

    λI 00 C

    )

    pA(t) = (λ− t)d · pC(t) =⇒ h(λ) ≥ d, poiché pC(t) puó avere λ come radice.

    Definizione: f ∈ End(V ) si dice diagonalizzabile se esiste B base di V tale che mB(f) é diagonale (seesiste una base di autovettori).Definizione: A ∈ M(n,K) si dice diagonalizzabile se A é simile a una matrice diagonale.

    Osservazione: siano f ∈ End(V ), B una base di V , A = mB(f). f é diagonalizzabile ⇐⇒ A é diago-nalizzabile.

    Lemma: sia f ∈ End(V ), e siano λ1, . . . , λk autovalori distinti e v1, . . . , vk i relativi autovettori(vi ∈ V (λi)

    )=⇒ v1, . . . , vk sono linearmente indipendenti.

    Dimostrazione: Per induzione su k:k = 1: v1 6= 0 per definizione di autovettore =⇒ v1 é linearmente indipendente.k − 1 =⇒ k:Verifichiamo che sono linearmente indipendenti:

    c1v1 + . . . + ckvk = 0 (1)Moltiplichiamo (1) per λk:

    c1λkv1+ . . . +ckλkvk = 0Applichiamo f a (1):

    c1λ1v1+ . . . +ckλkvk = 0Sottraiamo le due equazioni:

    c1(λ1 − λk)v1+ . . . +ck−1(λk−1 − λk)vk−1 = 0.Poiché v1, . . . , vk−1 sono linearmente indipendenti (per ipotesi induttiva) e λi−λk 6= 0 ∀i = 1, . . . , k − 1(per ipotesi che siano tutti autovalori distinti):

    c1(λ1 − λk) = 0...ck−1(λk−1 − λk) = 0

    =⇒

    c1 = 0...ck−1 = 0

    Allora, affinché (1) sia vera, si ha anche ck = 0.

    Teorema: (di diagonalizzazione) sia f ∈ End(V ), dimV = n, λ1, . . . , λk tutti gli autovalori di f .f é diagonalizzabile ⇐⇒

    {h(λ1)+ . . . +h(λk) = n;∀i = 1, . . . , k dimV (λi, f) = h(λi).

    Ateneo Studenti Fisica 33

  • Coniugio e Similitudine

    Dimostrazione:(=⇒): per ipotesi esiste una base B di autovettori tale che:

    1. la matrice associata é nella forma:

    mB(f) =

    λ1Id1. . .

    λkIdk

    =⇒ d1+ . . . +dk = n

    Il polinomio caratteristico é:pf (t) = (λ1 − t)d1 · . . . ·(λk − t)dk =⇒ h(λi) = di =⇒ h(λ1)+ . . . +h(λk) = n;

    2. la base B contiene di autovettori linearmente indipendenti relativi a λi =⇒ dimV (λi, f) ≥ di, maabbiamo dimostrato che: dimV (λi, f) ≤ h(λi) = di =⇒ dimV (λi, f) = h(λi).

    (⇐=): poniamo mi = h(λi) e prendiamo Bi = {vi1, . . . , vi,mi} base di V (λi) formata da mi vettori.Sia B = B1 ∪ . . . ∪ Bk. La cardinalitá di B (cioé il numero di elementi che la compongono é):

    #B = m1+ . . . +mk = h(λ1)+ . . . +h(λk) = n.Facciamo vedere che sono tutti vettori linearmente indipendenti e avremo dimostrato che esiste una basedi V in cui la matrice é diagonale.

    Sia, a questo proposito, zi = ci1vi1+ . . . +ci,mivi,mi una combinazione lineare dei vettori di Bi. Facciamovedere che z1+ . . . +zk = 0 (una combinazione lineare dei vettori di B) ⇐⇒ zi = 0 ∀i = 1, . . . , k. Ció éevidente per il lemma precedentemente dimostrato, poiché zi é una autovettore relativo a λi e λ1, . . . , λksono autovalori distinti tra loro.

    Allora zi = 0 =⇒ ci1 = . . . = ci,mi = 0 =⇒ B é una base di autovettori per V .

    Osservazione: in C é sempre vera la prima ipotesi(h(λ1)+ . . . +h(λk) = n

    ), poiché pf (t) puó essere

    scomposto in fattori di primo grado, mentre in R no. Infatti consideriamo:

    A =(

    0 −11 0

    )=⇒ pA(t) = t2 + 1

    Il suo polinomio caratteristico non é scomponibile in R.

    Definizione: sia V uno spazio vettoriale, V1, . . . , Vn sottospazi vettoriali di V . Allora:V = V1 ⊕ . . .⊕ Vn ⇐⇒ ∀v ∈ V ∃ unici vi ∈ Vi, i = 1, . . . , n tali che v = v1+ . . . +vn.

    Proposizione: siano Bi base di Vi, i = 1, . . . , n. V = V1 ⊕ . . .⊕ Vn ⇐⇒ B = B1 ∪ . . . ∪ Bn.

    Conseguenza: f é diagonalizzabile ⇐⇒ V = V (λ1, f)⊕ . . .⊕ V (λk, f).

    Osservazione: in ogni Vi l’applicazione é semplice: f |V (λi) = λi · Id.

    Triangolabilitá

    Definizione: sia V uno spazio vettoriale tale che dimV = n. Si chiama bandiera per V una lista disottospazi V1, . . . , Vn di V tale che:

    1. V1 ⊂ V2 ⊂ . . . ⊂ Vn;2. dimVi = i, ∀i = 1, . . . , n.

    Osservazione: ogni base di V induce una bandiera: sia B = {v1, . . . , vn}. Allora:V1 = span(v1)V2 = span(v1, v2)

    ...Vn = span(v1, . . . , vn)

    34 Ateneo Studenti Fisica

  • Coniugio e Similitudine

    Viceversa ogni bandiera é indotta da una base.

    Definizione: sia f ∈ End(V ). Una bandiera di V é detta una bandiera per f se ∀i = 1, . . . , n Vi éf -invariante

    (f(Vi) ⊆ Vi

    ).

    Definizione: B si dice base a bandiera per f se la bandiera indotta da B é una bandiera per f .

    Osservazione: sia f ∈ End(V ), B una base di V . mB(f) é triangolare ⇐⇒ B é a bandiera per f .

    Definizione: una matrice quadrata é detta triangolabile se é simile a una triangolare.

    Definizione: f ∈ End(V ) é detta triangolabile se esiste una base B di V tale che mB(f) é triangolare.

    Teorema: (di triangolabilitá) siano f ∈ End(V ), con n = dimV, λ1, . . . , λm ∈ K tutti i suoi autovalori.Allora f é triangolabile ⇐⇒ h(λ1)+ . . . +h(λm) = n (tutti i suoi autovalori sono nel campo).Dimostrazione:(=⇒): presa B base di V a bandiera per f , consideriamo mB(f); la matrice associata é triangolare quinditutti gli autovalori si trovano sulla diagonale. Allora il polinomio caratteristico é scomponibile in fattoridi primo grado:

    pA(t) = (λ1 − t)h(λ1)· . . . ·(λm − t)h(λm)

    e h(λ1)+ . . . +h(λm) = n (cioé la taglia della matrice).(⇐=): per induzione su n.n = 1: tutte le matrici 1× 1 sono triangolari.n − 1 =⇒ n: per ipotesi ∃v1 autovettore per f (infatti esiste almeno un autovalore λ e di conseguenzaalmeno un autovettore relativo ad esso).Lo completiamo a base S = {v1, w2, . . . , wn} di V . Sia V1 = span(v1), W = span(w2, . . . , wn).La matrice associata é nella forma: mS(f) =

    (λ ?0 C

    )

    Poiché V = V1 ⊕W abbiamo due proiezioni:pV1 : V −→ V1pW : V −→ W

    Sappiamo infatti che ∀v ∈ V ∃a ∈ V1, ∃b ∈ W t. c. v = a + b = pV1(v) + pW (v) =⇒ pV1 + pW = Id.Consideriamo allora l’applicazione: pW ◦ f |W ∈ End(W ). La sua matrice associata é:

    m{w2,..., wn}(pW ◦ f |W ) = C

    tale applicazione é un endomorfismo e dimW = n− 1. Inoltre sappiamo che pA(t) = (λ− t) · pC(t).Poiché pA(t) ha tutte le radici nel campo, tale proprietá vale anche per i suoi fattori, in particolare perpC(t).Pertanto, poiché verifica le ipotesi del teorema (come si vede sopra), possiamo applicare l’ipotesi induttivaa pW ◦ f |W :esiste quindi {z2, . . . , zn} base di W a bandiera per pW ◦ f |W . Mostriamo che {v1, z2, . . . , zn} é base diV a bandiera per f , cioé ∀i = 2, . . . , n, f(zi) ∈ span(z2, . . . , zi):

    f(zi) =[

    Id︷ ︸︸ ︷(pV1 + pW ) ◦f

    ](zi) = pV1

    (f(zi)

    )+ pW

    (f(zi)

    )

    Ma pV1(f(zi)

    ) ∈ span(v1), pW(f(zi)

    ) ∈ span(z2, . . . , zi) (perché {z2, . . . , zi} é a bandiera per pW ◦f |W ),quindi f(zi) ∈ span(v1, z2, . . . , zi).

    Osservazione: se K = C tutti gli endomorfismi sono triangolabili (ma non necessariamente diagonaliz-zabili).

    Ateneo Studenti Fisica 35

  • Forme bilineari

    Definizione: sia V uno spazio vettoriale tale che dimV = n. φ : V × V −→ K é detta applicazionebilineare se:

    1. ∀x, y, z ∈ V φ(x + y, z) = φ(x, z) + φ(y, z), φ(x, y + z) = φ(x, y) + φ(x, z);2. ∀x, y ∈ V, ∀λ ∈ K, φ(λx, y) = φ(x, λy) = λφ(x, y).

    Definizione: sia V uno spazio vettoriale. Chiameremo Bil(V ) l’insieme delle applicazioni bilinearif : V × V −→ K.

    Definizione: sia V uno spazio vettoriale, φ ∈ Bil(V ), B = {v1, . . . , vn} una base di V . La matriceassociata all’applicazione bilineare φ é nella forma:

    [mB(φ)

    ]ij

    def= φ(vi, vj)

    Proposizione: se A = mB(φ) =⇒ ∀v, w ∈ V, φ(v, w) = t[v]BA[w]B.Dimostrazione:

    φ(v, w) = φ

    n∑

    i=1

    aivi,

    n∑

    j=1

    bjvj

    =

    n∑

    i=1

    ai

    n∑

    j=1

    bj · φ(vi, vj)︸ ︷︷ ︸[A]ij

    =(a1, . . . , an

    ) A

    b1...

    bn

    Osservazione: detta B una base di V , l’applicazione:f : Bil(V ) −→ M(n,K)

    φ 7−→ mB(φ)é un isomorfismo.

    Corollario: dim(Bil(V )

    )= n2.

    Definizione: φ ∈ Bil(V ) si dice simmetrica (o prodotto scalare) se φ(v, w) = φ(w, v). Si dice antisim-metr