114
PAOLO DULIO WALTER PACCO APPUNTI DI ALGEBRA LINEARE APPLICAZIONI LINEARI TEORIA ED ESERCIZI SVOLTI

Dulio Pacco - Algebra lineare Applicazioni Lineari Vol.2

Embed Size (px)

DESCRIPTION

APPUNTI DI ALGEBRA LINEARE - Applicazioni Lineari Vol.2Teoria ed esercizi svolti APPLICAZIONI LINEARI Definizioni e prime proprietàMatrici associateEserciziSIMILITUDINE E DIAGONALIZZABILITA'SimilitudineDiagonalizzabilitàAutovalori e AutovettoriEndomorfismi SimmetriciEserciziSOLUZIONI DEGLI ESERCIZI

Citation preview

  • PAOLO DULIO WALTER PACCO

    APPUNTI DI ALGEBRA LINEARE

    APPLICAZIONI LINEARI

    TEORIA ED ESERCIZI SVOLTI

  • 2

  • Indice

    1 APPLICAZIONI LINEARI 51.1 DEFINIZIONI E PRIME PROPRIETA . . . . . . . . . . . . . . . . . . . . 5

    1.1.1 Nucleo ed immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1.2 Composizione di applicazioni lineari . . . . . . . . . . . . . . . . . . 91.1.3 Teorema fondamentale delle applicazioni lineari . . . . . . . . . . . . 111.1.4 Spazi isomorfi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    Isomorfismo canonico . . . . . . . . . . . . . . . . . . . . . . . . . . 131.2 MATRICI ASSOCIATE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    1.2.1 Il Teorema dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . 161.2.2 Matrici associate alla composizione di applicazioni lineari . . . . . . 191.2.3 Rappresentazione canonica indotta . . . . . . . . . . . . . . . . . . . 201.2.4 Cambi di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

    1.3 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    2 SIMILITUDINE E DIAGONALIZZABILITA 292.1 SIMILITUDINE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.2 DIAGONALIZZABILITA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    2.2.1 Definizioni e prime proprieta . . . . . . . . . . . . . . . . . . . . . . 312.2.2 Alcune proprieta del Polinomio caratteristico . . . . . . . . . . . . . 32

    2.3 AUTOVALORI ED AUTOVETTORI . . . . . . . . . . . . . . . . . . . . . 342.3.1 Calcolo degli autovalori . . . . . . . . . . . . . . . . . . . . . . . . . 362.3.2 Autospazi di un endomorfismo . . . . . . . . . . . . . . . . . . . . . 382.3.3 Molteplicita algebrica e molteplicita geometrica . . . . . . . . . . . . 40

    2.4 ENDOMORFISMI SIMMETRICI . . . . . . . . . . . . . . . . . . . . . . . 442.4.1 Il Teorema Spettrale nel piano . . . . . . . . . . . . . . . . . . . . . 472.4.2 Classificazione delle matrici ortogonali di ordine 2 . . . . . . . . . . 50

    Significato geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . 512.4.3 Endomorfismi simmetrici in dimensione superiore . . . . . . . . . . . 52

    Generalizzazione del prodotto scalare. . . . . . . . . . . . . . . . . . 53Generalizzazione delle matrici ortogonali. . . . . . . . . . . . . . . . 54

    2.4.4 Ortonormalizzazione di Gram-Schmidt . . . . . . . . . . . . . . . . . 55Il Teorema Spettrale generalizzato. . . . . . . . . . . . . . . . . . . . 57

    2.4.5 Matrici di proiezione . . . . . . . . . . . . . . . . . . . . . . . . . . . 622.5 Lo studio della similitudine . . . . . . . . . . . . . . . . . . . . . . . . . . . 642.6 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

  • 4 INDICE

    3 SOLUZIONI DEGLI ESERCIZI 733.1 ESERCIZI CAPITOLO 1 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 733.2 ESERCIZI CAPITOLO 2 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 92

  • Capitolo 1

    APPLICAZIONI LINEARI

    Lo studio degli spazi vettoriali si amplia in maniera naturale quando vengono consideratele applicazioni lineari. Esse sono particolari funzioni, definite tra due spazi vettoriali, lacui importanza e quella di conservare le operazioni tipiche presenti in queste strutture.

    1.1 DEFINIZIONI E PRIME PROPRIETA

    Siano V e W due spazi vettoriali qualsiasi, definiti sullo stesso campo K. Una funzionef : V W e unapplicazione lineare se e solo f verifica le seguenti proprieta.

    (i) Per ogni u,v V: f(u + v) = f(u) + f(v).(ii) Per ogni a K e per ogni u V: f(au) = af(u).Pertanto una applicazione lineare conserva le operazioni di somma di vettori e di

    prodotto tra uno scalare ed un vettore.

    Teorema 1.1. Le condizioni (i) e (ii) che definiscono una applicazione lineare sonoequivalenti allunica condizione

    (i) Per ogni a, b K e per ogni u,v V: f(au + bv) = af(u) + bf(v).-Dimostrazione. Se valgono (i) e (ii), si ha

    f(au + bv)(1)= f(au) + f(bv)

    (2)= af(u) + bf(v).

    Luguaglianza (1) deriva dalla proprieta (i) e luguaglianza (2) dalla (ii). Viceversa, sevale la (i), automaticamente e vera pure la (i), ponendo a = b = 1 e la (ii), ponendob = 0.

    Unapplicazione lineare f : V W viene anche chiamata omomorfismo di spazivettoriali, di dominio V e codominio W. Linsieme di tali omomorfismi e indicato conHom(V,W).

    Osservazioni ed esempi.

    1. Il campo K che viene utilizzato nella costruzione di uno spazio vettoriale viene anchedetto campo base dello spazio.

  • 6 APPLICAZIONI LINEARI

    2. La proprieta (ii) giustifica il fatto che gli spazi V e W debbano necessariamenteessere definiti sullo stesso campo K. Altrimenti loperazione di prodotto per unoscalare al secondo membro della (ii) non sarebbe nemmeno definita.

    3. Prescindendo dalla struttura di spazio vettoriale, possiamo considerare una applica-zione lineare semplicemente come funzione tra due insiemi. Allora possiamo trasferi-re ad una applicazione lineare f : V W, senza alterarle, alcune definizioni valideper generiche funzioni tra insiemi. Per esempio, f e una applicazione lineare iniet-tiva se f(v) = f(v) implica v = v. Invece f e una applicazione lineare suriettivase per ogni w W esiste v V tale che f(v) = w. Si ha una applicazione linearebiunivoca quando e contemporaneamente iniettiva e suriettiva.

    4. Applicazioni lineari invertibili, ovvero contemporaneamente iniettive e suriettive, sichiamano isomorfismi , e il loro insieme viene indicato da Iso(V,W). Nel caso incui dominio e codominio coincidano, gli omomorfismi prendono il nome di endo-morfismi e gli isomorfismi quello di automorfismi . I loro insiemi sono individuati,rispettivamente, dai simboli End(V) e Aut(V).

    5. Studiamo la linearita dellapplicazione:

    f : R2 R2[x, y]t 7 [x y, x + y]t.

    Dobbiamo verificare se f conserva la somma di vettori e il prodotto tra un vettore eduno scalare del campo base R. Consideriamo u,v R2, con u = [a, b]t e v = [a, b]te h, k R. Per il Teorema 1.1 basta verificare che

    f(hu + kv) = hf(u) + kf(v).

    Poiche hu + kv = h[a, b]t + k[a, b]t = [ha + ka, hb + kb]t, abbiamo:

    f(hu + kv) = f([ha + ka, hb + kb]t) def== [(ha + ka) (hb + kb), (ha + ka) + (hb + kb)]t == [h(a b) + k(a b), h(a + b) + k(a + b)]t == [h(a b), h(a + b)]t + [k(a b), k(a + b)]t == h[a b, a + b]t + k[a b, a + b]t = hf([a, b]t) + kf([a, b]t) == hf(u) + kf(v)

    Quindi f e lineare.

    6. Forme lineari. Sia W uno spazio vettoriale sul campo K. Una forma lineare suW e unapplicazione lineare f Hom(W,K), dove il campo K e visto come spaziovettoriale su se stesso. Per esempio, e facile verificare che lapplicazione f : R2 Rdefinita da:

    f : R2 R[xy

    ]7 x + y

  • 1.1 DEFINIZIONI E PRIME PROPRIETA 7

    e lineare. Infatti, per ogni a, b R e per ogni v = [x, y]t e v = [x, y]t in R2 si ha:

    f(av + bv) = f(

    a

    [xy

    ]+ b

    [x

    y

    ])=

    = f([

    ax + bx

    ay + by

    ])=

    = ax + bx + ay + by = a(x + y) + b(x + y) =

    = af([

    xy

    ])+ bf

    ([x

    y

    ])=

    = af(v) + bf(v).

    Quindi f e una forma lineare.

    7. Consideriamo lapplicazione det : Mn(K) K, che associa ad ogni matrice diMn(K) il proprio determinante1. In questo caso, pur essendo ancora vero che ilcodominio e il campo base dello spazio vettoriale al dominio, non si ha una formalineare, in quanto il determinante, in generale, non conserva il prodotto di un vettoreper uno scalare. Infatti, se a K, con an 6= 1, ed A Mn(K), risulta

    det(aA) = an det A 6= adet A.

    8. Consideriamo ora un importante esempio di applicazione lineare. Sia A una matricead elementi reali avente m righe ed n colonne. Allora la corrispondenza f : Rn Rmdefinita da f(x) = Ax per ogni x Rn e una applicazione lineare. Infatti, per ognicoppia di vettori x,y R, e per ogni scelta degli scalari a, b R, sfruttando leproprieta delle matrici abbiamo

    f(ax + by) = A(ax + by) = A(ax) + A(by) = aAx + bAy = af(x) + bf(y),

    e quindi, per il Teorema 1.1, f e una applicazione lineare.

    1.1.1 Nucleo ed immagine

    Consideriamo lapplicazione f Hom(V,W). Il nucleo di f , indicato con ker f , elinsieme dei vettori di V che hanno come immagine il vettore nullo di W, cioe

    ker f = {v V| f(v) = 0W} .Limmagine di f , indicata con Imf e linsieme dei vettori di W che vengono ottenutiapplicando f ai vettori di V, cioe

    1Indichiamo con Mn(K) linsieme delle matrici quadrate, di ordine n, i cui elementi appartengono alcampo K.

  • 8 APPLICAZIONI LINEARI

    Imf = {w W| v V : f(v) = w} .Un modo piu compatto per definire i due insiemi e il seguente. Il nucleo e linsiemef1(0W), mentre limmagine e f(V).

    Ovviamente ker f V e Imf W. Il teorema seguente mette in evidenza che nucleoed immagine non sono semplici sottoinsiemi, ma hanno una loro propria struttura di spaziovettoriale2.

    Teorema 1.2. Sia f : V W una applicazione lineare. Allora ker f V, ed Imf W.-Dimostrazione. Siano u,v ker f . Cio significa che f(u) = f(v) = 0. Per ogni a, b

    appartenenti al campo base K, abbiamo:

    f(au + bv)(1)= af(u) + bf(v) = a0 + b0 = 0.

    Quindi au + bv ker f , che e un sottospazio. Luguaglianza (1) e conseguenza dellalinearita di f .

    Allo stesso modo ragioniamo per limmagine. Se w,w Imf , esistono almeno duevettori v,v V tali che f(v) = w e f(v) = w. Ora, per ogni a, b K:

    aw + bw = af(v) + bf(v)(2)= f(av + bv).

    Ma av + bv V, quindi aw + bw Imf , che e sottospazio di W. Anche in questo casoluguaglianza (2) e conseguenza della linearita della f .

    Liniettivita di unapplicazione e caratterizzata dal seguente risultato.

    Teorema 1.3. Sia f Hom(V,W). Condizione necessaria e sufficiente affinche f siainiettiva e che ker f = {0}.

    -Dimostrazione. La condizione e necessaria. Supponiamo che f sia iniettiva. Ognivettore di W ammette al piu ununica controimmagine. Se v ker f , allora f(v) = 0.Ma anche f(0) = 0, cioe f(v) = f(0). Per lunicita della controimmagine, v = 0 eker f = {0}.

    La condizione e sufficiente. Supponiamo ker f = {0}. Siano v,v V tali che f(v) =f(v) = w. Abbiamo:

    0 = w w = f(v) f(v) = f(v v).Cio significa che v v ker f . Ma ker f = {0}, quindi v v = 0, cioe v = v. Questosignifica che, se esiste una controimmagine di un vettore di W, questa e unica, ovvero chef e iniettiva.

    Osservazioni ed esempi.

    1. Possiamo visualizzare qualitativamente lazione di una applicazione lineare f : V W con il seguente grafico

    2Utiliziamo il simbolo per indicare linclusione insiemistica, mentre la scrittura X V indica che Xe un sottospazio vettoriale di V.

  • 1.1 DEFINIZIONI E PRIME PROPRIETA 9

    f

    V W ker f

    Im f 0V

    0W

    Figura 1.1: rappresentazione qualitativa dellazione di una applicazione lineare f : V W.

    2. Applicazioni lineari singolari. Unapplicazione lineare f : V W si dice sin-golare se il suo nucleo non e il sottospazio banale di V, cioe se ker f 6= {0}. Inquesto caso esiste almeno un vettore v 6= 0 in V tale che f(v) = 0. Sappiamo cheker f = 0 e una condizione necessaria e sufficiente affinche f sia iniettiva. Quindiunapplicazione singolare non puo essere un isomorfismo, non essendo iniettiva.

    1.1.2 Composizione di applicazioni lineari

    Consideriamo due applicazioni lineari f e g. Se f Hom(U,V) e g Hom(V,W),cioe se il codominio di f coincide con il dominio di g, possiamo allora considerare lacomposizione g f Hom(U,W) delle due applicazioni lineari.

    Teorema 1.4. La composizione di applicazioni lineari e ancora una applicazione lineare.

    -Dimostrazione. Se f Hom(U,V) e g Hom(V,W), per ogni a, b, x, y K eper ogni u,u U e v,v V si ha:

    f(au + bu) = af(u) + bf(u), (1.1.1)

    g(xv + yv) = xg(v) + yg(v). (1.1.2)

    Allora, per ogni h, k K e per ogni u,u U otteniamo:

    (g f)(hu + ku) = g (f(hu + ku)) (1)= g

    (hf(u) + kf(u)

    ) (2)=

    = hg(f(u)) + kg(f(u)) = h (g f)(u) + k (g f)(u),

    dove le uguaglianze (1) e (2) sono vere, rispettivamente, per la (1.1.1) e la (1.1.2). Quindi,dalla definizione di linearita, la composizione g f e lineare, cioe g f Hom(U,W).

    Teorema 1.5. Siano f Hom(U,V) e g Hom(V,W). Se f e g sono iniettive, allorag f e iniettiva

    -Dimostrazione. Supponiamo che esistano u,u U tali che gf(u) = gf(u), cioeg(f(w)) = g(f(w)). Ma g e iniettiva, quindi le controimmagini sono uniche. Cio significache f(u) = f(u). Poiche anche f e iniettiva, risulta u = u. Pertanto g f e iniettiva.

  • 10 APPLICAZIONI LINEARI

    Teorema 1.6. Siano f Hom(U,V) e g Hom(V,W). Se f e g sono suriettive,allora g f e suriettiva

    -Dimostrazione. Sia w W. Siccome g e suriettiva, esiste (almeno) un vettorev V tale che g(v) = w. Ma anche f e suriettiva, quindi esiste un u U tale chef(u) = v. Di conseguenza e vera la seguente uguaglianza:

    g f(u) = g(f(u)) = g(v) = w.

    Ogni vettore di W ammette almeno una controimmagine, tramite lapplicazione g f ,nello spazio U, per cui g f e suriettiva.

    Teorema 1.7. Siano f Hom(U,V) e g Hom(V,W). Se g f e iniettiva allora f einiettiva.

    -Dimostrazione. Supponiamo che f non sia iniettiva. Esistono allora due vettoridistinti u,u U, tali che f(u) = f(u). Di conseguenza:

    (g f)(u) = g(f(u)) = g(f(u)) = (g f)(u).

    Ma cio e impossibile per liniettivita di g f . Pertanto deve essere u = u ed f deve essereiniettiva.

    Teorema 1.8. Siano f Hom(U,V) e g Hom(V,W). Se g f e suriettiva allora ge suriettiva.

    -Dimostrazione. Una funzione e suriettiva se ogni elemento del codominio ammettealmeno una controimmagine. Se g f e suriettiva, per ogni w W esiste almeno unu U tale che (g f)(u) = g(f(u)) = w. Se poniamo f(u) = v V, abbiamo g(v) =g(f(u)) = w, ovvero ogni vettore di W ha almeno una controimmagine, tramite g, in V.Quindi g e suriettiva.

    Osservazioni ed esempi.

    1. La composizione di applicazioni lineari e generalizzabile ad un numero finito qualsiasidi applicazioni, con le dovute considerazioni sui domini e codomini. Queste non sonoovviamente necessarie nel momento in cui si parla di endomorfismi, per i quali dominie codomini coincidono.

    2. Siano f Hom(U,V) e g Hom(V,W). Se g f e iniettiva il Teorema 1.7garantisce che f e iniettiva, ma non fornisce alcuna informazione sulla iniettivita dig. Analogamente, se g f e suriettiva, il Teorema 1.8 garantisce che g e suriettiva,ma non fornisce alcuna informazione sulla suriettivita di f .

  • 1.1 DEFINIZIONI E PRIME PROPRIETA 11

    1.1.3 Teorema fondamentale delle applicazioni lineari

    Un importante risultato nellanalisi di unapplicazione lineare e descritto nel teoremaseguente, noto come Teorema fondamentale delle applicazioni lineari .

    Teorema 1.9. Se V e W sono spazi vettoriali sullo stesso campo K, e B = {v1, . . . ,vn} euna base di V, fissati n vettori di W, ad esempio w1, . . . ,wn, esiste ununica applicazionelineare f Hom(V,W) tale che

    f(vi) = wi, i = 1, . . . , n. (1.1.3)

    -Dimostrazione. Consideriamo un generico vettore v di V. Esso si scrive in modounico come combinazione lineare dei vettori di B, cioe esistono a1, ..., an K tali chev = a1v1 + + anvn. Consideriamo allora la funzione f : V W definita come segue

    f(v) = f(a1v1 + + anvn) = a1f(v1) + + anf(vn) == a1w1 + + anwn W.

    (1.1.4)

    Essa, ovviamente, verifica le condizioni (1.1.3). Inoltre, tale funzione e una applicazione

    lineare. Infatti, se v1,v2 V, con v1 =n

    i=1

    aivi, v2 =n

    i=1

    bivi, e h, k K, allora:

    f(hv1 + kv2) = f

    (h

    (n

    i=1

    aivi

    )+ k

    (n

    i=1

    bivi)

    ))=

    = f(

    ni=1

    haivi +n

    i=1kbivi

    )= f

    (n

    i=1(hai + kbi)vi

    )=

    =n

    i=1(hai + kbi)f(vi) =

    ni=1

    (hai + kbi)wi =n

    i=1haiwi +

    ni=1

    kbiwi =

    =n

    i=1haif(vi) +

    ni=1

    kbif(vi) = h(

    ni=1

    aif(vi))

    + k(

    ni=1

    bif(vi))

    =

    = hf(

    ni=1

    aivi

    )+ kf

    (n

    i=1bivi

    )= hf(v1) + kf(v2).

    Pertanto e possibile costruire una applicazione lineare f : V W a partire dallimmaginedi una base fissata di V. Tale applicazione e unica. Supponiamo infatti che esista unaseconda applicazione lineare g : V W che verifica le condizioni (1.1.3), cioe tale cheg(vi) = wi, i = 1, . . . , n. Allora, preso un vettore v = a1v1 + + anvn, per la linearitadi g si ha

    g(v) = g(a1v1 + + anvn) = a1g(v1) + ... + ang(vn) == a1f(v1) + ... + anf(vn) = f(a1v1 + + anvn) = f(v),

  • 12 APPLICAZIONI LINEARI

    e quindi f = g.

    Osservazioni ed esempi.

    1. Si noti che nel Teorema 1.9 non si impone alcuna condizione sui vettori wi. Essipotrebbero essere sia dipendenti che indipendenti, ed in questo caso non e comunquedetto che linsieme {w1, . . . ,wn} sia una base. In effetti non ci sono nemmenocondizioni sulla dimensione dello spazio codominio W. I due spazi V e W potrebberoessere molto diversi tra loro, cos come, invece, potrebbero addirittura coincidere.

    2. Il significato del Teorema 1.9 consiste nel fatto che, per definire una particolareapplicazione lineare f : V W, basta fissare le immagini dei vettori di una basequalsiasi. Ovviamente, una volta fatto cio, f va poi estesa per linearita a tutto ildominio V. Estendere linearmente f a tutto lo spazio V significa ricostruire lazionedi f su un qualsiasi vettore di V tramite le (1.1.3). Questo avviene mediante laformula (1.1.4).

    1.1.4 Spazi isomorfi

    Nello studio degli spazi vettoriali sono stati introdotti i fondamentali concetti di base edimensione. In particolare, fissata una base B di uno spazio vettoriale V, e possibile asso-ciare ad ogni vettore v V, in maniera unica, una n-pla di coefficienti del campo K su cuie costruito V. Con le applicazioni lineari vediamo che e possibile mettere in comunicazionespazi di natura anche molto diversa tra loro. Ci chiediamo allora se la proprieta di averela stessa dimensione puo in qualche maniera essere letta da una applicazione lineare. Larisposta a questa domanda e fornita dal seguente importante teorema.

    Teorema 1.10. Due spazi vettoriali V e W, di dimensione finita, sono isomorfi se e solose hanno la stessa dimensione.

    -Dimostrazione. La condizione e necessaria. Poniamo infatti dimV = m e dimW =n, e supponiamo che esista un isomorfismo f : V W. Allora f e iniettivo, quindi ladimensione dellimmagine coincide con quella del dominio, cioe dim(Imf) = dim f(W) =m. Ma Imf W, quindi

    m n. (1.1.5)Lo stesso discorso si puo fare per f1, che e ancora un isomorfismo, ottenendo

    m n. (1.1.6)

    Da (1.1.5) e (1.1.6) segue che V e W hanno la stessa dimensione.Il viceversa e leggermente piu complesso. Se dimV = dimW = n, i due spa-

    zi hanno basi aventi lo stesso numero di vettori. Sia B = {v1, . . . ,vn} una base diV e C = {w1, . . . ,wn} una base di W. Possiamo costruire unapplicazione lineare

  • 1.1 DEFINIZIONI E PRIME PROPRIETA 13

    f : V W sfruttando il Teorema 1.9. Definiamo innanzitutto f sulla base B ponen-do f(vi) = wi, i = 1, . . . , n. Estendiamo poi lazione di f a tutto lo spazio V. Se

    v =n

    i=1

    aivi, abbiamo allora

    f(v) = f

    (n

    i=1

    aivi

    )=

    n

    i=1

    aif(vi) =n

    i=1

    aiwi.

    Verifichiamo ora che lapplicazione f e un isomorfismo. Per vedere se e iniettiva studiamola struttura di ker f . Se v ker f , allora f(v) = 0. Siccome B e una base, esistonoa1, ..., an K tali che v =

    n

    i=1

    aivi, e quindi

    f(v) = f

    (n

    i=1

    aivi

    )=

    n

    i=1

    aif(vi) =n

    i=1

    aiwi = 0.

    La precedente uguaglianza e vera se e solo se ai = 0 per ogni i = 1, . . . , n, perche i vettoriwi sono indipendenti. Ma cio significa che v = 0, quindi che ker f = {0}. Di conseguenzalapplicazione lineare f e iniettiva. Controlliamo ora la suriettivita. Se w W, conw =

    n

    i=1

    biwi, il vettoren

    i=1

    bivi di V e una sua controimmagine. Infatti:

    f(v) = f

    (n

    i=1

    bivi

    )=

    n

    i=1

    bif(vi) =n

    i=1

    biwi = w.

    Concludendo, f e unapplicazione lineare iniettiva e suriettiva, quindi un isomorfismo.

    Limportanza del Teorema 1.10 e data dal fatto che, a meno di isomorfismi, quandolavoriamo su uno spazio vettoriale qualsiasi, di dimensione n assegnata, possiamo sempreriferirci ad uno di essi.

    Isomorfismo canonico

    Il Teorema 1.10 mette in evidenza che tra due spazi vettoriali aventi la stessa dimensioneesiste sempre un isomorfismo. Naturalmente e possibile che ne esista piu di uno. Tra ivari isomorfismi che possiamo trovare ne abbiamo uno, detto isomorfismo canonico cheriveste particolare importanza. Nel teorema seguente descriviamo esplicitamente questoisomorfismo.

    Teorema 1.11. Sia BV = {v1, . . . ,vn} una base di uno spazio vettoriale V sul campo K.Sia cV : V Kn la corrispondenza definita da

    v =n

    i=1

    aivi 7

    a1...

    an

    .

    Allora cV e un isomorfismo.

  • 14 APPLICAZIONI LINEARI

    -Dimostrazione. Siano x,y V due generici vettori, le cui componenti, rispetto allabase B fissata, siano date da

    x 7

    x1...

    xn

    e y 7

    y1...

    yn

    .

    Per ogni scelta degli scalari a, b K, abbiamo

    ax+ by = a(x1v1 + ...+xnvn)+ b(y1v1 + ...+ ynvn) = (ax1 + by1)v1 + ...+(axn + byn)vn.

    Applicando cV risulta quindi

    cV(ax + by) =

    ax1 + by1...

    axn + byn

    = a

    x1...

    xn

    + b

    y1...

    yn

    = acV(x) + bcV(y),

    per cui cV e una applicazione lineare. Se cV(v) e la n-pla identicamente nulla, allorav = 0v1 + ... + 0vn = 0V, per cui ker cV = 0V e quindi cV e iniettiva.Consideriamo ora una qualsiasi n-pla in Kn

    a =

    a1...

    an

    .

    Il vettore v = a1v1 + ...+anvn appartiene ovviamente a V, e risulta cV(v) = a. Pertantolapplicazione lineare considerata e anche suriettiva, e quindi e un isomorfismo.

    Osservazioni ed esempi.

    1. Il Teorema 1.10 ci dice che, a meno di isomorfismi, esiste un solo spazio vettorialedi una data dimesione n, su un dato campo K. Il Teorema 1.11 ci dice che questospazio e identificabile canonicamente con lo spazio Kn formato da tutte le n-ple dielementi di K.

    2. Possiamo costruire spazi vettoriali aventi la stessa dimensione, ma non isomorfi,solo assumendo campi base distinti. Infatti, in questo caso, non e neppure possibiledefinire tra essi alcuna applicazione lineare (cfr. Osservazione 2 a pagina 6).

    3. Direttamente dalla definizione, si deduce che limmagine di un vettore vi BV,tramite cV, coincide con la n-pla avente tutte le componenti uguali a 0, salvo lacomponente i-ma uguale a 1. Di conseguenza, cV trasforma la base B nella basecanonica di Kn.

    4. In riferimento alla precedente osservazione precisiamo che i valori 0, 1 sono da inten-dersi come gli elementi neutri delle due operazioni, + e , che rendono linsieme Kun campo. In particolare, 0 e lelemento neutro del gruppo abeliano (K, +), mentre1 e lelemento neutro del gruppo abeliano (K \ {0}, ).

  • 1.2 MATRICI ASSOCIATE 15

    1.2 MATRICI ASSOCIATE

    NellOsservazione 8 a pagina 7 abbiamo visto che e possibile definire una applicazionelineare a partire da una matrice. Vogliamo ora invertire questa considerazione, mettendoin evidenza come sia possibile associare matrici di tipo (m,n) ad una data applicazionelineare definita tra due spazi vettoriali V e W (su uno stesso campo K), di dimensionin ed m rispettivamente. Lidea ha origine dal Teorema 1.9, che garantisce la costruzionedi una applicazione lineare f : V W, nel momento in cui ne risulti definita lazionesu una base B = {v1, . . . ,vn} di V. Poiche i vettori f(v1), . . . , f(vn) appartengono aW, e possibile associare ad ognuno di essi una m-pla di coordinate rispetto ad una baseB = {w1, . . . ,wm} definita in W. Queste coordinate possono essere ordinate in vettoricolonne di Km:

    f(v1) =

    x11...

    xm1

    , . . . , f(vn) =

    x1n...

    xmn

    .

    Le n distinte m-ple cos ottenute possono essere pensate come le colonne di una matriceABB (f) di tipo (m,n). Essa e la matrice che si associa in modo univoco (fissate le basi Be B in V e W) allapplicazione f . Riassumiamo questo fatto nella seguente definizione.

    Definizione 1.12. Le matrici rappresentative di una data applicazione lineare f : V Whanno come colonne i coefficienti che consentono di esprimere le immagini dei vettori diuna base di V come combinazione lineare dei vettori di una base di W.

    Ogni tale matrice fornisce un modo per calcolare lazione dellapplicazione f su tutti ivettori del dominio V. Se x V, detta X la colonna delle componenti di x rispetto allabase B, le componenti del vettore f(x), rispetto alla base B, sono fornite dal prodottoABB (f)X. Nel caso in cui f sia un endomorfismo di V, e B = B, possiamo indicarela matrice ABB (f) semplicemente con AB(f). Facciamo comunque notare che, quando siconsidera un endomorfismo, non e detto che si debba necessariamente assumere la stessabase nel dominio e nel codominio.

    Osservazioni ed esempi.

    1. Consideriamo lapplicazione lineare di End(R3) definita da:

    f

    xyz

    =

    a1x + a2y + a3zb1x + b2y + b3zc1x + c2y + c3z

    ,

    e fissiamo come base di riferimento la base canonica C, sia nel dominio che nelcodominio. Indichiamo semplicemente con A la matrice ACC(f) M3(R) (quandonon si vuole enfatizzare la dipendenza dalle basi e speso utilizzata questa notazionesemplificata). Lendomorfismo f End(R3) manda vettori di R3 in vettori di R3secondo la regola:

    X =

    xyz

    7

    a1x + a2y + a3zb1x + b2y + b3zc1x + c2y + c3z

    = Y,

  • 16 APPLICAZIONI LINEARI

    e la sua azione si manifesta su un vettore v R3 mediante il prodotto a sinistradella matrice A, cioe

    AX = Y.

    Quindi, le colonne di A corrispondono ai coefficienti di x, y, z, rispettivamente, cioe

    A =

    a1 a2 a3b1 b2 b3c1 c2 c3

    .

    2. Consideriamo lapplicazione lineare

    d : R3[t] R3[t],

    dove R3[t] e lo spazio vettoriale dei polinomi a coefficienti reali di grado 3 e d eloperatore di derivazione3. Se p(t) = a0t3 + a1t2 + a2t + a3, abbiamo cioe

    d(p(t)) = 3a0t2 + 2a1t + a2.

    Assumiamo B = {1, t, t2, t3} come base, sia nel dominio che nel codominio. Vogliamoallora determinare la matrice AB(d) associata alla derivazione. Occorre individua-re limmagine, tramite d, dei vettori della base B, e scrivere tali immagini comecombinazione lineare dei vettori della stessa base. Abbiamo allora

    d(1) = 0 = 0 1 + 0t + 0t2 + 0t3

    d(t) = 1 = 1 1 + 0t + 0t2 + 0t3

    d(t2) = 2t = 0 1 + 2t + 0t2 + 0t3

    d(t3) = 3t2 = 0 1 + 0t + 3t2 + 0t3

    (1.2.1)

    Allora la matrice associata a d e la trasposta della matrice dei coefficienti del sistema(1.2.1), ossia:

    AB(d) =

    0 1 0 00 0 2 00 0 0 30 0 0 0

    .

    1.2.1 Il Teorema dimensionale

    La matrice associata ad unapplicazione lineare fornisce importanti informazioni sulle pro-prieta dellapplicazione stessa. Queste sono riassunte nel seguente risultato, noto co-me Teorema dimensionale. Esso esprime una relazione tra le dimensioni del nucleo edellimmagine di ogni applicazione lineare.

    3Lo spazio vettoriale dei polinomi a coefficienti reali di grado n viene anche indicato con Poln(R)[x],o, piu semplicemente, con Poln(x)

  • 1.2 MATRICI ASSOCIATE 17

    Teorema 1.13. Sia f Hom(V,W) e sia dimV = n. Vale allora la seguente ugua-glianza:

    n = dim(ker f) + dim(Imf). (1.2.2)

    -Dimostrazione. Fissiamo in V e W le basi B e B rispettivamente. Preso un genericovettore x V, sia X la colonna delle componenti di x rispetto alla base B, cioe

    X =

    x1...

    xn

    .

    Posto ABB (f) = A, rappresentiamo A come accostamento di n vettori colonna, ossia

    A = [C1| . . . |Cn],

    con Ci KdimW, per ogni i {1, . . . , n}. Sia [f(x)] lelemento diKdimW le cui componentisono i coefficienti che esprimono f(x) come combinazione lineare dei vettori della base B.Allora [f(x)] si ottiene moltiplicando X a sinistra per la matrice A, ossia

    [f(x)] = AX = [C1| . . . |Cn]

    x1...

    xn

    = x1C1 + + xnCn.

    (1.2.3)

    La precedente e una combinazione lineare delle colonne della matrice A, aventi comecoefficienti gli scalari xi K. Ma, al variare di x V, la (1.2.3) rappresenta puretutti i possibili vettori di Imf . Quindi le colonne di A sono un insieme generatore diImf . Sappiamo poi che il rango r di A e il massimo numero di colonne (e di righe)di A linearmente indipendenti4. Quindi r rappresenta pure la dimensione dello spazioimmagine, cioe dim(Imf) = r. Inoltre, il nucleo di f e linsieme delle soluzioni del sistemaomogeneo Ax = 0. Quindi, per il Teorema di Rouche-Capelli, dim(ker f) = n r =n dim Imf , da cui si ricava la tesi.

    Lequazione (1.2.2) e detta Equazione Dimensionale. Sfruttando lequazione dimensio-nale ricaviamo che tra spazi aventi la stessa dimensione i concetti di iniettivita e suriettivitacoincidono.

    Teorema 1.14. Siano V e W due spazi vettoriali tali che dimV = dimW. Allora unaapplicazione lineare f : V W e iniettiva se e solo se e suriettiva.

    -Dimostrazione. Supponiamo f iniettiva. Allora ker f = 0, per cui dim(ker f) = 0,e dalla (1.2.2) ricaviamo dim(Imf) = dimV. Ma dimV = dimW, per cui f e suriettiva.

    Supponiamo ora che f sia suriettiva. Allora dim(Imf) = dimW, ed essendo dimW =dimV risulta dim(Imf) = dimV. Dalla (1.2.2) ricaviamo quindi dim(ker f) = 0, e dalTeorema 1.3 abbiamo che f e iniettiva.

    4Il rango, o caratteristica, di una matrice A viene spesso indicato con il simbolo rkA.

  • 18 APPLICAZIONI LINEARI

    Osservazioni ed esempi.

    1. Si noti che nel Teorema 1.13 non viene fatta alcuna ipotesi sulla dimensione dellospazio W, cos come sulle basi di dominio e codominio.

    2. Consideriamo il seguente endomorfismo di R3:

    f : R3 R3(x, y, z) 7 (x, y, 0).

    Esso viene anche chiamato proiezione canonica (sul piano xy). Limmagine di fe Imf = {(x, y, 0)| x, y R}, cioe il piano xy, che ha dimensione 2. Il nucleo eformato da tutti i vettori dellasse z, cioe ker f = {(0, 0, z)| z R}, e ha dimensione1. Lequazione dimensionale e soddisfatta, essendo 3 = dim(ker f) + dim(Imf).

    3. Studiamo lequazione dimensionale in riferimento alla seguente applicazione linearef : R2 R3:

    f(x, y) = (2x y, x + y, y).Fissiamo come basi di R2 ed R3 le rispettive basi canoniche, ed indichiamo sempli-cemente con Af la matrice associata ad f rispetto a queste basi. Essa appartiene aM3,2(R), ed e tale che

    Af [

    xy

    ]=

    2x yx + y

    y

    ,

    ovvero

    Af =

    2 11 10 1

    .

    E facile verificare che rkAf = 2. Questo significa che dim Imf = 2. Non solo.Le colonne di Af sono un sistema di generatori di Imf , ed essendo in questo casoindipendenti, ne sono anche una base. Applichiamo lequazione dimensionale:

    n = dimker f + dim Imf.

    Sappiamo che n = 2 e dim Imf = rkAf = 2. Allora dimker f = 0. Quindi, inparticolare, f e unapplicazione iniettiva.

    4. Consideriamo lapplicazione f : R3 R3 associata alla matrice

    Af =

    2 1 02 1 04 2 3

    .

    Il rango di Af e la dimensione di Imf . La matrice Af e singolare, ma il minoredel secondo ordine individuato dalle ultime due righe e colonne e 6= 0. QuindirkAf = 2. Le colonne di Af sono un sistema di generatori per Imf , ma quelle checontribuiscono a formare il minore ne costituiscono pure una base, in quanto formanoun sottoinsieme indipendente massimale di un insieme generatore.

  • 1.2 MATRICI ASSOCIATE 19

    DallEquazione dimensionale ricaviamo poi che il nucleo ha dimensione 1. Per de-terminare esplicitamente ker f , bisogna risolvere il sistema omogeneo AfX = 0,cioe

    2 1 02 1 04 2 3

    xyz

    =

    000

    .

    Svolgendo i calcoli ricaviamo y = 2x, z = 0. Pertanto risulta

    ker f = {[x, 2x, 0]t R3, x R},

    ed una sua base e rappresentata, per esempio, dal singolo vettore

    v =

    120

    .

    5. Consideriamo un endomorfismo singolare f End(V) (cfr. Osservazione 2 a pag.9). Poiche f e singolare, esiste un vettore x V, con x 6= 0, tale che f(x) = 0. SiaAB Mn(K) la matrice associata ad f , rispetto alla base B. Indichiamo con X lacolonna delle componenti del vettore x rispetto alla stessa base B, abbiamo

    ABX = 0.

    Ma la precedente rappresenta un sistema lineare omogeneo quadrato dordine n, cheammette lautosoluzione x. Quindi il rango della matrice dei coefficienti e minoredellordine della matrice, cioe detA = 0. Di conseguenza la matrice A e singolare, ilche giustifica il nome di queste applicazioni lineari.

    1.2.2 Matrici associate alla composizione di applicazioni lineari

    Quando si considera la composizione di due o piu applicazioni lineari si ha il problemadi determinare la matrice rappresentativa della risultante a partire dalle matrici associatealle singole componenti. In questo paragrafo vogliamo occuparci di questo argomento,dimostrando innanzitutto un risultato che giustifica la definizione di prodotto righe percolonne tra due matrici conformabili.

    Teorema 1.15. Si considerino due applicazioni lineari f : U V e g : V W, e sianoB,B,B basi fissate arbitrariamente in U,V,W rispettivamente. Allora risulta

    ABB (g f) = AB

    B (g)A

    BB (f). (1.2.4)

    -Dimostrazione. Consideriamo un generico vettore x U. Indichiamo con X lacolonna delle componenti di x rispetto alla base B, e con X la colonna delle componentidi f(x) rispetto alla base B. Possiamo allora scrivere

    g f(x) = g(f(x)) = ABB X = ABB A

    BB X.

  • 20 APPLICAZIONI LINEARI

    Ma, utilizzando la matrice ABB associata a g f rispetto alle basi B e B abbiamo anche

    g f(x) = ABB X,e, confrontando le due scritture ottenute, si ricava la (1.2.4).

    Teorema 1.16. Sia f : V V un endomorfismo, e sia B una base di V. Allora f e unisomorfismo se e solo se detAB(f) 6= 0.

    -Dimostrazione. Dal Teorema 1.14 sappiamo che f e un isomorfismo se e solo se f esuriettiva, cioe se e solo se Imf = V. Questo avviene se e solo se le colonne di AB(f) sonotutte indipendenti, cioe se e solo se det AB(f) 6= 0.

    Sfruttando i precedenti teoremi possiamo dimostrare il seguente risultato.

    Teorema 1.17. Sia f : V V un isomorfismo, e sia B una base di V. Allora si ha

    AB(f1) = AB(f)1. (1.2.5)

    -Dimostrazione. Sappiamo che la matrice AB(f) e unica, e, per il Teorema 1.16 essae invertibile. Inoltre, essendo f f1 = id, e AB(id) = In, per il Teorema 1.15, abbiamo

    In = AB(id) = AB(f f1) = AB(f)AB(f1),da cui si ricava la (1.2.5).

    Osservazioni ed esempi.

    1. Consideriamo due spazi vettoriali V e W, con basi fissate B e B rispettivamente.Siano poi f : V W una applicazione lineare, x un vettore di V, ed X la colonnadelle componenti di x rispetto a B. Spesso, per snellire la trattazione, anziche direche le componenti del vettore f(x), rispetto alla base B, sono fornite dal prodottoABB (f)X, si scrive semplicemente

    f(x) = ABB (f)x. (1.2.6)

    2. Dal Teorema 1.15 si ricava immediatamente che, se consideriamo due endomorfismif, g End(V), cui sono associate, rispetto alla base B di V, le matrici AB(f) eAB(g) rispettivamente, allora AB(g f) = AB(g) AB(f).

    1.2.3 Rappresentazione canonica indotta

    Sfruttando il Teorema 1.11 possiamo sviluppare lo studio delle applicazioni lineari lavo-rando semplicemente su quelle definite tra spazi canonici. Vediamo esplicitamente comeavviene questo trasferimento.

    Siano V e W due spazi vettoriali, di dimensioni n ed m rispettivamente, definiti sullostesso campo K. Mediante gli isomorfismi canonici cV e cW possiamo rappresentare V e

  • 1.2 MATRICI ASSOCIATE 21

    W in Kn e Km rispettivamente. Sia poi f : V W una generica applicazione lineare.Lazione di f e allora equivalente a quella dellapplicazione lineare F : Kn Km ottenutadalla composizione tra c1V , f e cW , come illustrato nei diagrammi seguenti:

    Vf W

    cV cWKn F Km

    V

    f Wc1V cWKn F99K Km

    In particolare, procedendo in questa maniera, veniamo a rappresentare la base B di V comebase canonica C dello spazio Kn, e la base B di W come base canonica C di Km (cfr.Osservazione 3 a pagina 14). Di conseguenza, dalla Definizione 1.12, si deduce che ACB(cV)e la matrice identica In di ordine n, mentre AC

    B(cW) e la matrice identica Im di ordine

    m. Quindi, la matrice ABB (f) viene a coincidere con la matrice ACC (F ), come illustrato

    nel diagramma seguente, che traduce quelli precedenti in termini di matrici associate:

    VAB

    B (f) W

    In ImKn

    ACC (F ) Km

    Osservazioni ed esempi.

    1. La rappresentazione canonica indotta mette anche in evidenza che le proprieta diuna applicazione lineare sono indipendenti dalle basi che si fissano nel dominio e nelcodominio. Infatti, pur di rimpiazzare f con F , si puo sempre pensare di lavorarecon le basi canoniche.

    2. Riprendiamo lEsempio 2 riportato a pagina 16. La matrice AB(d) che si e determi-nata coincide con quella che rappresenta, rispetto alla base canonica, lapplicazioneD indotta dalla derivazione d sullo spazio canonico R4 isomorfo ad R3[t]. Possiamoquindi studiare lazione della derivazione d lavorando direttamente sullo spazio ca-nonico. Ad esempio, consideriamo il polinomio q(t) = 2t3 5t + 1, appartenente adR3[t], le cui componenti rispetto alla base ordinata B = {1, t, t2, t3} sono:

    1502

    .

    Allora lazione di d su q(t) equivale allazione di D sulla quaterna delle sue coordinate,descritta dal prodotto:

    AC(D)

    1502

    =

    0 1 0 00 0 2 00 0 0 30 0 0 0

    1502

    =

    5060

    .

  • 22 APPLICAZIONI LINEARI

    Il risultato rappresenta, in R4, il vettore delle componenti dellimmagine di q(t).Questo significa che la derivata di q(t) e il polinomio che ha come coefficienti, rispettoalla base B, le componenti del vettore ottenuto. Quindi risulta

    d(q(t)) = 5 1 + 0t + 6t2 + 0t3 = 5 + 6t2,

    il che conferma la nota regola di derivazione.

    1.2.4 Cambi di base

    Vogliamo ora esaminare una particolare classe di endomorfismi, detti cambi di base. Essisi ottengono quando si considera lapplicazione lineare identica id End(V) di uno spaziovettoriale V, assumendo pero due basi diverse, B e B, sul dominio e sul codominio. Lamatrice ABB (id) e detta matrice del cambio di base, e permette di trasformare la n-pla dellecomponenti di un generico vettore v V, rispetto alla base B, nella n-pla delle componentidello stesso vettore id(v) = v, calcolate pero rispetto alla base B. E importante notareche le colonne di ABB (id) sono le componenti dei vettori della base di partenza B calcolaterispetto alla base di arrivo B. Il seguente teorema illustra come costruire esplicitamentequesta matrice.

    Teorema 1.18. Sia V uno spazio vettoriale di dimensione n sul campo K, e siano B eB due basi di V. Allora la matrice di cambio base e data da

    ABB (id) = [B]1[B], (1.2.7)

    essendo [B] e [B] le matrici aventi come colonne, rispettivamente, le n-ple formate dallecomponenti dei vettori delle basi B e B rispetto ad una opportuna base C fissata in V.

    -Dimostrazione. Dalla Definizione 1.12 abbiamo immediatamente ACB(id) = [B] edACB(id) = [B]. Pertanto, lazione del cambio base puo essere descritta con il seguentediagramma

    VAB

    B (id) V

    [B] [B]V

    ACC(id) VPer i teoremi 1.15 e 1.17 abbiamo ABB (id) = [B]1ACC(id)[B]. La matrice ACC(id) ha comecolonne i coefficienti che esprimono le immagini dei vettori di C (tramite lidentita) comecombinazioni lineari degli stessi vettori. Pertanto ACC(id) e la matrice identica, e quindi siricava la (1.2.7).

    Osservazioni ed esempi.

    1. Spesso, negli esercizi, i vettori di una data base B vengono assegnati fornendo esplici-tamente le loro componenti. Questo significa che, nello spazio vettoriale in cui si stalavorando, e stata precedentemente fissata una base C, e le componenti dei vettori diB sono i coefficienti che consentono di esprimere ognuno di essi come combinazione

  • 1.2 MATRICI ASSOCIATE 23

    lineare dei vettori di C. Nel caso in cui si stia lavorando in uno spazio canonico(situazione a cui ci si puo sempre ricondurre grazie al Teorema 1.11) e vengano asse-gnate le componenti dei vettori di una base B senza fare riferimento ad alcuna altrabase, si sottointende che la base di riferimento C e la base canonica.

    2. Supponiamo di assegnare, nello spazio R2, le due basi date da

    B1 ={[

    21

    ],

    [10

    ]}, B2 =

    {[11

    ],

    [21

    ]}.

    In questa maniera abbiamo tacitamente fornito le componenti dei vettori di B1 e B2rispetto alla base canonica (cfr. Osservazione 1), che in R2 e data da

    C ={[

    10

    ],

    [01

    ]}.

    3. Consideriamo ancora le due basi dellEsempio precedente, e scriviamo la matrice dicambio base da B1 a B2. La matrice

    [B1] =[

    2 11 0

    ]

    e quella del cambio di base da B1 a C. Analogamente,

    B2 =[

    1 21 1

    ]

    e la matrice del cambio di base da B2 a C. Abbiamo poi

    [B2]1 =[ 1 2

    1 1]

    Dal Teorema 1.18 ricaviamo pertanto che la matrice cercata e:

    [B2]1[B1] =[ 1 2

    1 1] [

    2 11 0

    ]=

    [0 11 1

    ].

    4. Consideriamo una applicazione lineare f : Kn Km, e supponiamo che venganoesplicitamente assegnate le basi B e B negli spazi canonici Kn e Km rispettivamente.Volendo costruire la matrice ABB (f) applicando direttamente la Definizione 1.12dovremmo calcolare, per ogni vettore di B, la sua immagine tramite f e poi trovare icoefficienti che esprimono tale immagine come combinazione lineare dei vettori di B.Possiamo tuttavia procedere in maniera diversa, componendo lapplicazione linearecon i cambi base da B e B alle basi canoniche C e C di Kn e Km rispettivamente.Si ottiene in questa maniera il seguente diagramma

    KnAB

    B (f) Km

    [B] [B]Kn

    ACC (f) Km

  • 24 APPLICAZIONI LINEARI

    Pertanto, sfruttando anche i teoremi 1.4 e 1.17, ricaviamo che la matrice associataallapplicazione lineare f : Kn Km, rispetto alle basi B e B, e data da

    ABB (f) = [B]1AC

    C (f)[B]. (1.2.8)

    5. Si faccia attenzione a non confondere il diagramma riportato nella precedente os-servazione con quello descritto nel Paragrafo 1.2.3, nel quale le frecce verticali cor-rispondono a matrici identiche. Queste rappresentano infatti le matrici associateagli isomorfismi canonici, mentre invece, nel diagramma precedente, le frecce ver-ticali corrispondono alle matrici di cambio base associate alle applicazioni lineariidentiche degli spazi canonici considerati.

    6. Poiche le basi B e B possono variare arbitrariamente in Kn e Km, la formula (1.2.8)fornisce un legame tra le varie matrici ABB (f) e la matrice A

    CC (f). Se invece e nota in

    partenza lazione di una applicazione lineare f : Kn Km su determinate basi B eB, e si vuole risalire alla sua azione sulle basi canoniche, basta invertire lequazione(1.2.8), e si ottiene

    ACC (f) = [B]AB

    B (f)[B]1. (1.2.9)

    1.3 ESERCIZI

    1.3.1. Studiare la linearita dellapplicazione:

    f : R3 R[x, y, z]t 7 x y + 2z.

    1.3.2. Verificare se lapplicazione:

    f : R2 : R2[x, y]t 7 [x y, x + y]t

    e lineare.

    1.3.3. Siano f : R2 R e g : R R2 le applicazioni lineari cos definite:

    f([x, y]t) = x + y + 1;

    g(x) = [x,2x]t.Stabilire se g f e lineare.1.3.4. Sia f : Mn(R) Mn(R) lapplicazione definita da:

    f(A) = 2A,

    per ogni A Mn(R). Stabilire se f e lineare.

  • 1.3 ESERCIZI 25

    1.3.5. Stabilire se e lineare lapplicazione f : Mn(R) Mn(R) definita da f(A) =A + 2In, con A Mn(R).1.3.6. Si consideri lendomorfismo di R3

    f([x, y, z]t) = [2x + 2y, x ty, x y z]t,

    t R. Stabilire per quali valori del parametro t lapplicazione f e un automorfismo.1.3.7. Si consideri lapplicazione lineare f : R2 R3 cos definita:

    f([x, y]t) = [2x y, x + y, y]t.

    Stabilire se f e iniettiva e suriettiva.

    1.3.8. Stabilire per quali valori del parametro reale t lapplicazione lineare f : R2 R2,definita da:

    f([x, y]t) = [x + ty, (t 1)x + 2y]t

    e iniettiva.

    1.3.9. Verificare che lapplicazione lineare f : R2 R3 definita da f([x, y]t) = [x + y, xy, x]t e iniettiva.

    1.3.10. Stabilire se lendomorfismo di R3 definito da f([x, y, z]t) = [2x+2y, xy, xyz]te un automorfismo.

    1.3.11. Si consideri lapplicazione lineare f : R2 R3 definita da:f(e1) = e1 + e2 + e3f(e2) = e1 + 2e3.

    Si determini la matrice associata ad f e si stabilisca se f e unapplicazione iniettiva.

    1.3.12. Sia f : R2 R3 lapplicazione lineare data da

    f

    [xy

    ]=

    x y2x 2y3x 3y

    .

    1. Determinare la matrice che rappresenta f rispetto alle basi

    B1 ={[

    31

    ],

    [02

    ]}, B2 =

    101

    ,

    010

    ,

    213

    .

    2. Scrivere, rispetto alla base B2, limmagine del vettore

    vB1 =[

    12

    ].

  • 26 APPLICAZIONI LINEARI

    1.3.13. Sia f lendomorfismo di R3 associato alla matrice

    At =

    t 2 t + 12 t t + 31 2 4

    .

    Determinare il valore del parametro t affinche f sia un automorfismo. Posto t = 2,determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione diker f .

    1.3.14. Sia f : R3 R3 lapplicazione lineare associata alla matrice

    A =

    2 1 02 1 04 2 3

    .

    Determinare una base per Imf . Dopo aver verificato che linsieme

    W ={[x, y, 0]t, x, y R}

    e sottospazio di R3, determinare una base per W + Imf .

    1.3.15. Dato in R4 lendomorfismo ft rappresentato dalla matrice

    At =

    t 0 1 11 t 1 11 0 2 01 0 0 2

    ,

    verificare che dim(ker f) = 2 solo per t = 0.

    1.3.16. Sia f lendomorfismo di R3 definito da:

    f(e1) = te1 + 2e2 + e3f(e2) = 2e1 + +te2 + 2e3f(e3) = (t + 1)e1 + (t + 3)e2 + 4e3.

    Stabilire per quali valori di t R f e un automorfismo e determinare negli altri casi ladimensione ed una base per ker f .

    1.3.17. Sia f lapplicazione lineare associata alla matrice

    A =

    1 2 1 02 1 1 15 0 3 2

    .

    Determinare una base per Imf ed una per ker f .

    1.3.18. Sia f : R3 R3 lapplicazione lineare data da

    f

    xyz

    =

    x y + 2z2x + 3y 4zx 6y + 10z

    .

    Determinare nucleo ed immagine di f , la loro dimensione ed una loro base.

  • 1.3 ESERCIZI 27

    1.3.19. Sia f : R3 R2 lapplicazione lineare data da

    f

    xyz

    =

    [x + y 3z

    ax + (2 a)y + (a 4)z]

    ,

    essendo a un parametro reale.

    1. Determinare, al variare di a in R, il nucleo, limmagine, le loro dimensioni ed unaloro base.

    2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da

    B1 =

    101

    ,

    010

    214

    , B2 =

    {[35

    ],

    [26

    ]}.

    1.3.20. Sia M2(R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. SiaPol3(R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia f : M2(R) Pol3(R)[x] la seguente applicazione lineare

    f

    ([a bc d

    ])= (a c + 2d)x3 + (b + 2d)x2 + (a + b c)x + a + b 2c + 2d,

    con a, b, c, d R.

    1. Determinare la dimensione di Imf , e scrivere una sua base.

    2. Determinare la dimensione di kerf , e scrivere una sua base.

    1.3.21. Sia Pol3(R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. SiaM2(R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : Pol3(R)[x] M2(R) la seguente applicazione lineare

    f(ax3 + bx2 + cx + d) =[

    a + b c 2a + b 3c da 2c d 3a + 2b 4c d

    ],

    con a, b, c, d R.

    1. Determinare la dimensione di Imf , e scrivere una sua base.

    2. Determinare la dimensione di kerf , e scrivere una sua base.

  • 28 APPLICAZIONI LINEARI

  • Capitolo 2

    SIMILITUDINE EDIAGONALIZZABILITA

    Consideriamo unapplicazione lineare f End(V). Fissata una base B di V, abbiamovisto che e possibile associare in modo univoco ad f una matrice AB(f), mediante la qualee completamente descritto il comportamento dellendomorfismo. Ovviamente se si cambiabase cambia anche la matrice associata: se al posto di B consideriamo una base C, lamatrice AC(f) sara diversa dalla AB(f). Entrambe pero rappresentano lo stesso endomor-fismo. Deve quindi esistere una relazione di qualche tipo che lega le due matrici. Questarelazione si chiama similitudine. Nel paragrafo seguente diamo la definizione e le primeproprieta.

    2.1 SIMILITUDINE

    La similitudine e un concetto che riguarda esclusivamente le matrici quadrate. Se A,B Mn(K), si dice che A e simile a B, e si scrive A B se esiste una matrice P invertibile,detta matrice di passaggio, tale che P1AP = B.

    Teorema 2.1. In Mn(K) la similitudine e una relazione di equivalenza.-Dimostrazione. Verifichiamo la validita delle proprieta riflessiva, simmetrica e tran-

    sitiva.

    (i) Proprieta riflessiva. Ogni matrice A Mn(K) e simile a se stessa. Bastaprendere P uguale ad In (matrice identica di ordine n), e si ottiene

    I1n AIn = A.

    (ii) Proprieta simmetrica. Se A e simile a B allora B e simile ad A. Infatti, seA B, esiste P Mn(K), invertibile, tale che P1AP = B. Moltiplicando entrambi imembri di questa uguaglianza a sinistra per P e a destra per P1 otteniamo

    P (P1AP )P1 = PBP1,

    da cuiA = PBP1 = (P1)1B(P1). (2.1.1)

  • 30 SIMILITUDINE E DIAGONALIZZABILITA

    La (2.1.1) dice che B e simile ad A, mediante la matrice di passaggio P1.

    (iii) Proprieta transitiva. Se A e simile a B e B e simile a C, allora A e simile a C.Infatti, se A B, esiste una matrice P invertibile tale che

    P1AP = B. (2.1.2)

    Analogamente, se B C, esiste una matrice invertibile Q tale che

    Q1BQ = C. (2.1.3)

    Sostituendo la (2.1.2) nella (2.1.3) si ottiene:

    Q1(P1AP )Q = C,

    da cui:(Q1P1)A(PQ) = C,

    (PQ)1A(PQ) = C. (2.1.4)

    La relazione (2.1.4) esprime il fatto che A C, tramite la matrice di passaggio PQ. Una prima proprieta posseduta da due matrici simili e descritta nel teorema seguente.

    Teorema 2.2. Matrici simili hanno lo stesso determinante.

    -Dimostrazione. Se A B, dalla definizione di similitudine abbiamo P1AP = Bper qualche matrice P invertibile. Utilizzando il Teorema di Binet ricaviamo allora

    detB = det(P1AP ) = det(P1) det A det P = (detP )1 det A det P = detA.

    Osservazioni ed esempi.

    1. Facciamo notare una particolarita nella definizione di similitudine di matrici. Dicen-do che A e simile a B se esiste ... si da una sorta di direzionalita alla definizione,che rende anche sensato il controllo della proprieta simmetrica dellequivalenza. Ediverso dire A e B sono simili se esiste .... Qui non viene stabilito a priori, nellascrittura P1AP = B, quale la posizione di A e quale quella di B. In questo casola proprieta simmetrica sarebbe implicita.

    2. Il Teorema 2.2 fornisce una condizione solo necessaria per la similitudine. Se duematrici sono simili allora hanno lo stesso determinante, ma non e vero il viceversa.Esistono altre condizioni necessarie che caratterizzano la similitudine. Lanalisi diqueste condizioni, e lo studio della similitudine stessa, richiedono lintroduzione diconcetti legati alla diagonalizzabilita che saranno sviluppati nel prossimo paragrafo.

  • 2.2 DIAGONALIZZABILITA 31

    2.2 DIAGONALIZZABILITA

    Nel Paragrafo 1.1.4 abbiamo visto che, a meno di trasferire le considerazioni sulla appli-cazione lineare indotta, e sempre possibile pensare di lavorare sugli spazi canonici. None pertanto restrittivo sostituire lo studio degli endomorfismi di uno spazio vettoriale V,di dimensione n, sul campo K, con lo studio degli endomorfismi di Kn. In particolare,ci concentriamo sullo studio delle applicazioni lineari f : Rn Rn. Facciamo comunquenotare che tutti i risultati possono essere estesi (con le ovvie modifiche dovute al cambiodi campo) ad endomorfismi di Kn.

    2.2.1 Definizioni e prime proprieta

    Sia f : Rn Rn una applicazione lineare. Se consideriamo due basi B1 e B2 di Rn,e definiamo le componenti dei loro vettori rispetto alla base canonica C, sappiamo (cfr.Osservazione 6 a pagina 24) che si ha

    AB2B1(f) = [B2]1ACC(f)[B1],

    formula valida anche per spazi diversi in partenza ed in arrivo.

    Se fissiamo in Rn una base B e prendiamo B1 = B2 = B, abbiamo

    ABB(f) = [B]1ACC(f)[B].

    Questo significa che le matrici che rappresentano f rispetto ad una qualsiasi base sonotutte simili tra loro.Se esiste una base B rispetto alla quale ABB(f) e diagonale, allora f si dice endomorfismodiagonalizzabile o anche endomorfismo semplice. Se A e la matrice che rappresenta unendomorfismo diagonalizzabile f rispetto ad una qualsiasi base di Rn, diciamo che A e unamatrice diagonalizzabile. Ogni tale matrice e pertanto simile ad una matrice diagonale,cioe esiste una matrice invertibile P tale che:

    P1AP = diag(1, . . . , n).

    Si chiama polinomio caratteristico di una matrice M il polinomio

    M () = det(M In) = n + a1n1 + + an1 + an.

    La matrice M In si chiama matrice caratteristica associata ad M .Lequazione M () = 0 e detta equazione caratteristica associata ad M .

    Linsieme delle radici del polinomio caratteristico, e chiamato spettro di M , e indicato con

    SpecM = {1, . . . , n}.

  • 32 SIMILITUDINE E DIAGONALIZZABILITA

    2.2.2 Alcune proprieta del Polinomio caratteristico

    Nel Teorema 2.2 abbiamo visto una prima semplice proprieta necessaria per la similitudine.Il seguente teorema ne mette in evidenza una seconda.

    Teorema 2.3. Due matrici simili A e B hanno lo stesso polinomio caratteristico.

    -Dimostrazione. Sia B A, e P una matrice invertibile tale che P1BP = A.Utilizzando il Teorema di Binet ricaviamo allora

    B(t) = det(B tIn) = det(P1AP tIn) == det

    [P1AP t (P1P )] = det [P1(A tIn)P

    ]=

    = det(P1) det(A tIn) detP = det(A tIn) det(P1) det P == det(A tIn) (detP )1 detP = det(A tIn) = A(t).

    In base al teorema precedente possiamo definire il concetto di polinomio caratteristicodi una applicazione lineare f . Esso e il polinomio caratteristico di una sua qualsiasi matriceassociata. Analogamente si possono trasferire su f le nozioni di equazione caratteristica eSpettro, identificandole con quelle di una sua qualsiasi matrice associata.

    Teorema 2.4. Se M Mn(R), allora M () = Mt().

    -Dimostrazione. Il risultato si ottiene facilmente attraverso i seguenti passaggi

    M () = det(M In) = det(M In)t == det

    (M t (In)t

    )= det

    (M t Itn

    )=

    = det(M t In

    )= Mt().

    Teorema 2.5. Sia SpecM = {1, . . . , n}. Allora risulta

    detM =n

    i=1

    i. (2.2.1)

    -Dimostrazione. Sappiamo che il polinomio caratteristico di M ammette n radi-ci (gli autovalori di M), quindi si puo scomporre nel prodotto di n fattori lineari, nonnecessariamente distinti:

    M () = det(M I) = (1 )(2 ) (n ).

    Sostituendo, nella precedente equazione, al posto di il valore 0 si ottiene:

    M (0) = det(M) =n

    i=1

    i.

  • 2.2 DIAGONALIZZABILITA 33

    Teorema 2.6. Sia SpecM = {1, . . . , n}. Allora risulta

    TrM =n

    i=1

    i. (2.2.2)

    -Dimostrazione. Consideriamo la matrice caratteristica M I

    a11 a12 a13 a1na21 a22 a23 a2na31 a32 a33 a3n an1 an2 an3 ann

    Calcoliamo il polinomio caratteristico M () = det(M I) applicando il teorema diLaplace sulla prima riga

    M () = (a11 )A11 + g1()dove A11 e il complemento algebrico di a11 , e g1() e un polinomio di grado inferioread n 1. Lavorando analogamente sul minore complementare di a11 abbiamo

    A11 = det

    a22 a23 a2na32 a33 a3n an2 an3 ann

    = (a22 )A22 + f1()

    dove A22 e il complemento algebrico di a22, ed f1() e un polinomio di grado inferioread n 2. Quindi otteniamo

    M () = (a11 )(a22 )A22 + g2()dove g2() = (a11 )f1() + g1() e ancora un polinomio di grado inferiore ad n 1.Ripetendo il ragionamento arriviamo a scrivere

    M () = (a11 )(a22 ) ... (ann ) + gn()con gn() polinomio di grado inferiore ad n 1.Sviluppando le parentesi abbiamo

    M () = (1)nn + (1)n1n

    i=1

    aiin1 + p()

    essendo p() un polinomio di grado inferiore ad n 1. Per il teorema fondamentaledellalgebra, abbiamo anche

    M () = (1 )(2 ) ... (n ) = (1)nn + (1)n1n

    i=1

    in1 + q()

    con q() polinomio di grado inferiore ad n 1. Per il principio di identita dei polinomi ledue scritture di M () sono equivalenti se e solo se i coefficienti delle potenze di uguale

  • 34 SIMILITUDINE E DIAGONALIZZABILITA

    esponente sono uguali. In particolare devono quindi essere uguali i coefficienti di n1 equindi

    (1)n1n

    i=1

    aii = (1)n1n

    i=1

    i,

    da cui si ricava la tesi, essendon

    i=1

    aii = TrM .

    Osservazioni ed esempi.

    1. Il Teorema 2.3 non e invertibile, cioe, non e detto che due matrici aventi lo stessopolinomio caratteristico siano simili tra loro.

    2. Determiniamo M () e SpecM per la matrice

    M =

    1 0 01 2 01 1 0

    .

    Sappiamo che M () = det(M I3). Quindi

    M () = det(M I3) = det

    1 0 01 2 01 1 0

    1 0 00 1 00 0 1

    =

    1 0 01 2 01 1

    = (1 )(2 ).

    M () = 0 = 0, 1, 2 SpecM = {0, 1, 2}3. In base al Teorema 2.5, una matrice singolare ammette sempre almeno un autovalore

    nullo.

    4. Il Teorema 2.6 mette in evidenza che la somma degli autovalori di una matricecoincide con la sua traccia. Questo non implica che i singoli autovalori coincidanocon gli elementi della diagonale principale.

    2.3 AUTOVALORI ED AUTOVETTORI

    Un numero R si dice autovalore di un endomorfismo f : Rn Rn se esiste un vettorev Rn non nullo tale che f(v) = v. Il vettore v si chiama autovettore e e lautovaloread esso associato. Linsieme di tutti gli autovettori associati a , assieme al vettore nullo,si indica con E(f) e viene chiamato autospazio di f associato allautovalore . Il concettodi autovettore si rivela fondamentale per il problema della diagonalizzazione. Vale infattiil seguente teorema.

  • 2.3 AUTOVALORI ED AUTOVETTORI 35

    Teorema 2.7. Un endomorfismo f : Rn Rn e diagonalizzabile se e solo se esiste unabase di autovettori.

    -Dimostrazione. Supponiamo innanzitutto che f sia diagonalizzabile. Allora esisteuna base B rispetto alla quale ABB(f) e diagonale. Sia B = {v1, ...,vn}, e siano 1, ..., ngli elementi sulla diagonale di ABB(f), cioe

    ABB(f) =

    1 0 00 2 0...

    .... . .

    ...0 0 n

    Poiche le colonne di ABB(f) sono i coefficienti che consentono di scrivere le immagini deivettori di B in funzione della stessa base B, abbiamo

    f(v1) = 1v1f(v2) = 2v2...f(vn) = nvn,

    il che implica che B e una base di autovettori.Supponiamo ora che esista una base B = {v1, ...,vn} in cui ogni elemento e un auto-

    vettore di f . Allora esistono 1, ..., n R tali che f(vi) = ivi per ogni i {1, ..., n}, equindi

    ABB(f) =

    1 0 00 2 0...

    .... . .

    ...0 0 n

    Pertanto f e diagonalizzabile.

    Ricaviamo in particolare che la matrice rappresentativa di un endomorfismo diagona-lizzabile rispetto ad una base di autovettori e una matrice diagonale, avente come elementiprincipali gli autovalori.

    Osservazioni ed esempi.

    1. Consideriamo una matrice generica A Mn(R). Questa si puo sempre vedere comela matrice associata ad un endomorfismo f End(Rn) rispetto ad una base fissata.Allora autovalori ed autovettori di A sono gli autovalori e gli autovettori di f .

    2. E importante notare che, quando si parla di autovettori, si fa riferimento a vettoridistinti dal vettore nullo.

  • 36 SIMILITUDINE E DIAGONALIZZABILITA

    2.3.1 Calcolo degli autovalori

    Dalla definizione di autovalore non appare immediatamente evidente il metodo con cui sipossono effettivamente calcolare questi numeri. Esso viene fornito nel teorema seguente.

    Teorema 2.8. Gli autovalori di una matrice A Mn(R) si calcolano come radici delpolinomio caratteristico della matrice stessa:

    A(t) = det(A tIn).

    -Dimostrazione. Se e un autovalore di A, esiste un vettore non nullo (un auto-vettore) v Rn tale che Av = v. Portando tutto al primo membro nella precedenteuguaglianza, abbiamo Av v = 0, ovvero

    (A In)v = 0. (2.3.1)

    La (2.3.1) si puo rivedere come un sistema lineare omogeneo di n equazioni in n incognite.La matrice dei coefficienti e A In, ovvero la matrice caratteristica di A. Lo scalare e un autovalore se e solo se esiste un (auto)vettore non nullo v 6= 0, soluzione di (2.3.1),cioe se e solo se il sistema ammette autosoluzioni. Condizione necessaria e sufficienteaffinche un sistema del tipo (2.3.1) abbia autosoluzioni e che la matrice dei coefficientiabbia rango inferiore al numero delle incognite. Questo, nel caso considerato, avviene see solo se det(A In) = 0. Quindi lo scalare e autovalore di A se e solo se e soluzionedellequazione

    A(t) = det(A tIn) = 0,che e lequazione caratteristica di A.

    Osservazioni ed esempi.

    1. Essendo gli autovalori di una matrice ottenibili come radici del suo polinomio carat-teristico, matrici simili hanno gli stessi autovalori, ovvero lo stesso spettro:

    SpecA = SpecB. (2.3.2)

    Dai teoremi 2.5 e 2.6 ricaviamo pertanto che matrici simili hanno stesso determinante(questa proprieta e gia stata ottenuta per altra via nellOsservazione (2.2) a pagina30) e medesima traccia, ossia:

    TrA = TrB, det A = detB. (2.3.3)

    E bene insistere sul fatto che le condizioni (2.3.2) e (2.3.3) sono condizioni solonecessarie, non sufficienti, per la similitudine, cos come gia osservato per il Teorema2.3 (cfr. Osservazione 1 a pag. 34). Cioe, se A e simile a B, allora le (2.3.2) e (2.3.3)sono vere. Se sono vere nulla si puo dire sulla similitudine di A e B.

    2. Autovalori di una matrice diagonale. Consideriamo una matrice diagonale A =diag(a1, . . . , an). In questo caso, essendo AtIn = diag(a1, . . . , an)diag(t, . . . , t) =diag(a1 t, . . . , an t), e ricordando che il determinante di una matrice diagonale

  • 2.3 AUTOVALORI ED AUTOVETTORI 37

    e il prodotto degli elementi principali, abbiamo A(t) = (a1 t)(a2 t) (an t).Le radici del polinomio caratteristico sono allora proprio gli elementi principali di A.Quanto detto vale anche per le matrici triangolari, arrivando alle stesse conclusioni:gli autovalori di una matrice triangolare sono i suoi elementi principali.

    3. Determiniamo una matrice avente il polinomio p(t) = t33t2 t+3 come polinomiocaratteristico. Notiamo, innanzitutto, che p(t) e scomponibile nel prodotto di fattorilineari:

    p(t) = (t 3)(t + 1)(t 1).Quindi ha tre radici reali distinte 1 = 3, 2 = 1 e 3 = 1. Questi sono autovaloridi una matrice che ammette p(t) come polinomio caratteristico. Per esempio, pos-siamo considerare una qualsiasi matrice triangolare avente 1, 2, 3 come elementiprincipali, cioe

    A =

    1 a b0 1 c0 0 3

    per ogni a, b, c R. Ma avremmo anche potuto scegliere una matrice triangolareinferiore con gli stessi elementi principali, o ancora piu semplicemente la matricediag(1,1, 3).

    4. Determiniamo tutti gli autovalori della matrice A M2(R) sapendo che valgono leseguenti uguaglianze:

    det(A 5I2) = 0, det(A + I2) = 0. (2.3.4)Non sappiamo come e fatta A, ma le due uguaglianze precedenti ci permettonodi individuare comunque i suoi autovalori. Questi sono le soluzioni dellequazionecaratteristica, ovvero sono gli scalari che soddisfano luguaglianza

    det(A tI2) = 0.Ponendo nella precedente t = 5 e t = 1 otteniamo proprio le (2.3.4), quindi 5 e1 sono due autovalori. Pero il polinomio caratteristico di A ha grado due, percheA M2(R) e non puo avere piu di due radici. Allora 5,1 sono tutti gli autovaloridi A e SpecA = {5,1}.

    5. Determiniamo A(t) per la matrice

    A =

    1 0 01 2 01 1 0

    .

    Sappiamo che A(t) = det(A tI3). Quindi

    A(t) = det(A tI3) = det

    1 0 01 2 01 1 0

    t

    1 0 00 1 00 0 1

    =

    =

    1 t 0 01 2 t 01 1 t

    = t(1 t)(2 t).

  • 38 SIMILITUDINE E DIAGONALIZZABILITA

    Alla stessa conclusione si poteva giungere osservando che A e una matrice triango-lare, quindi i suoi autovalori sono gli elementi principali. Conoscendo gli autovaloriconosciamo le radici del polinomio caratteristico, e quindi una sua scomposizione infattori: A(t) = t(1 t)(2 t).

    2.3.2 Autospazi di un endomorfismo

    Sia f un endomorfismo dello spazio Rn, e sia Specf un suo autovalore. Linsiemedi tutti gli autovettori associati a , assieme al vettore nullo, si indica con E(f) (osemplicemente E se non ci sono pericoli di fraintendimenti) e viene chiamato autospaziodi f associato allautovalore , ossia:

    E(f) = {v Rn| f(v) = v}.

    A livello di matrici associate, la definizione di autospazio si traduce come segue. Se A euna matrice diMn(R), e un suo autovalore, chiamiamo autospazio relativo a linsieme:

    E = {v Rn| Av = v}.

    Il nome autospazio e giustificato dal seguente risultato.

    Teorema 2.9. Sia un autovalore di un endomorfismo f : Rn Rn, e sia E = {v Rn, f(v) = v}. Allora E e un sottospazio di Rn.

    -Dimostrazione. Possiamo dimostrare il teorema in due maniere distinte.

    Primo metodo. Per ogni coppia di vettori v,w E, e per ogni a, b R, dallalinearita di f abbiamo

    f(av + bw) = af(v) + bf(w) = av + bw = (av + bw).

    Quindi av + bw E, per cui tale sottoinsieme di Rn e chiuso rispetto alle combinazionilineari di suoi elementi. Di conseguenza E e un sottospazio di Rn.

    Secondo metodo. Sia i : Rn Rn lendomorfismo identico, tale cioe che i(v) = vper ogni v Rn. Allora E e linsieme delle soluzioni del sistema (ABB(f) I)x = 0,essendo B una qualsiasi base di V. Quindi E e il nucleo dellendomorfismo f i, percui e un sottospazio di V.

    Il Teorema 2.9 mette in evidenza che linsieme di tutti gli autovettori associati ad unostesso autovalore e in realta uno spazio vettoriale. Ci si puo chiedere a questo punto sece invece qualche proprieta posseduta da autovettori associati ad autovalori distinti. Aquesto proposito abbiamo il seguente teorema.

    Teorema 2.10. Autovettori associati ad autovalori distinti di un endomorfismo f : Rn Rn sono tra loro linearmente indipendenti.

    -Dimostrazione. Siano 1, 2, ..., h, h+1 gli autovalori di f , e sia vi un autovettoreassociato allautovalore i, i {1, 2, ..., h + 1}. Procedendo per induzione, assumiamo

  • 2.3 AUTOVALORI ED AUTOVETTORI 39

    che i vettori v1,v2, ...,vh siano indipendenti, e supponiamo invece che v1,v2, ...,vh,vh+1siano linearmente dipendenti. Questo significa che vh+1 dipende da v1,v2, ...,vh, per cuiesistono scalari c1, c2, ..., ch tali che

    vh+1 =h

    i=1

    civi. (2.3.5)

    Applicando f abbiamo f(vh+1) = h+1vh+1, essendo vh+1 un autovettore associatoallautovalore h+1. Dalla (2.3.5) abbiamo allora

    f(vh+1) = h+1h

    i=1

    civi. (2.3.6)

    Ma, per la linearita di f , e per il fatto che i vi sono autovettori associati a i, dalla (2.3.5)abbiamo anche

    f(vh+1) =h

    i=1

    f(civi) =h

    i=1

    ciivi. (2.3.7)

    confrontando le formule (2.3.6) e (2.3.7) risulta

    h

    i=1

    (h+1 i)civi = 0.

    Poiche h+1 6= i, dallipotesi di induzione ricaviamo ci = 0 per ogni i {1, 2, ..., h}, equindi, per la (2.3.5), risulta vh+1 = 0, il che e assurdo. Pertanto vh+1 e indipendente dav1,v2, ...,vh.

    Osservazioni ed esempi.

    1. Gli autovalori di un endomorfismo f sono gli scalari per i quali il nucleo di f inon si riduce al solo vettore nullo. Di conseguenza la dimensione di un qualsiasiautospazio E e sempre almeno uguale ad 1.

    2. Determiniamo gli autospazi associati allendomorfismo f : R3 R3 rappresentato,rispetto ad una data base, dalla matrice dellEsempio 5 a pagina 37. Gli autovalorisono = 0, 1, 2. Per = 0 bisogna determinare il nucleo di f , per cui risulta

    1 0 01 2 01 1 0

    xyz

    =

    000

    x = y = 0 z.

    Pertanto, allautovalore = 0 resta associato il solo autovettore

    v0 =

    001

    ,

  • 40 SIMILITUDINE E DIAGONALIZZABILITA

    al quale corrisponde lautospazio E0 = {zv0, z R}.Per = 1 bisogna determinare il nucleo di f i, e quindi

    0 0 01 1 01 1 1

    xyz

    =

    000

    y = x z = 2x.

    Pertanto, allautovalore = 1 resta associato il solo autovettore

    v1 =

    112

    ,

    al quale corrisponde lautospazio E1 = {xv1, x R}.Per = 2 calcoliamo invece il nucleo di f 2i

    1 0 01 0 01 1 2

    xyz

    =

    000

    x = 0 y = 2z.

    Pertanto, allautovalore = 2 resta associato il solo autovettore

    v2 =

    021

    ,

    al quale corrisponde lautospazio E2 = {zv2, z R}.

    2.3.3 Molteplicita algebrica e molteplicita geometrica

    La molteplicita algebrica ma() di un autovalore indica quante volte lautovalore esoluzione dellequazione caratteristica () = 0. La molteplicita geometrica mg() di e la dimensione dellautospazio E associato allautovalore. Nella dimostrazione delTeorema 2.9 (secondo metodo) abbiamo visto che i vettori di E sono tutti e soli i vettoridel nucleo dellapplicazione f di matrice M In (vedi anche lEsempio 2 a pagina 39).La dimensione del nucleo si puo calcolare usando lequazione dimensionale dim(ker f) =n dim(Imf). Ma la dimensione di Imf e il rango della matrice associata ad f , quindidim(ker f) = n rk(M In). Concludendo, la molteplicita geometrica dellautovalore e data da

    mg() = n rk(M In). (2.3.8)La molteplicita algebrica e la molteplicita geometrica sono legate dalla relazione de-

    scritta nel seguente teorema.

    Teorema 2.11. Sia 0 un autovalore di un endomorfismo f : Rn Rn. Allora vale ladisuguaglianza ma(0) mg(0).

  • 2.3 AUTOVALORI ED AUTOVETTORI 41

    -Dimostrazione. Se ma(0) = n il risultato e immediato. Supponiamo che siama(0) < n, e consideriamo una base B0 = {v1, ...vk} dellautospazio E0 associato a0. Possiamo sempre estendere B0 ad una base B di tutto lo spazio aggiungendo n kvettori indipendenti. Abbiamo allora B = {v1, ...,vk,w1, ...,wnk}. La matrice ABB(f)puo essere rappresentata nella maniera seguente

    ABB(f) =

    0 0...

    . . .... A

    0 0

    0 B

    ,

    dove il blocco in alto a sinistra e una matrice diagonale di tipo (k, k). Calcolando ilpolinomio caratteristico otteniamo

    P () = det(ABB(f) I(n,n)) = (0 )k det(B I(nk,nk)) = (0 )k q(),

    essendo I(n,n) la matrice identica di ordine n, I(nk,nk) la matrice identica di ordine nk,e q() un polinomio di grado nk. Pertanto, lequazione caratteristica P () = 0 ammettela soluzione = 0 contata almeno k volte (esattamente k se q(0) 6= 0), cioe

    ma(0) k = dimE0 = mg(0).

    Nel caso in cui risulti ma(0) = mg(0), allora 0 si dice autovalore regolare. Il concettodi regolarita e molto importante per la diagonalizzazione. Vale infatti il seguente teorema.

    Teorema 2.12. Un endomorfismo f : Rn Rn e diagonalizzabile se e solo se f ha tuttigli autovalori reali e, per ogni autovalore, la molteplicita algebrica e uguale alla molteplicitageometrica.

    -Dimostrazione. Supponiamo innanzitutto che f sia diagonalizzabile. Allora esisteuna base B = {v1, ...,vn} di autovettori. Sia 0 un qualsiasi autovalore. Abbiamo alloramg(0) = n rk

    (ABB(f) 0I

    ). Poiche B e una base di autovettori, la matrice ABB(f) e

    diagonale, e sulla diagonale compaiono tutti e soli gli autovalori, con le rispettive molte-plicita. Quindi gli autovalori sono reali e 0 compare sulla diagonale esattamente ma(0)volte. Ogni colonna di ABB(f) in cui compare 0 corrisponde ad un autovettore di E0 , etali autovettori sono tra loro indipendenti. Quindi la dimensione di E0 (che e il massimonumero di vettori indipendenti estraibili da E0) deve essere almeno uguale a ma(0), cioedim(E0) ma(0). Ma dim(E0) = mg(0), e quindi mg(0) ma(0). Dal Teorema2.11 ricaviamo allora mg(0) = ma(0). Per la genericita con cui e stato scelto 0 seguela tesi.

    Supponiamo ora che tutti gli autovalori siano reali e che, per ogni autovalore, la mol-teplicita algebrica sia uguale alla molteplicita geometrica. Indichiamo con 1, ..., h gliautovalori distinti di f , a con E1 , ..., Eh i corrispondenti autospazi. Abbiamo allora

  • 42 SIMILITUDINE E DIAGONALIZZABILITA

    h

    i=1

    dimEi =h

    i=1

    mg(i) =h

    i=1

    ma(i).

    Per il teorema fondamentale dellalgebra abbiamoh

    i=1 ma(i) = gradoP () = n, e quindila somma delle dimensioni degli autospazi e uguale ad n. Quindi, unendo le basi di tuttigli autospazi si ottiene un insieme di n vettori linearmente indipendenti, cioe una base diRn. Esiste pertanto una base di autovettori, per cui f e diagonalizzabile.

    Osservazioni ed esempi.

    1. Una condizione di regolarita per gli autovalori. Se un endomorfismo f : Rn Rn ammette n autovalori distinti, allora questi sono automaticamente regolari. In-fatti, per il Teorema 2.10, abbiamo n autospazi distinti, la cui dimensione deveessere necessariamente uguale ad 1. Di conseguenza, la molteplicita algebrica diogni autovalore coincide con la sua molteplicita geometrica.

    2. Sia r una retta passante per lorigine di R2, e sia f : R2 R2 la simmetria assialerispetto alla retta r. Allora f e diagonalizzabile. Infatti, se r e un qualsiasi vettoreappartenente alla retta r, risulta f(r) = r, mentre, se r e un qualsiasi vettoreappartenente alla retta r, perpendicolare nellorigine ad r, allora f(r) = r.

    O x

    y

    r

    v

    f(v)

    r

    r

    Figura 2.1: autospazi di una simmetria assiale.

    Pertanto f ammette autovalori reali distinti = 1, e quindi e diagonalizzabile. Inparticolare, la retta vettoriale r e lautospazio associato allautovalore = 1, mentrela retta vettoriale r e lautospazio associato allautovalore = 1.

    3. Possiamo riassumere i principali risultati ottenuti in questo paragrafo nel seguenteteorema.

    Teorema 2.13. Consideriamo un endomorfismo f : Rn Rn di spettro Specf ={1, . . . , r}, e sia A la matrice associata ad f rispetto ad una base qualsiasi. Sonoequivalenti le seguenti condizioni:

  • 2.3 AUTOVALORI ED AUTOVETTORI 43

    (i) Lendomorfismo f determina una base formata da autovettori.

    (ii) La matrice A e diagonalizzabile.

    (iii) Gli autovalori i di f sono tutti regolari.

    (iv) Lo spazio Rn e somma diretta dei suoi autospazi, ovvero:

    Rn =r

    i=1

    Ei(f)

    Lequivalenza delle condizioni (i) e (ii) corrisponde al Teorema 2.7. Lequivalenzadelle condizioni (ii) e (iii) corrisponde invece al Teorema 2.12. La condizione (iv)equivale a dire che lunione delle basi di tutti gli autospazi fornisce un insieme di nvettori, i quali, per il Teorema 2.10, sono linearmente indipendenti, e quindi formanouna base di Rn. Cio equivale a dire che f e diagonalizzabile, cioe la condizione (i).

    4. Dalla condizione (iv) del Teorema 2.13 (o direttamente dal Teorema 2.10), abbiamoin particolare che lintersezione di autospazi distinti si riduce al solo vettore nullo.

    5. Calcoliamo autovalori ed autovettori della matrice

    A =

    0 6 01 0 11 0 1

    e studiamo la sua diagonalizzabilita .

    Determiniamo innanzitutto il polinomio caratteristico e, da questo, gli autovalori.

    A(t) = det(A tI3) =

    t 6 01 t 11 0 1 t

    = t(t 3)(t + 2).

    Pertanto, SpecA = {0, 3,2}. Gli autovalori sono distinti, quindi regolari (cfr.Osservazione 1 a pagina 42), per cui A e diagonalizzabile. Calcoliamo gli autovettori.Per = 0 abbiamo

    Av = 0v

    ovvero

    6y = 0x + z = 0x + z = 0.

    La soluzione e

    a

    101

  • 44 SIMILITUDINE E DIAGONALIZZABILITA

    per ogni a 6= 0. Procedendo analogamente, in corrispondenza di = 2 e = 3troviamo

    b

    311

    , c

    211

    ,

    con b, c R diversi da zero. Ogni matrice P , avente come colonne i vettori ottenutiassumendo a, b, c 6= 0 nelle precedenti soluzioni, puo essere considerata la matrice dipassaggio che permette di diagonalizzare la matrice A. Si ha cioe

    P1AP = diag(0,2, 3).

    Si puo ottenere una matrice di passaggio P anche cambiando lordine in cui gliautovettori compaiono come colonne di P . Questo si ribalta sullanalogo cambiodellordine con cui gli autovalori compaiono sulla diagonale di P1AP .

    6. Determiniamo lo spettro dellendomorfismo di R3 definito da

    f([x, y, z]t) = [x + y, x + z, y + z]t.

    Abbiamo visto che gli autovalori di un endomorfismo f non sono altro che quellidella sua matrice rappresentativa Af . Dobbiamo solo determinare Af e ricavarne ilpolinomio caratteristico. Siccome

    Af =

    1 1 01 0 10 1 1

    ,

    otteniamoA(t) = f (t) = det(A tI3) = (1 t)(t 2)(t + 1).

    Quindi Specf = {2, 1,1}. Notiamo che f e certamente diagonalizzabile, percheha autovalori distinti, quindi regolari.

    2.4 ENDOMORFISMI SIMMETRICI

    Riferendoci allOsservazione 2 di pagina 42, vogliamo ora studiare piu dettagliatamen-te il problema della diagonalizzazione di una simmetria assiale f : R2 R2, andandoinnanzitutto a vedere come sono fatte la matrici ACC(f) associate a tali endomorfismi

    1.Consideriamo il vettore v = [, ]t, e sia f(v) = [, ]t. Se poniamo

    ACC(f) =[a11 a12a21 a22

    ]

    abbiamo allora1Ci e sembrato utile presentare largomento in questa maniera, anche se non e ancora stata trattata

    la Geometria Analitica. Pensiamo di poter ritenere note le principali formule valide nel piano xy, am-piamente considerate nella scuola media superiore. Comunque, per avere una descrizione precisa dellenozioni utilizzate in questo paragrafo, rinviamo al volume APPUNTI DI GEOMETRIA: GEOMETRIAANALITICA.

  • 2.4 ENDOMORFISMI SIMMETRICI 45

    [a11 a12a21 a22

    ] [

    ]=

    [

    ].

    Possiamo determinare e in funzione di e osservando innanzitutto, che v f(v)deve essere parallelo ad r.

    O x

    y

    r

    v

    f(v)

    r

    r

    -f(v)

    Figura 2.2: rappresentazione qualitativa dellazione di una simmetria assiale in R2.

    Pertanto si ha

    =

    1m

    .

    Inoltre il punto medio del segmento che congiunge gli estremi di v e di f(v) appartiene

    ad r, il che si traduce analiticamente sostituendo, nellequazione di r, +

    2al posto di

    x e +

    2al posto di y. Abbiamo pertanto

    +

    2= m

    +

    2.

    Otteniamo quindi il sistema di due equazioni, nelle due incognite e , dato da

    =

    1m

    +

    2= m

    +

    2.

    Risolvendo si ottiene

    = 1m2

    1+m2 + 2m

    1+m2

    = 2m1+m2

    1m21+m2

    ACC(f) =

    1m21+m2

    2m1+m2

    2m1+m2

    1m21+m2

    . (2.4.1)

    In particolare ricaviamo che la simmetria rispetto ad una qualsiasi retta passante perlorigine e rappresentata da una matrice simmetrica (2, 2), cioe una matrice A tale che

  • 46 SIMILITUDINE E DIAGONALIZZABILITA

    At = A. Come conseguenza si pone in maniera naturale il seguente problema. Sia Auna generica matrice simmetrica di ordine 2, che non sia del tipo (2.4.1). Allora A nonrappresenta alcuna simmetria assiale rispetto a rette passanti per lorigine. Possiamo peroancora dire che lendomorfismo associato a questa matrice e diagonalizzabile?La risposta e affermativa, come precisato nel seguente teorema.

    Teorema 2.14. Ogni matrice simmetrica A di tipo (2, 2) ha autovalori reali, ed e semprediagonalizzabile.

    -Dimostrazione. Calcoliamo gli autovalori di una generica matrice simmetrica A diordine 2

    A =[a bb c

    ] A() = (a )(c ) b2 = 2 (a + c) + ac b2.

    Risolvendo lequazione caratteristica A() = 0 otteniamo le seguenti soluzioni

    =a + c

    (a c)2 + 4b22

    . (2.4.2)

    Osserviamo che, per ogni scelta di a, b, c, abbiamo 4 0, e quindi A ammette sempreautovalori reali. Se a 6= c gli autovalori sono distinti e quindi A (o lendomorfismo da essarappresentato) e diagonalizzabile. Se a = c e b = 0 abbiamo lautovalore doppio = c.Ma in questo caso risulta

    A =[c 00 c

    ] A cI =

    [0 00 0

    ].

    Di conseguenza, la molteplicita geometrica di = c, risulta n rk(A cI) = 2 0 = 2, ecoincide con la molteplicita algebrica. Quindi anche in questo caso A e diagonalizzabile.

    Osservazioni ed esempi.

    1. Supponiamo che una retta r formi langolo con lasse x. Allora m = tan , da cuisi ha

    {2m

    1+m2= sin 2

    1m21+m2

    = cos 2.

    Quindi possiamo anche scrivere la (2.4.1) nella maniera seguente

    { = (cos 2) + (sin 2) = (sin 2) (cos 2) A

    CC(f) =

    [cos 2 sin 2sin 2 cos 2

    ]. (2.4.3)

  • 2.4 ENDOMORFISMI SIMMETRICI 47

    2. Il caso a = c e b = 0, descritto nella dimostrazione del Teorema 2.14 rappresentauna situazione degenere, nella quale ogni vettore e un autovettore.

    3. Determiniamo lequazione della simmetria piana rispetto alla retta r : y = 2x. Inquesto caso m = 2, e quindi

    ACC(f) =[35 4545 35

    ]

    Le equazioni della simmetria cercata sono allora date da

    {x = 35x 45yy = 45x + 35y.

    4. Un endomorfismo che, rispetto ad una data base, viene rappresentato da una matricesimmetrica prende il nome di endomorfismo simmetrico. Come abbiamo visto, lesimmetrie assiali del piano R2 sono esempi di endomorfismi simmetrici.

    2.4.1 Il Teorema Spettrale nel piano

    Abbiamo visto che gli autovalori associati alla simmetria rispetto ad una retta r passanteper lorigine sono sempre = 1 e = 1. Inoltre, i rispettivi autospazi sono rappresentatida r e da r. Possiamo allora chiederci cosa possiamo dire relativamente agli autospaziassociati ad un generico endomorfismo simmetrico (cfr. Osservazione 4 precedente). Perstudiare il problema e utile introdurre la nozione di prodotto scalare in R2. Dati duevettori di R2, u = [u1, u2]t e v = [v1, v2]t. Il loro prodotto scalare e definito nella manieraseguente

    u,v = ut v = [u1, u2] [

    v1v2

    ]= u1v1 + u2v2. (2.4.4)

    In particolare possiamo considerare il prodotto scalare tra un vettore u R2 e se stesso.Si ha in tal caso un numero reale non negativo (positivo se u 6= 0). La radice quadratadi questo numero prende il nome di norma del vettore u, e si indica con il simbolo u.Abbiamo pertanto

    u =u,u =

    ut u. (2.4.5)

    Supponiamo che entrambi i vettori siano non nulli. Essi vengono detti vettori ortogo-nali se

    u,v = 0. (2.4.6)

    Limportanza della nozione di ortogonalita e quantificata nel teorema seguente, noto comeTeorema Spettrale.

  • 48 SIMILITUDINE E DIAGONALIZZABILITA

    Teorema 2.15. Sia f : R2 R2 un endomorfismo simmetrico. Allora f ha autovalorireali, e diagonalizzabile, e scompone R2 come somma diretta di autospazi ortogonali

    R2 = E1 E2 .-Dimostrazione. Poiche f e un endomorfismo simmetrico, esso e rappresentato da

    una matrice reale simmetrica A, di tipo (2, 2). Sia essa data da

    A =[a bb c

    ].

    Per il Teorema 2.14, f ha autovalori reali ed e diagonalizzabile. Per il Teorema 2.13, fscompone R2 come somma diretta di autospazi. Resta da dimostrare che gli autospazisono tra loro ortogonali. A questo proposito determiniamo esplicitamente gli autospaziassociati allendomorfismo. Siano 1, 2 gli autovalori di A (cfr. Formula (2.4.2)). Per 1abbiamo

    [a 1 b

    b c 1

    ] [xy

    ]=

    [00

    ]

    (a 1)x + by = 0 y = 1ab xQuindi, lautospazio associato a 1 e dato da

    E1 ={

    x

    [1

    1ab

    ], x R

    }

    ed una sua base, per esempio, e data da

    B1 ={[

    b1 a

    ]}.

    Procedendo in maniera analoga troviamo che lautospazio associato a 2 ammette unabase data da

    B2 ={[

    b2 a

    ]}.

    Indichiamo con v1 e v2 i vettori che formano, rispettivamente, la base B1 e B2 . Abbiamoallora

    v1,v2 = b2 + (1 a)(2 a) = a2 + b2 + 12 a(1 + 2).Dai teoremi 2.5 ed 2.6 otteniamo

    1 + 2 = a + c12 = ac b2,

    e quindi v1,v2 = a2 + b2 + ac b2 a(a + c) = 0. Pertanto v1 e ortogonale a v2. Il Teorema 2.15 mette in evidenza che, come gia visto per le simmetrie rispetto a ret-te passanti per lorigine, anche gli endomorfismi rappresentati da una generica matricesimmetrica (2, 2) ammettono autospazi ortogonali. Linterpretazione geometrica di questi

  • 2.4 ENDOMORFISMI SIMMETRICI 49

    endomorfismi e pertanto identica a quella delle simmetrie assiali, come viene anche chiaritonellOsservazione 1 seguente.

    Osservazioni ed esempi.

    1. Possiamo dare alla formula (2.4.6) un preciso significato geometrico. Se m1 = y1x1ed m2 = y2x2 (x1, x2 6= 0) sono i coefficienti angolari delle rette parallele a v e w,otteniamo

    v,w = 0 1 + m1m2 = 0. (2.4.7)

    Pertanto, lannullarsi del prodotto scalare v,w esprime la nota condizione di orto-gonalita tra le rette che contengono i vettori v e w. Questo resta chiaramente veroanche quando v = [a, 0] e w = [0, b], con a, b numeri reali qualsiasi. In particolare,la formula (2.4.6) e valida anche quando v e il vettore nullo. In tal caso ogni vettorew R2 e ortogonale a v.

    2. Matrici ortogonali. Dal Teorema 2.15 si deduce in particolare che ogni matricesimmetrica A, di tipo (2, 2), puo essere diagonalizzata mediante una matrice dipassaggio P le cui due colonne sono ortogonali tra loro. Tra le varie scelte di Ppossiamo selezionare quella avente per colonne vettori di lunghezza unitaria, cioeversori . Per fare questo basta dividere ogni colonna per la lunghezza del vettorecorrispondente. Si ottiene cos una matrice di passaggio M , le cui colonne, oltread essere ortogonali tra loro, hanno anche lunghezza unitaria. Una tale matrice sidice matrice ortogonale. Possiamo allora esprimere il Teorema 2.15 dicendo che unamatrice simmetrica A di tipo (2, 2) e sempre diagonalizzabile con una matrice dipassaggio ortogonale, cioe che A e ortogonalmente simile ad una matrice diagonale.

    3. Matrici simmetriche e prodotto scalare. Sia A una matrice simmetrica di tipo(2, 2) data da

    A =[a bb c

    ].

    Siano v = [v1, v2]t e w = [w1, w2]t due vettori di R2. Abbiamo allora

    Av =[a bb c

    ] [v1v2

    ]=

    [av1 + bv2bv1 + cv2

    ], Aw =

    [a bb c

    ] [w1w2

    ]=

    [aw1 + bw2bw1 + cw2

    ].

    Pertanto risulta

    Av,w = (av1 + bv2)w1 + (bv1 + cv2)w2 == v1(aw1 + bw2) + v2(bw1 + cw2) = v, Aw. (2.4.8)

  • 50 SIMILITUDINE E DIAGONALIZZABILITA

    4. Sfruttando la formula (2.4.8) possiamo dimostrare che gli autovettori di una matricesimmetrica A di tipo (2, 2) sono ortogonali tra loro, in maniera diversa da quellaconsiderata nella dimostrazione del Teorema 2.15. Siano infatti 1, 2 gli autovaloridistinti di A, e v1,v2 i due autovettori ad essi rispettivamente associati. Abbiamoallora

    1v1,v2 = 1v1,v2 = Av1,v2 = v1, Av2 = v1, 2v2 = 2v1,v2.

    Pertanto (1 2)v1,v2 = 0, ed essendo 1 6= 2, ricaviamo v1,v2 = 0.5. Sia C = {i, j} la base canonica di R2. La formula (2.4.5) non e altro che il Teorema

    di Pitagora applicato al triangolo rettangolo avente u = [u1, u2]t come ipotenusa e ivettori u1i ed u2j come cateti. Pertanto, geometricamente, la norma di un vettorecoincide con la sua lunghezza.

    2.4.2 Classificazione delle matrici ortogonali di ordine 2

    Cerchiamo di classificare le matrici ortogonali di ordine 2 partendo dal fatto che le lorodue colonne devono essere ortogonali tra loro e di norma unitaria (cfr. Osservazione 2a pagina 49). Indichiamo con v1 = [x1, y1]t il versore le cui componenti costituisconola prima colonna, e con v2 = [x2, y2]t quello le cui componenti costituiscono la secondacolonna. Se v1 forma un angolo (percorso in senso antiorario) con lasse x, deve essere

    x1 = v1 cos = cos,y1 = v1 sin = sin .

    Poiche v2 e ortogonale a v1, langolo formato da v2 con lasse x e uguale a 2 + , oppure32 + . Risulta pertanto

    x2 = v2 cos(

    2 +

    )= sin,

    y2 = v2 sin(

    2 +

    )= cos,

    nel primo caso, e

    x2 = v2 cos(

    32 +

    )= sin ,

    y2 = v2 sin(

    32 +

    )= cos,

    nel secondo caso. Le corrispondenti matrici risultano

    M1 =[cos sinsin cos

    ], (2.4.9)

    M1 =[cos sinsin cos

    ], (2.4.10)

    con variabile in [0, 2]. Esse hanno determinante uguale ad 1 e 1 rispettivamente. Ciofornisce una classificazione completa delle matrici ortogonali del secondo ordine.

  • 2.4 ENDOMORFISMI SIM