21
NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN BIOTECNOLOGIE MEDICHE FILIPPO F. FAVALE Nella seconda parte del corso parleremo dei concetti fondamentali dell’algebra lineare. Parleremo di spazi vettoriali, sottospazi vettoriali, applicazioni lineari, calcolo matriciale, sistemi lineari, tecniche per avere informazioni sulle soluzioni dei sistemi lineari e tecniche utili per risolverli. Queste note coprono tutto quello che vedremo a lezione. Sono presenti alcuni esempi fatti a lezione ma non esercizi. 1. Spazi vettoriali, R n , matrici e calcolo matriciale Il primo argomento che affronteremo nella seconda parte del corso è il concetto di spazio vettoriale. Lo spazio vettoriale che useremo maggiormente nel corso, R n è, in un certo senso, anche il prototipo di tutti gli spazi vettoriali. Incominciamo quindi a introdurre questo insieme con la sua struttura di spazio vettoriale. Definizione 1. Fissiamo un intero positivo n. Definiamo con il simbolo R n l’insieme delle n-uple ordinate di numeri reali. Un elemento di R n è quindi una collezione di n numeri reali che possiamo indicare con il simbolo x =(x i ) i=1...n o sempliciemente (x i ) con x i R. In questo modo x 1 è il primo elemento di x , x 2 è il secondo e così via. L’elemento x i è detto i-esimo coefficiente di x . Per convenzione si rappresentano gli elementi di R n mettendo in colonna i coefficienti dell’elemento. Ad esempio, se x R 3 è la terna di numeri reali (la 3-upla...) che ha come primo elemento x 1 =1, come secondo elemento x 2 =4 e ultimo elemento x 3 = -2 scriveremo anche x = 1 4 -2 . Possiamo definire due operazioni su R n , una interna che chiamiamo somma e indichiamo con +,e una esterna che chiamiamo prodotto per uno scalare e indichiamo con il simbolo ·, cioè +: R n × R n R n · : R × R n R n . Queste sono definite componente per componente, cioè se x =(x i ), y =(y i ) e λ R si ha x + y =(x i + y i ) λ · x =(λx i ). Per la precisione, se λ R e x ,y R n con x = x 1 ··· x n y = y 1 ··· y n si ha x + y = x 1 + y 1 ··· x n + y n λ · x = λx 1 ··· λx n . Somma e prodotto appena definiti soddisfano alcune proprietà: SV1: x + y = y + x (la somma è commutativa); SV2: x +(y + z )=(x + y )+ z (la somma è associativa); SV3: esiste un elemento neutro per la somma, cioè un elemento, che si indica con 0 =0 R n , che è tale che 0 + x = x +0 = x . L’elemento neutro è chiamato zero e nel caso di R n è la n-upla formata da tutti zeri; SV4: per ogni x esiste un opposto, cioè un elemento che si indica con -x tale che x +(-x )=(-x )+ x =0 . Nel caso di R n l’opposto di x =(x i ) è sempliciemente -x =(-x i ), cioè -x =(-1) · x ; 1

PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

NOTE DI ALGEBRA LINEAREPER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA

IN BIOTECNOLOGIE MEDICHE

FILIPPO F. FAVALE

Nella seconda parte del corso parleremo dei concetti fondamentali dell’algebra lineare. Parleremo dispazi vettoriali, sottospazi vettoriali, applicazioni lineari, calcolo matriciale, sistemi lineari, tecnicheper avere informazioni sulle soluzioni dei sistemi lineari e tecniche utili per risolverli. Queste notecoprono tutto quello che vedremo a lezione. Sono presenti alcuni esempi fatti a lezione ma non esercizi.

1. Spazi vettoriali, Rn, matrici e calcolo matriciale

Il primo argomento che affronteremo nella seconda parte del corso è il concetto di spazio vettoriale.Lo spazio vettoriale che useremo maggiormente nel corso, Rn è, in un certo senso, anche il prototipodi tutti gli spazi vettoriali. Incominciamo quindi a introdurre questo insieme con la sua struttura dispazio vettoriale.

Definizione 1. Fissiamo un intero positivo n. Definiamo con il simbolo Rn l’insieme delle n-uple

ordinate di numeri reali. Un elemento di Rn è quindi una collezione di n numeri reali che possiamo

indicare con il simbolo x = (xi)i=1...n o sempliciemente (xi) con xi ∈ R. In questo modo x1 è il primo

elemento di x, x2 è il secondo e così via. L’elemento xi è detto i-esimo coefficiente di x.

Per convenzione si rappresentano gli elementi di Rn mettendo in colonna i coefficienti dell’elemento.Ad esempio, se x ∈ R3 è la terna di numeri reali (la 3-upla...) che ha come primo elemento x1 = 1,come secondo elemento x2 = 4 e ultimo elemento x3 = −2 scriveremo anche

x =

14−2

.Possiamo definire due operazioni su Rn, una interna che chiamiamo somma e indichiamo con +, euna esterna che chiamiamo prodotto per uno scalare e indichiamo con il simbolo ·, cioè

+ : Rn × Rn → Rn · : R× Rn → Rn.

Queste sono definite componente per componente, cioè se x = (xi), y = (yi) e λ ∈ R si ha

x+ y = (xi + yi) λ · x = (λxi).

Per la precisione, se λ ∈ R e x, y ∈ Rn con

x =

x1· · ·xn

y =

y1· · ·yn

si ha x+ y =

x1 + y1· · ·

xn + yn

λ · x =

λx1· · ·λxn

.Somma e prodotto appena definiti soddisfano alcune proprietà:

SV1: x+ y = y + x (la somma è commutativa);SV2: x+ (y + z) = (x+ y) + z (la somma è associativa);SV3: esiste un elemento neutro per la somma, cioè un elemento, che si indica con 0 = 0Rn ,

che è tale che 0 + x = x + 0 = x. L’elemento neutro è chiamato zero e nel caso di Rn è lan-upla formata da tutti zeri;

SV4: per ogni x esiste un opposto, cioè un elemento che si indica con −x tale che

x+ (−x) = (−x) + x = 0.

Nel caso di Rn l’opposto di x = (xi) è sempliciemente −x = (−xi), cioè −x = (−1) · x;1

Page 2: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Inoltre valgono, per ogni x, y ∈ Rn e λ, µ ∈ R le seguenti proprietà distributive:SV5: λ · (x+ y) = (λ · x) + (λ · y);SV6: (λµ) · x = λ · (µ · x);SV7: (λ+ µ) · x = (λ · x) + (µ · x);

In queste uguaglianze bisogna fare attenzione: certi + indicano somme tra n-uple mentre altri indicanol’usuale somma numeri reali. Queste sono esattamente le proprietà che devono soddisfare una sommae un prodotto definiti su un insieme V non vuoto perchè esso sia chiamato spazio vettoriale.

Definizione 2. Uno spazio vettoriale (reale) è un insieme V non vuoto dove è definita un’operazione

interna detta somma (che si indica in genere con il simbolo +) e un’operazione esterna per un numero

reale, detta prodotto per uno scalare (che si indica in genere con ·) e che soddisfano le proprietà SV1,

· · · , SV7. Nell’ambito degli spazi vettoriali chiamiamo scalari i numeri reali e vettori gli elementi di

V . L’elemento neutro per la somma viene indicato con OV e si dice vettore nullo mentre l’opposto

di v ∈ V si indica con −v ed è uguale a (−1) · v.

Vista la convenzione, spesso parleremo degli elementi di Rn come di vettori colonna. Nulla vieta dipensare agli elementi di Rn come elementi messi in riga: in questo caso si parla di vettori riga.Noi avremo praticamente sempre a che fare con Rn ma ci sono moltissimi altri esempi di spazi vettoriali.Uno abbastanza "esotico" è questo:

V := {f : [a, b]→ R | f è continua in [a, b]}con + definito come somma puntuale di funzioni e λ · f(x) = λf(x) come prodotto esterno, è unospazio vettoriale.

Vediamo un esempio che ci sarà più utile: lo spazio vettoriale delle matrici. Una matrice è una collezioneordinata di numeri reali, proprio come per i vettori di Rn. In questo caso, però vogliamo disporre inumeri reali in una tabella.

Definizione 3. Siano n, k due interi positivi. Una matrice con k righe e n colonne, o più bre-

vemente matrice k × n, è una tabella con k righe e n colonne che contiene, in ogni sua "cella", un

numero reale. Possiamo indicare una matrice A con il simbolo A = (aij)i=1...kj=1...n o sempliciemente

(aij) con aij ∈ R se vogliamo indicare che la "cella", che corrisponde alla riga i e alla colonna j di A,

contiene il numero reale aij . L’elemento aij è detto coefficiente di A di posizione (i, j). L’insieme

delle matrici con k × n si indica con il simbolo Matk×n(R).

Possiamo definire una somma e un prodotto esterno anche su Matk×n(R) scaricando tutto sullecomponenti: se A = (aij), B = (bij) e λ ∈ R si ha

A+B = (aij + bij) λ ·A = (λaij).

Con queste operazioni lo spazio delle matrici k × n diventa uno spazio vettoriale. In questo caso il"vettore" nullo è la matrice con tutti i coefficienti uguali a 0.

Le matrici quindi "generalizzano" Rn: infatti possiamo vedere Rn come lo spazio delle matrici con unacolonna e n righe. Analogamente possiamo vedere lo spazio dei vettori riga con k coefficienti come lospazio delle matrici con 1 riga e k colonne. Se v ∈ Mat1×n, cioè se v è un vettore riga con n elementi,scriveremo vi per indicare il suo coefficiente i-esimo. Analogamente, se v ∈ Rn, il suo coefficientei-esimo sarà vi.

Definizione 4. Sia A ∈ Matk×n(R), cioè sia A una matrice con k righe e n colonne. Con i simboli

Ai e Aj si indicano rispettivamente il vettore riga composto dall’ i-esima riga di A e il vettore colonna

composto dalla j-esima colonna di A. Si ha

Aj ∈ Matk×1(R) = Rk Ai ∈ Mat1×n(R)2

Page 3: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

tramite l’identificazione di vettori riga e colonna con matrici.

Ogni matrice è identificata dalle sue righe o dalle sue colonne, così come dai suoi coefficienti. Per dareuna matrice A specificando che v1, v2, . . . , vn ∈ Rk sono le sue colonne scriveremo

A = (v1|v2| · · · |vn).

In modo analogo possiamo dare A specificando tanti vettori riga.

Esiste un ulteriore prodotto tra certi tipi di matrici che si chiama prodotto riga per colonna che oraandiamo a introdurre. Per farlo dobbiamo definire prima il prodotto tra un vettore riga con n elementie un vettore colonna con altrettanti elementi.

Definizione 5. Si considerino v ∈ Mat1×n(R) e w ∈ Rn, cioè siano v e w rispettivamente un vettore

riga e un vettore colonna con n elementi. Il prodotto riga per colonna di v e w (in quest’ordine!)

è il numero reale

v · w =n∑

i=1

viwi = v1w1 + v2w2 + · · ·+ vnwn.

Questo è da non confondere con il prodotto per uno scalare, il cui risultato è un vettore!

Definizione 6. Siano A ∈ Matk×n(R) e B ∈ Matn×m, cioè due matrici con il numero di colonne della

prima che è uguale al numero di righe della seconda. Il prodotto riga per colonna di A e B o

più sempliciemente prodotto di A per B (in quest’ordine) è una matrice A · B := C ∈ Matk×m(R)

tale che C = (cij) = (AiBj), cioè tale che il coefficiente di C alla posizione (i, j) è il prodotto riga per

colonna della i-esima riga di A per la j-esima colonna di B.

Osservazione 1. Se A ∈ Matk×n(R) e B ∈ Matn×m e scriviamo B = (B1|B2| · · · |Bm) abbiamo che

la i-esima colonna di A · B, cioè (A · B)i è data dal prodotto riga per colonna della matrice A per la

i-esima colonna di B: (A ·B)i = A · (Bi).

Osservazione 2. Il prodotto tra matrici, cioè il prodotto riga per colonna non è commutativo. Prima

di tutto, perchè per poter calcolare A · B ho bisogno che le colonne di A concidano, in numero, con

le righe di B. Non sappiamo però nulla sul numero delle colonne di B in relazione al numero di righe

di A: potremmo non poter nemmeno calcolare B · A anche se possiamo calcolare A · B. Se anche

potessimo calcolare B ·A, in genere B ·A non è nemmeno una matrice comparabile con A ·B. Se anche

hanno lo stesso numero di righe e colonne, si ha in generale A ·B 6= B ·A.

Definizione 7. Sia A una matrice qualsiasi. Una sottomatrice di A è una qualsiasi matrice ottenuta

cancellando alcune (eventualmente nessuna, ma non tutte) righe e o colonne di A e, se secessario,

compattando i coefficienti.

Ad esempio, se abbiamo una matrice A ∈ Mat3×2(R) possiamo cancellare la seconda riga per ottenereuna sottomatrice accostando la prima riga e la terza riga.

Definizione 8. Sia A ∈ Matk×n(R). Si dice che A è una matrice quadrata se n = k. Se A è quadrata,

si parla di diagonale di A intendendo gli elementi del tipo aii al variare di i = 1, . . . , n. Si dice che A

è una matrice triangolare superiore se è quadrata e se tutti gli elementi al di sotto della diagonale

sono 0, cioè se aij = 0 se i > j. Analogamente si definisce una matrice triangolare inferiore.3

Page 4: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Definizione 9. Sia A ∈ Matk×n(R). La trasposta di A è una matrice in Matn×k(R) che si indica

con AT che si ottiene da A scambiando il ruolo di righe e colonne: la i-esima riga di AT è la i-esima

colonna di A. In termini di coefficienti, AT = (αji) se A = (αij).

In particolare, se v ∈ Rn è un vettore (colonna), allora vT è un vettore riga della stessa lunghezza.

2. Sistemi lineari e metodo di Gauss

Andremo ora a studiare i sistemi lineari e a formalizzarli nel linguaggio delle matrici. Il nostro obiettivosarà quello di introdurre l’algoritmo di Gauss e il Teorema di Rouché-Capelli per studiare l’insiemedelle soluzioni di un sistema lineare.

Definizione 10. Un’equazione lineare a coefficienti reali nelle indeterminate x1, . . . , xn è un’equa-

zione del tipo

a1x1 + a2x2 + · · ·+ anxn = b

con ai, b ∈ R. Un sistema lineare nelle incognite x1, . . . , xn è un sistema di un certo numero di

equazioni lineari a coefficienti reali nelle indeterminate x1, . . . , xn. Se n è il numero delle indeterminate,

una soluzione di un sistema lineare è un vettore v ∈ Rn le cui coordinate soddisfano tutte le equazioni

del sistema.

Spesso è comodo pensare al sistema in quella che chiameremo la sua scrittura matriciale. Se si parteda un sistema di k equazioni nelle n indeterminate x1, . . . , xn possiamo scrivere la i-esima equazionecome

ai1x1 + ai2x2 + · · ·+ ainxn = bi.

Abbiamo quindi chiamato aij il coefficiente di xj nell’ i-esima equazione del sistema e bi l’ i-esimotermine noto. Se definiamo la matrice A = (aij) ∈ Matk×n, i vettori B = (bi) ∈ Rk e X = (xi) ∈ Rn

allora il sistema da cui siamo partiti è equivalente alla scrittura

AX = B

nel senso che questa uguaglianza tra vettori è soddisfatta se e solo se X è una soluzione del sistema.

Definizione 11. Chiamiamo A la matrice dei coefficienti, B il vettore dei termini noti e AX =

B la scrittura matriciale del sistema lineare. Definiamo anche la matrice A = (A|B) ∈ Matk×(n+1)(R)

chiamandola matrice completa del sistema.

Dalla definizione è chiaro che dare il sistema, la coppia (A,B) o la matrice completa A è completamenteequivalente. Ha senso quindi parlare di sistema lineare in forma matriciale o specificando semplicementela matrice completa.

Definizione 12. Siano AX = B e A′X = B′ due sistemi lineari nelle stesse indeterminate. Essi si

dicono equivalenti se hanno le stesse soluzioni.

Per risolvereun sistema lineare quello che si va a fare in genere è di cercare di semplificare il sistemascrivendone uno equivalente più "semplice". Andremo ora in quella direzione.

Proposizione 1. Sia AX = B un sistema lineare. Si considerino le seguenti operazioni

• Scambiare tra loro due equazioni;

• Moltiplicare, membro a membro una delle equazioni per una costante λ 6= 0;

• Sommare, membro a membro, a un’equazione un multiplo di un’altra equazione.

Il sistema ottenuto facendo una o più di queste operazioni è equivalente a quello da cui siamo partiti.4

Page 5: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

L’effetto sulle equazioni del sistema lineare di queste operazioni può essere completamente scaricato suoperazioni che effettuiamo sulla matrice completa. Andremo rispettivamente a scambiare due righe diA, a moltiplicare tutti gli elementi di una riga per λ 6= 0 o a sommare alla riga Ai il vettore riga λAj

(se i 6= j).

In realtà, possiamo considerare queste operazioni su una qualsiasi matrice. Questo porta alla seguentedefinizione.

Definizione 13. Sia A una matrice qualsiasi. Si considerino le seguenti operazioni:

• Scambiare tra di loro le righe i e j: Ai ←→ Aj ;

• Moltiplicare per λ ∈ R con λ 6= 0 la riga i: Ai → λ ·Ai ;

• Sommare a una riga un multiplo di un’altra riga: Ai → Ai + λ ·Aj con i 6= j.

Una matrice ottenuta applicando una o più di queste operazioni in qualsiasi ordine è detta equivalente

ad A.

Osservazione 3. La definizione che abbiamo dato di matrici equivalenti è coerente con la definizione

di sistemi equivalenti nel senso che AX = B è equivalente a A′X = B′ se e solo se A = (A|B) è

equivalente a A′ = (A′|B′).

L’algoritmo di Gauss, o metodo di Gauss è un algoritmo che permette di partire da una matrice A e discriverne una equivalente (nel senso appena definito) ma che sia più "semplice". Più precisamente, altermine dell’algoritmo la avremo una matrice che conterrà una sottomatrice triangolare superiore consolo 1 sulla diagonale e che è massimale per questa proprietà.

Algoritmo 1 (Algoritmo di Gauss). SiaM ∈ Matk×n(R). L’algoritmo di Gauss si articola nei seguenti

passi:

(1) Se M contiene una o più righe fatte solo da 0, si scambiano tra loro le righe fino a quando le

righe nulle non sono tutte in fondo alla matrice.

M =

? · · · ?...

. . ....

? · · · ?

0 · · · 0...

. . ....

0 · · · 0

(2) Cerco la prima colonna non identicamente nulla. Suppongo sia la colonna j. Permuto le righe

fino a che l’elemento a1j non è diverso da 0. Divido la prima riga per a1j . In questo modo la

colonna j è preceduta solo da colonne identicamente nulle e ha il primo elemento uguale a 1.

M =

0 · · · 0 1 ? · · · ?

0 · · · 0 a2j ? · · · ?...

. . ....

......

. . ....

0 · · · 0 asj ? · · · ?

0 · · · 0 0 0 · · · 0...

. . ....

......

. . ....

0 · · · 0 0 0 · · · 0

5

Page 6: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

(3) Per ogni i ≥ 2, sommo alla riga i il vettore riga −aijM1. In questo modo ottengo una matrice

che ha la colonna j composta da un 1, in cima, e tutti 0.

A =

0 · · · 0 1 ? · · · ?

0 · · · 0 0 ? · · · ?...

. . ....

......

. . ....

0 · · · 0 0 ? · · · ?

0 · · · 0 0 0 · · · 0...

. . ....

......

. . ....

0 · · · 0 0 0 · · · 0

(4) Riparto dal primo punto dell’algoritmo andando però a lavorare solo sulla sottomatrice ottenuta

cancellando la prima riga.

M =

0 · · · 0 1 ? · · · ?

0 · · · 0 0 ? · · · ?...

. . ....

......

. . ....

0 · · · 0 0 ? · · · ?

0 · · · 0 0 0 · · · 0...

. . ....

......

. . ....

0 · · · 0 0 0 · · · 0

L’algoritmo termina quando, arrivati al punto 4, non ci sono più colonne disponibili o righe che non

contengano solo 0. Output possibili sono matrici del tipo

0 · · · 0 1 · · · ? ? · · · ?...

. . ....

.... . .

......

. . ....

0 · · · 0 0 · · · 1 ? · · · ?

0 · · · 0 0 · · · 0 0 · · · 0...

. . ....

......

. . ....

. . ....

0 · · · 0 0 · · · 0 0 · · · 0

=

0r×a Tr C

0(k−r)×a 0(k−r)×r 0(k−r)×(n−r−a)

con 0a×b matrice nulla con a righe e b colonne, Tr matrice triangolare superiore con solo 1 sulla diagonale

e C matrice qualsiasi con r righe e n − r − a colonne. Questo è da intendere ammettendo che a = 0,

a = n− r o anche k = r. In questi casi nella divisione a blocchi sono presenti meno matrici. Gli altri

casi possibili si ottengono quando abbiamo una o più colonne di 0 spezzano la matrice triangolare Tr.

Ad esempio, matrici possibili come output dell’algoritmo possono essere fatte così:0 1 ? 0 ? ?

0 0 1 0 ? ?

0 0 0 0 1 ?

0 0 0 0 0 0

1 0 ? ? ? ?

0 0 1 ? ? ?

0 0 0 1 ? ?

0 0 1 0 0 ?

0 0 0 0 0 1

0 0 0 0 0 0

0 0 0 0 0 0

.

Proposizione 2. Sia A una matrice qualsiasi e sia A′ la matrice ottenuta al termine dell’algoritmo di

Gauss (l’algoritmo termina dopo al più k passaggi). Allora possiamo isolare, in A′, una sottomatrice6

Page 7: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

triangolare superiore T con solo 1 sulla diagonale che è massimale per questa proprietà. T può dipendere

dalle scelte fatte ma è sempre una matrice quadrata delle stesse dimensioni.

Definizione 14. Il rango di una matrice A è il numero di righe (e quindi di colonne) della matrice T

ottenuta applicando il metodo di Gauss partendo da A.

Questa non è la definizione che si dà, in genere, per rango di una matrice. Si è scelto di dare questa(equivalente a quella "classica" comunque) perchè più operativa e perchè richiede meno conoscenzeteoriche.

Proposizione 3. Sia AX = B un sistema lineare con k equazioni e sia v0 una soluzione particolare

del sistema. Allora v ∈ Rn è soluzione di AX = B se e solo se v − v0 è soluzione del sistema lineare

omogeneo associato, cioè AX = 0Rk .

Dimostrazione. Sappiamo che Av0 = B perchè è soluzione del sistema. Supponiamo che v sia una

soluzione di AX = B (eventualmente v = v0). Allora si ha Av = B e, per le proprietà del prodotto

riga per colonna,

A(v − v0) = Av −Av0 = B −B = 0Rk ,

cioè v−v0 soluzione del sistema omogeneo associato. Viceversa, supponiamo che Aw = 0Rk . Dobbiamo

verificare che il vettore v = v0 + w è soluzione del sistema AX = B. Questo è vero infatti Av =

A(v0 + w) = Av0 +Aw = B + 0Rk = B. �

Questo ci dice che le soluzioni di un sistema lineare AX = B con k equazioni si possono scriverecome una soluzione particolare v0 del sistema, più una qualsiasi soluzione del sistema lineare omogeneoassociato, cioè AX = 0Rk . Se S è l’insieme delle soluzioni di AX = B si ha quindi

S = {v0 + v |Av = 0Rk}.

Definizione 15. Delle equazioni parametriche (o scrittura parametrica) per le soluzioni di un

sistema lineare AX = B è una scrittura delle soluzioni del tipo

S = {x = x0 + α1v1 + · · ·+ αsvs |α1, . . . , αs ∈ R}

con v0 ∈ Rn soluzione particolare del sistema lineare e v1, . . . , vs ∈ Rn vettori fissati (che sono soluzioni

del sistema lineare omogeneo Avi = 0Rk).

Osservazione 4. Come possiamo scrivere in forma parametrica l’insieme delle soluzioni di un sistema

lineare AX = B?

Scriviamo la matrice completa A = (A|B) e applichiamo il metodo di Gauss alla matrice completa.

Otterremo una matrice (A′|B′) che è la matrice completa di un sistema lineare equivalente a AX = B.

In più però A′ contiene una sottomatrice massimale Tr con solo 1 sulla diagonale. Questo ci dice che il

sistema equivalente è un sistema a scala: è facilmente risolvibile andando a ricavare, di volta in volta

e partendo dal fondo, le r variabili corrispondenti alle colonne che formano Tr in funzione delle sole

variabili (che sono n − r) che corrispondono a colonne di A′ che non compongono Tr. Usando queste

n− r variabili come parametri possiamo facilmente arrivare alla scrittura in forma parametrica.

7

Page 8: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Esempio 1. Partendo da un sistema lineare AX = B nelle indeterminate x1, . . . , x6, supponiamo di

avere ottenuto la matrice

(A′|B′) =

0 1 −1 0 0 −2 1

0 0 1 0 1 1 0

0 0 0 0 1 2 1

0 0 0 0 0 0 0

.

Essa ha rango Rk(A) = 3 poichè possiamo isolare la matrice triangolare superiore 3× 3

T3 =

1 −1 0

0 1 1

0 0 1

ottenuta cancellando da A′ la riga 4 e le colonne 1, 4 e 6. In base all’osservazione, possiamo scrivere

l’insieme delle soluzioni utilizzando n − r = 6 − 3 = 3 parametri. Inoltre, possiamo scegliere come

parametri le variabili che corrispondono alle righe di A′ che abbiamo cancellato per ottenere T3: pos-

siamo porre α1 = x1, α2 = x4 e α3 = x6. Scriviamo il sistema equivalente e ricaviamo x2, x3 e x5 in

funzione di x1, x4 e x6:

x2 − x3 − 2x6 = 1

x3 + x5 + x6 = 0

x5 + 2x6 = 1

0 = 0

x2 = 1 + x3 + 2x6

x3 = −x5 − x6

x5 = 1− 2x6

x2 = 3x6

x3 = −1 + x6

x5 = 1− 2x6

Sia S l’insieme delle soluzioni. Notiamo che, come anticipato, ogni soluzione si può scrivere usando

solo le variabili x1, x4 e x6. Con la scelta α1 = x1, α2 = x4 e α3 = x6 possiamo quindi scrivere che

S =

x ∈ R6 |x =

x1

3x6

−1 + x6

x4

1− 2x6

x6

=

α1

3α3

−1 + α3

α2

1− 2α3

α3

|α1, α2, α3 ∈ R

.

Per ottenere la scrittura parametrica basta isolare il vettore dei termini che non contengono parametri

(ci darà il vettore v0) e i vettori dei termini che contengono i vari parametri:

S =

0

0

−1

0

1

0

+

α1

0

0

0

0

0

+

0

0

0

α2

0

0

+

0

3α3

α3

0

−2α3

α3

|α1, α2, α3 ∈ R

.

8

Page 9: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Se definiamo

v0 =

0

0

−1

0

1

0

v1 =

1

0

0

0

0

0

v2 =

0

0

0

1

0

0

v3 =

0

3

1

0

−2

1

avremo finalmente la scrittura parametrica per l’insieme delle soluzioni:

S = {v0 + α1v1 + α2v2 + α3v3 |α1, α2, α3 ∈ R}.

Non possiamo ancora saperlo, ma abbiamo scritto l’insieme delle soluzioni in forma parametrica in

modo ottimale, cioè con il numero minimo di parametri possibile. Questo è conseguenza del Teorema

di Rouché-Capelli che vedremo a breve.

Si noti che se abbiamo una scrittura parametrica, nulla ci garantisce che non ne esista un’altra chepermette di scrivere le soluzioni usando meno parametri. Il teorema di Rouché-Capelli, oltre a fornirciun criterio necessario e sufficiente alla risolubilità di un sistema lineare, ci dice anche qual è il numerominimo di parametri che ci servono per rappresentare tutte le soluzioni.

Teorema 1. Sia AX = B un sistema lineare di k equazioni e n incognite. Allora

• Il sistema ha soluzione se e solo se Rk(A) = Rk(A);

• Se il sistema ha soluzioni e Rk(A) = Rk(A) = r, allora il numero minimo di parametri che ci

servono per scrivere le soluzioni in forma parametrica è n− r.

Corollario 1. In particolare, se andiamo a semplificare il sistema lineare AX = B utilizzando il

metodo di Gauss e scegliamo i parametri come spiegato nell’osservazione 4 e nell’esempio 1, scegliamo

sempre i parametri in modo che siano nel numero minimo possibile.

Riassumendo, il metodo di Gauss è utile per:• Calcolare il rango di una matrice M qualsiasi (a prescindere dal fatto che sia una matricecompleta di un sistema lineare o meno). Questo ci sarà particolarmente utile quando parleremodi sottospazi vettoriali generati e basi;• Semplificare un sistema lineare: se r = Rk(A), con l’algoritmo di Gauss andiamo a isolare k−rrighe (quelle in fondo alla matrice) che sono del tipo

MAi = (0 · · · 0|b′i)

con b′i ∈ R. Se b′j 6= 0 per almeno un j il sistema è impossibile: infatti l’equazione corrispondenteè 0 = b′j che non è mai verificata. Questo è esattamente quello che succede se Rk(A) 6= Rk(A)

nel Teorema di Rouché-Capelli. Se invece b′j = 0 l’equazione corrispondente alla riga è 0 = 0 cheè sempre verificata: possiamo rimuoverla e scrivere un sistema equivalente con una equazionein meno.• Se un sistema lineare ha soluzione, ci indica quanti parametri al minimo ci servono per scrivereparametricamente le soluzioni del sistema e anche quali scegliere.

3. Sottospazi vettoriali, equazioni cartesiane e parametriche

Ricordiamoci che uno spazio vettoriale è un insieme V non vuoto munito di due operazioni (una interna,detta somma e una esterna, detta moltiplicazione per uno scalare) che soddisfano alcune proprietà. Hasenso considerare sottoinsiemi di uno spazio vettoriale e chiedersi e alcuni di essi sono, a loro volta,spazi vettoriali.

9

Page 10: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Definizione 16. Sia V uno spazio vettoriale con somma + e prodotto esterno ·. Un sottoinsieme non

vuoto W di V è detto sottospazio vettoriale di V se W , con la somma + e il prodotto · è a sua

volta uno spazio vettoriale.

Chiedere che W sia un sottospazio vettoriale quindi vuol dire controllare di poter sommare due vettoridiW rimanendo dentroW e di poter moltiplicare ogni vettore diW per uno scalare rimanendo sempredentro aW . Infatti, sappiamo sommare tra loro qualsiasi coppia di vettori di V , e quindi in particolaredi W , ma non è vero che sommando due vettori otteniamo ancora un vettore di W . Invece, tutte levarie richieste (SV1,. . . , SV7) sono automaticamente soddisfatte. Più precisamente vale

Proposizione 4. Sia V uno spazio vettoriale con somma + e prodotto esterno ·. Un sottoinsieme

W ⊂ V non vuoto è un sottospazio vettoriale se, comunque scelti

w1, w2 ∈W, e λ1, λ2 ∈ R si ha λ1 · w1 + λ2 · w2 ∈W.

Equivalentemente, W è sottospazio vettoriale se ∀w1, w2 ∈W, ∀λ1, λ2 ∈ R si ha

λ · w1 ∈W e w1 + w2 ∈W.

Esempio 2. Se V = R2 consideriamo i seguenti sottoinsiemi:

W1 =

{[a

0

]| a ∈ Z

}W2 =

{[a

0

]| a ∈ R

}∪

{[0

a

]| a ∈ R

}W3 =

{[a

−a

]| a ∈ R

}.

Se prendiamo due elementi v1, v2 di W1 questi saranno del tipo

v1 =

[a1

0

], v2 =

[a2

0

]con a1, a2 ∈ Z. Se sommiamo questi due vettori otteniamo il vettore che ha come prima coordinata

a1 +a2 e seconda coordinata 0. Siccome a1 +a2 ∈ Z avremo che v1 +v2 ∈W1. Però, se λ = 1/2 si vede

facilmente che non è vero che λ · v1 ∈ W1 indipendentemente da v1. Il problema per W2 è l’opposto:

è vero che possiamo sempre moltiplicare un elemento di W per uno scalare qualsiasi e ottenere ancora

un elemento di W ma non è vero che sommando due qualsiasi elementi di W2 abbiamo ancora un

elemento di W2: ad esempio[1

0

],

[0

1

]∈W ma

[1

0

]+

[0

1

]=

[1

1

]6∈W2.

Siano ora v1, v2 ∈W3 e siano λ1, λ2 ∈ R. Avremo allora

v1 =

[a1

−a1

]v2 =

[a2

−a2

]con a1, a2 ∈ R opportuni. Dobbiamo solo controllare che v = λ1v1 + λ2v2 ∈W3, cosa che avviene se e

solo se la prima coordinata di v è opposta alla seconda coordinata di v (per definizione di W3). Si ha

v = λ1

[a1

−a1

]+ λ2

[a2

−a2

]=

[λ1a1 + λ2a2

−λ1a1 − λ2a2

]che è ancora un elemento di W3 come anticipato. Si ha quindi che W3 è un sottospazi vettoriale.

La prossima proposizione mostra come definire facilmente dei sottospazi vettoriali di Rn.

Proposizione 5. L’insieme delle soluzioni di un sistema lineare omogeneo in n incognite è un sotto-

spazio vettoriale di Rn.10

Page 11: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Dimostrazione. Scriviamo il sistema lineare in forma matriciale come AX = 0Rk dove k è il numero

di equazioni del sistema. Chiamiamo S l’insieme delle soluzioni del sistema. Dobbiamo controllare

che sommando due soluzioni ho ancora una soluzione e che moltiplicando per uno scalareuna soluzione

ho ancora una soluzione dello stesso sistema. Siano w1, w2 ∈ S e λ ∈ R. Allora sappiamo che

Aw1 = Aw2 = 0Rk . Ma allora

A(w1 + w2) = Aw1 +Aw2 = 0Rk + 0Rk = 0Rk A(λ · w1) = λ · (Aw1) = λ · 0Rk = 0Rk

quindi S è chiuso sia per somme che per prodotti esterni e quindi è un sottospazio vettoriale di Rn. �

Definizione 17. Sia A ∈ Matk×n(R). Indichiamo con il simbolo Ker(A) l’insieme delle soluzioni

del sistema lineare AX = 0Rk . Per la proposizione precedente, è un sottospazio vettoriale di Rn.

Definizione 18. Sia W un sottospazio vettoriale di Rn e supponiamo che W = Ker(A) con A matrice

opportuna. Diciamo che il sistema AX = 0 è un sistema di equazioni cartesiane per W .

Osservazione 5. Attenzione: nessuno ci assicura che nel sistema AX = 0Rk non ci siano equazioni

ripetute, banali o comunque dipendenti. Possiamo sempre però applicare il metodo di Gauss ad A e

ridurre il sistema omogeneo di partenza (che ha k equazioni) ad uno equivalente con meno equazioni

(nel senso che se Rk(A) = r allora siamo sicuri di poter isolare k − r equazioni che sono dipendenti

dalle altre. Applicando il metodo di Gauss, queste corrispondono alle righe identicamente nulle nella

matrice che otteniamo alla fine).

Un modo per dare un sottospazio vettoriale di Rn è quindi quello di considerare un sistema lineareomogeneo in n coordinate e di prendere l’insieme delle soluzioni. Un altro modo è quello di considerarealcuni vettori v1, . . . , vs ∈ Rn e di considerare l’insieme di tutti i modi per sommare questi vettori tradi loro moltiplicandoli per uno scalare.

Definizione 19. Sia V uno spazio vettoriale e siano v1, . . . , vs ∈ Rn. Siano α1, . . . , αs ∈ R. Chiamiamo

combinazione lineare dei vettori v1, . . . , vs con coefficienti α1, . . . , αs il vettores∑

i=1

αivi = α1v1 + · · ·+ αsvs.

Denotiamo con il simbolo Span(v1, . . . , vs) l’insieme di tutte le combinazioni lineari dei vettori v1, . . . , vs,

cioè

Span(v1, . . . , vs) = {α1v1 + · · ·+ αsvs |α1, . . . αs ∈ R}.

Questo viene detto span lineare o semplicemente span dei vettori v1, . . . , vs.

Proposizione 6. Siano v1, . . . , vs dei vettori di uno spazio vettoriale V . Sia W = Span(v1, . . . , vs).

Allora W è un sottospazio vettoriale di V ed è il più piccolo sottospazio vettoriale di V che contiene i

vettori v1, . . . , vs.

Dimostrazione. Prendiamo due combinazioni lineari v e w dei vettori vi e mostriamo che la loro somma

è ancora una combinazione lineare. Siano v = α1v1 + · · ·+ αsvs e w = β1v1 + · · ·+ βsvs. Allora

v + w = α1v1 + · · ·+ αsvs + β1v1 + · · ·+ βsvs = (α1 + β1)v1 + · · ·+ (αs + βs)vs

che è quindi a suavolta una combinazione lineare degli stessi vettori, e quindi un elemento di Span(v1, . . . , vs).

In modo analogo se λ ∈ R e v = α1v1 + · · ·+ αsvs è una combinazione lineare si ha

λ · v = λ · (α1v1 + · · ·+ αsvs) = (λα1)v1 + · · ·+ (λαs)vs11

Page 12: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

che, come nel caso precedente è una combinazione lineare. In particolare, Span(v1, . . . , vs) è un

sottospazi vettoriale.

Mostriamo cheW = Span(v1, . . . , vs) è il più piccolo sottospazi vettoriale di V contenente tutti i vettori

vi. Sappiamo che vi ∈W per ogni i infatti possiamo scrivere vi come combinazione lineare dei vettori

v1, . . . , vs con coefficienti αj = 0 per ogni j 6= i e αi = 1. Supponiamo che W ′ sia un altro spazio

vettoriale che contiene tutti i vettori v1, . . . , vs. Vogliamo mostrare cheW ⊆W ′. Questo è vero infatti,

essendo v1, . . . , vs in W e in W ′, per definizione di sottospazio vettoriale, tutte le combinazioni lineari

dei vettori devono appartenere tanto a W quanto a W ′. Ma W è l’insieme di tutte le combinazioni

lineari dei vettori v1 . . . , vs, quindi W ⊆W ′. �

Definizione 20. Sia V uno spazio vettoriale e sia W un sottospazio vettoriale di V (eventualmente

W = V ). Se si ha

W = Span(v1, . . . , vs)

diciamo che {v1, . . . , vs} è un insieme di generatori per W o che W è generato dai vettori di

{v1, . . . , vs}. Span(W ) è una rappresentazione parametrica per W .

Osservazione 6. Attenzione: se {v1, . . . , vs} sono dei generatori per un sottospazio W , non è detto

che siano nel numero ottimale: potremmo, a priori, scartarne alcuni e mantenere il fatto che siano dei

generatori dello stesso spazio. Ad esempio, in R2,

R2 = Span

([1

3

],

[1

0

],

[2

3

])= Span

([1

3

],

[1

0

]).

Inoltre non è vero che se abbiamo scritto lo stesso sottospazi vettoriale con due sistemi di generatori,

essi devono contenere gli stessi vettori. Sempre in R2, ad esempio

R2 = Span

([1

0

],

[0

1

])= Span

([1

1

],

[1

−1

]).

Una delle tecniche essenziali da padroneggiare in questo ambito è quella di passare da una rappre-sentazione cartesiana a quella parametrica di un sottospazio vettoriale W . Le due rappresentazionisono equivalenti, nel senso che contengono le stesse informazioni su W ma una è più utile dell’altra aseconda di che tipo di uso dobbiamo fare diW . Vediamo con due esempi come passare da una scritturaall’altra.

Il passaggio da equazione cartesiana a equazioni parametriche è quello già visto per i sistemi: risolviamoil sistema scrivendo l’insieme delle soluzioni in forma parametrica e avremo in bella vista i nostrigeneratori.

Esempio 3. Sia V = R4 e consideriamo il sottospazio vettoriale con equazione cartesianax+ 2y − 3z − w = 0

x− 2y + z + 3w = 0.

Ricaviamo un sistema di generatori per questo sottospazio vettoriale.

Andiamo a risolvere i sistema, ad esempio semplificando prima la matrice con il metodo di Gauss e poi

andando a risolvere il sistema equivalente.

A =

(1 2 −3 −1

1 −2 1 3

)

(1 2 −3 −1

0 −4 4 4

)

(1 2 −3 −1

0 1 −1 −1

)= A′

12

Page 13: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Un sistema equivalente è quindix+ 2y − 3z − w = 0

y − z − w = 0

x = −2y + 3z + w

y = z + w

x = z − w

y = z + w

e si può scrivere in forma parametrica utilizzando le variabili α1 = z e α2 = w visto che possiamo

isolare una matrice triangolare superiore 2× 2 con solo 1 sulla diagonale cancellando da A le colonne

3 e 4 che corrispondono, appunto, alle variabili x3 = z e x4 = w. Abbiamo quindi che il sottospazio

vettoriale W cercato è, per definizione Ker(A) = Ker(A′) e possiamo scrivere

z − wz + w

z

w

| z, w ∈ R

=

α1

1

1

1

0

+ α2

−1

1

0

1

|α1, α2 ∈ R

= Span

1

1

1

0

,−1

1

0

1

.

Aggiungiamo anche che, siccome Rk(A) = 2, per Rouché-Capelli non potevamo ottenere un numero

inferiore di 4− 2 = 2 generatori per W = Ker(A).

Il passaggio da equazione parametrica (o dai generatori) a equazioni cartesiane è il procedimentoopposto: dobbiamo cercare di scrivere delle equazioni nelle indeterminate x1, . . . , xn la cui soluzioneparametrica è quella assegnata.

Esempio 4. Sia V = R3 e consideriamo il sottospazio vettoriale W generato dai vettori

v1 =

1

2

0

v2 =

1

−1

1

v2 =

2

1

1

e ricaviamo un sistema di equazioni cartesiane per W .

Sappiamo, per definizione di generatori, che W = Span(v1, v2, v3). Abbiamo quindi

W =

α1

1

2

0

+ α2

1

−1

1

+ α3

2

1

1

|α1, α2, α3 ∈ R

Abbiamo quindi che un vettore x = (x, y, z)T appartiene a W se e solo se x = α1v1 + α2v2 + α3v3.

Esplicitando la relazione si hax

y

z

=

α1 + α2 + 2α3

2α1 − α2 + α3

α2 + α3

x = α1 + α2 + 2α3

y = 2α1 − α2 + α3

z = α2 + α3.

Ora vogliamo risolvere il sistema usando α1, α2 e α3 come incognite e x, y, z come parametri. Possiamo

farlo utilizzando il metodo di Gauss (ricordandoci bene cosa sono incognite e parametri) o direttamente:α1 + α2 + 2α3 = x

2α1 − α2 + α3 = y

α2 + α3 = z.

α1 + α2 + 2α3 = x

−3α2 − 3α3 = y − 2x

α2 + α3 = z.

α1 + α2 + 2α3 = x

α2 + α3 = 2x−y3

3α2 + 3α3 = 3z.

α1 + α2 + 2α3 = x

α2 + α3 = 2x−y3

0 = 3z + y−2x3 .

Abbiamo trovato la nostra equazione cartesiana: quella, nel sistema, che non dipende dalla scelta dei

parametri αi. Infatti se scriviamo la matrice di quest’ultimo sistema lineare (equivalente a quello da13

Page 14: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

cui siamo partiti) abbiamo che Rk(A) = 2. Però il rango di A dipende dal fatto che 3z+ (y−2x)/3 sia

0 oppure no. Per la precisione, se 3z + (y − 2x)/3 6= 0 allora Rk(A) = 3 e il sistema non ha soluzione

mentre se 3z + (y − 2x)/3 = 0, si ha Rk(A) = 2 e il sistema ha soluzione. Se definiamo

A =(−2/3 1/3 3

)abbiamo fatto vedere che x ∈W se e solo se Ax = 0, cioè W = Ker(A).

4. Indipendenza lineare (1) e basi

Come abbiamo osservato dopo avere definito un sistema di generatori, potremmo avere dei genera-tori che possiamo eliminare senza modificare qual è lo spazio generato. Questo ha a che fare conl’indipendenza lineare dei generatori che andiamo ora a definire.

Definizione 21. Sia V uno spazio vettoriale e consideriamo una collezione S = {v1, . . . , vs} di vettoridi V . Diciamo che i vettori di S sono linearmente indipendenti se l’unica combinazione lineare

dei vettori che permette di scrivere il vettore nullo OV di V è la combinazione banale, cioè quella in

cui tutti i coefficienti sono 0. Se i vettori non sono linearmente indipendenti si dicono linearmente

dipendenti.

Osservazione 7. Operativamente, i vettori v1, . . . , vs sono linearmente indipendenti se da ogni scrit-

tura del tipo

α1v1 + · · ·+ αsv2 = 0V

segue α1 = · · · = αs = 0. Invece, i vettori v1, . . . , vs sono linearmente dipendenti se esiste almeno una

scrittura del tipo α1v1 + · · ·+ αsv2 = 0V con almeno uno dei coefficienti αi non nulli.

Esempio 5. I vettori di R2 v1 = (1, 2)T e v2 = (0, 1)T sono linearmente indipendenti. Infatti, se

supponiamo che esistano α1 e α2 tali che α1v1 + α2v2 = 0 si ha

α1

[1

2

]+ α2

[0

1

]=

[0

0

]=⇒

[α1 + α2

2α1

]=

[0

0

]

α1 + α2 = 0

2α1 = 0

α1 = 0

α2 = 0

quindi l’unica soluzione del sistema è (α1, α2)T = (0, 0)T e quindi, come anticipato, v1 e v2 sono

indipendenti.

Esempio 6. I vettori di R2 v1 = (1,−1)T , v2 = (1, 1)T e v3 = (2, 4) sono linearmente dipendenti.

Infatti, se supponiamo che esistano α1, α2 e α3 tali che α1v1 + α2v2 + α3v3 = (0, 0)T si ha

α1

[1

−1

]+ α2

[1

1

]+ α3

[2

4

]=

[0

0

]

α1 + α2 + 2α3 = 0

−α1 + α2 + 4α3 = 0.

Se andiamo a scrivere la matrice del sistema vedremo che Rk(A) = Rk(A) = 2 quindi il sistema ha∞1

soluzioni. In particolare ha una soluzione non banale e quindi i vettori v1, v2 e v3 sono dipendenti. Se

volessimo esplicitare una combinazione lineare non banale che ci permette di scrivere il vettore nullo

ci basta risolvere il sistema. Con un paio di passaggi algebrici si mostra che un sistema equivalente èα1 − α3 = 0

α2 + 3α3 = 0

14

Page 15: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

da cui deduciamo che tutte e sole le terne che ci danno combinazioni lineari che danno il vettore nullo

sono del tipo α1

α2

α3

= β

1

−3

1

|β ∈ R

.

Infatti, per ogni β ∈ R si ha βv1 + (−3β)v2 + βv3 = (0, 0)T .

Proposizione 7. Siano S = {v1, . . . , vs} dei vettori di uno spazio vettoriale V . I vettori di S sono

linearmente indipendenti ⇐⇒ almeno uno di essi si può scrivere come combinazione lineare degli altri.

Dimostrazione. =⇒) Dimostriamo che se i vettori sono linearmente dipendenti ce ne è uno che si scrive

come combinazione lineare degli altri. Esistono degli scalari α1, . . . , αs ∈ R non tutti nulli tali che

α1 ·v1 + . . . αs ·vs = OV . A meno di scambiare i vari vettori tra di loro, possiamo assumere che α1 6= 0.

Allora possiamo dividere la relazione precedente per α1

v1 +α2

α1· v2 + · · ·+ αs

α1· vs = OV =⇒ v1 = −α2

α1· v2 − · · · −

αs

α1· vs

quindi v1 ∈ Span(v2, . . . , vs).

⇐=) Mostriamo ora che vale il viceversa: supponiamo che uno dei vettori (ad esempio v1) si possa

scrivere come combinazione lineare degli altri vettori e mostriamo che questo implica la dipendenza

lineare. Se

v1 = β2 · v2 + · · ·+ βs · vs

conβi opportuni si ha allora

v1 − β2 · v2 − · · · − βs · vs = 0V

che è una combinazione lineare dei vettori v1, . . . , vs che permette discrivere il vettore nullo. Siccome

non tutti i coefficienti sono nulli (il coefficiente di v1 è α1 = 1) questo ci dice che i vettori sono

dipendenti. �

Il concetto di base unisce tra loro il concetto di generatori e di indipendenza lineare.

Definizione 22. Sia W un sottospazio vettoriale di uno spazio vettoriale V . Una base di W è una

sequenza ordinata B = {v1, . . . , vs} di vettori di V tali che

• I vettori di B generano W : W = Span(v1, . . . , vs);

• I vettori di B sono linearmente indipendenti.

Definizione 23. Sia V = Rn. Sia ei il vettore di Rn che ha tuttele coordinate uguali a zero e la

coordinata alla posizione i uguale a 1. Allora B = {e1, . . . , en} è detta base canonica di Rn ed è una

base di Rn.

Teorema 2 (della base). Sia V uno spazio vettoriale che è generato da un numero finito di vettori (ad

esempio, V = Rn o un suo qualsiasi sottospazio) e si consideri un sottospazio vettoriale W di V (con

eventualmente V = W ). Allora

• Esiste una base per W ;

• Se B e B′ sono due basi di W , allora hanno lo stesso numero di elementi.15

Page 16: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Questo implica,in particolare, che il numero di elementi di una qualsiasi base è un quantificatoreimportante nello studio di un sottospazi vettoriale.

Definizione 24. SiaW un sottospazio vettoriale. La sua dimensione è il numero Dim(W ) che è pari

al numero di elementi di una sua qualsiasi basi.

Esempio 7. Abbiamo visto che Rn ha una base (la base canonica) che ha n elementi. Quindi

Dim(Rn) = n.

Quello che segue è l’algoritmo di estrazione. Si tratta di un algoritmo che prende come input un certonumero di vettori che generano uno spazio W , ne isola alcuni in modo che quelli scelti generino ancoraW e, in più siano indipendenti: abbiamo estratto una base di W .

Algoritmo 2 (Algoritmo di estrazione). Sia V uno spazio vettoriale e consideriamo i vettori G =

{v1, . . . , vs}. Sia W lo spazio vettoriale generato dai vettori in G. Ad ogni step dell’algoritmo control-

leremo se uno dei vettori vi soddisfa una certa condizione. In caso affermativo aggiungeremo questo

vettore a quelli che saranno l’output dell’algoritmo: un sottoinsieme B di G che risulterà essere una

base di W .

Passo 1. Controlliamo che v1 6= 0V . Altrimenti rimuoviamo v1 da G (e tutti i vettori tali che vi = OV )

prima continuare. Da ora in avanti supporremo che vi 6= 0V per ogni i. Definiamo B = {v1}.

Passo 2. Considero il vettore v2 e controllo se v2 appartiene allo span dei vettori che, al momento,

costituiscono B, cioè v1. Se si ha v2 ∈ Span(B) allora scarto v2. Altrimenti ridefinisco B aggiungendo

il vettore v2 a B. Alla fine di questo step, quindi avremo B = {v1} se v2 ∈ Span(v1) e B = {v1, v2} incaso contrario.

Passo 3. Considero il vettore v3 e controllo se v3 appartiene allo span dei vettori che, al momento,

costituiscono B. In caso affermativo scarto v3. Altrimenti ridefinisco B andando ad aggiungere a B il

vettore v3.

Procedo così per ogni vettore fino all’ultimo in G: al passo k controllo se vk appartiene allo span dei

vettori che, al momento costituiscono B. In caso negativo, ridefinisco B in modo da aggiungere a Bil vettore vk. In caso positivo scarto vk. E procedo al controllo per i vettori successivi. L’algoritmo

termina dopo che ho scartato o tenuto gli s vettori di G. Alla fine l’insieme B è una base di W .

Al passaggio k dell’algoritmo stiamo controllando se il vettore vk appartiene allo span dei vettoriprecedentemente tenuti. Questo è equivalente a controllare se B ∪ {vk} sono vettori indipendenti(perchè sappiamo che i vettori di B sono indipendenti per costruzione). Quindi aggiungiamo vk aquelli da tenere se e solo se vk è indipendente da quelli tenuti fino a quel punto.

Esempio 8. Si considerino i vettori

v1 =

[1

2

]v2 =

[2

4

]v3 =

[−1

−2

]v4 =

[1

1

]v5 =

[1

0

]e sia W lo spazio vettoriale generato da G = {v1, . . . , v5}. Si ricavi una base di W contenuta in G.

Incominciamo con l’algoritmo di estrazione: al primo passo poniamo B = {v1} visto che v1 6= (0, 0)T .

Passo 2: controlliamo se v2 ∈ Span(B) = Span(v1). Questo è vero infatti v2 = 2v1. Di conseguenza

scartiamo v2 e non modifichiamo B. Al momento abbiamo B = {v1}.16

Page 17: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Passo 3: controlliamo se v3 ∈ Span(B) = Span(v1). Anche in questo caso è vero: v3 = −v1. Di

conseguenza scartiamo v3 e non modifichiamo B. Al momento abbiamo ancora B = {v1}.

Passo 4: controlliamo se v4 ∈ Span(B) = Span(v1). Questa volta non troviamo nessuna combinazione

lineare dei vettori in B che ci danno il vettore v4. Di conseguenza teniamo v4: andiamo a ridefinire

B in modo che comprenda tutti i vettori che conteneva prima (solo v1) più il vettore v4. Al momento

abbiamo quindi B = {v1, v4}.

Passo 5: controlliamo se v5 ∈ Span(B) = Span(v1, v4). In questo caso riusciamo a scrivere v5 come

combinazione lineare di v1 e v4: si ha infatti v5 = −v1 + 2v4. Di conseguenza scartiamo v5 e non

modifichiamo B. Alla fine di questo passaggio abbiamo B = {v1, v4}.

Siccome abbiamo analizzato tutti i vettori l’algoritmo termina e B = {v1, v4} è la base cercata.

Ecco alcune conseguenze della definizione di base e di indipendenza lineare che sono spesso utili daconsiderare.

Proposizione 8. Siano S = {v1, . . . , vs} dei vettori indipendenti. Allora ogni sottoinsieme non vuoto

di S è un insieme di vettori indipendenti.

Proposizione 9. Siano W1 e W2 due sottospazi vettoriali di Rn e supponiamo che W1 ⊆W2. Allora

• Dim(W1) ≤ Dim(W2);

• Se Dim(W1) = Dim(W2) allora W1 = W2.

Corollario 2. Sia W un sottospazio vettoriale di dimensione n. Siano v1, . . . , vn n vettori di W .

Allora

• Se v1, . . . , vn sono linearmente indipendenti allora sono anche dei generatori di W e costitui-

scono una base di W ;

• Se v1, . . . , vn sono dei generatori di W allora sono anche indipendenti e costituiscono una base

di W .

In particolare, n vettori indipendenti di Rn sono una base di Rn.

Quella che segue è la definizione che solitamente si usa per il rango di una matrice.

Proposizione 10. Sia A ∈ Matk×n. Allora

Rk(A) = Dim(Span(A1, . . . , An)).

Si noti che lo span delle colonne di A è un sottospazio vettoriale di Rk in quanto le colonne di A sono

n vettori di Rk.

Corollario 3. Sia A ∈ Matk×n una matrice con Rk(A) = r. Sappiamo che Ker(A) è un sottospazio

vettoriale di Rn e che ha un sistema di equazioni cartesiane con k equazioni (cioè AX = 0Rk). Allora

• Dim(Ker(A))=n-r;

• Ker(A) ha un sistema di equazioni cartesiane con r equazioni e r è il minimo possibile.17

Page 18: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

5. Determinanti e indipendenza lineare (2)

Ritorniamo velocemente al calcolo matriciale per interodurre il determinante, un concetto essenzialeper moltissime applicazioni. Non daremo la definizione generale di determinante perchè difficile dausare nei conti: enunceremo delle proprietà del determinante che ci permetteranno di calcolarlo.

Sia A ∈ Matn×n(R). Indicheremo con Aij la sottomatrice di A ottenuta cancellando la riga i e lacolonna j. Si ha quindi Aij ∈ Mat(n−1)×(n−1)(R).

Definizione 25. Sia A una matrice quadrata con n righe e colonne. Il determinante di A è un

numero reale che si indica con il simbolo Det(A) e soddisfa le seguenti proprietà:

• Se n = 1, cioè se A = (a), si ha Det(A) = a;

• Se n = 2, cioè se A =

(a11 a12

a21 a22

), si ha Det(A) = a11a22 − a12a21;

• Per ogni i vale lo sviluppo di Laplace lungo la riga i, cioè la relazione

Det(A) =

n∑j=1

(−1)i+jaij Det(Aij)

• Per ogni j vale lo sviluppo di Laplace lungo la colonna j, cioè la relazione

Det(A) =n∑

i=1

(−1)i+jaij Det(Aij)

Osservazione 8. Si noti che, tramite lo sviluppo di Laplace, possiamo calcolare il determinante di

una matrice n×n se conosciamo il determinante di n matrici quadrate di dimensione (n−1)× (n−1).

Questa osservazione, assieme alla formula chiusa per il determinante delle matrici quadrata 1 × 1 e

2× 2 ci permette di calcolare tutti i determinanti in maniera ricorsiva.

Osservazione 9. Si noti che nello sviluppo di Laplace dobbiamo andare a moltiplicare il determinante

di Aij per aij . Quindi, se scegliamo una riga o una colonna che ha tanti zeri per applicare lo sviluppo

di Laplace, ci semplifichiamo molto il conto.

Esempio 9. Si calcoli il determinante della matrice

A =

4 0 −3 1

−1 0 1 1

−1 2 −2 1

1 0 0 1

Applichiamo lo sviluppo di Laplace alla seconda colonna (j = 2) per semplificarci i conti:

Det(A) =

4∑i=1

(−1)i+2ai2 Det(Ai2) = −0 Det(A12) + 0 Det(A22) − 2 Det(A32) + 0 Det(A42)

La matrice A32 è

A32 = M =

4 −3 1

−1 1 1

1 0 1

18

Page 19: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

quindi possiamo usare, ad esempio, lo sviluppo di Laplace lungo la terza riga (i = 3) per scrivere

Det(A32) = Det(M) =3∑

j=1

(−1)3+ja3j Det(M3j) = 1 ·Det(M31)− 0 det(M32) + 1 ·Det(M33) =

= Det

(−3 1

1 1

)+ Det

(4 −3

−1 1

)= (−3− 1) + (4− 3) = −4 + 1 = −3

Abbiamo quindi, mettendo insieme le due relazioni ricavate

Det(A) = −2 Det(A32) = −2(−3) = 6.

Proposizione 11. Sia A una matrice triangolare (superiore o inferiore) di dimensione n× n. Allora

Det(A) = a11 · a22 · · · · · ann

dove a11, a22, . . . , ann sono gli elementi sulla diagonale di A.

Osservazione 10. Attenzione! Il determinante non è lineare! Nel senso che se A e B sono due matrici

quadrate della stessa dimensione, in genere,

Det(A+B) 6= Det(A) + Det(B).

Teorema 3 (Binét). Siano A,B ∈ Matn×n. Allora Det(A ·B) = Det(A) Det(B).

Altre proprietà utili per il calcolo del determinante sono le seguenti

Proposizione 12. Sia A ∈ Matn×n(R). Allora

(1) Det(A) = Det(AT );

(2) Se B è una matrice ottenuta scambiando in A esattamente due righe o due colonne, allora

Det(B) = −Det(A);

(3) Se sommo a una riga di A una combinazione lineare delle altre righe di A, il determinante non

cambia;

(4) Se sommo a una colonna di A una combinazione lineare delle altre colonne di A, il determinante

non cambia;

(5) Se A ha due righe (o colonne) linearmente dipendenti allora Det(A) = 0.

Alla luce dei queste proprietà si possono dedurre i seguenti risultati che sono utili per il calcolo (o lastima) del rango di una matrice qualsiasi.

Proposizione 13. Sia A una matrice qualsiasi. Supponiamo che A abbia una sottomatrice B quadrata

con Det(B) 6= 0. Allora le colonne di A che compongono B sono linearmente indipendenti.

Corollario 4. Sia A una matrice qualsiasi. Allora

• Se A ha una sottomatrice quadrata B ∈ Matm×m(R) con Det(B) 6= 0 allora Rk(A) ≥ m;

• Se B ∈ Matm×m(R) è la più grande sottomatrice quadrata di A con Det(B) 6= 0 allora Rk(A) =

m;

Un’ultima applicazione dei determinanti è il teorema di Cramer che permette discrivere esplicitamentelasoluzione di particolari sistemi lineari.

Teorema 4. Sia AX = B un sistema di n equazioni e n incognite con Det(A) 6= 0. Allora il sistema

ha una sola soluzione1 X = (x1, . . . , xn)T . Possiamo calcolare le coordinate di X come segue. Per ogni

1Questo è conseguenza del Teorema di Rouché-Capelli e del fatto che Det(A) 6= 0 implica Rk(A) = n.19

Page 20: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

j si consideri il determinante di della matrice ottenuta sostituendo alla j-esima colonna di A il vettore

B dei termini noti. Allora xj = dj/Det(A).

6. Applicazioni lineari

Ultimo argomento della seconda parte sono le applicazioni lineari. Esse sono particolari tipi di fun-zioni tra spazi vettoriali e moltissime operazioni in vari ambiti dell’analisi possono essere lette comeoperazioni lineari (derivazioni, limiti, . . . ).

Definizione 26. Siano V e W due spazi vettoriali. Una funzione f : V → W è detta applicazione

lineare se, per ogni v1, v2 ∈ V e λ ∈ R si ha

f(v1 + v2) = f(v1) + f(v2) e f(λ · v1) = λ · f(v1).

Equivalentemente, f è lineare se per ogni v1, v2 ∈ V e λ1, λ2 ∈ R si ha

f(λ1 · v1 + λ2 · v2) = λ1 · f(v1) + λ2 · f(v2).

Si dice che f preserva la somma e il prodotto per uno scalare.

Esempio 10. Si considerino le funzioni

R2 f // R3

(a, b)T � // (2a+ b, a,−b)TR3 g // R2

(a, b, c)T � // (b− a+ 1, 3b+ c)T .

Allora f è un’applicazione lineare. Ad esempio vediamo che f preserva il prodotto per scalare:

f

(λ ·

[a

b

])= f

([λa

λb

])=

2(λa) + (λb)

(λa)

−(λb)

= λ ·

2a+ b

a

−b

= λ · f

([a

b

])

Invece g non è lineare. Vediamo, ad esempio, che non preserva la somma.

g

1

0

0

=

[0

0

]g

0

0

1

=

[1

1

]g

1

0

1

=

[0

1

]6=

[0

0

]+

[0

1

]

Osservazione 11. Supponiamo di dare una funzione f : Rn → Rk, come nell’esempio precedente,

esplitiando quali devono essere i coefficienti del vettore di arrivo in funzione dei coefficienti del vettore

di partenza. Abbiamo che f è lineare se e solo se i coefficienti del vettore di arrivo sono funzioni

polinomiali di primo grado con termine noto nullo nei coefficienti del polinomio di partenza. Questo

sarà evidente tra poco quando rappresenteremo le applicazioni lineari tramite matrici.

Un modo molto comodo per definire un’applicazione lineare è quello di farlo tramite matrici comesegue.

Definizione 27. Sia A ∈ Matk×n(R). La funzione LA : Rn → Rk definita dalla relazione LA(v) = A ·vè detta applicazione lineare associata alla matrice A e si tratta di un’applicazione lineare2

Definizione 28. Sia f : Rn → Rk un’applicazione lineare. Se A ∈ Matk×n(R) è tale che f = LA si

dice che f è rappresentata dalla matrice A.

2Questo è conseguenza delle proprietà distributive del prodotto riga per colonna.20

Page 21: PER L’ESAME DI MATEMATICA DEL CORSO DI LAUREA IN ...fcubo.altervista.org/wp-content/uploads/2019/01/Note_Algebra_lineare_v1.pdf · NOTE DI ALGEBRA LINEARE PER L’ESAME DI MATEMATICA

Proposizione 14. Sia f : Rn → Rk un’applicazione lineare. Allora esiste ed è unica una matrice A

che rappresenta f . Inoltre, la matrice A si ottiene mettendo per colonna, ordinatamente, le immagini,

tramite f , degli elementi della base canonica di Rn: se f(e1) = v1 ∈ Rk allora

A = (v1| · · · |vn).

Dimostrazione. Supponiamo che f = LA e mostriamo che A deve essere fatta proprio come richiesto

nella proposizione. Chiamiamo vi le immagini degli elementi della base canonica di Rn, cioè vi è un

vettore di Rk tale che f(ei) = vi dove ei è l’i-esimo elemento della base canonica di Rn. Siccome stiamo

assumento che f = LA avremo anche LA(ei) = f(ei) = vi. Ma LA(ei) = A · ei e questo prodotto riga

per colonna equivale all’i-esima colonna di A, cioè Ai. Abbiamo mostrato quindi che Ai = vi e, di

conseguenza, che A = (v1| · · · |vn).

Mostriamo ora che f ha matrice rappresentativa. Definiamo A = (v1| · · · |vn) con vi = f(ei) cioè in

modo che Aei = vi. A è una matrice delle dimensioni giuste per rappresentare f . Dobbiamo fare vedere

che f e LA coincidono come funzioni. Sia quindi v un qualsiasi vettore di Rn. Vogliamo mostrare che

f(v) = LA(v). Prima di tutto, scriviamo v usando la base canonica di Rn: esistono (unici) α1, . . . , αn

tali che

v = α1e1 + · · ·+ αnen.

Allora, per la linearità di f e distributività del prodotto per scalare, si ha

f(v) = f(α1e1 + · · ·+ αnen) = α1f(e1) + · · ·+ αnf(en) = α1v1 + · · ·+ αnvn

LA(v) = A · (v) = A · (α1e1 + · · ·+ αnen) = α1(Ae1) + · · ·+ αn(Aen) = α1v1 + · · ·+ αnvn

Quindi LA(v) = f(v). �

Definizione 29. Sia f : V →W un’applicazione lineare. Il nucleo o Ker di f è l’insieme

Ker(f) = {v ∈ V | f(v) = 0W }.

L’immagine di f è l’insieme

Im(f) = {w ∈W | ∃v ∈ V con f(v) = w}.

Osservazione 12. Se f : V → W un’applicazione lineare. Si noti che Ker(f) è un sottoinsieme del

dominio mentre Im(f) è un sottoinsieme del codominio di f . Inoltre non è per niente difficile mostrare

che sono entrambi sottospazi vettoriali (rispettivamente di V e di W ).

Proposizione 15. Sia f : Rn → Rk un’applicazione lineare e supponiamo che sia rappresentata da A:

f = LA. Allora:

• Ker(f) = Ker(A);

• Im(f) = Span(A1| · · · |An);

Teorema 5. (Nullità più rango) Sia f : V →W un’applicazione lineare e assumiamo che Dim(V ) = n.

Allora

Dim(V ) = Dim(Ker(f)) + Dim(Im(f)).

21