51
Feuille d’exercices n o 15 : corrigés AB = 11 5 17 9 BA = 5 7 3 7 . A A 2 A M 2,1 (R) B Y = y 1 y 2 M 2,1 (R) AX = Y X M 2,1 (R) X = CY C A C A 1 = 3 2 2 1 B 1 = 1 14 1 3 5 1 . ABX = Y BAX = Y X (AB) 1 = 1 14 9 5 17 11 (BA) 1 = 1 14 7 7 3 5 . AB(B 1 A 1 )= AA 1 = I 2 . AB B 1 A 1 BA A 2 = 5 8 8 13 B 2 = 14 0 0 14 . (I 2 ,A) A (I 2 ,A,A 2 ) A 2 Vect(I 2 ,A)

Corrections Feuille 15 - Free

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Corrections Feuille 15 - Free

Feuille d’exercices no 15 : corrigés

Exercice 1

1. Un simple calcul matriciel donne :

AB =

(

−11 5−17 9

)

et BA =

(

5 7−3 −7

)

.

2. Il est facile de voir que les deux colonnes de A ne sont pas colinéaires : le rang de Avaut 2, donc l’application linéaire associée à A est surjective de M2,1(R) vers le mêmeespace. Il s’agit d’un isomorphisme.De même pour la matrice B.Pour calculer l’inverse, ce qui précède ne sert à rien. Le plus efficace est de fixer une

matrice Y =

(

y1y2

)

dans M2,1(R) et de résoudre l’équation matricielle AX = Y ,

d’inconnue X ∈ M2,1(R). Après résolution du système linéaire, on ne trouve qu’uneseule solution sous la forme X = CY avec C une matrice carrée et donc directement Aest inversible d’inverse C.Après calculs, on trouve :

A−1 =

(

−3 22 −1

)

et B−1 =1

14

(

1 −35 −1

)

.

3. L’esprit de la question revient à calculer les résolutions des systèmes ABX = Y etBAX = Y , d’inconnue X . On obtient une fois les résolutions effectuées :

(AB)−1 =1

14

(

−9 5−17 11

)

et (BA)−1 =1

14

(

7 7−3 −5

)

.

4. On remarque que :AB(B−1A−1) = AA−1 = I2.

Cela suffit à montrer que AB est inversible d’inverse B−1A−1. De même pour BA. Laquestion nous suggère d’effectuer la vérification par les produits matriciels, ce qui nepose pas franchement de problème.

5. On observe que :

A2 =

(

5 88 13

)

et B2 =

(

−14 00 −14

)

.

La famille (I2, A) est libre car A n’est pas une homothétie. Montrer que la famille(I2, A, A

2) est liée est équivalent à montrer que A2 appartient à Vect(I2, A).

1

Page 2: Corrections Feuille 15 - Free

En résolvant le système de quatre équations (les quatre coefficients des matrices) à deuxinconnues a et b pour

A2 = a I2 + b A,

on obtient :A2 = 4A+ I2.

Le résultat est plus facile pour la matrice B car on remarque tout de suite que :

B2 = −14I2.Les deux familles sont bien liées.Le polynôme P (X) = X2 − 4X − 1 est annulateur de la matrice A et P (0) 6= 0. Demême, le polynôme Q(X) = X2 + 14 est annulateur de la matrice B et Q(0) 6= 0.Ceci suffit à montrer que les matrices A et B sont inversibles. On redémontre ce résultat.Soit R ∈Mn(C) pour laquelle il existe P (X) ∈ C[X ] annulant la matrice R et tel queP (0) 6= 0.Le polynôme P est de la forme :

P (X) = P (0) +XQ(X),

car le polynôme P −P (0) admet bien évidemment 0 comme racine et donc est multiplede X .On remarque alors que comme P (R) = 0, alors :

0 = P (0) In +RQ(R),

ou encore :

R×(

−Q(R)P (0)

)

= In.

La matrice R est bien inversible, d’inverse la matrice entre parenthèses.6. On remarque que pour tout n ∈ N, en multipliant la relation A2 = 4A+ I2 par An, on

obtient :An+2 = 4An+1 + An.

On détaille par exemple le calcul du coefficient ligne 1 colonne 1 dans les matrices An.Ce coefficient que l’on note un vérifie le problème suivant :

u0 = 1u1 = 1∀n ∈ N, un+2 = 4un+1 + un

.

La méthode est la suivante : poser P (X) = X2 − 4X − 1 ; trouver les deux racines deP , ici deux racines réelles λ et µ ; obtenir un sous la forme :

un = aλn + bµn,

et calculer a et b en résolvant le système de deux équations u0 = 1 et u1 = 1 à deuxinconnues a et b. On obtient alors un explicitement.On fait cela avec les trois autres coefficients de An.On réitère avec les coefficients de Bn, cette fois-ci avec le polynôme :

P (X) = X2 + 14 = (X − i√14)(X + i

√14).

2

Page 3: Corrections Feuille 15 - Free

Exercice 2

1. On remarque que la somme par ligne des coefficients est nulle : ainsi C1 +C2 +C3 = 0

et le vecteur

111

est dans le noyau de A.

D’autre part, on remarque que les deux premières colonnes de A consituent une famillelibre : il s’agit d’une famille libre à deux vecteurs dans Im(A).Par le théorème du rang, dim(Ker(A)) + dim(Im(A)) = 3 [dimension de l’espace dedépart M3,1(R)] et comme dim(Ker(A)) > 1 et Rg(A) > 2, alors dim(Ker(A)) = 1 de

base

111

et dim(Im(A)) = 2 de base

2 −1−1 2−1 −1

.

Il suffit par la formule de Grassmman de montrer que la somme Ker(A) + Im(A) estdirecte.Soit X dans l’intersection. Alors X est de la forme :

X = a

111

= b

2−1−1

+ c

−12−1

.

Même si on est confiné, on peut quand même se faire plaisir en faisant un peu de dualité.En notant (e1, e2, e3) la base canonique de M3,1(R), alors en appliquant la forme linéairee∗1 + e∗2 + e∗3 à X , on obtient :

3a = 0.

Ainsi, X = 0 et on a tout.

2. Tout a déjà été fait.

3. On obtient :

P =

1 2 −11 −1 21 −1 −1

.

En résolvant l’équation matricielle PX = Y , d’inconnue X ∈M3,1(R), on trouve :

P−1 =1

3

1 1 11 0 −10 1 −1

.

4. Le moins coûteux est d’effectuer le produit matriciel. On obtient :

P−1AP =

0 0 00 3 00 0 3

.

L’autre manière revient à interpréter la matrice P−1AP comme la matrice représentantl’endomorphisme A selon la base B.

3

Page 4: Corrections Feuille 15 - Free

En notant B = (u, v, w) cette base trouvée en question 2. on remarque que :

A(u) = 0, A(v) = 3v et A(w) = 3w.

On obtient alors immédiatement la même matrice diagonale.Une remarque : on a le même rang et la même trace entre A et P−1AP ...

5. Le plus simple pour calculer An est d’écrire D = P−1AP , puis :

∀n ∈ N, An = (PDP−1)n = PDnP−1 = P

0 0 00 3n 00 0 3n

P−1.

On peut effectuer le produit matriciel, mais la question suggère de développer seulementla méthode.On vient de calculer les puissances d’une matrice en la diagonalisant.

Exercice 3

1. La matrice :

B =

0 1 00 0 10 0 0

est nilpotente car :

B2 =

0 0 10 0 00 0 0

et pour tout n > 3, Bn = 0.

2. Soit n ∈ N. Lorsque n = 0 ou n = 1, on obtient facilement A0 = I3 ou A1 = A.On se place dans le cas où l’entier n est supérieur ou égal à 2.On en déduit puisque A = B + 2I3 et que les deux matrices B et 2I3 commutent, enutilisant le binôme de Newton :

An = (B + 2I3)n

=n∑

k=0

(

nk

)

2n−k · Bk

=2∑

k=0

(

nk

)

2n−k · Bk

= 2n · I3 + n 2n−1 · B +n(n− 1)

22n−2 ·B2.

On obtient alors la matrice An qui est triangulaire supérieure et dont les coefficientssitués sur les diagonales descendantes sont égaux.

Exercice 4

4

Page 5: Corrections Feuille 15 - Free

1. On remarque qu’en posant la matrice :

N =

0 1 0 · · · 0

0 0 1. . . ...

... . . . . . . . . . 00 · · · 0 0 10 · · · 0 0 0

,

en notant (e1, · · · , ed) la base canonique de Md,1(C), alors :

N(e1) = 0 et ∀k > 2, N(ek) = ek−1.

On peut alors facilement calculer N i(ek) pour tous entiers naturels i et k :

N i(ek) =

{

0, si i > kek−i, sinon

.

La matrice N i est une matrice remplie de 0 où la diagonale de 1 remonte vers le coinhaut-droit.La matrice N répond en tout cas à la question.

2. On remarque que Nd = 0. On voit que l’ensemble C[N ] l’espace des polynômes en lamatrice N est un espace de base (Id, N, · · · , Nd−1).On voit alors que pour tout n ∈ N, comme A ∈ C[N ], alors An ∈ C[N ] et on peutposer :

An =d−1∑

k=0

λk,n ·Nk,

avec λk,n un complexe qui on le verra est en fait un entier naturel.En utilisant :

An+1 = AnA =

(

d−1∑

k=0

λk,n ·Nk

)(

d−1∑

ℓ=0

N ℓ

)

en développant le produit, on obtient que la coordonnée de An+1 selon le vecteur Nk

est :

λk,n+1 =

k∑

i=0

λi,n.

Par récurrence rapide sur l’entier n (l’hypothèse de récurrence englobe tous les entiersk), tous les λk,n sont dans N.De proche en proche, on obtient les valeurs des λk,n.

3. On remarque que :

(Id −N)

d∑

k=0

Nk =

d∑

k=0

Nk −d+1∑

k=1

Nk = Id −Nd+1 = Id.

La matrice A est inversible d’inverse Id −N .

5

Page 6: Corrections Feuille 15 - Free

Exercice 5

On remarque qu’en posant B =

0 1 00 0 13 −3 0

et C =

0 0 13 −3 00 3 −3

, alors la matrice

dont les coefficients sont en fonction de a, b et c dans l’ensemble A est exactement la matrice :

aI3 + bB + cC.

L’ensemble A est donc clairement l’espace vectoriel engendré par les matrices I3, B et C. Ilest clair que la famille (I3, B, C) est une famille libre : l’espace vectoriel A est de dimension3, de base (I3, B, C).Ensuite, on remarque que :

B2 = C et B3 = 3

1 −1 00 1 −1−3 3 1

= 3(I3 − B).

On va montrer que :A = C[B].

En effet, les éléments de A sont les matrices aI3 + bB + cC = P (B), avec le polynôme :

P (X) = a+ bX + cX2,

d’où l’inclusion « ⊂ ».Réciproquement, soit M une martrice dans C[B]. Il existe un polynôme Q ∈ C[X ] tel que :

M = Q(B).

Le polynôme χ(X) = X3 + 3X − 3 est annulateur de la matrice B. On pose la divisioneuclidienne de Q(X) par χ(X), ce qui donne :

Q = S χ+R, avec deg(R) < deg(χ) = 3.

En évaluant cette égalité entre polynômes en la matrice B, comme χ(B) = 0, alors :

M = Q(B) = R(B)

et cette matrice est dans Vect(I3, B, B2) puisque le polynôme R(X) est de degré inférieur ouégal à 2.Il apparaît alors immédiatement que l’espace C[B] est une sous-algèbre commutative deM3(C), sous-algèbre de dimension trois.

Exercice 6

1. L’application :

f :

Rn[X ] −→ Rn[X ]P (X) 7−→ P (X + 1)

6

Page 7: Corrections Feuille 15 - Free

est un isomorphisme d’isomorphisme réciproque :

f−1 :

Rn[X ] −→ Rn[X ]P (X) 7−→ P (X − 1)

.

D’autre part, en notant Bc la base canonique de Rn[X ], alors pour tout j entre 0 et n,par le binôme de Newton applicable dans cet anneau commutatif de polynômes :

f(Xj) =

j∑

i=0

(

ji

)

X i.

En notant B la matrice de f selon la base canonique, si i et j sont deux entiers entre1 et n + 1, alors le coefficient Bi,j correspond à la coordonnée du vecteur f(Xj−1)selon le vecteur X i−1 de la base canonique, ce décalage d’indice s’expliquant par le faitque les colonnes commencent à l’indice 1 alors que les vecteurs de la base canoniquecommencent à l’exposant 0.Par conséquent,

A = M atBc(f).

2. La matrice A est triangulaire supérieure à diagonale comportant uniquement des coef-ficients non nuls : elle est inversible car de rang (n+1). Ou alors, comme f est déjà unisomorphisme, alors A est inversible directement.De plus, la matrice A−1 est exactement la matrice représentant f−1 selon la base cano-nique. En notant C = A−1, si i et j sont deux entiers entre 1 et n+1, alors le coefficientCi,j est la coordonnée de f−1(Xj−1) selon le vecteur X i−1 de la base canonique.Toujours par le binôme, ce coefficient vaut : :

Ci,j =

(

j − 1i− 1

)

(−1)j−i.

On obtient ainsi les coefficients de A−1.

Exercice 7• Lorsque n = 1, la matrice est A1 = (sin 2) qui est de rang 1 car sin 2 est non nul.• On se place maintenant dans le cas n > 2.La première colonne de An est non nulle : son rang est au moins égal à 1.La deuxième colonne de An n’est pas colinéaire à la première colonne sinon, il existerait λ ∈ R

tel que C2 = λ · C1.Dans ce cas, en ne conservant que les deux premiers coefficients, on aurait :

(

sin 3sin 4

)

= λ

(

sin 2sin 3

)

,

et donc :sin 3× sin 3− sin 2× sin 4 = λ sin 2× sin 3− sin 2× (λ sin 3) = 0,

ce qui est faux en le vérifiant par exemple avec :

sin 2× sin 4 = sin(3− 1) sin(3 + 1) = (sin2 3 cos2 1− sin2 1 cos2 3) < sin2 3.

7

Page 8: Corrections Feuille 15 - Free

Le rang de An vaut au moins 2.Enfin, par les formules trigonométriques, on remarque que si l’entier j est fixé, alors pour toutentier i, on a :

sin(i+ j) = sin i · cos j + sin j · cos i.D’où l’idée de poser les deux matrices colonnes :

C ′1 =

sin 1sin 2...

sin n

et C ′2 =

cos 1cos 2...

cosn

.

Il apparaît que la j eme colonne de la matrice An est exactement la colonne :

Cj = cos j · C ′1 + sin j · C ′

2.

Par conséquent, en posant F = Vect(C ′1, C

′2), alors chaque colonne est dans F , donc l’espace

vectoriel engendré par ces colonnes est inclus dans F et cet espace vectoriel engendré n’estautre que Im(An) : Rg(An) 6 2.Conclusion, lorsque n > 2, Rg(An) = 2.

Exercice 8

1. On calcule les matrices A2 et A3 et on observe que le polynôme :

χ(X) = X3 − 6X2 − 6X + 26

est annulateur de la matrice A.Autrement dit, tous calculs faits, on a :

A3 = 6A2 + 6A− 26I3.

Comme A2 =

31 12 −320 14 −25 2 3

, la matrice A2 n’est pas dans l’espace engendré par I3

et A, car sinon, on aurait :A2 = a I3 + b A,

et donc en prenant par exemple le coefficient ligne 3 et colonne 1, on aurait 5 =a× 0 + b× 0.On va alors montrer que la famille (I3, A, A2) est une base de C[A].La famille est déjà libre.Si M ∈ C[A], on écrit :

M = Q(A),

pour un certain polynôme Q ∈ C[X ]. On effectue [une fois de plus, on l’a déjà fait dansles exercices précédents] la division euclidienne de Q par χ(X) = X3− 6X2− 6X +26,ce qui donne une écriture de la forme :

Q = S χ+R, avec deg(R) < 3.

8

Page 9: Corrections Feuille 15 - Free

En évaluant ceci en la matrice A, on obtient :

M = Q(A) = R(A) ∈ Vect(I3, A, A2),

puisque le polynôme R est de degré inférieur ou égal à 2.2. Comme A3 − 6A2 − 6A = −26I3, alors :

A

(

A2 − 6A− 6I3−26

)

= I3,

ce qui montre que A est inversible et que A−1 est la matrice entre parenthèses.Tous calculs faits, on obtient :

A−1 =1

26

−1 6 310 −8 −4−5 4 15

.

3. Soit λ un complexe.La matrice A− λ I3 est la matrice :

B =

4− λ 3 05 −λ −10 1 2− λ

.

Il y a plusieurs façons de faire. On peut résoudre le système BX = 0, d’inconnue X dansM3,1(C) pour voir si le système est de Cramer, auquel cas la matrice B sera injectivedonc bijective et inversible car B est une matrice carrée.On peut aussi calculer le rang de B. Il est facile de voir que les deux premières colonnesde B ne sont jamais colinéaires avec les coefficients en ligne 3.On cherche à voir que la troisième colonne est combinaison linéaire des deux premières.Le système linéaire associé à C3 = a C1 + b C2 est de matrice augmentée :

4− λ 3 05 −λ −10 1 2− λ

⇐⇒

5 −λ −14− λ 3 00 1 2− λ

[L1 ←→ L2]

⇐⇒

5 −λ −10 15+4λ−λ2

54−λ5

0 1 2− λ

[L2 ←− L2 −4− λ5

L1]

⇐⇒

5 −λ −10 1 2− λ0 15 + 4λ− λ2 4− λ

[L2 ←→ L3]

⇐⇒

5 −λ −10 1 2− λ0 0 −λ3 + 6λ2 + 6λ− 26

[L3 ←− L3 − (15 + 4λ− λ2)L

Ce système est compatible si et seulement si :

λ3 − 6λ2 − 6λ+ 26 = 0.

9

Page 10: Corrections Feuille 15 - Free

Comme par hasard, on retrouve notre polynôme χ(X) de tout à l’heure qui annulaitnotre matrice A ... (résultat prévisible mais c’est du programme de deuxième annéeplutôt).On cherche les racines du polynôme χ(X).Il n’y a pas de racines évidentes.On cherche comme d’habitude les racines rationnelles sous la forme

a

b, avec a et b deux

entiers premiers entre eux et b ∈ N∗. On obtient que b divise a3 puis b = 1 et que adivise 26b3 donc a divise 26 et donc a ∈ {±1,±2,±13,±26}.On observe finalement qu’aucune de ces racines ne convient.En désespoir de cause, on peut déterminer si les racines sont réelles ou non.La fonction f : t 7−→ t3 − 6t2 − 6t+ 26 est continue sur R. On évalue la fonction f endes valeurs entières.Voici les valeurs numérique utiles :

f(−3) = −37 < 0 < f(−2) = 6,

f(1) = 15 > 0 > f(2) = −2,f(6) = −10 < 0 < f(7) = 33.

Par le TVI, la fonction f s’annule au moins trois fois – et comme c’est une fonctionpolynomiale de degré 3, elle ne peut s’annuler plus – en trois nombres a ∈] − 3,−2[,b ∈]1, 2[ et c ∈]6, 7[ qui sont tous irrationnels.Les nombres complexes qui répondent à la question sont les complexes a, b et c.

Exercice 10

1. L’application Θ est bien définie car si A est fixée, l’applicationM 7−→ Tr(AM) est bienune forme linéaire.Ensuite, l’application Θ est bien linéaire car si A1 et A2 sont dans Mn(C) et λ est dansC, alors pour toute matrice carrée M ,

Tr((λA1 + A2)M) = λTr(A1M) + Tr(A2M),

donc :∀M ∈Mn(C), Θ(λA1 + A2)(M) =

(

λΘ(A1) + Θ(A2))

(M).

Enfin, les espaces de départ et d’arrivée de Θ sont de même dimension finie n2. Il suffitalors de montrer que Θ est injective.Soit A ∈ Ker(Θ). Alors pour toute matrice M ∈Mn(C), on obtient :

Tr(AM) = 0.

Sans perte de généralité, on utilise ce résultat avec les matrices Ei,j de la base canonique.Tous calculs faits, on obtient que la matrice AEi,j n’a que des colonnes nulles sauf lacolonne numéro j qui est égale à la colonne Ci de la matrice A. La trace de cette matriceest donc le j eme coefficient de Ci, à savoir Aj,i.Tous les coefficients Aj,i sont nuls et la matrice A est nulle.L’application linéaire Θ est bijective par le théorème du rang (injective et par consé-quent surjective par les dimensions finies).

10

Page 11: Corrections Feuille 15 - Free

2. On suppose n > 2. Soit H un hyperplan de Mn(C).On a déjà vu dans un exercice corrigé dans la feuille 14 que tout hyperplan de Mn(K)contenait une matrice inversible. On redémontre ceci en utilisant cette fois-ci la questionQ1.Comme H est un hyperplan, il existe une forme linéaire non nulle ϕ : Mn(C) −→ C

telle que :H = Ker(ϕ).

On pose A = Θ−1(ϕ), de sorte que :

∀M ∈Mn(C), ϕ(M) = Θ(A)(M) = Tr(AM).

Ainsi,∀M ∈Mn(C), M ∈ H ⇐⇒ Tr(AM) = 0.

Il s’agit maintenant de trouver une matrice inversible M telle que :

Tr(AM) = 0.

Comme la forme linéaire ϕ est non nulle, alors la matrice A est non nulle. On noter = Rg(A) son rang nécessairement supérieur ou égal à 1.La matrice A est équivalente à une matrice de type Jr :

A = QJrP−1,

avec deux matrices inversibles P et Q dans GLn(C).On cherche une matrice M convenable sous la forme :

M = PNQ−1,

avec la matrice N inversible de sorte que :

AM = QJrNQ−1,

est semblable à la matrice JrN , donc

Tr(AM) = Tr(JrN).

Il reste à trouver une matrice N inversible telle que Tr(JrN) = 0.On cherche une bonne matrice N sous la forme d’une disposition par blocs :

N =

(

N1 N2

N3 N4

)

,

avec N1 bloc carré de format r×r et les autres blocs de format en conséquence de façonà ce que la matrice N soit bien de format n× n.On obtient :

Jr ×N =

(

N1 N2

0 0

)

.

On veut donc N1 de trace nulle de telle sorte que la matrice N soit inversible.On distingue ici deux cas :

11

Page 12: Corrections Feuille 15 - Free

−→ si le rang r est supérieur ou égal à 2, on prend la matrice de permutation de labase canonique (e1, · · · , er) de Mr,1(C) telle que :

∀k ∈ J1, r − 1K, N(ek) = ek+1 et N(er) = e1.

La matrice N1 est inversible et est de trace nulle.On prend N2 = 0, N3 = 0 et N4 = In−r. Il est facile de voir que la matrice

N =

(

N1 00 In−r

)

est inversible d’inverse(

N−11 00 In−r

)

ou bien il est facile de

voir que la matrice N est de rang n.−→ si r = 1, alors N1 doit être le bloc (0) avec un seul coefficient. Il suffit alors de

prendre la matrice N de permutation :

N =

0 0 · · · 0 1

1 0. . . ... 0

0 1. . . 0

...... . . . . . . 0 00 · · · 0 1 0

.

Quoiqu’il arrive on trouve une matrice inversible N telle que Tr(JrN) = 0. La matriceM = QNP−1 est un produit de matrices inversibles, donc l’est encore et :

Tr(AM) = Tr(JrN) = 0,

donc la matrice inversible M appartient à Ker(ϕ) = H , ce qui répond à la question.

Exercice 11

1. La réponse est non. En effet, si de telles matrices existaient, en prenant la trace, onobtient :

p = Tr(Ip) = Tr(AB −BA) = Tr(AB)− Tr(BA) = 0.

On obtient une contradiction.

2. Si p 6= 0 dans un corps K, alors on obtient encore l’impossibilité de l’existence de tellesmatrices.Regardons ce qui se passe dans le corps K = Z/pZ, avec p premier.Il faut prendre deux matrices « simples » mais qui ne commutent pas.On note (e1, · · · , ep) la base canonique de Mp,1(K). On va choisir des endomorphismesA et B dans L (Mp,1(K)) tels que :

A ◦B − B ◦ A = id.

On choisit par exemple A tel que :

A(e1) = 0 et ∀k ∈ J2, pK, A(ek) = ek−1.

On choisit maintenant l’endomorphisme B en conséquence en commençant par le cal-culer B(e1), B(e2), etc.

12

Page 13: Corrections Feuille 15 - Free

On trouve :∀k ∈ J1, p− 1K, B(ek) = k · ek+1 et B(ep) = 0.

On vérifie que les applications linéaires A ◦ B − B ◦ A et id coïncident sur la basecanonique.Soit k un entier entre 1 et p.⊲ Si k = 1, alors A(e1) = 0, donc :

(AB −BA)(e1) = A(e2) = e1.

⊲ Si 2 6 k < p, alors A(ek) = ek−1 et B(ek) = k · ek+1, donc :

(AB −BA)(ek) = A(k · ek+1)−B(ek−1) = k · ek − (k − 1) · ek = ek.

⊲ Si k = p, alors A(ep) = ep−1 et B(ep) = 0, donc :

(AB − BA)(ep) = −B(ep−1) = −(p− 1) · ep = (1− p) · ep = ep,

car 1− p = 1 dans le corps K = Z/pZ.Les matrices :

A =

0 1 0 · · · 0

0 0. . . ...

... . . . . . . 1 00 · · · 0 0 10 · · · 0 0 0

et B =

0 0 0 · · · 0

1 0. . . . . . ...

0 2. . . 0 0

... . . . . . . 0 00 · · · 0 p− 1 0

vérifient AB −BA = Ip, dans le corps des scalaires Z/pZ.

Exercice 14

1. On vérifie que la matrice :

U =

1 1 · · · 1

0 1. . . ...

... . . . . . . 10 · · · 0 1

,

répond à la question.Voici le détail.Si i et j sont deux entiers entre 1 et n, alors :

(UTU)i,j =

n∑

k=1

(UT )i,kUk,j =

n∑

k=1

Uk,iUk,j =

min(i,j)∑

k=1

1× 1 = min(i, j) = Ai,j.

On a utilisé le fait que :

Uk,i =

{

1, si k 6 i0, sinon .

13

Page 14: Corrections Feuille 15 - Free

2. La matrice U est triangulaire supérieure à diagonale remplie de coefficients tous nonnuls : la matrice U est inversible (son rang est facilement calculable : il vaut n).La matrice transposée UT reste inversible et A apparaît le produit de deux matricesinversibles : elle l’est encore !D’autre part,

A−1 = U−1 × (UT )−1 = U−1 × (U−1)T .

On calcule déjà la matrice U−1. Le plus simple est de résoudre l’équation matricielleUX = Y , d’inconnue X matrice colonne. Le système est directement triangulaire deCramer.On obtient la seule solution en ayant xn en fonction de yn, puis on remonte dans leslignes. Tous calculs faits, on trouve :

U−1 =

1 −1 0 · · · 0

0 1 −1 . . . ...... . . . . . . . . . 00 · · · 0 1 −10 · · · 0 0 1

.

Remarque : en posant la matrice nilpotente N avec des 1 uniquement juste au-dessusde la diagonale, partout ailleurs que des 0, alors :

U =n∑

k=0

Nk,

et on remarque que (In−N)U = In, donc U est inversible d’inverse In−N . Il ne resteplus qu’à effectuer le produit matriciel U−1 × (U−1)T pour avoir A−1. On trouve :

A−1 = (In −N)(In −NT ) = In − (N +NT ) +NNT

= In − (N +NT ) + Jn−1

=

2 −1 0 · · · 0 0

−1 2 −1 . . . ......

0 −1 . . . . . . 0 0... . . . 1 2 −1 00 · · · 0 −1 2 −10 · · · 0 0 −1 1

.

3. Soit λ un scalaire réel. On suppose que la matrice A−1−λIn n’est pas inversible. Montrerl’existence d’un tel θ tel que :

λ = 2− 2 cos θ,

revient à montrer que le nombre λ appartient à l’intervalle [0, 4], puisque la fonctionf : t 7−→ 2− 2 cos t vérifie :

f(R) = [0, 4].

Comme A−1 − λIn n’est pas inversible, l’endomorphisme associé n’est pas injectif (nisurjectif d’ailleurs). On trouve un vecteur colonne X non nul dans son noyau.

14

Page 15: Corrections Feuille 15 - Free

On en déduit A−1X = λX . En notant xk les composantes du vecteur colonne X , enposant de plus x0 = 0, on aboutit aux équations suivantes :

∀k ∈ J1, n− 1K, −xk−1 + 2xk − xk+1 = λ xk

et :−xn−1 + xn = λ xn.

On choisit parmi les composantes xk de X une composante xk tel que |xk| soit maximal.On en déduit déjà que k ne peut valoir 0 car sinon, toutes les composantes de X seraientde module inférieur à |x0| = 0 et X serait le vecteur nul, ce qui n’est pas le cas.• Ensuite, supposons dans un premier temps que k soit différent de n. En prenant lemodule dans l’équation −xk−1 +2xk − xk+1 = λ xk, on obtient puisque |xk−1| 6 |xk| et|xk+1| 6 |xk| par maximalité :

|λ| |xk| = |λ xk| = | − xk−1 + 2xk − xk+1| 6 4 |xk|,

En divisant par |xk| > 0, on aboutit déjà à |λ| 6 4, donc λ 6 4.• Lorsque k = n, on reprend le module dans −xn−1 + xn = λ xn, ce qui donne :

|λ| |xn| 6 2 |xn|,

et donc |λ| 6 2, ce qui implique la même conclusion : λ 6 4.Enfin, de A−1X = λ ·X , en multipliant à gauche par A, on obtient :

X = λ · AX = λ · UT × UX.

On multiplie maintenant à gauche par XT . On obtient :

XTX = λ · (Y TY ), avec Y = UX matrice colonne.

La matrice U étant inversible et X étant non nul, il est impossible que UX soit nul,donc les vecteurs colonne X et Y ne sont pas nuls.On montre finalement que si Z est une matrice colonne non nulle à coefficients réels,alors ZTZ > 0, où la matrice ZTZ à un seul coefficient est identifiée à ce coefficient.En effet, en notant Zℓ les composantes non toutes nulles et réelles du vecteur Z, lecalcul matriciel donne :

ZTZ =n∑

ℓ=1

(Zℓ)2 > 0.

En conclusion,

λ =XTX

Y TY> 0.

On a bien globalement λ dans [0, 4] et donc l’existence d’un θ convenable.

Exercice 16

15

Page 16: Corrections Feuille 15 - Free

1. L’application linéaire A est :

A :

Mq,1(C) −→ Mp,1(C)X 7−→ AX

.

Le théorème du rang dit que :

dim(Ker(A)) + Rg(A) = q = le nombre de colonnes de la matrice A.

2. Il y a bien 2n parties possibles de J1, nK.Premier problème : il y a « seulement » (2n)! façons de les énumérer et donc potentiel-lement autant de matrices A différentes possibles définies comme dans l’énoncé.On montre déjà que quelle que soit l’énumération, la matrice A obtenue a le même rangque pour une autre énumération. On remarque facilement que comme Ei∩Ej = Ej∩Ei,la matrice A est symétrique.Supposons par exemple que l’on considère deux énumérations E1, · · · , E2n et F1, · · · , F2n,avec seulement deux changements. Les listes sont donc presque égales, sauf à deux en-droits i et j, d’où :

∀k ∈ J1, 2nK \ {i, j}, Ek = Fk et{

Ei = Fj

Ej = Fi.

Les matrices que l’on note A (pour l’énumération des Ek) et B (pour l’énumération desFℓ) sont un peu pareilles.Si k et ℓ sont deux indices hors de {i, j}, alors :

Ak,ℓ = Bk,ℓ.

Ensuite, si k = i et ℓ = j,Ai,j = Bi,j.

Enfin, si k = i par exemple et ℓ /∈ {i, j}, alors :

Ai,ℓ = Bj,ℓ

et si k = i et ℓ = i, alors :Ai,i = Bj,j.

On passe de la matrice A à la matrice B en échangeant les colonnes i et j et les lignes iet j. Ces deux opérations sont des opérations interprétables comme une multiplicationà droite (pour l’opération sur les colonnes) et à gauche (pour l’opération sur les lignes)par une matrice inversible. Ces multiplications par une matrice inversible donnent desmatrices toujours équivalentes entre elles, donc de même rang.On peut donc choisir une énumération « qui nous arrange ».On va en fait établir un lien entre la matrice An (au rang n) et la matrice An+1 (aurang n+ 1).Déjà lorsque n = 1, on choisit l’énumération suivante :

E1 = ∅ et E2 = {1},

16

Page 17: Corrections Feuille 15 - Free

ce qui donne la matrice :

A1 =

(

0 00 1

)

,

matrice de rang 1.Supposons construite une énumération E1, · · · , E2n des parties de J1, nK. On choisit alorsl’énumération suivante pour les parties de J1, n+ 1K, en énumérant d’abord les partiesne contenant pas n+1 donc incluses dans J1, nK, puis toutes les parties de J1, n+1K enrajoutant aux parties Ek le singleton {n+1} pour former toutes les parties de J1, n+1Kcontenant n + 1.On pose alors Fk = Ek∪{n+1}, de sorte que l’on considère au rang n+1 l’énumérationE1, · · · , E2n , F1, · · · , F2n.On voit que si i et j sont entre 1 et 2n, alors :

Ei ∩ Fj = Ei ∩ Ej et n + 1 ∈ Fi ∩ Fj 6= ∅.

Par conséquent, la matrice An+1 est la matrice décrite par blocs :

An+1 =

(

An An

An J

)

,

les quatre blocs étant de format 2n × 2n et le bloc de J rempli intégralement de 1.Comme la première partie E1 est la partie vide, alors la première colonne de An et deAn+1 est 0. Les premières lignes sont égales à 0 par symétrie.Calculons le rang de An+1 en fonction du rang de An.On va montrer par récurrence la propriété suivante :

P(n) « le rang de la matrice An est exactement 2n − 1. »

Lorsque n = 1, le résultat a déjà été vu.Supposons le résultat vrai pour un certain entier n > 1.Au rang suivant, comme la première colonne de la matrice An est nulle, par H.R. celasignifie que la famille constituée de toutes les autres colonnes C2, · · · , C2n forme unebase de Im(An).On pose dans la suite :

Yi =

(

Ci

Ci

)

et Zi =

(

Ci

U

)

,

où la matrice colonne U est remplie de n chiffres 1.On va montrer que la famille (Y2, · · · , Y2n, Z1, · · · , Z2n) est libre.

Soit2n∑

k=2

ak Yk+2n∑

k=1

bk Zk = 0, une combinaison linéaire nulle entre les vecteurs de cette

famille.En prenant uniquement les coefficients en ligne (n + 1) dans les matrices colonnes,sachant que (Yi)n+1 = 0 (première ligne de An nulle) et (Zk)n+1 = 1 (première ligne deJ remplie de 1), alors :

2n∑

k=1

bk = 0.

17

Page 18: Corrections Feuille 15 - Free

En prenant maintenant les blocs inférieurs (à partir de la (n + 1)eme composante des

vecteurs colonnes Yk ou Zℓ), on obtient sachant que2n∑

k=1

bk U = 0 :

2n∑

k=2

ak Yk = 0.

On obtient une combinaison linéaire nulle entre les vecteurs de la famille libre (Y2, · · · , Y2n) :tous les scalaires ak sont nuls.Ainsi, en prenant maintenant les blocs supérieurs (les n premières composantes) dansla combinaison linéaire nulle, on obtient :

2n∑

k=1

bkYk = 0, donc2n∑

k=2

bkYk = 0,

puisque la colonne Y1 est nulle. Là encore, on obtient que tous les scalaires bk, pour kentre 2 et 2n sont nuls. Il ne reste que le scalaire b1 éventuellement non nul, mais il l’estcar la combinaison linéaire nulle initiale devient maintenant :

b1 Z1 = 0, donc b1 = 0.

Conclusion, la famille (Y2, · · · , Y2n, Z1, · · · , Z2n) est libre dans Im(An+1) donc Rg(An+1) >2n+1− 1 mais la matrice An+1 admet une première colonne nulle, donc le rang de An+1

ne peut pas être égal à son nombre de colonnes qui est 2n+1 :

Rg(An+1) = 2n+1 − 1.

En définitive, pour tout n ∈ N∗, le rang de An vaut 2n− 1 et la dimension du noyau de

An vaut 1.

Exercice 17

1. On vérifie que f est bien linéaire et que si P est un polynôme de degré inférieur à 3, ilen est de même pour f(P ).

2. On obtient facilement la matrice :

A =

0 0 −2 00 2 0 −60 0 6 00 0 0 12

.

3. On transpose déjà le problème à la matrice A.On trouve facilement que A est de rang 3, donc Ker(A) est de dimension 1.

Une base de Ker(A) est

1000

et une base de Im(A) est (C2, C3, C4).

Une base de Ker(f) est donc Vect(1) et une base de Im(f) est (f(X), f(X2), f(X3)).

18

Page 19: Corrections Feuille 15 - Free

4. La réponse est oui. On remarque que la matrice A est triangulaire supérieure à coef-ficients diagonaux 0, 2, 6 et 12. Si λ est l’une de ces quatre valeurs, alors la matriceA− λI4 est triangulaire supérieure dont la diagonale comporte un 0 : la matrice A nesera pas inversible car le rang de cette matrice ne pourra être égal à 4.On peut alors choisir des vecteurs non nuls X0, X2, X6, X12 de telle sorte que Xλ ap-partienne à Ker(A− λI4), pour λ ∈ {0, 2, 6, 12}.La famille (X0, X2, X6, X12) est libre car si on a une combinaison linéaire nulle aX0 +bX2 + cX6 + dX12 = 0, en appliquant à cette combinaison linéaire la matrice P (A) oùP est n’importe quel polynôme, alors sachant que :

AXλ = λXλ,

par récurrence, on aurait :AkXλ = λk Xλ,

puis bientôt :P (A)Xλ = P (λ) Xλ.

Ainsi, pour tout polynôme P , on a :

a P (0)X0 + b P (2)X2 + c P (6)X6 + d P (12)X12 = 0.

Il suffit alors de choisir les polynômes de Lagrange L0, L2, L6 et L12 associés aux valeursdifférentes 0, 2, 6 et 12. Les scalaires a, b, c et d sont bien nuls.On obtient que chaque scalaire est nul et donc que la famille à quatre vecteurs est enfait une base de R3[X ]. La matrice de passage R de la base canonique vers cette basevérifie :

R−1AR =

0 0 0 00 2 0 00 0 6 00 0 0 12

.

Exercice 18

1. On vérifie facilement qu’il s’agit d’une famille libre à dim(R3) vecteurs.

2. On trouve en interprétant chaque élément (a, b, c) de R3 comme le vecteur colonne

X =

abc

,

M atB(A) =

−1 0 00 1 00 0 −2

.

3. On obtient :

P =

1 1 02 2 11 2 2

.

19

Page 20: Corrections Feuille 15 - Free

4. En utilisant la méthode classique PX = Y , d’inconnue X par exemple, on trouve :

P−1 =

−2 2 −13 −2 1−2 1 0

.

On vérifie que P−1AP est la matrice diagonale de la question 2., ce qui n’est pas dutout une surprise.On vient de vérifier sur l’exemple que la formule de changement de base fonctionnait.On vient accessoirement de diagonaliser la matrice A.

Exercice 19

1. On vérifie implicitement que f est linéaire et que f(E) ⊂ F .On trouve facilement :

A =

0 1 2 30 0 4 180 0 0 9

.

2. On montre facilement que les familles B et B′ sont des familles libres de cardinauxrespectifs dim(E) = 4 et dim(F ) = 3.

3. Le plus simple pour calculer B est de suivre la démarche des questions suivantes. Onpourrait calculer f(u1), avec u1 le premier vecteur de B puis calculer ses coordonnéesselon B′ et constituer la première colonne de B, mais cela revient à faire plusieurs foispresque le même système. Il est plus court d’utiliser les matrices de passage ... On passela question en suivant la méthode des questions suivantes.

4. On trouve :

P =

1 2 −1 10 0 3 11 1 2 00 0 0 −1

et Q =

2 3 1−1 −1 00 0 −1

.

5. On trouve :

P−1 =1

3

−3 −5 6 −83 3 −3 60 1 0 10 0 0 −3

et Q−1 =

−1 −3 −11 2 10 0 −1

.

On calcule maintenant la matrice B = Q−1AP . On trouve :

B =

−14 −14 −31 6510 10 23 −470 0 0 9

.

Cet exercice est purement pédagogique. La matrice B n’est pas plus simple que lamatrice A. Il était mathématiquement inutile de procéder à tous ces changements debase.Mieux (mais c’est un autre exercice) aurait été de trouver des changement de base pourque la nouvelle matrice soit la matrice J3 au lieu de B.

20

Page 21: Corrections Feuille 15 - Free

Exercice 20

1. La matrice A est une matrice triangulaire supérieure. On utilise le binôme dans C[X ]commutatif pour avoir les colonnes.Si i et j sont entre 1 et n + 1, alors :

Ai,j =

(

j − 1i− 1

)

aj−i.

2. L’endomorphisme f est clairement inversible de fonction réciproque :

f−1 : P (X) 7−→ P (X − a).

La matrice A est alors immédiatement inversible et A−1 est la matrice de f−1 selon lesbases canoniques. On trouve comme matrice :

(A−1)i,j =

(

j − 1i− 1

)

(−a)j−i.

3. Pour tout entier k ∈ Z, on sait que Ak est la matrice de fk : P (X) 7−→ P (X + ka)selon les bases canoniques. On en déduit les matrices :

(Ak)i,j =

(

j − 1i− 1

)

(ka)j−i.

Exercice 21

1. Il suffit de prendre un vecteur x0 de E tel que :

fn−1(x0) 6= 0.

On a déjà vu en cours en appliquant plusieurs fois la fonction f à une combinaisonlinéaire nulle des vecteurs de cette famille que la famille F = (x0, f(x0), · · · , fn−1(x0))était libre donc était une base de E.

2. La matrice A représentant f selon cette base est la matrice nilpotente classique avecque des coefficients nuls partout, sauf ceux situés juste en-dessous de la diagonale quivalent 1.

3. Il est facile de voir que le rang de cette matrice nilpotente vaut n−1, donc Rg(f) = n−1.

Exercice 22

1. On poseF =

{

(x, y, z) ∈ R3 | x− 2y + z = 0

}

et :G = Vect

(

u = (−1, 1, 2))

.

21

Page 22: Corrections Feuille 15 - Free

Premièrement, l’espace F est un hyperplan ne contenant pas le vecteur u : les espacesF et G sont donc supplémentaires dans R3.Pour calculer la matrice A représentant la projection p sur F parallèlement à G, oncalcule l’image de tout vecteur de R

3 par la projection p.Soit (x, y, z) ∈ R3. On pose :

(x, y, z) = xF + λ · u,

avec xF ∈ F et λ ∈ R.On note (e1, e2, e3) la base canonique de R

3.On utilise la dualité pour calculer le scalaire λ. On pose la forme linéaire :

ϕ = e∗1 − 2e∗2 + e∗3.

Ainsi, F = Ker(ϕ) et :x− 2y + z = λ · (−1).

Conclusion,λ = −x+ 2y − z

et donc :

p(x, y, z) = xF = (x, y, z) + (x− 2y + z) · (−1, 1, 2)=

(

2y − z, x− y + z, 2x− 4y + 3z)

.

On en déduit la matrice A représentant l’endomorphisme p selon la base canonique :

A =

0 2 −11 −1 12 −4 3

.

2. • On suppose que la matrice P = X ·XT est une matrice de projection de rang un.On en déduit :

P 2 = P , donc X ·XT ·X ·XT = X ·XT .

Or, la matrice XT ·X est une matrice de format 1× 1. On pose :

(λ) = XT ·X.

On en déduit que pour tout vecteur colonne Y dans Mn,1(R),

Y × (λ) = λ · Y.

L’égalité P 2 = P devient alors :

X · (λ) ·XT = P,

donc :λ · P = P , ou encore (λ− 1) · P = 0.

22

Page 23: Corrections Feuille 15 - Free

La matrice P étant de rang un est non nulle impliquant λ = 1. On a la deuxièmeassertion.

• On suppose que XT · X = (1). On peut refaire les calculs ci-dessus. En notantP = X ·XT , alors :

P 2 = λ · P = P,

donc la matrice P est une matrice de projection.Enfin, on montre que la matrice P est de rang un.Le vecteur colonne X n’est pas nul car sinon on aurait XT ·X = (0).La j eme colonne de la matrice P est exactement le vecteur colonne :

Cj = xj ·X ∈ Vect(X).

On en déduit Im(P ) ⊂ Vect(X) et comme le vecteur colonne X n’est pas nul, il existeun indice i entre 1 et n tel que xi 6= 0.Le calcul matriciel donne alors :

Pi,i = x2i 6= 0.

Résultat des courses : la matrice P n’est pas nulle, donc l’image Im(P ) est de dimensionsupérieure ou égale à 1. L’inclusion Im(P ) ⊂ Vect(X) implique Im(P ) = Vect(X) et lamatrice P est bien de rang un.

Exercice 23• On suppose Rg(A) 6 1.Si Rg(A) = 0, alors la matrice A est nulle et il suffit de choisir la matrice-ligne L nulle ou lamatrice-colonne C nulle pour avoir :

C × L = (0) = A.

Si Rg(A) = 1, il y a deux méthodes de longueurs de résolution différentes :−→ première méthode

La matrice A est équivalente à la matrice J1 = E1,1 presque nulle avec un chiffre 1 enhaut à gauche. Il existe P ∈ GLq(C) et Q ∈ GLp(C) tel que :

A = QJ1P−1.

On remarque qu’en notant (X1, · · · , Xq) la base canonique de Mq,1(C) et (Y1, · · · , Yp)la base canonique de Mp,1(C), alors :

Y1 ×XT1 = J1.

On en déduit :A = QY1 ×XT

1 × P−1 = (QY1)× ((P−1)TX1)T .

Il suffit de poser la matrice-colonne :

C = QY1

et la matrice-ligne :L = ((P−1)TX1)

T

pour avoir A = C × L.

23

Page 24: Corrections Feuille 15 - Free

−→ seconde méthodeIl existe une colonne Cj non nulle dans la matrice A tel que toute colonne de A soitcolinéaire à cette colonne Cj.On pose pour tout i ∈ J1, qK,

Ci = λi · Cj.

En posant la ligne :L =

(

λ1 λ2 · · · λq)

,

le calcul matriciel montre que :A = C × L.

Cette seconde façon semble plus simple.

• On suppose qu’il existe une matrice-ligne L et une matrice-colonne C tel que :

A = C × L.

En notant x1, · · · , xq les q coefficients de la matrice-ligne L, on voit que les colonnes du produitmatriciel C × L sont égales à :

x1 · C, x2 · C, · · · , xq · C.

Il est alors clair que :Im(A) ⊂ Vect(C), donc Rg(A) 6 1.

Exercice 26On remarque que la matrice AB est de rang 2. On note (e1, e2, e3) la base canonique deM3,1(R).La famille (AB(e2), AB(e3)) forme une base de Im(AB). La famille (AB(e2), AB(e3)) est donclibre. La famille (B(e2), B(e3)) est donc libre aussi en appliquant l’endomorphisme A (ou uA)à une combinaison linéaire nulle entre les vecteurs de cette famille.On en déduit que la famille (B(e2), B(e3)) est une famille libre dans Im(B). Or, B est uneapplication linéaire telle que B : M3,1(R) −→M2,1(R). On en déduit que l’application linéaireB est surjective ou encore que :

Vect(B(e2), B(e3)) = M2,1(R).

Finalement,

BA(B(e2)) = BAB(e2) = B(e2) et BA(B(e3)) = BAB(e3) = B(e3).

Les endomorphismes B ◦ A (ou BA) et id définis sur M2,1(R) coïncident sur une base doncpartout :

B ◦ A = id, donc BA = I2.

Exercice 27

24

Page 25: Corrections Feuille 15 - Free

1. Il y a plusieurs méthodes. On peut déterminer une base de Im(A) et une base de Ker(A),puis procéder à un changement de base.Le moins coûteux est la méthode suivante.On pose (e1, e2, e3) la base canonique de R

3.On fixe (x, y, z) dans R3. On pose H = Im(A) qui est l’hyperplan :

H = Ker(e∗1 + e∗2 + e∗3).

On pose D = Ker(A) qui est Vect((1, 2, 3)).On écrit avec des notations évidentes :

(x, y, z) = ~uH + λ · (1, 2, 3).

On applique la forme linéaire e∗1 + e∗2 + e∗3, ce qui donne :

x+ y + z = 6λ.

On en déduit :

~uH =1

6(5x− y − z,−2x + 4y − 2z,−3x− 3y + 3z) .

On obtient alors :

A =1

6

5 −1 −1−2 4 −2−3 −3 3

.

2. Soit B une matrice telle que B2 = B et AB = BA.On rappelle les notations déjà utilisées : H = Im(A) et D = Ker(A).Si X ∈ H , alors AX = X , donc ABX = BAX = BX et BX ∈ Ker(A− I3) = H .Si X ∈ D, alors AX = 0, donc ABX = BAX = B0 = 0 et BX ∈ D.On en déduit que B est une projection laissant stable H et D.Réciproquement, si B est une projection laissant stable H et D, alors B2 = B. De plus,si Y ∈ H , alors AY = Y et BY = Y , donc ABY = BAY . Si Y ∈ D, alors BY = 0 etAY = 0, donc ABY = BAY .Les applications linéaires AB et BA coïncident sur H et D, donc sur Vect(H,D) =H +D = R3.Il y a une infinité de telles matrices B. On peut prendre n’importe quelle base (a, b)de H , puis poser c = (1, 2, 3) qui forme une base de D. La projection sur Vect(a, c)parallèlement à Vect(b) sera une projection convenable et en faisant varier la directiondu vecteur b dans H \ Vect(a) (les vecteurs a et c étant fixes), on aura une infinité denoyaux possibles, donc une infinité de projections différentes B.

3. Soit F un sous-espace de R3 stable par A. On catalogue les sous-espaces F possiblesselon leur dimension d = dim(F ).• Si d = 0, alors F = {0} qui est stable.• Si d = 1, alors F = Vect(~a) pour un certain vecteur ~a. Comme A(~a) ∈ F , on pose :

A(~a) = λ ~a.

25

Page 26: Corrections Feuille 15 - Free

En réappliquant l’endomorphisme A, on obtient :

A2(~a) = λ2 ~a.

Or A2 = A, donc on doit avoir λ2 ~a = λ ~a, ou encore :

(λ2 − λ)~a = 0.

Comme ~a est non nul, alors λ2 = λ et λ ∈ {0, 1}.Si λ = 0, alors F ⊂ Ker(A), donc F = Ker(A) par les dimensions et si λ = 1, alors Fest engendré par n’importe quel vecteur ~a non nul dans Im(A). Réciproquement, toutesces droites vectorielles sont stables par A.• Si d = 2, alors l’endomorphisme A′ = A|F reste une projection car A′2 = (A2)|F = A′.Il y a deux possibilités.⊲ Soit A′ = id, auquel cas F ⊂ Im(A), puis F = Im(A) par les dimensions.⊲ Soit A′ 6= id et dans ce cas, A′ qui est une projection ne peut être inversible (la seuleprojection inversible est id). On trouve un vecteur non nul ~c dans Ker(A′) = F ∩Ker(A)

et on trouve un vecteur ~d non nul dans Im(A′) = F ∩ Im(A). Dans ce cas, F est générépar (1, 2, 3) et n’importe quel vecteur non nul de Im(A). Réciproquement, F est alorsstable par A.• Si d = 3, alors F = R3 qui est stable.Globalement, il y a une infinité de droites vectorielles stables et une infinité d’hyperplansstables par A.

Exercice 28

1. Soit A ∈Mp(C) un projecteur. Alors, A2 = A et A est la projection sur F parallèlementà G. Si P est la matrice de passage de la base canonique de Mp,1(C) vers une baseadaptée à la décomposition F ⊕G = Mp,1(C), alors :

P−1AP = Jr.

On en déduit que r = Rg(A) et r = Tr(Jr) = Tr(A), car A est semblable à Jr.Remarque : ce résultat est à connaître. À mettre en annexe de cours. Ceci ne marcheque pour les matrices de projection.

2. On calcule Q2. Par distributivité :

Q2 =n∑

k=1

n∑

ℓ=1

Ak Aℓ =n∑

k=1

Ak = Q.

La matrice Q est la matrice d’une projection.

3. (a) Soit X ∈ F . Alors,

X = QX =n∑

k=1

AkX ∈n∑

k=1

Fk.

26

Page 27: Corrections Feuille 15 - Free

(b) Par les dimensions, on obtient en utilisant aussi la question Q1 :

dim(F ) = Rg(Q) = Tr(Q) = Tr

(

n∑

k=1

Ak

)

=n∑

k=1

Tr(Ak)

=n∑

k=1

Rg(Ak) [question Q1]

=

n∑

k=1

dim(Fk).

On sait alors que la sommen∑

k=1

Fk est directe (résultat de cours sur les espaces

vectoriels).(c) Soit X dans l’intersection. Alors, pour tout k, AkX = 0, donc QX = 0 directement

par sommation.Soit X dans G. Alors, QX = 0, donc :

n∑

k=1

AkX = 0.

Ceci est une somme nulle d’éléments dans Fk. La somme étant directe, chaquevecteur est nul, donc pour tout entier k entre 1 et n :

AkX = 0 et X ∈ Gk.

(d) Soient i et j deux entiers entre 1 et n. Soit X un vecteur colonne dans Mp,1(C).Si i = j, alors comme Ai est une projection,

A2i = Ai.

Si i 6= j, alors, le vecteur AjX = Y est dans Fj , donc dans F . Par conséquent,QY = Y , ce qui donne :

n∑

k=1

AkY = Y,

ou encore :n∑

k=1 ; k 6=j

AkAjX = 0,

car les vecteurs A2jX et AjX de part et d’autre de l’égalité se simplifient.

On obtient une somme nulle de vecteurs dans la somme directen∑

k=1 ; k 6=j

Fk (ou alors

on rajoute arbitrairement en indice j le vecteur nul qui appartient à Fj) et tous lesAkAjX sont nuls (si k 6= j). En particulier, AiAjX = 0 et ceci pour tout vecteurcolonne X . L’endomorphisme AiAj est nul et la matrice AiAj est nulle.On obtient tout ce qu’il faut.

27

Page 28: Corrections Feuille 15 - Free

Exercice 31On note (e1, e2, e3) la base canonique de M3,1[R). On cherche une base de (ε1, ε2, ε3) de M3,1(R)telle que :

A(ε1) = 0, A(ε2) = ε2 et A(ε3) = 3ε3.

On choisit ε1 non nul dans Ker(A), ε2 non nul dans Ker(A−I3) et ε3 non nul dans Ker(A−3I3).

Après calculs, on peut prendre ε1 =

1−21

, ε2 =

100

et ε3 =

111

.

La matrice P =

1 1 1−2 0 11 0 1

vérifie :

P−1AP = D.

Les matrices A et D sont bien semblables.

Exercice 32C’est encore la même démarche. On note (e1, e2, e3) la base canonique de M3,1(R). On veutune base (ε1, ε2, ε3) telle que :

A(ε1) = ε2, A(ε2) = 0 et A(ε3) = 0.

Il faut ici choisir d’abord le vecteur ε2 qui concentre le maximum de contraintes : le vecteurε2 appartient à Ker(A) ∩ Im(A).On remarque que A est de rang 1, l’image étant générée par la première colonne C1. Onremarque aussi que :

Ker(A) = Vect

−110

,

101

.

On est obligé de prendre ε2 un vecteur non nul et colinéaire à C1 =

1−3−2

et il se trouve

que le vecteur C1 est dans Ker(A).

On choisit ε3 un vecteur dans Ker(A) \ Vect(C1). Par exemple, on prend ε3 =

−110

. Il y

a plein d’autres possibilités...On choisit ε1 = e1 le premier vecteur de la base canonique de telle sorte que A(ε1) = ε2.Conclusion, en prenant la matrice de passage :

P =

1 1 −10 −3 10 −2 0

vérifie :

P−1AP =

0 0 01 0 00 0 0

= E2,1.

28

Page 29: Corrections Feuille 15 - Free

Exercice 34Dans cet exercice, on note (e1, · · · , ep) la base canonique de Mp,1(K).

1. Soient i, j, k et ℓ quatre indices entre 1 et p.On explicite le produit :

A = Ei,j × Ek,ℓ.

Soit on fait le produit matriciel et on trouve ce qu’il faut. On va plutôt travailler avecles endomorphismes.Soit r un entier entre 1 et n. On calcule A(er).Or, A(er) = Ei,j(Ek,ℓ(er)).⊲ Si r 6= ℓ, alor Ek,ℓ(er) = 0, donc A(er) = 0.⊲ Si r = ℓ, alors Ek,ℓ(er) = ek, puis :

A(er) = Ei,j(ek).

−→ Si k = j, alors Ei,j(ek) = ei.−→ Si k 6= j, alors Ei,j(ek) = 0.Conclusion, si r = ℓ et k = j, alors A(er) = ei et sinon A(er) = 0.On remarque que quoiqu’il arrive,

A(er) = δj,k · Ei,ℓ(er).

Les endomorphismes A et δj,k · Ei,ℓ coincident sur la base canonique donc partout.Voici une formule qu’il est bon d’avoir en tête :

Ei,j ×Ek,ℓ = δj,k · Ei,ℓ.

2. La réponse est oui car toute matrice Ei,j est de rang 1.Soient i et j deux indices entre 1 et p.Explicitons des matrices de changement de base P et Q de telle sorte :

Q−1Ei,jP = E1,1.

Toutes les matrices Ei,j seront alors équivalentes à la même matrice E1,1, et doncseront équivalentes entre elles. On procède à l’explicitation de telles matrices P et Qpour réviser nos changements de base...

On suit la méthode vue en cours pour déterminer P et Q en lisant progressivement lescolonnes de Ei,j .On note (C1, · · · , Cp) les colonnes de Ei,j. Elles sont toutes nulles sauf pour Cj qui vautei.Pour les (j − 1) premières colonnes nulles, C1, · · · , Cj−1, on a des vecteurs du noyaue1, · · · , ej−1 qui vont remplir la matrice P à partir de la deuxième colonne par exemple(on peut aussi décider de remplir la matrice P à partir de la fin...)

29

Page 30: Corrections Feuille 15 - Free

Ensuite vient la colonne Cj que l’on place en première position dans Q et on placeimpérativement en première colonne de P le vecteur ej de la base canonique.On poursuit la lecture des colonnes de Ei,j en ne lisant que des colonnes nulles.Conclusion, voici les colonnes d’une bonne matrice P de passage pour l’espace de dé-part :

P =(

ej e1 · · · ej−1 ej+1 · · · ep)

.

Voici les colonnes d’une bonne matrice Q, où on a dû compléter la première colonne deQ avec des vecteurs de la base canonique. Il y a beaucoup de possibilités qui marchent.En voici une :

Q =(

ei e1 · · · ei−1 ei+1 · · · ep)

.

3. Soient i, j, k et ℓ quatre indices entre 1 et p.On va montrer que les matrices Ei,j et Ek,ℓ sont semblables si et seulement si elles ontmême trace. Cela nécessitera de distinguer les cas où les deux indices sont égaux (traceégale à 1) ou non (trace nulle).Plus fort (en fait équivalent) : on va montrer que les matrices Ei,i sont toutes semblablesentre elles et que les matrices Ei,j avec i 6= j sont toutes semblables en tête.Encore plus fort (en fait équivalent) : on va montrer que chaque matrice Ei,i est sem-blable à E1,1, que chaque matrice Ei,j (avec i 6= j) est semblable à E2,1 et que E1,1 n’estpas semblable à E2,1, ce qui montrera tout.On commence par montrer que E2,1 n’est pas semblable à E1,1. C’est facile : elles n’ontpas la même trace !Ensuite, on montre que la matrice Ei,i est semblable à E1,1.Si i est entre 1 et p, alors on pose P la matrice dont les colonnes sont dans cet ordre

ei e1 · · · ei−1 ei+1 · · · ep.

On vérifie que P−1Ei,iP = E1,1.Si i et j sont deux indices différents entre 1 et p, on pose P la matrice dont les colonnessont dans cet ordre :

ej ei les autres vecteurs de la base canonique dans n’importe quel ordre.

Si on lieu de ej puis ei on met ei puis ej, on a P−1Ei,jP = E1,2.Il serait bon de mettre cet exercice en annexe de cours.

Exercice 35Exercice à mettre aussi en annexe de cours. L’objet de cet exercice est du coursde deuxième année.Dans la suite, on note (e1, · · · , ep) la base canonique de Mp,1(C).Soit A une matrice semblable à une matrice triangulaire supérieure T à diagonale nulle. Onmontre que A est nilpotente.On note Fk = Vect(e1, · · · , ek) avec donc Fp = Mp,1(C) et F0 = {0}.Comme pour tout k ∈ J1, pK, on a : T (ek) ∈ Fk−1, alors :

T (Fk) = Vect(T (e1), · · · , T (ek)) ⊂ Fk−1.

30

Page 31: Corrections Feuille 15 - Free

En réitérant, on obtient :

T p(Fp) ⊂ T p−1(Fp−1) ⊂ · · · ⊂ T (F1) ⊂ F0 = {0}.

Autrement dit, l’image de T p est nulle et donc la matrice T p est nulle. Comme A est semblableà T , on dispose d’une matrice inversible P telle que :

A = PTP−1.

Ainsi,Ap = PT pP−1 = 0.

La matrice A est nilpotente.Pour l’autre sens plus difficile, on effectue une récurrence sur l’entier p :P(p) : « si A ∈ Mp(C) est nilpotente, alors il existe P inversible telle que P−1AP = T soittriangulaire supérieure à diagonale nulle. »• Lorsque p = 1, alors A = (a) donc pour tout k, Ak = (ak) et comme A est nilpotente, ilexiste k tel que Ak = (0), donc ak = 0 et nécessairement a = 0. La matrice A est nulle etP = (1) convient, avec T = (0) triangulaire supérieure à diagonale nulle.• Supposons P(p).• Soit A ∈Mp+1(C) une matrice nilpotente.La matrice A est non inversible car sinon, tout produit de A avec elle-même serait inversible,donc toute matrice de la forme Ak serait inversible et donc la matrice nulle serait inversible,ce qui n’est pas le cas.On peut donc choisir un vecteur X ∈Mp+1,1(C) non nul dans Ker(A).On complète la famille libre (X) en une base C = (X, Y2, · · · , Yp+1) de Mp+1,1(C). On pose P1

la matrice de passage de la base canonique vers C .La matrice A1 = P−1

1 AP1 est de la forme :

A1 =

(

0 ⋆0 ⋆

)

où ⋆ est un bloc ligne et ⋆ est un bloc carré p× p.Ensuite, cette matrice A1 se met sous la forme :

A1 =

(

0 ⋆0 B

)

,

où le bloc B est de format p×p. De plus, le produit matriciel en blocs fait que pour récurrence,il est facile de montrer que :

∀k ∈ N, Ak1 =

(

0 ⋆k0 Bk

)

.

Ici, le bloc ⋆k est un bloc ligne.Comme A est nilpotente et que A1 est semblable à A, alors A1 reste nilpotente et il existe unentier k tel que Ak

1 = 0. Donc Bk = 0 (et ⋆k = 0 totalement inutile ici).On peut appliquer l’hypothèse de récurrence à la matrice nilpotente B. Il existe une matriceinversible Q ∈ GLp(C) telle que :

Q−1BQ = T1,

soit triangulaire supérieure à diagonale nulle.

31

Page 32: Corrections Feuille 15 - Free

On pose la matrice :

P2 =

(

1 00 Q

)

.

La matrice P2 est inversible d’inverse :

P−12 =

(

1 00 Q−1

)

.

En faisant le produit matriciel, on obtient :

A2 = P−12 A1P2 =

(

0 ⋆0 Q−1BQ

)

=

(

0 ⋆0 T2

)

.

La matrice T2 est triangulaire supérieure à diagonale nulle. La matrice A2 est encore triangu-laire supérieure à diagonale nulle.Conclusion, A est semblable à A1, elle-même semblable à A2. La matrice A2 est triangulairesupérieure à diagonale nulle et A est semblable à cette matrice. On a P(p+1) au rang suivant.Pour ceux qui se destinent aux plus grands concours, retenez ce principe de dé-monstration par récurrence sur la taille des matrices.

Exercice 36On reprend le même principe que l’exercice 35. Allons-y !On montre par récurrence la propriété :P(n) : « si A ∈ Mn(C) est de trace nulle, elle est semblable à une matrice de diagonalenulle. ».Remarque : cette matrice à diagonale nulle n’est pas forcément triangulaire (sauf si la matricede départ était nilpotente éventuellement).• Lorsque n = 1, alors si A = (a) est de trace nulle, alors a = 0 et A est la matrice nulle deforme convenable (à diagonale nulle).• Supposons P(n).• Soit A ∈Mn+1(C) une matrice de trace nulle.On distingue deux cas :

⊲ si A est une homothétie, alors on note λ le rapport de l’homothétie, de sorte queA = λ In+1 puis :

0 = Tr(A) = λ Tr(In+1) = λ(n+ 1).

Cela impose λ = 0 et A est la matrice nulle ;⊲ siA n’est pas une homothétie, d’après un exercice déjà fait (et refait), il existe un vecteur

X dans Mp+1,1(C) tel que la famille (X,AX) soit libre dans cet espace Mp+1,1(C). Oncomplète cette famille libre en une base :

B = (X,AX, Y3, · · · , Yn+1).

On note P la matrice de passage de la base canonique de Mp+1,1(C) vers C . Alors, lamatrice A1 = P−1AP est de la forme :

A1 =

0 ⋆ · · · ⋆10... B0

.

32

Page 33: Corrections Feuille 15 - Free

Les matrices A et A1 sont semblables donc ont même trace :

Tr(A1) = 0.

Or, on voit que :Tr(A1) = Tr(B).

On peut appliquer l’hypothèse de récurrence à la matrice B ∈Mn(C) de trace nulle. On trouveune matrice inversible Q telle que la matrice Q−1BQ =M soit une matrice à diagonale nulle.On pose « comme d’habitude » la matrice inversible :

P =

(

1 00 Q

)

∈ GLn+1(C).

Le produit matriciel conduit aux calculs suivants :

P−1 =

(

1 00 Q−1

)

et A2 = P−1A1P =

(

0 ⋆⋆ Q−1BQ

)

=

(

0 ⋆⋆ M

)

.

La matrice A est semblable à la matrice A1 elle-même semblable à cette dernière matrice A2

qui est bien à diagonale nulle. On a la propriété P(n+ 1) au rang suivant.

Exercice 37On note (e1, · · · , e5) la base canonique de M5,1(R) et (ε1, · · · , ε4) celle de M4,1(R).On note C1, · · · , C5 les cinq colonnes de la matrice A.En suivant toujours la même méthode, on retient C1, puis C2, puis C3 (faire ici le calcul pourmontrer que C3 /∈ Vect(C1, C2), on laisse tomber C4 et on laisse tomber C5.On complète la famille libre (C1, C2, C3) avec l’un des vecteurs de la base (ε1, ε2, ε3, ε4). Enprenant ε1 cela marche (poser le calcul pour voir que ε1 n’est pas dans Vect(C1, C2, C3)).On obtient par exemple :

P =

1 0 0 2 10 1 0 0 −10 0 1 0 10 0 0 1 00 0 0 0 1

et Q =

1 −4 −3 12 −6 −6 0−3 12 12 00 2 3 0

.

On obtient ainsi Q−1AP = J3 =

1 0 0 0 00 1 0 0 00 0 1 0 00 0 0 0 0

.

Exercice 39Par le théorème du rang, Ker(A) est de dimension 3n− 2n = n.Comme A3 = 0, alors Im(A2) ⊂ Ker(A), donc Rg(A2) est inférieur ou égal à n.Considérons l’application linéaire :

f :

Im(A) −→ M3n,1(K)X 7−→ AX

.

On peut appliquer le théorème du rang à cette application linéaire, ce qui donne :

33

Page 34: Corrections Feuille 15 - Free

• Ker(f) = Im(A) ∩Ker(A)• Im(f) = A(Im(A)) = Im(A2)• 2n = dim(Im(A)) = dim(Ker(f)) + Rg(f).

Résultat des courses :

dim(Ker(A) ∩ Im(A)) + Rg(A2) = Rg(A) = 2n.

La somme des deux termes positifs(

n − dim(Ker(A) ∩ Im(A)))

+(

n − Rg(A2))

est nulle :

chaque terme est nul et on utilise surtout le fait que Rg(A2) = n.Soit (A2(e1), · · · , A2(en)) une base de Im(A2).On vérifie que la famille :

F =(

A2(e1), · · · , A2(en), A(e1), · · · , A(en), e1, · · · , en)

,

en libre en appliquant A2 à une combinaison linéaire nulle, puis en appliquant A à cette mêmecombinaison linéaire, puis en en déduisant la nullité des scalaires devant les A2(ek).La famille F est donc une base de M3n,1(K) et on vérifie immédiatement que la matrice depassage P de la base canonique de M3n,1(K) vers F satisfait à :

P−1AP =

0 In 00 0 In0 0 0

.

Exercice 40Une petite erreur de frappe a été signalée dans le cahier de textes il y a quelque temps.

1. Question déjà traitée en exercice 34, troisième question.

2. On remarque que S2 = S : S est une projection. De plus, Rg(S) = 1 immédiatement.En notant (e1, · · · , en) la base canonique de Mn,1(R), puis :

ε1 =

n∑

k=1

ek

et pour tout entier k ∈ J2, nK,εk = −e1 + ek,

alors la famille (ε1) est une base de Im(A), la famille (ε2, · · · , εn) est une base de Ker(A).En regroupant ces deux bases, on a une base notée C de Mn,1(R) = Im(A)⊕Ker(A).En posant P la matrice de passage de la base canonique vers C , alors :

P−1SP = J1 = E1,1.

3. • Si n = 1, l’espace des formes linéaires de Mn(R) vers R est de dimension 1 et la traceest une forme linéaire non nulle donc constitue une base de L (Mn(R),R). La formelinéaire ϕ est dans cet espace donc est colinéaire à Tr.• Si n > 2, il y a de la place pour avoir des matrices Ei,j , avec i 6= j.

34

Page 35: Corrections Feuille 15 - Free

La question 1. et l’hypothèse sur ϕ montrent que :

∀i ∈ J1, nK, ϕ(Ei,i) = ϕ(E1,1)

et :∀(i, j) ∈ J1, nK2, i 6= j =⇒ ϕ(Ei,j) = ϕ(E1,2).

On pose dans la suite λ = ϕ(E1,1) et α = ϕ(E1,2).Comme S ∼ E1,1, alors ϕ(S) = λ. Or,

S =1

n

n∑

i,j=1

Ei,j ,

donc par linéarité de ϕ :

λ = ϕ(S) =1

n

n∑

i,j=1

ϕ(Ei,j) =1

n

(

n λ+ (n2 − n) α)

.

Conclusion, (n2 − n) α = 0, donc α = 0.En définitive, les applications linéaires ϕ et λ · Tr coïncident sur la base canonique deMn(R), donc partout.

Exercice 41

1. On vérifie facilement que f est linéaire. Le truc à ne pas oublier est que si P est unpolynôme de degré inférieur à n, alors f(P ) reste de degré inférieur ou égal à n.Soit k un entier entre 0 et n. Alors,

f(Xk) = (n− k)Xk+1 +Xk − kXk−1.

Même lorsque k = n, le terme en Xn+1 s’élimine et lorsque k = 0, le terme en X−1 estéliminé par le coefficient k nul.La fonction f laisse donc bien stable l’espace Cn[X ] : c’est un endomorphisme.

2. (a) On écrit :Eλ = Ker(f − λ · idCn[X]),

qui est le noyau d’un endomorphisme : c’est un espace vectoriel.(b) On pose :

P (X) = ξ

r∏

k=1

(X − λk)αk ,

où les λk sont les racines différentes de P (X), on sait que :

P ′

P=

r∑

k=1

αk

X − λk.

D’autre part, le calcul élémentaire de la D.E.S. de l’autre fraction rationnelle conduità :

nX + 1− λX2 + 1

=a

X − i +b

X + i,

35

Page 36: Corrections Feuille 15 - Free

avec tous calculs faits :

a =1

2

(

(λ− 1)i+ n)

et b =1

2

(

(1− λ)i+ n)

.

(c) Comme P ∈ Eλ, alors f(P ) = λP et on constate rapidement que :

P ′

P=nX + 1− λX2 + 1

.

Les deux décompositions en éléments simples précédemment calculées sont égales.Par unicité à ordre près, r = 2 et par exemple :

α1 = a , λ1 = i, α2 = b et λ2 = −i.

La multiplicité α1 est un entier entre 0 et n (le polynôme P (X) admet au maximumcomme racines les complexes i et −i autorisant aux exposants à être nuls).On pose k = α1 = a appartenant donc à J0, nK.Ainsi,

2k = 2a = (λ− 1)i+ n = (ζ − 1)i+ (n− ξ).En identifiant partie réelle et partie imaginaire, on obtient :

ζ = 1 et ξ = n− 2k.

(d) Soit k un entier entre 0 et n. On pose λk = 1 + i(n − 2k). Soit P un polynômeéventuellement non nul dans Eλk

. Par ce qui précède, alors le polynôme P s’écrit :

P (X) = ξ (X − i)αi(X + i)α2 ,

avec α1 = k et α2 = n− k.On vient de montrer que :

Eλk⊂ Vect

(

(X − i)k(X + i)n−k)

.

Réciproquement, si P est non nul dans la droite vectorielle de droite (sans jeu demots) alors on vérifie facilement que :

P ′

P=

k

X − i +n− kX + i

=a

X − i +b

X + i,

avec a =1

2

(

(λk − 1)i+ n)

et b =1

2

(

(1− λk)i+ n)

. Par conséquent,

f(P ) = λk · P.

On a l’autre inclusion, d’où l’égalité.

3. Il suffit de montrer que la famille proposée est libre.

Soitn∑

k=0

ak(X − i)k(X + i)n−k = 0 une combinaison linéaire nulle. On a déjà traité ce

genre de chose...

36

Page 37: Corrections Feuille 15 - Free

Supposons que les scalaires ak ne soient pas tous nuls. On choisit alors un indice k0minimal tel que ak0 ne soit pas nul. Ainsi, la combinaison linéaire nulle se simplifie unpeu en :

n∑

k=k0

ak(X − i)k(X + i)n−k = 0,

car si k < k0 est un entier naturel, par minimalité, ak = 0 et on supprime le terme dela somme.La dernière égalité devient en factorisant par (X − i)k0 :

(X − i)k0 ×(

n∑

k=k0

ak(X − i)k−k0(X + i)n−k

)

= 0.

Par intégrité de l’anneau C[X ], on obtient :n∑

k=k0

ak(X − i)k−k0(X + i)n−k = 0.

L’évaluation en i donne maintenant :

ak0 = 0.

Ceci contredit le choix de l’indice k0.4. Par le calcul fait plus haut pour f(Xk), on en déduit assez directement que :

A =

1 −1 0 · · · 0

n 1 −2 . . . ...

0 n− 1. . . −3 0

... . . . . . . 1 −n0 · · · 0 1 1

∈Mn+1(C).

5. En posant la matrice de passage de la base canonique de Cn[X ] vers la base trouvéeen question 3., on obtient que la matrice A est diagonalisable (c’est-à-dire semblable àune matrice diagonale).La matrice P−1AP est exactement la matrice diagonale dont les coefficients diagonauxsont dans cet ordre :

1 + in, 1 + i(n− 2), 1 + i(n− 4), · · · , 1− in.

Exercice 42

1. On sait que Im(A) ⊂ Ker(A) puisque A2 = 0. Par le théorème du rang,

3 = dim(Im(A)) + dim(Ker(A)) > 2 dim(Im(A)).

Comme Rg(A) est un entier inférieur à3

2, alors soit Rg(A) = 0, ce qui est exclu vu que

la matrice A est non nulle, soit Rg(A) = 1, seul cas possible.

37

Page 38: Corrections Feuille 15 - Free

2. On choisit ε1 = A(x) un vecteur non nul dans Im(A).On choisit ε2 = x.On choisit ε3 un vecteur dans Ker(A) \Vect(ε1), ensemble non vide puisque Ker(A) estun plan vectoriel.On vérifie que la famille (ε1, ε2, ε3) est libre. En effet, si a ε1 + b ε2 + c ε3 = 0 est unecombinaison linéaire nulle, on applique A, ce qui donne :

b A(ε2) = 0.

Or, A(ε2) est non nul, donc b = 0.On revient à :

a ε1 + c ε3 = 0.

Comme ε3 n’est pas dans l’espace vectoriel engendré par ε1, la famille (ε1, ε3) est libreet les scalaires a et c sont maintenant nuls.La famille (ε1, ε2, ε3) constitue par conséquent une base de M3,1(C) et la matrice re-présentant l’endomorphisme uA selon cette base est la matrice E1,2.On peut faire de même pour la matrice B vérifiant les mêmes hypothèses que A. Ondécouvre que la matrice B est semblable à la matrice E1,2 : les matrices A et B sontdonc semblables, car toutes les deux semblables à E1,2.

Exercice 45

1. L’ensemble IA est un sous-groupe de C[X ] muni de l’addition car le polynôme nul estdans IA et si P et Q sont dans IA, alors P −Q aussi.Si P est dans IA et Q est n’importe quel polynôme, alors :

(P ×Q)(A) = P (A)×Q(A) = 0×Q(A) = 0.

Le produit P ×Q reste dans IA.On remarque finalement que la famille (Ak)06k6n2 est de cardinal n2+1 > dim(Mn(C)).Il s’agit d’une famille liée, d’où l’existence d’une combinaison linéaire nulle non triviale(les scalaires ne sont pas tous nuls) de la forme :

n2

k=0

ak Ak = 0.

Le polynôme P (X) =n2

k=0

ak Xk est non nul et appartient à IA.

2. • Question difficile ! On donne la réponse :

µA(X) = Xn −n−1∑

k=0

akXk.

38

Page 39: Corrections Feuille 15 - Free

On commence par montrer que deg(µA) > n. En effet, en notant (e1, · · · , en) la basecanonique de Mn,1(C), si P est dans IA avec deg(P ) 6 n − 1, en posant P (X) =n−1∑

k=0

λk Xk, alors :

n−1∑

k=0

λk Ak = 0.

On applique ceci au vecteur e1. Par la forme de la matrice A, si k est un entier entre 1et n− 1, alors :

A(ek) = ek+1,

donc :

0 = P (A)(e1) =

n−1∑

k=0

λk Ak(e1) =

n−1∑

k=0

λk ek+1.

Immédiatement, tous les scalaires λk sont nuls, et donc le polynôme P est nul. Lepolynôme µA(X) ne peut être de degré inférieur ou égal à n− 1, donc deg(µA) > n.On va maintenant montrer que :

µA(X) = Xn −n−1∑

k=0

ak Xk,

avec les coefficients ak de la matrice A.

Il suffit pour cela de montrer que le polynôme Q(X) = Xn−n−1∑

k=0

ak Xk annule la matrice

A, ou encore que Q(X) appartient à IA.Le cours de deuxième année donnera des résultats à ce sujet. On essaie malgré toutavec les moyens du bord.

Voici une première approche, méthode un peu laborieuse mais qui revisite des chosesclassiques...

On pose :

F =

{

u ∈ CN | ∀p ∈ N, up+n =

n−1∑

k=0

ak up+k

}

.

L’ensemble F est un C-espace vectoriel de dimension finie et comme les éléments de Fsont uniquement déterminés par les n premiers termes de la suite, alors l’application :

ϕ :

F −→ Cn

u 7−→ (u0, · · · , un−1)

est un isomorphisme.On pose (e1, · · · , en) la base canonique de Cn de sorte que la famille

B =(

Uk = ϕ−1(ek))

16k6n

39

Page 40: Corrections Feuille 15 - Free

forme une base de F .On pose le décalage :

f :

F −→ F(up)p∈N 7−→ (up+1)p∈N

.

Il est facile de vérifier que f(F ) ⊂ F (si u vérifie la relation de récurrence linéaire, alorsf(u) aussi) et que f est linéaire. De plus, pour tout k ∈ N, on a :

∀u = (up)p∈N, fk(u) = (up+k)p∈N.

On note A′ la matrice représentant l’endomorphisme f selon B.La matrice A′ est de format n× n.Soit j est le numéro d’une colonne, j étant un entier entre 1 et n. Pour calculer lescolonnes de A′, on a besoin d’avoir les termes (Uj)k, lorsque k décrit 0, · · · , n que l’onnote u0, · · · , un.On aura alors :

ϕ(f(Uj)) = (u1, · · · , un) =(

u1, · · · , un−1,n−1∑

k=0

ak uk

)

,

donc :

ϕ(f(Uj)) =n∑

k=1

uk · ek =n∑

k=1

uk · ϕ(Uk) = ϕ

(

n∑

k=1

uk · Uk

)

.

Par injectivité de ϕ :

f(Uj) =

n∑

k=1

uk · Uk.

La colonne Cj dans la matrice A′ sera alors :

Cj =

u1...un

,

avec un =

n−1∑

k=0

ak uk.

En posant à tête reposée les calculs des différentes colonnes, on aboutit à :

A′ = AT

la transposée de la matrice A.

Ensuite, en utilisant le polynôme Q(X) = Xn −n−1∑

k=0

ak Xk, on obtient que l’endomor-

phisme Q(f) est l’endomorphisme agissant sur les suites appartenant à F :

Q(f) : u 7−→(

up+n −n−1∑

k=0

ak up+k

)

p∈N

.

40

Page 41: Corrections Feuille 15 - Free

Par définition de l’espace F , on constate que Q(f) est l’application linéaire nulle etdonc comme Q(A′) est l’application linéaire associée à Q(f) selon la base B, alors :

A′n −n−1∑

k=0

ak A′k = 0.

En prenant finalement la transposée, sachant que (AT )k = (Ak)T , alors :

Q(A) = 0.

Le polynôme Q(X) est bien dans l’idéal IA et il n’y a pas d’autres polynômes non nulsdans IA de degré inférieur à n : Q(X) = µA(X).

On propose ici une approche plus directe et plus facile à comprendre.En rappelant que la base canonique de Mn,1(C) est notée (e1, · · · , en), il est facile devoir que pour tout entier k entre 1 et n− 1,

A(ek) = ek+1.

Ainsi, pour tout entier k entre 0 et n− 1, on a :

Ak(e1) = ek+1.

Par ailleurs :

An(e1) =n−1∑

i=0

ai · ei+1 =n−1∑

i=0

ai ·A(e1).

Ceci donne l’idée de poser le polynôme Q(X) = Xn −n−1∑

i=0

ai ·X i.

On voit déjà que Q(A)(e1) = 0.Soit k un entier entre 1 et n. Alors :

Q(A)(ek) = Q(A)(

Ak−1(e1))

=(

Q(A)Ak−1)

(e1)

= Ak−1(

Q(A)(e1))

= Ak−1(0) = 0.

L’application linéaire Q(A) est nulle sur la base canonique donc est nulle partout. Lepolynôme Q(X) est bien annulateur de la matrice A et donc est ici son polynômeminimal.

• Si i = j et n = 1, alors µA(X) = X − 1.Si i = j et n > 2, alors µA(X) = X(X − 1), car ce polynôme annule Ei,i et toutpolynôme unitaire de degré 1 ne peut annuler la matrice de projection Ei,i car Ei,i n’estpas la matrice d’une homothétie.

41

Page 42: Corrections Feuille 15 - Free

Si i 6= j, on remarque que la matrice A = Ei,j est non nulle (donc X /∈ IA) et A2 = 0.Ainsi, µA(X) = X2.• Si A est remplie de 1 seulement, si n = 1, alors µA(X) = X − 1 car A est l’identité.Lorsque n > 2, on remarque que A2 = nA, donc le polynôme X(X − n) appartient àIA. Comme A n’est pas une homothétie, alors µA(X) n’est pas de degré 1 : µA(X) =X(X − n) dans ce cas.• On pose A la matrice diagonale de coefficients diagonaux d1, · · · , dn.On pose {d1, · · · , dn} = {δ1, · · · , δr}, ensemble de cardinal r.On va montrer que :

µA(X) =

r∏

k=1

(X − δk) =∏

ω∈{d1,···,dn}

(X − ω).

On sait que si P est un polynôme quelconque dans C[X ], alors la matrice P (A) estdiagonale de coefficients diagonaux P (d1), · · · , P (dn).Si P ∈ IA, alors tous les dk sont racines de P (X), donc tous les nombres différents δksont racines de P (X) et donc P (X) est multiple de :

Q(X) =

r∏

k=1

(X − δk).

Réciproquement, ce polynôme Q(X) appartient bien à IA et c’est le meilleur en termede degré – i.e. de degré minimal dans IA \ {0}. On a prouvé ce qui était annoncé.

3. La réponse est oui !Si A ∼ B, on écrit : B = R−1AR avec R une matrice inversible.Pour tout polynôme P (X),

P (B) = R−1P (A)R.

On en déduit :∀P ∈ C[X ], P (B) = 0⇐⇒ P (A) = 0.

Ainsi, les ensembles IA et IB sont égaux et ces deux idéaux possèdent le même polynômeminimal unitaire :

µA(X) = µB(X).

Exercice 47Il est bien de placer cet exercice en annexe de cours sur les matrices nilpotentes.

1. On a déjà vu ce genre de choses...On note (e1, · · · , ed) la base canonique de Md,1(C). On note :

Fk = Vect(e1, · · · , ek).

Comme pour tout entier k entre 1 et d,

N(ek) ∈ Fk−1,

42

Page 43: Corrections Feuille 15 - Free

on voit que :N(Fk) ⊂ Fk−1.

Ainsi,Im(Nd) = Nd(Fd) ⊂ Nd−1(Fd−1) ⊂ · · · ⊂ N(F1) ⊂ F0 = {0}.

L’endomorphisme Nd est d’image nulle, donc Nd = 0.2. On numérote les points de (1) à (5).• (1) =⇒ (4)

On suppose Nd−1 non nulle. Il existe un vecteur colonne X dans Md,1(C) tel queNd−1X 6= 0. On montre facilement (déjà fait plein de fois) que la famille

(Nd−1X,Nd−2X, · · · , NX,X)

est libre, donc forme une base de Md,1(C).

Selon cette base, l’endomorphisme uN se représente selond∑

k=2

Ek−1,k.

• (4) =⇒ (1)

On voit que la matrice M =d∑

k=2

Ek−1,k vérifie :

Md−1(ed) = e1 6= 0.

Ainsi, la matrice Md−1 n’est pas nulle.• (4) =⇒ (2)

Il est clair que la matrice N étant semblable à la matrice M =d∑

k=2

Ek−1,k a un rang

égal à Rg(M). Il est facile de voir que Rg(M) = d− 1.• (2) =⇒ (3)

On suppose N de rang d − 1. La première colonne de N est nulle. Il est nécessaire deconserver les colonnes C2, · · · , Cd de la matrice N pour en constituer une base de sonimage. Cela impose que C2 soit une base de F1, puis (C2, C3) soit une base de F2, etc.Nécessairement, cela impose que le coefficient numéro j − 1 dans la colonne Cj ne soitpas nul, sinon on aurait Cj dans Fj−2 = Vect(C2, · · · , Cj−1).En définitive, tous les coefficients juste au-dessus de la diagonale de N sont non nuls.Leur produit aussi.• (3) =⇒ (2)

Il devient clair sous l’hypothèse (3) que la famille (C2, · · · , Cd) est libre et comme C1

est nulle, alors (C2, · · · , Cd) est une base de Im(N) : Rg(N) = d− 1.• (4) =⇒ (5)

Si N est semblable à la matrice M =d∑

k=2

Ek−1,k, on écrit :

N = PMP−1,

43

Page 44: Corrections Feuille 15 - Free

pour une certaine matrice inversible P .

Soitd−1∑

k=0

ak Nk = 0 une combinaison linéaire nulle.

On multiplie le tout à gauche par P−1 et à droite par P , ce qui donne :

d−1∑

k=0

ak Mk = 0.

On applique cette égalité entre matrices et donc entre endomorphismes en le vecteured, sachant que M(ek) = ek−1 si k > 2 et M(e1) = 0. On obtient :

0 =

(

d−1∑

k=0

ak Mk

)

(ed) =

d−1∑

k=0

ak ed−k =

d∑

ℓ=1

ad−ℓ eℓ.

Tous les scalaires ad−ℓ sont nuls, et donc tous les scalaires ak.La famille est bien libre.• (5) =⇒ (1)

Comme Nd−1 fait partie de cette famille libre, alors Nd−1 n’est pas nul.• (3) =⇒ (1)

On note a1, · · · , ad−1 les coefficients dans N juste au-dessus de la diagonale et dans cetordre : Nk−2,k = ak−1 pour k entre 2 et d.On calcule Nd−1, ou plutôt, on calcule Nd−1(ed). Avec les notations déjà vues, on écrit :

Nd−1(ed) = Nd−2(N(ed))

= Nd−2(ad−1 · ed−1 + x), avec x ∈ Fd−2

= ad−1 ·Nd−2(ed−1), car Nd−2 nul sur Fd−2

= ad−1 ·Nd−3(N(ed−1))

= ad−1 ·Nd−3(ad−2 · ed−2 + y), avec y ∈ Fd−3

= ad−1ad−2 ·Nd−3(ed−2)...= ad−1ad−2 · · · a2 ·N(e2)

= ad−1ad−2 · · · a2a1 · e1.

Tout ceci montre que Nd−1(ed) n’est pas le vecteur nul et donc que la matrice Nd−1

n’est pas nulle.Comme Nd−1 est nul sur Fd−1, alors :

Nd−1 =

(

d−1∏

k=1

ak

)

· E1,d,

car les deux endomorphismes associés à ces deux matrices coïncident sur la base cano-nique de Md,1(C) : ces deux matrices sont bien égales.

44

Page 45: Corrections Feuille 15 - Free

Exercice 49

1. Il suffit de montrer que B2 = B.On écrit une somme rectangulaire, en posant d le cardinal de G. :

B2 =1

d2

(

A1∈G

A1

)(

A2∈G

A2

)

=1

d2

A1∈G

(

A2∈G

A1A2

)

.

Or, si l’élément A1 est fixé dans le groupe G, l’application :

ϕ :

G −→ GA2 7−→ A1A2

est une bijection d’inverse : ϕ−1 : A2 7−→ A−11 A2.

On en déduit que les matrices A1A2, lorsque A1 est fixé et lorsque A2 varie dans Gforme exactement l’ensemble ϕ(G) = G. Résultat des courses :

∀A1 ∈ G,∑

A2∈G

A1A2 =∑

C∈G

C = d ·B.

Ainsi,

B2 =1

d2

A1∈G

(d · B) =1

d

A1∈G

B = B.

2. La matrice B est semblable à une matrice de type Jr, avec r = Rg(B), donc :

Tr(B) = Tr(Jr) = r.

On utilise maintenant la linéarité de la trace, ce qui donne :

r = Tr

(

1

d

A∈G

A

)

=1

d

A∈G

Tr(A).

La quantité N =∑

A∈G

Tr(A) est donc égal à d r : c’est un entier multiple de l’entier

d = card(G), d’où le résultat.

Exercice 51

1. facile

2. Comme A2 = 0, alors Im(A) ⊂ Ker(A). Le théorème du rang donne :

3 = Rg(A) + dim(Ker(A)).

Or, Rg(A) 6 dim(Ker(A)) : les seules possibilités sont Rg(A) = 0 ou Rg(A) = 1.Cependant, comme la matrice A est non nulle, son rang est non nul et donc Rg(A) = 1.On note (e1, e2, e3) la base canonique de M3,1(R). On choisit une bonne base C =(ε1, ε2, ε3) de M3,1(R) comme suit :

45

Page 46: Corrections Feuille 15 - Free

• choisir ε1 un vecteur non nul dans Im(A) : le vecteur ε1 sera dans Ker(A) ;• choisir ε2 un vecteur non colinéaire à ε1 et ε2 dans le plan vectoriel Ker(A) ;• choisir un antécédent ε3 du vecteur ε1 par l’application linéaire uA.La famille C = (ε1, ε2, ε3) est une famille libre car en appliquant uA à une combinaisonlinéaire nulle, on obtient que le scalaire devant ε3 est nul. On obtient une combinaisonlinéaire nulle entre ε1 et ε2 non colinéaire : les deux autres scalaires sont nuls.La matrice de passage P de la base canonique vers la base C vérifie ce qui est demandé.

3. Ce type de question est assez classique : à comprendre.On note :

F ′ ={

M ∈M3(R) | A′M +MA′ = 0}

.

On montrerait que F ′ est encore un espace vectoriel. De plus, l’application :

ϕ :

M3(R) −→ M3(R)M 7−→ P−1MP

est un isomorphisme – c’est carrément un automorphisme d’algèbres ! !Les espaces F et F ′ sont de dimension finie inférieure à 9 = dim(M3(R)).De plus, si M est dans M3(R), on a les équivalences :

M ∈ F ⇐⇒ AM +MA = 0

⇐⇒ PA′P−1M +MPA′P−1 = 0

⇐⇒ A′P−1MP + P−1MPA′ = 0 × à droite par P , à gauche par P−1

⇐⇒ ϕ(M) ∈ F ′.

L’application ψ : M 7−→ ϕ(M) restreinte à F est un isomorphisme de F vers F ′ : cesdeux espaces ont même dimension.On va en fait calculer dim(F ′) car A′ est plus simple.Comme la matrice A′ est très simple, le mieux est de prendre une matrice quelconque :

M ′ =

a b cd e fg h i

et le calcul matriciel fait :

A′M ′ +M ′A′ =

g h a+ i0 0 d0 0 g

.

La matrice M ′ appartient à F ′ si et seulement si :

g = h = d = a+ i = 0

si et seulement si :

M ′ =

a b c0 e f0 0 −a

.

46

Page 47: Corrections Feuille 15 - Free

On voit que la famille(

E1,1 − E3,3, E1,2, E1,3, E2,2, E2,3

)

forme une base de F ′ :

dim(F ) = dim(F ′) = 5.

Exercice 52Exercice classique sur les matrices que l’on appelle à diagonale dominante.

1. Il faut comprendre que le corps K est nécessairement un sous-corps de C, pour pouvoircalculer les modules ou les valeurs absolues. On oublie les corps bizarres du type Z/pZavec p premier.Soit X un vecteur dans Ker(A). Alors, AX = 0, donc pour tout entier i entre 1 et n :

n∑

j=1

ai,j · xj = 0.

On suppose le vecteur X non nul, par l’absurde.Parmi toutes les composantes xi, on choisit un indice i0 tel que la quantité |xi0 | soitmaximale, donc nécessairement strictement positive.On obtient en piochant l’équation numéro i0 :

n∑

j=1

ai0,j · xj = 0 ou encore ai0,i0 xi0 = −∑

j 6=i0

ai0,j · xj .

On prend les modules puis on utilise l’inégalité triangulaire, ce qui donne :

|ai0,i0| · |xi0 | =∣

j 6=i0

ai0,j · xj∣

6∑

j 6=i0

|ai0,j| |xj |.

Par choix de i0, |xj| 6 |xi0 |, donc :

|ai0,i0 | · |xi0 | 6(

j 6=i0

|ai0,j|)

· |xi0 |.

En divisant par |xi0 | > 0, on obtient :

|ai0,i0| 6∑

j 6=i0

|ai0,j|,

ce qui constitue une contradiction avec l’énoncé.Le noyau Ker(A) ne contient que le vecteur nul.

2. L’application linéaire uA est injective et donc surjective sur Mn,1(K) par le théorèmedu rang.

47

Page 48: Corrections Feuille 15 - Free

Exercice 58Il y a plusieurs manières de faire.Je choisis de détailler un raisonnement par récurrence forte sur n en montrant :P(n) : « si A1, · · · , An sont n matrices nilpotentes dans Mn(C) qui commutent entre elles,alors le produit :

A1 × · · · ×An

est nul. »• Lorsque n = 1, si A1 = (a) est une matrice nilpotente dans M1(C), alors le complexe avérifie : ∃k ∈ N, ak = 0, donc a = 0 et A1 = 0.• Supposons les propriétés P(k), vraies jusqu’au rang n.• Soient A1, · · · , An, An+1, (n+ 1) matrices nilpotentes qui commutent toutes entre elles.On distingue deux cas :

⊲ la matrice An+1 est nulle. Dans ce cas, le produit des matrices Ak est nul.⊲ la matrice An+1 n’est pas nulle. On pose F = Ker(An+1). L’espace F n’est pas réduit

à {0} car sinon la matrice An+1 serait inversible mais aucune matrice nilpotente n’estinversible (si N nilpotente est inversible, pour tout entier naturel k, Nk reste inversibleet donc pour un certain entier k, 0 = Nk serait inversible...).L’espace F est un sous-espace de Mn+1,1(C) et d = dim(F ) est compris entre 1 et n, lamatrice An+1 étant non nulle, l’espace F est différent de l’espace tout entier.Soit X ∈ F . Alors, pour tout entier i entre 1 et n, on peut écrire :

An+1AiX = AiAn+1X = Ai0 = 0.

On en déduit que l’espace F est stable par chaque endomorphisme Ai.Prenons une base de F que l’on complète en une base C de Mn+1,1(C). Dans la suite,on pose :

A′i = P−1AiP,

où P est la matrice de passage de la base canonique vers C . Ainsi,

A′i = M atC (uAi

).

Comme les matrices Ai commutent entre elles, alors les matrices A′i également.

Comme les matrices Ai sont nilpotentes, alors les matrices A′i également.

On pose la représentation par blocs :

A′i =

(

Bi Ci

Di Ei

)

,

où le bloc Bi est de format d× d et le bloc Ei est de format n+ 1− d.Comme les d premiers vecteurs de la base C représentant les endomorphismes uAi

sontles vecteurs d’une base de Ker(An+1) qui est stable par chaque uAi

, alors chaque blocDi est nul :

A′i =

(

Bi Ci

0 Ei

)

.

Si i et j sont deux entiers, alors par un calcul matriciel par blocs :

A′i ×A′

j =

(

BiBj BiCj + CiEj

0 EiEj

)

.

48

Page 49: Corrections Feuille 15 - Free

Comme A′iA

′j = A′

jA′i, alors les matrices carrées Bi commutent entre elles et les matrices

Ei commutent entre elles.Ensuite, pour tout entier k,

A′i

k=

(

Bki ⋆

0 Eki

)

.

Il existe un entier k tel que A′ik = 0, donc pour ce même entier k, Bk

i = 0 et Eki = 0.

En fait, on va utiliser l’hypothèse de récurrence forte P(n+ 1− d), ce qui est possiblecar d > 1.Les matrices Ei sont toutes nilpotentes et de format δ = n+ 1− d. Par H.R. forte, onsait que le produit :

E1 × · · · × Eδ,

est nul dans Mδ(C). On déduit en rajoutant encore d’autres matrices Ei que le produitE1 × · · · × En est encore nul.De ce fait, la matrice M = A′

1 × · · · × A′n est de la forme :

M =

(

M1 M2

0 0

)

.

La matrice A′n+1 est de la forme :

A′n+1 =

(

0 Cn+1

0 En+1

)

.

Comme les matrices A′i commutent avec la matrice A′

n+1, alors la matriceA′n+1 commute

avec M . Le calcul par blocs donne :

A′1 × · · · × A′

n × A′n+1 =MA′

n+1 = A′n+1M =

(

0 Cn+1

0 En+1

)

×(

M1 M2

0 0

)

= 0.

Conclusion, le produit :

A′1 × · · · ×A′

n+1 = P (A1 × · · · ×An+1)P−1

est nul : le produit A1 × · · · × An+1 est nul également.Quoiqu’il arrive, la propriété P(n + 1) est vraie au rang suivant.

Exercice 59

On considère la matrice A donnée par ses lignes

L1

L2...Ln

ou ses colonnes(

C1 C2 · · · Cn

)

,

si M est une matrice carrée donnée par ses coefficients mi,j , alors la multiplication à gauche

49

Page 50: Corrections Feuille 15 - Free

MA donne :

MA =

n∑

k=1

m1,kLk

n∑

k=1

m2,kLk

...n∑

k=1

mn,kLk

et la multiplication à droite AM donne :

AM =

(

n∑

k=1

mk,1Ck

n∑

k=1

mk,2Ck · · ·n∑

k=1

mk,nCk

)

.

On modélise les opérations habituelles par des opérations matricielles :• opération Li ←− Li+aLj : multiplication à gauche par In+aEi,j ; matrice triangulairesupérieure si i < j• opération Ci ←− Ci + aCj : multiplication à droite par In + aEj,i ; matrice triangulairesupérieure si j < i• opération Li ←− aLi : multiplication à gauche par In+(a−1)Ei,i ; matrice triangulairesupérieure• opération Ci ←− aCi : multiplication à droite par In+(a− 1)Ei,i ; matrice triangulairesupérieure

Dans la colonne C1, on considère le coefficient Ai1,1 le plus en bas parmi les coefficients nonnuls de la colonne C1. L’entier i1 est donc maximal.On effectue les opérations Li1 ←− (A11,1)

−1 · Li1 , puis sur la nouvelle matrice A obtenue :Lk ←− Lk − Ak,1 · Li1 , pour k < i1. La nouvelle matrice A obtenue ne comporte en premièrecolonne qu’un coefficient non nul valant 1 en position (i1, 1).On effectue les opérations Ck ←− Ck − Ai1,k · C1, pour k > 1. La nouvelle matrice A necomporte qu’un seul coefficient non nul valant 1 en première position de la i1eme ligne.

On renouvelle le processus sur cette matrice A inversible : on considère le coefficient Ai2,2 nonnul le plus en bas dans la colonne C2 de la nouvelle matrice A. Nécessairement, les entiers i2et i1 sont différents car le coefficient ligne i1 de la deuxième colonne est nul.On effectue les opérations sur les lignes, ces opérations ne faisant plus intervenir la i1eme ligne.La nouvelle colonne C2 ne comporte plus qu’un coefficient non nul valant 1 en i2eme position.En effectuant maintenant les opérations sur les colonnes, ces opérations ne faisant pas inter-venir la colonne C1, on annule les coefficients de la i2eme ligne.

À une étape k, on considère le coefficient Aik,k non nul sur la colonne Ck, avec ik maximal. Lamatrice A étant inversible, la colonne Ck est non nulle, d’où l’existence d’un tel indice ik.L’entier ik n’appartient pas à l’ensemble {i1, · · · , ik−1}, car les lignes Li1 , · · · , Lik−1

comportentuniquement des coefficients nuls en keme position.On effectue les opérations Lik ←− (Aik,k)

−1 · Lik , puis Lℓ ←− Lℓ − Aℓ,k · Lik , ces opérationsn’affectant pas les entiers dans {i1, · · · , ik−1}, pour ℓ < ik. La nouvelle colonne Ck ne comportequ’un coefficient non nul valant 1 en ikeme position.

50

Page 51: Corrections Feuille 15 - Free

On utilise maintenant les opérations Cℓ ←− Cℓ − Aik,ℓ · Ck, pour ℓ > k. La ligne Lik necomporte maintenant qu’un seul coefficient non nul valant 1 en keme position.

On réitère ce processus jusqu’à la colonne Cn.

Après toutes ces opérations, la matrice A finale est une matrice de permutation car chaquecolonne Ck ne contient qu’un seul coefficient non nul valant 1 en position (ik, k) et les entiersi1, · · · , in sont tous différents.En résumé, étant parti d’une matrice inversible A, les opérations sur les lignes reviennentà multiplier A à gauche par une matrice inversible triangulaire supérieure, et les opérationssur les colonnes reviennent à multiplier A à droite par une matrice inversible triangulairesupérieure.L’ensemble des matrices triangulaires supérieures est un sous-groupe de GLn(C). En définitive,on trouve deux matrices triangulaires supérieures U1 et U2 et une matrice de permutation Ptelles que :

U1AU2 = P , donc A = U−11 PU−1

2 .

Les matrices U−11 et U−1

2 sont bien des matrices triangulaires inversibles.Ceci achève la démonstration requise.

51