Algèbre II EG4

Embed Size (px)

Citation preview

  • COLE POLYTECHNIQUEFDRALE DE LAUSANNE

    Algbre Linaire

    Bachelor 1re anne

    2008 - 2009

    Sections : Matriaux et Microtechnique

    Support du cours de Dr. Lara Thomas

    Polycopi labor par :

    Prof. Eva Bayer FluckigerDr. Philippe Chabloz

    Version de septembre 2007

  • 2

  • Table des matires

    1 Systmes dquations linaires et matrices 71.1 Introduction aux systmes dquations linaires . . . . . . . . . . . . . . . . . . . . . 7

    1.1.1 Systmes linaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.2 Elimination Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    1.2.1 Algorithme dlimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 131.2.2 Mthode de rsolution dun systme dquations linaires . . . . . . . . . . . 16

    1.3 Systmes homognes dquations linaires . . . . . . . . . . . . . . . . . . . . . . . . 17

    2 Elments du calcul matriciel 192.1 Quelques dfinitions et oprations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.2 Le produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    2.2.1 Matrice identit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.3 Rgles du calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.4 Ecriture matricielle des systmes dquations linaires . . . . . . . . . . . . . . . . . 222.5 Linversion des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    2.5.1 Matrices 2 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.5.2 Puissances dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    2.6 Les matrices lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.7 Calcul de linverse dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.8 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.9 La transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.10 La trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.11 Matrices symtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322.12 Matrices antisymtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    3 Le dterminant 333.1 Permutations et dterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2 et 3 3 . 363.2 Dterminants et oprations lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . 373.3 Les cofacteurs et la rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    3.3.1 Calcul du dterminant par la mthode des cofacteurs . . . . . . . . . . . . . . 433.3.2 Calcul de linverse par la mthode des cofacteurs . . . . . . . . . . . . . . . . 453.3.3 Systmes linaires : rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . 47

    4 Calcul vectoriel dans le plan et dans lespace 494.1 Dfinitions et rgles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

    4.1.1 Systmes de coordonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.1.2 Proprits du calcul vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

    4.2 Le produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524.2.1 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    4.3 Le produit vectoriel (cross product) . . . . . . . . . . . . . . . . . . . . . . . . . . . 554.3.1 Interprtation gomtrique du produit vectoriel . . . . . . . . . . . . . . . . . 58

    4.4 Le produit mixte (triple product) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594.5 Droites et plans dans lespace de dimension 3 . . . . . . . . . . . . . . . . . . . . . . 61

    4.5.1 Equation du plan passant par un point P0 et ayant vecteur normal n . . . . . 61

    3

  • 4 TABLE DES MATIRES

    4.5.2 Droites dans lespace de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . 62

    5 Espaces euclidiens et applications linaires 655.1 Espaces de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    5.1.1 Dfinitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655.1.2 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.1.3 Norme et distance dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675.1.4 Reprsentation matricielle des vecteurs de Rn . . . . . . . . . . . . . . . . . . 685.1.5 Formule matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . . . . 695.1.6 Multiplication des matrices et produit scalaire . . . . . . . . . . . . . . . . . 70

    5.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 715.2.1 Rappels sur les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 715.2.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 725.2.3 Quelques exemples dapplications linaires . . . . . . . . . . . . . . . . . . . . 725.2.4 Rotations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.2.5 Composition dapplications linaires . . . . . . . . . . . . . . . . . . . . . . . 76

    5.3 Proprits des applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

    6 Espaces vectoriels 816.1 Dfinition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

    6.2.1 Espace des solutions dun systme dquations linaires homognes . . . . . . 846.3 Combinaison linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 856.4 Indpendance linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

    6.4.1 Interprtation gomtrique de la dpendance linaire . . . . . . . . . . . . . . 886.5 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 896.6 Espace des lignes et colonnes dune matrice . . . . . . . . . . . . . . . . . . . . . . . 946.7 Changements de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

    6.7.1 Changement de bases en 2 dimensions . . . . . . . . . . . . . . . . . . . . . . 996.7.2 Dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

    7 Produits scalaires gnraliss 1037.1 Dfinition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1037.2 Angles et orthogonalit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

    7.2.1 Angle form par deux vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 1077.3 Bases orthogonales et mthode de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 1107.4 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

    7.4.1 Dfinition et Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1147.4.2 Changement de bases orthonormes . . . . . . . . . . . . . . . . . . . . . . . 1157.4.3 Dcomposition Q-R : application du thorme 7.30 . . . . . . . . . . . . . . . 115

    7.5 La mthode des moindres carrs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1177.5.1 Solution approximative dun systme dquations linaires . . . . . . . . . . . 117

    8 Valeurs propres et vecteurs propres 1218.1 Dfinitions et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

    8.1.1 Calcul des vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1238.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

    8.2.1 Mthode pour diagonaliser une matrice . . . . . . . . . . . . . . . . . . . . . 1278.3 Matrices symtriques et diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 128

    9 Applications linaires 1319.1 Dfinitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

    9.1.1 Proprits des applications linaires . . . . . . . . . . . . . . . . . . . . . . . 1349.1.2 Expression dune application linaire dans une base . . . . . . . . . . . . . . 134

    9.2 Noyau et image dune application linaire . . . . . . . . . . . . . . . . . . . . . . . . 1369.3 Applications linaires inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1389.4 Matrice dune application linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

  • TABLE DES MATIRES 5

    10 Applications multilinaires et tenseurs 14310.1 Formes linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

    10.1.1 Formes linaires sur V : tenseurs dordre (0,1) . . . . . . . . . . . . . . . . . . 14310.1.2 Espace dual, bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14310.1.3 Formes linaires sur V : tenseurs dordre (1, 0) . . . . . . . . . . . . . . . . . 145

    10.2 Formes multilinaires sur V : tenseurs dordre (0,m) . . . . . . . . . . . . . . . . . . 14610.2.1 Formes bilinaires sur V : tenseurs dordre (0, 2) . . . . . . . . . . . . . . . . 14610.2.2 Tenseurs dordre (0,m) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14710.2.3 Quelques interprtations physiques . . . . . . . . . . . . . . . . . . . . . . . . 147

    10.3 Formes multilinaires sur V : tenseurs dordre (m, 0) . . . . . . . . . . . . . . . . . 14810.3.1 Une remarque sur les tenseurs dordre (1, 0) . . . . . . . . . . . . . . . . . . . 14810.3.2 Formes bilinaires sur V : tenseurs dordre (2, 0) . . . . . . . . . . . . . . . . 14810.3.3 Tenseurs dordre (m, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

    10.4 Tenseurs mixtes dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14910.4.1 Tenseurs dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14910.4.2 Exemple des tenseurs dordre (1, 1) . . . . . . . . . . . . . . . . . . . . . . . . 149

    10.5 Oprations sur les tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15010.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

    10.6.1 Cas des tenseurs dordre (1, 0) (vecteurs de V ) . . . . . . . . . . . . . . . . . 15110.6.2 Cas des tenseurs dordre (0, 1) (formes linaires sur V ) . . . . . . . . . . . . . 15110.6.3 Cas des tenseurs dordre (0, 2) (formes bilinaires sur V ) . . . . . . . . . . . 15310.6.4 Cas des tenseurs (2, 0) (formes bilinaires sur V ) . . . . . . . . . . . . . . . 15310.6.5 Cas des tenseurs dordre (1, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . 15310.6.6 Cas des tenseurs dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . 154

    10.7 Champs tensoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15410.7.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15410.7.2 Changements de coordonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . 15410.7.3 Cas dun champ tensoriel dordre (1, 0) (champ vectoriel) . . . . . . . . . . . 15510.7.4 Cas dun champ tensoriel dordre (0, 1) . . . . . . . . . . . . . . . . . . . . . . 15510.7.5 Cas dun champ quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

    Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158Index des notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

  • 6 TABLE DES MATIRES

  • Chapitre 1

    Systmes dquations linaires etmatrices

    Lalgbre linaire est un outil essentiel pour toutes les branches des mathmatiques appliques,en particulier lorsquil sagit de modliser puis rsoudre numriquement des problmes issus de diversdomaines : des sciences physiques ou mcaniques, des sciences du vivant, de la chimie, de lconomie,des sciences de lingnieur,...

    Par exemple, la physique abonde de relations linaires : les lois fondamentales du mouvementsont presque toutes linaires, ou se dduisent de lois linaires. Les systmes lectriques sont fonda-mentalement dcrits par des lois linaires (V = RI, etc.) Cest pourquoi, le prsent cours commenceavec une tude des quations linaires et de leur rsolution.

    1.1 Introduction aux systmes dquations linairesLquation dune droite dans le plan xy scrit

    a1x+ a2y = b

    o a1, a2 et b sont des paramtres rels. Cette quation sappelle quation linaire dans les variables(ou inconnues) x et y.

    Exemple 1.1.2x+ 3y = 6

    QQQQQQQQQQQQQQQ

    QQ

    1 2

    1

    y

    x

    Exemple 1.2. Les quations suivantes ne sont pas des quations linaires :

    2x+ y2 = 1

    y = sin(x)

    x =y

    7

  • 8 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

    Dfinition 1.3. De manire gnrale, on appelle quation linaire dans les variables x1, ...., xn touterelation de la forme

    a1x1 + + anxn = b (1.1)o a1, . . . , an et b sont des nombres rels.

    Il importe dinsister ici que ces quations linaires sont implicites, cest--dire quelles dcriventdes relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendreles variables.

    Rsoudre une quation signifie donc la rendre explicite, cest--dire rendre plus apparentes lesvaleurs que les variables peuvent prendre.

    Une solution de lquation linaire (1.1) est un n-uple s1, . . . , sn de valeurs des variables x1, . . . , xnqui satisfont lquation (1.1). Autrement dit

    a1s1 + + ansn = b.

    Par la suite, nous tudierons lensemble des solutions dune quation linaire.

    Exemple 1.4. Trouvons lensemble des solutions de lquation

    x1 4x2 + 13x3 = 5.

    Nous donnons des valeurs arbitraires s et t x2 et x3 respectivement et rsolvons lquation parrapport x1 :

    x2 = s, x3 = t et x1 = 4s 13t+ 5.Lensemble des solutions est alors

    x1 = 4s 13t+ 5, x2 = s, x3 = t

    o s et t sont des nombres rels quelconques.

    Dfinition 1.5. Un ensemble fini dquations linaires dans les variables x1, . . . , xn sappelle unsystme dquations linaires. Tout nuplet de nombres s1, . . . , sn satisfaisant chacune des quationssappelle solution du systme dquations linaires.

    Exemple 1.6. Le systme {x1 3x2 + x3 = 12x1 + 4x2 3x3 = 9

    admet comme solution

    x1 = 18 , x2 = 6 , x3 = 1 .

    Par contrex1 = 7 x2 = 2 x3 = 0

    ne satisfait que la premire quation. Ce nest donc pas une solution du systme.

    Dfinition 1.7. Un systme dquations est dit incompatible ou inconsistant sil nadmet pas desolutions.

    Exemple 1.8. Le systme linaire {x1 + x2 = 1

    2x1 + 2x2 = 1

    est clairement incompatible.

  • 1.1. INTRODUCTION AUX SYSTMES DQUATIONS LINAIRES 9

    Considrons le systme {a11x1 + a12x2 = b1a21x1 + a22x2 = b2

    (1.2)

    avec a11 a12 6= 0 et a21 a22 6= 0.Ces deux quations reprsentent deux droites d1 et d2 dans le plan x1x2 et une solution du

    systme est un point (s1, s2) qui est sur les deux droites. Trois cas se prsentent alors :(1) Les droites d1 et d2 se coupent en un seul point. Dans ce cas, illustr par la figure 1.1, le systme

    (1.2) a une seule solution.(2) Les droites d1 et d2 sont parallles. Alors le systme est incompatible et na pas de solution. La

    figure 1.2 illustre cette situation.(3) Les droites d1 et d2 sont confondues et, dans ce cas, le systme a une infinit de solutions.

    Nous verrons plus loin que ces trois cas de figures (aucune solution, une seule solution, une infinitde solutions) sont les seuls cas qui peuvent se prsenter pour nimporte quel systme dquationslinaires.

    lllllllllllllll

    x1

    x2

    d2

    d1

    Fig. 1.1 Droites se coupant en un seul point

    lllllllllllllll

    llllllllllll

    x1

    x2

    d2

    d1

    Fig. 1.2 Droites parallles

  • 10 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

    lllllllllllllll

    x1

    x2

    d1 = d2

    Fig. 1.3 Droites confondues

    1.1.1 Systmes linaires et matricesConsidrons un systme quelconque de m quations n inconnues,

    a11x1 + a12x2 + + a1nxn = b1a21x1 + a22x2 + + a2nxn = b2

    ......

    am1x1 + am2x2 + + amnxn = bm.(1.3)

    o le nombre rel aij est le coefficient de la j-me inconnue dans la i-me quation.

    Dfinition 1.9 (Matrice augmente). Nous obtenons la matrice augmente associe au systme enoubliant les variables xi et les signes + et =. La matrice augmente aasocie au systme (1.3)est alors

    a11 a12 a1n b1a21 a22 a2n b2...

    .... . .

    ......

    am1 am2 amn bm

    Exemple 1.10. Considrons le systme linaire x1 + x2 + 7x3 = 12x1 x2 + 5x3 = 5x1 3x2 9x3 = 5.Sa matrice augmente est 1 1 7 12 1 5 5

    1 3 9 5

    .La mthode de base pour rsoudre un systme dquations linaires est de remplacer le systme

    par un autre, plus simple, ayant le mme ensemble de solutions. Ceci se fait par une successiondoprations, appeles oprations lmentaires :

    (1) multiplier une quation par une constante non nulle ;(2) permuter deux quations ;(3) ajouter un multiple dune quation une autre quation.

    Les oprations (1), (2) et (3) ne changent pas lensemble des solutions. Elles correspondent desoprations lmentaires sur les lignes de la matrice augmente. Ces oprations sont les suivantes :

    (1) multiplier une ligne par une constante non nulle ;(2) permuter deux lignes ; ()(3) ajouter un multiple dune ligne une autre ligne.

  • 1.1. INTRODUCTION AUX SYSTMES DQUATIONS LINAIRES 11

    Exemple 1.11. Utilisons ces oprations lmentaires pour rsoudre le systme suivant. x+ y + 7z = 12x y + 5z = 5x 3y 9z = 5Nous calculons la matrice augmente associe au systme : 1 1 7 12 1 5 5

    1 3 9 5

    puis faisons les oprations lmentaires ncessaires sur le systme et sur la matrice augmente.

    (3) `2 `2 2`1 x+ y + 7z = 13y 9z = 3x 3y 9z = 5

    (3) `2 `2 2`1 1 1 7 10 3 9 31 3 9 5

    Nous remarquons que les oprations lmentaires peuvent tre faites uniquement sur la matrice

    augmente pour revenir la fin au systme dquations. Cest ce que nous faisons dans la suite.

    (3) `3 `3 + `1 1 1 7 10 3 9 3

    0 2 2 6

    (1) `2 13 `2

    1 1 7 10 1 3 1

    0 2 2 6

    (3) `3 `3 + 2`2

    1 1 7 10 1 3 1

    0 0 4 4

    (1) `3 14`3

    1 1 7 10 1 3 1

    0 0 1 1

    (3) `1 `1 7`3

  • 12 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

    1 1 0 6

    0 1 3 1

    0 0 1 1

    (3) `2 `2 3`3 1 1 0 60 1 0 4

    0 0 1 1

    (3) `1 `1 `2 1 0 0 20 1 0 4

    0 0 1 1

    Cette matrice augmente correspond au systme x = 2y = 4

    z = 1.

    On obtient ainsi lunique solution su systme : x = 2, y = 4 et z = 1.Cet exemple est gnralis dans le paragraphe suivant.

    1.2 Elimination Gaussienne

    Il sagit dune mthode qui permet de trouver lensemble des solutions de nimporte quel systmedquations linaires. La mthode consiste mettre la matrice augmente du systme sous une formesimple, dite forme chelonne (rduite) par une srie doprations lmentaires (1), (2), (3) de ().

    Commenons par poser la dfinition suivante :

    Dfinition 1.12 (matrice chelonne). Une matrice est appele matrice chelonne si elle a lesproprits suivantes :

    (i) Dans toute ligne non nulle, le premier lment non nul vaut 1. Il est appel le 1 directeur.(ii) Les lignes dont tous les lments sont nuls sont regroupes en bas de la matrice.(iii) Dans deux lignes successives (contigus) ayant des lments non nuls, le 1 directeur de la ligne

    infrieure se trouve droite du 1 directeur de la ligne suprieure.

    Exemple 1.13. La matrice 0 1 3 6 01 3 1 0 20 0 1 1 7

    satisfait la proprit (i) mais pas la proprit (iii), alors que la matrice suivante(

    0 3 11 1 0

    )ne satisfait pas la proprit (i). En revanche, la matrice

    0 1 7 60 0 0 1

    0 0 0 0

  • 1.2. ELIMINATION GAUSSIENNE 13

    satisfait (i), (ii) et (iii) : elle est donc sous forme chelonne. Finalement, la matrice0 0 1 1 10 1 0 0 3

    0 0 0 0 0

    satisfait (i), (ii) mais pas (iii).

    On peut raffiner un peu la dfinition prcdente en posant :

    Dfinition 1.14 (matrice chelonne rduite). Si, en plus des proprits (i)-(iii) ci-dessus, la matricesatisfait la proprit (iv) ci-dessous, on parle de matrice chelonne rduite :(iv) Toute colonne contenant un 1 directeur a des zros partout ailleurs.

    Exemple 1.15. La matrice 1 0 0 30 0 1 10 0 0 0

    est chelonne rduite, alors que la matrice 1 0 1 20 0 1 1

    0 0 0 0

    est sous forme chelonne non rduite ( cause de la 3-me colonne).

    On peut transformer nimporte quelle matrice en une matrice chelonne (rduite) en utilisantlalgorithme de Gauss.

    1.2.1 Algorithme dlimination de GaussCet algorithme permet de transformer nimporte quelle matrice sous sa forme chelonne rduite

    laide des oprations lmentaires (1)-(3) de (). Voici la marche suivre illustre par un exemple.(1) Identifier la colonne se trouvant le plus gauche contenant au moins un lment non nul.

    Exemple : 0 0 1 30 3 0 10 3 1 2

    2e`me colonne

    (2) Permuter, sil le faut, la premire ligne avec une autre, pour que llment en haut de la colonneidentifie en (1) devienne non nul.Exemple (suite) : 0

    0 1 3

    0 3 0 10 3 1 2

    `1 `2 0

    3 0 1

    0 0 1 30 3 1 2

    (3) Si llment se trouvant en haut de la dite colonne vaut a, multiplier la premire ligne par 1a

    pour y faire apparatre le 1 directeur.Exemple (suite) : 0 3 0 10 0 1 3

    0 3 1 2

  • 14 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

    `1 13`1 0 1 0 130 0 1 30 3 1 2

    (4) Ajouter des multiples adquats de la premire ligne aux lignes en-dessous pour annuler les

    lments en dessous du 1 directeur.Exemple (suite) : 0 1 0 130 0 1 3

    03 1 2

    `3 `3 3`1 0 1 0 130 0 1 300 1 1

    (5) Couvrir la premire ligne de la matrice, et aller (1)

    Exemple (suite) : (0 0 1 30 0 1 1

    )(4) `2 `2 `1 (

    0 0 1 30 0 0 2

    )(3) `2 12`2 (

    0 0 1 30 0 0 1

    )(6) La matrice entire est chelonne.

    Exemple (suite) : On remet la premire ligne en place 0 1 0 130 0 1 30 0 0 1

    (7) Pour la mettre sous la forme chelonne rduite, il faut ajouter une ligne des multiples

    adquats des lignes situes au-dessous delle en allant du bas vers le haut.Exemple (suite) : 0 1 0 130 0 1 3

    0 0 0 1

    `2 `2 3`3 0 1 0 130 0 1 0

    0 0 0 1

    `1 `1 13`3 0 1 0 00 0 1 0

    0 0 0 1

  • 1.2. ELIMINATION GAUSSIENNE 15

    Les deux exemples ci-dessous illustrent encore lalgorithme. Lexemple 1.16 illustre le point (7) partir dune matrice qui est dj sous forme chelonne mais pas rduite. Dans lexemple 1.17, oneffectue lalgorithme dans son entier.

    Exemple 1.16. 14 0 1

    0 12 10 0 1 3

    `2 `2 2`3 1 4 0 10 10 70 0 1 3

    14 0 1

    0 1 0 70 0 1 3

    `1 `1 4`2 1

    0 0 29

    0 1 0 70 0 1 3

    Exemple 1.17. 0 1 1 5 10 1 2 0 3

    1 3 2 0 1

    (1) 1e`re colonne 1 3 2 0 10 1 2 0 3

    0 1 1 5 1

    (2) `1 `3 (

    0 1 2 0 30 1 1 5 1

    ) 2e`me colonne

    (4) `2 `2 `1 (0 1 2 0 30 0 1 5 4

    )On remet en place la premire ligne pour obtenir 1 3 2 0 10 1 2 0 3

    0 0 1 5 4

    .La matrice est maintenant sous forme chelonne. Il reste la mettre sous la forme chelonnerduite.

    (7) `2 `2 + 2`3 1 3 2 0 10 1 0 10 50 0 1 5 4

    (7) `1 `1 2`3

  • 16 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

    1 3 0 10 70 1 0 10 50 0 1 5 4

    (7) `1 `1 + 3`2 1 0 0 20 80 1 0 10 5

    0 0 1 5 4

    La matrice est sous forme chelonne rduite. Un systme dont la matrice augmente est sous

    forme chelonne rduite est trs simple rsoudre comme nous allons le voir ci-aprs.

    1.2.2 Mthode de rsolution dun systme dquations linairesAprs avoir mis la matrice augmente du systme sous forme chelonne rduite, on procde

    selon les deux tapes suivantes.

    (1) Donner une valeur arbitraire chaque variable dont la colonne ne contient pas de 1 directeur.Ces variables sont les variables libres.

    (2) Rsoudre chaque quation en exprimant la variable correspondant au 1 directeur, appelevariable directrice, en fonction des autres variables.

    Exemple 1.18. La matrice 1 0 0 20 1 0 40 0 1 1

    est chelonne rduite.Elle correspond au systme

    x = 2y = 4

    z = 1.

    Toutes les variables sont des variables directrices.La solution est donc

    x = 2, y = 4, z = 1.Exemple 1.19. La matrice 0 1 3 0 10 0 0 1 5

    0 0 0 0 0

    est chelonne rduite. Elle correspond au systme{

    0x1 + x2 + 3x3 + 0x4 = 1x4 = 5.

    Les variables directrices sont x2 et x4 car les colonnes 2 et 4 de la matrice contiennent un 1directeur, alors que x1 et x3 sont les variables libres.

    Posonsx1 = s, x3 = t.

    On obtientx2 = 1 3t, x4 = 5

    et lensemble des solutions du systme est :

    x1 = s, x2 = 1 3t, x3 = t, x4 = 5, pour tout t, s R.

  • 1.3. SYSTMES HOMOGNES DQUATIONS LINAIRES 17

    1.3 Systmes homognes dquations linaires

    Un systme homogne est un systme dont les termes constants sont tous nuls. Il est de la formea11x1 + a12x2 + + a1nxn = 0a21x1 + a22x2 + + a2nxn = 0

    . . .am1x1 + am2x2 + + amnxn = 0.

    Tout systme homogne dquations linaires est consistant, car il a au moins la solution ditetriviale x1 = x2 = = xn = 0. Un systme homogne dquations linaires a ou bien une seulesolution (la solution triviale), ou bien une infinit de solutions. En effet, supposons que le systmeadmette la solution

    x1 = t1, . . . , xn = tn

    avec au moins lun des ti 6= 0. Alors, pour un nombre rel k quelconque,

    x1 = kt1, . . . , xn = ktn

    est aussi solution du systme.

    Thorme 1.20. Tout systme homogne dquations linaires dont le nombre dinconnues est plusgrand que le nombre dquations a une infinit de solutions.

    Dmonstration. Soit m le nombre de colonnes et n le nombre dquations. La matrice augmente dusystme a alors m+1 colonnes et n lignes. Il sensuit que sa forme chelonne rduite doit comporterau moins une colonne sans 1 directeur. Supposons que ce soit la j-me avec 1 j m. Cette colonnecorrespond une variable libre xj = s et il y a donc une infinit de solutions puisque le systme estcompatible.

    Exemple 1.21. Considrons le systme homogne3x1 + 3x2 2x3 x5 = 0x1 x2 + x3 + 3x4 + x5 = 02x1 + 2x2 x3 + 2x4 + 2x5 = 0

    x3 + 8x4 + 4x5 = 0

    Sa matrice augmente est 3 3 2 0 1 01 1 1 3 1 02 2 1 2 2 00 0 1 8 4 0

    et la forme chelonne rduite est

    1 1 0 0 13 00 0 1 0 20 00 0 0 1 2 00 0 0 0 0 0

    Cette matrice correspond donc au systme x1 + x2 + 13x5 = 0x3 + 20x5 = 0

    x4 2x5 = 0

    Les variables directrices sont x1, x3 et x4 alors que les variables libres sont x2 et x5. Posons alors

    x2 = sx5 = t .

  • 18 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

    On obtient

    x1 = s 13tx3 = 20tx4 = 2t .

    Lensemble des solutions est donc

    x1 = s 13t, x2 = s, x3 = 20t, x4 = 2t , x5 = t,

    qui est bien infini.

  • Chapitre 2

    Elments du calcul matriciel

    2.1 Quelques dfinitions et oprations

    Dfinition 2.1 (Matrice). Une matrice (relle) A est un tableau rectangulaire de nombres (rels).Elle est dite de taille m n si le tableau possde m lignes et n colonnes. Les nombres du tableausont appels les lments de A. Llment situ la i-me ligne et la j-me colonne est not aij .La matrice A est galement note

    A = (aij) 1in1jm

    ou plus simplementA = (aij)ij

    si le nombre de lignes et de colonnes est connu par ailleurs.

    Exemple 2.2.

    A =(

    1 2 50 3 7

    )est une matrice 2 3 avec, par exemple, a11 = 1 et a23 = 7.

    Si n = m, la matrice est dite carre.a11 a12 . . . a1na21 a22 . . . a2n...

    .... . .

    ...an1 an2 . . . ann

    matrice carre n n

    Dans le cas dune matrice carre, les lments a11, a22, . . . ann sont appels les lments diagonaux.a11 a21 . . . a1na21 a22 . . . a2n... ... . . . ...an1 an2 . . . ann

    Deux matrices sont gales lorsquelles ont la mme taille et que les lments correspondants sont

    gaux.

    Dfinition 2.3 (Somme de deux matrices). On peut dfinir la somme de deux matrices si elles sontde mme taille. Soient A etB deux matrices de taille m n. On dfinit leur somme C = A+B, detaille m n, par

    cij = aij + bij .

    En dautres termes, on somme composante par composante.

    19

  • 20 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    Exemple 2.4.

    A =(

    3 21 7

    ), B =

    (0 52 1

    ), A+B =

    (3 33 6

    )

    A =(

    4 13 2

    ), B =

    ( 28

    ), A+B nest pas dfinie.

    La matrice (de taille m n) dont tous les lments sont des zros est appele la matrice nulle etnote 0nm ou plus simplement 0. Cest llment neutre pour laddition, cest--dire que A+ 0 = A.

    Dfinition 2.5 (Produit dune matrice par un scalaire). Le produit dune matrice A par un scalairek est form en multipliant chaque lment de A par k. Il est not kA.

    Exemple 2.6. Soient

    A =(

    3 20 6

    )et k = 3.

    Alors kA =( 9 6

    0 18).

    La matrice (1)A est note A et la diffrence AB est dfinie par A+ (B).

    Exemple 2.7.

    A =(

    2 1 04 5 2

    )B =

    ( 1 4 27 5 3

    )AB =

    (3 5 23 0 1

    )

    2.2 Le produit matriciel

    Le produit AB de deux matrices A et B est dfini seulement si le nombre de colonnes de A estgal au nombre de lignes de B :

    Dfinition 2.8 (Produit de deux matrices). Soit A = (aij) une matrice m n et B = (bij) unematrice n p. Alors le produit C = AB est une matrice m p dont les lments cij sont dfinis par

    cij = ai1b1j + ai2b2j + + aimbmj =nk=1

    aikbkj.

    AB = C :

    b11 . . . b1r

    b21 ......

    ...bm1 . . . bmr

    a11 . . . . . . a1ma21 a22 . . . a2m... ...an1 . . . . . . anm

    c11 . . . c1r

    c21 ...... ...cn1 . . . cnr

    c21 = a21b11 + a22b21 + + a2mbm1

  • 2.3. RGLES DU CALCUL MATRICIEL 21

    Exemple 2.9.

    (2 3 1) 42

    3

    = (8 6 3) = (1)1 3 3 1 1 1

    Exemple 2.10. 321

    ( 1 2 3 0 ) = 3 6 9 02 4 6 01 2 3 0

    3 1 1 4 3 4

    2.2.1 Matrice identitDfinition 2.11. La matrice carre n n

    In =

    1 0 . . . 00 1 . . . 0...

    .... . .

    ...0 0 . . . 1

    sappelle la matrice identit. Ses lments diagonaux sont gaux 1 et tous ses autres lments

    sont gaux 0.

    Dans le calcul matriciel, la matrice identit joue un rle analogue celui du nombre 1 danslarithmtique des scalaires. Cest llment neutre pour la multiplication. En dautres termes, si Aune matrice m n, alors

    ImA = A et AIn = A.

    2.3 Rgles du calcul matricielSous l hypothse que les tailles des matrices soient compatibles avec les oprations indiques, on

    a les rgles suivantes :(a) Commutativit de la somme : A+B = B +A(b) Associativit de la somme : A+ (B + C) = (A+B) + C.(c) Associativit du produit : A(BC) = (AB)C(d) Distributivit du produit par rapport la somme : A(B + C) = AB +AC

    (B + C)A = BA+ CA(e) A+ 0 = A(f) AI = IA = A(g) A 0 = 0 A = 0

    ATTENTION !Le produit des matrices nest pas ncessairement commutatif. On peut avoir

    AB 6= BA.Exemple 2.12.

    A =(

    1 02 5

    )B =

    (2 13 0

    )

    AB =(

    2 111 2

    )BA =

    (4 53 0

    ).

  • 22 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    ATTENTION ! Il peut arriver que le produit de deux matrices non nulles soit nul. En dautrestermes, on peut avoir A,B 6= 0 et AB = 0.Exemple 2.13.

    A =(

    0 10 5

    ), B =

    (2 30 0

    )et AB =

    (0 00 0

    ).

    Ce qui prcde implique, par distributivit, que lon peut avoir AB = AC et B 6= C.Exemple 2.14.

    A =(

    0 10 3

    ), B =

    (4 15 4

    ), C =

    (2 55 4

    )AB = AC =

    ( 5 415 12

    ).

    2.4 Ecriture matricielle des systmes dquations linaires

    Le systme linaire a11x1 + a12x2 + + a1nxn = b1a21x1 + a22x2 + + a2nxn = b2

    . . .am1x1 + am2x2 + + amnxn = bm

    peut scrire sous forme matricielle :a11 . . . a1na21 . . . a2n...

    ...am1 . . . amn

    x1x2...xn

    =

    b1b2...bm

    .

    A x B

    On appelle A la matrice des coefficients du systme. Le vecteur x est une solution du systme siet seulement si

    Ax = B.

    Thorme 2.15. Un systme dquations linaires na soit aucune solution, soit une seule solution,soit une infinit de solutions.

    Dmonstration. Soit Ax = B la reprsentation matricielle du systme. On est ncessairement danslun des cas ci-dessous :

    (a) le systme est incompatible (aucune solution) ;

    (b) le systme a une seule solution ;

    (c) le systme a plusieurs solutions.

    Pour dmontrer le thorme , il suffit alors de montrer que dans le cas (c) il y a une infinit desolutions.

    Soient x1 et x2 des solutions distinctes du systme. Alors Ax1 = B et Ax2 = B. Donc Ax1Ax2 =0 et A(x1 x2) = 0.

    Posonsx0 = x1 x2 .

    On a x0 6= 0, car x1 6= x2 et lexpressionx1 + kx0

    est une solution du systme pour tout nombre rel k. En effet, A(x1+kx0) = Ax1+kAx0 = B+0.

  • 2.5. LINVERSION DES MATRICES 23

    Thorme 2.16. Supposons que le systmea11y1 + a12y2 + + a1nyn = c1a21y1 + a22y2 + + a2nyn = c2

    . . .am1y1 + am2y2 + + amnyn = cm

    dtermine les variables y1, . . . , yn en fonction de constantes c1, . . . , cm, et que le systmeb11x1 + b12x2 + + b1pxp = y1b21x1 + b22x2 + + b2pxp = y2

    . . .bn1x1 + bn2x2 + + bnpxp = yn

    exprime les variables x1, . . . , xp en fonction des variables y1, . . . , yn.crivons ces systmes sous la forme compacte

    Ay = c, Bx = y.

    Alors le systme dterminant les variables x1, . . . , xp en fonction des constantes c1, . . . , cm estdonn par

    (AB)x = c.

    Quelques cas particuliers

    Dans le cas particulier n = m = 2 (2 quations 2 inconnues) le systme linaire correspond lintersection de deux droites dans le plan. Nous avons vu, dans le chapitre 1, que trois cas pou-vaient se prsenter : les droites sont soit parallles, soit scantes, soit confondues et ces trois cascorrespondent aux trois cas du thorme ci-dessus.

    Si le systme est homogne, les deux droites passent par le point (0, 0) et ne peuvent donc treparallles. Le cas sans solution est donc exclu.

    Dans le cas lon a 2 quations (m = 2) 3 inconnues (n = 3), ceci correspond lintersectionde deux plans dans lespace. Trois cas se prsentent alors :

    les plans sont parallles et il ny a alors aucune solution au systme ; les plans sont confondus et il y a une infinit de solutions au systme ; les plans se coupent en une droite et il y a une infinit de solutions ;Du point de vue du nombre de solutions, nous constatons quil n y a que deux possibilits, savoir

    aucune solution ou une infinit de solutions. Mais les deux derniers cas ci-dessus sont nanmoinstrs diffrents gomtriquement et il semblerait que dans le second cas (plans confondus), linfinitde solutions soit plus grande que dans le troisime cas. Les chapitres suivants nous permettront derendre rigoureuse cette impression.

    2.5 Linversion des matricesDfinition 2.17 (Matrice inverse). Soit A une matrice carre de taille nn. Sil existe une matricecarre B de taille n n telle que

    AB = I et BA = I,

    on dit que A est inversible et on appelle B un inverse de A.

    (on verra plus tard quil suffit de vrifier une seule des conditions AB = I, BA = I)

    Exemple 2.18. La matrice (2 15 3

    )est inversible et un de ses inverses est (

    3 15 2

    ).

  • 24 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    En effet, on a(2 15 3

    )(3 15 2

    )=(

    1 00 1

    )et

    (3 15 2

    )(2 15 3

    )=(

    1 00 1

    ).

    Exemple 2.19. La matrice

    A =(

    3 05 0

    )nest pas inversible. En effet, soit

    B =(b11 b12b21 b22

    )une matrice quelconque. Alors le produit

    BA =(b11 b12b21 b22

    )(3 05 0

    )=( 0 0

    )ne peut jamais tre gal la matrice identit.

    Thorme 2.20. Si B et C sont des inverses de A, alors

    B = C.

    Dmonstration. On a I = AC = BA du fait que B et C sont des inverses de A ; donc

    B = BI = B(AC) = (BA)C = IC = C.

    Si A est une matrice inversible, son inverse est not A1. On a donc

    AA1 = I et A1A = I.

    2.5.1 Matrices 2 2Considrons les matrices 2 2

    A =(a bc d

    )et B =

    (d bc a

    ).

    On vrifie que

    AB = BA = (ad bc)(

    1 00 1

    ).

    Donc A est inversible si ad bc 6= 0, et on a alors

    A1 =1

    ad bc(

    d bc a

    ).

    2.5.2 Puissances dune matriceSoit A une matrice n n. On dfinit

    Am = AA A m facteurs

    Si A est inversible, on dfinit

    Am =(A1

    )m= A1A1 A1

    m facteurs

    Thorme 2.21. Soit A une matrice inversible. Alors

  • 2.6. LES MATRICES LMENTAIRES 25

    (a) A1 est inversible et (A1)1 = A ;(b) Am est inversible et

    (Am)1 = A1A1 A1 m facteurs

    = (A1)m = Am;

    (c) kA est inversible si k 6= 0 et (kA)1 = 1kA1.Thorme 2.22. Soient A et B deux matrices n n inversibles. Alors(a) AB est inversible et(b) (AB)1 = B1A1 .

    Dmonstration. Il suffit de montrer

    (B1A1)(AB) = (AB)(B1A1) = I.

    Cela suit de

    (B1A1)(AB) = B1(AA1)B = B1IB = B1B = I,

    et (AB)(B1A1) = A(BB1)A1 = AIA1 = AA1 = I.

    De faon analogue, on montre que si A1, . . . , Am sont inversibles, alors

    (A1A2 . . . Am)1 = A1m A1m1 . . . A

    11 .

    Exemple 2.23.

    A =(

    2 15 3

    )A1 =

    (3 15 2

    )

    B =( 9 4

    2 1

    )B1 =

    ( 1 42 9

    )

    AB =(

    2 15 3

    )( 9 4

    2 1

    )=( 16 739 17

    )B1A1 =

    ( 1 42 9

    )(

    3 15 2

    )=(

    17 739 16

    )On a alors bien

    (AB)(B1A1) =( 16 739 17

    )(

    17 739 16

    )=( 272 + 273 0

    0 273 272)=(

    1 00 1

    ).

    2.6 Les matrices lmentairesDfinition 2.24 (Matrice lmentaire). On dit quune matrice E est lmentaire si elle peut treobtenue par une seule opration lmentaire sur les lignes de la matrice identit (voir 1.1.1 () pourla dfinition des oprations lmentaires).

    Il existe donc trois types de matrices lmentaires correspondant aux trois oprations lmen-taires.

    (1) La matrice Ei(c) est la matrice lmentaire obtenue en multipliant par c la i-me ligne de In, c est un nombre rel non nul.Exemple 2.25.

    E2(5) =

    1 0 0 00 5 0 00 0 1 00 0 0 1

  • 26 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    (2) La matrice Eij est la matrice lmentaire obtenue en permutant les i-me et j-me lignes de In.Exemple 2.26.

    E24 = E42 =

    1 0 0 00 0 0 10 0 1 00 1 0 0

    (3) La matrice Eij(c) est la matrice lmentaire obtenue en ajoutant c fois la j-me ligne de In la

    i-me ligne.Exemple 2.27.

    E21(5) =

    1 0 0 05 1 0 00 0 1 00 0 0 1

    Lopration lmentaire permuter les lignes i et j correspond multiplier une matrice sur la

    gauche par la matrice lmentaire Eij ; et de mme pour toutes autres oprations lmentaires. Cestce quindique le thorme suivant :

    Thorme 2.28. Si la matrice lmentaire E est le rsultat dune opration lmentaire effectuesur Im, alors pour toute matrice A de taille m n le produit matriciel EA est gal la matriceobtenue en effectuant la mme opration lmentaire sur A.

    Ainsi, multiplier une matrice A sur la gauche par Eij revient changer les lignes i et j de A ;multiplier A sur la gauche par Ei(c) revient multiplier la ligne i de A par c ; et multiplier A sur lagauche par Eij(c) revient ajouter c fois la ime ligne la jme.

    Exemples :(1)

    E1(2) A =(

    2 00 1

    )(a11 a12 a13a21 a22 a23

    )=(

    2a11 2a12 2a13a21 a22 a23

    )(2)

    E23 A = 1 0 00 0 1

    0 1 0

    a11 a12a21 a22a31 a32

    = a11 a12a31 a32

    a21 a22

    .(3)

    E21(9) A = 1 0 09 1 0

    0 0 1

    a11a21a31

    = a119a11 + a21

    a31

    .Les oprations lmentaires sur les lignes sont rversibles. Ceci entrane linversibilit des matrices

    lmentaires.

    Thorme 2.29. Toute matrice lmentaire est inversible. En particulier, on a :

    [Eij(c)]1 = Eij(c)E1ij = Eij

    [Ei(c)]1 = Ei

    (1c

    ).

    Exemple 2.30. On a

    E21(4) =(

    1 04 1

    )et E21(4) =

    (1 04 1

    )et (

    1 04 1

    )(1 04 1

    )=(

    1 00 1

    )=(

    1 04 1

    )(1 04 1

    )

  • 2.7. CALCUL DE LINVERSE DUNE MATRICE 27

    Dfinition 2.31. On dit que deux matrices sont quivalentes par lignes si lune peut tre obtenue partir de lautre par une suite doprations lmentaires sur les lignes.

    Thorme 2.32. Pour toute matrice A de taille nn, les affirmations suivantes sont quivalentes :(a) A est inversible.(b) Le systme AX = B a une et une seule solution pour toute matrice B de taille n 1. Cette

    solution est donne par X = A1B.(c) AX = 0 na que la solution triviale X = 0.(d) A est quivalente par lignes In.(e) A est un produit de matrices lmentaires.

    Dmonstration. (a) (b) Si A est inversible, on a les quivalences suivantes :AX = B A1AX = A1B X = A1B

    ce qui prouve (b).

    (b) (c) Cest vident car (c) est un cas particulier de (b) avec B = 0.

    (c) (d) Par hypothse, le systme AX = 0 est quivalent au systmeX1 = 0

    X2 = 0...

    ...Xn = 0

    .

    La matrice associe ce dernier systme est la matrice identit. La matrice A est donc quivalentepar lignes In et ceci prouve le point (d).

    (d) (e) On sait, par hypothse, quune succession doprations lmentaires sur A conduit lamatrice In. Par le thorme 2.28, ceci signifie quil existe des matrices lmentaires E1, . . . Er tellesque

    Er Er1 E1 A = In.Comme une matrice lmentaire est inversible, ceci implique que

    A = E11 E12 E1r .

    Mais linverse dune matrice lmentaire est encore une matrice lmentaire et lon a le rsultatcherch.

    (e) (a) Ceci dcoule du fait que toute matrice lmentaire est inversible et que le produit dematrices inversibles est encore inversible.

    2.7 Calcul de linverse dune matriceLe thorme prcdent donne une mthode pour dterminer linverse dune matrice inversible. La

    mthode consiste faire les oprations lmentaires mettant la matrice A sous la forme chelonnerduite, qui est In. On fait ensuite les mmes oprations lmentaires sur la matrice In. On aboutitalors A1. En pratique, on fait les deux oprations en mme temps selon la procdure suivante :

    Former la matrice (A : I) et effectuer sur cette matrice augmente les oprations lmentairesmettant A sous la forme chelonne rduite. On obtient alors la matrice (I : A1).

    Exemple 2.33. Calculons linverse de

    A =

    1 2 14 0 11 2 2

    .

  • 28 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    (A : I) =

    1 2 1 : 1 0 04 0 1 : 0 1 01 2 2 : 0 0 1

    `2 := `2 4`1

    1 2 1 : 1 0 00 8 5 : 4 1 01 2 2 : 0 0 1

    `3 := `3 + `1

    1 2 1 : 1 0 00 8 5 : 4 1 00 4 3 : 1 0 1

    `2 := 18`2 1 2 1 : 1 0 00 1 5/8 : 1/2 1/8 0

    0 4 3 : 1 0 1

    `3 := `3 4`2

    1 2 1 : 1 0 00 1 5/8 : 1/2 1/8 00 0 1/2 : 1 1/2 1

    `3 := 2`3

    1 2 1 : 1 0 00 1 5/8 : 1/2 1/8 00 0 1 : 2 1 2

    `2 := `2 58`3 1 2 1 : 1 0 00 1 0 : 74 34 54

    0 0 1 : 2 1 2

    `1 := `1 2`2 `3

    1 0 0 : 12 12 120 1 0 : 74 34 540 0 1 : 2 1 2

    A1 =14

    2 2 27 3 58 4 8

  • 2.8. MATRICES TRIANGULAIRES 29

    2.8 Matrices triangulaires

    Dfinition 2.34. Soit A une matrice de taille n n. On dit que A est triangulaire infrieure si seslments au dessus de la diagonale sont nuls, autrement dit si

    i < j = aij = 0.

    Une matrice triangulaire infrieure a donc la forme suivante :

    a11 0 0a21 a22

    . . ....

    ......

    . . . . . ....

    ......

    . . . 0an1 an2 ann

    On dit que A est triangulaire suprieure si ses lments en dessous de la diagonale sont nuls,

    autrement dit sii > j = aij = 0.

    Une matrice triangulaire suprieure a donc la forme suivante :

    a11 a12 . . . . . . . . . a1n0 a22 . . . . . . . . . a2n...

    . . . . . ....

    .... . . . . .

    ......

    . . . . . ....

    0 . . . . . . . . . 0 ann

    Exemple 2.35. Matrices triangulaires infrieures : 4 0 00 1 0

    3 2 0

    ( 5 01 2

    )

    Exemple 2.36. Matrices triangulaires suprieures : 1 1 10 1 10 0 1

    ( 1 30 6

    )Dfinition 2.37. Une matrice qui est triangulaire infrieure et triangulaire suprieure est ditediagonale.

    Exemple 2.38. Exemples de matrices diagonales : 1 0 00 6 00 0 0

    et ( 2 00 3)

    Thorme 2.39. Une matrice A de taille n n, triangulaire, est inversible si et seulement si seslments diagonaux sont tous non nuls.

    Dmonstration. Supposons que A est triangulaire suprieure.Si les lments de la diagonale sont tous non nuls, alors, en multipliant chaque ligne i par

    linverse de llment diagonal aii, on obtient la forme chelonne de A. Elle ne contient que des 1sur la diagonale. De ce fait, la forme chelonne rduite de A sera la matrice identit. Le thorme2.32 permet de conclure que A est inversible.

  • 30 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    Inversement, supposons quau moins lun des lments diagonaux soit nul et notons amm lepremier lment nul de la diagonale. En multipliant les lignes 1 m1 par linverse de leur lmentdiagonal, on obtient une matrice de la forme

    1 0

    . . . 0 0 1 0 0 0 0 0 0 all ...

    ...... 0 . . . ...

    0 0 ann

    o l = m+ 1.

    Il est alors clair que la colonne m de la forme chelonne ne contiendra pas de 1 directeur. Laforme chelonne rduite de A ne peut donc pas tre In et par le thorme 2.32, A nest pas inversible.

    Dans le cas dune matrice triangulaire infrieure, on utilise la transposition qui fait lobjet de lasection suivante et on obtient une matrice triangulaire suprieure. On applique alors la dmonstrationci-dessus.

    2.9 La transpositionSoit A la matrice de taille m n

    A =

    a11 a12 . . . a1na21 a22 . . . a2n...

    ......

    am1 am2 . . . amn

    Dfinition 2.40. On appelle matrice transpose de A, la matrice AT de taille nm dfinie par :

    AT =

    a11 a21 . . . am1a12 a22 . . . am2...

    ......

    a1n a2n . . . amn

    .Autrement dit, la i-me colonne de AT est la i-me ligne de A, ou encore

    aTij = aji.

    Exemple 2.41.

    (1 2 5)T = 12

    5

    0 31 51 2

    T = ( 0 1 13 5 2)

    ( 1 00 2

    )T=

    ( 1 00 2

    ).

    (4)T = (4) .

    Thorme 2.42. Lopration de transposition obit aux rgles suivantes :(a) (A+B)T = AT +BT

    (b) (kA)T = kAT

    (c) (AB)T = BTAT

    (d) (AT )T = A .(e) Si A est inversible, alors AT lest aussi et on a (AT )1 = (A1)T qui sera note AT .

  • 2.10. LA TRACE 31

    2.10 La trace

    Soit A la matrice n n

    A =

    a11 . . . a1n... ...an1 . . . ann

    Dfinition 2.43. On appelle trace de A,et on note trace(A), le nombre obtenu en additionnant leslments diagonaux de A. Autrement dit,

    trace(A) = a11 + + ann.

    Exemple 2.44. Soient

    A =(

    2 10 5

    )et B =

    1 1 25 2 811 0 10

    Alors trace(A) = 2 + 5 = 7 et trace(B) = 1 + 2 -10 =-7.

    Thorme 2.45. Soient A et B deux matrices n n. Alors(a) trace(A+B) = trace(A) + trace(B) ;

    (b) trace(A) = trace(A) pour tout R ;(c) trace(AT ) = trace(A) ;

    (d) trace(AB) = trace(BA).

    Dmonstration. (a) Pour tout 1 i n, (A + B)ii = Aii + Bii. Ainsi, on a bien trace(A + B) =trace(A) + trace(B).

    (b) On a trace(A) = A11 + + Ann = (A11 + +Ann).(c) Etant donn que la transposition ne change pas les lments diagonaux, la trace de A est gale

    la trace de AT .

    (d) On aABii = Ai1B1i +Ai2B2i + +AinBni.

    Ainsi,trace(AB) = A11B11 +A12B21 + . . . +A1nBn1

    + A21B12 +A22B22 + . . . +A2nBn2...

    + An1B1n +An2B2n + . . . +AnnBnn

    On peut rarranger les termes pour obtenir

    A11B11 +A21B12 + . . . +An1B1n+ A12B21 +A22B22 + . . . +An2B2n

    ...+ A1nBn1 +A2nBn2 + . . . +AnnBnn

    En utilisant la commutativit de la multiplication dans R, la premire ligne devient

    B11A11 +B12A21 + +B1nAn1qui vaut BA11. En faisant de mme avec les autres lignes, on voit finalement que

    trace(AB) = BA11 + +BAnn = trace(BA).

  • 32 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

    2.11 Matrices symtriquesDfinition 2.46. Une matrice A de taille nn est dite symtrique si elle est gale sa transpose,cest--dire si

    A = AT

    ou encore si aij = aji pour tout i, j = 1, . . . , n.

    Exemple 2.47. Les matrices 1 0 50 2 15 1 0

    , ( 0 22 4), In et 0n,n

    sont symtriques.

    Thorme 2.48. Pour une matrice B quelconque, les matrices BBT et BTB sont symtriques.

    Dmonstration. Par le thorme 2.42, on a

    (BBT )T = (BT )TBT = BBT

    (BTB)T = BT (BT )T = BTB.

    2.12 Matrices antisymtriquesDfinition 2.49. Une matrice A de taille n n est dite antisymtrique si

    AT = A

    cest--dire si aij = aji pour tout i, j = 1, . . . , n.Exemple 2.50. (

    0 11 0

    ),

    (0 00 0

    ),

    0 4 24 0 52 5 0

    .Remarquons que les lments diagonaux dune matrice antisymtrique sont toujours tous nuls.

    Thorme 2.51. Toute matrice A de taille n n est la somme dune matrice symtrique B etdune matrice antisymtrique C.

    Dmonstration. Posons B = (A + AT )/2 et C = (A AT )/2. On a alors A = B + C ; et B estsymtrique, car BT = (AT + (AT )T )/2 = B ; et C est antisymtrique, car CT = (AT (AT )T )/2 =C.Exemple 2.52. Soit

    A =(

    2 108 3

    )

    A =(

    2 99 3

    ) symtrique

    +(

    0 11 0

    ) antisymtrique

    .

  • Chapitre 3

    Le dterminant

    3.1 Permutations et dterminantsNous allons construire dans ce chapitre une fonction appele le dterminant qui associe

    un nombre rel chaque matrice carre et qui permettra de caractriser facilement les matricesinversibles puisque ce sont celles dont le dterminant est non nul.

    Exemple 3.1. Soit

    A =(a bc d

    ).

    On a vu que si ad bc 6= 0, alors A est inversible. On a alors

    A1 =1

    ad bc(

    d bc a

    ).

    On dfinit alors le dterminant de A comme tant

    det(A) = ad bc.On va maintenant gnraliser cette notion des matrices carres de taille n n.

    Dfinition 3.2. On appelle permutation de lensemble dentiers {1, . . . , n} un arrangement de ceux-ci sans omissions ni rptitions. Autrement dit, une permutation de {1, . . . , n} est une bijection delensemble {1, . . . , n} sur lui-mme.

    Une permutation quelconque de {1, . . . , n} sera note = (j1, j2, . . . , jn)

    o j1 = (1), j2 = (2),. . ., jn = (n).Lensemble de toutes les permutations de n lments sera not Sn.Exemple 3.3. Il y a deux permutations de lensemble {1, 2} :

    1 = (1, 2) et 2 = (2, 1)

    (1, 2) est lidentit car 1(1) = 1 et 1(2) = 2.

    Exemple 3.4. Il y a 6 permutations de lensemble {1, 2, 3} :(1, 2, 3) (1, 3, 2) (2, 1, 3) (3, 2, 1) (2, 3, 1) (3, 1, 2).

    Plus gnralement, lensemble {1, . . . , n} an! = 1 2 n

    permutations. En effet, il y a n possibilits pour le premier nombre, n 1 possibilits pour ledeuxime et ainsi de suite ce qui nous donne n(n1)(n2) 2 1 diffrents arrangements possiblesdes nombres 1, 2, . . . , n.

    33

  • 34 CHAPITRE 3. LE DTERMINANT

    Dfinition 3.5. Dans une permutation on a une inversion si un nombre plus grand prcde unnombre plus petit.

    De manire plus prcise, le nombre dinversions dune permutation

    (j1, j2, . . . , jn)

    est la somme du nombre de successeurs de j1 plus petits que j1, plus le nombre de successeurs de j2 plus petits que j2, plus . . . le nombre de successeurs de jn1 plus petits que jn1.

    Exemple 3.6. La permutation

    (4, 2, 5, 3, 1) contient 7 inversions.

    En effet,il y a 3 successeurs plus petits que 4, 1 successeur plus petit que 2, 2 successeurs plus petitsque 5, 1 successeur plus petit que 3 et pas de successeur plus petit que 1. En additionnant cesnombres, on obtient bien 7.

    Exemple 3.7. La permutation(6, 1, 3, 4, 5, 2)

    contient 5 + 0 + 1 + 1 + 1 = 8 inversions.

    Dfinition 3.8. Une permutation ayant un nombre pair dinversions est appele permutation paire,sinon elle est appele permutation impaire. On dfinit la signature de la permutation comme suit :

    sign() ={

    1 si est paire1 si est impaire.

    Exemple 3.9. Classification des permutations de {1, 2, 3} :Permutation Nbre dinversions Parit

    (1, 2, 3) 0 paire(1, 3, 2) 1 impaire(2, 1, 3) 1 impaire(2, 3, 1) 2 paire(3, 1, 2) 2 paire(3, 2, 1) 3 impaire

    Lemme 3.10. Soit n 1, i, j {1, . . . , n} avec i < j et Sn.Posons = ((1), . . . , (i 1), (j), (i+ 1), . . . , (j 1), (i), (j + 1), . . . , (n)). Alors

    sign() = sign().Dmonstration : Nous illustrons la mthode de la dmonstration par un cas particulier.

    Considrons les deux permutations de S8 suivantes : = (1, 2, 5, 7, 6, 3, 4, 8) et = (1, 3, 5, 7, 6, 2, 4, 8).

    Pour calculer leur signature, il faut calculer le nombre dinversions de et de . On voit que 1, 4et 8 ont le mme nombre de successeurs plus petits dans et .Pour passer de , on permute 2 et 3. Dans , 3 nest pas un successeur de 2 plus petit, alorsque dans , 2 est un successeur de 3 plus petit.Dans , 5 nest pas un successeur de 2 plus petit, mais 3 est un successeur de 5 plus petit,alorsque dans , 5 nest pas un successeur de 3 plus petit, mais 2 est un successeur de 5 plus petit. Enrptant le mme raisonnement avec 7 et 6, on remarque que le nombre de successeurs de 5, 7 et 6plus petits est le mme que cela soit dans ou dans . Globalement, on voit donc que a une etune seule inversion de plus que . Ainsi, leurs signatures sont opposes.

  • 3.1. PERMUTATIONS ET DTERMINANTS 35

    Dfinition 3.11. Soit

    A =

    a11 . . . a1n... ...an1 . . . ann

    une matrice carre de taille n n. Un produit lmentaire de A est le produit de n lments de A,choisis de faon quaucun couple dentre eux ne provienne de la mme ligne ou de la mme colonne.Autrement dit, tous les lments du produit sont dans des lignes et des colonnes diffrentes.

    Exemple 3.12. Les produits lmentaires de la matrice

    A =(a11 a12a21 a22

    )sont a11a22 et a12a21. Les produits lmentaires de

    A =

    a11 a12 a13a21 a22 a23a31 a32 a33

    sont :

    a11a22a33 a11a32a23 a21a12a33

    a21a32a13 a31a12a23 a31a22a13

    Plus gnralement, partir dune matrice de taille nn, on peut former n ! produits lmentaires.En effet, on constate quun produit lmentaire de A nest rien dautre quun produit a1j1a2j2 . . . anjno (j1, j2, . . . , jn) est un lment de Sn.Dfinition 3.13. Un produit lmentaire sign dune matrice A est un produit

    sign() a1j1 a2j2 . . . anjno = (j1, j2, . . . , jn) est une permutation n lments.

    Exemple 3.14. Les produits lmentaires signs de(a11 a12a21 a22

    )sont a11a22 (la permutation (1, 2) est paire) et a21a12 (la permutation (2,1) est impaire).

    Les produits lmentaires signs de a11 a12 a13a21 a22 a23a31 a32 a33

    sont a11a22a33, a11a23a32, a12a21a33, a12a23a31, a13a21a32 et a13a22a31.Dfinition 3.15. Le dterminant dune matrice A est le nombre obtenu en effectuant la somme detous les produits lmentaires signs de A. Il est not det(A). Autrement dit,

    det(A) =Sn

    sign() a1i1 . . . anin ,

    o = (i1, . . . , in).

    Exemple 3.16.

    A =(a11 a12a21 a22

    )det(A) = a11a22 a12a21 .

  • 36 CHAPITRE 3. LE DTERMINANT

    Exemple 3.17.

    A =

    a11 a12 a13a21 a22 a23a31 a32 a33

    det(A) = sign((1, 2, 3))a11a22a33 + sign((2, 3, 1))a12a23a31 + sign((3, 1, 2))a13a21a32

    + sign((3, 2, 1))a13a22a31 + sign((2, 1, 3))a12a21a33 + sign((1, 3, 2))a11a23a32= a11a22a33 + a12a23a31 + a13a21a32 a13a22a31 a12a21a33 a11a23a32

    Thorme 3.18. Si A est une matrice ayant une ligne forme de zros, alors det(A) = 0.

    Dmonstration. Par dfinition, le dterminant est la somme des produits lmentaires signs de A.Mais chacun de ces produits lmentaires contient un lment nul provenant de la ligne de zros deA. Donc det(A) = 0.

    Thorme 3.19. Le dterminant dune matrice A triangulaire (infrieure ou suprieure) est galau produit a11a22a33 . . . ann des lments diagonaux.

    Dmonstration. Le seul produit lmentaire sign non nul est a11a22 . . . ann. La permutation corres-pondante est (1, 2, . . . , n) qui contient 0 inversions et qui est donc une permutation paire. On a doncbien

    det(A) = a11a22a33 . . . ann.

    Examinons maintenant ce qui se passe si deux lignes de la matrice sont gales.

    Exemple 3.20. Soit

    A =

    a b ca b cd e f

    ,on a

    det(A) = abf abf + ace ace+ bcd bcd = 0et lon remarque que tous les produits lmentaires apparaissent deux fois avec des signes opposs(cf. lemme 3.10).

    Ceci nous amne au thorme suivant :

    Thorme 3.21. Soit A une matrice avec deux lignes gales. Alors

    det(A) = 0.

    Dmonstration. Dans le dterminant dune telle matrice, tous les produits lmentaires apparaissentdeux fois, avec des signes opposs. Donc det(A) = 0.

    3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2et 3 3

    Nous dcrivons ici la rgle de Sarus pour calculer des dterminants 2 2 et 3 3.

    Matrice 2 2

    QQQQQQQs

    a11 a12

    3

    a21 a22

    +

    det(A) = a11a22 a12a21.

  • 3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 37

    Matrice 3 3On recopie les colonnes 1 et 2 la suite de la colonne 3 et on calcule comme suit :

    QQQQQQQs

    a11QQQQQQQs

    a12QQQQQQQs

    a13a21 a22 a23

    3

    a31 3

    a32 3

    a33

    a11 a12a21 a22a31 a32

    + + +

    det(A) = a11a22a33 + a12a23a31 + a13a21a32 a31a22a13 a32a23a11 a33a21a12.Exemple 3.22. Calculer

    det

    2 1 01 0 10 0 1

    .

    QQQQQQQs

    2 QQQQQQQs

    1 QQQQQQQs

    01 0 1

    3

    0 3

    0 3

    1

    0 0 1

    2 11 00 0

    0 0 0

    donc det = 1.ATTENTION : Cette mthode ne sapplique pas pour les matrices de dimensions suprieures

    3.

    3.2 Dterminants et oprations lmentairesNous allons voir que la rduction dune matrice la forme chelonne nous fournit une mthode

    efficace pour calculer son dterminant.

    Thorme 3.23. Soit A une matrice de taille n n, et soit E une matrice lmentaire (E =Ei(k), Eij ou Eij(k)). Alors(1) det(Ei(k)) = k(2) det(Eij) = 1(3) det(Eij(k)) = 1(4) det(EA) = det(E) det(A)

    Dmonstration. (1) Soit k R, k 6= 0. Rappelons que

    Ei(k) =

    1 0 . . . . . . . . . . . . 0

    0. . .

    ...... 1

    ...... k

    ...... 1

    ......

    . . . 00 . . . . . . . . . . . . 0 1

    det(Ei(k)) =Sn

    sign() a1j1 . . . anjn ,

    o = (j1, . . . , jn).

  • 38 CHAPITRE 3. LE DTERMINANT

    Comme il ny a quun seul lment non nul dans chaque ligne et dans chaque colonne, le seulproduit lmentaire non nul est

    1 1 k 1 1 = k.De plus, la permutation (1, 2, . . . , n) na pas dinversion. Sa signature est donc 1. Ainsi

    det(Ei(k)) = k.

    (2) Sans perte de gnralit, on peut supposer que i < j. On a

    Eij =

    1. . .

    0 11

    . . .1

    1 01

    . . .1

    Comme avant, il y a un seul produit produit lmentaire non nul, qui vaut 1. Le dterminantsera donc 1. Il reste dterminer la signature de la permutation

    (1, 2, . . . , (i 1), j, (i+ 1), (i+ 2), . . . , (j 1), i, (j + 1), . . . , n).

    j a (j 1) successeurs plus petits. Les nombres compris entre (i + 1) et (j 1) ont chacun unsucceseur plus petit. Or, il y a (j 1) 1 nombres entre i et j. Ainsi, le nombre dinversions dela permutation est

    (j i) + (j i) 1 = 2j 2i 1.Cest un nombre impair. La signature est donc 1 et le dterminant de Eij est 1.

    (3) En crivant la matrice Eij(k), on voit que le seul produit lmentaire non nul est 1 et que lasignature de la permutation tudier est celle de (1, 2, . . . , n). Cest une permutation paire, cequi implique que det(Eij(k)) = 1.

    (4) Pour montrer que det(EA) = det(A) det(E), nous allons considrer trois cas, E = Ei(k), E = Eijet E = Eij(k).Premier cas E = Ei(k), k 6= 0 et A = (aij).

    EA =

    a11 a12 . . . a1na21 a22 . . . a2n...

    ......

    kai1 kai2 . . . kain...

    ......

    an1 an2 . . . ann

    .

    Le dterminant est la somme des produits lmentaires signs. Chaque produit lmentairea exactement un lment de chaque ligne,en particulier un lment de la i-me ligne. Ainsi,dans chaque terme de la somme, on peut mettre k en vidence. Finalement,

    det(EA) = kSn

    sign()a1(1) . . . an(n)

    = det(E) det(A).

  • 3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 39

    Deuxime cas E = Eij . On peut supposer que i < j. Posons B = EijA. On a

    EijA =

    a11 a12 . . . a1n...

    ......

    aj1 aj2 . . . ajn...

    ......

    ai1 ai2 . . . ain...

    ......

    an1 an2 . . . ann

    .

    Les produits lmentaires de B et de A sont les mmes. Comme det(Eij) = 1, pour montrerque det(EijA) = det(Eij) det(A) il faut montrer que les produits lmentaires signs de A etde B sont opposs. Par dfinition du dterminant,

    det(B) =Sn

    sign() b1(1) . . . bi(i) . . . bj(j) . . . bn(n)

    =Sn

    sign() a1(1) . . . aj(i) . . . ai(j) . . . an(n)

    La deuxime galit vient du fait que la i-me ligne de B est la j-me ligne de A (et rcipro-quement). Posons

    = ((1), . . . , (i 1), (j), (i+ 1), . . . , (j 1), (i), (j + 1), . . . , (n)). est la composition de avec la permutation qui change i et j. Par le lemme 3.10,sign() = sign(). Ainsi

    det(B) =Sn

    (sign()) a1(1) . . . an(n)

    = Sn

    sign() a1(1) . . . an(n)

    = det(A).Troisime cas E = Eij(k). On peut supposer que i < j. Posons C = Eij(k)A. On a

    C =

    a11 . . . a1n...

    ...ai1 + kaj1 . . . ain + kajn

    ......

    aj1 . . . ajn...

    ...an1 . . . ann

    .

    Alors,

    det(C) =Sn

    sign() b1(1) . . . bn(n)

    =Sn

    sign() a1(1) . . . a(i1)(i1)(ai(i) + kaj(i))a(i+1)(i+1) . . . an(n)

    =Sn

    sign() a1(1) . . . an(n)

    + kSn

    sign(a1(1) . . . a(i1)(i1))aj(i)a(i+1)(i+1) . . . an(n) =

    = det(A) + k

  • 40 CHAPITRE 3. LE DTERMINANT

    Comme det(Eij(k)) = 1, pour montrer que det(C) = det(A) det(Eij(k)), il suffit de montrerque = 0. Mais,

    = det

    a11 . . . a1n...

    ...a(i1)1 . . . a(i1)naj1 . . . ajn

    a(i+1)1 . . . a(i+1)n...

    ...an1 . . . ann

    et la i-me ligne de cette matrice est aj1 . . . ajn. Elle a donc deux lignes identiques (la i-meet la j-me), ce qui implique que = 0.

    Ce thorme nous permet de calculer le dterminant dune matrice de faon relativement simple,en utilisant lalgorithme de Gauss pour rduire la matrice la forme chelonne (qui est triangulaire)et en utilisant les thormes 3.23 et 3.19. En effet, si

    A = E1 . . . ErD

    o D = (dij) est une matrice chelonne (triangulaire). Alors

    det(A) = det(E1) . . . det(Er) det(D) = det(E1) . . . det(Er)d11d22 . . . dnn.

    Exemple 3.24. Calculer det(A), o

    A =

    0 1 53 6 92 6 1

    det(A) = det

    0 1 53 6 92 6 1

    = (1) det

    3 6 90 1 52 6 1

    = (3) det

    1 2 30 1 52 6 1

    = (3) det

    1 2 30 1 50 10 5

    = (3) det

    1 2 30 1 50 0 55

    = (3)(55) det

    1 2 30 1 50 0 1

    = (3)(55) = 165.

    Exemple 3.25. Soit

    A =

    1 3 2 42 6 4 83 9 1 51 1 4 8

  • 3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 41

    Alors, en soustrayant deux fois la ligne 1 la ligne 2, on obtient

    det(A) = det

    1 3 2 40 0 0 03 9 1 51 1 4 8

    = 0.

    Notation : Pour toute matrice carre A, on note

    |A| = det(A).

    Thorme 3.26. Soit A une matrice carre. Alors A est inversible si et seulement si det(A) 6= 0.On a, dans ce cas,

    det(A1) :=1

    det(A).

    Dmonstration. Supposons dabord que A est inversible. On peut alors crire A comme produit dematrices lmentaires, A = E1 Er. En appliquant successivement le thorme 3.23, on a

    det(A) = det(E1 Er) = det(E1) det(E2 Er) = = det(E1) det(Er).

    Comme le dterminant dune matrice lmentaire nest jamais nul, on en dduit que le dterminantde A nest pas nul.

    Ensuite, A1 = E1r E11 , et on vrifie aisment que det(E1) = det(E)1 pour toute matricelmentaire E. On a donc

    det(A1) = det(Er)1 det(E1)1,et donc det(A1) = det(A)1.

    Rciproquement, supposons que det(A) 6= 0. Nous montrerons qualors A est quivalente parlignes I, ce qui implique, par le thorme 2.32, que A est inversible.

    Soit R la forme chelonne rduite de A. On peut donc trouver des matrices lmentairesE1, , Ek telles que

    Ek E1A = R, ou encoreA = E11 E1k R .

    On en dduit que|A| = |E11 | |E1k | |R| .

    Mais par hypothse |A| 6= 0. Donc |R| 6= 0.On en dduit que chaque ligne de R contient un 1 directeur. Donc R = I.

    Le thorme suivant est essentiel et nous affirme que le dterminant est multiplicatif :

    Thorme 3.27. Soient A et B deux matrices de taille n n. Alors

    det(AB) = det(A) det(B) .

    Dmonstration. Si A et B sont les deux inversibles, on les crit comme produit de matrices lmen-taires : A = E1 . . . Er et B = F1 . . . Fs. On a alors

    det(AB) = det(E1 ErF1 Fs) = det(E1) det(E2 ErF1 . . . Fs)= = det(E1) det(Er) det(F1 Fs)= det(E1 Er) det(F1 Fs) = det(A) det(B).

    Si A ou B nest pas inversible, alors AB nest pas inversible non plus ; et det(AB) = 0.

    Le dterminant est invariant par transposition :

  • 42 CHAPITRE 3. LE DTERMINANT

    Thorme 3.28. Soit A une matrice de taille n n. Alors

    det(A) = det(AT ).

    Autrement dit, le dterminant dune matrice est gal celui de sa transpose.

    Dmonstration. La dmonstration se fait comme ci-dessus : supposons dabord que A est inversible.On peut alors lcrire comme produit de matrices lmentaires, A = E1 Er. On a alors

    AT = ETr ET1et

    |AT | = |ETr | |ET1 | = |Er| |E1| = |A|.Dautre part, si A nest pas inversible, alors AT nest pas inversible non plus, et |A| = |AT | =

    0.

    Comme la transposition transforme une ligne en une colonne (et rciproquement), ce thormenous permet de formuler le principe suivant :

    Principe 3.29. Pour toute proprit` des dterminants o il est question des lignes de la matrice, ona une proprit analogue concernant les colonnes de la matrice.

    Rsum des rsultats sur le dterminantA matrice carre de taille n n det(A) =

    sign()a1,j1 an,jn o = (j1, . . . , jn).

    Si A a une ligne nulle, alors det(A) = 0 . Si A a deux lignes gales, alors det(A) = 0. Si A est une matrice triangulaire (infrieure ou suprieure) alors det(A) est le produit de ses

    lments diagonaux.

    A =

    a11 . . .0 ann

    ou a11 0. . . ann

    det(A) = a11 ann .

    det(AB) = det(A) det(B) det(AT ) = det(A) A est inversible si et seulement si

    det(A) 6= 0 . Si A est inversible, alors

    det(A) =1

    det(A1)

    Matrices lmentaires : det(Ei(k)) = k det(Eij) = 1 det(Eij(k)) = 1.

    3.3 Les cofacteurs et la rgle de Cramer

    Dfinition 3.30 (Mineur et cofacteur). Soit A = (aij) une matrice de taille n n. On appellemineur de llment aij le dterminant de la sous-matrice obtenue en liminant la i-me ligne et laj-me colonne de la matrice A. On le note Mij . On appelle cofacteur de aij la quantit

    Cij = (1)i+j Mij .

  • 3.3. LES COFACTEURS ET LA RGLE DE CRAMER 43

    A =

    a11 a12 . . . aij . . . a1na21 a22 . . . a2j . . . a2n...

    ......

    ...ai1 aij . . . aij . . . ain...

    ......

    ...an1 an2 . . . anj . . . ann

    Mij = det

    a11 . . . a1,j1 a1,j+1 . . . a1n...

    ......

    ...ai11 . . . ai1,j1 ai1,j+1 . . . ai1,nai+11 . . . ai+1,j1 ai+1,j+1 . . . ai+1,n...

    ......

    an1 . . . an,j1 an,j+1 . . . an,n

    Exemple 3.31. Soit

    A =

    1 2 34 2 10 1 1

    Calculons M11, C11,M32, C32 :

    M11 =

    1 2 34 2 10 1 1

    =

    2 11 1 = 1

    C11 = (1)1+1M11 = 1 .

    M32 =

    1 2 34 2 10 1 1

    =

    1 34 1 = 11

    C32 = (1)3+2(11) = 11 .

    Pour dterminer si Cij =Mij ou Cij = Mij , on peut utiliser le schma suivant :

    A =

    + + . . . + + . . .+ + . . ....

    ......

    ...

    C11 =M11, C12 = M12, C21 = M21, etc...

    3.3.1 Calcul du dterminant par la mthode des cofacteurs

    Soit A une matrice de taille 3 3

  • 44 CHAPITRE 3. LE DTERMINANT

    A =

    a11 a12 a13a21 a22 a23a31 a32 a33

    Nous savons que

    det(A) = a11a22a33 + a12a23a31+a13a21a32 a13a22a31a12a21a33 a11a23a32 .

    On peut le rcrire de la manire suivante :

    det(A) = a11(a22a33 a23a32)+a12(a23a31 a21a33)+a13(a21a32 a22a31) .

    Les termes entre parenthses sont les cofacteurs des lments a11, a12, a13.Donc

    det(A) = a11C11 + a12C12 + a13C13 .

    Exemple 3.32.

    A =

    1 2 34 2 10 1 1

    det(A) = 1C11 + 2C12 + 3C13

    = 1 2 11 1

    + 2 (1) 4 10 1+ 3 4 20 1

    = 1 8 + 12= 5 .

    De manire analogue, on obtient

    det(A) = a11C11 + a12C12 + a13C13= a21C21 + a22C22 + a23C23= a31C31 + a32C32 + a33C33 .

    Nous avons vu que les proprits du dterminant relatives aux lignes conduisent des propritsanalogues relatives aux colonnes. On a donc aussi :

    det(A) = a11C11 + a21C21 + a31C31= a12C12 + a22C22 + a32C32= a13C13 + a23C23 + a33C33 .

    Ces expressions sont appeles les dveloppements du dterminant en cofacteurs par rapport auxlignes, respectivement aux colonnes, de la matrice A.

    Pour une matrice A de taille n n, on a les dveloppements en cofacteurs analogues. Nousrsumons ceci dans le thorme suivant :

    Thorme 3.33 (Dterminant par la mthode des cofacteurs). Dveloppement par rapport lai-me ligne :

    det(A) = ai1Ci1 + ai2Ci2 + + ainCinDveloppement par rapport la j-me colonne :

    det(A) = a1jC1j + a2jC2j + + anjCnj .

  • 3.3. LES COFACTEURS ET LA RGLE DE CRAMER 45

    3.3.2 Calcul de linverse par la mthode des cofacteursReprenons la formule du dterminant dvelopp selon la i-me ligne :

    ai1Ci1 + ai2Ci2 + + ainCin .

    Remplaons les lments aij par ceux dune autre ligne, disons la k-me, avec k 6= i. Nousobtenons

    ak1Ci1 + ak2Ci2 + + aknCin.Cette expression est gale zro. Autrement dit,

    Thorme 3.34.ak1Ci1 + ak2Ci2 + + aknCin = 0 si k 6= i

    Dmonstration : Nous allons le vrifier dans le cas particulier o n = 3. La dmonstrationest analogue dans le cas gnral. Soit

    A =

    a11 a12 a13a21 a22 a23a31 a32 a33

    Remplaons la 3-me ligne par la 1-re. On obtient

    A =

    a11 a12 a13a21 a22 a23a11 a12 a13

    On a det(A) = 0, car A a deux lignes gales. Calculons det(A) par dveloppement en cofacteurs

    par rapport la 3me ligne. On a :

    det(A) = a11C 31 + a12C32 + a13C

    33

    o C ij sont les cofacteurs de la matrice A. Mais

    C 31 = C31 , C32 = C32 , et C

    33 = C33 .

    On a doncdet(A) = a11C31 + a12C32 + a13C33 = 0.

    En rsum, on a

    ak1Ci1 + ak2Ci2 + + aknCin ={

    det(A) si i = k0 si i 6= k .

    Considrons maintenant la matrice des cofacteurs

    C =

    C11 C12 . . . C1nC21 C22 . . . C2n...

    ......

    Cn1 Cn2 . . . Cnn

    et calculons

    ACT =

    a11 a12 . . . a1na21 a22 . . . a2n...

    ......

    ai1 ai2 . . . ain...

    ......

    an1 an2 . . . ann

    C11 C21 . . . Cn1C12 C22 . . . Cn2...

    ......

    C1n C2n . . . Cnn

  • 46 CHAPITRE 3. LE DTERMINANT

    Dans le produit ACT , llment de la i-me ligne et de la j-me colonne est

    ai1Cj1 + ai2Cj2 + + ainCjn .

    Par ce qui prcde, on a donc

    ACT =

    det(A) 0 . . . 0

    0 det(A)...

    .... . . 0

    0 . . . 0 det(A)

    = det(A) I.

    On en dduit que si det(A) 6= 0, cest--dire si A est inversible, alors on a

    A1 =1

    det(A)CT .

    On a ainsi une formule explicite pour calculer A1. On appelle CT la matrice adjointe de A.Elle est note

    adj(A) .

    Thorme 3.35. Soit A une matrice carre avec det(A) 6= 0. On a alors

    A1 =1

    det(A)adj(A).

    Exemple 3.36.

    A =

    1 1 00 1 11 0 1

    .On a det(A) = 2 .La matrice forme des Mij est

    M =

    1 1 11 1 11 1 1

    .La matrice des signes est

    A =

    + + + + +

    .La matrice des cofacteurs est

    C =

    1 1 11 1 11 1 1

    .On a donc

    adj(A) = CT =

    1 1 11 1 11 1 1

    .Donc

    A1 =12

    1 1 11 1 11 1 1

    .

  • 3.3. LES COFACTEURS ET LA RGLE DE CRAMER 47

    3.3.3 Systmes linaires : rgle de Cramer

    Le thorme suivant, appel rgle de Cramer, donne une formule explicite pour la solution decertaines systmes dquations linaires.

    Soit a11x1 + a12x2 + + a1nxn = b1a21x1 + a22x2 + + a2nxn = b2

    . . .an1x1 + an2x2 + + annxn = bn

    un systme dquations linaires n quations et n inconnues. Ce systme peut aussi scrire AX = Bo

    A =

    a11 a12 . . . a1na21 a22 . . . a2n...

    ......

    an1 an2 . . . ann

    , X =

    x1x2...xn

    et B =

    b1b2...bn

    .La matrice A est appele la matrice des coefficients du systme et la matrice B est appele le secondmembre.

    Dfinissons Aj par

    Aj =

    a11 . . . a1,j1 b1 a1,j+1 . . . a1na21 . . . a2,j1 b2 a2,j+1 . . . a2n...

    ......

    ...an1 . . . an,j1 bn an,j+1 . . . ann

    jme colonne

    Autrement dit, Aj est la matrice obtenue en remplaccant la j-me colonne de A par le secondmembre B. La rgle de Cramer va nous permettre de calculer la solution du systme dans le cas odet(A) 6= 0 en fonction des dterminants des matrices A et Aj .Thorme 3.37 (Rgle de Cramer). Soit

    AX = B

    un systme de n quations n inconnues. Supposons que det(A) 6= 0. Alors lunique solution dusystme est donne par

    x1 =det(A1)det(A)

    , x2 =det(A2)det(A)

    , . . . , xn =det(An)det(A)

    .

    Dmonstration. Nous avons suppos que

    det(A) 6= 0 .

    Donc A est inversible. AlorsX = A1B

    est lunique solution du systme. Dautre part, nous avons vu que

    A1 =1

    det(A)adj(A) .

    Donc

    X =1

    det(A)adj(A)B.

  • 48 CHAPITRE 3. LE DTERMINANT

    Autrement dit,

    X =

    x1...xn

    = 1det(A) C11 . . . Cn1... ...

    C1n . . . Cnn

    b1...

    bn

    =

    1det(A)

    C11b1 + C21b2 + + Cn1bn...C1nb1 + C2nb2 + + Cnnbn

    ,cest- -dire

    x1 =C11b1 + + Cn1bn

    det(A)

    xi =C1ib1 + + Cnibn

    det(A). . .

    xn =C1nb1 + + Cnnbn

    det(A).

    Maisb1C1i + + bnCni

    est le dveloppement en cofacteurs de det(Ai) par rapport sa i-me colonne. Donc

    xi =det(Ai)det(A)

    .

    Exemple 3.38. Rsolvons le systme suivant : x1 + 2x3 = 63x1 + 4x2 + 6x3 = 30x1 2x2 + 3x3 = 8.On a

    A =

    1 0 23 4 61 2 3

    A1 = 6 0 230 4 6

    8 2 3

    A2 =

    1 6 23 30 61 8 3

    A3 = 1 0 63 4 301 2 8

    .et

    det(A) = 44 det(A1) = 40det(A2) = 72 det(A3) = 152.

    La solution est alorsx1 =

    det(A1)det(A) = 4044 = 1011

    x2 =det(A2)det(A) =

    7244 =

    1811

    x3 =det(A3)det(A) =

    15244 =

    3811 .

  • Chapitre 4

    Calcul vectoriel dans le plan et danslespace

    4.1 Dfinitions et rgles de calcul

    Un vecteur est un segment orient dans le plan ou dans lespace de dimension 3.

    B

    v

    A

    v =AB

    On appelle module du vecteur la longueur du segment AB. Le support du vecteur v est pardfinition la droite passant par A et B.

    Deux vecteurs ont la mme direction si leurs supports sont parallles. Deux vecteurs ayant lamme direction ont le mme sens sils sont orients de la mme faon :

    Deux vecteurs sont dits quivalents si lon peut les superposer par une translation. Par la suite, deuxvecteurs quivalents seront considrs comme gaux. Un vecteur est ainsi dtermin par son module,sa direction et son sens.

    Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur. On dfinitla somme de deux vecteurs v et w par la rgle du parallelogramme :

    llll

    llll

    !!!!!!!!!

    !!!!!!!!!

    !!!!!!!!!

    %%%%%%%

    v+w

    v

    w

    w

    llllv

    49

  • 50 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

    On place lorigine de w sur lextrmit de v. Le vecteur v+w est alors le segment orient joignantlorigine de v lextrmit de w. Remarquons que v + w = w + v.

    Le produit dun vecteur v par un scalaire k est le vecteur kv dfini par les proprits suivantes : son module est gal |k| fois le module de v sa direction est celle de v son sens est celui de v si k > 0 et le sens oppos si k < 0.

    Exemple 4.1.

    v

    3v

    2v

    Loppos du vecteur v est le vecteur v et la diffrence de deux vecteurs v et w est dfinie parv w = v + (w).

    4.1.1 Systmes de coordonnesSi lon choisit un systme de coordonnes pour le plan (resp. pour lespace), un vecteur peut

    alors scrire en composantes :

    v =(v1v2

    ), respectivement v =

    v1v2v3

    .

    x

    y

    v2

    v1

    v

    O

    Figure 6.2

    Dans cette reprsentation, lorigine du vecteur est toujours le point O = ( 00 ), intersection desaxes de coordonnes x et y.

    Dans le cas de lespace 3 dimensions, on choisit toujours un systme daxes orient positivementcomme le montre la figure ci-dessous :

    La somme de deux vecteurs et le produit dun vecteur par un scalaire se calculent comme suit(nous donnons les formules pour des vecteurs de lespace, le cas du plan tant similaire) :

    Si v =(v1v2v3

    )et w =

    (w1w2w3

    )alors

    v + w =

    v1 + w1v2 + w2v3 + w3

    ,kv =

    kv1kv2kv3

  • 4.1. DFINITIONS ET RGLES DE CALCUL 51

    v1 v2

    v3 vy

    z

    x

    Figure 6.4 : v =

    v1v2v3

    .

    Figure 6.5 :

    xyz

    a lorientation positive.

  • 52 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

    et

    v =v1v2v3

    .4.1.2 Proprits du calcul vectorielThorme 4.2. (a) u+ v = v + u(b) (u+ v) + w = u+ (v + w)(c) u+ 0 = 0 + u = u(d) u+ (u) = 0(e) k(`u) = (k`)u(f) k(u+ v) = ku+ kv(g) (k + `)u = ku+ `u

    Soit v un vecteur. On note v son module. Cest un nombre positif ou nul qui est aussi appella norme de v. Si u = ( u1u2 ) alors

    u =u21 + u

    22

    et, de mme, si u =(u1u2u3

    )alors

    u =u21 + u

    22 + u

    23.

    Ceci dcoule du thorme de Pythagore.Un vecteur de norme 1 est appel vecteur unit.

    4.2 Le produit scalaireOn va dfinir le produit scalaire de deux vecteurs u et v dans le plan ou dans lespace de dimension

    3. Le produit scalaire de deux vecteurs est un scalaire. Soient u = ( u1u2 ) et v = (v1v2 ) deux vecteurs

    dans le plan. On dfinit le produit scalaire par

    u v = u1v1 + u2v2 .

    Soient u =(u1u2u3

    )et v = ( v1,v2,v3 ) deux vecteurs dans lespace de dimension 3. On dfinit le produit

    scalaire par

    u v = u1v1 + u2v2 + u3v3Le produit scalaire a les proprits suivantes :

    Thorme 4.3. (1) u v = v u(2) u v = (u v)(3) (u+ v) w = u w + v w(4) u u 0(5) u u = 0 si et seulement si u = 0.(6) u u = u 2

    Dmonstration. Ces proprits sont des consquences immdiates de la dfinition. Par exemple, siu = ( u1u2 ) alors

    u u = u21 + u22.Mais

    u =u21 + u

    22

    et doncu u = u 2,

    ce qui dmontre (6).

  • 4.2. LE PRODUIT SCALAIRE 53

    Nous rappelons maintenant un rsultat de trigonomtrie. Considrons le triangle suivant :hhhhhhhhhhhhZ

    ZZZZZZZZ

    a

    bc

    On a alors

    Thorme 4.4 (Thorme du cosinus). Soient a, b, c les cts dun triangle et , , ses anglescomme dans la figure ci-dessus. Alors

    a2 = b2 + c2 2 b c cos().

    Dmonstration. Soit H le pied de la hauteur issue du sommet C.

    hhhhhhhhhhhhZ

    ZZZZZZZZbbbbbbbbb

    a

    bc

    A

    CB

    H

    Appliquons le thorme de Pythagore dans le triangle rectangle BCH :

    a2 = BH2 + CH2.

    Or, CH = b sin() et BH = c b cos(). Ainsi

    a2 = c2 2 b c cos() + b2 cos2() + b2 sin2()= b2 + c2 2 b c cos()

    Thorme 4.5. Soient u et v deux vecteurs non nuls, et soit langle quils forment. Alors

    u v = u v cos()

    Dmonstration. On a

    v u 2 = (v u) (v u)= v v + u u 2u v= v 2 + u 2 2u v .

    Par le thorme du cosinus, on a :

    v u 2= v 2 + u 2 2 u v cos() .Donc

    u v = u v cos() .Ceci dmontre le thorme.

  • 54 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

    ########AAAAAAA

    u

    v

    v u

    Figure 6.8

    Thorme 4.6. Soient u et v deux vecteurs non nuls. Alors u et v sont orthogonaux si et seulementsi

    u v = 0 .

    Dmonstration. Commeu v = u v cos() .

    on a u v = 0 si et seulement si cos() = 0 et donc si et seulement si = pi2 et donc si et seulementsi u et v sont orthogonaux.

    Remarque 4.7. On convient en gnral que le vecteur nul est orthogonal tous les vecteurs. Ainsi,lnonc du thorme 4.6 reste vrai, mme si lun des deux vecteurs est nul, bien que langle entreu et v ne soit pas dfini.

    4.2.1 Projection orthogonale

    u

    v

    Figure 6.9

    La projection (orthogonale) de u sur v est note

    projv u.

    Le thorme suivant nous donne le lien entre la projection et le produit scalaire :

    Thorme 4.8.projv u =

    u v v 2 v

    Posons w1 = projv u . Comme w1 est parallle v, on peut lcrire

    w1 = `v

    pour un certain scalaire `. On a :u = w1 + w2 .

  • 4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT) 55

    PP

    BB

    w2

    w1 v

    u

    Figure 6.10Dmonstration.

    Calculons le produit scalaire avec v. On a :

    u v = (w1 + w2) v == w1 v + w2 v .

    Mais w2 v = 0, car w2 et v sont orthogonaux. Il reste alors

    u v = w1 v = (`v) v == ` v v = ` v 2

    do` =

    u v v 2 .

    On a doncprojv u =

    u v v 2 v.

    Thorme 4.9. Soit langle form par les vecteurs u et v. Alors

    projv u = u |cos()| .

    Dmonstration. Par les thormes 4.8 et 4.5, on a

    projv u =|u v| v 2 v =

    |u v| v

    = u v cos()

    v = u | cos()|.

    4.3 Le produit vectoriel (cross product)

    Le produit vectoriel associe deux vecteurs de lespace u et v un troisime vecteur, not u v,et dfini de la faon suivante :

    Dfinition 4.10. Soient u =(u1u2u3

    )et v =

    (v1v2v3

    )deux vecteurs. Leur produit vectoriel est le vecteur

    u v dfini par

  • 56 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

    u v =u2v3 u3v2u3v1 u1v3u1v2 u2v1

    =

    u2 v2u3 v3

    u1 v1u3 v3

    u1 v1u2 v2

    .

    Posons

    i =

    100

    , j =010

    , et k =001

    .Alors

    u v =i u1 v1j u2 v2k u3 v3

    .Le produit vectoriel satisfait les proprits suivantes :

    Thorme 4.11. Si u, v et w sont des vecteurs dans lespace de dimension 3, on a :(a) u (u v) = 0 u v est orthogonal u(b) v (u v) = 0 u v est orthogonal v(c) u v 2= u 2 v 2 (u v)2 identit de Lagrange.(d) u (v w) = (u w)v (u v)w(e) (u v) w = (u w)v (v w)u

    Dmonstration. (a) Soient u =(u1u2u3

    )et v =

    (v1v2v3

    ). Alors

    u (u v) =u1u2u3

    u2v3 u3v2u3v1 u1v3u1v2 u2v1

    == u1(u2v3 u3v2) + u2(u3v1 u1v3) + u3(u1v2 u2v1) == u1u2u3 u1u3v2 + u2u3v1 u1u2v3 + u1u3v2 u2u3v1 = 0 .

    (b) calcul similaire (a)(c) On a

    u v 2= (u2v3 u3v2)2 + (u3v1 u1v3)2 + (u1v2 u2v1)2

    et u 2 v 2 (u v)2 = (u21 + u22 + u33)(v21 + v22 + v23) (u1v1 + u2v2 + u3v3)2

    et un calcul direct montre que les deux termes de droites sont gaux.(d) Les galits (d) et (e) se montrent de manire similaire.

    Le produit vectoriel est bilinaire et anti-symtrique. En dautres termes, on a

    Thorme 4.12. (a) u v = (v u)(b) u (v + w) = (u v) + (u w)(c) (u+ v) w = (u w) + (v w)(d) k(u v) = (ku) v = u (kv)(e) u 0 = 0 u = 0

  • 4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT) 57

    (f) u u = 0 .La notion de produit vectoriel est lie celle de colinarit par le thorme suivant :

    Thorme 4.13. Soient u et v deux vecteurs non nuls de lespace de dimension 3. Les affirmations(1) et (2) sont quivalentes :

    (1) u et v sont colinaires (cest--dire u = `v)(2) u v = 0.

    Dmonstration. (1) = (2) : Supposons que u = `v. Alorsu v = (`v) v = `(v v) = 0.

    ce qui dmontre (2).Montrons maintenant limplication inverse (2) = (1) : Soient u =

    (u1u2u3

    )et v =

    (v1v2v3

    )et

    u v =( u2v3u3v2u3v1u1v3u1v2u2v1

    ). Supposons que u v = 0. On a donc

    u2v3 u3v2 = 0u3v1 u1v3 = 0u1v2 u2v1 = 0 .

    1er cas : Si u1 6= 0 et u2 = u3 = 0, les quations deviennent0 = 0

    u1v3 = 0u1v2 = 0 .

    Comme u1 6= 0, ceci entrane v2 = v3 = 0 et donc

    u =(u100

    )v =

    (v100

    ).

    Comme v est non nul, on a v1 6= 0, do u = `v avec ` = u1v1 ce qui dmontre (1).

    2me cas : Supposons maintenant que u1 6= 0 et u2 6= 0. Si v2 = 0 la 1-re quation devientu2v3 = u3v2 = 0.

    Comme u2 6= 0, ceci entrane v3 = 0. Comme par hypothse v est non nul, on doit avoir v1 6= 0.Alors par la 3me quation, on a

    u1v2 = u2v1 6= 0ce qui implique v2 6= 0 ce qui est absurde. Ainsi, on a donc v1 6= 0 et v2 6= 0.

    Posons` =

    u1v1.

    Alors la 3-me quation donneu2v2

    = `

    et par la 2me quation on au3v1 = u1v3

    ce qui impliqueu3 =

    u1v1v3 = `v3.

    En conclusion, on au = ` v

    ce qui dmontre (2).

  • 58 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

    4.3.1 Interprtation gomtrique du produit vectoriel

    Nous avons vu que u v 2= u 2 v 2 (u v)2

    (identit de Lagrange). Soit langle form par u et v. Alors on a :

    u v = u v cos() .

    On a donc

    u v 2 = u 2 v 2 u 2 v 2 cos2 = u 2 v 2 (1 cos2 )= u 2 v 2 sin2 .

    On obtient donc

    Thorme 4.14. u v = u v sin()

    Dmonstration. Comme0 pi

    on asin() 0 .

    et donc lgalit cherche.

    Considrons maintenant un paralllogramme dont les cts sont les vecteurs u et v :

    h

    u

    v

    Figure 6.12 : h = v sin()

    Laire A de ce paralllogramme se calcule de la faon suivante :

    A = (base)(hauteur)= u v sin()= u v .

    On obtient donc le thorme suivant qui donne une interprtation gomtrique du produit vec-toriel de deux vecteurs :

    Thorme 4.15. La norme u v est gale laire du paralllogramme dtermin par u et v.En rsum, u v est un vecteur perpendiculaire u et v, et de longueur (norme) gale laire duparalllogramme dtermin par u et v. De plus, lorientation du triplet (u, v, u v) est positive

  • 4.4. LE PRODUIT MIXTE (TRIPLE PRODUCT) 59

    hhhhhhh

    u v

    u

    v

    Figure 6.13

    4.4 Le produit mixte (triple product)Dfinition 4.16. Soient u, v et w des vecteurs de lespace de dimension 3. On dfinit le produitmixte des vecteurs u, v et w par

    [u, v, w] = u (v w) .Cest un scalaire. Si u =

    (u1u2u3

    ), v =

    (v1v2v3

    )et w =

    (w1w2w3

    )alors

    [u, v, w] = u (v w)

    = u ( v2 w2v3 w3

    i v1 w1v3 w3 j + v1 w1v2 w2

    k)= v2 w2v3 w3

    u1 v1 w1v3 w3u2 + v1 w1v2 w2

    u3=

    u1 v1 w1u2 v2 w2u3 v3 w3

    .Thorme 4.17. Soient u, v et w trois vecteurs de lespace. Alors(1) [u, v, w] = [w, u, v] = [v, w, u] = [v, u, w] = [u,w, v] = [w, v, u](2) [u, v, w] = [u, v, w] pour tout scalaire .(3) [u, v, w] = 0 si et seulement sil existe des scalaires , , non tous nuls tels que u+v+w =

    0.

    Dmonstration. (1) et (2) dcoulent directement de la dfinition. Montrons alors la proprit (3).Supposons que

    u+ v + w = 0

    avec , , non tous nuls. Sans perte de gnralit, on peut supposer 6= 0.Alors

    u = v + w

    avec

    =

    et = ,

    et

    [u, v, w] = (v + w) (v w)= v (v w)

    0

    +w (v w) 0

    = 0 .

  • 60 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

    Rciproquement, supposons que [u, v, w] = 0. On a donc

    (u v) w = 0cest--dire que u v est orthogonal w. Mais u v est aussi orthogonal u et v. Ceci entraneque u, v et w sont coplanaires et donc que lon peut crire

    w = u+ v

    ce qui termine la dmonstration.

    Le produit mixte peut galement tre interprt gomtriquement ce qui est lobjet du thormesuivant.

    Thorme 4.18. (1) Soit u = ( u1u2 ) et v = (v1v2 ) deux vecteurs de R2. Alors la valeur absolue du

    dterminant u1 v1u2 v2

    est gal laire du paralllogramme dfini par les vecteurs u et v.

    (2) Soient u =(u1u2u3

    ), v =

    (v1v2v3

    )et w =

    (w1w2w3

    )trois vecteurs de R3. Alors la valeur absolue du

    dterminant u1 v1 w1u2 v2 w2u3 v3 w3

    est gal au volume du paralllpipde dtermin par ces trois vecteurs

    Dmonstration. (1) On considre u et v comme vecteurs de lespace de dimension 3 :

    u =(u1u20

    )et v =