Cours d’algèbre linéaire MIPC-S2 : FST-Tanger Sections A & B K.Boulifa & B.Gmira 1. Matrices 2. Système d’équations linéaires 3. Applications linéaires 4. Déterminants 5. Réduction des Endomorphismes 2019-2020 AVANT-PROPOS Le présent polycopié s’adresse aux étudiants de la filière MIPC (Mathématiques, Informatique, Physique et Chimie) deuxième semestre. Des exemples sont introduits et des exercices sont accompagnés de leurs solutions pour que l’étudiant s’y entraine. Ce polycopié est divisé en cinq chapitres : Chapitre 1 : Rappelle les techniques et les méthodes de calcul matriciel Chapitre 2 : Est consacré à l’étude d’un système d’équations linéaires par la méthode du pivot ou méthode d’élimination de Gauss. Chapitre 3 : Applications linéaires Chapitre 4 : Déterminants Chapitre 5 : Réduction des endomorphismes ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 Table des matières 1 Matrices : définition et vocabulaire 1.1 Matrices à n lignes et p colonnes . . . . . . . . . . . . . . . . 1.1.1 Egalité de deux matrices . . . . . . . . . . . . . . . . 1.1.2 Addition des matrices et multiplication par un scalaire 1.1.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . 1.2 Espace vectoriel des matrices à n lignes et p colonnes . . . . . 1.3 Quelques types classiques de matrices . . . . . . . . . . . . . 1.3.1 Transposée d’une matrice . . . . . . . . . . . . . . . 1.3.2 Matrices diagonales . . . . . . . . . . . . . . . . . . 1.3.3 Matrices triangulaires . . . . . . . . . . . . . . . . . . 1.3.4 Matrices symétriques et matrices antisymétriques . . . 1.3.5 Puissances successives d’une matrice carrée . . . . . . 1.3.6 Matrices nilpotentes . . . . . . . . . . . . . . . . . . 1.3.7 Inverse d’une matrice carrée . . . . . . . . . . . . . . 1.3.8 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 6 7 8 9 9 9 9 10 10 10 11 11 2 Etude d’un système d’équations linéaires par la méthode du pivot ou méthode d’élimination de Gauss 2.1 Système d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Matrice échelonnée en lignes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Cas des systèmes linéaires homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Utilisation pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2 Calcul de l’inverse d’une matrice par la méthode du pivot . . . . . . . . . . . . . . . . . . . . 12 12 13 14 15 16 17 17 18 3 Applications linéaires 3.1 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 3.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Matrices associées à une application linéaire . . . . . . . . . . . . . . . . . . . . . 3.6 Matrice d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Propriétés des matrices de passage . . . . . . . . . . . . . . . . . . . . . . 3.7.2 Application au calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . 3.7.3 La matrice associée à une application linéaire bijective est-elle inversible ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 20 21 23 23 24 25 26 28 29 30 30 33 4 Déterminants 4.1 Groupe des permutations d’un ensemble . . . . . . . . . . . 4.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Inversions d’une permutation. Calcul de la signature 4.2 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . . 4.2.1 Forme bilinéaire alternée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 34 34 35 35 35 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TABLE DES MATIÈRES 4.3 4.4 4.5 4.6 4.7 5 TABLE DES MATIÈRES A) Propriété d’antisymétrie . . . . . . . . B) Intérêt d’une forme bilinéaire alternée 4.2.2 Cas d’un espace vectoriel de dimension 2 . . . . Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . . 4.3.1 Forme trilinéaire alternée . . . . . . . . . . . . . 4.3.2 Cas d’un espace vectoriel de dimension 3 . . . . Déterminant d’ordre n . . . . . . . . . . . . . . . . . . . 4.4.1 Forme multilinéaire alternée . . . . . . . . . . . 4.4.2 Cas d’un espace vectoriel de dimension n . . . . Déterminant d’une matrice carrée . . . . . . . . . . . . Calcul des déterminants . . . . . . . . . . . . . . . . . . Applications . . . . . . . . . . . . . . . . . . . . . . . . 4.7.1 Calcul du rang d’une matrice . . . . . . . . . . . 4.7.2 Calcul de l’inverse d’une matrice . . . . . . . . 4.7.3 Systèmes de Cramer . . . . . . . . . . . . . . . Réduction des endomorphismes 5.1 Introduction . . . . . . . . . . . . . . . . . . 5.2 Somme directe (rappels ) . . . . . . . . . . . 5.3 Eléments propres d’un endomorphisme . . . 5.3.1 Valeurs propres et vecteurs propres . 5.3.2 Caractérisation des valeurs propres . . 5.4 Recherche des valeurs propres . . . . . . . . 5.5 Sous-espaces propres . . . . . . . . . . . . . 5.5.1 Recherche des vecteurs propres . . . 5.5.2 Dimension d’un sous-espace propre . 5.6 Diagonalisation . . . . . . . . . . . . . . . . 5.6.1 Diagonalisation d’un endomorphisme 5.6.2 Polynômes annulateurs . . . . . . . . 5.6.3 Théorème de Cayley-Hamilton . . . . 5.6.4 Polynôme minimal . . . . . . . . . . 5.7 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 36 37 37 37 38 40 40 40 41 42 44 44 45 45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 47 48 49 49 49 50 51 51 52 53 53 55 56 56 58 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 1 MATRICES : DÉFINITION ET VOCABULAIRE 1.1 Matrices à n lignes et p colonnes Définition 1.1. Soit K un corps arbitraire (R ou C). Soit n et p deux entiers strictement positifs. On appelle matrice, de type (n,p) à coefficients dans IK, la donnée d’un tableau noté a11 . .. A = ai1 . .. an1 ... .. . ... a1 j .. . ... ai j .. . ... an j ... .. . ... a1p .. . aip .. . anp — Les ai j sont des scalaires du corps K — Les p, n-uplet horizontaux (a11 , a12 , . . ., a1n ), (a21 , a22 , . . ., a2n ), . . ., (a p1 , an2 , . . ., a pn ) sont les lignes de A. a1p a11 a12 a a21 a22 — Les n, p uplet verticaux , , . . ., 2p sont les colonnes de A. . . . . . . . . . anp an1 an2 — L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mn,p (K). — Si p = n on note Mn,n (K) = Mn (K) et on parle de matrices carrées d’ordre n. — Le coefficient ai j se trouve à l’intersection de la i-ème ligne et de la j-ème colonne de la matrice A 1.1.1 Egalité de deux matrices Définition 1.2. L’égalité des matrices A et B de Mn,p (K) équivaut à : ∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., p}, ai j = bi j Exemple 1.1. Soit la matrice 2x3 : 1 0 4 −2 −3 5 Ses lignes sont (1, −3, 4), (0, 5, −2) et ses colonnes sont ! 1 , 0 5 ! ! −3 , 5 ! 4 −2 1.1. MATRICES À N LIGNES ET P COLONNES CHAPITRE 1. MATRICES Exemple 1.2. L’égalité ! x + y 2z + w 3 = x−y z−w 1 x+y =3 =1 x−y est équivalente au système d’équations suivant : w + 2z =5 −w + z=4 1.1.2 ! 5 4 Addition des matrices et multiplication par un scalaire Soient A et B deux matrices de même type (n,p), c’est-à-dire ayant le même nombre de lignes et de colonnes, c’est-à-dire, deux (n, p) matrices : a11 . .. A = ai1 . .. an1 ... .. . ... a1 j .. . ... ai j .. . ... an j ... .. . ... a1p b11 . .. .. . aip et B = bi1 .. .. . . bn1 anp ... .. . ... b1 j .. . ... bi j .. . ... bn j ... .. . ... b1p .. . bip . .. . bnp — La somme de A et B, écrite A+B, est la matrice obtenue en ajoutant les éléments correspondants des deux matrices : a11 + b11 .. . A + B = ai1 + bi1 .. . an1 + bn1 ... .. . ... a1 j + b1 j .. . ... ai j + bi j .. . ... an j + bn j ... .. . ... a1p + b1p .. . aip + bip .. . anp + bnp — La somme de deux matrices de type différents n’est pas définie. — Le produit d’une matrice A par un scalaire k, noté kA ka11 . .. kA = kai1 . .. kan1 ... .. . ... ka1 j .. . ... kai j .. . ... kan j ... .. . ... ka1p .. . kaip .. . kanp Propriétés 1.1. Soient A, B, C ∈ Mn,p (K) et k1 , k2 ∈ K. Les principales propriétés des matrices se déduisant de l’addition et de la multiplication par un scalaire sont : 1. (A + B) + C = A + (B + C) 2. A + 0 = A 3. A + (−A) = 0 4. A + B = B + A 5. k1 (A + B) = k1 A + k1 B 6. (k1 + k2 )A = k1 A + k2 A 1 Soient A = 4 -2 5 3 -6 1+3 Addition : A+B = 4−7 ! 3 0 2 et B = Alors : -7 1 8 ! ! −2 + 0 3 + 2 4 −2 5 = 5 + 1 −6 + 8 −3 6 2 ! 3.1 3.(−2) 3.3 Multiplication par un scalaire : 3A = 3.4 3.5 3.(−6) ! ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 1. MATRICES 1.1. MATRICES À N LIGNES ET P COLONNES La matrice nulle : La matrice de type (n, p) dont les éléments sont tous nuls est appelée la matrice nulle, et sera notée O: 0 . . . 0 . . . 0 . . .. . . ... .. . 0 . . . 0 . . . 0 .. .. . . . . .. . . 0 ... 0 ... 0 1.1.3 Produit matriciel Définition 1.3. (Matrice identité :) On appelle matrice identité d’ordre n, la matrice carrée dont les éléments de la diagonale sont égaux à 1 et tous les autres sont égaux à 0. on la note In . 1 Ainsi, pour n = 3, I3 = 0 0 0 1 0 0 0 est la matrice identité d’ordre 3. 1 Exemples 1.3. 1. Compte tenu de ce!qui précède, on définit le produit de deux matrices A1 et A2 de M2 (K) de la ! a1 b1 a2 b2 manière suivante : si A1 = et A2 = , on pose : c1 d1 c2 d2 a a + b1 c2 A1 A2 = 1 2 c1 a2 + d1 c2 2. La matrice identité I2 = 1 0 a1 b2 + b1 d2 c1 b2 + d1 d2 ! ! 0 est l’élément neutre de M2 (K) pour la multiplication : 1 ∀A ∈ M2 (K), AI = IA = A 3. Le produit de deux matrices n’est pas commutatif et que le produit de deux matrices non nulles peut être égal à la ! ! 1 1 1 1 matrice nulle. Soit par exemple : A = et B = . 0 0 −1 −1 AB = 02,2 et BA = B, alors que A , I2 et que B2 = B × B = 02,2 Définition 1.4. On définit d’abord le produit d’une matrice ligne L de type (1, n) et d’une matrice colonne Cde type (n,1) : b1 L = (a1 , ..., an ) , C = ... bn on pose : LC = n X ai bi (1.1) i=1 Il s’agit d’un scalaire Définition 1.5. On définit ensuite le produit de deux matrices A et B (AB) lorsque le nombre de colonnes de A est égal au nombre de lignes de B, de la manière suivante : si A ∈ Mn,m (K) et B ∈ Mm,p (K). AB est la matrice de Mn,p (K) dont le terme indexé par (i, j) est égal au produit de la i-ème ligne de A et de la j-ème colonne de B. Autrement dit, C = AB si et seulement si ∀(i, j) ∈{1,2,.., n}×{1,2,..., p} ci j = Ligi (A)Col j (B) = m X ai,k bk, j k=1 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 (1.2) 1.2. ESPACE VECTORIEL DES MATRICES À N LIGNES ET P COLONNES CHAPITRE 1. MATRICES B : p lignes q colonnes ai 1 × b1 j .. + .+ bk j .. + a ik × .+ a ip a11 ... a1k ... a1p .. . .. .. . .. . .. . ai1 ... aik ... aip .. . .. . .. . .. .. . an1 ... ank ... . . anp × bp ... b1 j ... b1q .. . .. .. . .. . .. . bk1 ... bk j ... bkq .. . .. . .. . .. .. . b p1 ... bp j ... . . b pq j c11 ... c1 j ... c1q .. . .. .. . .. . .. . ci1 ... ci j ... ciq .. . .. . .. . .. .. . cn1 ... cnk ... . . cnq C = A × B : n lignes q colonnes A : n lignes p colonnes Propriétés 1.2. b11 A(BC) = (AB)C, ∀A ∈ M p,n (K), ∀B ∈ Mn,q (K), ∀C ∈ Mq,m (K) A(B + C) = AB + AC, ∀A ∈ M p,n (K), ∀B, C ∈ Mn,q (K) (A + D)B = AB + DB. ∀A, D ∈ M p,n (K), ∀B, C ∈ Mn,q (K) 1.2 Espace vectoriel des matrices à n lignes et p colonnes On vérifie sans problème que Mn,p (K) est un K espace vectoriel. — Le vecteur nul de cet espace n’est autre que la matrice nulle On,p (ou O ) — Chaque matrice A de Mn,p (K) admet pour matrice opposée la matrice −A que l’on construit en posant : ∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., p}, −(ai j ) = −ai j Les notions de famille libre, famille génératrice et de base sont valables aussi pour les familles de matrices. En particulier, Mn,p (K) possède une base canonique : elle est constituée des matrices El,k ,1 ≤ k ≤ n et 1 ≤ l ≤ p où El,k est la matrice dont tous les coefficients sont nuls sauf celui d’indice (l, k) qui vaut 1. Par exemple, dans M2,3 (K). ! ! 0 1 0 0 0 0 E1,2 = ; E2,1 = 0 0 0 1 0 0 Toute matrice A ∈ Mn,p (K) se décompose alors d’une unique façon sous la forme : A= p n X X l=1 k=1 al,k El,k ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 1. MATRICES 1.3. QUELQUES TYPES CLASSIQUES DE MATRICES Exercice 1.1. On considère l’ensemble E des matrices carrées d’ordre 3 défini par : a b b E= M(a, b) = b a b , a ∈ R, b ∈ R b b a 1. Montrer que Eest un sous-espace vectoriel de l’espace vectoriel des matrices carrées d’ordre 3. 1 0 0 0 1 1 2. Justifier que les matrices I = 0 1 0 et J = 1 0 1 forment une famille génératrice de E. 0 0 1 1 1 0 ( !) ( !) a 2a+b a 3a+b Exercice 1.2. Soient F= A ∈ M2 (R)| et G= A ∈ M2 (R)| -b -a -b -2a+b Montrer que M2 (R) = F ⊕ G. 1 Solution de l’exercice 1.1. Base de F : { A1 , A2 } avec A1 = 0 ! ! 1 3 0 1 Base de G : { B1 , B2 } avec B1 = , B2 = 0 -2 -1 1 Montrer que {A1 , A2 , B1 , B2 } est une famille libre. 2 -1 ! 0 , A2 = -1 1 0 ! Théorème 1.3. Mn,p (K) est un K espace vectoriel de dimension np 1.3 1.3.1 Quelques types classiques de matrices Transposée d’une matrice Définition 1.6. A étant une matrice de Mn,p (K). On appelle transposée de A et l’on note t A la matrice à p lignes et n colonnes de terme général b ji défini par : pour tout (i, j) de {1,2,.., n}×{1,2,..., p}, ai j = b ji — Si A et B sont deux matrices de Mn,p (K) et λ, µ deux scalaires quelconques : t (λA + µB) = λ t A + µ t B t (AB) = t B t A — Quelle que soit la matrice A : t (t A) = A 1.3.2 Matrices diagonales Définition 1.7. Une matrice carrée D = (di j ) de Mn (K) est diagonale si di j = 0 pour tout i , j. En posant pour tout i dii = λi , on écrira encore que D = Diag(λ1 , λ2 , .. λn ). λ1 0 0 0 0 λ 0 0 2 = Diag(λ1 , λ2 , λ3 , λ4 ) Ainsi, lorsque n = 4, D = 0 0 λ3 0 0 0 0 λ4 1.3.3 Matrices triangulaires Définition 1.8. A ∈ Mn (K) est une matrice triangulaire supérieure (resp. inférieure) si ai j = 0 pour i > j (resp i < j) a11 . .. A = 0 . .. 0 ... .. . ... a1 j .. . ... aii .. . ... 0 ... .. . ... a1n a11 . .. .. . ain , resp A = ai1 .. .. . . ann an1 ... .. . ... ... 0 .. . ... 0 .. . aii .. . ... .. . ... 0 .. . an j ann ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 1.3. QUELQUES TYPES CLASSIQUES DE MATRICES Exemple 1.4. √1 0 B = 2 3 i+1 2 1.3.4 CHAPITRE 1. MATRICES √ 1 2 i+1 A = 0 3 2 ∈ M3 (C) est une matrice triangulaire supérieure. 0 0 -1 0 0 = t A est une matrice triangulaire inférieure. -1 Matrices symétriques et matrices antisymétriques Définition 1.9. Une matrice carrée A de ∈ Mn (K) est symétrique si t A = A et antisymétrique si t A = −A. √ 1 2 i √ Exemple 1.5. A = 2 0 4 est une matrice symétrique. i 4 -1 √ 0 2 -4 √ B = - 2 0 -3 est une matrice antisymétrique. 4 3 -1 1.3.5 Puissances successives d’une matrice carrée Soit A une matrice de Mn (K). 1. On définit Ak pour tout entier k ≥ 0 par itérations successives en posant : A0 = In et ∀k ∈ N, Ak+1 = Ak A 2. Pour tous entiers naturels n, r, s et k : Ar+s = Ar A s et (Ar ) s = Ars 3. Si AB = BA, alors : (AB)k = Ak Bk (A + B)n = n X Cnk Ak Bn−k ((Formule du binôme)) k=0 An − Bn = (A − B) 4. In − An+1 = (In − A) 1.3.6 n P k=0 n X Bk−1 An−k k=1 Ak Matrices nilpotentes Définition 1.10. La matrice A de Mn (K) est nilpotente s’il existe un entier naturel k tel que Ak = 0. Dans ces conditions A s = 0 pour tout entier s ≥ k. Le premier entier p tel que A p = 0 s’appelle indice de nilpotence de A. 0 1 1 0 0 2 Exemple 1.6. N = 0 0 0 0 0 0 N est nilpotente d’indice p = 4 1 0 0 1 2 , N = 3 0 0 0 0 0 0 0 2 0 0 0 4 0 6 3 0 , N = 0 0 0 0 0 0 0 0 0 0 0 0 6 0 0 4 0 , N = 0 0 0 0 0 0 0 0 0 0 0 0 0 0 . Ainsi, la matrice 0 0 Exercice 1.3. Soit A et B deux matrices de Mn (K). 1. On suppose que AB est une matrice nilpotente. Prouver que BA l’est également. 2. On suppose que A et B sont nilpotentes et que AB = BA. Démontrer que A + B est également nilpotente. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 1. MATRICES 1.3.7 1.3. QUELQUES TYPES CLASSIQUES DE MATRICES Inverse d’une matrice carrée Définition 1.11. Une matrice carrée A ∈ Mn (K) est dite inversible s’il existe une matrice A0 ∈ Mn (K) telle que : AA0 = A0 A = In A0 est l’inverse de A et notée par A−1 . Exemple 1.7. A = 1 1 ! 2 est inversible et son inverse est : A−1 = 3 3 −1 ! −2 1 Proposition 1.4. Une matrice diagonale Diag(λ1 , ..., λn ) est inversible si et seulement si le produit de ses termes −1 diagonaux est différent de 0. L’inverse en est alors la matrice diagonale Diag(λ−1 1 , ..., λn ) 1.3.8 Trace d’une matrice Soit A est une matrice carrée de Mn (K). La somme de ses éléments diagonaux (ai,i )1≤i≤n est appelée trace de A : tr A = n X ai,i i=1 — si A et B sont deux matrices de Mn (K) et λ et µ, deux scalaires quelconques : tr(λA + µB) = λ tr A + µ tr B ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 2 ETUDE D’UN SYSTÈME D’ÉQUATIONS LINÉAIRES PAR LA MÉTHODE DU PIVOT OU MÉTHODE D’ÉLIMINATION DE GAUSS 2.1 Système d’équations linéaires On appelle système d’équations linéaires un système du type : a11 x1 + a12 x2 ..... + a1p x p a21 x1 + a22 x2 ..... + a2p x p ................................. an1 x1 + an2 x2 ..... + anp x p = = = = b1 b2 .... bn (2.1) Les ai j et les bi sont des éléments de K, donnés. Les xi sont dites "inconnues" et résoudre le système signifie déterminer les xi ∈ K, s’ils existent, ils vérifient toutes les équations. Le système linéaire (2.1) s’écrit sous la forme d’une équation matricielle (équivalente au système) AX = b a11 .. . A = ai1 . .. an1 ... .. . ... a1 j .. . ... ai j .. . ... an j ... .. . ... a1p x1 b1 . . .. .. .. . aip , X = xi et b = bi . . .. .. .. . . anp xp bn On définit la matrice augmentée du système (2.1) par : a11 . .. (A|B) = ai1 . .. an1 ... .. . ... a1 j .. . ... a1p .. . ai j .. . aip .. . ... an j ... .. . ... Le système (2.1) est homogène si b1 = b2 = .......bn = 0. 12 anp b1 .. . bi .. . bn CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.2. MATRICE ÉCHELONNÉE EN LIGNES Exemple 2.1. Soit le système : 2x1 + x2 − 2x3 + 3x4 = 1 3 x1 + 2x2 − x3 + 2x4 = 4 3 x + 3x + 3x − 3x = 5 1 2 3 4 L1 L2 (2.2) L3 La matrice augmentée du système (2.2) : 2 3 3 1 2 3 −2 −1 3 3 2 −3 1 L1 4 L2 5 L3 La première équation du système (2.1) commence par un coefficient non nul, ce qu’on peut toujours faire en changeant éventuellement l’ordre des équations (première opération élémentaire). Ce coefficient non nul est dit pivot. (Dans système (2.2), le pivot est 2). La méthode du pivot est fondée sur la remarque suivante : Propriété 2.1. L’ensemble des solutions d’un système linéaire ne change pas si l’on effectue sur les équations les « opérations élémentaires» suivantes : 1. Changer l’ordre des équations ; 2. Multiplier une équation (premier et second membre ) par un scalaire non nul ; 3. Ajouter à une équation une combinaison linéaire des autres équations. Exemple 2.2. Pour le système (2.2), la matrice augmentée est : 2 3 3 1 2 3 −2 −1 3 3 2 −3 1 L1 4 L2 5 L3 On effectue des opérations élémentaires de manière à faire disparaître les deux coefficients encadrés. L’ensemble des solutions n’a pas changé. 2 1 −2 3 1 L1 ← L1 −5 5 L2 ← 2L2 − 3L1 0 1 4 0 3 12 −15 7 L3 ← 2L3 − 3L1 On répète maintenant l’opération sur les deux dernières équations : 2 0 0 1 1 0 −2 4 0 3 −5 0 1 L1 ← L1 5 L2 ← L2 −8 L3 ← L3 − 3L2 On voit immédiatement que le système n’admet pas de solution. 2.2 Matrice échelonnée en lignes On dit qu’une matrice est échelonnée si les lignes commencent par un nombre de zéros strictement croissant à mesure que l’indice augmente (c’est-à-dire, par exemple, la ligne L3 commence par un nombre de zéros strictement plus grand que la ligne L2 et celle-ci par un nombre de zéros strictement plus grand que la ligne L1 ). √ 1 2 4 Exemple 2.3. La matrice 0 2 4 est une matrice échelonnée. 0 0 −1 √ 1 2 4 Alors que la matrice 0 0 4 n’est pas échelonnée. 0 0 −1 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 2.3. RÉSOLUTION D’UN SYSTÈME LINÉAIRE 1 −3 Exemple 2.4. La matrice A = 2 −5 3 −8 1 0 0 6 −2 −1 −3 1 1 1 3 Pour la matrice B = 1 4 0 1 1 0 0 CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 6 2 10 3 se réduit en sa forme échelonnée en lignes par les pivotages 17 4 2 L1 ← L1 −1 L2 ← L2 − 2L1 −2 L3 ← L3 − 3L1 1 0 0 ⇔ −3 1 0 6 −2 1 2 L1 ← L1 −1 L2 ← L2 −1 L3 ← L3 − L2 2 1 , on a : −1 3 1 1 2 L1 ← L1 −1 L2 ← L2 − L1 −1 L3 ← L3 1 ⇔ 0 0 3 1 0 2 L1 ← L1 −1 L2 ← L2 0 L3 ← L3 − L2 Définition 2.1. Un système d’équation matricielle AX = b avec A ∈ Mn,p (K), X ∈ M p,1 (K) et b ∈ Mn,1 (K) est dit rectangulaire. En particulier, il est dit : — échelonné si la matrice A est échelonnée, — carré si la matrice A est carrée, — triangulaire si la matrice A est triangulaire, — diagonal si la matrice A est diagonale. 2.3 Résolution d’un système linéaire — Il faut tout d’abord préparer le système en échangeant éventuellement l’ordre des équations et des variables de manière à ce que le pivot soit non nul ; — On échelonne ensuite le système. Deux cas peuvent se donner : (a) Il existe une équation du type : 0x1 + 0x2 + .................0x p = b; b,0 (2.3) Dans ce cas, il n’y a pas de solution : on dit que le système est incompatible. (b) Il n’y a pas d’équation du type (2.3) : S’il existe une équation du type : 0x1 + 0x2 + .................0x p = 0 elle peut être écartée, on aboutit à un système du type : a11 0 0 0 0 a12 a1s air a1p aip ans anp b1 bi bn où les coefficients encadrés (ceux qui sont au début de chaque équation) sont tous non nuls. Les inconnues qui apparaissent au début de chaque équation (celles correspondantes aux coefficients encadrés) sont dites inconnues principales, les autres (s’il y en a) variables libres. Deux cas sont possibles : A-Il n’y a pas de variable libre : Alors le système admet une et une seule solution que l’on obtient en résolvant d’abord la dernière équation et en remontant jusqu’à la première. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.4. CAS DES SYSTÈMES LINÉAIRES HOMOGÈNES x + 2y − 3z = 4 x + 3y + z = 11 . Exemple 2.5. Résoudre le système : 2x + 5y − 4z = 13 4x + 11y = 37 1 2 −3 4 L1 1 3 1 11 L2 La matrice augmentée : 2 5 −4 13 L3 4 11 0 37 L4 1 0 0 0 2 1 1 3 −3 4 2 12 4 7 5 21 1 2 −3 0 1 4 ⇒ 0 0 −2 0 0 0 L1 L2 ← L2 − L1 L3 ← L3 − 2L1 L4 ← L4 − 4L1 4 7 −2 0 L1 L2 L3 ← L3 − L2 L4 ← L4 − 3L2 Il n’y a pas de variable libre, donc le système admet une solution unique x = 1, y = 3, z = 1. B-Il y a des variables libres : On donne alors aux variables libres des valeurs arbitraires λ1 ,..., λm , on porte les λi au second membre et l’on est ramené au cas précédent, il existe alors une et une seule solution pour chaque choix de λ1 ,..., λm , c’est-à-dire, une infinité de solutions dépendante de m paramètres (m = nombre des variables libres). t − 3x + 4y − 2z = 5 t − x + 9y − z = 7 Exemple 2.6. Résoudre le système t − 2x + 7y − 2z = 9 1 −3 4 −2 5 L1 1 −1 9 −1 7 L2 La matrice augmentée : 1 −2 7 −2 9 L3 1 0 0 −3 2 1 4 5 3 −2 1 0 5 L1 ← L1 2 L2 ← L2 − L1 4 L3 ← L3 − L1 1 ⇒ 0 0 −3 2 0 4 5 1 −2 1 −1 5 L1 ← L1 2 L2 ← L2 6 L3 ← 2L3 − L2 t, x et y sont les inconnues principales et z le variable libre. En donnant à z une valeur arbitraire λ : Donc, z = λ, y = λ + 6, x = −3λ − 14, t = −11λ − 61 Ainsi, le système admet une infinité de solutions à 1 paramètre : (−11λ − 61, −14 − 3λ, 6 + λ, λ) = λ(−11, −3, 1, 1) + (−61, −14, 6, 0) . 2.4 Cas des systèmes linéaires homogènes On appelle système linéaire homogène un système d’équations linéaires dont le second membre est nul : a11 x1 + a12 x2 ..... + a1p x p = 0 a21 x1 + a22 x2 ..... + a2p x p = 0 ................................. = 0 an1 x1 + an2 x2 ..... + anp x p = 0 La matrice augmentée du système (2.4) : a11 .. . (A|B) = ai1 . .. an1 ... .. . ... a1 j .. . ... a1p .. . ai j .. . aip .. . ... an j ... .. . ... anp 0 .. . 0 .. . 0 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 (2.4) 2.5. UTILISATION PRATIQUE CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES Théorème 2.1. L’ensemble des solutions d’un système linéaire homogène à n inconnues est un sous-espace vectoriel de Kn . Si le système sous forme échelonnée comporte k équations, l’espace des solutions est de dimension n − k. En particulier un système homogène avec plus d’inconnues que d’équations (n > k) admet des solutions non nulles. REMARQUE. La dimension de l’espace des solutions est égale au nombre de variables libres qui apparaissent dans la forme échelonnée. Exemple 2.7. x1 + 2x2 − 3x3 + x4 − x5 = 0 x1 + 3x2 − 4x3 + x5 = 0 2x + 5x − 7x + x5 = 0 1 2 3 On ramène facilement le système à la forme échelonnée : ( x1 + 2x2 − 3x3 + x4 − x5 = 0 1 (A|B) = 0 0 2 1 0 x2 − x3 − x4 + 2x5 = 0 −3 1 −1 0 −1 −1 2 0 0 0 0 0 Les variables libres sont x3 , x4 et x5 , l’ensemble des solutions est donc un sous-espace vectoriel de dimension 3 de R5 . La solution générale est : c’est-à-dire : x1 = λ − 3µ, x2 = λ + µ − 2ν, x3 = λ, x4 = µ, x5 = ν S = (λ − 3µ, λ + µ − 2ν, λ, µ, ν) = λ(1, 1, 1, 0, 0) + µ(−3, 1, 0, 1, 0) + ν(0, −2, 0, 0, 1) Donc une base de l’espace des solutions est : Vect{(1, 1, 1, 0, 0), (−3, 1, 0, 1, 0), (0, −2, 0, 0, 1)} 2.5 Utilisation pratique La méthode du pivot fournit une technique qui permet de s’affranchir de l’étude du système et de travailler directement sur les familles de vecteurs. Théorème 2.2. (Opérations élémentaires sur une famille de vecteurs) Soit (υ1 , ......, υ p ) une famille de vecteurs. L’espace qu’ils engendrent ne change pas si l’on effectue sur les vecteurs de la famille l’une des "opérations élémentaires" suivantes : a) changer l’ordre des vecteurs ; b) multiplier un vecteur par un scalaire non nul ; c) ajouter à un vecteur une combinaison linéaire des autres vecteurs. Définition 2.2. Soit (υ1 , ......, υ p ) une famille de vecteurs de E. On appelle matrice engendrée par les vecteurs υi dans la base {ei } (ou plus simplement : matrice des vecteurs υi ) la matrice dont les lignes sont les composantes des vecteurs υ1 , ......υ p dans la base ei Exemple 2.8. La matrice engendrée par les vecteurs υ1 = (1, 1, 1, 0, 0), υ2 = (−3, 1, 0, 1, 0), υ3 = (5, −2, 0, 0, 1) dans la base canonique de R5 1 1 1 0 0 υ1 −3 1 0 1 0 υ2 5 −2 0 0 1 υ3 Corollaire 2.1. Les vecteurs lignes d’une matrice et les vecteurs lignes de sa réduite échelonnée engendrent le même espace vectoriel. Le résultat suivant donne la clé de la méthode : Théorème 2.3. Soit (υ1 , ......, υ p ) une famille de vecteurs, A la matrice engendrée (dans une base quelconque) et A0 une réduite échelonnée de A. Alors les lignes non nulles de A0 donnent une base de Vect(υ1 , ......, υ p ) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.6 2.6. APPLICATIONS Applications A- Extraire une base d’une famille génératrice et déterminer les relations liant les vecteurs. Exercice 2.1. υ1 = (1, 1, 0, −1), υ2 = (−1, 1, 1, 0), υ2 = (0, 2, 1, −1) trois vecteurs. 1. Déterminer une base du sous-espace de R4 engendré par ces vecteurs. 2. Déduire le rang de la matrice engendrée par les vecteurs ligne υ1 , υ2 et υ3 3. Trouver une relation entre υ1 , υ2 et υ3 Solution de l’exercice 2.1. Voir TD B- Compléter une famille libre en une base. Détermination d’un supplémentaire. Exercice 2.2. Soient les vecteurs υ1 = (1, 2, −1, 0, 1), υ2 = (2, 1, 1, 1, 1), υ3 = (3, 2, 0, 1, 2) 1. Montrer que (υ1 , υ2 , υ3 ) forment une famille libre de R5 ; 2. Déterminer deux vecteurs w1 , w2 de R5 de manière à ce que {υ1 , υ2 , υ3 , w1 , w2 } soit une base de R5 . Solution de l’exercice 2.2. Voir TD 2.6.1 Le rang d’une matrice Soit A une matrice de type (m, n) quelconque sur un corps K. Rappelons que l’espace ligne de A est le sous-espace de Kn engendré par les lignes de A, et l’espace colonne de A est le sous-espace de Km engendré par ses colonnes. Les dimensions de l’espace ligne et de l’espace colonne de A sont appelées, respectivement, le rang ligne et le rang colonne de la matrice A. Théorème 2.4. Le rang ligne et le rang colonne d’une matrice A sont égaux. Définition 2.3. Le rang de la matrice A, que l’on écrit rg(A), est la valeur commune du rang ligne et du rang colonne de A. Définition 2.4. Le rang d’une matrice A est : (a) Le nombre de lignes non nulles dans sa forme échelonnée en lignes ; (b) Le plus grand entier r tel qu’il existe une matrice carrée d’ordre r extraite de A, inversible. REMARQUE. - Le rang d’un système linéaire est le rang de sa matrice des coefficients A - rg(A) = rg( t A) Exemple 2.9. Soit 1 A = 2 3 2 1 2 −1 1 0 0 1 1 1 1 2 2 −3 0 −1 3 −3 0 1 −1 La forme échelonnée de A est 1 A0 = 0 0 1 −1 1 Le nombre de lignes non nulles dans A0 est 3, donc rg(A) = 3 Exemple 2.10. Calculons le rang de la matrice A 1 A = 1 1 1 2 −1 1 0 3 2 1 4 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 2.6. APPLICATIONS CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES La forme échelonné de A (en lignes) 1 A0 = 0 0 1 1 0 1 −1 0 2 −1 0 d’où rg(A) = 2. La forme échelonné de A (en colonnes) 1 A0 = 1 1 0 1 −2 0 0 0 0 0 0 le nombre de colonnes non nuls est 2. Donc rg(A) = 2 2.6.2 Calcul de l’inverse d’une matrice par la méthode du pivot Proposition 2.5. Soit A ∈ Mn (K). Supposons qu’en faisant une suite d’opérations élémentaires sur les lignes de la matrice A, on parvienne à la transformer en la matrice identité In . Alors la matrice A est inversible et en faisant la même suite d’opérations élémentaires sur la matrice In on obtient à la fin la matrice A−1 Exemple 2.11. Soit 1 A = 1 −2 On forme le tableau contenant A dans la partie gauche et I3 1 1 1 1 3 5 0 (A|I3 ) = 1 −2 −2 1 0 1 3 −2 1 5 1 dans la partie droite : 0 0 L1 1 0 L2 0 1 L3 Puis on fait des opérations élémentaires sur les lignes de manière à mettre la partie gauche sous forme échelonné réduite : 1 1 1 1 0 0 L1 ← L1 1 1 1 1 0 0 L1 ← L1 ⇒ 0 1 2 −1/2 1/2 0 L2 ← 1/2L2 0 2 4 −1 1 0 L2 ← L2 − L1 0 0 1 2 0 1 L3 ← L3 + 2L1 0 0 1 2 0 1 L3 ← L3 1 0 0 1 1 0 0 1 1 −1 0 −9/2 1/2 2 0 −1 L1 ← L1 − L3 −2 L2 ← L2 − 2L3 1 L3 ← L3 1 ⇒ 0 0 Donc la matrice A est inversible et son inverse est : 7/2 −1/2 A−1 = −9/2 1/2 2 0 0 1 0 0 0 1 7/2 −9/2 2 −1/2 1/2 0 1 L1 ← L1 − L2 −2 L2 1 L3 1 −2 1 Proposition 2.6. soit A ∈ Mn (K), A est inversible si et seulement si rgA = n. Exemple 2.12. On prend la matrice de l’exemple 2.11 1 A = 1 −2 La forme échelonné de A 1 0 0 1 2 0 1 3 −2 1 5 1 1 4 1 rgA = 3, donc A est inversible ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.6. APPLICATIONS REMARQUE. Soient A une matrice d’ordre n inversible et A−1 son inverse. La propriété d’inversibilité d’une matrice carrée A = (ai j )1≤i, j≤n d’ordre n équivaut à l’existence de n2 scalaires a0i j , 1 ≤ i, j ≤ n (ce sont les coefficients de la matrice inverse de A vérifiant : 0 0 0 a11 . . . a1 j . . . a1n a11 . . . a1 j . . . a1n 1 . . . 0 . . . 0 . .. .. .. . . .. .. .. . .. .. .. .. . . . .. . . . . . . . ai1 . . . ai j . . . ain a0i1 . . . a0i j . . . a0in = 0 . . . 1 . . . 0 .. .. .. .. . . .. .. .. .. .. .. .. . . . . . . . . . . . . 0 0 0 an1 . . . an j . . . ann an1 . . . an j . . . ann 0 ... 0 ... 1 d’après les règles de calcul sur les matrices ∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., n} ( δi j = 1 0 n X aik a0k j = δi j (2.5) k=1 si i = j si i , j Le calcul de A−1 peut donc être mené en résolvant successivement, pour j variant de 1 à n, a11 . .. ai1 .. . an1 ... .. . ... a1 j .. . ... ai j .. . ... an j ... .. . ... a1n .. . ain .. . ann 0 a1 j 0 . . .. .. 0 ai j = 1 ← j-ième ligne .. .. . . 0 0 an j dont les inconnues sont les n scalaires a01 j , a02 j , ..............a0n j (ce sont les coefficients de la j-ième matrice-colonne extraite de A−1 . Exercice 2.3. Soit la matrice : 0 1 0 Montrer que A est inversible et calculer A−1 1 0 −1 −2 −1 −2 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3 APPLICATIONS LINÉAIRES 3.1 Application Soient A et B deux ensembles quelconques. Supposons qu’à chaque a ∈ A on associe un élément unique de B ; l’ensemble de ces correspondances est appelé une application de A dans B et on l’écrit f : A −→ B Soit a ∈ A, on écrit f (a) l’image de a par f . (a) Si A0 est un sous-ensemble quelconque de A, alors f (A0 ) est l’ensemble des images des éléments de A0 : f (A0 ) = { f (a); a ∈ A0 } (b) Si B0 est un sous-ensemble de B, alors f −1 (B0 ) est l’ensemble des éléments de A dont les images appartiennent à B0 : f −1 (B0 ) = {a ∈ A; f (a) ∈ B0 } Exemple 3.1. Soient A = {a, b, c, d} et B = {x, y, z, w}. Le diagramme suivant définit une application f de A dans B : f (a) = y, f (b) = x, f (c) = z, f (d) = y f ({a, b, c, d}) = { f (a), f (b), f (c), f (d)} = {x, y, z} L’image de f est l’ensemble {x, y, z} : f (A) = {x, y, z} ! 1 −3 5 Exemple 3.2. Soit la matrice A = 2 4 −1 A détermine l’application f : R3 v . −→ 7−→ 20 R2 Av CHAPITRE 3. APPLICATIONS LINÉAIRES 3.2. APPLICATIONS LINÉAIRES x Donc si v = y, alors : z x − 3y + 5z f (v) = Av = 2x + 4y − z . ! Définition 3.1. (Applications injectives) Rappelons qu’une application entre deux ensembles f : A −→ B est dite injective si, pour tous x et x0 de A distincts, on a f (x) , f (x0 ). On sait que, pour les démonstrations, il est souvent plus pratique de montrer que, pour tout x et x0 de A, si f (x) = f (x0 ), alors x = x0 . Définition 3.2. (Applications surjective) Une application f : A −→ B est dite surjective si chaque b ∈ B est l’image d’au moins un a ∈ A (∀b ∈ B, ∃a ∈ A, f (a) = b) Une application qui est à la fois injective et surjective est dite bijective. Exercice 3.1. Soient les applications f : A −→ B ; g : B −→ C et h : C −→ D définies par le diagramme Déterminer si chacune de ces applications est : 1. injective, 2. surjective, 3. a un inverse. 3.2 Applications linéaires Définition 3.3. Soient E et F deux espaces vectoriels sur le même corps K et f une application de E dans F. On dit que f est linéaire, si : f (v + w) = f (v) + f (w), ∀ v, w ∈ E f (λv) = λ f (v), ∀v ∈ E, ∀λ ∈ K. L’ensemble des applications linéaires de E dans F est noté L(E, F) Exemple 3.3. L’application f définie dans l’exemple 3.2 est linéaire. si v, w ∈ R3 et λ ∈ K , alors f (v + w) = A(v + w) = Av + Aw f (λv) = A(λv) = λA(v) = λ f (v) Exemple 3.4. f : R3 (x1 , x2 , x3 ) est une application linéaire. En effet, si u = (x1 , x2 , x3 ) et v = (y1 , y2 , y3 ), on a : −→ 7−→ R2 (2x1 + x2 , x2 − x3 ) f (u + v) = f (x1 + y1 , x2 + y2 , x3 + y3 ) = ((2x1 + x2 ) + (2y1 + y2 ), (x2 − x3 ) + (y2 − y3 )) = f (u) + f (v) f (λv) = f (λx1 , λx2 , λx3 ) = f (λ(2x1 + x3 , x2 − x3 )) = λ f ((2x1 + x3 , x2 − x3 )) = λ f (v) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 (3.1) 3.2. APPLICATIONS LINÉAIRES CHAPITRE 3. APPLICATIONS LINÉAIRES REMARQUE. Soit f : E −→ F une application linéaire, on a f (0) = f (0 − 0) = f (0) − f (0) = 0. Pour tous u, v ∈ E et tous λ, µ ∈ K on a f (λu + µv) = λ f (u) + µ f (v) Par récurrence sur n, on en déduit que pour tout n ∈ N, pour tous vecteurs v1 , ..., vn ∈ E et et pour tous scalaires λ1 , λ2 , .........., λn ∈ K n n X X f λi vi = λi f (vi ) i=1 i=1 Définition 3.4. (Somme d’applications linéaires) Soient f : E −→ F et g : E −→ F deux applications linéaires. On définit leur somme f + g : E −→ F en posant : ( f + g)(u) = f (u) + g(u) Proposition 3.1. La somme de deux applications linéaires est linéaire. Démonstration. En effet, ( f + g)(u + v) = f (u + v) + g(u + v) = f (u) + f (v) + g(u) + g(v) = ( f + g)(u) + ( f + g)(v) De même, ( f + g)(λu) = λ( f + g)(u). cqfd Exemple 3.5. Soient A, B ∈ M2,3 (R), f et g deux applications linéaires : f : R3 v −→ 7−→ R2 Av R3 v −→ 7−→ R2 Bv g: Soient u, v ∈ R3 . On pose h = f + g. h(u + v) = (A + B)(u + v) = (A + B)u + (A + B)v = h(u) + h(v) h(kv) = (A + B)(kv) = k(A + B)v = kh(v) Proposition 3.2. (Composée d’applications linéaires) La composée de deux applications linéaires est linéaire. Démonstration. Soient f : E −→ F et g : F −→ G. deux applications linéaires. Pour tout u et tout v de E, pour tout λ de R, on a : 1. go f (u + v) = g( f (u + v)) = g( f (u) + f (v)) = g( f (u)) + g( f (v)) = go f (u) + go f (v), 2. go f (λu) = g( f (λu)) = g(λ f (u)) = λg( f (u)) = λgo f (u). cqfd Définition 3.5 (Endomorphisme). On appelle endomorphisme de E, une application linéaire de E dans E (même espace de départ et d’arrivée). L’ensemble des endomorphismes de E est noté L(E) On appelle isomorphisme de E sur F une application linéaire bijective de E dans F. Exemple 3.6. idE : E x −→ 7−→ E x est un endomorphisme de E dit identité sur E. Exemple 3.7. f : R2 −→ (x1 , x2 ) 7−→ R2 (2x1 + x2 , x2 ) est un endomorphisme ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3. APPLICATIONS LINÉAIRES 3.3 3.3.1 3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE Noyau et image d’une application linéaire Image d’une application linéaire Définition 3.6. (Image d’une application linéaire) Soient E et F deux espaces vectoriels et f : E −→ F une application linéaire. On appelle image de f et on note Im f ou f (E). Im f = f (E) ={v ∈ F tels qu’il existe u ∈ E tel que f (u) = v} Proposition 3.3. (Image d’espace engendré) Soient E et F deux espaces vectoriels et f : E −→ F une application linéaire. 1) Soit (u1 , ..., u p ) une famille de vecteurs de E. Alors : f (vect(u1 , ..., u p )) = vect( f (u1 ), ..., f (u p )). 2) Soit (u1 , ..., u p ) une famille génératrice de vecteurs de E, par exemple une base de E. Alors Im f = Vect( f (u1 ), ..., f (u p )) Démonstration. 1) si v ∈ f (vect(u1 , ..., u p )). v est de la forme : Donc v = f (λ1 u1 + ....... + λ p u p ) v = λ1 f (u1 ) + λ2 f (u2 ) + ..............λ p f (u p ) ce qui montre que Réciproquement, si v est de la forme v ∈ vect( f (u1 ), f (u2 ), .............., f (u p )) v ∈ Vect( f (u1 ), ..., f (u p )), v = λ1 f (u1 ) + λ2 f (u2 ) + ..............λ p f (u p ), d’où v = f (λ1 u1 + ....... + λ p u p ). Donc 2) est une conséquence de 1). v ∈ f (vect(u1 , ..., u p )) cqfd Proposition 3.4. Soit f : E −→ F une application linéaire et F un sous-espace vectoriel de E. L’image par f d’un sous-espace vectoriel G de E est un sous-espace vectoriel de F noté f (G). En particulier, = f = f (E) est un sous-espace vectoriel de F. Démonstration. Soient v et v0 dans f (G) et λ, µ deux réels. Il existe deux éléments u et u0 de G, tels que f (u) = ν et f (u0 ) = v0 . Il faut montrer que λv + µv0 est dans f (G), ce qui résulte de : λv + µv0 = λ f (u) + µ f (u0 ) = f (λu + µu0 ). cqfd Proposition 3.5. Soit f : E −→ F une application linéaire injective. L’image d’une famille libre de E est une famille libre de F. Démonstration. Il s’agit de montrer que la famille ( f (u1 ), f (u2 ), ..... f (u p )) est libre. Supposons que λ1 f (u1 ) + λ2 f (u2 ) + ..... + λ f (u p ) = 0 . L’application f étant linéaire, on a : . Comme le ker f = {0}, on a f (λ1 u1 + λ2 u2 + ..... + λ p u p ) = 0 λ1 u1 + λ2 u2 + ..... + λ p u p = 0, la famille (u1 , u2 , .....u p ) étant libre, ainsi, λ1 = λ2 = .......λ p = 0. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 cqfd 3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE CHAPITRE 3. APPLICATIONS LINÉAIRES Exercice 3.2. Reprenons l’application de l’exemple 3.8 f : R4 −→ (x1 , x2 , x3 , x4 ) 7−→ R3 (x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 ) Trouver une base et la dimension de = f . Soit (e1 , e2 , e3 ) la base canonique de R4 On a : Im( f ) = Vect( f (e1 ), f (e2 ), f (e3 ), f (e4 )) avec f (e1 ) = (1, 1, 1), f (e2 ) = (−1, 0, 1), f (e3 ) = (1, 2, 3), f (e4 ) = (1, −1, −3) La matrice ligne engendrée de = f . 1 −1 A = 1 1 1 0 2 −1 1 1 3 −3 f (e1 ) f (e2 ) f (e3 ) f (e4 ) réduisons cette matrice par des opérations élémentaires sur les lignes à sa forme échelonnée : 1 1 1 υ1 0 1 2 υ 2 A0 = 0 0 0 0 0 0 Ainsi, (υ1 , υ2 ) est une base de Im f , avec υ1 = (1, 1, 1) et υ2 = (0, 1, 2) 3.3.2 Noyau d’une application linéaire Définition 3.7. (Noyau d’une application linéaire) Soient E et F deux espaces vectoriels et f : E −→ F une application linéaire. On appelle noyau de f et on le note ker f , l’ensemble des vecteurs de E dont l’image est le vecteur nul de F, autrement dit : ker f = {u ∈ E/ f (u) = 0} Proposition 3.6. Le noyau d’une application linéaire f : E −→ F est un sous-espace vectoriel de E. Démonstration. Soient u et u0 dans le noyau de f et λ, µ deux réels. Il faut montrer que λu + µu0 est dans ker( f ), ce qui résulte de : f (λu + µu0 ) = λ f (u) + µ f (u0 ) = 0 + 0 = 0. cqfd Exemple 3.8. Soit f une application linéaire définie par f : R4 −→ (x1 , x2 , x3 , x4 ) 7−→ R3 (x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 ) Trouver une base et la dimension de ker f . Cherchons l’ensemble des (x1 , x2 , x3 , x4 ) tel que f (x1 , x2 , x3 , x4 ) = (0, 0, 0). Le système homogène suivant dont l’espace solution est le noyau de f (ker f ) : x1 − x2 + x3 + x4 = 0 x1 + 2x3 − x4 = 0 x + x + 3x − 3x = 0 1 2 3 4 on obtient le système échelonné : ( x1 − x2 + x3 + x4 = 0 x2 + x3 − 2x4 = 0 Les inconnues libres sont x3 et x4 ; donc dim(ker f = 2. Pour x3 = −1, x4 = 0 on obtient la solution υ1 = (2, 1, −1, 0) Pour x3 = 0, x4 = 1 on obtient la solution υ2 = (1, 2, 0, 1) Ainsi, (υ1 , υ2 ) est une base de ker f ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3. APPLICATIONS LINÉAIRES 3.4. RANG D’UNE APPLICATION LINÉAIRE Proposition 3.7. (Critère d’injectivité) Soient f : E −→ F une application linéaire. L’application linéaire f est injective si et seulement si ker f = {0}. Démonstration. Supposons f injective. On sait que f (0) = 0 ; aucun autre élément de E ne peut avoir pour image 0, donc ker( f ) = 0. Réciproquement, si u et u sont deux vecteurs ayant la même image : f (u) = f (u0 ), on a : f (u − u0 ) = 0, donc u − u0 ∈ ker f = {0}, donc u = u0 . cqfd Exemple 3.9. Soit f une application linéaire définie par f : R3 −→ (x1 , x2 , x3 ) 7−→ R3 (x1 , x1 − x2 − 2x3 , −x2 − 2x3 ) Déterminer ker f Le système homogène suivant dont l’espace solution est le noyau de f x1 =0 x1 − x2 − 2x3 = 0 − x − 2x = 0 2 3 Le système échelonné : x1 − x2 x2 zéro inconnue libre, donc ker f = {0} 3.4 − 23 = 0 =0 − 2x3 =0 Rang d’une application linéaire Le rang d’une application linéaire f est par définition la dimension de Im f . On le notera rg f . Exemple 3.10. Considérons la projection p: R5 −→ (x, y, z, s, t) 7−→ R5 (x, 0, z, 0, t) La famille (e1 , e3 , e5 ) est de rang 3 et engendre Im f , donc rg( f ) = 3. Théorème 3.8. (Théorème du rang :) Soient E, F deux espaces vectoriels de dimension finie, et f : E −→ F une application linéaire. Alors ker f et Im f sont des espaces vectoriels de dimension finie et : dim E = dim ker f + rg f . Démonstration. Comme ker f est un sous-espace vectoriel de l’espace de dimension finie E, il est de dimension finie. Posons dim E = n et soit (u1 , ..., ur ) une base de ker f . On peut compléter cette base en une base (u1 , .ur ..un ) de E. Montrons que β = ( f (ur+1 ), ..., f (un )) est une base de Im f . On sait que β est une famille génératrice de Im f . β est aussi une famille libre de Im f , car si : λr+1 f (ur+1 ) + ............ + λn f (un ) = 0. On a : f (λr+1 ur+1 + ............ + λn un ) = 0, donc : Ce vecteur étant dans ker f , donc λr+1 ur+1 + ............ + λn un ∈ ker( f ), λr+1 ur+1 + ............ + λn un = λ1 u1 + ............ + λr ur , Donc : λ1 u1 + ............ + λr ur − λr+1 ur+1 − ............ − λn un = 0. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE CHAPITRE 3. APPLICATIONS LINÉAIRES Tous les coefficients de cette égalité sont nuls car (u1 , ..., ur , ..., un) est une base de E, donc β est une famille libre de Im( f ). Par conséquent, B est une base de Im f . Comme elle a n − r éléments et que dim ker f = r. On conclut que dim E = dim ker f + rg f. cqfd Exemple 3.11. Soit l’application linéaire f : R4 −→ (x1 , x2 , x3 , x4 ) 7−→ R3 (x1 − x2 + x3 , 2x1 + 2x2 + 6x3 + 4x4 , −x1 − 2x3 − x4 ) x1 − x2 + x3 =0 2x1 + 2x2 + 6x3 + 4x4 = 0 (x1 , x2 , x3 , x4 ) ∈ ker( f ) ⇔ f ((x1 , x2 , x3 , x4 )) = (0, 0, 0) ⇔ −x − 2x3 − x4 = 0 1 ( x1 − x2 + x3 =0 ⇔ x2 + x3 + x4 = 0 Deux inconnues libres (x3 et x4 ) et deux inconnues principales (x1 et x2 ), donc dim ker f = 2, dim Im f = 2 et dim R4 = dim Im f + dim ker f = 2 + 2 = 4 Propriété 3.1. Soit f ∈ L(E, E 0 ), E, E 0 étant deux espaces vectoriels de même dimension finie (en particulier, par exemple, si f ∈ L(E), avec E de dimension finie). Alors les propriétés suivantes sont équivalentes : 1. f est injective. 2. f est surjective. 3. f est bijective. 3.5 Matrices associées à une application linéaire Soient E et E 0 deux espaces vectoriels sur K de dimension n et p respectivement, et f : E −→ E 0 une application linéaire. Soient {e1 , ..., en } une base de E et {e0i , ..., e0p } une base de E 0 . Les images par f des vecteurs e1 ,..., en se décomposent sur la base {e01 , ..., e0p } : f (e1 ) = a11 e01 + a21 e02 + ................a p1 e0p f (e2 ) = a12 e01 + a22 e02 + ................a p2 e0p ...... = ..................................................... f (en ) = a1n e01 + a2n e02 + ................a pn e0p 0 Définition 3.8. (Matrice d’une application linéaire) On appelle matrice de f dans les bases β = {e1 , ..., en } et β = {e0i , ..., e0p } la matrice notée M( f )β,β0 appartenant à M p,n (K) dont les colonnes sont les composantes des vecteurs f (e1 ),..., 0 f (en ) dans la base β = {e0i , ..., e0p } : MB,B0 ( f ) = f (e1 ) a11 .. . ... ... .. . a p1 ... f (en ) a1n e01 .. .. . . a pn e0p Exemple 3.12. Soit {1 , 2 } la base canonique de R2 et B = {e1 , e2 , e3 } la base canonique de R3 . On considère l’application linéaire f : R3 −→ R2 (x, y, z) 7−→ (x − y, z − y) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3. APPLICATIONS LINÉAIRES 3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE on a : f (e1 ) = f (1, 0, 0) = (1, 0) = 1 f (e2 ) = f (0, 1, 0) = (−1, −1) = −1 − 2 f (e3 ) = f (0, 0, 1) = (0, 1) = 2 Donc : MB,B0 ( f ) = f (e1 ) 1 0 f (e2 ) −1 −1 f (e3 ) 0 1 1 2 Exemple 3.13. Soient E un espace vectoriel de dimension 2 muni de la base BE = (e1 , e2 ) et F un espace vectoriel de dimension 3 muni de la base BF = ( f1 , f2 , f3 ). Soit f l’application linéaire : f : E −→ F définie par : f (e1 ) = 2 f1 + 3 f2 − f3 , f (e2 ) = f1 − f2 + 4 f3 MBE ,BF ( f ) = f (e1 ) 2 3 −1 f (e2 ) 1 f1 −1 f2 4 f3 Soient CE = (e2 , e1 ) et CF = ( f3 , f2 , f1 ) Rappelons que l’ordre des vecteurs a une importance dans la définition d’une famille. Ainsi, MCE ,CF ( f ) = f (e2 ) 4 −1 1 f (e1 ) −1 f3 3 f2 2 f1 Exercice 3.3. Soit f un endomorphisme de R3 défini par : f : R3 −→ (x1 , x2 , x3 ) 7−→ R3 (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 ) On considère dans R3 les deux bases B = (e1 , e2 , e3 ) et C = (u1 , u2 , u3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1) Expliciter les matrices : (a) MatB ( f ) (b) MatC ( f ) (c) MatB,C ( f ) (d) MatC,B ( f ) Proposition 3.9. Soit A une matrice rectangulaire. Si f est une application linéaire de E dans F, avec E un espace vectoriel muni d’une base BE et F un espace vectoriel muni d’une base BF , telle que A = MatBE ,BF ( f ) alors : rgA = rg f ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 3.6. MATRICE D’UNE COMPOSÉE 3.6 CHAPITRE 3. APPLICATIONS LINÉAIRES Matrice d’une composée Si f : E −→ F et g : F −→ G sont deux applications linéaires, où E, F, G sont trois espaces vectoriels de dimension finie et de bases données, alors Mgo f = Mg .M f Exemple 3.14. Soient E un espace vectoriel de dimension 4 muni de la base BE = (e1 , e2 , e3 , e4 ), F un espace de dimension 3 muni de la base BF = ( f1 , f2 , f3 ) et G un espace de dimension 2 muni de la base BG = (g1 , g2 ). On considère l’application linéaire f de E dans F définie par f (e1 ) = 2 f1 − 5 f2 + 7 f3 f (e2 ) = f1 − 2 f2 + 3 f3 f (e3 ) = 2 f1 − 3 f2 − 4 f3 f (e4 ) = 6 f1 − 2 f2 − 3 f3 On considère l’application linéaire ψ de F dans G définie par ψ( f1 ) = 2g1 − 3g2 ψ( f ) = 2g1 − 2g2 2 ψ( f ) = g1 + g2 3 Il convient donc de déterminer la matrice représentative de ψo f dans les bases BE et BG MatBE ,BG (ψo f ) = MatBF ,BG (ψ) × MatBE ,BF ( f ) On déduit facilement des définitions de ψ et f 2 1 2 MatBE ,BF ( f ) = −5 −2 −3 7 3 −4 6 −2 −3 , MatBF ,BG (ψ) = 2 3 2 1 −2 1 ! et on vérifie que l’on a : 2 3 ! 2 2 1 −5 −2 1 7 1 2 6 −2 −3 −2 = 3 −4 −3 1 23 1 −6 5 10 8 19 ! Relativement aux bases BE et BG , z = (ψo f )(x) s’écrit ainsi : z1 z2 ! = 1 23 ! x1 1 −6 5 x2 10 8 19 x3 x4 On en déduit alors les équations de ψo f relativement à BE et BG : ( z1 = x1 + x2 − 6x3 + 5x4 z2 = 23x1 + 10x2 + 8x3 + 19x4 Proposition 3.10. Soient E, F, G trois espaces vectoriels de dimensions finies, f et g deux applications linéaires. f : E −→ F et g : F −→ G Alors rggo f ≤ min(rg( f ), rg(g)) En particulier, — Si f est surjective alors rg(go f ) = rg(g). — Si g est injective alors rg(go f ) = rg( f ). Exercice 3.4. Soient E un espace de dimension 3 et f un endomorphisme de E vérifiant f 2 , 0 et f 3 = 0 où on a noté f 2 = f o f et f 3 = f o f o f ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3. APPLICATIONS LINÉAIRES 3.7. CHANGEMENT DE BASES 1. Montrer les deux séries d’inclusion (a) {0E } = Im f 3 ⊂ Im f 2 ⊂ Im f ⊂ E 2. 3. (b) {0E } ⊂ ker f ⊂ ker f 2 ⊂ ker f 3 = E (a) Montrer que Im f 2 ⊂ ker f (b) Déduire que rg f 2 ≤ dim ker f 2 ). (a) Justifier que 2 ≤ dim ker f 2 ≤ 3 (b) Le cas dim ker f 2 = 3 est-il possible ? (c) Déduire dim ker f 2 ) puis rg f 2 4. (a) Justifier que 1 ≤ rg f ≤ 3 . (b) Montrer que Im f 2 , Im f (c) Déduire que rg f , 1 (d) Le cas rg f = 3 est-il possible ? (e) En déduire rg f et dim ker f ). Solution de l’exercice 3.1. Voir TD 3.7 Changement de bases Considérons dans un espace vectoriel E de dimension n deux bases distinctes BE = (e1 , e2 , ..., en ) et C E = (u1 , u2 , ..., un ). Qualifions la base BE d’"ancienne base" et la base C E de" nouvelle base". Décomposons chacun des vecteurs u1 , u2 , ..., un de la nouvelle base C E dans l’ancienne base BE : u1 = p11 e1 + p21 e2 + ................pn1 en u2 = p12 e1 + p22 e2 + ................pn2 en ...... = ..................................................... un = p1n e1 + p2n e2 + ................pnn e p Définition 3.9 (Matrice de passage). Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. On appelle matrice de passage de BE à C E la matrice carrée d’ordre n dont la j-ième colonne est formée des coordonnées dans BE du j-ième vecteur de la base C E . Avec les notations utilisées, la matrice de passage de BE à C E est donc la matrice P définie par : P= u1 p 11 .. . pn1 ... ... .. . ... un p1n e1 .. .. . . pnn en Exemple 3.15. On munit l’espace R3 de la base BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et de la base CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1). On a u1 = e1 − e3 , u2 = e1 − e2 , u3 = e1 + e2 + e3 La matrice P de passage de BR3 à CR3 P= u1 1 0 −1 u2 1 −1 0 u3 1 e1 1 e2 1 e3 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 3.7. CHANGEMENT DE BASES 3.7.1 CHAPITRE 3. APPLICATIONS LINÉAIRES Propriétés des matrices de passage Proposition 3.11. Soit E un espace vectoriel muni des bases BE et C E . La matrice de passage P de BE à C E est la matrice représentant l’application identité relativement aux bases C E et BE . idE : x ∈ E 7−→ x ∈ E. En d’autres termes, P = MatCE ,BE (idE ) REMARQUES. (a) Une matrice de passage P est nécessairement inversible puisque c’est la matrice associée à une application bijective. (b) si Q = MatC E ,BE (idE ) et P = MatBE ,CE (idE ), alors : QP = MatCE ,BE (idE ) × MatBE ,CE (idE ) = MatCE ,C E (idE oidE ) = MatCE (idE ) = In On en déduit directement que Q = P−1 Proposition 3.12. Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. Si P est la matrice de passage de BE à C E alors P−1 , la matrice inverse de P, est la matrice de passage de C E à BE . Exemple 3.16. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1). On a u1 u2 = e1 − e3 = e1 − e2 u3 = e1 + e2 + e3 e1 e2 ⇒ = 1/3(u1 + u2 + u3 ) = 1/3(u1 − 2u2 + u3 ) e3 = 1/3(−2u1 + u2 + u3 ) La matrice de passage Q de CR3 à BR3 est Q = MatCR3 ,BR3 = 1/3 P = MatBR3 ,CR3 = e1 1 0 1 u1 1 0 −1 e2 1 −2 1 u2 1 −1 0 e3 −2 u1 1 u2 1 u3 u3 1 e1 1 e2 1 e3 On voit que l’on a effectivement Q = P−1 en vérifiant l’une des deux égalités PQ = QP = I3 3.7.2 Application au calcul de l’inverse d’une matrice Présentons la méthode sur un exemple. Considérons la matrice inversible : A= 0 1 0 1 −1 −1 0 −2 −2 Interprétons A comme la matrice de passage d’une base BE = (e1 , e2 , e3 ) à une base C E = (u1 , u2 , u3 ), ce qui revient à écrire le système : u1 = e2 u2 = e1 − e2 − e3 u = −2e − 2e 3 2 3 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3. APPLICATIONS LINÉAIRES 3.7. CHANGEMENT DE BASES La matrice A−1 , peut alors s’interpréter comme la matrice de passage de C E à BE . Une méthode pour l’obtenir consiste à exprimer les vecteurs de l’ancienne base BE en fonction des vecteurs de la nouvelle base C E . On déduit facilement du système précédent le nouveau système : e1 e2 = u2 − 1/2u3 = u1 e3 = −u1 − 1/2u3 On obtient finalement : A−1 = MatCR3 ,BR3 = 0 1 −1/2 1 0 0 −1 0 −1/2 Proposition 3.13 (Changement de bases pour un vecteur). Soit E un espace vectoriel muni des bases BE et C E . Si X et X’ désignent les matrices-colonnes des coordonnées de x dans les bases respectives BE et C E et P est la matrice de passage de BE à C E alors X = PX 0 Exemple 3.17. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1). Considérons le vecteur x = (3, 6, 9) de R3 . (3, 6, 9) = 3(1, 0, 0) + 6(0, 1, 0) + 9(0, 0, 1) = 3e1 + 6e2 + 9e3 On note x10 , x20 , x30 les coordonnées de x dans la nouvelle base CR3 = (u1 , u2 , u3 ) x = x10 u1 + x20 u2 + x30 u3 1 1 1 x10 3 0 0 −1 1 x2 = 6 0 −1 0 1 x3 9 | {z } | {z } |{z} =P =X 0 =X ou encore, de manière équivalente, 0 x1 1 0 x2 = 1/3 1 x30 1 | {z } | =X 0 1 −2 3 −2 1 6 1 1 9 {z } |{z} =P−1 =X x10 = −3, x20 = 0 et x30 = 6, c’est-à-dire : x = −3u1 + 6u3 . REMARQUE. Attention, il ne faut pas écrire ”x = (−3, 0, 6)”. C’est faux car (−3, 0, 6) représente le vecteur −3e1 + 6e3 . Théorème 3.14. Soient E un espace vectoriel muni des deux bases BE et C E , F un espace vectoriel muni des deux bases BF et C F . Soit f une application linéaire de E dans F. Alors les deux matrices A = MatBE ,BF ( f ) et B = MatCE ,CF ( f ) toutes les deux du même type, vérifient l’égalité matricielle : B = Q−1 AP où P est la matrice de passage de BE à C E et où Q est la matrice de passage de BF à C F . ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 3.7. CHANGEMENT DE BASES CHAPITRE 3. APPLICATIONS LINÉAIRES A = MatBE ,BF ( f ) (E, BE ) (F, BF ) P = MatCE ,BE (IdE ) Q−1 = MatBF ,CF (IdF ) (E, C E ) (F, C F ) B = MatCE ,CF ( f ) On retrouve l’égalité matricielle : MatC E ,C F ( f ) = MatBF ,C F (IdF ) × MatBE ,BF ( f ) × MatCE ,BE (IdE ) | {z } | {z } | {z } | {z } B A Q−1 P Lorsque f est un endomorphisme de E, on peut choisir : — BE = BF = B et C E = C F = C — MatB ( f ), la matrice associée à f dans la base B — MatC ( f ) la matrice associée à f dans la base C — La matrice Q, matrice de passage de BF à C F , est donc égale à la matrice P A = MatB ( f ) (E, B) (E, B) P = MatC,B (IdE ) P−1 = MatB,C (IdE ) (E, C) (E, C) B = MatC ( f ) On retrouve l’égalité matricielle : MatC ( f ) = MatB (IdE ) × MatB ( f ) × MatC (IdE ) | {z } | {z } | {z } | {z } B P−1 A P Exemple 3.18. Reprenons l’exercice 3.3 : Soit f un endomorphisme de R3 défini par : f : R3 −→ (x1 , x2 , x3 ) 7−→ R3 (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 ) On considère dans R3 les deux bases BR3 = (e1 , e2 , e3 ) et CR3 = (u1 , u2 , u3 ) avec On a : e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) et u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1) f (e1 ) = 2e1 + e2 + e3 f (e2 ) = e1 + 2e2 + e3 f (e ) = e + e + 2e 3 1 2 3 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 3. APPLICATIONS LINÉAIRES 3.7. CHANGEMENT DE BASES On en déduit alors l’expression de la matrice A représentative de f dans BR3 A = MatBR3 = On a aussi : f (e1 ) 2 1 1 f (e2 ) 1 2 1 f (e3 ) 1 e1 1 e2 2 e3 f (u1 ) = u1 f (u2 ) = u2 f (u ) = 4u 3 3 On en déduit la matrice B représentative de f dans CR3 B = MatCR3 = f (u1 ) 1 0 0 f (u2 ) 0 1 0 f (u3 ) 0 u1 0 u2 4 u3 La matrice de passage de BR3 à CR3 P= 1 0 −1 1 −1 0 1 1 1 et −1 P 1 1 1 = 1/3 1 −2 1 −2 1 1 On vérifie que l’on a 1 0 0 MatCR3 = | 3.7.3 0 1 0 {z B 0 0 4 1 1 1 = 1/3 } | 1 −2 1 {z P−1 2 1 1 −2 1 1 }| 1 2 1 {z A 1 0 −1 1 1 2 }| 1 −1 0 {z P 1 1 1 } La matrice associée à une application linéaire bijective est-elle inversible ? Considérons une matrice A carrée d’ordre n, et deux K espaces vectoriels E, F, munis des bases respectives BE et BF , et une application linéaire f : f : E −→ F Supposons l’application linéaire f bijective. Il existe alors une application : f −1 : F −→ E (nécessairement linéaire puisque f l’est) telle que : f −1 o f = IdE et f o f −1 = IdF Proposition 3.15. Une application linéaire f d’un espace E de dimension finie dans un F de même dimension est bijective si et seulement si, la matrice carrée associée à f relativement à des bases quelconques BE de E et BF de F, est inversible. Si f est bijective alors MatBE ,BF ( f ) −1 = MatBE ,BF ( f −1 ) et, en particulier, lorsque E = F et BE = BF = B, MatB ( f ) −1 = [MatB ] ( f −1 ) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 4 DÉTERMINANTS 4.1 4.1.1 Groupe des permutations d’un ensemble Généralités E est un ensemble non vide, une permutation de E est une bijection de E sur E. Si on note S(E) l’ensemble des permutations de E, alors (S(E), ◦) est un groupe. Le cas particulier où E = {1, 2, ...... n}, n étant un entier naturel non nul donné. Dans ce cas, l’ensemble S(E) se note Sn (Sn est donc l’ensemble des permutations de l’ensemble {1, 2, ...... n}). — IdE est une permutation de E. — La composée de deux permutations de E est une permutation de E. — La réciproque d’une permutation de E est une permutation de E. — ∀(σ, σ0 ) ∈ (S(E))2 , (σ ◦ σ0 )−1 = σ0−1 ◦ σ−1 et (σ−1 )−1 = σ. ! 1 2 ... n−1 n Une permutation donnée de {1, 2, ...... n} se note σ = σ(1) σ(2) . . . σ(n − 1) σ(n) ! 1 2 3 4 5 Exemple 4.1. σ = , est la permutation de {1 2 3 4 5} définie par : 4 1 3 5 2 σ(1) = 4, σ(2) = 1, σ(3) = 3, σ(4) = 5, σ(5) = 2 Pour composer deux permutations σ et σ0 , nous écrirons σ ◦ σ0 = (σ(1) σ(2) . . . σ(n) ) ◦ (σ0(1) σ0(2) . . . σ0(n) ) si σ = (4 1 3 2) et σ0 = (2 3 4 1), alors σ ◦ σ0 = (4 1 3 2) ◦ (2 3 4 1) = (1 3 2 4) σ ◦ σ0 (1) = σ(σ0 (1)) = σ(2) = 1. Définition 4.1 (Transposition). La permutation qui échange i et j et laisse les autres éléments invariants est appelée transposition et est notée τi, j . S1 est l’ensemble qui contient 1 élément qui est l’identité 1 Exemples 4.2. S2 contient deux éléments : la permutation identique 1 ! 1 2 , elle se note τ1,2 (ou τ2,1 ). Ainsi, S2 = {Id, τ1,2 } 2 1 Les six éléments de S3 sont 34 ! 2 et la transposition qui échange 1 et 2 2 CHAPITRE 4. DÉTERMINANTS 4.2. DÉTERMINANT D’ORDRE 2 1 — la permutation identique : id = 1 ! 2 3 ; 2 3 ! ! 1 2 3 1 2 3 — trois transpositions : τ2,3 = ,τ = et τ1,2 1 3 2 1,3 3 2 1 ! 1 2 3 1 2 — deux permutations circulaires : c1 = et c2 = 2 3 1 3 1 1 = 2 ! 3 . 2 2 1 ! 3 ; 3 Ainsi, S3 = {Id, τ1,2 , τ1,3 , τ2,3 , c1 , c2 }. Théorème 4.1. (Décomposition d’une permutation en produit de transpositions :) Soit n > 1. Toute permutation σ de {1, 2, ........n} peut s’écrire comme un produit de transpositions. Définition 4.2. (Signature d’une permutation) Soient n ≥ 2 et σ ∈ S n . La signature de σ est Y σ(i) − σ( j) ε(σ) = i− j 1≤i< j≤n Par convention, si !n = 1, S 1 = Id{1} , on pose ε(Id{1} ) = 1. 1 2 3 4 σ= , alors 2 4 3 1 ε(σ) = 4.1.2 (1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4) 2−4 2−3 2−1 4−3 4−1 3−1 × × × × × = (−1)4 =1 1−2 1−3 1−4 2−3 2−4 3−4 (1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4) Inversions d’une permutation. Calcul de la signature Définition 4.3. (Inversion) Soient n ≥ 2 et σ ∈ S n . Une inversion de σ est une paire i, j d’éléments de {1, 2, ...... n} telle que i < j et σ(i) > σ( j). ! 1 2 3 4 Exemple 4.3. σ = 2 4 3 1 Les inversions de σ sont les paires {1, 4}, {2, 3}, {2, 4} et {3, 4}. Les paires {1, 2} et {1, 3} ne sont pas des inversions (voire la table 4.1) Table 4.1 – Les inversions de σ dans l’exemple 4.3 (i, j), i < j (1,2) (1,3) (1,4) (2,3) (2,4) (3,4) σ(i) 2 2 2 4 4 3 σ( j) 4 3 1 3 1 1 σ( j) − σ(i) -2 -1 1 1 3 2 Inversion (i, j) Non Non Oui Oui Oui Oui Théorème 4.2. Soient n ≥ 2 et σ ∈ Sn . La signature de σ est : ε(σ) = (−1)N où N est le nombre d’inversions de σ. Le nombre d’inversions de σ dans l’exemple 4.3 est 4, donc ε(σ) = (−1)4 = 1 4.2 Déterminant d’ordre 2 4.2.1 Forme bilinéaire alternée Définition 4.4. Soit E un espace vectoriel. Une application (c1 , c2 ) ∈ E × E 7→ ϕ(c1 , c2 ) ∈ K est une forme bilinéaire si elle est linéaire en chacune des variables c1 et c2 . Une forme bilinéaire ϕ : E × E → K est dite alternée si ϕ(c, c) = 0 pour tout c ∈ E. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 4.2. DÉTERMINANT D’ORDRE 2 CHAPITRE 4. DÉTERMINANTS Une application ϕ : E × E → K est une forme bilinéaire si (a) Pour tous c1 , c01 , c2 ∈ E et pour tous α, β ∈ K ϕ(αc1 + βc01 , c2 ) = αϕ(c1 , c2 ) + βϕ(c01 , c2 ) (b) Pour tous c1 , c2 , c02 ∈ E et pour tous α, β ∈ K ϕ(c1 , αc2 + βc02 , ) = αϕ(c1 , c2 ) + βϕ(c1 , c02 ) Exemples 4.4. 1. L’application ϕ : R3 × R3 7→ R définie pour x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 ) ϕ(x, y) = x1 y1 + x2 y2 + x3 y3 est une forme bilinéaire sur E = R3 2. L’application ϕ : R4 × R4 7→ R définie pour x = (x1 , x2 , x3 , x4 ) et y = (y1 , y2 , y3 , y4 ) ϕ(x, y) = x1 y1 + x2 y2 + x3 y3 − c2 x4 y4 est une forme bilinéaire sur E = R4 . où c désigne un paramètre réel, est une forme bilinéaire. Cette forme bilinéaire qui intervient dans la théorie de la relativité est nommée forme de Lorentz 1 3. L’application ϕ : R2 7→ R définie pour x = (x1 , x2 ) et y = (y1 , y2 ) ϕ(x, y) = x1 y2 − x2 y1 est une forme bilinéaire alternée sur E = R2 : ϕ(x, x) = x1 x2 − x2 x1 = 0 A) Propriété d’antisymétrie Soit ϕ : E × E → K, une forme bilinéaire alternée. et soient c1 , c2 ∈ E. Puisque ϕ est alternée ϕ(c1 + c2 , c1 + c2 ) = 0 Or, ϕ étant bilinéaire, on a : ϕ(c1 + c2 , c1 + c2 ) = ϕ(c1 , c1 ) + ϕ(c2 , c2 ) + ϕ(c1 , c2 ) + ϕ(c2 , c1 ) = ϕ(c1 , c2 ) + ϕ(c2 , c1 ) = 0 Ainsi, ϕ(c1 , c2 ) = −ϕ(c2 , c1 ) Le signe de ϕ(c1 , c2 ) change lorsque l’on permute les deux vecteurs c1 et c2 . On dit que ϕ est antisymétrique. B) Intérêt d’une forme bilinéaire alternée Soit ϕ : E × E → K, une forme bilinéaire alternée. Si c1 et c2 sont deux vecteurs liés alors ϕ(c1 , c2 ) = 0 En effet, si c1 et c2 sont liés alors il existe (α, β) ∈ K2 avec (α, β) , (0, 0) tel que αc1 + βc2 = 0E . Sans perte de généralité, Supposons que β , 0. Alors c2 = − αβ c1 et α α ϕ(c1 , c2 ) = ϕ(c1 , − c1 ) = − ϕ(c1 , c1 ) = 0 β β Conséquence Soit ϕ : E × E → K, une forme bilinéaire alternée et soient c1 , c2 ∈ E, λ ∈ K ϕ(c1 , c2 + λc1 ) = ϕ(c1 , c2 ) + λϕ(c1 , c1 ) = ϕ(c1 , c2 ) 1. LORENTZ, Hendrik Antoon ( 1853, Arnhem - 1928, Haarlem). Physicien néerlandais qui reçut le prix Nobel de physique en 1902. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 4. DÉTERMINANTS 4.2.2 4.3. DÉTERMINANT D’ORDRE 3 Cas d’un espace vectoriel de dimension 2 Soient E un espace vectoriel de dimension 2 muni d’une base B = (e1 , e2 ) et ϕ : E × E → K, une forme bilinéaire alternée. c1 et c2 sont deux vecteurs de E rapportés à la base B : c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2 où (a11 , a21 ) ∈ K2 et (a12 , a22 ) ∈ K2 ϕ(c1 , c2 ) = ϕ(a11 e1 + a21 e2 , a12 e1 + a22 e2 ) = a11 a12 ϕ(e1 , e1 ) + a11 a22 ϕ(e1 , e2 ) + a21 a12 ϕ(e2 , e1 ) + a21 a22 ϕ(e2 , e2 ) d’où, puisque ϕ(e1 , e1 ) = ϕ(e2 , e2 ) = 0 ϕ(c1 , c2 ) = a11 a22 ϕ(e1 , e2 ) + a21 a12 ϕ(e2 , e1 ) Du fait que ϕ(e2 , e1 ) = −ϕ(e1 , e2 ) ϕ(c1 , c2 ) = (a11 a22 − a21 a12 )ϕ(e1 , e2 ) (4.1) La forme bilinéaire alternée ϕ : E × E → K dépend de la base B de E. Notons ϕ par detB , ainsi, det(c1 , c2 ) = (a11 a22 − a21 a12 ) det(e1 , e2 ) B B Définition 4.5. Soient E un espace vectoriel de dimension 2 muni d’une bas B = (e1 , e2 ). √ On appelle déterminant d’ordre 2 dans la base B l’unique forme bilinéaire alternée notée detB : E × E → K vérifiant : detB (e1 , e2 ) = 1 √ Si c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2 alors det(c1 , c2 ) = a11 a22 − a21 a12 B On note symboliquement : det(c1 , c2 ) = B a11 a21 a12 = a11 a22 − a21 a12 a22 Pour c1 = 2e1 + 3e2 et c2 = 10e1 + 5e2 det(c1 , c2 ) = B 4.3 Déterminant d’ordre 3 4.3.1 Forme trilinéaire alternée 2 3 10 = 2 × 5 − 3 × 10 = −20 5 Définition 4.6. Soit E un espace vectoriel. √ Une application (c1 , c2 , c3 ) ∈ E 3 7→ ϕ(c1 , c2 , c3 ) ∈ K est une forme trilinéaire si elle est linéaire en chacune des variables c1 , c2 et c3 . √ Une forme trilinéaire ϕ : E 3 → K est dite alternée si ϕ(c1 , c2 , c3 ) = 0 dès que deux des trois vecteurs c1 ,c2 et c3 sont égaux. Autrement dit, la forme trilinéaire ϕ : E 3 → K est alternée si ∀(c, c0 ) ∈ E 2 , ϕ(c, c, c0 ) = ϕ(c, c0 , c) = ϕ(c0 , c, c) = 0. Une application ϕ : E 3 → K est une forme trilinéaire si (a) pour tous c1 , c01 , c2 , c3 ∈ E et α, β ∈ K ϕ(αc1 + βc01 , c2 , c3 ) = αϕ(c1 , c2 , c3 ) + βϕ(c01 , c2 , c3 ), ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 4.3. DÉTERMINANT D’ORDRE 3 CHAPITRE 4. DÉTERMINANTS (b) pour tous c1 , c2 , c02 , c3 ∈ E et α, β ∈ K ϕ(c1 , αc2 + βc02 , c3 ) = αϕ(c1 , c2 , c3 ) + βϕ(c1 , c02 , c3 ), (c) pour tous c1 , c2 , c3 , c03 ∈ E et α, β ∈ K ϕ(c1 , c2 , αc3 + βc03 ) = αϕ(c1 , c2 , c3 ) + βϕ(c1 , c2 , c03 ), Propriétés 4.3. Soient E un espace vectoriel √ Pour tous c1 , c2 , c3 appartenant à E, √ ϕ(c1 , c2 , c3 ) = −ϕ(c3 , c2 , c1 ) = ϕ(c2 , c3 , c1 ) Si l’un des trois vecteurs est combinaison linéaire des deux autres alors la valeur par ϕ est nulle. Par exemple, considérons trois vecteurs c1 , c2 et c3 de E et supposons qu’il existe (α, β) ∈ K2 tel que c3 = αc1 + βc2 Alors, ϕ(c1 , c2 , c3 ) = ϕ(c1 , c2 , αc1 + βc2 ) = αϕ(c1 , c2 , c1 ) + βϕ(c1 , c2 , c2 ) = 0 √ Lorsqu’on ajoute à l’un des trois vecteurs une combinaison linéaire des deux autres, la valeur par ϕ ne change pas. Par exemple, pour tous α et β dans K et pour tous c1 , c2 , c3 appartenant à E, ϕ(c1 , c2 , c3 + αc1 + βc2 ) = ϕ(c1 , c2 , c3 ) + αϕ(c1 , c2 , c1 ) + βϕ(c1 , c2 , c2 ) = ϕ(c1 , c2 , c3 ) 4.3.2 Cas d’un espace vectoriel de dimension 3 Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ). Soit ϕ : E 3 → K une forme trilinéaire alternée, et soit c1 , c2 , c3 ∈ E c1 = 3 X ai1 ,1 ei1 , c2 = 3 X ai2 ,2 ei2 , c3 = ai3 ,3 ei3 . i3 =1 i2 =1 i1 =1 3 X ϕ est une forme trilinéaire, donc ϕ(c1 , c2 , c3 ) = ϕ( 3 X ai1 ,1 ei1 , i1 =1 = 3 X 3 X ai1 ,1 ϕ(ei1 , 3 X i1 =1 = 3 X ai1 ,1 3 X ai2 ,2 ei2 , 3 X i2 =1 3 X 3 X 3 X ai3 ,3 ei3 ) 3 X ai3 ,3 ei3 ) i3 =1 ai2 ,2 ϕ(ei1 , ei2 , i2 =1 ai1 ,1 3 X i3 =1 i2 =1 i1 =1 = ai2 ,2 ei2 , i2 =1 i1 =1 = 3 X 3 X ai3 ,3 ei3 ) (4.2) i3 =1 ai2 ,2 3 X ai3 ,3 ϕ(ei1 , ei2 , ei3 ) i3 =1 ai1 ,1 ai2 ,2 ai3 ,3 ϕ(ei1 , ei2 , ei3 ) i1 =1 i2 =1 i3 =1 ϕ est alternée ϕ(c1 , c2 , c3 ) = a11 a12 a13 ϕ(e1 , e1 , e1 ) +a11 a12 a23 ϕ(e1 , e1 , e2 ) +........... | {z } | {z } =0 =0 On ne considère que les termes où les indices i1 , i2 et i3 sont tous les trois distincts. Autrement dit, on ne considère que les termes pour lesquels {i1 , i2 , i3 } = σ({1, 2, 3}) avec σ une permutation de l’ensemble {1, 2, 3} (σ ∈ S3 ) 3! = 6 permutations possibles de l’ensemble{l, 2, 3} . Elles s’écrivent : 1 2 3 1 2 3 1 2 3 1 2 3 σ1 = id{1,2,3} = ; σ2 = τ1,2 = ; σ3 = τ2,3 = , σ4 = τ1,3 = 1 2 3 2 1 3 1 3 2 3 2 1 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 4. DÉTERMINANTS 4.3. DÉTERMINANT D’ORDRE 3 et deux permutations circulaires : c1 = σ5 = τ2,3 ◦ τ1,3 1 = 2 2 3 3 , 1 c2 = σ6 = τ2,3 ◦ τ1,2 1 = 3 2 1 3 . 2 Table 4.2 – Les inversions de σi , i ∈ {1, 2, 3, 4, 5, 6} (*) (i, j), i < j (σ1 (i), σ1 ( j)) (σ2 (i), σ2 ( j)) (σ3 (i), σ3 ( j)) (σ4 (i), σ4 ( j)) (σ5 (i), σ5 ( j)) (σ6 (i), σ6 ( j)) (1,2) (1,3) (2,3) (1,2) (1,3) (2,3) (2,1) (2,3) (1 ,3) (1,3) (1,2) (3,2) (3,2) (3,1) (2,1) (2,3) (2,1) (3,1) (3,1) (3,2) (1,2) N (*) ε(σi ) = (−1)N 0 1 1 -1 1 -1 3 -1 2 1 2 1 Le nombre d’inversions de σi ϕ(c1 , c2 , c3 ) = X aσ(1),1 aσ(2),2 aσ(3),3 ϕ(eσ(1) , eσ(2) , eσ(3) ) (4.3) σ∈S3 c’est-à-dire : ϕ(c1 , c2 , c3 ) = a11 a22 a33 ϕ(e1 , e2 , e3 ) + a21 a32 a13 ϕ(e2 , e3 , e1 ) + a31 a12 a23 ϕ(e3 , e1 , e2 ) + a31 a22 a13 ϕ(e3 , e2 , e1 ) (4.4) + a21 a12 a33 ϕ(e2 , e1 , e3 ) + a11 a32 a23 ϕ(e1 , e3 , e2 ) Montrons que, ∀σ ∈ S3 , ϕ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)ϕ(e1 , e2 , e3 ) Si σ = σ1 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e1 , e2 , e3 ) = ε(σ1 )ϕ(e1 , e2 , e3 ) Si σ = σ2 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e2 , e1 , e3 ) = −ϕ(e1 , e2 , e3 ) = ε(σ2 )ϕ(e1 , e2 , e3 ) Si σ = σ3 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e1 , e3 , e2 ) = −ϕ(e1 , e2 , e3 ) = ε(σ3 )ϕ(e1 , e2 , e3 ) Si σ = σ4 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e3 , e2 , e1 ) = −ϕ(e1 , e2 , e3 ) = ε(σ4 )ϕ(e1 , e2 , e3 ) Si σ = σ5 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e2 , e3 , e1 ) = ϕ(e1 , e2 , e3 ) = ε(σ5 )ϕ(e1 , e2 , e3 ) Si σ = σ6 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e3 , e1 , e2 ) = ϕ(e1 , e2 , e3 ) = ε(σ6 )ϕ(e1 , e2 , e3 ) Ainsi, ∀σ ∈ S3 , ϕ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)ϕ(e1 , e2 , e3 ) On déduit de (4.3) que X ϕ(c1 , c2 , c3 ) = ε(σ)aσ(1),1 aσ(2),2 aσ(3),3 ϕ(e1 , e2 , e3 ) σ∈S3 D’où ϕ(c1 , c2 , c3 ) = (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23 ) ϕ(e1 , e2 , e3 ) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 (4.5) 4.4. DÉTERMINANT D’ORDRE N CHAPITRE 4. DÉTERMINANTS Si ϕ(e1 , e2 , e3 ) = 1. On note ϕ = detB : ϕ : E 3 → K. En remplaçant ϕ par detB dans (4.5), on obtient : X det(c1 , c2 , c3 ) = ε(σ)aσ(1),1 aσ(2),2 aσ(3),3 det(e1 , e2 , e3 ) B B (4.6) σ∈S3 On peut vérifier que detB est trilinéaire et alternée. Définition 4.7. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ). √ On appelle déterminant d’ordre 3 dans la base B l’unique forme trilinéaire alternée notée detB : E 3 → K vérifiant : detB (e1 , e2 , e3 ) = 1 √ Si, pour tout j ∈ {1, 2, 3}, les scalaires a1 j , a2 j , a3 j désignent les coordonnées du vecteur c j dans la base B alors det(c1 , c2 , c3 ) = B X ε(σ)aσ(1),1 aσ(2),2 aσ(3),3 σ∈S3 On a donc : det(c1 , c2 , c3 ) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23 B on note symboliquement a11 det(c1 , c2 , c3 ) = a21 B a31 a12 a22 a32 a13 a23 a33 Exemple 4.5. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ) et les trois vecteurs c1 = e1 − e3 , c2 = −e2 + 2e3 , c3 = −e1 + e2 1 det(c1 , c2 , c3 ) = 0 B −1 0 −1 2 −1 1 = −1 0 REMARQUE. Les coordonnées par rapport à la base B de chacun des trois vecteurs c1 , c2 et c3 peuvent être disposées soit en colonne, soit en ligne. Cela n’influe pas sur la valeur finale de detB (c1 , c2 , c3 ) a11 det(c1 , c2 , c3 ) = a21 B a31 4.4 4.4.1 a12 a22 a32 a13 a11 a23 = a12 a33 a13 a21 a22 a23 a31 a32 a33 Déterminant d’ordre n Forme multilinéaire alternée Définition 4.8. Soit E un espace vectoriel et n ∈ K, n ≥ 2 √ Une application (c1 , c2 , ...., cn ) ∈ E n 7→ ϕ(c1 , c2 , ...., cn ) ∈ K est une forme n-linéaire si elle est linéaire en chacune de ses variables. √ Une forme n-linéaire ϕ : E n → K est dite alternée si ϕ(c1 , c2 , ...., cn ) = 0 dès que au moins deux des vecteurs c1 ,c2 ,........ cn sont égaux. 4.4.2 Cas d’un espace vectoriel de dimension n Soit E un espace vectoriel de dimension n muni d’une base B = (e1 , e2 , ....., en ) et soit une forme n-linéaire alternée ϕ : En → K n n n X X X c1 = ai1 ,1 ei1 , c2 = ai2 ,2 ei2 , ........., cn = ain ,n ein i1 =1 i2 =1 in =1 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 4. DÉTERMINANTS 4.5. DÉTERMINANT D’UNE MATRICE CARRÉE n n n X X X ai2 ,2 ei2 , ........ ϕ(c1 , c2 , ......., cn ) = ϕ ai1 ,1 , ain ,n ein i1 =1 = n X n X i1 =1 i2 =1 i2 =1 n X ....... in =1 (4.7) ai1 ,1 ai2 ,2 ........ain ,n ϕ(ei1 , ei2 , .........., ein ) in =1 ϕ est aussi alternée. Ainsi, parmi les termes présents dans la somme (il y en a nn ), tous sont nuls sauf ceux pour lesquels {i1 , i2 , ......i3 } ∈ σ ({1, 2, ......3}) X ϕ(c1 , c2 , ........, cn ) = aσ(1),1 aσ(2),2 .....aσ(n),n ϕ(eσ(1) , eσ(2) , .......eσ(n) ) (4.8) σ∈Sn nous utilisons la notation suivante : n Y i=1 finalement on obtient aσ(i),i = aσ(1),1 × aσ(2),2 × ........... × aσ(n),n X ϕ(c1 , c2 , ........, cn ) = σ∈Sn n Y ε(σ) aσ(i),i ϕ(e1 , e2 , .......en ) i=1 Définition 4.9. Soit E un K espace vectoriel de dimensionn ≥ 2 muni d’une base B = (e1 , e2 , ..., en ). √ On appelle déterminant d’ordre n dans la base B l’unique forme n-linéaire alternée notée detB : E n → K vérifiant : detB (e1 , e2 , ...., en ) = 1 √ Si, pour tout j ∈ {1, 2, ...., n}, les scalaires a1 j , a2 j , ....., an j désignent les coordonnées du vecteur c j dans la base B alors n X Y det(c1 , c2 , ......., cn ) = aσ(i),i ε(σ) B i=1 σ∈Sn On note symboliquement : 4.5 a11 a21 det(c1 , c2 , c3 ) = . B .. a12 a22 .. . ··· ··· .. . a1n a2n .. . an1 an2 ··· ann Déterminant d’une matrice carrée On peut définir le déterminant d’une matrice carrée indépendamment de tout contexte vectoriel. Définition 4.10. Soit A = (ai j )1≤,i, j≤n une matrice carrée d’ordre n ≥ 2 à coefficients dans K . On appelle déterminant de A et on note det(A), le scalaire n X Y ε(σ) det(A) = aσ(i),i i=1 σ∈Sn Par convention, si n = 1, c’est-à-dire si A = (a11 ), alors det(A) = a11 Le déterminant de la matrice A = (ai j )1≤,i, j≤n est aussi noté a11 a21 det(A) = . .. a12 a22 .. . ··· ··· .. . a1n a2n .. . an1 an2 ··· ann Le déterminant de A s’interprète alors comme le déterminant des vecteurs c1 , ..., cn de E par rapport à la base B : det(A) = detB (c1 , c2 , ...., cn ) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 4.6. CALCUL DES DÉTERMINANTS CHAPITRE 4. DÉTERMINANTS Théorème 4.4. Pour toute matrice A ∈ Mn (K) det(t A) = det(A) Exemple 4.6. Calcule de det(A) et det(t A) avec A = 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 0 1 0 0 det(A) = det(e2 , e4 , e5 , e1 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 ) = det(e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 ) = −1 det(t A) = det(e4 , e1 , e5 , e2 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 ) = det(e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 ) = −1 Théorème 4.5. Soit A = (c1 , c2 , ........, cn ) ∈ Mn (K) a Les vecteurs c1 ,...,cn forment une base de Kn si et seulement si det(A) , 0. a. (c1 , c2 , ........, cn ) représente la matrice engendrée par les vecteurs colonne c1 , c2 , ........, cn 4.6 Calcul des déterminants Définition 4.11. Soit A = (ai j )1≤,i, j≤n . On appelle cofacteur de l’élément ai j le scalaire : Co f (ai j ) = (−1)i+ j det(Ai j ) où Ai j est la matrice obtenue en supprimant la ième ligne et la jème colonne. Exemple 4.7. 1 A = 2 5 0 4 −1 −3 4 −2 , Co f (1) = + −1 3 −2 3 2 = 10, Co f (0) = − 5 −2 3 = −16 REMARQUE. Le signe (−1)i+ j dans la définition de cofacteur est déterminé par le schéma suivant : A = + − + − .. . − + − + .. . + − + − .. . − − − − .. . ··· ··· ··· ··· Théorème 4.6. On a les formules suivantes : Développement du déterminant selon la jème ligne : det(A) = a j1Co f (a j1 ) + a j2Co f (a j2 ) + ...................a jnCo f (a jn ) Développement du déterminant selon la jème colonne : det(A) = a1 jCo f (a1 j ) + a2 jCo f (a2 j ) + ...................an jCo f (an j ) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 4. DÉTERMINANTS 4.6. CALCUL DES DÉTERMINANTS Exemple 4.8. Soit 1 A = 2 1 3 0 2 −2 1 −1 Développons A selon la 3ème ligne 1 −2 3 2 1 0 1 −1 2 =1 −2 3 1 0 1 3 1 −2 +2 − (−1) 2 0 2 1 = −3 − 6 + 10 = 1 Développons A selon la 3ème colonne : 1 2 −2 3 1 0 2 1 =3 +2 1 1 −1 2 −1 1 −2 2 1 = −9 + 10 = 1 Proposition 4.7. Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute une combinaison linéaire des autres lignes (respect, des autres colonnes). Exemple 4.9. ∆= 1 1 2 −1 0 −2 −1 1 0 1 1 0 3 1 −1 3 2 1 1 1 4 4 2 3 3 L1 L2 L3 = L4 L5 1 0 0 0 0 −2 1 5 −2 1 1 −1 1 2 −1 3 −1 −5 4 1 4 0 −6 7 3 L10 = L1 0 L2 = L2 − L1 L30 = L3 − 2L1 L40 = L4 + L1 L50 = L5 On développant selon la 1ère colonne : ∆= c1 1 5 −2 1 c2 −1 1 2 −1 c3 −1 −5 4 1 c4 0 −6 7 3 = 1 5 −2 1 c1 + c2 0 6 0 0 c3 + c1 0 0 2 2 c4 0 −6 7 3 On développant selon la 1ère ligne : ∆= 6 0 0 0 2 2 −6 7 3 =6 2 2 2 3 = 6(7 − 14) = −48 Proposition 4.8. Pour qu’une matrice carrée soit inversible il faut et il suffit que son déterminant soit non nul. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 4.7. APPLICATIONS CHAPITRE 4. DÉTERMINANTS Proposition 4.9. Pour tous A, B ∈ Mn (K), on a En particulier, si A est inversible alors det(A × B) = det(A) × det(B) 1 det(A) det(A−1 ) = Si A et B sont semblables alors leurs déterminants ont la même valeur. En effet, supposer A et B semblables signifie qu’il existe une matrice inversible P, d’ordre n et à coefficients dans K , telle que B = P−1 AP et on en déduit det(P−1 AP) = det(P−1 ) det(A) det(P) = det(A) Proposition 4.10. (Déterminant d’une matrice triangulaire) Le déterminant d’une matrice triangulaire (inférieure ou supérieure) est égal au produit de ses coefficients diagonaux. REMARQUES. (a) Une condition nécessaire et suffisante pour qu’une matrice triangulaire (supérieure ou inférieure) soit inversible est que ses coefficients diagonaux soient tous non nuls. (b) Pour tout α ∈ K et pour tout A, ∈ Mn (K), det(αA) = αn det(A) Définition 4.12. (Déterminant d’un endomorphisme) Soit E un espace vectoriel et f un endomorphisme de E. On appelle déterminant de f le déterminant de la matrice qui représente f dans une base (quelconque) de E : det( f ) = det MB ( f ) B étant une base quelconque de E. 4.7 4.7.1 Applications Calcul du rang d’une matrice Définition 4.13. Soit A ∈ Mn,p (K) . On appelle déterminant d’ordre k extrait de A tout déterminant d’une matrice carrée d’ordre k déduite de A par suppression de n − k lignes et de p − k colonnes. Proposition 4.11. Soit A une matrice non nulle de Mn,p (K) . Le rang de A est le plus grand entier k tel qu’il existe un déterminant non nul d’ordre k extrait de A. Calculons le rang de la matrice rectangulaire 4 × 3 suivante : 1 3 4 5 A= 2 2 4 6 0 2 2 0 La matrice extraite obtenue en supprimant la première ligne a un déterminant non nul : 3 4 5 2 4 6 2 2 0 = −8 , 0 Ainsi, rg(A) = 3 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 4. DÉTERMINANTS 4.7.2 4.7. APPLICATIONS Calcul de l’inverse d’une matrice Théorème 4.12. Soit A ∈ Mn (K) et Co f (A) la comatrice de A, c’est-à-dire la matrice obtenue de A en remplaçant chaque élément par son cofacteur. On a alors : t ACo f (A) =t Co f (A)A = det(A)I En particulier, si A est inversible (c’est-à-dire det(A) , 0), on a : A−1 = t Co f (A) det(A) 1 2 Exemple 4.10. Soit A = −1 3 on a det(A) = 5 ,= 0, donc A est inversible et on a Co f (3) = 1, Co f (−1) = −2, Co f (2) = 1, Co f (1) = 3. 3 1 1 1 −1 et A = 5 1 −2 1 1 2 0 Exemple 4.11. Soit A=−1 3 0 , det(A) = −3 − 2 = −5 , 0. Donc A est inversible. 0 1 −1 Les cofacteurs des coefficients de la première ligne sont : 3 Donc Co f (A) = −2 Co f (1) = 3 0 1 −1 = −3, Co f (2) = − −1 0 Après calcul des autres cofacteurs, on trouve : A−1 4.7.3 −3 −1 = −1 5 −1 0 −1 = −1, Co f (0) = −1 0 3 = −1 1 2 0 −1 0 −1 5 Systèmes de Cramer Définition 4.14. On appelle système de Cramer un système linéaire dont la matrice A est carrée et inversible. Il s’agit donc d’un système de n équations en n inconnues de rang n : a11 x1 + a12 x2 ..... + a1n xn a21 x1 + a22 x2 ..... + a2n xn ................................. a x + a x ..... + a x n1 1 n2 2 nn n = = = = b1 b2 .... bn (4.9) = = = = b1 b2 .... bn (4.10) Le système s’écrit sous forme matricielle : AX = b Théorème 4.13. Théorème de Cramer : Un système de Cramer : a11 x1 + a12 x2 ..... + a1n xn a21 x1 + a22 x2 ..... + a2n xn ................................. a x + a x ..... + a x n1 1 n2 2 nn n (avec A = (a)1≤i, j≤n = (c1 , c2 , ....cn ), det(A) , 0)) admet toujours une et une seule solution, quel que soit le vecteur b = (b1 , b2 , ....bn ) solution donnée par les formules de Cramer : det(c1 , c2 , ....., ci−1 , b, ci+1 , ....cn ) xi = det(A) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 4.7. APPLICATIONS CHAPITRE 4. DÉTERMINANTS Exemple 4.12. Soit le système 2x1 − 5x2 + 2x3 = 7 x1 + 2x2 − 4x3 = 3 3x − 4x + 6x = 5 1 2 3 2 −5 2 det(A) = 1 2 −4 = 62. Donc Le système est de Cramer. 3 −4 6 Les formules de Cramer donnent : 7 x1 = 3 5 −5 2 −4 2 2 118 , x2 = 1 −4 = 62 6 3 7 3 5 2 2 58 −4 = − , x3 = 1 62 6 3 −1 t−3 −6 1 1 t+4 1 n n 2 ··· n ∆n = n .. . n .. . 3 n n t + 3 Exercice 4.1. Calculer le déterminant de A = 5 6 −5 7 46 2 3 =− 62 −4 5 Exercice 4.2. Soit n ∈ N, n ≥ 2 Calculer n n .. . ··· n n Exercice 4.3. Soient x, y et z trois nombres complexes. Calculer le déterminant x+y D(x, y, z) = x2 + y2 x 3 + y3 y+z y2 + z2 y3 + z3 z+x z + x2 z3 + x3 2 Exercice 4.4. 1. Soit v1 = (2, 1) et v2 = (1, 2), vérifier que (v1 , v2 ) forme une base de R3 2. Déterminer selon le paramètre du réel α si la famille de vecteurs de R3 suivante est libre ou liée v1 = (4, −1, 3), v2 = (2, 2, 1), v3 = (α, 1, 1 − α) 3. Déterminer les valeurs du réel α pour lesquelles la matrice 4 B = 2 α −1 2 1 3 1 α−2 est inversible. Dans ce cas, calculer det(B−1 ) puis det(B−2 ) et det(B−3 ) (Sans calculer B−1 ) 4. Soient v1 = (1, 1, 0, 0), v2 = (1, 0, 1, 0), v3 = (1, 0, 0, 1) trois vecteurs de R4 (a) Donner une base de F = vect(v1 , v2 , v3 ) (b) Soit u = (x, y, z, t) ∈ R3 . Monter que u ∈ F ⇔ y + z + t − x = 0 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 5 RÉDUCTION DES ENDOMORPHISMES 5.1 Introduction Soit Eun espace vectoriel et f un endomorphisme de E. Si B = (e1 , e2 , .......en ) une base de E, on peut construire la matrice qui représente f dans cette base : MB ( f ) = f (e1 ) a11 .. . ... ... .. . an1 ... f (en ) a1n e1 .. .. . . ann en On cherche des bases de E dans lesquelles la forme de la matrice est la plus simple possible, c’est-à-dire, par exemple, diagonale ou, éventuellement, triangulaire. Plus précisément, on dira que f est diagonalisable s’il existe une base B = (u1 , u2 , .....un ), telle que : f (u1 ) . . . f (un ) λ ... 0 u1 1 . .. .. .. . MB ( f ) = . . . . 0 ... λn un On dira que f est trigonalisable s’il existe une base C = (v1 , v2 , .....vn ), de E telle que : MB ( f ) = f (v1 ) a11 .. . ... ... .. . 0 ... f (vn ) > v1 .. .. . . ann vn ou MB ( f ) = f (v1 ) a11 .. . ... ... .. . > ... f (vn ) 0 v1 .. .. . . ann vn Le problème qui nous occupe est double : 1. Caractériser les endomorphismes diagonalisables (ou trigonalisables). 2. Déterminer effectivement, si elles existent, les bases dans lesquelles la matrice est diagonale ou triangulaire. Puisque deux matrices A et A0 liées par la relation A0 = P−1 AP représentent le même endomorphisme en des bases différentes, le problème s’énonce ainsi : 1. Caractériser les matrices A ∈ Mn (K) pour lesquelles il existe P ∈ Mn (K) inversible, telles que A0 = P−1 AP soit diagonale (respectivement : triangulaire). 2. Déterminer effectivement P et A0 . 47 5.2. SOMME DIRECTE (RAPPELS ) CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES Deux polynômes jouent un rôle essentiel dans la réduction des endomorphisme, ce sont le polynôme caractéristique et le polynôme minimal. Ces deux polynômes sont d’ailleurs reliés l’un à l’autre, comme nous le verrons. Un polynôme P ∈ K[X] non constant, de degré n ≥ 1, est dit scindé, ou scindé sur K, s’il est produit de polynômes de degré 1. Si c’est le cas, on peut écrire P(x) = a(X − α1 )(X − α1 ).........(X − αn ) où a ∈ K∗ est le coefficient de X n et α1 , α2 , ............. αn ∈ K Les αi ne sont pas nécessairement distincts. Notons {λ1 ,1 , ......., λ p } l’ensemble des racines de P. Alors P s’écrit ainsi : P(X) = a(X − λ1 )m1 (X − λ2 )m2 ...............(X − λ p )m p 5.2 Somme directe (rappels ) Définition 5.1. Soient E1 , E2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme de E1 et E2 le sous-espace de E défini par : E1 + E2 = {x ∈ E/∃x1 ∈ E1 , ∃x2 ∈ E2 : x = x1 + x2 } Proposition 5.1. Soient E1 et E2 deux sous-espaces vectoriels de E, et soit F = E1 + E2 . La décomposition de tout T élément de F en somme d’un élément de E1 et d’un élément de E2 est unique, si et seulement si E1 E2 = {0E }. On écrit alors : F = E1 ⊕ E2 et on dit que F est somme directe de E1 et E2 Théorème 5.2. Soit E un espace vectoriel de dimension finie. Alors : E = E1 ⊕ E1 ⇔ E1 ∩ E2 = {0E } et dim E = dim E1 + dim E2 Exemple 5.1. Dans R3 , soient E1 = vect{(u(1, 0, 0)} et E2 = vect{(0, 1, 0)} On vérifie que E1 ∩ E2 = {(0, 0, 0)} et dim(E1 + E2 ) = dim E1 + dim E2 Donc, la somme est directe E1 ⊕ E2 = R × R × {0} Théorème 5.3. Soient E1 ,..., E p des sous-espaces vectoriels d’un même espace vectoriel E. Alors ces espaces sont en somme directe si et seulement si pour toutes bases B1 , B2 ,.....B p de E1 ,..., E p respectivement, la réunion des bases B1 , B2 ,..., B p qui est une famille libre. En d’autres termes, E = E1 ⊕ E2 ⊕ ...... ⊕ E p si et seulement si pour toutes bases B1 , B2 ,.....B p , la famille (B1 , .....B p ) est une base de E Corollaire 5.1. Soit E un espace vectoriel. E = E1 ⊕ E2 ⊕ ...... ⊕ E p , si et seulement si : 1. E = E1 + E2 + ...... + E p 2. dim E = dim E1 + dim E2 + ...... + dim E p Exemple 5.2. Dans R3 soient E1 = vect{(1, 0, 0)}, E2 = vect{(0, 1, 0)} et E3 = vect{(0, 0, 1)} On vérifie que R3 = E1 + E2 + E3 et dim(E1 + E2 + E3 ) = dim E1 + dim E2 + dim E3 = 3 Donc, la somme est directe E1 ⊕ E2 ⊕ E3 = R × R × R ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES5.3. ELÉMENTS PROPRES D’UN ENDOMORPHISME 5.3 5.3.1 Eléments propres d’un endomorphisme Valeurs propres et vecteurs propres Définition 5.2. Soit f un endomorphisme d’un K-espace vectoriel E. On appelle valeur propre de f tout scalaire λ ∈ K pour lequel il existe un vecteur u non nul de E tel que : f (u) = λu Ce vecteur u non nul de E se nomme vecteur propre de f associé à la valeur propre , et le couple (λ, u) ∈ K × E \ {0E }, se nomme élément propre de f . Exemples 5.3. 1. Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ). On considère l’endomorphisme f de E défini par f (e1 ) = e1 − e2 − e3 f (e2 ) = −e1 + e2 − e3 f (e ) = −e − e + e . 3 1 2 3 Le vecteur u1 = e1 + e2 + e3 est un vecteur propre de f associé à la valeur propre λ1 = −1, car f (u) = f (e1 + e2 + e3 ) = −(e1 + e2 + e3 ) = −u Les deux vecteurs u2 = e1 − e3 et u3 = e2 − e3 sont deux vecteurs propres de f associés à la valeur propre λ = 2 puisque ( f (u2 ) = 2(e1 − e3 ) = 2u2 f (u3 ) = 2(e2 − e3 ) = 2u3 2. Soit f l’application linéaire C ∞ (R) → C∞ (R) ϕ 7→ ϕ0 Toute application de la forme x 7→ eλx est vecteur propre de f associé à la valeur propre λ ∈ R car, pour tout ∈ R (eλx )0 = λeλx L’ensemble des valeurs propres de f est donc l’ensemble R. Remarquons que cet ensemble est infini. 5.3.2 Caractérisation des valeurs propres Soit idE : x ∈ E 7−→ x ∈ E l’application identité de E. Soient λ ∈ R une valeur propre de l’endomorphisme f de E et u un vecteur propre associé à λ. On a les équivalences suivantes : f (u) = λu ⇐⇒ ( f − λidE )(u) = 0E ⇐⇒ u ∈ ker( f − λidE ) Proposition 5.4. Soient E un K- espace vectoriel et f un endomorphisme de E. Une condition nécessaire et suffisante pour que λ ∈ R soit valeur propre de f est que l’endomorphisme f − λidE ne soit pas injectif. Proposition 5.5. Soient E un K-espace vectoriel et f un endomorphisme de E et (λ, u) ∈ K × E \ {0E } un élément propre de f . Alors, pour tout k ∈ N ∗ , (λk , u) est un élément propre de f k où f k = f ◦ f ◦ ...... ◦ f | {z } k fois De plus, si f est bijectif alors λ , 0 et (λ−1 , u) est un élément propre f −1 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 5.4. RECHERCHE DES VALEURS PROPRES 5.4 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES Recherche des valeurs propres Proposition 5.6. (Polynôme caractéristique) Soit f ∈ L(E) où E est un espace vectoriel de dimension finie n. Les valeurs propres de f sont les racines du polynôme : P f (λ) = det(M f − λI) — P f est un polynôme de degré n en λ appelé polynôme caractéristique de f — M f est la matrice de f dans une base quelconque de E Exemple 5.4. Soit f l’endomorphisme qui, dans la base canonique, est représenté par la matrice 1 A = −1 2 4 On a : P f (λ) = det(A − λI) = 1−λ 2 −1 4 − λ = (λ − 2)(λ − 3) Donc, les valeurs propres de f sont λ1 = 2 et λ2 = 3 — Si A = MB ( f ), P f (λ) sera noté aussi PA (λ) — L’ensemble des valeurs propres de f est dit spectre de f et est noté S p ( f ) 2 1 — Par exemple, si A = , alors −5 −2 PA (λ) = 2−λ −5 2 = λ2 + 1 −2 − λ Si K = R, A n’a pas de valeurs propres. Donc S p (A) = ∅ Si K = C, A admet deux valeurs propres ı et ı2 . Donc S p (A) = {ı, ı2 } Soit E un espace vectoriel de dimension n et soit f ∈ L(E), alors f admet au plus n valeurs propres. Si P f (X) est scindé dans K, il s’écrit : P f (X) = (−1)n (X − λ1 )(X − λ2 )......................(X − λn ) où λ1 , λ2 ......λn ∈ K sont les valeurs propres de f On peut écrire P f sous la forme : P f (X) = (−1)n (X − λ1 )m1 (X − λ2 )m2 ......................(X − λ p )m p avec m1 , m2 , ................m p les multiplicité respectivement de λ1 , λ2 ......λ p Soit A ∈ Mn (K), on a les propriétés suivantes : trA = λ1 + λ2 + ..............λn PA (0) = det(A) = λ1 .λ2 ...............λn ∀X ∈ K, PA (X) = (−1)n X n + (−1)n−1 trAX (n−1) + ......... + det(A) 1 Exemple 5.5. si A = 3 2 , alors 4 det(A − λI) = λ2 − λtr(A) + det(A) = λ2 − 5λ − 2 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.5 5.5. SOUS-ESPACES PROPRES Sous-espaces propres Définition 5.3. Soient f un endormorphisme d’un K-espace vectoriel E et λ ∈ K une valeur propre de f . On appelle sous-espace propre associé à λ, et on note Eλ le sous-espace vectoriel de E constitué des vecteurs propres associés à λ et du vecteur nul. Autrement dit, Eλ = {x ∈ E | f (x) = λx} = ker( f − λidE ) 5.5.1 Recherche des vecteurs propres Une fois calculées les valeurs propres on détermine les vecteurs propres en résolvant, dans le cas où la dimension est finie, le système (A − λI)v = 0 1 2 3 . Soit f l’endomorphisme de R qui dans la base canonique est défini par −1 4 Les valeurs propres sont λ1 = 2 et λ2 = 3. Il existe donc deux vecteurs propres v1 et v2 tels que : f (v1 ) = λ1 v1 et f (v2 ) = λ2 v2 Calcul de v1 x Notons v1 = , y ce qui donne le système −1 (A − 2I)v1 = 0 ⇔ −1 ( 2 x = 0 2 y −x + 2y = 0 −x + 2y = 0 2 la solution est engendrée par v1 = ⇒ Eλ1 = vect{(2, 1)} 1 Calcul de v2 x Notons v2 = y ( −2x + 2y = 0 (A − 3I)v2 = 0 ⇔ −2x + 2y = 0 1 la solution est engendrée par v2 = ⇒ Eλ2 = vect{(1, 1)} 1 On vérifié que B0 = (v1 , v2 ) est une base de R2 , det(v1 , v2 ) = 2 1 1 =1,0 1 2 M( f )B = 0 0 3 La matrice de passage de B = (e1 , e2 ) à B0 = (v1 , v2 ) 2 P = 1 1 1 On vérifie facilement que 2 0 0 = A0 = P−1 AP 3 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 5.5. SOUS-ESPACES PROPRES 5.5.2 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES Dimension d’un sous-espace propre Pour déterminer dim Eλ , il suffit d’appliquer le théorème du rang à l’endomorphisme f − λidE dim E = rg( f − λidE ) + dim ker( f − λidE ) = rg( f − λidE ) + dim Eλ dim Eλ = dim E − rg( f − λidE ) Exercice 5.1. Soit E un R-espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ). Soit f ∈ L(E) : f (e1 ) = e1 − e2 − e3 f (e2 ) = −e1 + e2 − e3 f (e3 ) = −e1 − e2 + e3 1. Donner le polynôme caractéristique de f et déduire S p ( f ) 2. Déterminer les sous-espaces propres Eλi Solution de l’exercice 5.1. – 1. La matrice associée à f est 1 A = −1 −1 Le polynôme caractéristique de A est donné par −1 1 −1 −1 −1 1 1 − λ −1 −1 PA (λ) = det(A − λI) −1 1 − λ −1 = −(λ + 1)(λ − 2)2 −1 −1 1 − λ Les valeurs propres de f sont λ1 = −1 et λ2 = 2. Donc S p (A) = {−1, 2} 2. (a) Détermination du sous-espace propre Eλ1 On doit résoudre (A − (−1)I3 )X = 0, c’est-à-dire : 2 −1 −1 x1 0 −1 2 −1 x2 = 0 0 −1 −1 2 x3 Les scalaires x1 , x2 et x3 vérifient le système linéaire homogène suivant : 2x1 − x2 − x3 = 0 −x1 + 2x2 − x3 = 0 (S ) −x − x + 2x = 0 1 2 3 En utilisant la méthode du pivot de Gauss, ce système est équivalent au système échelonné suivant : 2x1 − x2 − x3 = 0 3x2 − 3x3 = 0 (S 0 ) 0=0 deux variables principales x1 et x2 et un libre est x3 donc dimension de l’espace solution égale à dim ker( f − λ1 idE ) = dimEλ1 = 1. (ou bien rg(A − (−1)I3 ) = 2, c’est à dire dim Eλ1 = 3 − 2 = 1) Soit x3 = µ, donc x1 = x2 =3 = µ. Ainsi, Eλ1 = ker( f − λ1 idE ) = vect(1, 1, 1) ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 5.6. DIAGONALISATION (b) Détermination du sous-espace propre Eλ2 On doit résoudre (A − 2I3 )X = 0, c’est-à-dire : − −1 −1 − −1 −1 −1 x1 0 −1 x2 = 0 0 − x3 Les scalaires x1 , x2 et x3 vérifient le système linéaire homogène suivant : x1 + x2 + x3 = 0 0=0 (S ) 0=0 deux variables libres x2 et x3 et et un principale est x1 donc dimension de l’espace solution égale à dim ker( f − λ1 idE ) = dim Eλ1 = 2. Soient x2 = λ, x3 = µ, d’où x1 = −λ − µ (x1 , x2 , x3 ) = (−λ − µ, λ, µ) = λ(−1, 1, 0) + µ(−1, 0, 1) Ainsi, Eλ2 = vect{(v1 , v2 )} avec v1 = (−1, 1, 0) et v2 = (−1, 0, 1) De plus (v1 , v2 ) est une base de Eλ2 On remarque que dim Eλ1 + dim Eλ2 = dim E | {z } | {z } |{z} =1 puisque Eλ1 ∩ Eλ2 = {0E }, on en déduit que =3 =2 E = Eλ1 ⊕ Eλ2 On vérifie que C = (v1 , v2 , v3 ) est une base de E avec v1 = −e1 + e2 , v2 = −e1 + e3 , v3 = e1 + e2 + e3 la matrice de f dans la base C est : 2 0 A = 0 0 0 2 0 0 0 −1 On a aussi A0 = P−1 AP, avec P la matrice de passage de B à C : −1 P = 1 0 5.6 5.6.1 −1 0 1 1 1 1 Diagonalisation Diagonalisation d’un endomorphisme Comme nous l’avons vu dans l’exemple 5.4, tous les endomorphismes d’un K espace vectoriel E n’admettent pas nécessairement de valeurs propres (et donc de vecteurs propres). Définition 5.4. Soit E un K-espace de dimension finie ou infinie. Un endomorphisme f de E est dit diagonalisable sur K s’il existe une base de E formée de vecteurs propres de f . Diagonaliser f , c’est trouver une telle base. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 5.6. DIAGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES Soit E espace vectoriel de dimension n et considérons un endomorphisme f ∈ L(E). Supposons f diagonalisable. D’après la définition 5.4, il existe une base notée C = (u1 , u2 , ........un ) constituée de vecteurs propres de f Il existe donc n valeurs propres, comptées avec leurs multiplicités et notées λ1 , λ2 , ........λn ∈ K telles que f (u1 ) = λ1 u1 , f (u2 ) = λ2 u2 , , ............. f (un ) = λn un MatC ( f ) = f (u1 ) λ1 .. . ... ... .. . 0 ... f (un ) 0 u1 .. .. = Diag(λ1 , λ2 , ......λn ) . . λn un Définition 5.5. Soit A une matrice de Mn (K). On dit que A est diagonalisable si elle est semblable à une matrice diagonale, c’est-à-dire s’il existe une matrice inversible P d’ordre n sur K, et s’il existe une matrice diagonale D d’ordre n sur K, telles que D = P−1 AP Soit A la matrice définie dans l’exercice 5.1 1 A = −1 −1 −1 1 −1 −1 −1 1 PA (λ) = −(λ + 1)(λ − 2)2 1. Les valeurs propres de A sont λ1 = −1 (simple) et λ2 = 2 (double) . 2. Les vecteurs propres de A sont : v1 = (−1, 1, 0), v2 = (−1, 0, 1) et v3 = (1, 1, 1) 2 0 0 0 2 0 0 −1 0 = P AP −1 avec P la matrice de passage de B à C = (v1 , v2 , v3 ) : Théorème 5.7. Soit f ∈ L(E) et λ1 ,..., λ p les valeurs propres de f . Alors les propriétés suivantes sont équivalentes : 1. f est diagonalisable 2. E est somme directe des espaces propres E = Eλ1 ⊕ Eλ2 ⊕ ............. ⊕ Eλ p 3. dim E = dim Eλ1 + Eλ2 + ............. + Eλ p Corollaire 5.2. Si f admet n valeurs propres deux à deux distinctes alors f est diagonalisable. Corollaire 5.3. Soient E un K-espace de dimension n et f un endomorphisme de E. Soient λ1 ,..., λ p les valeurs propres distinctes de f de multiplicités respectives m1 , m2 , ..............., m p et Eλ1 , Eλ2 , ...........Eλ p les sous-espaces propres correspondants. Une condition nécessaire et suffisante pour que f soit diagonalisable est que m1 + m2 + ....... + m p = n, ∀ ∈ {1, 2, .....p}, dimEλi = mi ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 2 1 A) Soit A =0 1 0 2 5.6. DIAGONALISATION 0 −1 ∈ M3 (R) 4 PA (λ) = −(λ − 1)2 (λ − 3) 1. Les valeurs propres de A sont λ1 = 1 (double) et λ2 = 3 (simple). 2. Les sous espaces propres : Eλ1 = vect{(1, 2, −2)} et Eλ2 = vect{(1, 0, 0)} dim Eλ1 + dim Eλ1 = 2 , dim R3 = 3 Donc, la matrice A n’est pas diagonalisable. B) La matrice A de l’exercice 5.1 est diagonalisable : PA (λ) = −(λ + 1)(λ − 2)2 = −(λ + 1)m1 (λ − 2)m2 dim Eλ1 = m1 = 1 et dim Eλ2 = m2 = 2 dim Eλ1 + dim Eλ2 = 1 + 2 = 3 5.6.2 Polynômes annulateurs Soit E un espace vectoriel sur K et P ∈ K[X] P(X) = am X m + am−1 X m−1 + ............ + a1 X + a0 Si f ∈ L(E), on note P( f ) l’endomorphisme de E défini par : P( f ) = am f m + am−1 f m−1 + ............ + a1 f + a0 idE Soit f un endomorphisme de E. Nous nous intéresserons par la suite aux polynômes P ∈ K[X], non nuls tels que P( f ) = 0. Par exemple, si f est un projecteur (c’est-à-dire f 2 = f ), on a f 2 − f = 0, donc le polynôme P(X) = X 2 − X vérifie P( f ) = 0 Définition 5.6. Soit E un espace vectoriel sur K et soit f ∈ L(E). Un polynôme P ∈ K[X] est dit annulateur de f si P( f ) = 0. Exemple 5.6. E un espace vectoriel sur R soit f un endomorphisme de E tel que f 3 = f . Le polynôme P(X) = (X 3 − X) = X(X − 1)(X + 1) est annulateur de f Proposition 5.8. Soit P un polynôme annulateur de f . Alors les valeurs propres de f figurent parmi les racines de P, c’est-à-dire : S p( f ) ⊂ Rac(P) Démonstration. Si λ est une valeur propre de f , il existe un vecteur v non nul tel que f (v) = λv. On a f 2 (v) = f ( f (v)) = f (λv) = λ2 v f 3 (v) = λ3 v ... = .... k f (v) = λk v Soit P(X) = am X m + am−1 X m−1 + ............ + a1 X + a0 un polynôme tel P( f ) = 0, c’est-à-dire vérifiant : P( f ) = am f m + am−1 f m−1 + ............ + a1 f + a0 id = 0 En prenant l’image du vecteur v par l’endomorphisme on trouve : (am f m + am−1 f m−1 + ............ + a1 f + a0 id)v = 0 ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 5.6. DIAGONALISATION CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES c’est-à-dire (am λm + am−1 λm−1 + ............ + a1 λ + a0 id)v = 0 Or v , 0, donc am λm + am−1 λm−1 + ............ + a1 λ + a0 id = 0 c’est-à-dire P(λ) = 0 cqfd REMARQUE. Toutes les racines de P ne sont pas nécessairement valeurs propres de f . Si E = R2 et B = (e1 , e2 ) la base canonique de R2 et f = id. f vérifie f 2 = id, donc Q(X) = X(X − 1) est annulateur de f 1 0 et PA (λ) = (1 − λ)2 On a A = MatB ( f ) = 0 1 0 racine de Q mais n’est pas valeur propre de f 5.6.3 Théorème de Cayley-Hamilton Théorème 5.9. Soit f ∈ L(E) et P f le polynôme caractéristique de f . On a alors Pf ( f ) = 0 2 2 Exemple 5.7. Si E = R et B = (e1 , e2 ) la base canonique de R et f ∈ L(E) tel que ( f (e1 ) = 2e1 f (e2 ) = 3e2 2 0 , PA (λ) = (2 − λ)(3 − λ), PA ( f ) = f 2 − 5 f + 6id A = MatB ( f ) = 0 3 ( PA ( f )(e1 ) = f 2 (e1 ) − 5 f (e1 ) + 6e1 = 4e1 − 10e1 + 6e1 = 0 On a : PA ( f )(e2 ) = f 2 (e2 ) − 5 f (e2 ) + 6e2 = 9e1 − 15e1 + 6e2 = 0 Ainsi PA ( f ) = 0 Proposition 5.10. Soit f un endomorphisme et P f (X) = (−1)n (X − λ1 )m1 (X − λ2 )m2 ...............(X − λ p )m p le polynôme caractéristique. Alors, si f est diagonalisable, le polynôme Q(X) = (X − λ1 )(X − λ2 )...............(X − λ p ), annule f . Proposition 5.11. Soit f un endomorphisme d’un K espace vectoriel E de dimension finie. Supposons f non identiquement nul. Si f est nilpotent a alors f n’est pas diagonalisable. a. Un endomorphisme f de E est dit nilpotent s’il existe un entier naturel non nul k tel que f k = 0. 5.6.4 Polynôme minimal Définition 5.7. On appelle polynôme minimal de f -noté m f (X)- le polynôme normalisé a annulateur de f de degré le plus petit. a. Le premier coefficient = 1 Proposition 5.12. Les racines de m f (X) sont exactement les racines de P f (X), c’est-à-dire les valeurs propres, mais avec une multiplicité en général différente. En d’autres termes, si on considère P f (X) scindé, c’est-à-dire si P f (X) = (−1)n (X − λ1 )α1 (X − λ2 )α2 ...............(X − λ p )α p , avec : λi , λ j , α1 + α2 + ...... + α p = n alors m f (X) = (X − λ1 )β1 (X − λ2 )β2 ...............(X − β p )β p , avec : 1 ≤ βi ≤ αi Exemples 5.8. ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 0 1. Soit A = 1 1 On a 1 0 2 2 2. 0 PA (X) = −(X + 1)(X + 2)(X − 3) Donc −1 2. A = 1 1 5.6. DIAGONALISATION mA (X) = (X + 1)(X + 2)(X − 3) 1 −1 1 1 1 −1 On a donc PA (X) = −(X − l)(X + 2)2 . mA (X) = (X − 1)(X + 2) ou mA (X) = (X − 1)(X + 2)2 Calculons (A − I)(A + 2I) ; si l’on trouve la matrice nulle le polynôme minimal sera le premier, si non ce sera le second. −2 1 1 1 1 1 0 0 0 (A − I)(A + 2I) = 1 −2 1 1 1 1 = 0 0 0 1 1 −2 1 1 1 0 0 0 Donc : mA (X) = (X − 1)(X + 2) Théorème 5.13. Un endomorphisme f est diagonalisable si et seulement si son polynôme minimal est scindé et il a toutes ses racines simples. Exemples 5.9. 1. On a vu dans l’exemple 5.8 −1 1 A = 1 −1 1 1 Donc A est diagonalisable. 2. 1 1 et −1 mA (X) = (X − 1)(X + 2) 3 2 −2 A = −1 0 1 et PA (X) = −(X − 1)3 1 1 0 donc si A est diagonalisable mA (X) = (X − 1) ou (X − 1)2 ou (X − 1)3 mA (X) = (X − 1) ⇔ A − I = 0. Comme A , I, donc A n’est pas diagonalisable. 3. 3 A = 2 1 donc A est diagonalisable −1 0 −1 1 1 2 et PA (X) = −(X − 1)(X − 2)2 mA (X) = (X − 1)(X − 2) ou mA (X) = (X − 1)(X − 2)2 ⇔ mA (X) = (X − 1)(X − 2) ⇔ (A − I)(A − 2I) = 0 Or (A − I)(A − 2I) , 0, doc A n’est pas diagonalisable ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 5.7. TRIGONALISATION 5.7 CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES Trigonalisation Définition 5.8. Soit E un K espace de dimension finie. Un endomorphisme f de E est dit trigonalisable s’il existe une base de E relativement à laquelle la matrice de f est triangulaire. Définition 5.9. Une matrice A de Mn (K) est dite trigonalisable si elle est semblable à une matrice triangulaire, c’est-à-dire s’il existe une matrice P inversible et s’il existe une matrice triangulaire T telle que T = P−1 AP Théorème 5.14. Un endomorphisme est trigonalisable dans K si et seulement si son polynôme caractéristique est scindé dans K . Corollaire 5.4. Toute matrice A ∈ Mn (C) est semblable à une matrice triangulaire de Mn (C) . Démonstration. Soit B = (e1 , e2 , ....en ) une base de E. Supposons que l’endomorphisme f est trigonalisable a11 MB ( f ) = ... 0 ··· .. . ∗ .. . ··· ann On a a11 − λ .. P f (λ) = . 0 ··· .. . ∗ .. . ··· ann − λ = (a11 − λ)(a22 − λ).............(ann − λ) donc P f (λ) est scindé (Les éléments de la diagonale aii sont les valeurs propres). Réciproquement supposons P f (λ) scindé et montrons par récurrence que f est trigonalisable. Supposons le résultat vrai à l’ordre n − 1, (n ≥ 2). Puisque P f (λ) est scindé, il admet au moins une racine λ ∈ K et donc il existe au moins un vecteur propre 1 ∈ Eλ Complétons {1 } en une base : {1 , 2 , ........n } On a : λ b2 · · · bn 0 MB ( f ) = . où B ∈ Mn−1 (K) .. B 0 Soit F = vect{2 , 3 , ........, n } et g un endomorphisme de F tel que Mat{2 ,3 ,........,n } (g) = B cqfd ——————————————— K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020 Références ., J.-M. et FRAYSSE, H. (1990). Cours de mathématiques - 4 Algèbre bilinéaire et géométrie. Dunod. Arnaudiès., J., ., P. D. et Fraysse, H. (1994). Exercices résolus d’algèbre du cours de mathéntatiaues 1. DUNOD. Gostiaux, B. (1993). Cours de mathèmatiques spèciales : Tome 1 Algébre. Presses universitaires de France. GRIFONE, J. (2011). Algèbre linéaire. 4 édition. LAC., S. B. et STURM, F. (2009). Algèbre et analyse Cours de mathèmatiques de premiére annvec exercices corriges. Presses polytechniques et universitaires romandes. Ramis, J.-P. et Warusfel, A. (2007). Mathématiques Tout-en-un pour la Licence 2 : Cours complet avec applications et 760 exercices corrigès. DUNOD. Roudier, H. (2008). Algèbre linéaire, Cours et exercices : CAPES et agrégation externe et interne. VUIBERT. VOEDTS, J. (2002). Cours de Mathèmatiques MP-MP∗. ellipes.