Uploaded by Abden2750

Cours d’algèbre linéaire MIPC

advertisement
Cours d’algèbre linéaire
MIPC-S2 : FST-Tanger
Sections A & B
K.Boulifa & B.Gmira
1. Matrices
2. Système d’équations linéaires
3. Applications linéaires
4. Déterminants
5. Réduction des Endomorphismes
2019-2020
AVANT-PROPOS
Le présent polycopié s’adresse aux étudiants de la filière MIPC (Mathématiques, Informatique, Physique et Chimie)
deuxième semestre. Des exemples sont introduits et des exercices sont accompagnés de leurs solutions pour que l’étudiant
s’y entraine. Ce polycopié est divisé en cinq chapitres :
Chapitre 1 : Rappelle les techniques et les méthodes de calcul matriciel
Chapitre 2 : Est consacré à l’étude d’un système d’équations linéaires par la méthode du pivot ou méthode
d’élimination de Gauss.
Chapitre 3 : Applications linéaires
Chapitre 4 : Déterminants
Chapitre 5 : Réduction des endomorphismes
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
Table des matières
1
Matrices : définition et vocabulaire
1.1 Matrices à n lignes et p colonnes . . . . . . . . . . . . . . . .
1.1.1 Egalité de deux matrices . . . . . . . . . . . . . . . .
1.1.2 Addition des matrices et multiplication par un scalaire
1.1.3 Produit matriciel . . . . . . . . . . . . . . . . . . . .
1.2 Espace vectoriel des matrices à n lignes et p colonnes . . . . .
1.3 Quelques types classiques de matrices . . . . . . . . . . . . .
1.3.1 Transposée d’une matrice . . . . . . . . . . . . . . .
1.3.2 Matrices diagonales . . . . . . . . . . . . . . . . . .
1.3.3 Matrices triangulaires . . . . . . . . . . . . . . . . . .
1.3.4 Matrices symétriques et matrices antisymétriques . . .
1.3.5 Puissances successives d’une matrice carrée . . . . . .
1.3.6 Matrices nilpotentes . . . . . . . . . . . . . . . . . .
1.3.7 Inverse d’une matrice carrée . . . . . . . . . . . . . .
1.3.8 Trace d’une matrice . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
7
8
9
9
9
9
10
10
10
11
11
2
Etude d’un système d’équations linéaires par la méthode du pivot ou méthode d’élimination de Gauss
2.1 Système d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Matrice échelonnée en lignes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Cas des systèmes linéaires homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Utilisation pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.2 Calcul de l’inverse d’une matrice par la méthode du pivot . . . . . . . . . . . . . . . . . . . .
12
12
13
14
15
16
17
17
18
3
Applications linéaires
3.1 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . .
3.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Matrices associées à une application linéaire . . . . . . . . . . . . . . . . . . . . .
3.6 Matrice d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Propriétés des matrices de passage . . . . . . . . . . . . . . . . . . . . . .
3.7.2 Application au calcul de l’inverse d’une matrice . . . . . . . . . . . . . . .
3.7.3 La matrice associée à une application linéaire bijective est-elle inversible ?
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
20
21
23
23
24
25
26
28
29
30
30
33
4
Déterminants
4.1 Groupe des permutations d’un ensemble . . . . . . . . . . .
4.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Inversions d’une permutation. Calcul de la signature
4.2 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . .
4.2.1 Forme bilinéaire alternée . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
34
34
34
35
35
35
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
TABLE DES MATIÈRES
4.3
4.4
4.5
4.6
4.7
5
TABLE DES MATIÈRES
A) Propriété d’antisymétrie . . . . . . . .
B) Intérêt d’une forme bilinéaire alternée
4.2.2 Cas d’un espace vectoriel de dimension 2 . . . .
Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . .
4.3.1 Forme trilinéaire alternée . . . . . . . . . . . . .
4.3.2 Cas d’un espace vectoriel de dimension 3 . . . .
Déterminant d’ordre n . . . . . . . . . . . . . . . . . . .
4.4.1 Forme multilinéaire alternée . . . . . . . . . . .
4.4.2 Cas d’un espace vectoriel de dimension n . . . .
Déterminant d’une matrice carrée . . . . . . . . . . . .
Calcul des déterminants . . . . . . . . . . . . . . . . . .
Applications . . . . . . . . . . . . . . . . . . . . . . . .
4.7.1 Calcul du rang d’une matrice . . . . . . . . . . .
4.7.2 Calcul de l’inverse d’une matrice . . . . . . . .
4.7.3 Systèmes de Cramer . . . . . . . . . . . . . . .
Réduction des endomorphismes
5.1 Introduction . . . . . . . . . . . . . . . . . .
5.2 Somme directe (rappels ) . . . . . . . . . . .
5.3 Eléments propres d’un endomorphisme . . .
5.3.1 Valeurs propres et vecteurs propres .
5.3.2 Caractérisation des valeurs propres . .
5.4 Recherche des valeurs propres . . . . . . . .
5.5 Sous-espaces propres . . . . . . . . . . . . .
5.5.1 Recherche des vecteurs propres . . .
5.5.2 Dimension d’un sous-espace propre .
5.6 Diagonalisation . . . . . . . . . . . . . . . .
5.6.1 Diagonalisation d’un endomorphisme
5.6.2 Polynômes annulateurs . . . . . . . .
5.6.3 Théorème de Cayley-Hamilton . . . .
5.6.4 Polynôme minimal . . . . . . . . . .
5.7 Trigonalisation . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
37
37
37
38
40
40
40
41
42
44
44
45
45
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
47
48
49
49
49
50
51
51
52
53
53
55
56
56
58
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 1
MATRICES : DÉFINITION ET
VOCABULAIRE
1.1
Matrices à n lignes et p colonnes
Définition 1.1. Soit K un corps arbitraire (R ou C). Soit n et p deux entiers strictement positifs.
On appelle matrice, de type (n,p) à coefficients dans IK, la donnée d’un tableau noté

a11
 .
 ..

A =  ai1
 .
 ..

an1
...
..
.
...
a1 j
..
.
...
ai j
..
.
...
an j
...
..
.
...

a1p 
.. 
. 

aip 

.. 
. 
anp
— Les ai j sont des scalaires du corps K
— Les p, n-uplet horizontaux (a11 , a12 , . . ., a1n ), (a21 , a22 , . . ., a2n ), . . ., (a p1 , an2 , . . ., a pn ) sont les lignes de A.
 
   
a1p 
a11  a12 
a 
a21  a22 
— Les n, p uplet verticaux  ,  , . . .,  2p  sont les colonnes de A.
 . . .   . . . 
 . . . 
anp
an1 an2
— L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mn,p (K).
— Si p = n on note Mn,n (K) = Mn (K) et on parle de matrices carrées d’ordre n.
— Le coefficient ai j se trouve à l’intersection de la i-ème ligne et de la j-ème colonne de la matrice A
1.1.1
Egalité de deux matrices
Définition 1.2. L’égalité des matrices A et B de Mn,p (K) équivaut à :
∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., p}, ai j = bi j
Exemple 1.1. Soit la matrice 2x3 :
1
0
4
−2
−3
5
Ses lignes sont (1, −3, 4), (0, 5, −2) et ses colonnes sont
!
1
,
0
5
!
!
−3
,
5
!
4
−2
1.1. MATRICES À N LIGNES ET P COLONNES
CHAPITRE 1. MATRICES
Exemple 1.2. L’égalité
!
x + y 2z + w
3
=
x−y z−w
1

x+y
=3







=1
 x−y
est équivalente au système d’équations suivant : 


w
+
2z
=5





−w
+ z=4
1.1.2
!
5
4
Addition des matrices et multiplication par un scalaire
Soient A et B deux matrices de même type (n,p), c’est-à-dire ayant le même nombre de lignes et de colonnes,
c’est-à-dire, deux (n, p) matrices :

a11
 .
 ..

A =  ai1
 .
 ..

an1
...
..
.
...
a1 j
..
.
...
ai j
..
.
...
an j
...
..
.
...


a1p 
b11


 .
.. 
 ..
. 


aip  et B =  bi1


.. 
 ..
. 
 .
bn1
anp
...
..
.
...
b1 j
..
.
...
bi j
..
.
...
bn j
...
..
.
...

b1p 
.. 
. 

bip  .

.. 
. 
bnp
— La somme de A et B, écrite A+B, est la matrice obtenue en ajoutant les éléments correspondants des deux matrices :

a11 + b11

..

.

A + B =  ai1 + bi1

..

.

an1 + bn1
...
..
.
...
a1 j + b1 j
..
.
...
ai j + bi j
..
.
...
an j + bn j
...
..
.
...

a1p + b1p 

..

.

aip + bip 

..

.

anp + bnp
— La somme de deux matrices de type différents n’est pas définie.
— Le produit d’une matrice A par un scalaire k, noté kA

ka11
 .
 ..

kA =  kai1
 .
 ..

kan1
...
..
.
...
ka1 j
..
.
...
kai j
..
.
...
kan j
...
..
.
...

ka1p 
.. 
. 

kaip 

.. 
. 
kanp
Propriétés 1.1. Soient A, B, C ∈ Mn,p (K) et k1 , k2 ∈ K.
Les principales propriétés des matrices se déduisant de l’addition et de la multiplication par un scalaire sont :
1. (A + B) + C = A + (B + C)
2. A + 0 = A
3. A + (−A) = 0
4. A + B = B + A
5. k1 (A + B) = k1 A + k1 B
6. (k1 + k2 )A = k1 A + k2 A
1
Soient A =
4
-2
5
3
-6
1+3
Addition : A+B =
4−7
!
3 0 2
et B =
Alors :
-7 1 8
!
!
−2 + 0 3 + 2
4 −2 5
=
5 + 1 −6 + 8
−3 6 2
!
3.1 3.(−2)
3.3
Multiplication par un scalaire : 3A =
3.4
3.5
3.(−6)
!
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 1. MATRICES
1.1. MATRICES À N LIGNES ET P COLONNES
La matrice nulle : La matrice de type (n, p) dont les éléments sont tous nuls est appelée la matrice nulle, et sera notée
O:


0 . . . 0 . . . 0
 . .
.. 
. . ...
 ..
. 


0 . . . 0 . . . 0
 ..
.. . .
. 
. .. 
.
 .

0 ... 0 ... 0
1.1.3
Produit matriciel
Définition 1.3. (Matrice identité :) On appelle matrice identité d’ordre n, la matrice carrée dont les éléments de la
diagonale sont égaux à 1 et tous les autres sont égaux à 0. on la note In .

1

Ainsi, pour n = 3, I3 = 0

0
0
1
0

0

0 est la matrice identité d’ordre 3.

1
Exemples 1.3.
1. Compte tenu de ce!qui précède, on définit
le produit de deux matrices A1 et A2 de M2 (K) de la
!
a1 b1
a2 b2
manière suivante : si A1 =
et A2 =
, on pose :
c1 d1
c2 d2
a a + b1 c2
A1 A2 = 1 2
c1 a2 + d1 c2
2. La matrice identité I2 =
1
0
a1 b2 + b1 d2
c1 b2 + d1 d2
!
!
0
est l’élément neutre de M2 (K) pour la multiplication :
1
∀A ∈ M2 (K), AI = IA = A
3. Le produit de deux matrices n’est pas commutatif
et que le produit
de deux matrices non nulles peut être égal à la
!
!
1 1
1
1
matrice nulle. Soit par exemple : A =
et B =
.
0 0
−1 −1
AB = 02,2 et BA = B, alors que A , I2 et que B2 = B × B = 02,2
Définition 1.4. On définit d’abord le produit d’une matrice ligne L de type (1, n) et d’une matrice colonne Cde type (n,1) :
 
b1 
 
L = (a1 , ..., an ) , C =  ... 
 
bn
on pose :
LC =
n
X
ai bi
(1.1)
i=1
Il s’agit d’un scalaire
Définition 1.5. On définit ensuite le produit de deux matrices A et B (AB) lorsque le nombre de colonnes de A est égal
au nombre de lignes de B, de la manière suivante : si A ∈ Mn,m (K) et B ∈ Mm,p (K). AB est la matrice de Mn,p (K) dont
le terme indexé par (i, j) est égal au produit de la i-ème ligne de A et de la j-ème colonne de B.
Autrement dit, C = AB si et seulement si ∀(i, j) ∈{1,2,.., n}×{1,2,..., p}
ci j = Ligi (A)Col j (B) =
m
X
ai,k bk, j
k=1
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
(1.2)
1.2. ESPACE VECTORIEL DES MATRICES À N LIGNES ET P COLONNES
CHAPITRE 1. MATRICES
B : p lignes q colonnes
ai
1
×
b1
j





















..
+
.+
bk
j
..
+
a ik
×
.+
a ip





















a11
...
a1k
...
a1p
..
.
..
..
.
..
.
..
.
ai1
...
aik
...
aip
..
.
..
.
..
.
..
..
.
an1
...
ank
...
.
.
anp
×
bp
...
b1 j
...
b1q
..
.
..
..
.
..
.
..
.
bk1
...
bk j
...
bkq
..
.
..
.
..
.
..
..
.
b p1
...
bp j
...
.
.
b pq
j










































c11
...
c1 j
...
c1q
..
.
..
..
.
..
.
..
.
ci1
...
ci j
...
ciq
..
.
..
.
..
.
..
..
.
cn1
...
cnk
...
.
.
cnq





















C = A × B : n lignes q colonnes
A : n lignes p colonnes
Propriétés 1.2.
b11





















A(BC) = (AB)C, ∀A ∈ M p,n (K), ∀B ∈ Mn,q (K), ∀C ∈ Mq,m (K)
A(B + C) = AB + AC, ∀A ∈ M p,n (K), ∀B, C ∈ Mn,q (K)
(A + D)B = AB + DB. ∀A, D ∈ M p,n (K), ∀B, C ∈ Mn,q (K)
1.2
Espace vectoriel des matrices à n lignes et p colonnes
On vérifie sans problème que Mn,p (K) est un K espace vectoriel.
— Le vecteur nul de cet espace n’est autre que la matrice nulle On,p (ou O )
— Chaque matrice A de Mn,p (K) admet pour matrice opposée la matrice −A que l’on construit en posant :
∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., p}, −(ai j ) = −ai j
Les notions de famille libre, famille génératrice et de base sont valables aussi pour les familles de matrices. En
particulier, Mn,p (K) possède une base canonique : elle est constituée des matrices El,k ,1 ≤ k ≤ n et 1 ≤ l ≤ p où El,k est
la matrice dont tous les coefficients sont nuls sauf celui d’indice (l, k) qui vaut 1. Par exemple, dans M2,3 (K).
!
!
0 1 0
0 0 0
E1,2 =
; E2,1 =
0 0 0
1 0 0
Toute matrice A ∈ Mn,p (K) se décompose alors d’une unique façon sous la forme :
A=
p
n X
X
l=1 k=1
al,k El,k
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 1. MATRICES
1.3. QUELQUES TYPES CLASSIQUES DE MATRICES
Exercice 1.1. On considère l’ensemble E des matrices carrées d’ordre 3 défini par :






a b b 








E=
M(a, b) = b a b  , a ∈ R, b ∈ R








b b a
1. Montrer que Eest un sous-espace vectoriel de l’espace vectoriel des matrices carrées d’ordre 3.




1 0 0 
0 1 1 




2. Justifier que les matrices I = 0 1 0  et J = 1 0 1  forment une famille génératrice de E.




0 0 1
1 1 0
(
!)
(
!)
a 2a+b
a 3a+b
Exercice 1.2. Soient F= A ∈ M2 (R)|
et G= A ∈ M2 (R)|
-b
-a
-b -2a+b
Montrer que M2 (R) = F ⊕ G.
1
Solution de l’exercice 1.1. Base de F : { A1 , A2 } avec A1 =
0
!
!
1 3
0 1
Base de G : { B1 , B2 } avec B1 =
, B2 =
0 -2
-1 1
Montrer que {A1 , A2 , B1 , B2 } est une famille libre.
2
-1
!
0
, A2 =
-1
1
0
!
Théorème 1.3. Mn,p (K) est un K espace vectoriel de dimension np
1.3
1.3.1
Quelques types classiques de matrices
Transposée d’une matrice
Définition 1.6. A étant une matrice de Mn,p (K). On appelle transposée de A et l’on note t A la matrice à p lignes et n
colonnes de terme général b ji défini par : pour tout (i, j) de {1,2,.., n}×{1,2,..., p},
ai j = b ji
— Si A et B sont deux matrices de Mn,p (K) et λ, µ deux scalaires quelconques :
t
(λA + µB) = λ t A + µ t B
t
(AB) = t B t A
— Quelle que soit la matrice A : t (t A) = A
1.3.2
Matrices diagonales
Définition 1.7. Une matrice carrée D = (di j ) de Mn (K) est diagonale si di j = 0 pour tout i , j. En posant pour tout i
dii = λi , on écrira encore que D = Diag(λ1 , λ2 , .. λn ).


λ1 0 0 0 
 0 λ
0 0 
2
 = Diag(λ1 , λ2 , λ3 , λ4 )
Ainsi, lorsque n = 4, D = 
 0 0 λ3 0 
0 0 0 λ4
1.3.3
Matrices triangulaires
Définition 1.8. A ∈ Mn (K) est une matrice triangulaire supérieure (resp. inférieure) si ai j = 0 pour i > j (resp i < j)

a11
 .
 ..

A =  0
 .
 ..

0
...
..
.
...
a1 j
..
.
...
aii
..
.
...
0
...
..
.
...


a1n 
a11


 .
.. 
 ..
. 


ain  , resp A =  ai1


.. 
 ..
. 
 .
ann
an1
...
..
.
...
...
0
..
.
...
0
..
.
aii
..
.
...
..
.
...
0
..
.
an j
ann









———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
1.3. QUELQUES TYPES CLASSIQUES DE MATRICES
Exemple 1.4.

 √1 0

B =  2 3

i+1 2
1.3.4
CHAPITRE 1. MATRICES
√


1
2 i+1


A = 0 3
2  ∈ M3 (C) est une matrice triangulaire supérieure.


0 0
-1

0 

0  = t A est une matrice triangulaire inférieure.

-1
Matrices symétriques et matrices antisymétriques
Définition 1.9. Une matrice carrée A de ∈ Mn (K) est symétrique si t A = A et antisymétrique si t A = −A.
√


 1

2
i
√

Exemple 1.5. A =  2 0
4  est une matrice symétrique.


i
4 -1
√


 0
2 -4
 √

B = - 2 0 -3 est une matrice antisymétrique.


4
3 -1
1.3.5
Puissances successives d’une matrice carrée
Soit A une matrice de Mn (K).
1. On définit Ak pour tout entier k ≥ 0 par itérations successives en posant :
A0 = In et ∀k ∈ N, Ak+1 = Ak A
2. Pour tous entiers naturels n, r, s et k :
Ar+s = Ar A s et (Ar ) s = Ars
3. Si AB = BA, alors :
(AB)k = Ak Bk
(A + B)n =
n
X
Cnk Ak Bn−k ((Formule du binôme))
k=0
An − Bn = (A − B)
4. In − An+1 = (In − A)
1.3.6
n
P
k=0
n
X
Bk−1 An−k
k=1
Ak
Matrices nilpotentes
Définition 1.10. La matrice A de Mn (K) est nilpotente s’il existe un entier naturel k tel que Ak = 0. Dans ces conditions
A s = 0 pour tout entier s ≥ k. Le premier entier p tel que A p = 0 s’appelle indice de nilpotence de A.

0 1 1
0 0 2
Exemple 1.6. N = 
0 0 0
0 0 0
N est nilpotente d’indice p = 4


1
0

0
1
2
, N = 
3
0
0
0
0
0
0
0
2
0
0
0


4
0

6 3 0
, N = 
0
0
0
0
0
0
0
0
0
0
0
0


6
0

0 4 0
, N = 
0
0
0
0
0
0
0
0
0
0
0
0

0

0
. Ainsi, la matrice
0
0
Exercice 1.3. Soit A et B deux matrices de Mn (K).
1. On suppose que AB est une matrice nilpotente. Prouver que BA l’est également.
2. On suppose que A et B sont nilpotentes et que AB = BA. Démontrer que A + B est également nilpotente.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 1. MATRICES
1.3.7
1.3. QUELQUES TYPES CLASSIQUES DE MATRICES
Inverse d’une matrice carrée
Définition 1.11. Une matrice carrée A ∈ Mn (K) est dite inversible s’il existe une matrice A0 ∈ Mn (K) telle que :
AA0 = A0 A = In
A0 est l’inverse de A et notée par A−1 .
Exemple 1.7. A =
1
1
!
2
est inversible et son inverse est : A−1 =
3
3
−1
!
−2
1
Proposition 1.4. Une matrice diagonale Diag(λ1 , ..., λn ) est inversible si et seulement si le produit de ses termes
−1
diagonaux est différent de 0. L’inverse en est alors la matrice diagonale Diag(λ−1
1 , ..., λn )
1.3.8
Trace d’une matrice
Soit A est une matrice carrée de Mn (K).
La somme de ses éléments diagonaux (ai,i )1≤i≤n est appelée trace de A :
tr A =
n
X
ai,i
i=1
— si A et B sont deux matrices de Mn (K) et λ et µ, deux scalaires quelconques :
tr(λA + µB) = λ tr A + µ tr B
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 2
ETUDE D’UN SYSTÈME D’ÉQUATIONS
LINÉAIRES PAR LA MÉTHODE DU PIVOT
OU MÉTHODE D’ÉLIMINATION DE
GAUSS
2.1
Système d’équations linéaires
On appelle système d’équations linéaires un système du type :


a11 x1 + a12 x2 ..... + a1p x p





 a21 x1 + a22 x2 ..... + a2p x p



.................................



 an1 x1 + an2 x2 ..... + anp x p
=
=
=
=
b1
b2
....
bn
(2.1)
Les ai j et les bi sont des éléments de K, donnés. Les xi sont dites "inconnues" et résoudre le système signifie déterminer
les xi ∈ K, s’ils existent, ils vérifient toutes les équations.
Le système linéaire (2.1) s’écrit sous la forme d’une équation matricielle (équivalente au système) AX = b

a11
 ..
 .

A =  ai1
 .
 ..

an1
...
..
.
...
a1 j
..
.
...
ai j
..
.
...
an j
...
..
.
...

 
 
a1p 
 x1 
b1 

 . 
 . 
.. 
 .. 
 .. 
. 


 

 
aip , X =  xi  et b =  bi .

 
 . 
.. 
 .. 
 .. 
. 
 . 
 
anp
xp
bn
On définit la matrice augmentée du système (2.1) par :

a11
 .
 ..

(A|B) =  ai1
 .
 ..

an1
...
..
.
...
a1 j
..
.
...
a1p
..
.
ai j
..
.
aip
..
.
...
an j
...
..
.
...
Le système (2.1) est homogène si b1 = b2 = .......bn = 0.
12
anp

b1 
.. 
. 

bi 

.. 
. 
bn
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
2.2. MATRICE ÉCHELONNÉE EN LIGNES
Exemple 2.1. Soit le système :

2x1 + x2 − 2x3 + 3x4 = 1





3 x1 + 2x2 − x3 + 2x4 = 4




 3 x + 3x + 3x − 3x = 5
1
2
3
4
L1
L2
(2.2)
L3
La matrice augmentée du système (2.2) :

 2

 3

3
1
2
3
−2
−1
3
3
2
−3

1 L1

4 L2

5 L3
La première équation du système (2.1) commence par un coefficient non nul, ce qu’on peut toujours faire en changeant
éventuellement l’ordre des équations (première opération élémentaire). Ce coefficient non nul est dit pivot. (Dans
système (2.2), le pivot est 2).
La méthode du pivot est fondée sur la remarque suivante :
Propriété 2.1. L’ensemble des solutions d’un système linéaire ne change pas si l’on effectue sur les équations les «
opérations élémentaires» suivantes :
1. Changer l’ordre des équations ;
2. Multiplier une équation (premier et second membre ) par un scalaire non nul ;
3. Ajouter à une équation une combinaison linéaire des autres équations.
Exemple 2.2. Pour le système (2.2), la matrice augmentée est :

 2

 3

3
1
2
3
−2
−1
3
3
2
−3

1 L1

4 L2

5 L3
On effectue des opérations élémentaires de manière à faire disparaître les deux coefficients encadrés. L’ensemble des
solutions n’a pas changé.


2 1 −2
3
1 L1 ← L1


−5 5 L2 ← 2L2 − 3L1
0 1 4

0 3 12 −15 7 L3 ← 2L3 − 3L1
On répète maintenant l’opération sur les deux dernières équations :

2

0
0
1
1
0
−2
4
0
3
−5
0

1  L1 ← L1

5  L2 ← L2

−8 L3 ← L3 − 3L2
On voit immédiatement que le système n’admet pas de solution.
2.2
Matrice échelonnée en lignes
On dit qu’une matrice est échelonnée si les lignes commencent par un nombre de zéros strictement croissant à
mesure que l’indice augmente (c’est-à-dire, par exemple, la ligne L3 commence par un nombre de zéros strictement plus
grand que la ligne L2 et celle-ci par un nombre de zéros strictement plus grand que la ligne L1 ).
√


1
2 4 


Exemple 2.3. La matrice 0 2
4  est une matrice échelonnée.


0 0 −1
√


1
2 4 


Alors que la matrice 0 0
4  n’est pas échelonnée.


0 0 −1
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
2.3. RÉSOLUTION D’UN SYSTÈME LINÉAIRE

1 −3

Exemple 2.4. La matrice A = 2 −5

3 −8

1

0
0
6
−2
−1
−3
1
1

1 3

Pour la matrice B = 1 4

0 1

1

0
0
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES

6 2

10 3 se réduit en sa forme échelonnée en lignes par les pivotages

17 4

2  L1 ← L1

−1 L2 ← L2 − 2L1

−2 L3 ← L3 − 3L1

1

0
0
⇔
−3
1
0
6
−2
1

2  L1 ← L1

−1 L2 ← L2

−1 L3 ← L3 − L2

2 

1 , on a :

−1
3
1
1

2  L1 ← L1

−1 L2 ← L2 − L1

−1 L3 ← L3

1

⇔ 0

0
3
1
0

2  L1 ← L1

−1 L2 ← L2

0 L3 ← L3 − L2
Définition 2.1. Un système d’équation matricielle AX = b avec A ∈ Mn,p (K), X ∈ M p,1 (K) et b ∈ Mn,1 (K) est dit
rectangulaire. En particulier, il est dit :
— échelonné si la matrice A est échelonnée,
— carré si la matrice A est carrée,
— triangulaire si la matrice A est triangulaire,
— diagonal si la matrice A est diagonale.
2.3
Résolution d’un système linéaire
— Il faut tout d’abord préparer le système en échangeant éventuellement l’ordre des équations et des variables de
manière à ce que le pivot soit non nul ;
— On échelonne ensuite le système. Deux cas peuvent se donner :
(a) Il existe une équation du type :
0x1 + 0x2 + .................0x p = b;
b,0
(2.3)
Dans ce cas, il n’y a pas de solution : on dit que le système est incompatible.
(b) Il n’y a pas d’équation du type (2.3) : S’il existe une équation du type :
0x1 + 0x2 + .................0x p = 0
elle peut être écartée, on aboutit à un système du type :










a11
0
0
0
0
a12
a1s
air
a1p
aip
ans
anp

b1 




bi 



bn
où les coefficients encadrés (ceux qui sont au début de chaque équation) sont tous non nuls.
Les inconnues qui apparaissent au début de chaque équation (celles correspondantes aux coefficients encadrés) sont
dites inconnues principales, les autres (s’il y en a) variables libres.
Deux cas sont possibles :
A-Il n’y a pas de variable libre : Alors le système admet une et une seule solution que l’on obtient en résolvant
d’abord la dernière équation et en remontant jusqu’à la première.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES 2.4. CAS DES SYSTÈMES LINÉAIRES HOMOGÈNES

x + 2y − 3z = 4







 x + 3y + z = 11
.
Exemple 2.5. Résoudre le système : 


2x + 5y − 4z = 13





4x + 11y
= 37


1
2
−3
4  L1


1 3
1 11 L2


La matrice augmentée :
2 5 −4 13 L3
4 11 0 37 L4

1
0

0

0
2
1
1
3
−3
4
2
12

4 

7 

5 
21

1 2 −3
0 1 4

⇒ 0 0 −2


0 0 0
L1
L2 ← L2 − L1
L3 ← L3 − 2L1
L4 ← L4 − 4L1

4 

7 

−2


0
L1
L2
L3 ← L3 − L2
L4 ← L4 − 3L2
Il n’y a pas de variable libre, donc le système admet une solution unique x = 1, y = 3, z = 1.
B-Il y a des variables libres : On donne alors aux variables libres des valeurs arbitraires λ1 ,..., λm , on porte les λi au
second membre et l’on est ramené au cas précédent, il existe alors une et une seule solution pour chaque choix de λ1 ,...,
λm , c’est-à-dire, une infinité de solutions dépendante de m paramètres (m = nombre des variables libres).

t − 3x + 4y − 2z = 5





t − x + 9y − z = 7
Exemple 2.6. Résoudre le système 



t − 2x + 7y − 2z = 9


1 −3 4 −2 5 L1
1 −1 9 −1 7 L2
La matrice augmentée :


1 −2 7 −2 9 L3

1

0
0
−3
2
1
4
5
3
−2
1
0

5 L1 ← L1

2 L2 ← L2 − L1

4 L3 ← L3 − L1

1

⇒ 0

0
−3
2
0
4
5
1
−2
1
−1

5 L1 ← L1

2 L2 ← L2

6 L3 ← 2L3 − L2
t, x et y sont les inconnues principales et z le variable libre. En donnant à z une valeur arbitraire λ :
Donc, z = λ, y = λ + 6, x = −3λ − 14, t = −11λ − 61 Ainsi, le système admet une infinité de solutions à 1 paramètre :
(−11λ − 61, −14 − 3λ, 6 + λ, λ) = λ(−11, −3, 1, 1) + (−61, −14, 6, 0)
.
2.4
Cas des systèmes linéaires homogènes
On appelle système linéaire homogène un système d’équations linéaires dont le second membre est nul :


a11 x1 + a12 x2 ..... + a1p x p = 0





 a21 x1 + a22 x2 ..... + a2p x p = 0



................................. = 0



 an1 x1 + an2 x2 ..... + anp x p = 0
La matrice augmentée du système (2.4) :

a11
 ..
 .

(A|B) =  ai1
 .
 ..

an1
...
..
.
...
a1 j
..
.
...
a1p
..
.
ai j
..
.
aip
..
.
...
an j
...
..
.
...
anp

0
.. 
. 

0

.. 
. 
0
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
(2.4)
2.5. UTILISATION PRATIQUE
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
Théorème 2.1. L’ensemble des solutions d’un système linéaire homogène à n inconnues est un sous-espace vectoriel
de Kn . Si le système sous forme échelonnée comporte k équations, l’espace des solutions est de dimension n − k. En
particulier un système homogène avec plus d’inconnues que d’équations (n > k) admet des solutions non nulles.
REMARQUE. La dimension de l’espace des solutions est égale au nombre de variables libres qui apparaissent dans la
forme échelonnée.
Exemple 2.7.

x1 + 2x2 − 3x3 + x4 − x5 = 0





x1 + 3x2 − 4x3
+ x5 = 0




2x + 5x − 7x
+ x5 = 0
1
2
3
On ramène facilement le système à la forme échelonnée :
(
x1 + 2x2 − 3x3 + x4 − x5 = 0

1

(A|B) = 0

0
2
1
0
x2 − x3 − x4 + 2x5 = 0

−3 1 −1 0

−1 −1 2 0

0
0
0 0
Les variables libres sont x3 , x4 et x5 , l’ensemble des solutions est donc un sous-espace vectoriel de dimension 3 de R5 .
La solution générale est :
c’est-à-dire :
x1 = λ − 3µ, x2 = λ + µ − 2ν, x3 = λ, x4 = µ, x5 = ν
S = (λ − 3µ, λ + µ − 2ν, λ, µ, ν) = λ(1, 1, 1, 0, 0) + µ(−3, 1, 0, 1, 0) + ν(0, −2, 0, 0, 1)
Donc une base de l’espace des solutions est :
Vect{(1, 1, 1, 0, 0), (−3, 1, 0, 1, 0), (0, −2, 0, 0, 1)}
2.5
Utilisation pratique
La méthode du pivot fournit une technique qui permet de s’affranchir de l’étude du système et de travailler directement
sur les familles de vecteurs.
Théorème 2.2. (Opérations élémentaires sur une famille de vecteurs) Soit (υ1 , ......, υ p ) une famille de vecteurs.
L’espace qu’ils engendrent ne change pas si l’on effectue sur les vecteurs de la famille l’une des "opérations élémentaires"
suivantes :
a) changer l’ordre des vecteurs ;
b) multiplier un vecteur par un scalaire non nul ;
c) ajouter à un vecteur une combinaison linéaire des autres vecteurs.
Définition 2.2. Soit (υ1 , ......, υ p ) une famille de vecteurs de E. On appelle matrice engendrée par les vecteurs υi dans
la base {ei } (ou plus simplement : matrice des vecteurs υi ) la matrice dont les lignes sont les composantes des vecteurs
υ1 , ......υ p dans la base ei
Exemple 2.8. La matrice engendrée par les vecteurs υ1 = (1, 1, 1, 0, 0), υ2 = (−3, 1, 0, 1, 0), υ3 = (5, −2, 0, 0, 1) dans la
base canonique de R5


 1
1 1 0 0 υ1
−3 1 0 1 0 υ2


5 −2 0 0 1 υ3
Corollaire 2.1. Les vecteurs lignes d’une matrice et les vecteurs lignes de sa réduite échelonnée engendrent le même
espace vectoriel.
Le résultat suivant donne la clé de la méthode :
Théorème 2.3. Soit (υ1 , ......, υ p ) une famille de vecteurs, A la matrice engendrée (dans une base quelconque) et A0
une réduite échelonnée de A. Alors les lignes non nulles de A0 donnent une base de Vect(υ1 , ......, υ p )
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
2.6
2.6. APPLICATIONS
Applications
A- Extraire une base d’une famille génératrice et déterminer les relations liant les vecteurs.
Exercice 2.1. υ1 = (1, 1, 0, −1), υ2 = (−1, 1, 1, 0), υ2 = (0, 2, 1, −1) trois vecteurs.
1. Déterminer une base du sous-espace de R4 engendré par ces vecteurs.
2. Déduire le rang de la matrice engendrée par les vecteurs ligne υ1 , υ2 et υ3
3. Trouver une relation entre υ1 , υ2 et υ3
Solution de l’exercice 2.1. Voir TD
B- Compléter une famille libre en une base. Détermination d’un supplémentaire.
Exercice 2.2. Soient les vecteurs υ1 = (1, 2, −1, 0, 1), υ2 = (2, 1, 1, 1, 1), υ3 = (3, 2, 0, 1, 2)
1. Montrer que (υ1 , υ2 , υ3 ) forment une famille libre de R5 ;
2. Déterminer deux vecteurs w1 , w2 de R5 de manière à ce que {υ1 , υ2 , υ3 , w1 , w2 } soit une base de R5 .
Solution de l’exercice 2.2. Voir TD
2.6.1
Le rang d’une matrice
Soit A une matrice de type (m, n) quelconque sur un corps K. Rappelons que l’espace ligne de A est le sous-espace
de Kn engendré par les lignes de A, et l’espace colonne de A est le sous-espace de Km engendré par ses colonnes. Les
dimensions de l’espace ligne et de l’espace colonne de A sont appelées, respectivement, le rang ligne et le rang colonne
de la matrice A.
Théorème 2.4. Le rang ligne et le rang colonne d’une matrice A sont égaux.
Définition 2.3. Le rang de la matrice A, que l’on écrit rg(A), est la valeur commune du rang ligne et du rang colonne de
A.
Définition 2.4. Le rang d’une matrice A est :
(a) Le nombre de lignes non nulles dans sa forme échelonnée en lignes ;
(b) Le plus grand entier r tel qu’il existe une matrice carrée d’ordre r extraite de A, inversible.
REMARQUE.
- Le rang d’un système linéaire est le rang de sa matrice des coefficients A
- rg(A) = rg( t A)
Exemple 2.9. Soit

1

A = 2

3
2
1
2
−1
1
0
0
1
1

1

1

2
2
−3
0
−1
3
−3
0
1
−1
La forme échelonnée de A est

1

A0 = 0

0

1 

−1

1
Le nombre de lignes non nulles dans A0 est 3, donc rg(A) = 3
Exemple 2.10. Calculons le rang de la matrice A

1

A = 1

1
1
2
−1
1
0
3

2

1

4
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
2.6. APPLICATIONS
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
La forme échelonné de A (en lignes)

1

A0 = 0

0
1
1
0
1
−1
0

2 

−1

0
d’où rg(A) = 2.
La forme échelonné de A (en colonnes)

1

A0 = 1

1
0
1
−2
0
0
0

0

0

0
le nombre de colonnes non nuls est 2. Donc rg(A) = 2
2.6.2
Calcul de l’inverse d’une matrice par la méthode du pivot
Proposition 2.5. Soit A ∈ Mn (K). Supposons qu’en faisant une suite d’opérations élémentaires sur les lignes de la
matrice A, on parvienne à la transformer en la matrice identité In . Alors la matrice A est inversible et en faisant la même
suite d’opérations élémentaires sur la matrice In on obtient à la fin la matrice A−1
Exemple 2.11. Soit

 1

A =  1

−2
On forme le tableau contenant A dans la partie gauche et I3

 1
1 1 1

3 5 0
(A|I3 ) =  1

−2 −2 1 0
1
3
−2

1

5

1
dans la partie droite :

0 0 L1

1 0 L2

0 1 L3
Puis on fait des opérations élémentaires sur les lignes de manière à mettre la partie gauche sous forme échelonné réduite :




1 1 1 1 0 0 L1 ← L1
1 1 1
1
0 0 L1 ← L1




⇒ 0 1 2 −1/2 1/2 0 L2 ← 1/2L2
0 2 4 −1 1 0 L2 ← L2 − L1


0 0 1 2 0 1 L3 ← L3 + 2L1
0 0 1
2
0 1 L3 ← L3

1

0
0
1
1
0
0
1
1
−1
0
−9/2 1/2
2
0

−1 L1 ← L1 − L3

−2 L2 ← L2 − 2L3

1 L3 ← L3

1

⇒ 0

0
Donc la matrice A est inversible et son inverse est :

 7/2 −1/2

A−1 = −9/2 1/2

2
0
0
1
0
0
0
1
7/2
−9/2
2
−1/2
1/2
0

1  L1 ← L1 − L2

−2 L2

1 L3

1 

−2

1
Proposition 2.6. soit A ∈ Mn (K), A est inversible si et seulement si rgA = n.
Exemple 2.12. On prend la matrice de l’exemple 2.11

 1

A =  1

−2
La forme échelonné de A

1

0
0
1
2
0
1
3
−2

1

5

1

1

4

1
rgA = 3, donc A est inversible
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 2. SYSTÈME D’ÉQUATIONS LINÉAIRES
2.6. APPLICATIONS
REMARQUE. Soient A une matrice d’ordre n inversible et A−1 son inverse. La propriété d’inversibilité d’une matrice
carrée A = (ai j )1≤i, j≤n d’ordre n équivaut à l’existence de n2 scalaires a0i j , 1 ≤ i, j ≤ n (ce sont les coefficients de la
matrice inverse de A vérifiant :


  0

0
0 
a11 . . . a1 j . . . a1n  a11 . . . a1 j . . . a1n  1 . . . 0 . . . 0
 .
..
..   .. . .
..
..   ..
.
.. 
..
..
 ..
.
.
. ..
.
.   .
.
.   .
. 

 ai1 . . . ai j . . . ain   a0i1 . . . a0i j . . . a0in  = 0 . . . 1 . . . 0
 
 


..
..   ..
.. . .
.. 
..
..   ..
..
 ..
..




.
. . 
.
.
.   .
.
 .
.
.   .



0
0
0
an1 . . . an j . . . ann an1 . . . an j . . . ann
0 ... 0 ... 1
d’après les règles de calcul sur les matrices
∀(i, j) ∈ {1, 2, .., n} × {1, 2, ..., n}
(
δi j =
1
0
n
X
aik a0k j = δi j
(2.5)
k=1
si i = j
si i , j
Le calcul de A−1 peut donc être mené en résolvant successivement, pour j variant de 1 à n,

a11
 .
 ..

 ai1

 ..
 .
an1
...
..
.
...
a1 j
..
.
...
ai j
..
.
...
an j
...
..
.
...

a1n 
.. 
. 

ain 

.. 
. 
ann
 0   
a1 j  0
 .   . 
 ..   .. 
 0   
 ai j  = 1 ← j-ième ligne
   
 ..   .. 
 .   . 
 0 
0
an j
dont les inconnues sont les n scalaires a01 j , a02 j , ..............a0n j (ce sont les coefficients de la j-ième matrice-colonne extraite
de A−1 .
Exercice 2.3. Soit la matrice :

0

1
0
Montrer que A est inversible et calculer A−1

1
0 

−1 −2

−1 −2
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3
APPLICATIONS LINÉAIRES
3.1
Application
Soient A et B deux ensembles quelconques. Supposons qu’à chaque a ∈ A on associe un élément unique de B ;
l’ensemble de ces correspondances est appelé une application de A dans B et on l’écrit
f :
A
−→
B
Soit a ∈ A, on écrit f (a) l’image de a par f .
(a) Si A0 est un sous-ensemble quelconque de A, alors f (A0 ) est l’ensemble des images des éléments de A0 :
f (A0 ) = { f (a); a ∈ A0 }
(b) Si B0 est un sous-ensemble de B, alors f −1 (B0 ) est l’ensemble des éléments de A dont les images appartiennent à
B0 :
f −1 (B0 ) = {a ∈ A; f (a) ∈ B0 }
Exemple 3.1. Soient A = {a, b, c, d} et B = {x, y, z, w}. Le diagramme suivant définit une application f de A dans B :
f (a) = y, f (b) = x, f (c) = z, f (d) = y
f ({a, b, c, d}) = { f (a), f (b), f (c), f (d)} = {x, y, z}
L’image de f est l’ensemble {x, y, z} : f (A) = {x, y, z}
!
1 −3 5
Exemple 3.2. Soit la matrice A =
2 4 −1
A détermine l’application
f : R3
v
.
−→
7−→
20
R2
Av
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.2. APPLICATIONS LINÉAIRES
 
 x
 
Donc si v = y, alors :
 
z
x − 3y + 5z
f (v) = Av =
2x + 4y − z
.
!
Définition 3.1. (Applications injectives) Rappelons qu’une application entre deux ensembles f : A −→ B est dite
injective si, pour tous x et x0 de A distincts, on a f (x) , f (x0 ). On sait que, pour les démonstrations, il est souvent plus
pratique de montrer que, pour tout x et x0 de A, si f (x) = f (x0 ), alors x = x0 .
Définition 3.2. (Applications surjective) Une application f : A −→ B est dite surjective si chaque b ∈ B est l’image
d’au moins un a ∈ A (∀b ∈ B, ∃a ∈ A, f (a) = b)
Une application qui est à la fois injective et surjective est dite bijective.
Exercice 3.1. Soient les applications f : A −→ B ; g : B −→ C et h : C −→ D définies par le diagramme
Déterminer si chacune de ces applications est :
1. injective,
2. surjective,
3. a un inverse.
3.2
Applications linéaires
Définition 3.3. Soient E et F deux espaces vectoriels sur le même corps K et f une application de E dans F. On dit que
f est linéaire, si :
f (v + w) = f (v) + f (w), ∀ v, w ∈ E
f (λv) = λ f (v), ∀v ∈ E, ∀λ ∈ K.
L’ensemble des applications linéaires de E dans F est noté L(E, F)
Exemple 3.3. L’application f définie dans l’exemple 3.2 est linéaire.
si v, w ∈ R3 et λ ∈ K , alors
f (v + w) = A(v + w) = Av + Aw
f (λv) = A(λv) = λA(v) = λ f (v)
Exemple 3.4.
f :
R3
(x1 , x2 , x3 )
est une application linéaire.
En effet, si u = (x1 , x2 , x3 ) et v = (y1 , y2 , y3 ), on a :
−→
7−→
R2
(2x1 + x2 , x2 − x3 )
f (u + v) = f (x1 + y1 , x2 + y2 , x3 + y3 )
= ((2x1 + x2 ) + (2y1 + y2 ), (x2 − x3 ) + (y2 − y3 )) = f (u) + f (v)
f (λv) = f (λx1 , λx2 , λx3 ) = f (λ(2x1 + x3 , x2 − x3 )) = λ f ((2x1 + x3 , x2 − x3 )) = λ f (v)
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
(3.1)
3.2. APPLICATIONS LINÉAIRES
CHAPITRE 3. APPLICATIONS LINÉAIRES
REMARQUE. Soit f : E −→ F une application linéaire, on a
f (0) = f (0 − 0) = f (0) − f (0) = 0.
Pour tous u, v ∈ E et tous λ, µ ∈ K on a
f (λu + µv) = λ f (u) + µ f (v)
Par récurrence sur n, on en déduit que pour tout n ∈ N, pour tous vecteurs v1 , ..., vn ∈ E et et pour tous scalaires
λ1 , λ2 , .........., λn ∈ K
 n

n
X
 X
f  λi vi  =
λi f (vi )
i=1
i=1
Définition 3.4. (Somme d’applications linéaires) Soient f : E −→ F et g : E −→ F deux applications linéaires. On
définit leur somme f + g : E −→ F en posant : ( f + g)(u) = f (u) + g(u)
Proposition 3.1. La somme de deux applications linéaires est linéaire.
Démonstration. En effet, ( f + g)(u + v) = f (u + v) + g(u + v) = f (u) + f (v) + g(u) + g(v) = ( f + g)(u) + ( f + g)(v) De
même, ( f + g)(λu) = λ( f + g)(u).
cqfd
Exemple 3.5. Soient A, B ∈ M2,3 (R), f et g deux applications linéaires :
f : R3
v
−→
7−→
R2
Av
R3
v
−→
7−→
R2
Bv
g:
Soient u, v ∈ R3 . On pose h = f + g.
h(u + v) = (A + B)(u + v) = (A + B)u + (A + B)v = h(u) + h(v)
h(kv) = (A + B)(kv) = k(A + B)v = kh(v)
Proposition 3.2. (Composée d’applications linéaires) La composée de deux applications linéaires est linéaire.
Démonstration. Soient f : E −→ F et g : F −→ G. deux applications linéaires. Pour tout u et tout v de E, pour tout λ
de R, on a :
1. go f (u + v) = g( f (u + v)) = g( f (u) + f (v)) = g( f (u)) + g( f (v)) = go f (u) + go f (v),
2. go f (λu) = g( f (λu)) = g(λ f (u)) = λg( f (u)) = λgo f (u).
cqfd
Définition 3.5 (Endomorphisme). On appelle endomorphisme de E, une application linéaire de E dans E (même
espace de départ et d’arrivée). L’ensemble des endomorphismes de E est noté L(E)
On appelle isomorphisme de E sur F une application linéaire bijective de E dans F.
Exemple 3.6.
idE :
E
x
−→
7−→
E
x
est un endomorphisme de E dit identité sur E.
Exemple 3.7.
f :
R2 −→
(x1 , x2 ) 7−→
R2
(2x1 + x2 , x2 )
est un endomorphisme
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.3
3.3.1
3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE
Noyau et image d’une application linéaire
Image d’une application linéaire
Définition 3.6. (Image d’une application linéaire) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire. On appelle image de f et on note Im f ou f (E).
Im f = f (E) ={v ∈ F tels qu’il existe u ∈ E tel que f (u) = v}
Proposition 3.3. (Image d’espace engendré) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire.
1) Soit (u1 , ..., u p ) une famille de vecteurs de E. Alors :
f (vect(u1 , ..., u p )) = vect( f (u1 ), ..., f (u p )).
2) Soit (u1 , ..., u p ) une famille génératrice de vecteurs de E, par exemple une base de E. Alors
Im f = Vect( f (u1 ), ..., f (u p ))
Démonstration. 1) si v ∈ f (vect(u1 , ..., u p )).
v est de la forme :
Donc
v = f (λ1 u1 + ....... + λ p u p )
v = λ1 f (u1 ) + λ2 f (u2 ) + ..............λ p f (u p )
ce qui montre que
Réciproquement, si
v est de la forme
v ∈ vect( f (u1 ), f (u2 ), .............., f (u p ))
v ∈ Vect( f (u1 ), ..., f (u p )),
v = λ1 f (u1 ) + λ2 f (u2 ) + ..............λ p f (u p ),
d’où
v = f (λ1 u1 + ....... + λ p u p ).
Donc
2) est une conséquence de 1).
v ∈ f (vect(u1 , ..., u p ))
cqfd
Proposition 3.4. Soit f : E −→ F une application linéaire et F un sous-espace vectoriel de E. L’image par f d’un
sous-espace vectoriel G de E est un sous-espace vectoriel de F noté f (G). En particulier, = f = f (E) est un sous-espace
vectoriel de F.
Démonstration. Soient v et v0 dans f (G) et λ, µ deux réels. Il existe deux éléments u et u0 de G, tels que f (u) = ν et
f (u0 ) = v0 . Il faut montrer que λv + µv0 est dans f (G), ce qui résulte de :
λv + µv0 = λ f (u) + µ f (u0 ) = f (λu + µu0 ).
cqfd
Proposition 3.5. Soit f : E −→ F une application linéaire injective. L’image d’une famille libre de E est une famille
libre de F.
Démonstration. Il s’agit de montrer que la famille ( f (u1 ), f (u2 ), ..... f (u p )) est libre.
Supposons que
λ1 f (u1 ) + λ2 f (u2 ) + ..... + λ f (u p ) = 0
. L’application f étant linéaire, on a :
. Comme le ker f = {0}, on a
f (λ1 u1 + λ2 u2 + ..... + λ p u p ) = 0
λ1 u1 + λ2 u2 + ..... + λ p u p = 0,
la famille (u1 , u2 , .....u p ) étant libre, ainsi, λ1 = λ2 = .......λ p = 0.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
cqfd
3.3. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE
CHAPITRE 3. APPLICATIONS LINÉAIRES
Exercice 3.2. Reprenons l’application de l’exemple 3.8
f :
R4 −→
(x1 , x2 , x3 , x4 ) 7−→
R3
(x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 )
Trouver une base et la dimension de = f .
Soit (e1 , e2 , e3 ) la base canonique de R4
On a :
Im( f ) = Vect( f (e1 ), f (e2 ), f (e3 ), f (e4 ))
avec
f (e1 ) = (1, 1, 1), f (e2 ) = (−1, 0, 1), f (e3 ) = (1, 2, 3), f (e4 ) = (1, −1, −3)
La matrice ligne engendrée de = f .

 1
−1
A = 
 1
1
1
0
2
−1

1 

1 

3 
−3
f (e1 )
f (e2 )
f (e3 )
f (e4 )
réduisons cette matrice par des opérations élémentaires sur les lignes à sa forme échelonnée :


1 1 1 υ1
0 1 2 υ
 2
A0 = 
0 0 0
0 0 0
Ainsi, (υ1 , υ2 ) est une base de Im f , avec υ1 = (1, 1, 1) et υ2 = (0, 1, 2)
3.3.2
Noyau d’une application linéaire
Définition 3.7. (Noyau d’une application linéaire) Soient E et F deux espaces vectoriels et f : E −→ F une application
linéaire. On appelle noyau de f et on le note ker f , l’ensemble des vecteurs de E dont l’image est le vecteur nul de F,
autrement dit : ker f = {u ∈ E/ f (u) = 0}
Proposition 3.6. Le noyau d’une application linéaire f : E −→ F est un sous-espace vectoriel de E.
Démonstration. Soient u et u0 dans le noyau de f et λ, µ deux réels. Il faut montrer que λu + µu0 est dans ker( f ), ce qui
résulte de :
f (λu + µu0 ) = λ f (u) + µ f (u0 ) = 0 + 0 = 0.
cqfd
Exemple 3.8. Soit f une application linéaire définie par
f :
R4 −→
(x1 , x2 , x3 , x4 ) 7−→
R3
(x1 − x2 + x3 + x4 , x1 + 2x3 − x4 , x1 + x2 + 3x3 − 3x4 )
Trouver une base et la dimension de ker f .
Cherchons l’ensemble des (x1 , x2 , x3 , x4 ) tel que f (x1 , x2 , x3 , x4 ) = (0, 0, 0).
Le système homogène suivant dont l’espace solution est le noyau de f (ker f ) :

x1 − x2 + x3 + x4 = 0





x1
+ 2x3 − x4 = 0




 x + x + 3x − 3x = 0
1
2
3
4
on obtient le système échelonné :
(
x1 − x2 + x3 + x4 = 0
x2 + x3 − 2x4 = 0
Les inconnues libres sont x3 et x4 ; donc dim(ker f = 2.
Pour x3 = −1, x4 = 0 on obtient la solution υ1 = (2, 1, −1, 0)
Pour x3 = 0, x4 = 1 on obtient la solution υ2 = (1, 2, 0, 1)
Ainsi, (υ1 , υ2 ) est une base de ker f
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.4. RANG D’UNE APPLICATION LINÉAIRE
Proposition 3.7. (Critère d’injectivité) Soient f : E −→ F une application linéaire. L’application linéaire f est injective
si et seulement si ker f = {0}.
Démonstration. Supposons f injective. On sait que f (0) = 0 ; aucun autre élément de E ne peut avoir pour image 0,
donc ker( f ) = 0. Réciproquement, si u et u sont deux vecteurs ayant la même image : f (u) = f (u0 ), on a : f (u − u0 ) = 0,
donc u − u0 ∈ ker f = {0}, donc u = u0 .
cqfd
Exemple 3.9. Soit f une application linéaire définie par
f :
R3 −→
(x1 , x2 , x3 ) 7−→
R3
(x1 , x1 − x2 − 2x3 , −x2 − 2x3 )
Déterminer ker f
Le système homogène suivant dont l’espace solution est le noyau de f

x1
=0





x1 − x2 − 2x3 = 0




 − x − 2x = 0
2
3
Le système échelonné :

x1 − x2





x2





zéro inconnue libre, donc ker f = {0}
3.4
− 23 = 0
=0
− 2x3
=0
Rang d’une application linéaire
Le rang d’une application linéaire f est par définition la dimension de Im f . On le notera rg f .
Exemple 3.10. Considérons la projection
p:
R5 −→
(x, y, z, s, t) 7−→
R5
(x, 0, z, 0, t)
La famille (e1 , e3 , e5 ) est de rang 3 et engendre Im f , donc rg( f ) = 3.
Théorème 3.8. (Théorème du rang :) Soient E, F deux espaces vectoriels de dimension finie, et f : E −→ F une
application linéaire. Alors ker f et Im f sont des espaces vectoriels de dimension finie et :
dim E = dim ker f + rg f .
Démonstration. Comme ker f est un sous-espace vectoriel de l’espace de dimension finie E, il est de dimension finie.
Posons dim E = n et soit (u1 , ..., ur ) une base de ker f . On peut compléter cette base en une base (u1 , .ur ..un ) de E.
Montrons que β = ( f (ur+1 ), ..., f (un )) est une base de Im f .
On sait que β est une famille génératrice de Im f . β est aussi une famille libre de Im f , car si :
λr+1 f (ur+1 ) + ............ + λn f (un ) = 0.
On a :
f (λr+1 ur+1 + ............ + λn un ) = 0,
donc :
Ce vecteur étant dans ker f , donc
λr+1 ur+1 + ............ + λn un ∈ ker( f ),
λr+1 ur+1 + ............ + λn un = λ1 u1 + ............ + λr ur ,
Donc :
λ1 u1 + ............ + λr ur − λr+1 ur+1 − ............ − λn un = 0.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE
CHAPITRE 3. APPLICATIONS LINÉAIRES
Tous les coefficients de cette égalité sont nuls car (u1 , ..., ur , ..., un) est une base de E, donc β est une famille libre de
Im( f ). Par conséquent, B est une base de Im f . Comme elle a n − r éléments et que dim ker f = r. On conclut que
dim E = dim ker f + rg f.
cqfd
Exemple 3.11. Soit l’application linéaire
f :
R4 −→
(x1 , x2 , x3 , x4 ) 7−→
R3
(x1 − x2 + x3 , 2x1 + 2x2 + 6x3 + 4x4 , −x1 − 2x3 − x4 )

x1 − x2 + x3
=0





2x1 + 2x2 + 6x3 + 4x4 = 0
(x1 , x2 , x3 , x4 ) ∈ ker( f ) ⇔ f ((x1 , x2 , x3 , x4 )) = (0, 0, 0) ⇔ 



−x
− 2x3 − x4 = 0
1
(
x1 − x2 + x3
=0
⇔
x2 + x3 + x4 = 0
Deux inconnues libres (x3 et x4 ) et deux inconnues principales (x1 et x2 ), donc
dim ker f = 2, dim Im f = 2 et dim R4 = dim Im f + dim ker f = 2 + 2 = 4
Propriété 3.1. Soit f ∈ L(E, E 0 ), E, E 0 étant deux espaces vectoriels de même dimension finie (en particulier, par
exemple, si f ∈ L(E), avec E de dimension finie). Alors les propriétés suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
3.5
Matrices associées à une application linéaire
Soient E et E 0 deux espaces vectoriels sur K de dimension n et p respectivement, et f : E −→ E 0 une application
linéaire. Soient {e1 , ..., en } une base de E et {e0i , ..., e0p } une base de E 0 . Les images par f des vecteurs e1 ,..., en se
décomposent sur la base {e01 , ..., e0p } :
f (e1 ) = a11 e01 + a21 e02 + ................a p1 e0p
f (e2 ) = a12 e01 + a22 e02 + ................a p2 e0p
...... = .....................................................
f (en ) = a1n e01 + a2n e02 + ................a pn e0p
0
Définition 3.8. (Matrice d’une application linéaire) On appelle matrice de f dans les bases β = {e1 , ..., en } et β =
{e0i , ..., e0p } la matrice notée M( f )β,β0 appartenant à M p,n (K) dont les colonnes sont les composantes des vecteurs f (e1 ),...,
0
f (en ) dans la base β = {e0i , ..., e0p } :
MB,B0 ( f ) =




f (e1 )
a11
..
.
...
...
..
.
a p1
...
f (en )
a1n  e01
..  ..
.  .
a pn
e0p
Exemple 3.12. Soit {1 , 2 } la base canonique de R2 et B = {e1 , e2 , e3 } la base canonique de R3 . On considère
l’application linéaire
f :
R3 −→ R2
(x, y, z) 7−→ (x − y, z − y)
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.5. MATRICES ASSOCIÉES À UNE APPLICATION LINÉAIRE
on a :
f (e1 ) = f (1, 0, 0) = (1, 0) = 1
f (e2 ) = f (0, 1, 0) = (−1, −1) = −1 − 2
f (e3 ) = f (0, 0, 1) = (0, 1) = 2
Donc :
MB,B0 ( f ) =
f (e1 )
1
0
f (e2 )
−1
−1
f (e3 )
0
1
1
2
Exemple 3.13. Soient E un espace vectoriel de dimension 2 muni de la base BE = (e1 , e2 ) et F un espace vectoriel de
dimension 3 muni de la base BF = ( f1 , f2 , f3 ).
Soit f l’application linéaire : f : E −→ F définie par :
f (e1 ) = 2 f1 + 3 f2 − f3 , f (e2 ) = f1 − f2 + 4 f3
MBE ,BF ( f ) =
f (e1 )
 2

 3

−1
f (e2 )
1  f1

−1  f2
4
f3
Soient
CE = (e2 , e1 ) et CF = ( f3 , f2 , f1 )
Rappelons que l’ordre des vecteurs a une importance dans la définition d’une famille. Ainsi,
MCE ,CF ( f ) =
f (e2 )
 4

 −1

1
f (e1 )
−1  f3

3  f2
2
f1
Exercice 3.3. Soit f un endomorphisme de R3 défini par :
f :
R3 −→
(x1 , x2 , x3 ) 7−→
R3
(2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 )
On considère dans R3 les deux bases B = (e1 , e2 , e3 ) et C = (u1 , u2 , u3 ) avec
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)
u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1)
Expliciter les matrices :
(a) MatB ( f )
(b) MatC ( f )
(c) MatB,C ( f )
(d) MatC,B ( f )
Proposition 3.9. Soit A une matrice rectangulaire. Si f est une application linéaire de E dans F, avec E un espace
vectoriel muni d’une base BE et F un espace vectoriel muni d’une base BF , telle que A = MatBE ,BF ( f ) alors :
rgA = rg f
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
3.6. MATRICE D’UNE COMPOSÉE
3.6
CHAPITRE 3. APPLICATIONS LINÉAIRES
Matrice d’une composée
Si f : E −→ F et g : F −→ G sont deux applications linéaires, où E, F, G sont trois espaces vectoriels de dimension
finie et de bases données, alors
Mgo f = Mg .M f
Exemple 3.14. Soient E un espace vectoriel de dimension 4 muni de la base BE = (e1 , e2 , e3 , e4 ), F un espace de
dimension 3 muni de la base BF = ( f1 , f2 , f3 ) et G un espace de dimension 2 muni de la base BG = (g1 , g2 ). On considère
l’application linéaire f de E dans F définie par

f (e1 ) = 2 f1 − 5 f2 + 7 f3







 f (e2 ) = f1 − 2 f2 + 3 f3



f (e3 ) = 2 f1 − 3 f2 − 4 f3





f (e4 ) = 6 f1 − 2 f2 − 3 f3
On considère l’application linéaire ψ de F dans G définie par

ψ( f1 ) = 2g1 − 3g2





ψ(
f
)
= 2g1 − 2g2

2



ψ( f )
= g1 + g2
3
Il convient donc de déterminer la matrice représentative de ψo f dans les bases BE et BG
MatBE ,BG (ψo f ) = MatBF ,BG (ψ) × MatBE ,BF ( f )
On déduit facilement des définitions de ψ et f

 2
1
2

MatBE ,BF ( f ) =  −5 −2 −3

7
3 −4
6
−2
−3



 ,
MatBF ,BG (ψ) =
2
3
2 1
−2 1
!
et on vérifie que l’on a :
2
3

!  2
2 1 
 −5
−2 1 
7

1
2
6 

−2 −3 −2  =

3 −4 −3
1
23
1 −6 5
10
8 19
!
Relativement aux bases BE et BG , z = (ψo f )(x) s’écrit ainsi :
z1
z2
!
=
1
23


!  x1 
1 −6 5  x2 


10
8 19  x3 
x4
On en déduit alors les équations de ψo f relativement à BE et BG :
(
z1 = x1 + x2 − 6x3 + 5x4
z2 = 23x1 + 10x2 + 8x3 + 19x4
Proposition 3.10. Soient E, F, G trois espaces vectoriels de dimensions finies, f et g deux applications linéaires.
f : E −→ F et g : F −→ G Alors
rggo f ≤ min(rg( f ), rg(g))
En particulier,
— Si f est surjective alors rg(go f ) = rg(g).
— Si g est injective alors rg(go f ) = rg( f ).
Exercice 3.4. Soient E un espace de dimension 3 et f un endomorphisme de E vérifiant
f 2 , 0 et f 3 = 0
où on a noté
f 2 = f o f et f 3 = f o f o f
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.7. CHANGEMENT DE BASES
1. Montrer les deux séries d’inclusion
(a) {0E } = Im f 3 ⊂ Im f 2 ⊂ Im f ⊂ E
2.
3.
(b) {0E } ⊂ ker f ⊂ ker f 2 ⊂ ker f 3 = E
(a) Montrer que Im f 2 ⊂ ker f
(b) Déduire que rg f 2 ≤ dim ker f 2 ).
(a) Justifier que 2 ≤ dim ker f 2 ≤ 3
(b) Le cas dim ker f 2 = 3 est-il possible ?
(c) Déduire dim ker f 2 ) puis rg f 2
4.
(a) Justifier que 1 ≤ rg f ≤ 3 .
(b) Montrer que Im f 2 , Im f
(c) Déduire que rg f , 1
(d) Le cas rg f = 3 est-il possible ?
(e) En déduire rg f et dim ker f ).
Solution de l’exercice 3.1. Voir TD
3.7
Changement de bases
Considérons dans un espace vectoriel E de dimension n deux bases distinctes
BE = (e1 , e2 , ..., en ) et C E = (u1 , u2 , ..., un ).
Qualifions la base BE d’"ancienne base" et la base C E de" nouvelle base".
Décomposons chacun des vecteurs u1 , u2 , ..., un de la nouvelle base C E dans l’ancienne base BE :
u1 = p11 e1 + p21 e2 + ................pn1 en
u2 = p12 e1 + p22 e2 + ................pn2 en
...... = .....................................................
un = p1n e1 + p2n e2 + ................pnn e p
Définition 3.9 (Matrice de passage). Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. On
appelle matrice de passage de BE à C E la matrice carrée d’ordre n dont la j-ième colonne est formée des coordonnées
dans BE du j-ième vecteur de la base C E .
Avec les notations utilisées, la matrice de passage de BE à C E est donc la matrice P définie par :
P=
u1
p
 11
 ..
 .
pn1
...
...
..
.
...
un
p1n  e1

..  ..
.  .
pnn en
Exemple 3.15. On munit l’espace R3 de la base BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et de
la base CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
On a
u1 = e1 − e3 , u2 = e1 − e2 , u3 = e1 + e2 + e3
La matrice P de passage de BR3 à CR3
P=
u1
1

 0

−1
u2
1
−1
0
u3
1  e1

1  e2
1 e3
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
3.7. CHANGEMENT DE BASES
3.7.1
CHAPITRE 3. APPLICATIONS LINÉAIRES
Propriétés des matrices de passage
Proposition 3.11. Soit E un espace vectoriel muni des bases BE et C E . La matrice de passage P de BE à C E est la
matrice représentant l’application identité relativement aux bases C E et BE . idE : x ∈ E 7−→ x ∈ E. En d’autres termes,
P = MatCE ,BE (idE )
REMARQUES. (a) Une matrice de passage P est nécessairement inversible puisque c’est la matrice associée à une
application bijective.
(b) si Q = MatC E ,BE (idE ) et P = MatBE ,CE (idE ), alors :
QP = MatCE ,BE (idE ) × MatBE ,CE (idE )
= MatCE ,C E (idE oidE )
= MatCE (idE ) = In
On en déduit directement que Q = P−1
Proposition 3.12. Soient E un espace vectoriel de dimension n et BE , C E deux bases de E. Si P est la matrice de
passage de BE à C E alors P−1 , la matrice inverse de P, est la matrice de passage de C E à BE .
Exemple 3.16. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et
CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
On a

u1





u2





= e1 − e3
= e1 − e2
u3 = e1 + e2 + e3

e1





e2
⇒




= 1/3(u1 + u2 + u3 )
= 1/3(u1 − 2u2 + u3 )
e3 = 1/3(−2u1 + u2 + u3 )
La matrice de passage Q de CR3 à BR3 est
Q = MatCR3 ,BR3 = 1/3
P = MatBR3 ,CR3 =
e1
1

 0

1
u1
1

 0

−1
e2
1
−2
1
u2
1
−1
0
e3
−2 u1

1  u2
1
u3
u3
1  e1

1  e2
1 e3
On voit que l’on a effectivement Q = P−1 en vérifiant l’une des deux égalités PQ = QP = I3
3.7.2
Application au calcul de l’inverse d’une matrice
Présentons la méthode sur un exemple. Considérons la matrice inversible :
A=
0

1

0
1
−1
−1
0 

−2
−2
Interprétons A comme la matrice de passage d’une base BE = (e1 , e2 , e3 ) à une base C E = (u1 , u2 , u3 ), ce qui revient à
écrire le système :

u1
= e2





u2 = e1 − e2 − e3





u = −2e − 2e
3
2
3
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.7. CHANGEMENT DE BASES
La matrice A−1 , peut alors s’interpréter comme la matrice de passage de C E à BE .
Une méthode pour l’obtenir consiste à exprimer les vecteurs de l’ancienne base BE en fonction des vecteurs de la
nouvelle base C E . On déduit facilement du système précédent le nouveau système :

e1





e2





= u2 − 1/2u3
= u1
e3 = −u1 − 1/2u3
On obtient finalement :
A−1 = MatCR3 ,BR3 =
 0

 1

−1/2
1
0
0
−1 

0 
−1/2
Proposition 3.13 (Changement de bases pour un vecteur). Soit E un espace vectoriel muni des bases BE et C E . Si X
et X’ désignent les matrices-colonnes des coordonnées de x dans les bases respectives BE et C E et P est la matrice de
passage de BE à C E alors
X = PX 0
Exemple 3.17. Reprenons l’exercice 3.3 BR3 = (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et
CR3 = (u1 , u2 , u3 ) avec u1 = (1, 0, −1), u2 = (1, −1, 0) et u3 = (1, 1, 1).
Considérons le vecteur x = (3, 6, 9) de R3 .
(3, 6, 9) = 3(1, 0, 0) + 6(0, 1, 0) + 9(0, 0, 1) = 3e1 + 6e2 + 9e3
On note x10 , x20 , x30 les coordonnées de x dans la nouvelle base CR3 = (u1 , u2 , u3 ) x = x10 u1 + x20 u2 + x30 u3

 
 

 1
1 1   x10   3 

  0  

 0 −1 1   x2  =  6 
0
−1
0 1
x3
9
|
{z
} | {z
} |{z}
=P
=X 0
=X
ou encore, de manière équivalente,
 0 

 x1 
 1
 0 

 x2  = 1/3  1
x30
1
| {z
}
|
=X 0


1 −2   3 
 

−2
1   6 


1
1
9
{z
} |{z}
=P−1
=X
x10 = −3, x20 = 0 et x30 = 6, c’est-à-dire :
x = −3u1 + 6u3
.
REMARQUE. Attention, il ne faut pas écrire ”x = (−3, 0, 6)”. C’est faux car (−3, 0, 6) représente le vecteur −3e1 + 6e3 .
Théorème 3.14. Soient E un espace vectoriel muni des deux bases BE et C E , F un espace vectoriel muni des deux bases
BF et C F . Soit f une application linéaire de E dans F. Alors les deux matrices A = MatBE ,BF ( f ) et B = MatCE ,CF ( f )
toutes les deux du même type, vérifient l’égalité matricielle :
B = Q−1 AP
où P est la matrice de passage de BE à C E et où Q est la matrice de passage de BF à C F .
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
3.7. CHANGEMENT DE BASES
CHAPITRE 3. APPLICATIONS LINÉAIRES
A = MatBE ,BF ( f )
(E, BE )
(F, BF )
P = MatCE ,BE (IdE )
Q−1 = MatBF ,CF (IdF )
(E, C E )
(F, C F )
B = MatCE ,CF ( f )
On retrouve l’égalité matricielle :
MatC E ,C F ( f ) = MatBF ,C F (IdF ) × MatBE ,BF ( f ) × MatCE ,BE (IdE )
| {z
} |
{z
} | {z } |
{z
}
B
A
Q−1
P
Lorsque f est un endomorphisme de E, on peut choisir :
— BE = BF = B et C E = C F = C
— MatB ( f ), la matrice associée à f dans la base B
— MatC ( f ) la matrice associée à f dans la base C
— La matrice Q, matrice de passage de BF à C F , est donc égale à la matrice P
A = MatB ( f )
(E, B)
(E, B)
P = MatC,B (IdE )
P−1 = MatB,C (IdE )
(E, C)
(E, C)
B = MatC ( f )
On retrouve l’égalité matricielle :
MatC ( f ) = MatB (IdE ) × MatB ( f ) × MatC (IdE )
| {z
} | {z } | {z } | {z }
B
P−1
A
P
Exemple 3.18. Reprenons l’exercice 3.3 : Soit f un endomorphisme de R3 défini par :
f :
R3 −→
(x1 , x2 , x3 ) 7−→
R3
(2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 + 2x3 )
On considère dans R3 les deux bases BR3 = (e1 , e2 , e3 ) et CR3 = (u1 , u2 , u3 ) avec
On a :
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) et u1 = (1, 0, −1), u2 = (1, −1, 0), u3 = (1, 1, 1)

f (e1 ) = 2e1 + e2 + e3





f (e2 ) = e1 + 2e2 + e3




 f (e ) = e + e + 2e
3
1
2
3
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 3. APPLICATIONS LINÉAIRES
3.7. CHANGEMENT DE BASES
On en déduit alors l’expression de la matrice A représentative de f dans BR3
A = MatBR3 =
On a aussi :
f (e1 )
 2

 1

1
f (e2 )
1
2
1
f (e3 )
1  e1

1  e2
2
e3

f (u1 ) = u1





f (u2 ) = u2




 f (u ) = 4u
3
3
On en déduit la matrice B représentative de f dans CR3
B = MatCR3 =
f (u1 )
 1

 0

0
f (u2 )
0
1
0
f (u3 )
0  u1

0  u2
4
u3
La matrice de passage de BR3 à CR3
P=
1

 0

−1
1
−1
0
1

1
1
et
−1
P
1

1

1
= 1/3
1
−2
1
−2

1 
1
On vérifie que l’on a
1

0

0
MatCR3 =
|
3.7.3
0
1
0
{z
B
0

0
4
1

1

1
= 1/3
}
|
1
−2
1
{z
P−1
2

1

1
−2

1 
1
}|
1
2
1
{z
A
1

 0

−1
1

1
2
}|
1
−1
0
{z
P
1

1
1
}
La matrice associée à une application linéaire bijective est-elle inversible ?
Considérons une matrice A carrée d’ordre n, et deux K espaces vectoriels E, F, munis des bases respectives BE et
BF , et une application linéaire f :
f : E −→ F
Supposons l’application linéaire f bijective. Il existe alors une application : f −1 : F −→ E (nécessairement linéaire
puisque f l’est) telle que :
f −1 o f = IdE et f o f −1 = IdF
Proposition 3.15. Une application linéaire f d’un espace E de dimension finie dans un F de même dimension est
bijective si et seulement si, la matrice carrée associée à f relativement à des bases quelconques BE de E et BF de F, est
inversible. Si f est bijective alors
MatBE ,BF ( f ) −1 = MatBE ,BF ( f −1 )
et, en particulier, lorsque E = F et BE = BF = B,
MatB ( f )
−1
= [MatB ] ( f −1 )
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 4
DÉTERMINANTS
4.1
4.1.1
Groupe des permutations d’un ensemble
Généralités
E est un ensemble non vide, une permutation de E est une bijection de E sur E. Si on note S(E) l’ensemble des
permutations de E, alors (S(E), ◦) est un groupe.
Le cas particulier où E = {1, 2, ...... n}, n étant un entier naturel non nul donné. Dans ce cas, l’ensemble S(E) se note
Sn (Sn est donc l’ensemble des permutations de l’ensemble {1, 2, ...... n}).
— IdE est une permutation de E.
— La composée de deux permutations de E est une permutation de E.
— La réciproque d’une permutation de E est une permutation de E.
— ∀(σ, σ0 ) ∈ (S(E))2 , (σ ◦ σ0 )−1 = σ0−1 ◦ σ−1 et (σ−1 )−1 = σ.
!
1
2
...
n−1
n
Une permutation donnée de {1, 2, ...... n} se note σ =
σ(1) σ(2) . . . σ(n − 1) σ(n)
!
1 2 3 4 5
Exemple 4.1. σ =
, est la permutation de {1 2 3 4 5} définie par :
4 1 3 5 2
σ(1) = 4, σ(2) = 1, σ(3) = 3, σ(4) = 5, σ(5) = 2
Pour composer deux permutations σ et σ0 , nous écrirons
σ ◦ σ0 = (σ(1) σ(2) . . . σ(n) ) ◦ (σ0(1) σ0(2) . . . σ0(n) )
si σ = (4 1 3 2) et σ0 = (2 3 4 1), alors
σ ◦ σ0 = (4 1 3 2) ◦ (2 3 4 1) = (1 3 2 4)
σ ◦ σ0 (1) = σ(σ0 (1)) = σ(2) = 1.
Définition 4.1 (Transposition). La permutation qui échange i et j et laisse les autres éléments invariants est appelée
transposition et est notée τi, j .
S1 est l’ensemble qui contient 1 élément qui est l’identité
1
Exemples 4.2. S2 contient deux éléments : la permutation identique
1
!
1 2
, elle se note τ1,2 (ou τ2,1 ). Ainsi, S2 = {Id, τ1,2 }
2 1
Les six éléments de S3 sont
34
!
2
et la transposition qui échange 1 et 2
2
CHAPITRE 4. DÉTERMINANTS
4.2. DÉTERMINANT D’ORDRE 2
1
— la permutation identique : id =
1
!
2 3
;
2 3
!
!
1 2 3
1 2 3
— trois transpositions : τ2,3 =
,τ =
et τ1,2
1 3 2 1,3
3 2 1
!
1 2 3
1 2
— deux permutations circulaires : c1 =
et c2 =
2 3 1
3 1
1
=
2
!
3
.
2
2
1
!
3
;
3
Ainsi, S3 = {Id, τ1,2 , τ1,3 , τ2,3 , c1 , c2 }.
Théorème 4.1. (Décomposition d’une permutation en produit de transpositions :) Soit n > 1. Toute permutation σ de
{1, 2, ........n} peut s’écrire comme un produit de transpositions.
Définition 4.2. (Signature d’une permutation) Soient n ≥ 2 et σ ∈ S n .
La signature de σ est
Y σ(i) − σ( j)
ε(σ) =
i− j
1≤i< j≤n
Par convention, si !n = 1, S 1 = Id{1} , on pose ε(Id{1} ) = 1.
1 2 3 4
σ=
, alors
2 4 3 1
ε(σ) =
4.1.2
(1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4)
2−4 2−3 2−1 4−3 4−1 3−1
×
×
×
×
×
= (−1)4
=1
1−2 1−3 1−4 2−3 2−4 3−4
(1 − 2)(1 − 3)(1 − 4)(2 − 3)(2 − 4)(3 − 4)
Inversions d’une permutation. Calcul de la signature
Définition 4.3. (Inversion) Soient n ≥ 2 et σ ∈ S n .
Une inversion de σ est une paire i, j d’éléments de {1, 2, ...... n} telle que i < j et σ(i) > σ( j).
!
1 2 3 4
Exemple 4.3. σ =
2 4 3 1
Les inversions de σ sont les paires {1, 4}, {2, 3}, {2, 4} et {3, 4}.
Les paires {1, 2} et {1, 3} ne sont pas des inversions (voire la table 4.1)
Table 4.1 – Les inversions de σ dans l’exemple 4.3
(i, j), i < j
(1,2)
(1,3)
(1,4)
(2,3)
(2,4)
(3,4)
σ(i)
2
2
2
4
4
3
σ( j)
4
3
1
3
1
1
σ( j) − σ(i)
-2
-1
1
1
3
2
Inversion (i, j)
Non
Non
Oui
Oui
Oui
Oui
Théorème 4.2. Soient n ≥ 2 et σ ∈ Sn .
La signature de σ est : ε(σ) = (−1)N où N est le nombre d’inversions de σ.
Le nombre d’inversions de σ dans l’exemple 4.3 est 4, donc ε(σ) = (−1)4 = 1
4.2
Déterminant d’ordre 2
4.2.1
Forme bilinéaire alternée
Définition 4.4. Soit E un espace vectoriel.
Une application (c1 , c2 ) ∈ E × E 7→ ϕ(c1 , c2 ) ∈ K est une forme bilinéaire si elle est linéaire en chacune des variables c1
et c2 .
Une forme bilinéaire ϕ : E × E → K est dite alternée si ϕ(c, c) = 0 pour tout c ∈ E.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
4.2. DÉTERMINANT D’ORDRE 2
CHAPITRE 4. DÉTERMINANTS
Une application ϕ : E × E → K est une forme bilinéaire si
(a) Pour tous c1 , c01 , c2 ∈ E et pour tous α, β ∈ K
ϕ(αc1 + βc01 , c2 ) = αϕ(c1 , c2 ) + βϕ(c01 , c2 )
(b) Pour tous c1 , c2 , c02 ∈ E et pour tous α, β ∈ K
ϕ(c1 , αc2 + βc02 , ) = αϕ(c1 , c2 ) + βϕ(c1 , c02 )
Exemples 4.4. 1. L’application ϕ : R3 × R3 7→ R définie pour x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 )
ϕ(x, y) = x1 y1 + x2 y2 + x3 y3
est une forme bilinéaire sur E = R3
2. L’application ϕ : R4 × R4 7→ R définie pour x = (x1 , x2 , x3 , x4 ) et y = (y1 , y2 , y3 , y4 )
ϕ(x, y) = x1 y1 + x2 y2 + x3 y3 − c2 x4 y4
est une forme bilinéaire sur E = R4 . où c désigne un paramètre réel, est une forme bilinéaire. Cette forme bilinéaire
qui intervient dans la théorie de la relativité est nommée forme de Lorentz 1
3. L’application ϕ : R2 7→ R définie pour x = (x1 , x2 ) et y = (y1 , y2 )
ϕ(x, y) = x1 y2 − x2 y1
est une forme bilinéaire alternée sur E = R2 :
ϕ(x, x) = x1 x2 − x2 x1 = 0
A)
Propriété d’antisymétrie
Soit ϕ : E × E → K, une forme bilinéaire alternée. et soient c1 , c2 ∈ E.
Puisque ϕ est alternée
ϕ(c1 + c2 , c1 + c2 ) = 0
Or, ϕ étant bilinéaire, on a :
ϕ(c1 + c2 , c1 + c2 ) = ϕ(c1 , c1 ) + ϕ(c2 , c2 ) + ϕ(c1 , c2 ) + ϕ(c2 , c1 ) = ϕ(c1 , c2 ) + ϕ(c2 , c1 ) = 0
Ainsi,
ϕ(c1 , c2 ) = −ϕ(c2 , c1 )
Le signe de ϕ(c1 , c2 ) change lorsque l’on permute les deux vecteurs c1 et c2 . On dit que ϕ est antisymétrique.
B)
Intérêt d’une forme bilinéaire alternée
Soit ϕ : E × E → K, une forme bilinéaire alternée.
Si c1 et c2 sont deux vecteurs liés alors ϕ(c1 , c2 ) = 0
En effet, si c1 et c2 sont liés alors il existe (α, β) ∈ K2 avec (α, β) , (0, 0) tel que αc1 + βc2 = 0E .
Sans perte de généralité, Supposons que β , 0. Alors c2 = − αβ c1 et
α
α
ϕ(c1 , c2 ) = ϕ(c1 , − c1 ) = − ϕ(c1 , c1 ) = 0
β
β
Conséquence
Soit ϕ : E × E → K, une forme bilinéaire alternée et soient c1 , c2 ∈ E, λ ∈ K
ϕ(c1 , c2 + λc1 ) = ϕ(c1 , c2 ) + λϕ(c1 , c1 ) = ϕ(c1 , c2 )
1. LORENTZ, Hendrik Antoon ( 1853, Arnhem - 1928, Haarlem). Physicien néerlandais qui reçut le prix Nobel de physique en 1902.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 4. DÉTERMINANTS
4.2.2
4.3. DÉTERMINANT D’ORDRE 3
Cas d’un espace vectoriel de dimension 2
Soient E un espace vectoriel de dimension 2 muni d’une base B = (e1 , e2 ) et ϕ : E × E → K, une forme bilinéaire
alternée. c1 et c2 sont deux vecteurs de E rapportés à la base B :
c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2
où (a11 , a21 ) ∈ K2 et (a12 , a22 ) ∈ K2
ϕ(c1 , c2 ) = ϕ(a11 e1 + a21 e2 , a12 e1 + a22 e2 )
= a11 a12 ϕ(e1 , e1 ) + a11 a22 ϕ(e1 , e2 ) + a21 a12 ϕ(e2 , e1 ) + a21 a22 ϕ(e2 , e2 )
d’où, puisque ϕ(e1 , e1 ) = ϕ(e2 , e2 ) = 0
ϕ(c1 , c2 ) = a11 a22 ϕ(e1 , e2 ) + a21 a12 ϕ(e2 , e1 )
Du fait que ϕ(e2 , e1 ) = −ϕ(e1 , e2 )
ϕ(c1 , c2 ) = (a11 a22 − a21 a12 )ϕ(e1 , e2 )
(4.1)
La forme bilinéaire alternée ϕ : E × E → K dépend de la base B de E.
Notons ϕ par detB , ainsi,
det(c1 , c2 ) = (a11 a22 − a21 a12 ) det(e1 , e2 )
B
B
Définition 4.5. Soient E un espace vectoriel de dimension 2 muni d’une bas B = (e1 , e2 ).
√
On appelle déterminant d’ordre 2 dans la base B l’unique forme bilinéaire alternée notée detB : E × E → K vérifiant :
detB (e1 , e2 ) = 1
√
Si c1 = a11 e1 + a21 e2 et c2 = a12 e1 + a22 e2 alors
det(c1 , c2 ) = a11 a22 − a21 a12
B
On note symboliquement :
det(c1 , c2 ) =
B
a11
a21
a12
= a11 a22 − a21 a12
a22
Pour c1 = 2e1 + 3e2 et c2 = 10e1 + 5e2
det(c1 , c2 ) =
B
4.3
Déterminant d’ordre 3
4.3.1
Forme trilinéaire alternée
2
3
10
= 2 × 5 − 3 × 10 = −20
5
Définition 4.6. Soit E un espace vectoriel.
√
Une application (c1 , c2 , c3 ) ∈ E 3 7→ ϕ(c1 , c2 , c3 ) ∈ K est une forme trilinéaire si elle est linéaire en chacune des
variables c1 , c2 et c3 .
√
Une forme trilinéaire ϕ : E 3 → K est dite alternée si ϕ(c1 , c2 , c3 ) = 0 dès que deux des trois vecteurs c1 ,c2 et c3 sont
égaux. Autrement dit, la forme trilinéaire ϕ : E 3 → K est alternée si
∀(c, c0 ) ∈ E 2 , ϕ(c, c, c0 ) = ϕ(c, c0 , c) = ϕ(c0 , c, c) = 0.
Une application ϕ : E 3 → K est une forme trilinéaire si
(a) pour tous c1 , c01 , c2 , c3 ∈ E et α, β ∈ K
ϕ(αc1 + βc01 , c2 , c3 ) = αϕ(c1 , c2 , c3 ) + βϕ(c01 , c2 , c3 ),
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
4.3. DÉTERMINANT D’ORDRE 3
CHAPITRE 4. DÉTERMINANTS
(b) pour tous c1 , c2 , c02 , c3 ∈ E et α, β ∈ K
ϕ(c1 , αc2 + βc02 , c3 ) = αϕ(c1 , c2 , c3 ) + βϕ(c1 , c02 , c3 ),
(c) pour tous c1 , c2 , c3 , c03 ∈ E et α, β ∈ K
ϕ(c1 , c2 , αc3 + βc03 ) = αϕ(c1 , c2 , c3 ) + βϕ(c1 , c2 , c03 ),
Propriétés 4.3. Soient E un espace vectoriel
√
Pour tous c1 , c2 , c3 appartenant à E,
√
ϕ(c1 , c2 , c3 ) = −ϕ(c3 , c2 , c1 ) = ϕ(c2 , c3 , c1 )
Si l’un des trois vecteurs est combinaison linéaire des deux autres alors la valeur par ϕ est nulle. Par exemple,
considérons trois vecteurs c1 , c2 et c3 de E et supposons qu’il existe (α, β) ∈ K2 tel que c3 = αc1 + βc2 Alors,
ϕ(c1 , c2 , c3 ) = ϕ(c1 , c2 , αc1 + βc2 ) = αϕ(c1 , c2 , c1 ) + βϕ(c1 , c2 , c2 ) = 0
√
Lorsqu’on ajoute à l’un des trois vecteurs une combinaison linéaire des deux autres, la valeur par ϕ ne change pas.
Par exemple, pour tous α et β dans K et pour tous c1 , c2 , c3 appartenant à E,
ϕ(c1 , c2 , c3 + αc1 + βc2 ) = ϕ(c1 , c2 , c3 ) + αϕ(c1 , c2 , c1 ) + βϕ(c1 , c2 , c2 ) = ϕ(c1 , c2 , c3 )
4.3.2
Cas d’un espace vectoriel de dimension 3
Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
Soit ϕ : E 3 → K une forme trilinéaire alternée, et soit c1 , c2 , c3 ∈ E
c1 =
3
X
ai1 ,1 ei1 , c2 =
3
X
ai2 ,2 ei2 , c3 =
ai3 ,3 ei3 .
i3 =1
i2 =1
i1 =1
3
X
ϕ est une forme trilinéaire, donc
ϕ(c1 , c2 , c3 ) = ϕ(
3
X
ai1 ,1 ei1 ,
i1 =1
=
3
X
3
X
ai1 ,1 ϕ(ei1 ,
3
X
i1 =1
=
3
X
ai1 ,1
3
X
ai2 ,2 ei2 ,
3
X
i2 =1
3 X
3 X
3
X
ai3 ,3 ei3 )
3
X
ai3 ,3 ei3 )
i3 =1
ai2 ,2 ϕ(ei1 , ei2 ,
i2 =1
ai1 ,1
3
X
i3 =1
i2 =1
i1 =1
=
ai2 ,2 ei2 ,
i2 =1
i1 =1
=
3
X
3
X
ai3 ,3 ei3 )
(4.2)
i3 =1
ai2 ,2
3
X
ai3 ,3 ϕ(ei1 , ei2 , ei3 )
i3 =1
ai1 ,1 ai2 ,2 ai3 ,3 ϕ(ei1 , ei2 , ei3 )
i1 =1 i2 =1 i3 =1
ϕ est alternée
ϕ(c1 , c2 , c3 ) = a11 a12 a13 ϕ(e1 , e1 , e1 ) +a11 a12 a23 ϕ(e1 , e1 , e2 ) +...........
| {z }
| {z }
=0
=0
On ne considère que les termes où les indices i1 , i2 et i3 sont tous les trois distincts. Autrement dit, on ne considère que
les termes pour lesquels {i1 , i2 , i3 } = σ({1, 2, 3}) avec σ une permutation de l’ensemble {1, 2, 3} (σ ∈ S3 )
3! = 6 permutations possibles de l’ensemble{l, 2, 3} . Elles s’écrivent :








1 2 3
1 2 3
1 2 3
1 2 3








σ1 = id{1,2,3} = 
 ; σ2 = τ1,2 = 
 ; σ3 = τ2,3 = 
 , σ4 = τ1,3 = 
1 2 3
2 1 3
1 3 2
3 2 1
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 4. DÉTERMINANTS
4.3. DÉTERMINANT D’ORDRE 3
et deux permutations circulaires :
c1 = σ5 = τ2,3 ◦ τ1,3

1
= 
2
2
3

3
 ,
1
c2 = σ6 = τ2,3 ◦ τ1,2

1
= 
3
2
1

3
 .
2
Table 4.2 – Les inversions de σi , i ∈ {1, 2, 3, 4, 5, 6}
(*)
(i, j), i < j
(σ1 (i), σ1 ( j))
(σ2 (i), σ2 ( j))
(σ3 (i), σ3 ( j))
(σ4 (i), σ4 ( j))
(σ5 (i), σ5 ( j))
(σ6 (i), σ6 ( j))
(1,2)
(1,3)
(2,3)
(1,2)
(1,3)
(2,3)
(2,1)
(2,3)
(1 ,3)
(1,3)
(1,2)
(3,2)
(3,2)
(3,1)
(2,1)
(2,3)
(2,1)
(3,1)
(3,1)
(3,2)
(1,2)
N (*)
ε(σi ) = (−1)N
0
1
1
-1
1
-1
3
-1
2
1
2
1
Le nombre d’inversions de σi
ϕ(c1 , c2 , c3 ) =
X
aσ(1),1 aσ(2),2 aσ(3),3 ϕ(eσ(1) , eσ(2) , eσ(3) )
(4.3)
σ∈S3
c’est-à-dire :
ϕ(c1 , c2 , c3 ) = a11 a22 a33 ϕ(e1 , e2 , e3 ) + a21 a32 a13 ϕ(e2 , e3 , e1 )
+ a31 a12 a23 ϕ(e3 , e1 , e2 ) + a31 a22 a13 ϕ(e3 , e2 , e1 )
(4.4)
+ a21 a12 a33 ϕ(e2 , e1 , e3 ) + a11 a32 a23 ϕ(e1 , e3 , e2 )
Montrons que, ∀σ ∈ S3 , ϕ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)ϕ(e1 , e2 , e3 )
Si σ = σ1 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e1 , e2 , e3 ) = ε(σ1 )ϕ(e1 , e2 , e3 )
Si σ = σ2 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e2 , e1 , e3 ) = −ϕ(e1 , e2 , e3 ) = ε(σ2 )ϕ(e1 , e2 , e3 )
Si σ = σ3 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e1 , e3 , e2 ) = −ϕ(e1 , e2 , e3 ) = ε(σ3 )ϕ(e1 , e2 , e3 )
Si σ = σ4 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e3 , e2 , e1 ) = −ϕ(e1 , e2 , e3 ) = ε(σ4 )ϕ(e1 , e2 , e3 )
Si σ = σ5 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e2 , e3 , e1 ) = ϕ(e1 , e2 , e3 ) = ε(σ5 )ϕ(e1 , e2 , e3 )
Si σ = σ6 : ϕ(eσ(1) , eσ(2) , eσ(3) ) = ϕ(e3 , e1 , e2 ) = ϕ(e1 , e2 , e3 ) = ε(σ6 )ϕ(e1 , e2 , e3 )
Ainsi,
∀σ ∈ S3 , ϕ(eσ(1) , eσ(2) , eσ(3) ) = ε(σ)ϕ(e1 , e2 , e3 )
On déduit de (4.3) que


 X


ϕ(c1 , c2 , c3 ) = 
ε(σ)aσ(1),1 aσ(2),2 aσ(3),3  ϕ(e1 , e2 , e3 )
σ∈S3
D’où
ϕ(c1 , c2 , c3 ) = (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23 ) ϕ(e1 , e2 , e3 )
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
(4.5)
4.4. DÉTERMINANT D’ORDRE N
CHAPITRE 4. DÉTERMINANTS
Si ϕ(e1 , e2 , e3 ) = 1. On note ϕ = detB : ϕ : E 3 → K.
En remplaçant ϕ par detB dans (4.5), on obtient :


 X

det(c1 , c2 , c3 ) = 
ε(σ)aσ(1),1 aσ(2),2 aσ(3),3  det(e1 , e2 , e3 )
B
B
(4.6)
σ∈S3
On peut vérifier que detB est trilinéaire et alternée.
Définition 4.7. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
√
On appelle déterminant d’ordre 3 dans la base B l’unique forme trilinéaire alternée notée detB : E 3 → K vérifiant :
detB (e1 , e2 , e3 ) = 1
√
Si, pour tout j ∈ {1, 2, 3}, les scalaires a1 j , a2 j , a3 j désignent les coordonnées du vecteur c j dans la base B alors
det(c1 , c2 , c3 ) =
B
X
ε(σ)aσ(1),1 aσ(2),2 aσ(3),3
σ∈S3
On a donc :
det(c1 , c2 , c3 ) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23
B
on note symboliquement
a11
det(c1 , c2 , c3 ) = a21
B
a31
a12
a22
a32
a13
a23
a33
Exemple 4.5. Soit E un K espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ) et les trois vecteurs
c1 = e1 − e3 , c2 = −e2 + 2e3 , c3 = −e1 + e2
1
det(c1 , c2 , c3 ) = 0
B
−1
0
−1
2
−1
1 = −1
0
REMARQUE. Les coordonnées par rapport à la base B de chacun des trois vecteurs c1 , c2 et c3 peuvent être disposées
soit en colonne, soit en ligne. Cela n’influe pas sur la valeur finale de detB (c1 , c2 , c3 )
a11
det(c1 , c2 , c3 ) = a21
B
a31
4.4
4.4.1
a12
a22
a32
a13
a11
a23 = a12
a33
a13
a21
a22
a23
a31
a32
a33
Déterminant d’ordre n
Forme multilinéaire alternée
Définition 4.8. Soit E un espace vectoriel et n ∈ K, n ≥ 2
√
Une application (c1 , c2 , ...., cn ) ∈ E n 7→ ϕ(c1 , c2 , ...., cn ) ∈ K est une forme n-linéaire si elle est linéaire en chacune de
ses variables.
√
Une forme n-linéaire ϕ : E n → K est dite alternée si ϕ(c1 , c2 , ...., cn ) = 0 dès que au moins deux des vecteurs
c1 ,c2 ,........ cn sont égaux.
4.4.2
Cas d’un espace vectoriel de dimension n
Soit E un espace vectoriel de dimension n muni d’une base B = (e1 , e2 , ....., en ) et soit une forme n-linéaire alternée
ϕ : En → K
n
n
n
X
X
X
c1 =
ai1 ,1 ei1 , c2 =
ai2 ,2 ei2 , ........., cn =
ain ,n ein
i1 =1
i2 =1
in =1
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 4. DÉTERMINANTS
4.5. DÉTERMINANT D’UNE MATRICE CARRÉE
 n

n
n
X
X
X

ai2 ,2 ei2 , ........
ϕ(c1 , c2 , ......., cn ) = ϕ  ai1 ,1 ,
ain ,n ein 
i1 =1
=
n X
n
X
i1 =1 i2 =1
i2 =1
n
X
.......
in =1
(4.7)
ai1 ,1 ai2 ,2 ........ain ,n ϕ(ei1 , ei2 , .........., ein )
in =1
ϕ est aussi alternée. Ainsi, parmi les termes présents dans la somme (il y en a nn ), tous sont nuls sauf ceux pour lesquels
{i1 , i2 , ......i3 } ∈ σ ({1, 2, ......3})
X
ϕ(c1 , c2 , ........, cn ) =
aσ(1),1 aσ(2),2 .....aσ(n),n ϕ(eσ(1) , eσ(2) , .......eσ(n) )
(4.8)
σ∈Sn
nous utilisons la notation suivante :
n
Y
i=1
finalement on obtient
aσ(i),i = aσ(1),1 × aσ(2),2 × ........... × aσ(n),n

 X
ϕ(c1 , c2 , ........, cn ) = 
σ∈Sn


n
Y


ε(σ)
aσ(i),i  ϕ(e1 , e2 , .......en )
i=1
Définition 4.9. Soit E un K espace vectoriel de dimensionn ≥ 2 muni d’une base B = (e1 , e2 , ..., en ).
√
On appelle déterminant d’ordre n dans la base B l’unique forme n-linéaire alternée notée detB : E n → K vérifiant :
detB (e1 , e2 , ...., en ) = 1
√
Si, pour tout j ∈ {1, 2, ...., n}, les scalaires a1 j , a2 j , ....., an j désignent les coordonnées du vecteur c j dans la base B
alors


n
X 
Y


det(c1 , c2 , ......., cn ) =
aσ(i),i 
ε(σ)
B
i=1
σ∈Sn
On note symboliquement :
4.5
a11
a21
det(c1 , c2 , c3 ) = .
B
..
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
an1
an2
···
ann
Déterminant d’une matrice carrée
On peut définir le déterminant d’une matrice carrée indépendamment de tout contexte vectoriel.
Définition 4.10. Soit A = (ai j )1≤,i, j≤n une matrice carrée d’ordre n ≥ 2 à coefficients dans K . On appelle déterminant
de A et on note det(A), le scalaire


n
X 
Y


ε(σ)
det(A) =
aσ(i),i 
i=1
σ∈Sn
Par convention, si n = 1, c’est-à-dire si A = (a11 ), alors det(A) = a11
Le déterminant de la matrice A = (ai j )1≤,i, j≤n est aussi noté
a11
a21
det(A) = .
..
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
an1
an2
···
ann
Le déterminant de A s’interprète alors comme le déterminant des vecteurs c1 , ..., cn de E par rapport à la base B :
det(A) = detB (c1 , c2 , ...., cn )
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
4.6. CALCUL DES DÉTERMINANTS
CHAPITRE 4. DÉTERMINANTS
Théorème 4.4. Pour toute matrice A ∈ Mn (K)
det(t A) = det(A)
Exemple 4.6. Calcule de det(A) et det(t A) avec





A = 



0
1
0
0
0
0
0
0
1
0
0
0
0
0
1
1
0
0
0
0
0
0
1
0
0










det(A) = det(e2 , e4 , e5 , e1 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 ) = det(e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 ) = −1
det(t A) = det(e4 , e1 , e5 , e2 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 ) = det(e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 ) = −1
Théorème 4.5. Soit A = (c1 , c2 , ........, cn ) ∈ Mn (K) a
Les vecteurs c1 ,...,cn forment une base de Kn si et seulement si det(A) , 0.
a. (c1 , c2 , ........, cn ) représente la matrice engendrée par les vecteurs colonne c1 , c2 , ........, cn
4.6
Calcul des déterminants
Définition 4.11. Soit A = (ai j )1≤,i, j≤n .
On appelle cofacteur de l’élément ai j le scalaire :
Co f (ai j ) = (−1)i+ j det(Ai j )
où Ai j est la matrice obtenue en supprimant la ième ligne et la jème colonne.
Exemple 4.7.

 1



A =  2



5
0
4
−1

−3 


4

−2  , Co f (1) = +


−1

3
−2
3
2
= 10, Co f (0) = −
5
−2
3
= −16
REMARQUE. Le signe (−1)i+ j dans la définition de cofacteur est déterminé par le schéma suivant :





A = 



+
−
+
−
..
.
−
+
−
+
..
.
+
−
+
−
..
.
−
−
−
−
..
.
···
···
···
···










Théorème 4.6. On a les formules suivantes :
Développement du déterminant selon la jème ligne :
det(A) = a j1Co f (a j1 ) + a j2Co f (a j2 ) + ...................a jnCo f (a jn )
Développement du déterminant selon la jème colonne :
det(A) = a1 jCo f (a1 j ) + a2 jCo f (a2 j ) + ...................an jCo f (an j )
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 4. DÉTERMINANTS
4.6. CALCUL DES DÉTERMINANTS
Exemple 4.8. Soit

 1



A =  2



1

3 



0 



2
−2
1
−1
Développons A selon la 3ème ligne
1
−2
3
2
1
0
1
−1
2
=1
−2
3
1
0
1
3
1
−2
+2
− (−1)
2
0
2
1
= −3 − 6 + 10 = 1
Développons A selon la 3ème colonne :
1
2
−2
3
1
0
2
1
=3
+2
1
1
−1
2
−1
1
−2
2
1
= −9 + 10 = 1
Proposition 4.7. Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute une combinaison
linéaire des autres lignes (respect, des autres colonnes).
Exemple 4.9.
∆=
1
1
2
−1
0
−2
−1
1
0
1
1
0
3
1
−1
3
2
1
1
1
4
4
2
3
3
L1
L2
L3 =
L4
L5
1
0
0
0
0
−2
1
5
−2
1
1
−1
1
2
−1
3
−1
−5
4
1
4
0
−6
7
3
L10 = L1
0
L2 = L2 − L1
L30 = L3 − 2L1
L40 = L4 + L1
L50 = L5
On développant selon la 1ère colonne :
∆=
c1
1
5
−2
1
c2
−1
1
2
−1
c3
−1
−5
4
1
c4
0
−6
7
3
=
1
5
−2
1
c1 + c2
0
6
0
0
c3 + c1
0
0
2
2
c4
0
−6
7
3
On développant selon la 1ère ligne :
∆=
6
0
0
0
2
2
−6
7
3
=6
2
2
2
3 = 6(7 − 14) = −48
Proposition 4.8. Pour qu’une matrice carrée soit inversible il faut et il suffit que son déterminant soit non nul.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
4.7. APPLICATIONS
CHAPITRE 4. DÉTERMINANTS
Proposition 4.9.
Pour tous A, B ∈ Mn (K), on a
En particulier, si A est inversible alors
det(A × B) = det(A) × det(B)
1
det(A)
det(A−1 ) =
Si A et B sont semblables alors leurs déterminants ont la même valeur. En effet, supposer A et B semblables signifie
qu’il existe une matrice inversible P, d’ordre n et à coefficients dans K , telle que B = P−1 AP et on en déduit
det(P−1 AP) = det(P−1 ) det(A) det(P) = det(A)
Proposition 4.10. (Déterminant d’une matrice triangulaire) Le déterminant d’une matrice triangulaire (inférieure ou
supérieure) est égal au produit de ses coefficients diagonaux.
REMARQUES. (a) Une condition nécessaire et suffisante pour qu’une matrice triangulaire (supérieure ou inférieure) soit inversible
est que ses coefficients diagonaux soient tous non nuls.
(b) Pour tout α ∈ K et pour tout A, ∈ Mn (K),
det(αA) = αn det(A)
Définition 4.12. (Déterminant d’un endomorphisme) Soit E un espace vectoriel et f un endomorphisme de E. On
appelle déterminant de f le déterminant de la matrice qui représente f dans une base (quelconque) de E :
det( f ) = det MB ( f )
B étant une base quelconque de E.
4.7
4.7.1
Applications
Calcul du rang d’une matrice
Définition 4.13. Soit A ∈ Mn,p (K) . On appelle déterminant d’ordre k extrait de A tout déterminant d’une matrice carrée
d’ordre k déduite de A par suppression de n − k lignes et de p − k colonnes.
Proposition 4.11. Soit A une matrice non nulle de Mn,p (K) . Le rang de A est le plus grand entier k tel qu’il existe un
déterminant non nul d’ordre k extrait de A.
Calculons le rang de la matrice rectangulaire 4 × 3 suivante :
1

3

4
5
A=
2
2
4
6
0

2

2
0
La matrice extraite obtenue en supprimant la première ligne a un déterminant non nul :
3
4
5
2
4
6
2
2
0
= −8 , 0
Ainsi, rg(A) = 3
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 4. DÉTERMINANTS
4.7.2
4.7. APPLICATIONS
Calcul de l’inverse d’une matrice
Théorème 4.12. Soit A ∈ Mn (K) et Co f (A) la comatrice de A, c’est-à-dire la matrice obtenue de A en remplaçant
chaque élément par son cofacteur. On a alors :
t
ACo f (A) =t Co f (A)A = det(A)I
En particulier, si A est inversible (c’est-à-dire det(A) , 0), on a :
A−1 =
t
Co f (A)
det(A)


 1 2

Exemple 4.10. Soit A = 
−1 3
on a det(A) = 5 ,= 0, donc A est inversible et on a
Co f (3) = 1, Co f (−1) = −2, Co f (2) = 1, Co f (1) = 3.



 3 1
1
1 
−1

 et A = 5 
1
−2 1


 1 2 0 


Exemple 4.11. Soit A=−1 3 0 , det(A) = −3 − 2 = −5 , 0. Donc A est inversible.


0 1 −1
Les cofacteurs des coefficients de la première ligne sont :

 3
Donc Co f (A) = 
−2
Co f (1) =
3
0
1
−1
= −3, Co f (2) = −
−1
0
Après calcul des autres cofacteurs, on trouve :
A−1
4.7.3

−3
−1 
=
−1
5 
−1
0
−1
= −1, Co f (0) =
−1
0
3
= −1
1

2 0

−1 0

−1 5
Systèmes de Cramer
Définition 4.14. On appelle système de Cramer un système linéaire dont la matrice A est carrée et inversible. Il s’agit
donc d’un système de n équations en n inconnues de rang n :



a11 x1 + a12 x2 ..... + a1n xn






 a21 x1 + a22 x2 ..... + a2n xn




.................................




 a x + a x ..... + a x
n1 1
n2 2
nn n
=
=
=
=
b1
b2
....
bn
(4.9)
=
=
=
=
b1
b2
....
bn
(4.10)
Le système s’écrit sous forme matricielle : AX = b
Théorème 4.13. Théorème de Cramer : Un système de Cramer :



a11 x1 + a12 x2 ..... + a1n xn






 a21 x1 + a22 x2 ..... + a2n xn




.................................




 a x + a x ..... + a x
n1 1
n2 2
nn n
(avec A = (a)1≤i, j≤n = (c1 , c2 , ....cn ), det(A) , 0))
admet toujours une et une seule solution, quel que soit le vecteur b = (b1 , b2 , ....bn ) solution donnée par les formules de
Cramer :
det(c1 , c2 , ....., ci−1 , b, ci+1 , ....cn )
xi =
det(A)
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
4.7. APPLICATIONS
CHAPITRE 4. DÉTERMINANTS
Exemple 4.12. Soit le système

2x1 − 5x2 + 2x3 = 7





x1 + 2x2 − 4x3 = 3




3x − 4x + 6x = 5
1
2
3
2 −5 2
det(A) = 1 2 −4 = 62. Donc Le système est de Cramer.
3 −4 6
Les formules de Cramer donnent :
7
x1 = 3
5
−5
2
−4
2
2
118
, x2 = 1
−4 =
62
6
3
7
3
5
2
2
58
−4 = − , x3 = 1
62
6
3
−1
t−3
−6

1 

1 

t+4
1
n
n
2
···
n
∆n = n
..
.
n
..
.
3
n
n

t + 3

Exercice 4.1. Calculer le déterminant de A =  5

6
−5 7
46
2 3 =−
62
−4 5
Exercice 4.2. Soit n ∈ N, n ≥ 2
Calculer
n
n
..
.
···
n n
Exercice 4.3. Soient x, y et z trois nombres complexes. Calculer le déterminant
x+y
D(x, y, z) = x2 + y2
x 3 + y3
y+z
y2 + z2
y3 + z3
z+x
z + x2
z3 + x3
2
Exercice 4.4. 1. Soit v1 = (2, 1) et v2 = (1, 2), vérifier que (v1 , v2 ) forme une base de R3
2. Déterminer selon le paramètre du réel α si la famille de vecteurs de R3 suivante est libre ou liée
v1 = (4, −1, 3), v2 = (2, 2, 1), v3 = (α, 1, 1 − α)
3. Déterminer les valeurs du réel α pour lesquelles la matrice

 4

B =  2

α
−1
2
1

3 

1 

α−2
est inversible. Dans ce cas, calculer det(B−1 ) puis det(B−2 ) et det(B−3 ) (Sans calculer B−1 )
4. Soient v1 = (1, 1, 0, 0), v2 = (1, 0, 1, 0), v3 = (1, 0, 0, 1) trois vecteurs de R4
(a) Donner une base de F = vect(v1 , v2 , v3 )
(b) Soit u = (x, y, z, t) ∈ R3 . Monter que u ∈ F ⇔ y + z + t − x = 0
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 5
RÉDUCTION DES ENDOMORPHISMES
5.1
Introduction
Soit Eun espace vectoriel et f un endomorphisme de E. Si B = (e1 , e2 , .......en ) une base de E, on peut construire la
matrice qui représente f dans cette base :
MB ( f ) =




f (e1 )
a11
..
.
...
...
..
.
an1
...
f (en )
a1n  e1

..  ..
.  .
ann
en
On cherche des bases de E dans lesquelles la forme de la matrice est la plus simple possible, c’est-à-dire, par exemple,
diagonale ou, éventuellement, triangulaire. Plus précisément, on dira que f est diagonalisable s’il existe une base
B = (u1 , u2 , .....un ), telle que :
f (u1 ) . . . f (un )
 λ
...
0  u1
 1


.
..  ..
..
 .
MB ( f ) =
.
.  .
 .
0
...
λn
un
On dira que f est trigonalisable s’il existe une base C = (v1 , v2 , .....vn ), de E telle que :
MB ( f ) =




f (v1 )
a11
..
.
...
...
..
.
0
...
f (vn )
>  v1

..  ..
.  .
ann
vn
ou MB ( f ) =




f (v1 )
a11
..
.
...
...
..
.
>
...
f (vn )
0  v1

..  ..
.  .
ann
vn
Le problème qui nous occupe est double :
1. Caractériser les endomorphismes diagonalisables (ou trigonalisables).
2. Déterminer effectivement, si elles existent, les bases dans lesquelles la matrice est diagonale ou triangulaire.
Puisque deux matrices A et A0 liées par la relation A0 = P−1 AP représentent le même endomorphisme en des bases
différentes, le problème s’énonce ainsi :
1. Caractériser les matrices A ∈ Mn (K) pour lesquelles il existe P ∈ Mn (K) inversible, telles que A0 = P−1 AP soit
diagonale (respectivement : triangulaire).
2. Déterminer effectivement P et A0 .
47
5.2. SOMME DIRECTE (RAPPELS )
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Deux polynômes jouent un rôle essentiel dans la réduction des endomorphisme, ce sont le polynôme caractéristique et le polynôme minimal. Ces deux polynômes sont d’ailleurs reliés l’un à l’autre, comme nous le verrons.
Un polynôme P ∈ K[X] non constant, de degré n ≥ 1, est dit scindé, ou scindé sur K, s’il est produit de polynômes
de degré 1. Si c’est le cas, on peut écrire
P(x) = a(X − α1 )(X − α1 ).........(X − αn )
où a ∈ K∗ est le coefficient de X n et α1 , α2 , ............. αn ∈ K
Les αi ne sont pas nécessairement distincts.
Notons {λ1 ,1 , ......., λ p } l’ensemble des racines de P. Alors P s’écrit ainsi :
P(X) = a(X − λ1 )m1 (X − λ2 )m2 ...............(X − λ p )m p
5.2
Somme directe (rappels )
Définition 5.1. Soient E1 , E2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme de E1 et E2 le
sous-espace de E défini par :
E1 + E2 = {x ∈ E/∃x1 ∈ E1 , ∃x2 ∈ E2 : x = x1 + x2 }
Proposition 5.1. Soient E1 et E2 deux sous-espaces vectoriels de E, et soit F = E1 + E2 . La décomposition de tout
T
élément de F en somme d’un élément de E1 et d’un élément de E2 est unique, si et seulement si E1 E2 = {0E }. On
écrit alors :
F = E1 ⊕ E2
et on dit que F est somme directe de E1 et E2
Théorème 5.2. Soit E un espace vectoriel de dimension finie. Alors :
E = E1 ⊕ E1 ⇔ E1 ∩ E2 = {0E } et dim E = dim E1 + dim E2
Exemple 5.1. Dans R3 , soient E1 = vect{(u(1, 0, 0)} et E2 = vect{(0, 1, 0)}
On vérifie que
E1 ∩ E2 = {(0, 0, 0)} et dim(E1 + E2 ) = dim E1 + dim E2
Donc, la somme est directe
E1 ⊕ E2 = R × R × {0}
Théorème 5.3. Soient E1 ,..., E p des sous-espaces vectoriels d’un même espace vectoriel E. Alors ces espaces sont en
somme directe si et seulement si pour toutes bases B1 , B2 ,.....B p de E1 ,..., E p respectivement, la réunion des bases B1 ,
B2 ,..., B p qui est une famille libre.
En d’autres termes, E = E1 ⊕ E2 ⊕ ...... ⊕ E p si et seulement si pour toutes bases B1 , B2 ,.....B p , la famille (B1 , .....B p ) est
une base de E
Corollaire 5.1. Soit E un espace vectoriel.
E = E1 ⊕ E2 ⊕ ...... ⊕ E p , si et seulement si :
1. E = E1 + E2 + ...... + E p
2. dim E = dim E1 + dim E2 + ...... + dim E p
Exemple 5.2. Dans R3 soient E1 = vect{(1, 0, 0)}, E2 = vect{(0, 1, 0)} et E3 = vect{(0, 0, 1)}
On vérifie que
R3 = E1 + E2 + E3 et dim(E1 + E2 + E3 ) = dim E1 + dim E2 + dim E3 = 3
Donc, la somme est directe
E1 ⊕ E2 ⊕ E3 = R × R × R
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES5.3. ELÉMENTS PROPRES D’UN ENDOMORPHISME
5.3
5.3.1
Eléments propres d’un endomorphisme
Valeurs propres et vecteurs propres
Définition 5.2. Soit f un endomorphisme d’un K-espace vectoriel E. On appelle valeur propre de f tout scalaire λ ∈ K
pour lequel il existe un vecteur u non nul de E tel que :
f (u) = λu
Ce vecteur u non nul de E se nomme vecteur propre de f associé à la valeur propre , et le couple (λ, u) ∈ K × E \ {0E },
se nomme élément propre de f .
Exemples 5.3. 1. Soit E un espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
On considère l’endomorphisme f de E défini par

f (e1 ) = e1 − e2 − e3





f (e2 ) = −e1 + e2 − e3




 f (e ) = −e − e + e .
3
1
2
3
Le vecteur u1 = e1 + e2 + e3 est un vecteur propre de f associé à la valeur propre λ1 = −1, car
f (u) = f (e1 + e2 + e3 ) = −(e1 + e2 + e3 ) = −u
Les deux vecteurs u2 = e1 − e3 et u3 = e2 − e3 sont deux vecteurs propres de f associés à la valeur propre λ = 2 puisque
(
f (u2 ) = 2(e1 − e3 ) = 2u2
f (u3 ) = 2(e2 − e3 ) = 2u3
2. Soit f l’application linéaire
C ∞ (R) → C∞ (R)
ϕ 7→ ϕ0
Toute application de la forme x 7→ eλx est vecteur propre de f associé à la valeur propre λ ∈ R car, pour tout ∈ R
(eλx )0 = λeλx
L’ensemble des valeurs propres de f est donc l’ensemble R. Remarquons que cet ensemble est infini.
5.3.2
Caractérisation des valeurs propres
Soit idE : x ∈ E 7−→ x ∈ E l’application identité de E. Soient λ ∈ R une valeur propre de l’endomorphisme f de E
et u un vecteur propre associé à λ.
On a les équivalences suivantes :
f (u) = λu ⇐⇒ ( f − λidE )(u) = 0E ⇐⇒ u ∈ ker( f − λidE )
Proposition 5.4. Soient E un K- espace vectoriel et f un endomorphisme de E. Une condition nécessaire et suffisante
pour que λ ∈ R soit valeur propre de f est que l’endomorphisme f − λidE ne soit pas injectif.
Proposition 5.5. Soient E un K-espace vectoriel et f un endomorphisme de E et (λ, u) ∈ K × E \ {0E } un élément
propre de f . Alors, pour tout k ∈ N ∗ , (λk , u) est un élément propre de f k où
f k = f ◦ f ◦ ...... ◦ f
|
{z
}
k fois
De plus, si f est bijectif alors λ , 0 et (λ−1 , u) est un élément propre f −1
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
5.4. RECHERCHE DES VALEURS PROPRES
5.4
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Recherche des valeurs propres
Proposition 5.6. (Polynôme caractéristique) Soit f ∈ L(E) où E est un espace vectoriel de dimension finie n. Les
valeurs propres de f sont les racines du polynôme :
P f (λ) = det(M f − λI)
— P f est un polynôme de degré n en λ appelé polynôme caractéristique de f
— M f est la matrice de f dans une base quelconque de E
Exemple 5.4. Soit f l’endomorphisme qui, dans la base canonique, est représenté par la matrice

 1
A = 
−1

2

4
On a :
P f (λ) = det(A − λI) =
1−λ
2
−1 4 − λ
= (λ − 2)(λ − 3)
Donc, les valeurs propres de f sont λ1 = 2 et λ2 = 3
— Si A = MB ( f ), P f (λ) sera noté aussi PA (λ)
— L’ensemble des valeurs propres de f est dit spectre de f et est noté S p ( f )


 2
1 

— Par exemple, si A = 
, alors
−5 −2
PA (λ) =
2−λ
−5
2
= λ2 + 1
−2 − λ
Si K = R, A n’a pas de valeurs propres. Donc S p (A) = ∅
Si K = C, A admet deux valeurs propres ı et ı2 . Donc S p (A) = {ı, ı2 }
Soit E un espace vectoriel de dimension n et soit f ∈ L(E), alors f admet au plus n valeurs propres.
Si P f (X) est scindé dans K, il s’écrit :
P f (X) = (−1)n (X − λ1 )(X − λ2 )......................(X − λn )
où λ1 , λ2 ......λn ∈ K sont les valeurs propres de f
On peut écrire P f sous la forme :
P f (X) = (−1)n (X − λ1 )m1 (X − λ2 )m2 ......................(X − λ p )m p
avec m1 , m2 , ................m p les multiplicité respectivement de λ1 , λ2 ......λ p
Soit A ∈ Mn (K), on a les propriétés suivantes :
trA = λ1 + λ2 + ..............λn
PA (0) = det(A) = λ1 .λ2 ...............λn
∀X ∈ K, PA (X) = (−1)n X n + (−1)n−1 trAX (n−1) + ......... + det(A)

 1
Exemple 5.5. si A = 
3

2
, alors
4
det(A − λI) = λ2 − λtr(A) + det(A) = λ2 − 5λ − 2
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
5.5
5.5. SOUS-ESPACES PROPRES
Sous-espaces propres
Définition 5.3. Soient f un endormorphisme d’un K-espace vectoriel E et λ ∈ K une valeur propre de f . On appelle
sous-espace propre associé à λ, et on note Eλ le sous-espace vectoriel de E constitué des vecteurs propres associés à λ et
du vecteur nul. Autrement dit,
Eλ = {x ∈ E | f (x) = λx} = ker( f − λidE )
5.5.1
Recherche des vecteurs propres
Une fois calculées les valeurs propres on détermine les vecteurs propres en résolvant, dans le cas où la dimension
est finie, le système (A − λI)v = 0


 1 2
3
.
Soit f l’endomorphisme de R qui dans la base canonique est défini par 
−1 4
Les valeurs propres sont λ1 = 2 et λ2 = 3.
Il existe donc deux vecteurs propres v1 et v2 tels que :
f (v1 ) = λ1 v1 et f (v2 ) = λ2 v2
Calcul de v1
 
 x
Notons v1 =  ,
y
ce qui donne le système

−1
(A − 2I)v1 = 0 ⇔ 
−1
(
 
2  x
   = 0
2 y
−x + 2y = 0
−x + 2y = 0
 
2
la solution est engendrée par v1 =   ⇒ Eλ1 = vect{(2, 1)}
1
Calcul de v2
 
 x
Notons v2 =  
y
(
−2x + 2y = 0
(A − 3I)v2 = 0 ⇔
−2x + 2y = 0
 
1
la solution est engendrée par v2 =   ⇒ Eλ2 = vect{(1, 1)}
1
On vérifié que B0 = (v1 , v2 ) est une base de R2 ,
det(v1 , v2 ) =
2
1
1
=1,0
1

2
M( f )B = 
0

0

3
La matrice de passage de B = (e1 , e2 ) à B0 = (v1 , v2 )

2
P = 
1

1

1
On vérifie facilement que

2

0

0
 = A0 = P−1 AP
3
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
5.5. SOUS-ESPACES PROPRES
5.5.2
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Dimension d’un sous-espace propre
Pour déterminer dim Eλ , il suffit d’appliquer le théorème du rang à l’endomorphisme f − λidE
dim E = rg( f − λidE ) + dim ker( f − λidE ) = rg( f − λidE ) + dim Eλ
dim Eλ = dim E − rg( f − λidE )
Exercice 5.1. Soit E un R-espace vectoriel de dimension 3 muni d’une base B = (e1 , e2 , e3 ).
Soit f ∈ L(E) :

f (e1 ) = e1 − e2 − e3





f (e2 ) = −e1 + e2 − e3





f (e3 ) = −e1 − e2 + e3
1. Donner le polynôme caractéristique de f et déduire S p ( f )
2. Déterminer les sous-espaces propres Eλi
Solution de l’exercice 5.1. –
1. La matrice associée à f est

 1

A = −1

−1
Le polynôme caractéristique de A est donné par
−1
1
−1

−1

−1

1
1 − λ −1
−1
PA (λ) = det(A − λI) −1 1 − λ −1 = −(λ + 1)(λ − 2)2
−1
−1 1 − λ
Les valeurs propres de f sont λ1 = −1 et λ2 = 2.
Donc
S p (A) = {−1, 2}
2.
(a) Détermination du sous-espace propre Eλ1
On doit résoudre (A − (−1)I3 )X = 0, c’est-à-dire :

   
 2 −1 −1  x1  0

   
−1 2 −1  x2  = 0

    
0
−1 −1 2 x3
Les scalaires x1 , x2 et x3 vérifient le système linéaire homogène suivant :

2x1 − x2 − x3 = 0





−x1 + 2x2 − x3 = 0
(S ) 



−x − x + 2x = 0
1
2
3
En utilisant la méthode du pivot de Gauss, ce système est équivalent au système échelonné suivant :

2x1 − x2 − x3 = 0





3x2 − 3x3 = 0
(S 0 ) 




0=0
deux variables principales x1 et x2 et un libre est x3 donc dimension de l’espace solution égale à
dim ker( f − λ1 idE ) = dimEλ1 = 1.
(ou bien rg(A − (−1)I3 ) = 2, c’est à dire dim Eλ1 = 3 − 2 = 1)
Soit x3 = µ, donc x1 = x2 =3 = µ. Ainsi,
Eλ1 = ker( f − λ1 idE ) = vect(1, 1, 1)
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
5.6. DIAGONALISATION
(b) Détermination du sous-espace propre Eλ2
On doit résoudre (A − 2I3 )X = 0, c’est-à-dire :

 − −1

−1 −

−1 −1
   
−1  x1  0
    
−1  x2  = 0
    
0
− x3
Les scalaires x1 , x2 et x3 vérifient le système linéaire homogène suivant :

x1 + x2 + x3 = 0





0=0
(S ) 




0=0
deux variables libres x2 et x3 et et un principale est x1 donc dimension de l’espace solution égale à
dim ker( f − λ1 idE ) = dim Eλ1 = 2.
Soient x2 = λ, x3 = µ, d’où x1 = −λ − µ
(x1 , x2 , x3 ) = (−λ − µ, λ, µ) = λ(−1, 1, 0) + µ(−1, 0, 1)
Ainsi, Eλ2 = vect{(v1 , v2 )} avec v1 = (−1, 1, 0) et v2 = (−1, 0, 1)
De plus (v1 , v2 ) est une base de Eλ2
On remarque que
dim Eλ1 + dim Eλ2 = dim
E
| {z } | {z } |{z}
=1
puisque Eλ1 ∩ Eλ2 = {0E }, on en déduit que
=3
=2
E = Eλ1 ⊕ Eλ2
On vérifie que C = (v1 , v2 , v3 ) est une base de E avec
v1 = −e1 + e2 , v2 = −e1 + e3 , v3 = e1 + e2 + e3
la matrice de f dans la base C est :

2

0
A = 0

0
0
2
0

0 

0 

−1
On a aussi A0 = P−1 AP, avec P la matrice de passage de B à C :

−1

P =  1

0
5.6
5.6.1
−1
0
1

1

1

1
Diagonalisation
Diagonalisation d’un endomorphisme
Comme nous l’avons vu dans l’exemple 5.4, tous les endomorphismes d’un K espace vectoriel E n’admettent pas
nécessairement de valeurs propres (et donc de vecteurs propres).
Définition 5.4. Soit E un K-espace de dimension finie ou infinie. Un endomorphisme f de E est dit diagonalisable sur
K s’il existe une base de E formée de vecteurs propres de f . Diagonaliser f , c’est trouver une telle base.
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
5.6. DIAGONALISATION
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Soit E espace vectoriel de dimension n et considérons un endomorphisme f ∈ L(E).
Supposons f diagonalisable. D’après la définition 5.4, il existe une base notée C = (u1 , u2 , ........un ) constituée de
vecteurs propres de f
Il existe donc n valeurs propres, comptées avec leurs multiplicités et notées λ1 , λ2 , ........λn ∈ K telles que
f (u1 ) = λ1 u1 , f (u2 ) = λ2 u2 , , ............. f (un ) = λn un
MatC ( f ) =




f (u1 )
λ1
..
.
...
...
..
.
0
...
f (un )
0  u1

..  .. = Diag(λ1 , λ2 , ......λn )
.  .
λn
un
Définition 5.5. Soit A une matrice de Mn (K). On dit que A est diagonalisable si elle est semblable à une matrice
diagonale, c’est-à-dire s’il existe une matrice inversible P d’ordre n sur K, et s’il existe une matrice diagonale D d’ordre
n sur K, telles que
D = P−1 AP
Soit A la matrice définie dans l’exercice 5.1

 1

A = −1

−1
−1
1
−1

−1

−1

1
PA (λ) = −(λ + 1)(λ − 2)2
1. Les valeurs propres de A sont λ1 = −1 (simple) et λ2 = 2 (double) .
2. Les vecteurs propres de A sont : v1 = (−1, 1, 0), v2 = (−1, 0, 1) et v3 = (1, 1, 1)

2

0

0
0
2
0

0 

−1
0  = P AP

−1
avec P la matrice de passage de B à C = (v1 , v2 , v3 ) :
Théorème 5.7. Soit f ∈ L(E) et λ1 ,..., λ p les valeurs propres de f .
Alors les propriétés suivantes sont équivalentes :
1. f est diagonalisable
2. E est somme directe des espaces propres E = Eλ1 ⊕ Eλ2 ⊕ ............. ⊕ Eλ p
3. dim E = dim Eλ1 + Eλ2 + ............. + Eλ p
Corollaire 5.2. Si f admet n valeurs propres deux à deux distinctes alors f est diagonalisable.
Corollaire 5.3. Soient E un K-espace de dimension n et f un endomorphisme de E. Soient λ1 ,..., λ p les valeurs
propres distinctes de f de multiplicités respectives m1 , m2 , ..............., m p et Eλ1 , Eλ2 , ...........Eλ p les sous-espaces propres
correspondants.
Une condition nécessaire et suffisante pour que f soit diagonalisable est que
m1 + m2 + ....... + m p = n, ∀ ∈ {1, 2, .....p}, dimEλi = mi
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

2 1

A) Soit A =0 1

0 2
5.6. DIAGONALISATION

0 

−1 ∈ M3 (R)

4
PA (λ) = −(λ − 1)2 (λ − 3)
1. Les valeurs propres de A sont λ1 = 1 (double) et λ2 = 3 (simple).
2. Les sous espaces propres : Eλ1 = vect{(1, 2, −2)} et Eλ2 = vect{(1, 0, 0)}
dim Eλ1 + dim Eλ1 = 2 , dim R3 = 3
Donc, la matrice A n’est pas diagonalisable.
B) La matrice A de l’exercice 5.1 est diagonalisable :
PA (λ) = −(λ + 1)(λ − 2)2 = −(λ + 1)m1 (λ − 2)m2
dim Eλ1 = m1 = 1 et dim Eλ2 = m2 = 2
dim Eλ1 + dim Eλ2 = 1 + 2 = 3
5.6.2
Polynômes annulateurs
Soit E un espace vectoriel sur K et P ∈ K[X]
P(X) = am X m + am−1 X m−1 + ............ + a1 X + a0
Si f ∈ L(E), on note P( f ) l’endomorphisme de E défini par :
P( f ) = am f m + am−1 f m−1 + ............ + a1 f + a0 idE
Soit f un endomorphisme de E. Nous nous intéresserons par la suite aux polynômes P ∈ K[X], non nuls tels que
P( f ) = 0.
Par exemple, si f est un projecteur (c’est-à-dire f 2 = f ), on a f 2 − f = 0, donc le polynôme P(X) = X 2 − X vérifie
P( f ) = 0
Définition 5.6. Soit E un espace vectoriel sur K et soit f ∈ L(E). Un polynôme P ∈ K[X] est dit annulateur de f si
P( f ) = 0.
Exemple 5.6. E un espace vectoriel sur R soit f un endomorphisme de E tel que f 3 = f .
Le polynôme P(X) = (X 3 − X) = X(X − 1)(X + 1) est annulateur de f
Proposition 5.8. Soit P un polynôme annulateur de f . Alors les valeurs propres de f figurent parmi les racines de P,
c’est-à-dire :
S p( f ) ⊂ Rac(P)
Démonstration. Si λ est une valeur propre de f , il existe un vecteur v non nul tel que f (v) = λv. On a
f 2 (v) = f ( f (v)) = f (λv) = λ2 v
f 3 (v) = λ3 v
... = ....
k
f (v) = λk v
Soit P(X) = am X m + am−1 X m−1 + ............ + a1 X + a0 un polynôme tel P( f ) = 0, c’est-à-dire vérifiant :
P( f ) = am f m + am−1 f m−1 + ............ + a1 f + a0 id = 0
En prenant l’image du vecteur v par l’endomorphisme on trouve :
(am f m + am−1 f m−1 + ............ + a1 f + a0 id)v = 0
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
5.6. DIAGONALISATION
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
c’est-à-dire
(am λm + am−1 λm−1 + ............ + a1 λ + a0 id)v = 0
Or v , 0, donc
am λm + am−1 λm−1 + ............ + a1 λ + a0 id = 0
c’est-à-dire P(λ) = 0
cqfd
REMARQUE. Toutes les racines de P ne sont pas nécessairement valeurs propres de f .
Si E = R2 et B = (e1 , e2 ) la base canonique de R2 et f = id.
f vérifie f 2 = id, donc Q(X)
 = X(X − 1) est annulateur de f
1 0
 et PA (λ) = (1 − λ)2
On a A = MatB ( f ) = 
0 1
0 racine de Q mais n’est pas valeur propre de f
5.6.3
Théorème de Cayley-Hamilton
Théorème 5.9. Soit f ∈ L(E) et P f le polynôme caractéristique de f . On a alors
Pf ( f ) = 0
2
2
Exemple 5.7. Si E = R et B = (e1 , e2 ) la base canonique de R et f ∈ L(E) tel que
(
f (e1 ) = 2e1
f (e2 ) = 3e2


2 0
 , PA (λ) = (2 − λ)(3 − λ), PA ( f ) = f 2 − 5 f + 6id
A = MatB ( f ) = 
0 3
(
PA ( f )(e1 ) = f 2 (e1 ) − 5 f (e1 ) + 6e1 = 4e1 − 10e1 + 6e1 = 0
On a :
PA ( f )(e2 ) = f 2 (e2 ) − 5 f (e2 ) + 6e2 = 9e1 − 15e1 + 6e2 = 0
Ainsi PA ( f ) = 0
Proposition 5.10. Soit f un endomorphisme et
P f (X) = (−1)n (X − λ1 )m1 (X − λ2 )m2 ...............(X − λ p )m p
le polynôme caractéristique. Alors, si f est diagonalisable, le polynôme Q(X) = (X − λ1 )(X − λ2 )...............(X − λ p ),
annule f .
Proposition 5.11. Soit f un endomorphisme d’un K espace vectoriel E de dimension finie. Supposons f non identiquement nul. Si f est nilpotent a alors f n’est pas diagonalisable.
a. Un endomorphisme f de E est dit nilpotent s’il existe un entier naturel non nul k tel que f k = 0.
5.6.4
Polynôme minimal
Définition 5.7. On appelle polynôme minimal de f -noté m f (X)- le polynôme normalisé a annulateur de f de degré le
plus petit.
a. Le premier coefficient = 1
Proposition 5.12. Les racines de m f (X) sont exactement les racines de P f (X), c’est-à-dire les valeurs propres, mais
avec une multiplicité en général différente. En d’autres termes, si on considère P f (X) scindé, c’est-à-dire si
P f (X) = (−1)n (X − λ1 )α1 (X − λ2 )α2 ...............(X − λ p )α p , avec : λi , λ j , α1 + α2 + ...... + α p = n
alors
m f (X) = (X − λ1 )β1 (X − λ2 )β2 ...............(X − β p )β p , avec : 1 ≤ βi ≤ αi
Exemples 5.8. ———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES

0

1. Soit A = 1

1
On a
1
0
2

2

2.

0
PA (X) = −(X + 1)(X + 2)(X − 3)
Donc

−1

2. A =  1

1
5.6. DIAGONALISATION
mA (X) = (X + 1)(X + 2)(X − 3)
1
−1
1

1 

1 

−1
On a donc
PA (X) = −(X − l)(X + 2)2 .
mA (X) = (X − 1)(X + 2) ou mA (X) = (X − 1)(X + 2)2
Calculons (A − I)(A + 2I) ; si l’on trouve la matrice nulle le polynôme minimal sera le premier, si non ce sera le
second.


 

−2 1
1  1 1 1 0 0 0


 

(A − I)(A + 2I) =  1 −2 1  1 1 1 = 0 0 0

 
 

1
1 −2 1 1 1
0 0 0
Donc :
mA (X) = (X − 1)(X + 2)
Théorème 5.13. Un endomorphisme f est diagonalisable si et seulement si son polynôme minimal est scindé et il a
toutes ses racines simples.
Exemples 5.9.
1. On a vu dans l’exemple 5.8

−1 1

A =  1 −1

1
1
Donc A est diagonalisable.
2.

1 

1  et

−1
mA (X) = (X − 1)(X + 2)


 3 2 −2


A = −1 0 1  et PA (X) = −(X − 1)3


1 1 0
donc
si A est diagonalisable
mA (X) = (X − 1) ou (X − 1)2 ou (X − 1)3
mA (X) = (X − 1) ⇔ A − I = 0.
Comme A , I, donc A n’est pas diagonalisable.
3.

3

A = 2

1
donc
A est diagonalisable
−1
0
−1

1

1

2
et PA (X) = −(X − 1)(X − 2)2
mA (X) = (X − 1)(X − 2) ou mA (X) = (X − 1)(X − 2)2
⇔ mA (X) = (X − 1)(X − 2) ⇔ (A − I)(A − 2I) = 0
Or (A − I)(A − 2I) , 0, doc A n’est pas diagonalisable
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
5.7. TRIGONALISATION
5.7
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES
Trigonalisation
Définition 5.8. Soit E un K espace de dimension finie. Un endomorphisme f de E est dit trigonalisable s’il existe une
base de E relativement à laquelle la matrice de f est triangulaire.
Définition 5.9. Une matrice A de Mn (K) est dite trigonalisable si elle est semblable à une matrice triangulaire,
c’est-à-dire s’il existe une matrice P inversible et s’il existe une matrice triangulaire T telle que
T = P−1 AP
Théorème 5.14. Un endomorphisme est trigonalisable dans K si et seulement si son polynôme caractéristique est
scindé dans K .
Corollaire 5.4. Toute matrice A ∈ Mn (C) est semblable à une matrice triangulaire de Mn (C) .
Démonstration. Soit B = (e1 , e2 , ....en ) une base de E.
Supposons que l’endomorphisme f est trigonalisable

a11

MB ( f ) =  ...

0
···
..
.
∗
..
.
···
ann






On a
a11 − λ
..
P f (λ) =
.
0
···
..
.
∗
..
.
···
ann − λ
= (a11 − λ)(a22 − λ).............(ann − λ)
donc P f (λ) est scindé (Les éléments de la diagonale aii sont les valeurs propres).
Réciproquement supposons P f (λ) scindé et montrons par récurrence que f est trigonalisable.
Supposons le résultat vrai à l’ordre n − 1, (n ≥ 2).
Puisque P f (λ) est scindé, il admet au moins une racine λ ∈ K et donc il existe au moins un vecteur propre 1 ∈ Eλ
Complétons {1 } en une base : {1 , 2 , ........n }
On a :


λ
b2 · · · bn 


0

MB ( f ) =  .
 où B ∈ Mn−1 (K)
 ..

B


0
Soit F = vect{2 , 3 , ........, n } et g un endomorphisme de F tel que
Mat{2 ,3 ,........,n } (g) = B
cqfd
———————————————
K.Boulifa & B.Gmira–Cours d’algèbre linéaire MIPC-S 2 : FST-Tanger–2019-2020
Références
., J.-M. et FRAYSSE, H. (1990). Cours de mathématiques - 4 Algèbre bilinéaire et
géométrie. Dunod.
Arnaudiès., J., ., P. D. et Fraysse, H. (1994). Exercices résolus d’algèbre du cours de
mathéntatiaues 1. DUNOD.
Gostiaux, B. (1993). Cours de mathèmatiques spèciales : Tome 1 Algébre. Presses
universitaires de France.
GRIFONE, J. (2011). Algèbre linéaire. 4 édition.
LAC., S. B. et STURM, F. (2009). Algèbre et analyse Cours de mathèmatiques de premiére annvec exercices corriges. Presses polytechniques et universitaires romandes.
Ramis, J.-P. et Warusfel, A. (2007). Mathématiques Tout-en-un pour la Licence 2 :
Cours complet avec applications et 760 exercices corrigès. DUNOD.
Roudier, H. (2008). Algèbre linéaire, Cours et exercices : CAPES et agrégation externe
et interne. VUIBERT.
VOEDTS, J. (2002). Cours de Mathèmatiques MP-MP∗. ellipes.
Download