Sunteți pe pagina 1din 7

Chapitre 5

Diagonalisation des matrices

1. Valeurs propres, espaces propres

Définition 1.1. Soit A ∈ Mn (R). On dit que λ est une valeur propre de A s’il existe
X ∈ Rn non nul tel que AX = λX.

Définition 1.2. Soient A ∈ Mn (R) et λ une valeur propre de A. On dit qu’un vecteur
X ∈ Rn r {0} est un vecteur propre de A associé à la valeur propre λ si AX = λX.

Proposition 1.3. Soit A ∈ Mn (R) et notons u : Rn → Rn l’application qui a X ∈ Rn


associe AX. Alors λ ∈ R ou C est une valeur propre de A (ou de u) si et seulement si
ker(A − λId) 6= {0} (autrement dit si et seulement si ker(u − λId) 6= {0}.
Preuve. D’après la Définition 1.1, λ est une valeur propre si et seulement si il existe
X 6= 0 tel que AX = λX, ce qui s’écrit sous la forme (A − λId)X = 0. Ce qui est
équivalent à ker(A − λId) 6= {0}.

Définition 1.4. Soient A ∈ Mn (R) et λ une valeur propre de A. Le sous espace


ker(A − λId) est appelé sous-espace propre de A associé à la valeur propre λ. Tous ses
élements sont des vecteurs propres de A pour la valeur propre λ.

Proposition 1.5. Soient A ∈ Mn (R), et λ1 , . . . , λp des valeurs propres de A deux à deux


distinctes. Alors les espaces propres ker(A − λ1 Id), . . . , ker(A − λp Id), sont en somme
directe. Cela signifie que tout x ∈ ker(A − λ1 Id) + · · · + ker(A − λp Id) s’écrit d’une
manière unique sous la forme

x = a1 + a2 + · · · + ap ,

avec ai ∈ ker(A − λi Id) pour 1 6 i 6 p.


En particulier des vecteurs propres associés à des valeurs propres distinctes sont
linéairement indépendants.
Preuve. Supposons que l’on ait deux écritures

x = a1 + · · · + ap = b1 + · · · + bp ,

avec ai , bi ∈ ker(A − λi Id) pour 1 6 i 6 p.


On a alors
(a1 − b1 ) + (a2 − b2 ) + · · · + (ap − bp ) = 0.
2 Chapitre 5 Diagonalisation des matrices

Montrons par récurrence sur p que cela entraı̂ne que ai − bi = 0 pour 1 6 i 6 p. Quitte
à poser xi = ai − bi il suffit de montrer par récurrence sur p que si x1 ∈ ker(A −
λ1 Id), . . . , xp ∈ ker A − λp Id, sont tels que x1 + · · · + xp = 0 alors x1 = x2 = · · · = xp = 0.
Pour p = 1 c’est évident. On suppose que la propriété est vraie juqu’au rang p − 1 (avec
p > 2).
Soient xi ∈ ker(A − λi Id) tels que x1 + · · · + xp = 0. On a alors A(0) = 0 =
A(x1 + · · · + xp ) = Ax1 + · · · + Axp = λ1 x1 + · · · + λp xp . Cependant on a aussi
λp (x1 + · · · xp ) = 0.
En faisant la différence, on obtient

(λp − λ1 )x1 + · · · + (λp − λp−1 )xp−1 = 0.

Par hypothèse de récurrence cela entraine que

(λp − λ1 )x1 = · · · = (λp − λp−1 )xp−1 = 0.

Or les valeurs propres λ1 , · · · , λp−1 , λp sont deux à deux distictes, donc x1 = · · · = xp−1 =
0. On en déduit aussitôt que xp = 0, la propriété est vérifiée au rang p.

Proposition 1.6. Soient A ∈ Mn (R), λ une valeur propre de A et Eλ = ker(A − λId).


Alors Eλ est stable par A, c’est-à-dire que A(Eλ ) ⊂ Eλ .
Preuve. Soit x ∈ Eλ . Notons u l’application linéaire associée à A : u(x) = Ax. Alors
u(x) = λx, puis u(u(x)) = u(λx) = λu(x). Ainsi u(x) ∈ Eλ .

2. Diagonalisation

Proposition 2.1. Soient A ∈ Mn (R) et λ ∈ R ou C. Alors λ est une valeur propre de A


si et seulement si dét(A − λId) = 0.
Preuve. D’après la Proposition 1.3, λ est une valeur propre de A si et seulement si
ker(A − λId) 6= {0}. On a vu dans le chapitre précédent que cela était équivalent à
dét(A − λId) = 0.

Définition 2.2. (i) Soit A ∈ Mn (R). Le polynôme caractéristique de A, PA (X) est le


déterminant de la matrice A − XId.
(ii) Soit u : Rn → Rn . Le polynôme carcatéristique de u est le polynôme caractéristique
de u dans une base de Rn . On le note Pu
On admet que Pu ne dépend pas du choix de la base.
Remarque. Le polynôme caractéristique PA est de dégré n et on a :

PA (X) = (−1)n X n + tr(A)X n−1 + · · · + dét A,

où tr(A) est la trace de A c’est-à-dire la somme des coefficients de la diagonale de A.

Proposition 2.3. Une matrice et sa transposée ont même polynôme caractéristique.


Preuve. Soit A ∈ Mn (R). Alors dét(t A − XId) = dét(t (A − XId)) = dét(A − XId) =
PA (X).
Rappel : soit P (X) un polynôme et soit α une racine de P . On dit que α est une racine
de multiplicité m si (X − α)m divise P (X) mais (X − α)m+1 ne divise pas P (X).
2 Diagonalisation 3

Proposition 2.4. Soit u une application linéaire de Rn dans Rn . Soit F un sous-espace


vectoriel de Rn stable par u et non réduit à 0. Soit uF : F → F défini par uF (x) = u(x) :
uF est la restriction de u à F . Alors PuF le polynôme caractéristique de uF divise Pu .
Preuve. Soit (e1 , . . . , ep ) une base de F . Complètons la en une base de Rn B =
(e1 , . . . , ep , . . . , en ). Notons A la matrice de u dans B et A0 celle de uF dans (e1 , . . . , ep ).
Comme F est stable par u, pour 1 6 i 6 p, les vecteurs u(ei ) sont des combinaisons
linéaires de e1 , . . . , ep . On a ainsi :
µ ∂
A0 B
A= ,
0 C

avec C ∈ Mn−p (R). Ainsi


µ ∂
A0 − XIp B
A − XId = .
0 C − XIn−p

En prenant les déterminants on obtient :

dét(A − XId) = dét(A0 − XId) dét(C − XId).

Proposition 2.5. Soient A ∈ Mn (R) et λ une valeur propre de A. Notons m(λ) la


multiplicité de λ comme racine de PA . Alors

1 6 dim(ker(A − λId)) 6 m(λ).

Remarque : si λ est une racine simple de PA alors ker(A − λId) est de dimension 1.
Preuve. Le sous espace propre ker(A−λId) est différent de {0}. Il est donc de dimension
supérieure ou égale à 1. Le sous-espace ker(A − λId) est un espace propre non réduit à
{0}. On peut appliquer la Proposition 2.4 à F = ker(A − λId). On a PuF divise PA . Or
uF est simplement l’application X 7→ λX si bien que PuF (X) = (λ − X)p si p = dim F .
On en déduit que m(λ) > p.
La définition qui suit est également un théorème.
Définition 2.6. Soit u : Rn → Rn une application linéaire. On dit que u est diagonalis-
able s’il vérifie l’une des quatre conditions équivalentes suivantes :
(i) Ilexiste une base dans Rn dans laquelle la matrice de u est diagonale.
(ii) Il existe une base de rn formée de vecteurs propres de u ;
(iii) E est la somme directe des sous espaces propres ker(u − λId) quand λ décrit les
valeurs propores de u ;
(iv) Le polynôme Pu est de la forme Pu (X) = (λ1 − X)m1 · · · (λp − X)mp , où λ1 , . . . , λp
sont les valeurs propres de u et mi = dim ker(u − λi Id).
On admet ce théorème.
Exemple. Soit f l’application linéaire dont la matrice dans la base canonique est
 
−3 2 4
A =  −2 1 4  .
−2 2 3

Le calcul de son polynôme caractéristique est PA (X) = −(X + 1)2 (X − 3).


4 Chapitre 5 Diagonalisation des matrices

ker(A + Id) est le plan d’équation −x + y + 2z = 0. Un base de ce plan est u1 , u2 avec


u1 = (1, 1, 0) et u2 = (2, 0, 1).
Comme la valeur propre 3 est de multiplicité 1, dim ker(A − 3Id) = 1. Une base de cet
espace est u3 = (1, 1, 1).
Soit B = (u1 , u2 , u3 ). La matrice de f dans B est diagonale :
 
−1 0 0
MB (f ) =  0 −1 0  .
0 0 3

Corollaire 2.7. Toute matrice A ∈ Mn (R) avec n valeurs propres distinctes est
diagonalisable.
Cette condition est suffisante mais n’est pas nécéssaire : la matrice de Id est diagonale
mais n’a qu’une seule valeur propre.

3. Polynômes de matrices, polynômes d’applications


linéaires de Rn → Rn
Un endomorphisme est une application d’un espace vectoriel sur lui même. Si u est un
endomorphisme de Rn , on note un = u 0
| ◦ u ◦{z· · · ◦ u} et u = Id.
n fois

Définition 3.1. Soit u un endomorphisme de Rn . Soit P (X) = an X n + · · · + a1 X + a0 .


On définit le polynôme d’endomorphisme P (u) par
P (u) = an un + · · · + a1 u + a0 Id.

Proposition 3.2. Soit u un endomorphisme. On a alors la suite d’inclusions :


{0} ⊂ ker u ⊂ ker u2 · · · ⊂ ker uk ⊂ · · · ⊂ Rn .
En particulier si λ est une valeur propre de u, on a :
{0} ⊂ ker(u − λId) ⊂ ker(u − λId)2 · · · ⊂ ker(u − λId)k ⊂ · · · ⊂ Rn .
Preuve. Soit k ∈ N∗ et soit x ∈ ker uk . Alors uk+1 (x) = u(uk (x)) = u(0) = 0. Ainsi
x ∈ ker uk+1 .

Théorème 3.3(Théorème de Cayley-Hamilton). Soit u un endomorphisme de Rn .


On a alors Pu (u) = 0. De même si A ∈ Mn (R), alors PA (A) = 0.
On admet ce théorème.

Définition 3.4. Soit A ∈ Mn (R). On suppose que PA (X) s’écrit sous la forme :
PA (X) = (−1)n (X − λ1 )m1 · · · (X − λp )mp .
On appelle sous-espace caractéristique associé à la valeur propre λi le sous-espace vectoriel
ker(A − λi Id)mi .
On définit de la même façon les sous-espaces caractéristiques pour un endomorphisme
de Rn .
4 Trigonalisation 5

Théorème 3.5. Soit A ∈ Mn (R) (on peut également considérer u un endomorphisme de


Rn . On suppose que le polynôme caractéristique de A est de la forme :

PA (X) = (−1)n (X − λ1 )m1 · · · (X − λp )mp ,

avec λi 6= λj si i 6= j. Notons Ei = ker(A − λi U d)mi pour 1 6 i 6 p les sous-espaces


caractéristiques de A. On a alors :
(i) Rn = E1 ⊕ · · · ⊕ Ep .
(ii) Pour tout 1 6 i 6 p, dim Ei = mi .
(iii) Si A est diagonalisable alors pour tout 1 6 i 6 p, Ei = ker(A − λi Id).
On admet ce théorème.

4. Trigonalisation

Définition 4.1. Soit A ∈ Mn (R). On dit que A est trigonalisable s’il existe une matrice
inversible P telle que A = P A0 P −1 où A0 est une matrice triangulaire. De même on dit
qu’un endomorphisme u de Rn est trigonalisable s’il existe une base de Rn dans laquelle
la matrice de u est triangulaire.

Théorème 4.2. Une matrice A est trigonalisable si et seulement si toutes les valeurs
propres de A sont réelles.
Pratique de la trigonalisation. Soit A ∈ Mn (R) une matrice de polynôme car-
actéristique PA (X) = (−1)n (X − λ1 )m1 · · · (X − λp )mp .
On construit alors une base de chaque sous-espace caractéristique Ei = ker(A − λi Id)mi
de la manière suivante. On commence par chercher une base de ker(A − λi Id). Si
Ei = ker(A − λi Id) le travail est fini sinon comme

ker(A − λi Id) ⊂ ker(A − λId)2

on construit une base de ker(u − λi Id)2 en complétant la base de ker(u − λi Id)


précédemment trouvée et ainsi de suite jusqu’à obtenir une base de Ei . Si on note u
l’application linéaire de matrice A dans la base canonique alors la matrice de la restric-
tion de u à Ei dans cette base est de la forme :
 
λi ∗ ··· ∗ ∗
0 λi ∗ ··· ∗ 
 . .. .. .. 
Ti = 
 .. . . . ∗ = λi Imi + Ni ,
0 0 · · · λi ∗ 
0 0 · · · 0 λi

qui est triangulaire supérieure et Nimi = 0.


Comme Rn est somme directe des espaces Ei , en réunissant toutes ces bases on obtient
une base dans laquelle la matrice est formée de blocs diagonaux donnés par les Ti . La
matrice est ainsi triangulaire supérieures.
Exemple. Soit f l’application linéaire dont la matrice dans la base canonique est
 
−8 1 5
A =  2 −3 −1  .
−4 1 1
6 Chapitre 5 Diagonalisation des matrices

On a PA (X) = −(X + 4)2 (X + 2).


L’espace propre associé à la valeur propre −4, ker(A + 4Id) est une droite de base
u1 = (1, −1, 1). On en déduit que A n’est pas diagonalisable. On détermine une base de
ker(A + 4Id)2 en utilisant u1 . ker(A + 4Id)2 est le plan d’équation −x + y + 2z = 0. En
prenant u2 = (1, 1, 0), (u1 , u2 ) est une base de ker(A + 4I)2 .
D’autre part le sous-espace propre associé à −2 est une droite de base u3 = (1, 1, 1).
B = (u1 , u2 , u3 ) est alors une base de R3 dans laquelle la matrice de f est de la forme
 
−4 −3 0
MB (f ) =  0 −4 0  .
0 0 −2

5. Calcul des puissances d’une matrice diagonalisable


ou trigonalisable.
Soit A ∈ Mn (R). On veut calculer Ak pour tout entier k > 1.
Cas où A est digonalisable. Alors A = P DP −1 où P est inversible et D est diagonale.
Dans ce cas Ak = P Dk P −1 . De plus si
 
λ1 0 ··· 0 0
 0 λ2 0 ··· 0 
 . .. . . . . .. 
D=
 .. . . .. 

 0 0 ··· λn−1 0 
0 0 ··· 0 λn

alors  λk
1 0 ··· 0 0 
 0 λk2 0 ··· 0 
 .. .. . . . . .. 
D =
k
 . . . .. 

 
0 0 ··· λkn−1 0
0 0 ··· 0 λkn

Cas où A n’est pas diagonalisable mais est trigonalisable.


On peut écrire A sous la forme A = P T P −1 où P est inversible et T est triangulaire.
Comme dans le premier cas, Ak = P T k P −1 . La matrice T k est formée de blocs diagonaux
du type Ti = λi Id + Ni avec Nimi = 0. Il ne reste plus qu’à calculer Tik . On a (rappelons
k!
que Ck` = `!(k−`)! ):
k
X
Tik = Ck` (λi Id)k−` Ni` .
`=0

Or (λi Id)k−` = λk−`


i Idet Ni` = 0 si ` > mi .
Ainsi si k > mi , on a :

Ti= λki I + λk−1


i Ck1 Ni + · · · + λk−mi +1 Ckmi −1 Nimi −1 .

Exemple. On reprend l’exemple du paragraphe précédent :


 
−8 1 5
A =  2 −3 −1  .
−4 1 1
5 Calcul des puissances d’une matrice diagonalisable ou trigonalisable. 7

On a A = P T P −1 avec
     
−4 −3 0 1 1 1 1 −1 0
1
T = 0 −4 0  , P =  −1 1 1  , P −1 =  2 0 −2  .
2
0 0 −2 1 0 1 −1 1 2
µ ∂
k k −1 T1 0
Alors A = P T P . De plus T = avec
0 T2
µ ∂
−4 −3
T1 = , T2 = (−2).
0 −4

De sorte que µ ∂
k T1k 0
T = .
0 T2k
On calcule T1k : T1 = −4Id + N1 avec N12 = 0. Comme −4I et N1 commutent on a

T1k = (−4Id + N1 )k = (−4)k Id + k(−4)k−1 N1 ,

c’est-à-dire µ ∂
(−4)k −3k(−4)k−1
T1k = ,
0 (−4)k
et ainsi  
(−4)k −3k(−4)k−1 0
T = 0
k
(−4)k 0 .
0 0 (−2)k
On termine encalculant Ak = P T k P −1 :
 
(−4)k−1 (−3k − 6) + (−2)k−1 2(−4)k−1−(−2)k−1 (−4)k−1 (3k + 4) + (−2)k
k 
A = (−4)k−1 (3k − 2) + (−2)k−1 −2(−4)k−1−(−2)k−1 (−4)k−1 (−3k + 4) + (−2)k  .
(−4)k−1 (−3k − 2) + (−2)k−1 2(−4)k−1−(−2)k−1 (−4)k−1 (3k) + (−2)k

S-ar putea să vă placă și