Sunteți pe pagina 1din 78

Resume du cours dAlg`ebre Lineaire I & II

Jean-Eloi Lombard
23 juillet 2007
Table des mati`eres
1 Espace Vectoriel 3
1.1 Espace Vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Somme et somme directe de sous-espaces vectoriels . . . . . . 6
2 Espace Vectoriel de Dimension Finie 8
2.1 Span et (in)dependance lineaire . . . . . . . . . . . . . . . . . 8
2.2 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Applications Lineaires 15
3.1 Noyau et Image . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Matrice dune application lineaire . . . . . . . . . . . . . . . . 18
3.3 Inversibilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4 Isomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Valeurs et Vecteurs Propres 24
4.1 Espaces invariants . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2 Matrices Triangulaires Superieurs . . . . . . . . . . . . . . . . 25
4.3 Matrice diagonale . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.4 Espaces invariants sur des R-espaces Vectoriels . . . . . . . . 29
5 Produit scalaire 32
5.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3 Bases orthonormales . . . . . . . . . . . . . . . . . . . . . . . 34
5.4 Projection orthogonale et prob`eme de minimisation . . . . . . 37
5.5 Fonctionnels lineaires et adjoints . . . . . . . . . . . . . . . . 38
1
TABLE DES MATI
`
ERES 2
6 Operat. sur e.v avec produit scalaire 41
6.1 Operateur auto-adjoint et Normal . . . . . . . . . . . . . . . 41
6.2 Operateurs Normaux sur R-espaces vectoriels muni dun pro-
duit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.3 Isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7 Operateurs sur C-espaces vectoriels 53
7.1 Vecteurs propres generalises . . . . . . . . . . . . . . . . . . . 53
7.2 Polynome caracteristique . . . . . . . . . . . . . . . . . . . . 55
7.3 Decomposition dun operateur . . . . . . . . . . . . . . . . . . 57
7.4 Polynome minimal . . . . . . . . . . . . . . . . . . . . . . . . 59
7.5 Forme de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 60
8 Operateurs sur R-espaces vectoriels 62
8.1 Valeurs propres de matrices carrees . . . . . . . . . . . . . . . 62
8.2 Valeurs propres de matrice triangulaires superieures . . . . . 63
8.3 Polynome caracteristique . . . . . . . . . . . . . . . . . . . . 63
9 Trace et determinant 69
9.1 Changement de Base . . . . . . . . . . . . . . . . . . . . . . . 69
9.2 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
9.3 Determinant dun operateur . . . . . . . . . . . . . . . . . . . 72
9.4 Determinant dune matrice . . . . . . . . . . . . . . . . . . . 73
Chapitre 1
Espace Vectoriel
Denition 1.1 (Liste) Une liste de longueur n (n N) est une collection
ordonnee de n objets symbolises par n sigles separe par des virgules, le tout
entre parenth`eses. On dit que lelement j de la liste est la j
e
coordonnee.
Proposition 1.1 Deux listes sont egales si et seulement si :
1. elles ont meme longueur
2. quelque soit le j
e
element de la premi`ere liste, il est egal au j
e
element
de la seconde.
Remarque 1.1 (Dierence entre une liste et un ensemble) Dans une
liste de n elements lordre importe contrairement `a lensemble. Ainsi 1, 2, 3
et 3, 2, 1 et le meme ensemble, mais (1, 2, 3) et (3, 2, 1) sont des listes
dierentes.
Denition 1.2 (Vecteur) Un vecteur est un objet mathematique caracterise
par :
1. une direction
2. un sens
3. une norme
En representation Cartesienne un vecteur de F
n
est represente par une liste
de scalaires de longueur n.
Proposition 1.2 (Addition) Laddition de deux vecteurs de F
n
est donnee
par laddition de chaque composant de la liste. Ainsi, pour u, v F
n
:
u +v = (u
1
+v
1
, . . . , u
n
+v
n
)
3
CHAPITRE 1. ESPACE VECTORIEL 4
Proposition 1.3 (Multiplication) Soit a F et u F
n
, alors la multi-
plication du vecteur u par le scalaire a est donnee par la multiplication de
chaque composante du vecteur par le scalaire a, soit :
au = (au
1
, . . . , au
n
)
1.1 Espace Vectoriel
Denition 1.3 (Espace Vectoriel) Un F-espace vectoriel V est un en-
semble de vecteurs de V muni de la multiplication et de laddition vectorielle
(comme denie ci-dessus) veriant les proprietes suivantes :
1. Commutativite : u +v = v +u u, v V
2. Assossiativite : (u +v) +w = u + (v +w) u, v, w V
3. Identite additive : 0 V/v + 0 = 0 +v = v v V
4. Inverse additif : v V, w V/v +w = 0
5. Identite multiplicative : 1v = vv V
6. Distributivite : a(u + v) = au + av u, v V a F et (a + b)v =
av +bv a, b Fv V .
Proposition 1.4 (Unicite de lelement neutre pour laddition) Un es-
pace vectoriel a un unique element neutre par rapport `a laddition.
Demonstration Supposons 0 et 0

deux elements neutre pour laddi-


tion du meme espace vectoriel V, alors :
0 = 0 + 0

= 0

La premi`ere egalite est justiee par le fait que 0

est une identite additive et


la seconde est justiee par le fait que 0 est un element neutre pour laddition.
Proposition 1.5 (Unicite de linverse additif ) Tout element dun es-
pace vectoriel possede un unique inverse additif.
Demonstration Soit v V avec V un F-espace vectoriel. Supposons
w et w deux inverses additifs de v alors :
w = w + 0 = w + (v +w

) = (w +v) +w

= 0 +w

= w

CHAPITRE 1. ESPACE VECTORIEL 5


La premiere egalite tiens parce que V est un espace vectoriel et donc il existe
un element neutre note 0. La deuxi`eme egalite tiens car w est linverse ad-
ditif de v. La troisi`eme egalite tiens car V est un espace vectoriel et satisfait
donc la propriete dassociativite. La quatri`eme egalite tiens car w est lin-
verse additif de v et nalement la cinqui`eme egalite tiens car 0 est lelement
neutre pour laddition.
Proposition 1.6 a0 = 0 a F
Demonstration a0 = (a + 0)0 = a0 + 0 La premiere egalite tiens car
V est un espace vectoriel donc il existe 0 element neutre pour laddition. La
deuxi`eme egalite tiens `a cause de la propriete de distributivite sur lespace
vectoriel V.
Proposition 1.7 0v = 0 v V
Demonstration 0v = (0 + 0)v = 0v + 0v
Proposition 1.8 (1)v = v v V
Demonstration (1)v +v = 1v +1(v) = (1 1)v = 0 La premi`ere
et la deuxi`eme egalite sont justiee par la propriete de distributivite sur un
espace vectoriel.
1.2 Sous-espace vectoriel
Denition 1.4 Soit V un F-espace vectoriel et U un sous ensemble de V.
U est un sous-espace vectoriel de V si et seulement si il verie les trois
proprietes suivantes :
1. existence de lidentite additive : 0 U
2. sil est ferme sous laddition (denie par la propriete 1.2) : u, v U
u +v U
3. sil est ferme sous la multiplication (denie par la propriete 1.3) :
a F et u U au U
CHAPITRE 1. ESPACE VECTORIEL 6
1.3 Somme et somme directe de sous-espaces vec-
toriels
Denition 1.5 (Somme) Soit U
1
, . . . , U
m
des sous-espaces vectoriels de
V. La somme de U
1
, . . . , U
m
notee U
1
+ . . . + U
m
est lensemble forme par
toutes les sommes possibles delements de U
1
, . . . , U
m
, soit :
U
1
+. . . +U
m
= u
1
+. . . +u
m
/u
1
U
1
, . . . u
m
U
m

Denition 1.6 (Somme Directe) V est la somme directe de U


1
, . . . , U
m
,
note U
1
. . . U
m
si et seulement si tout element de V ne peut-etre ecrit
que par une somme de la forme u
1
+. . . +u
m
avec tout les u
i
U
i
quelque
soit i 1, . . . , n.
Proposition 1.9 Soit U
1
, . . . , U
m
des sous-espaces vectoriels de V. V est
une somme directe de U
1
, . . . , U
m
si et seulement si les deux proprietes sui-
vantes sont veriees :
1. V = U
1
+. . . +U
m
2. la seule mani`ere decrire 0 comme somme de u
1
+. . . +u
m
est davoir
u
i
= 0 i 1, . . . , m.
Demonstration
Sens direct : trivial
Sens indirect : Soit v V alors il existe u
1
U
1
, . . . , u
n
U
n
tel
que v = u
1
+ . . . + u
n
. Montrons que cette ecriture de v est unique.
Prenons donc w
1
U
1
, . . . , w
n
U
n
tels que v = w
1
+ . . . + w
n
en
soustrayant les deux ecritures de v on obtient 0 = (u
1
w
1
) . . . (u
n
w
n
)
or chaque (u
i
w
i
) appartient `a U
i
donc dapr`es la seconde hypothese
on a u
i
= w
i
et donc la representation de v est unique.
Proposition 1.10 Soit U et W deux sous espaces vectoriels de V. V =
U W si et seulement si V = U +W et U W = 0
Demonstration
Sens direct : Si V = U W alors par denition V = U + W.
Montrons maintenant que U W = 0. Prenons v U W alors
0 = v + (v) avec v U et v W. Dapres la Proposition 1.9
v = 0 v U W ce qui revient a dire U W = 0.
CHAPITRE 1. ESPACE VECTORIEL 7
Sens indirect : Nous allons demontrer le sens indirect `a laide de
la Proposition 1.9. Nous avons trivialement V = U + W, il ne reste
donc plus qu`a montrer la deuxi`eme partie de la propriete. Prenons
0 = u + w avec u U et w W. Il faut montrer u = w = 0. Nous
avons 0 = u + w donc u = w avec w W et u U W. Or
U W = 0 donc w = 0 donc u = 0. Donc la seule mani`ere decrire
0 comme somme de vecteurs de U et W est de les avoirs tous nuls, ce
qui compl`ete la preuve.
Chapitre 2
Espace Vectoriel de
Dimension Finie
2.1 Span et (in)dependance lineaire
Denition 2.1 (Combinaison Lineaire) Une combinaison lineaire de la
liste de vecteurs (v
1
, . . . , v
m
) est de la forme :
a
1
v
1
+. . . +a
m
v
m
avec a
1
, . . . , a
m
F
Denition 2.2 (Span) Lensemble de toutes les combinaisons lineaires de
la liste de vecteurs (v
1
, . . . , v
m
) est appele le span de (v
1
, . . . , v
m
) note span(v
1
, . . . , v
m
) :
span(v
1
, . . . , v
m
) = a
1
v
1
+. . . +a
m
v
m
/a
1
, . . . , a
m
F
Denition 2.3 (Espace vectoriel de dimension nie) Un espace vec-
toriel est de dimension nie si et seulement il est engendre par un nombre
ni de vecteurs, soit :
V = span(v
1
, . . . , v
m
)/m N
Denition 2.4 (Liste de vecteurs lineairement independants) Une liste
de vecteurs (u
1
, . . . , u
m
) est dite lineairement independante si et seulement
si la seule mani`ere davoir a
1
u
1
+ . . . + a
m
v
m
= 0 est de choisir tout les
a
1
= . . . = a
m
= 0
8
CHAPITRE 2. ESPACE VECTORIEL DE DIMENSION FINIE 9
Denition 2.5 (Liste de vecteurs lineairement dependants) La denition
sobtient en prenant la negation de 2.4, soit : Une liste de vecteurs (u
1
, . . . , u
m
)
est dite lineairement dependante si et seulement si il existe a
1
, . . . , a
m
non
tous nul, tel que a
1
u
1
+. . . +a
m
u
m
= 0
Lemme 2.1 (Dependance lineaire) Si (v
1
, . . . , v
m
) sont lineairements dependants
dans V et v
1
,= 0 alors il existe j 2, . . . , m tel que :
1. v
j
span(v
1
, . . . , v
j1
)
2. si on enl`eve v
j
de la liste alors on ne change pas lespace engendre par
v
1
, . . . , v
m
Demonstration Premier partie : (v
1
, . . . , v
m
) est lineairement dependant
et v
1
,= 0 donc il existe a
1
, . . . , a
m
F non tous nuls tel que :
a
1
v
1
+. . . +a
m
v
m
= 0
Prenons j = max(j/a
j
v
j
,= 0) alors :
v
j
=
a
1
a
j
v
1
+. . . +
a
j1
a
j
v
j1
ce qui demontre la premiere partie.
Seconde partie : Prenons u span(v
1
, . . . , v
m
). Il existe donc c
1
, . . . , c
m
non
tous nuls tels que :
u = c
1
v
1
+. . . +c
m
v
m
En remplacant v
j
par 2.1 on obtient donc u comme combinaison lineaire de
(v
1
, . . . v
j1
, v
j+1
, . . . , v
m
).
Theoreme 2.1 (de la borne) Dans un espace vectoriel de dimension
nie la longueur de toute liste de vecteurs lineairement independants est
plus petite ou egale `a la longueur de toute liste generant lespace vectoriel.
Demonstration Prenons (u
1
, . . . , u
m
) lineairement dependants dans
V et (w
1
, . . . , w
n
) une liste generant V. Nous voulons donc montrer que
m < n. Nous allons utiliser le Lemme 2.1.
`
A chaque etape du processus nous
remplacons un vecteur w par un vecteur u.
`
A letape 1 nous ajoutons u
1
a
(w
1
, . . . , w
n
) donc la nouvelle liste est forcement lineairement dependante.
On utilise donc le Lemme 2.1 pour enlever un des w. En itterant ainsi nous
obtenons une liste de la forme (u
1
, . . . , u
m
, w
m+1
, . . . , w
n
). Il y a donc au
moins autant de vecteurs w que de vecteurs u.
Proposition 2.1 Tout sous-espace vectoriel dun espace vectoriel de dimen-
sion nie est de dimension nie.
CHAPITRE 2. ESPACE VECTORIEL DE DIMENSION FINIE 10
Demonstration Prenons V un espace-vectoriel de dimension nie et
U un sous espace vectoriel de V. Pour montrer que U est de dimension
nie nous allons proceder par etapes. Premiere etape : Si U = 0 U est de
dimension nie. Sinon, on choisi un vecteur v
1
U non nul. J
e
etape : si
U = span(v
1
, . . . , v
j1
) alors U est de dimension nie sinon on prends un
vecteur v
j+1
non nul tel que v
j+1
/ span(v
1
, . . . , v
j1
). Apr`es chaque etape
nous avons construit une liste de vecteurs lineairements independants et
dapres le Theoreme 2.1 il ne peut y avoir une liste de vecteurs lineairement
independants plus longue que toute liste generant lespace V donc le procede
doit sarreter.
2.2 Base
Denition 2.6 (Base) Une base de lespace vectoriel V est une liste de
vecteur lineairement independants qui gen`ere V.
Proposition 2.2 La liste de vecteurs (v
1
, . . . , v
m
) est une base de V si et
seulement si tout vecteur v de V ne peut-etre ecrit que dune unique facon
de la forme :
v = a
1
v
1
+. . . +a
m
v
m
avec a
1
, . . . , a
m
F
Demonstration
Sens Direct : Supposons dabord que (v
1
, . . . , v
m
) est une base de V
et montrons quil nexiste quune unique facon decrire un vecteur u
de V sous la forme a
1
v
1
+. . . +a
m
v
m
. (v
1
, . . . , v
m
) est une base de V
donc il existe a
1
, . . . , a
m
F tel que quelque soit u V
u = a
1
v
1
+. . . +a
m
v
m
(2.1)
Il nous faut maintenant montrer que cette representation est unique.
Supposons donc, par labsurde quil existe b
1
, . . . , b
m
F tel que :
u = b
1
v
1
+. . . +b
m
v
m
(2.2)
En soustrayant 2.2 `a 2.1 on obtient :
0 = (b
1
a
1
)v
1
+. . . + (b
m
a
m
)v
m
Sens indirect : trivial.
Theoreme 2.2 (du ballon qui degone) Tout liste de vecteur generant
un espace vectoriel peut-etre reduite pour en former une base.
CHAPITRE 2. ESPACE VECTORIEL DE DIMENSION FINIE 11
Demonstration Procedons par etapes. Prenons une liste de vecteur
B = (u
1
, . . . , u
m
) generant V. Si le vecteur u
1
est nul on lenl`eve de la liste.
Ensuite pour chaque vecteur v
j
on verie sil appartient `a span(v
1
, . . . , v
j1
).
Si cest le cas on le supprime de la liste B, sinon on teste le suivant. Le
procede sarrete lorsque tout les vecteurs on ete teste. Il reste ainsi une liste
de vecteur lineairement independants qui engendre V car tout les vecteurs
enleves appartenaient `a span(v
1
, . . . , v
m
).
Corollaire 2.1 (Existence dune base) Tout espace vectoriel de dimen-
sion nie `a une base.
Demonstration Par denition tout espace vectoriel de dimension -
nie poss`ede une liste de vecteurs qui le gen`ere. En appliquant le procede de
la demonstration du Theor`eme 2.2 on obtient donc une base de cet espace
vectoriel.
Theoreme 2.3 (du ballon qui gone) A toute liste de vecteurs lineairement
independants dun espace vectoriel il est possible de rajouter des vecteurs
pour en faire une base.
Demonstration Prenons une liste de vecteurs lineairement independants
(v
1
, . . . , v
m
) dun espace vectoriel V et une liste de vecteurs generant V
(u
1
, . . . , u
n
). On procede `a la methode suivante pour faire une base. Pour
chaque vecteur u
i
on verie sil appartient `a span(v
1
, . . . , v
m
) si cest le cas,
on ne fait rien. Sinon on le rajoute `a la lsite v
1
, . . . , v
m
. Ainsi, une fois tout
les vecteurs u
i
teste on a une liste de vecteurs lineairements independants
(condition pour lajout) et une liste qui gen`ere V car on a ajoute `a la liste
tout les vecteurs.
Proposition 2.3 (Existence du complementaire) Soit V un espace vec-
toriel de dimesion nie et U un sous-espace vectoriel de V. Alors il existe
un sous-espace vectoriel W de V tel que V = U W.
Demonstration V est de dimesion nie donc U est de dimesion -
nie. Il existe donc (u
1
, . . . , u
m
) base de U. Il est donc possible detendre
cette liste de vecteurs lineairement independans pour en faire une base de
V ce qui donne (u
1
, . . . , u
m
, w
1
, . . . , w
n
). Posons W = span(w
1
, . . . , w
n
).
Pour montrer V = U W nous allons montrer V = U + W et U
W = 0. Pour demontrer la premi`ere partie posons v V . Il existe donc
CHAPITRE 2. ESPACE VECTORIEL DE DIMENSION FINIE 12
a
1
, . . . , a
m
, b
1
, . . . , b
n
F tel que :
v = a
1
u
1
+. . . +a
m
u
m
+b
1
w
1
+b
n
w
n
donc clairement v U + W ce qui demontre la premi`ere partie. Pour
demontrer UW = 0 prenons v UW. Il existe donc a
1
, . . . , a
m
, b
1
, . . . b
n

F tel que :
v = a
1
u
1
+. . . +a
m
u
m
= b
1
w
1
+. . . +b
n
w
n
0 = a
1
u
1
+. . . +a
m
u
m
b
1
w
1
. . . b
n
w
n
(u
1
, . . . u
m
, w
1
, . . . , w
n
) est linairement independant donc par denition la
seule mani`ere davoir une combinaison lineaire nulle est davoir tout les
u
i
= w
j
= 0. Donc v = 0 donc U W = 0 ce qui demontre la seconde
partie de la preuve et termine la demonstration.
2.3 Dimension
Denition 2.7 La dimension dun espace vectoriel V de dimension nie
est denie comme le nombre de vecteurs de la base de cette espace et est
note dim(V ).
Theoreme 2.4 Deux bases dun meme espace vectoriel de dimension nie
on meme longueur.
Demonstration Prenons B
1
et B
2
deux bases de V. B
1
est un liste
de vecteurs lineairement independants et B
2
une base donc dim(B
1
)
dim(B
2
). En inverant les roles on obtient la seconde inegalite ce qui im-
plique dim(B
1
) = dim(B
2
).
Proposition 2.4 Si V est une espace vectoriel de dimension et U un sous-
espace vectoriel de V alors dimU dimV .
Demonstration Comme U est un sous-espace vectoriel de V qui est
de dimension nie tout base de U est une liste de vecteurs lineairement
independants dans V et donc peut-etre etendue pour devenir une base de
V. Ce qui demontre dimU dimV
Proposition 2.5 (du paresseux) Si V est un espace vectoriel de di-
mension nie alors toute liste de vecteurs lineairement independants de V
de longueur dimV est une base de V.
CHAPITRE 2. ESPACE VECTORIEL DE DIMENSION FINIE 13
Theoreme 2.5 Si U
1
et U
2
sont des sous-espace vectoriels dun espace vec-
toriel V de dimension nie alors :
dim(U
1
+U
2
) = dim(U
1
) +dim(U
2
) dim(U
1
U
2
)
Demonstration Prenons u
1
, . . . u
m
base de U
1
U
2
. Alors dim(U
1
U
2
) = m.
Cette liste de vecteur est lineairement independante (par denition). Il est
donc possible dy rajouter des vecteurs (v
1
, . . . , v
n
) pour en faire une base de
U
1
. Ainsi dim(U
1
) = m + n. Il est aussi possible de rajouter (w
1
, . . . w
k
) `a
(u
1
, . . . , u
m
) pour en faire une base de U
2
. Donc dim(U
2
) = m+k. Il nous
reste donc `a montrer que (u
1
, . . . , u
m
, . . . , v
1
, . . . v
n
, w
1
, . . . , w
k
) est une base
de U
1
+U
2
car on aura :
dim(U
1
) +dim(U
2
) dim(U
1
U
2
) = m+k +m+n m
= m+k +n
= dim(U
1
+U
2
)
Nous avons span(u
1
, . . . , u
m
, v
1
, . . . v
n
, w
1
, . . . , w
k
) contient U
1
et U
2
. Il faut
donc montrer que (u
1
, . . . , u
m
, v
1
, . . . v
n
, w
1
, . . . , w
k
) est lineairement independants.
Nous allons donc montrer que la seule mani`ere decrire 0 comme combi-
naison lineaire de (u
1
, . . . , u
m
, v
1
, . . . v
n
, w
1
, . . . , w
k
) implique que tout les
scalaires soit nuls. Prenons des a, b, c F tels que
a
1
u
1
+. . . +a
m
u
m
+b
1
v
1
+. . . b
n
v
n
+c
1
w
1
+. . . +c
k
w
k
= 0
c
1
w
1
+. . . +c
k
w
k
= a
1
u
1
. . . a
m
u
m
b
1
v
1
. . . b
n
v
n
(2.3)
donc c
1
w
1
+. . . +c
k
w
k
U
1
. Or tout les w
i
U
2
donc c
1
w
1
+. . . +c
k
w
k

U
1
U
1
U
2
et il existe donc des d F tels que :
c
1
w
1
+. . . +c
k
w
k
= d
1
u
1
+. . . +d
m
u
m
mais la liste de vecteurs (w
1
, . . . w
k
, u
1
, . . . u
m
) est lineairement independante
donc tout les c et d sont nuls. Donc 2.3 devient :
0 = a
1
u
1
+. . . +a
m
u
m
+b
1
v
1
+. . . +b
n
v
n
Or les (u
1
, . . . , u
m
, v
1
, . . . v
n
) est une liste de vecteurs lineairement independants.
donc tout les a et b sont necessairement nuls. On a donc le resultat desire.
Proposition 2.6 Soit V un espace vectoriel de dimension nie et U
1
, . . . , U
m
des sous-espaces vectoriels de V tel que :
1. V = U
1
+. . . +U
m
2. dimV = dimU
1
+. . . +dimU
m
alors V = U
1
. . . U
m
CHAPITRE 2. ESPACE VECTORIEL DE DIMENSION FINIE 14
Demonstration Pour demontrer cette somme directe nous allons mon-
trer que V est la somme des U
i
(trivial car cest une hypothese) et que la
seule mani`ere davoir 0 comme combinaison lineaire de tout les vecteurs de
chaque U
i
et de prendre chaque coecient nul. Prenons donc une base de
U
1
que nous ajoutons a une base de U
2
et ainsi de suite. Nous avons au
nal une liste de vecteurs qui span V (car V = U
1
+ . . . + U
m
) qui est de
dimension V. Donc cette liste est une base de V. Prenons maintenant des
u
i
U
i
tels que :
0 = u
1
+. . . +u
m
Chaque u
i
peut-etre exprime dans la base construite ci-dessus. Nous avons
donc exprimes 0 comme combinaison lineaire de cette base. Donc tout les
scalaire de la combinaison lineaire doivent etre nul ce qui ach`eve la demonstration
de la propriete.
Chapitre 3
Applications Lineaires
Denition 3.1 (Application Lineaire) Une application lineaire de V dans
W est une fonction (ou application) T : V W qui satisfait les proprietes
suivantes :
1. additivite : T(u +v) = T(u) +T(v) u, v V
2. homogeneite : T(av) = aT(v) a F, v V
Proposition 3.1 L(V, W) est un sous-espace vectoriel de F(V, W).
Demonstration
1. clairement lapplication 0 est lineaire.
2. soit l
1
l
2
deux applications lineaires, alors trivialement l
1
+ l
2
est
lineaire.
3. de meme pour tout F et l L(V, W), l est lineaire.
3.1 Noyau et Image
Denition 3.2 (Noyau) Si T L(V, W) le noyau de T note null(T) (ou
Ker(T)) est le sous-ensemble de V (la Proposition 3.2 montre que cest
meme un sous-espace vectoriel) dont limage de tout les vecteurs par T est
0 :
Ker(T) = null(T) = v V/Tv = 0
Proposition 3.2 Si T L(V, W) alors Ker(T) est un sous-espace vecto-
riel de V.
15
CHAPITRE 3. APPLICATIONS LIN

EAIRES 16
Demonstration Pour montrer que Ker(T) est un sous-espace vecto-
riel (en sachant que cest un sous-ensemble de V) il ne nous reste plus qua
demontrer que Ker(T) est ferme sous laddition et la multiplication (et quil
est non-vide). Ladditivite de T implique
T(0) = T(0 + 0) = T(0) +T(0) T(0) = 0
donc 0 Ker(T). Prenons maintenant u, v Ker(T) on a donc :
T(u +v) = T(u) +T(v) = 0
donc (u+v) Ker(T) ce qui montre que Ker(T) satisfait laddition interne.
Prenons maintenant u Ker(T) et a F alors :
T(au) = aT(u) = a0 = 0
donc Ker(T) est ferme sous la multiplication par un scalaire.
Denition 3.3 (Injectivite) Une application lineaire L(V, W) est injec-
tive si quelque soit u, v V on a Tu = Tv implique u = v.
Proposition 3.3 Soit T L(V, W). T est injective si et seulement si
Ker(T) = 0
Demonstration
Sens direct : Supposons T injective et montrons Ker(T) = 0.
Trivialement 0 Ker(T) il nous reste donc a montrer Ker(T) 0.
Prenons u Ker(T) on a donc T(u) = 0 = T(0) or T est injective
donc u = 0.
Sens indirect : Supposons maintenant Ker(T) = 0 et montrons que
T est injective. Prenons donc u, v V tels que T(u) = T(v). On a
donc 0 = T(u)T(v) ce qui implique (par linearite de T) T(uv) = 0.
Donc (u v) Ker(T). Or Ker(T) = 0 (par hypothese) donc
u v = 0 donc u = v ce qui complete la demonstration.
Denition 3.4 (Image) Soit T L(V, W). Limage de T, note Im(T)
(ou range(T)) est le sous-ensemble de W (nous allons montrer que cest
meme un sous-espace vectoriel Proposition 3.4) dont tout les vecteurs sont
de la forme T(v) pour un certain v dans V :
Im(T) = range(T) = w W/v V, w = T(v)
Denition 3.5 (Rang) Le rang dune application lineaire T L(V, W)
est la dimension de son image.
Proposition 3.4 Si T L(V, W) alors Im(T) est un sous-espace vectoriel
de W.
CHAPITRE 3. APPLICATIONS LIN

EAIRES 17
Demonstration Soit T L(V, W) alors T(0) = 0 donc 0 Im(T)
(par denition). Prenons maintenant w
1
et w
2
dans W et montrons que
w
1
+w
2
W. Il existe donc v
1
et v
2
dans V tel que T(v
1
) = w
1
et T(v
2
) =
w
2
.
T(v
1
) +T(v
2
) = T(v
1
+v
2
)
ce qui demontre la premi`ere partie. Montrons maintenant que Im(T) est
ferme sous la multiplication par un scalaire a F. Prenons w W et
v V /T(v) = w. On a donc :
aT(v) = T(av)
ce qui termine la demonstration.
Denition 3.6 (Surjectivite) Une application lineaire T L(V, W) est
dite surjective si et seulement si Im(T) = W.
Theoreme 3.1 (des dimensions ou du rang) Si V et W sont des
espaces vectoriels de dimension nie et T L(V, W) alors Im(T) est un
sous-espace vectoriel de W et :
dim(V ) = dim
_
Im(T)
_
+dim
_
Ker(T)
_
Demonstration Soit V un espace vectoriel de dimension nie et T L(V, W).
Prenons (u
1
, . . . u
m
) une base de Ker(T). On a donc dim(Ker(T)) = m.
Par le Theor`eme 2.3 on peut rajouter des vecteurs `a cette base de Ker(T)
pour former une base de V qui aura la forme (u
1
, . . . , u
m
, w
1
, . . . , w
n
). Donc
dim(V ) = m+n. Il nous faut donc montrer dim(Im(T)) = n. Pour ce faire
nous allons montrer que (Tw
1
, . . . , Tw
n
) est une base de Im(T). Prenons
v V . Comme (u
1
, . . . , u
m
, w
1
, . . . , w
n
) est une base de V il existe a, b R
tels que :
v = a
1
u
1
+. . . +a
m
u
m
+b
1
w
1
+. . . +b
n
w
n
donc :
Tv = b
1
Tw
1
+. . . +b
n
Tw
n
car T est lineaire et (u
1
, . . . , u
m
) Ker(T). On a donc Im(T) = span(b
1
Tw
1
+
. . .+b
n
Tw
n
). Il nous faut donc montrer que (Tw
1
, . . . , Tw
n
) est lineairement
independant. Prenons donc des scalaires c F tels que :
c
1
Tw
1
+. . . +c
n
Tw
n
= 0 (3.1)
T(c
1
w
1
+. . . +c
n
w
n
) = 0
CHAPITRE 3. APPLICATIONS LIN

EAIRES 18
donc (c
1
w
1
+. . . +c
n
w
n
) Ker(T). Or (u
1
, . . . , u
m
) est une base de Ker(T)
donc il existe des scalaires d tels que :
c
1
w
1
+. . . +c
n
w
n
= d
1
u
1
+. . . +d
n
u
n
c
1
w
1
+. . . +c
n
w
n
d
1
u
1
. . . d
n
u
n
= 0 (3.2)
Or (u
1
, . . . , u
m
, w
1
, . . . , w
n
) est une liste lineairement independante donc 3.2
implique que tout les scalaires sont nuls donc lequation 3.1 implique que
Tw
1
, . . . Tw
n
est lineairement independante.
Corollaire 3.1 Si V et W sont des espaces vectoriels de dimension nie
veriant dim(V ) > dim(W) alors il nexiste pas dapplication lineaire injec-
tive de V dans W.
Demonstration Le theor`eme 3.1 nous donne :
dim(V ) = dim(KerT) +dim(ImT)
et Im(T) W donc dim(ImT) < dimW. Or dimW < dimV donc dim(ImT) < dimV
donc dim(KerT) ,= 0.
Corollaire 3.2 Si V et W sont des espaces vectoriels de dimension nie
veriant dim(V ) < dim(W) alors il nexiste pas dapplication lineaire sur-
jective de V dans W.
Demonstration Le theor`eme 3.1 nous donne :
dim(V ) = dim(KerT) +dim(ImT)
Ab absurdo : Supposons quil existe une application T surjective. On au-
rait donc dim(ImT) = dimW ce qui nous donne dim(V ) = dim(KerT) +
dim(W) donc dim(V ) dim(W) ce qui contredit lhypoth`ese dimV <
dimW.
3.2 Matrice dune application lineaire
Denition 3.7 (Matrice) Soit m, n N. Une matrice m-par-n est un ta-
bleau rectangulaire de m lignes et n colonnes de la forme :
_
_
_
a
1,1
. . . a
1,n
.
.
.
.
.
.
a
m,1
. . . a
m,n
_
_
_ (3.3)
CHAPITRE 3. APPLICATIONS LIN

EAIRES 19
Soit T L(V, W), (v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
m
) une base de
W. Pour tout k = 1, . . . , n il existe une combinaison lineaire unique de w
tels que :
Tv
k
= a
1,k
w
1
+. . . +a
m,k
w
m
avec tout les a
j,k
Fj = 1, . . . , n. Les a
j,k
denissent la matrice puisquils
sont les coecients par rapport aux bases choisies. Ainsi la matrice 3.3 est
la matrice de lapplication lineaire T par rapport aux bases (v
1
, . . . , v
n
) et
(w
1
, . . . , w
m
) notee M(T, (v
1
, . . . v
n
), (w
1
, . . . , w
m
)). Cette matrice est construite
en remplissant chaque colonne k avec les coecient de T(v
k
).
Proposition 3.5 Mat(m, n, F) est un espace vectoriel.
Proposition 3.6 La multiplication dune matrice A de termes a
j,k
par une
matrice B de termes b
j,k
est la matrice AB de dimension m-par-n dont le
terme de la j
e
lignes et k
e
colonne est donne par :
n

r=1
a
j,r
b
r,k
Proposition 3.7 Soit T L(V, W), (v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
m
)
une base de W, alors :
M(Tv) = M(T)M(v)
v V.
Demonstration Soit M(T) la matrice :
M(T) =
_

_
a
1,1
. . . a
1,n
.
.
.
.
.
.
a
m,1
. . . a
m,n
_

_
ce qui est equivalent a :
Tv
k
=
m

j=1
a
j,k
w
j
CHAPITRE 3. APPLICATIONS LIN

EAIRES 20
Soit v un vecteur de V alors T(v) est donne par :
Tv = b
1
Tv
1
+. . . +b
n
Tv
n
= b
1
m

j=1
a
j,1
w
j
+. . . +b
n
m

j=1
a
j,n
w
j
=
m

j=1
(a
j,1
b
1
+. . . +a
j,n
b
n
)w
j
donc
M(T(v)) =
_

_
a
1,1
b
1
+. . . +a
1,n
b
n
.
.
.
a
m,1
b
1
+. . . +a
m,n
b
n
_

_
Denition 3.8 (Syst`eme lineaire) Un syst`eme lineaire de m equations
`a n inconnues est deni par m equations du type :
_

_
a
11
x
1
+. . . +a
1n
x
n
= b
1
.
.
.
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
avec a
ij
F
Denition 3.9 (Solution) c = (c
1
, . . . , c
m
) est une solution du syst`eme si
et seulement si
a
i1
c
1
+. . . +a
in
c
n
= b
i
1 i m
Denition 3.10 (Syst`eme homog`ene) Le syst`eme est dit homog`ene si
b
i
= 0 pour tout 1 i m.
Remarque 3.1 (Calcul de linverse dune matrice) Pour calculer lin-
verse dune matrice, il sut dy joindre la matrice identite puis deectuer
une elimination de Gauss-Jordan.
3.3 Inversibilite
Denition 3.11 (Application Inversible) Une application lineaire T L(V, W)
est inversible si il existe une application S L(W, V ) tel que ST est liden-
tite sur V et TS lidentite sur W. On dit alors que S est linverse T.
Proposition 3.8 Linverse dune matrice est unique.
CHAPITRE 3. APPLICATIONS LIN

EAIRES 21
Demonstration Soit S et S

deux inverses de la matrice T. Alors


S = SI = S(TS

) = (ST)S

= IS

= S

Proposition 3.9 Une application lineaire est inversible si et seulement si


elle est surjective et injective
Demonstration
Sens Direct Supposons que lapplication lineaire T est inversible et
montrons quelle est surjective et injective. Soit u, v V et T(u) =
T(v) alors :
u = T
1
(Tu) = T
1
(Tv) = v
donc Tu = Tv implique u = v alors T est injective. Montrons mainte-
nant que T est surjective. Soit w un vecteur de W. Alors w = TT
1
(w)
donc w est dans Im(T) donc Im(T) = W ce qui revient a dire que T
est surjective.
Sens indirect : Supposons donc que T est injective et surjective
pour montrer que T est inversible. Pour tout w de W denissons S(w)
lunique element de V tel que T(S(w)) = w. TS est lidentite sur W,
montrons que ST est lidentite sur V : soit v V alors :
T(ST(v)) = (TS)(Tv) = I(Tv) = Tv
ST(v) = v
la derni`ere egalite vient du fait que T est injective. Il reste a montrer
que S est lineaire (ce qui est trivial).
3.4 Isomorphisme
Deux espaces vectoriel sont dits isomorphes si et seulement si il existe
une application lineaire inversible dun espace dans lautre.
Theoreme 3.2 Deux espaces vectoriels sont dits isomorphes si et seulement
si ils ont meme dimension.
Demonstration
CHAPITRE 3. APPLICATIONS LIN

EAIRES 22
Sens direct : supposons que V et W sont des espaces vectoriels iso-
morphes de dimension nie. Il existe donc une application lineaire
inversible T de V dans W. Comme T est inversible elle est injective,
donc Ker(T) = 0 et T est surjective donc Im(T) = W. De plus
dimV = dim(Im(T)) +dim(Ker(T)) donc dim(V ) = dim(W).
Sens indirect : supposons V et W des espaces vectoriels de dimension
nie de meme dimension et montrons quils sont isomorphes. Soit
(v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
n
) une base de W et T une
application lineaire de V dans W denie par :
T(a
1
v
1
+. . . +a
n
v
n
) = a
1
w
1
+. . . +a
n
w
n
T est injective car (w
1
, . . . , w
n
) est lineairement independant (ce qui
implique que Ker(T) = 0) et T est surjective car (v
1
, . . . , v
n
) est
lineairement independant. Donc T est inversible ce qui par denition
revient `a dire que V et W sont isomorphes.
Proposition 3.10 Soit (v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
m
) une base
de W. Alors M est une application lineaire inversible de L(V, W) dans
Mat(m, n, F)
Demonstration Montrons que M est inversible et commencons par
montrer que M est injective. Soit T L(V, W) et M(T) = 0, on a donc
Tv
k
= 0 pour k = 1, . . . , n. Or v
1
, . . . , v
n
est une base de V donc T =
0. Donc M(T) = 0 impilque T = 0 ce qui revient a dire que M est in-
jective. Montrons maintenant que M est surjective. Soit A un matrice de
Mat(m, n, F) et T L(V, W) tel que la matrice A soit celle de lapplication
T par rapport aux bases de V et W denie ci-dessus. Clairement M(T) = A
donc Im(M) = Mat(m, n, F) ce qui revient a dire que M est surjective.
Proposition 3.11 Si V et W sont des espaces vectoriels de dimension nie
alors L(V, W) est de dimension nie et
dimL(V, W) = dim(V )dim(W) (3.4)
Demonstration dim(Mat(m, n, F)) = mn = dim(L(V, W)). Il sut
de poser dim(V ) = m et dim(W) = n.
Denition 3.12 (Operateur) Une application lineaire dun espace vecto-
riel dans lui-meme est un operateur.
CHAPITRE 3. APPLICATIONS LIN

EAIRES 23
Theoreme 3.3 (pour les paresseux) Soit V un espace vectoriel de di-
mension nie. Si T L(V ) alors les propositions suivantes sont equivalentes :
1. T est inversible
2. T est injective
3. T est surjective
Demonstration Si T est inversible alors, par denition T est injec-
tive et surjective. Montrons que T est injective implique T est surjective.
Si T est injective alors Ker(T) = 0 donc dim(Im(T)) = dim(V )
dim(Ker(T)) = dim(V ) donc T est surjective. Il ne nous reste plus qua
montrer que T surjective implique T inversible. T est surjective implique
dim(V ) = dim(Im(T)) donc dim(Ker(T)) = 0 donc T est injective, donc
T est inversible.
Chapitre 4
Valeurs et Vecteurs Propres
4.1 Espaces invariants
Denition 4.1 (Espace invariant) Soit T L(V ) et U un sous-espace
vectoriel de V. Si pour tout u U, T(u) U alors on dit que U est invariant
sous T.
Denition 4.2 (Valeur propre) Un scalaire F est une valeur propre
de loperateur T L(V ) si il existe un vecteur non-nul v V tel que
Tu = u. Lensemble des valeurs propres est note Spec(T) :
Spec(T) = F/ est une valeur propre de T
Denition 4.3 (Vecteur Propre) Un vecteur v V est un vecteur propre
associe `a la valeure propre F si Tu = u.
Theoreme 4.1 Soit T L(V ) et
1
, . . . ,
m
F des valeurs propres dis-
tinctes de T avec v
1
, . . . , v
m
les vecteurs propres associes. Alors (v
1
, . . . , v
m
)
sont lineairement independants.
Demonstration Ab absurdo Supposons (v
1
, . . . , v
m
) lineairement dependants.
Soit k le plus petit entier positif tel que v
k
span(v
1
, . . . , v
k1
). Il existe
donc des scalaires a
1
, . . . , a
k1
F tels que :
v
k
= a
1
v
1
+. . . +a
k1
v
k1
(4.1)
en appliquant T des deux c otes :

k
v
k
= a
1

1
v
1
+. . . +a
k1

k1
v
k1
(4.2)
24
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 25
en multipliant lequation 4.1 par
k
et en la soustrayant a 4.2 il vient :
0 = a
1
(
k

1
)v
1
+. . . +a
k1
(
k

k1
)v
k1
or par hypothese (v
1
, . . . , v
k1
) est une liste de vecteur lineairement independants
donc tout les a
i
doivent etre nuls ce qui revient `a dire que v
k
= 0 ce qui
contredit lhypoth`ese selon laquelle tout les v sont non-nuls.
Corollaire 4.1 Tout operateur sur un espace vectoriel V admet au plus
dim(V ) valeur propres distinctes.
Demonstration Soit T L(V ),
1
, . . . ,
m
F des valeures propres
associees aux vecteurs propres v
1
, . . . , v
m
. Le theoreme 4.1 implique m dim(V ).
4.2 Matrices Triangulaires Superieurs
Theoreme 4.2 Tout operateur sur un C-espace vectoriel de dimension nie
admet au moins une valeur propre.
Demonstration Soit V un espace vectoriel de dimension n et T
L(V ). En prenant v V on a (v, Tv, T
2
v, . . . , T
n
v) une liste de vecteurs
forcement lineairement dependantes puisque la liste est de longueur n + 1.
Il existe donc a
0
, . . . , a
n
C non tous nuls tels que :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v (4.3)
Soit m le plus grand entier tels que a
m
est non-nul et prenons les a
i
comme
coecient dun polynome de la forme :
a
0
+a
1
z +. . . +a
n
z
n
= c(z
1
) . . . (z
n
)
avec c C non nul et
i
C. Lequation 4.3 devient donc :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v
= (a
0
I +a
1
T +. . . +a
n
T
n1
)v
= c(z
1
) . . . (z
m
I)v
ce qui implique quau moins un T
i
I nest pas injective (sinon il serait
impossible davoir (T
i
I)v = 0 . . .). Il existe donc un vecteur v tel que
(T
i
I)v = 0 ce qui revient `a dire que T a une valeure propre.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 26
Proposition 4.1 Soit T L(V ) et (v
1
, . . . , v
n
) une base de V. Les propo-
sitions suivantes sont equivalentes :
1. la matrice de T par rapport `a la base (v
1
, . . . , v
n
) est triangulaire
superieure.
2. Tv
k
span(v
1
, . . . , v
k
) pour tout k = 1, . . . , n.
3. span(v
1
, . . . , v
k
) est invariant sous T pour tout k = 1, . . . , n.
Demonstration Par denition la dune matrice triangulaire superieure,
les deux premi`eres proposition sont equivalentes. Trivialement la troisi`eme
proposition implique la seconde. Il ne reste donc plus qu`a demontrer que
la seconde implique la troisi`eme. Soit k 1, . . . , n. On a donc T(v
k
)
span(v
1
, . . . , v
k
) donc si v span(v
1
, . . . , v
k
), T(v) span(v
1
, . . . , v
k
), donc
span(v
1
, . . . , v
k
) est invariant sous T.
Theoreme 4.3 Soit T L(V ) avec V un C-espace vectoriel. Alors il existe
une base de V tel que la matrice associee `a lapplication T soit triangulaire
superieure.
Demonstration Procedons `a une demonstration par reccurence sur
la dimension de V. Pour une dimension 1, le resultat tiens. Supposons
dim(V ) > 1 et quil existe une base par rapport `a laquelle la matrice de
T est triangulaire superieure. V etant un C-espace vectoriel, T admet au
moins une valeure propre. Soit C cette valeur propre et posons
U = Im(T I)
T I nest pas injective (par denition de la valeure propre) donc dapr`es
le Theor`eme 3.3, T I nest pas surjective, donc dim(U) < dim(V ). De
plus on a :
Tu = Tu +u u = (T I)u +u
or (T I)u U et u U donc Tu U. T[
u
est donc un operateur sur
U. Or dapr`es lhypoth`ese de reccurence (T I) a une matrice triangulaire
superieure ce qui revient `a ecrire :
Tu
j
span(u
1
, . . . , u
j
)
en rajoutant des vecteurs `a la liste (u
1
, . . . , u
m
) on obtient la liste (u
1
, . . . , u
m
, v
1
, . . . , v
n
)
base de V. Pour tout k on a donc :
Tv
k
= (T I)v
k
+v
k
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 27
de par la denition de U, (T I)v
k
span(u
1
, . . . , v
m
) on a donc :
Tv
k
span(u
1
, . . . , u
m
, v
1
, . . . , v
k
)
donc dapr`es la Proposition 4.1, T `a une matrice triangulaire superieure par
rapport `a la base (u
1
, . . . , u
m
, v
1
, . . . , v
n
).
Proposition 4.2 Soit T L(V ) ayant une matrice triangulaire superieure
par rapport `a une certaine base de V. T est inversible si et seulement si tout
les termes sur la diagonale de la matrice sont non-nuls.
Demonstration
Sens direct : Demontrons dabord que si une des valeurs de la dia-
gonale, dison
k
est nulle alors la matrice associee `a lapplication T
nest pas inversible. Si
1
= 0 alors clairement T nest pas injective,
donc pas bijective, donc pas inversible. Supposons maintenant
k
= 0
avec k = 2, . . . , n. On a donc T(v
k
) span(v
1
, . . . , v
k1
). On peut
donc denir une nouvelle application lineaire :
S : span(v
1
, . . . , v
k
) span(v
1
, . . . , v
k1
)
span(v
1
, . . . , v
k
) est de dimension k et span(v
1
, . . . , v
k1
) est de di-
mension k 1 donc S ne peut pas etre injective. Elle nest donc pas
bijective donc pas inversible.
Sens indirect : Supposons T non-inversible et montrons que cette
proposition implique un
k
nul. Si T nest pas inversible alors T nest
pas injective (car pour un operateur injectivite, surjectivite et bijecti-
vite sont equivalents, Theor`eme 3.3). Il existe donc un vecteur v non
nul et des scalaires a
1
, . . . , a
k
tels que
T(v) = 0
T(a
1
v
1
+. . . , a
k
v
k
) = 0
(a
1
Tv
1
+. . . +a
k1
Tv
k1
) +a
k
Tv
k
= 0 (4.4)
avec (v
1
, . . . , v
n
) une base de V. Clairement le premier terme appar-
tient `a span(v
1
, . . . , v
k1
) et le second appartient aussi car lequation
4.4 implique (a
1
Tv
1
+ . . . + a
k1
Tv
k1
) = a
k
Tv
k
ce qui revient `a
dire Tv
k
span(v
1
, . . . , v
k
). Donc le coecient de v
k
est nul lorsque
de Tv
k
est exprime par rapport `a la base (v
1
, . . . , v
n
). Ce qui demontre

k
= 0.
Proposition 4.3 Soit T L(V ) dont la matrice associee est triangulaire
superieure par rapport `a une certaine base de V. Les valeurs propres de
lapplication T sont les entrees sur la diagonale de la matrice associee.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 28
Demonstration Soit (v
1
, . . . , v
n
) une base de V alors la matrice de T
par rapport `a cette base est donnee par :
M(T, (v
1
, . . . , v
n
)) =
_

2
.
.
.
0
n
_

_
et pour un scalaire
M(T I, (v
1
, . . . , v
n
)) =
_

2

.
.
.
0
n

_

_
est une valeur propre de T si et seulement si =
k
pour un k 1, . . . , n
4.3 Matrice diagonale
Denition 4.4 (Matrice Diagonale) Une matrice est dite diagonale si
tout les termes en dehors de la diagonale sont nuls.
Proposition 4.4 Si T L(V ) a dim(V) valeurs propres distinctes alors
T admet une matrice diagonale par rapport `a une certaine base de V.
Demonstration Puisque T a dim(V ) valeurs propres distinctes, T a
dim(V ) vecteurs propres associes. Or les vecteurs associes `a des valeurs
propres distinctes sont lineairement independants. Donc cette liste de vec-
teurs fournit une base de V. Par rapport `a cette base, la matrice de T est
diagonale.
Proposition 4.5 Soit T L(V ). Soit
1
, . . . ,
m
des valeurs propres dis-
tinctes de T. Alors les propositions suivantes sont equivalentes :
1. T a une matrice diagonale par rapport `a une base de V.
2. V a une base construites par les vecteurs propres de T.
3. il existe des espaces vectoriels V uni-dimensionels U
1
, . . . , U
m
inva-
riants sous T tel que V = U
1
+. . . +U
m
.
4. V = Ker(T
1
I) . . . Ker(T
m
I).
5. dim(V ) = dim(Ker(T
1
I)) +. . . +dim(Ker(T
n
I))
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 29
Demonstration
1. La Proposition 4.5 demontre lequivalence des deux premi`eres proposi-
tions.
2. Supposons maintenant que V poss`ede une base de vecteurs propres de
T en posant U
j
= span(v
j
) on a bien une somme directe despace
vectoriels invariants sous T. Donc la proposition 2 implique la 3.
3. Supposons maintenant la proposition 3 et demontrons quelle implique
la 2. On procede `a la meme desmontration que precedement, mais dans
lautre sens.
4. Supposons maintenant la proposition 2 et montrons la 4. On a donc
tout vecteur v V exprime comme combinaison lineaire des vecteurs
propres de T, soit :
V = Ker(T
1
I) +. . . +Ker(T
n
I) (4.5)
Cette somme est directe car les espaces propres associes `a des valeurs
propres distinctes sont lineairement independants. La denition de la
somme directe et la proposition 4 implique la proposition 5.
5. Demontrons nalement que la proposition 5 implique la 2. On a
dim(V ) = dim(Ker(T
1
I)) +. . . +dim(Ker(T
n
I))
Formons une liste de vecteurs (v
1
, . . . , v
n
) propres de T. Pour montrer
que cette liste est lineairement independante prenons un vecteurs v de
V et montrons que la seule mani`ere davoir v = 0 lorsquil est exprime
dans la base (v
1
, . . . , v
n
) et davoir tout les scalaires a
1
, . . . , a
n
F
nuls, soit :
v = a
1
v
1
+. . . +a
n
v
n
= 0
or les v
k
sont des vecteurs des espaces propres de T, donc la seule
mani`ere davoir v = 0 est de prendre tout les a
k
= 0. Les v
1
, . . . , v
n
sont donc linairement independants et forment donc une base de V.
4.4 Espaces invariants sur des R-espaces Vecto-
riels
Theoreme 4.4 Tout operateur sur un R-espace vectoriel de dimension nie
a un sous-espace invariant de dimension 1 ou 2.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 30
Demonstration Soit V un R-espace vectoriel de dimension n > 0 et
T L(V ). Soit v ,= 0 V alors la liste de vecteurs (v, Tv, T
2
v, . . . , T
n
V )
ne peut pas etre lineairement independantes puisquelle est de longueur n+1.
Il existe donc des scalaires a
0
, . . . , a
n
R non tous nuls tels que :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v
Utilisons ces scalaires pour construire un polynome de degre n que nous
ecrivons sous sa forme factorisee :
c(x
1
) . . . (x
m
)(x
2
+
1
x +
1
) . . . (x
2
+
M
x +
M
)
On a donc :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v
= c(T
1
I) . . . (T
m
I)(T
2
+
1
T +
1
I) . . . (T
2
+
M
T +
M
I)v
ce qui revient `a dire quau moins un des (T
k
I) ou un des (T
2
+
K
T+
K
I)
nest pas injectif. Si (T
k
I) nest pas injectif alors T `a un espace invariant
de dimension 1 qui est lespace propre associe `a la valeur propre
k
. En
revanche si cest un des (T
2
+
K
T +
K
I) qui nest pas injectif alors on
a (T
2
+
K
T +
K
I)v = 0. On cherche `a trouver un espace invariant sous
T de dimension 1 ou 2. Prenons span(u, Tu). Tout element de span(u, Tu)
est de la forme au +bTu, on a donc :
T(au +bTu) = aTu +bT
2
u
or T
2
u =
K
Tu
K
u, donc :
T(au +bTu) = aTu b
K
Tu b
K
u
donc T(au +bTu) span(u, Tu).
Denition 4.5 (Projection) Soit U, V et W des espaces vectoriels tels
que V = U W. P
U,W
L(V ) deni par P
U,W
v = u pour tout v V est
la projection de V sur U parall`element `a W.
Proposition 4.6 (Importante ! ! !) P est un projecteur si et seulement si
p p = p.
Theoreme 4.5 Tout operateur sur un R-espace vectoriel de dimension im-
paire a une valeur propre.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 31
Demonstration Soit V un R-espace vectoriel de dimension nie. Procedons
`a une demonstration par reccurence sur la dimension de V. Pour une dimen-
sion de 1 le thero`eme tient. Supposons donc dim(V ) un impair superieur `a
1. Le resultat tiens donc pour un sous-espace vectoriel de V de dimension
dim(V ) 2. Soit T L(V ). Si T `a une valeur propre la demonstration est
nie, sinon on sait que T a un sous-espace vectoriel invariant U de V de di-
mension 2. Soit W un sous-espace vectoriel de V tel que V = U W. W est
de dimension dim(V ) 2, on peut donc appliquer lhypoth`ese de reccurence.
T[
W
nest pas necessairement un operateur sur W, on pose donc S L(W)
tel que Sw = P
W,U
(Tw) pour tout w W. Lhypoth`ese dinduction implique
que S `a une valeur propre . ll nous faut maintenant chercher une valeur
propre de T[
U+span(w)
. Prenons donc un vecteur u+aw U +span(w) avec
u U et a F, on a donc :
(T I)(u +aw) = Tu U +a(Tw w)
= Tu u +a(P
U,W
(Tw) +P
W,U
(Tw) w)
= Tu u +a(P
U,W
(Tw) +Sw w)
= Tu u +aP
U,W
(Tw)
donc (T I)(u + aw) U or dim(U + span(w)) > dim(U) donc (T
I)[
U+span(w)
nest pas injectif. Il existe donc un vecteur v U +span(w)
V tel que (T I)v = 0 ce qui revient `a dire que T `a une valeur propre.
Chapitre 5
Produit scalaire
5.1 Produit scalaire
Denition 5.1 (Forme) Soit V un F-espace vectoriel. Une forme sur V
est une application
: V V F
Denition 5.2 (Forme symetrique) Une forme : V V F est dite
symetrique si pour tout u, v V :
(u, v) = (v, u)
Denition 5.3 (Forme bilineaire) Une forme : V V F est dite
bilineaire si pour tout
1
,
1
,
2
,
2
F et pour tout u
1
, v
1
, u
2
, v
2
V :
(
1
u
1
+
1
v
1
,
2
u
2
+
2
v
2
) =
1

2
(u
1
, u
2
)+
1

2
(u
1
, v
2
)+
1

2
(v
1
, u
2
)+
1

2
(v
1
, v
2
)
Denition 5.4 (Forme denie positive) Une forme : V V F est
dite denie positive si pour tout v V :
(v, v) 0 et (v, v) = 0 v = 0
Denition 5.5 (Produit scalaire) Un produit scalaire sur un espace vec-
toriel V est une forme symetrique, bilineaire, denie positive qui `a tout
couple delements u, v V associe le nombre u, v) F veriant les pro-
prietes suivantes :
1. positivite v, v) 0 pour tout v V .
2. denitivite v, v) = 0 si et seulement si v = 0.
32
CHAPITRE 5. PRODUIT SCALAIRE 33
3. additivite du premier element u + v, w) = u, w) + v, w) pour tout
u, v, w V .
4. homogeneite du premier element : av, w) = av, w) pour tout a F
et u, v V
5. symetrie conjuguee v, w) = w, v) pour tout v, w V .
Denition 5.6 (Espace prehilbertien) Un espace vectoriel prehilbertien
V est un F-espace vectoriel muni dun produit-scalaire. V peut-etre de di-
mension innie !
Denition 5.7 (Espace Euclidien) Un espace Euclidien est un espace
prehilbertien de dimension nie sur R.
Denition 5.8 (Espace Hermitien) Un espace Hermitien est un espace
prehilbertien de dimension nie sur C.
5.2 Norme
Denition 5.9 Soit v V . La norme de V denotee [[v[[ est donnee par :
[[v[[ =
_
v, v)
Denition 5.10 (Orthoganlite ou perpendicularite) Soit u, v V . u
et v sont dits orthogonaux (ou perpendiculaires) si et seulement si
u, v) = 0
Theoreme 5.1 (de Pythagore) Soit u, v V deux vecteurs orthogonaux.
Alors
[[u +v[[
2
= [[u[[
2
+[[v[[
2
Demonstration u, v V orthogonaux.
[[u +v[[
2
= u +v, u +v)
= [[u[[
2
+[[v[[
2
+u, v) +v, u)
= [[u[[
2
+[[v[[
2
Theoreme 5.2 (Inegalite de Cauchy-Schwarz) Si u, v V alors :
[u, v)[ [[u[[[[v[[
CHAPITRE 5. PRODUIT SCALAIRE 34
Demonstration Considerons la decomposition orthogonale de u sur v
et w :
u =
u, v)
[[v[[
2
v +w
dapr`es le theor`eme de Pythagore, on a :
[[u[[
2
=
_
_
_
_
u, v)
[[v[[
2
v
_
_
_
_
2
+[[w[[
2
=
[u, v)[
2
[[v[[
2
+[[w[[
2

[u, v)[
2
[[v[[
2
et en multipliant les deux cotes de linegalite par [[v[[
2
on obtient le resultat.
Theoreme 5.3 (Inegalite triangulaire) u, v V [[v +w[[ [[v[[ +[[w[[
Demonstration
[[v +w[[
2
= v +w, v +w)
= v, v) +v, w) +w, v) +w, w)
= [[v[[
2
+v, w) +v, w) +[[w[[
2
or
v, w) +v, w) = 2Rev, w)
2[v, w)[
donc
[[v +w[[
2
= [[v[[
2
+ 2[v, w)[ +[[w[[
2
[[v[[
2
+[[w[[
2
5.3 Bases orthonormales
Denition 5.11 (liste de vecteurs orthogonaux) Une liste de vecteur
unitaires (e
1
, . . . , e
n
) est dite orthogonale si et seulement si :
e
i
, e
j
) = 0 1 i, j n, i ,= j
CHAPITRE 5. PRODUIT SCALAIRE 35
Proposition 5.1 Soit (e
1
, . . . , e
n
) une liste orthonormale de vecteurs de V.
Alors
|a
1
e
1
+. . . +a
m
e
m
|
2
= [a
1
[
2
+. . . +[a
m
[
2
Corollaire 5.1 Toute liste de vecteurs orthonormaux est lineairement independnante.
Demonstration Soit (e
1
, . . . , e
m
) une liste de vecteurs lineairement
independants et a
1
, . . . a
m
F des scalaires tels que a
1
e
1
+. . . +a
m
e
m
= 0.
On a donc [a
1
[
2
+. . . +[a
m
[
2
= 0 ce qui implique que tout les a
i
= 0.
Denition 5.12 (Base othonormale) Une base orthonormale de V est
une base de V formee de vecteurs orthonormaux.
Theoreme 5.4 Soit (e
1
, . . . , e
n
) une base orthonormale de V, et v un vec-
teur de V
Alors
v = v, e
1
)e
1
+. . . +v, e
n
)e
n
|v|
2
= [v, e
1
)[
2
+. . . +[v, e
n
)[
2
Demonstration v V donc il existe des scalaires a
1
, . . . , a
n
F tels
que v = a
1
e
1
+ . . . + a
n
v
n
. En prenant le produit scalaire des deux cotes de
lequation avec e
j
on a v, e
j
) = a
j
et avec (Proposition 5.1) on en deduit
la seconde equation.
Theoreme 5.5 (Gram-Schmidt) Soit (v
1
, . . . , v
m
) une liste de vecteurs
lineairements independants de V.
Alors il existe une liste de vecteurs orthonormaux (e
1
, . . . , e
m
) tel que
span(v
1
, . . . , v
m
) = span(e
1
, . . . , e
m
)
Demonstration Pour la demonstration utilisons le procede de Gram-
Schmidt.
Pour construire le premier vecteur e
1
normalisons v
1
. Donc e
1
=
v
1
v
1

Pour
construire tout les autres vecteurs (recursivement) utilisons :
e
j
=
v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|
CHAPITRE 5. PRODUIT SCALAIRE 36
Clairement la norme des e
j
est 1, donc cest bien une liste de vecteurs uni-
taires. De plus, pour tout 1 k j
e
k
, e
j
) =
v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|
, e
k
)
=
v
j
, e
k
) v
j
, e
k
)
|v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|
= 0
Donc la liste est aussi orthogonale.
Corollaire 5.2 Tout espace vectoriel de dimension nie admet une base
orthonormale.
Demonstration Il sut dutiliser le procede de Gram-Schmidt pour
obtenir une telle base `a partir de nimporte quelle base de cette espace vec-
toriel.
Corollaire 5.3 Tout liste de vecteurs orthonormaux de V peut-etre etendue
pour devenir une base orthonormale de V.
Demonstration Il sut de rajouter `a la liste de vecteurs orthonor-
maux susament de vecteurs lineairement independants pour former une
base de V, puis appliquer le procede de Gram-Schmidt `a cette base.
Corollaire 5.4 Soit T L(V ). Si T admet une matrice triangulaire superieure
par rapport `a une certaine base de V alors T admet une matrice triangulaire
superieure par rapport `a une certaine base orthonormale de V.
Demonstration Soit (v
1
, . . . , v
n
) une base de V. Si T admet une ma-
trice triangulaire par rapport `a cette base alors
T(v
k
) span(v
1
, . . . , v
k
)
En appliquant le procede de Gram-Schmidt `a (v
1
, . . . , v
k
) il vient (e
1
, . . . , e
k
)
veriant :
span(e
1
, . . . , e
k
) = span(v
1
, . . . , v
k
)
donc T est invariant par rapport `a (e
1
, . . . e
k
) pour tout k < dim(V ) ce qui
revient `a dire que T admet une matrice triangulaire superieure par rapport
`a une base orthonormale.
CHAPITRE 5. PRODUIT SCALAIRE 37
Corollaire 5.5 Soit V un C-espace vectoriel et T L(V ). Alors T admet
une matrice triangulaire superieure par rapport `a une certaine base ortho-
normale de V.
Demonsatration Dapres le Theor`eme 4.3 chaque operateur sur un
C-espace vectoriel admet une matrice triangulaire superieure et dapr`es le
Corrollaire 5.4 loperateur admet une matrice triangulaire par rapport `a une
base orthonormale.
5.4 Projection orthogonale et prob`eme de minimi-
sation
Denition 5.13 (Complement orthogonal) Soit S un sous-espace vec-
toriel de V. Le complement orthogonal de S, note S

est le sous-ensemble
deni par :
S

= v V/v w, w S
Theoreme 5.6 Soit U un sous-espace vectoriel de V,
alors
V = U U

Demonstration Soit U un sous-espace vectoriel de V.


Commencons par montrer que V = U +U

.
Soit (e
1
, . . . , e
m
) une base orthonormale de U et v V .
Alors
v = v, e
1
)e
1
+. . . +v, e
m
)e
m
+v v, e
1
)e
1
. . . v, e
m
)e
m
et posons u = v, e
1
)e
1
+. . . +v, e
m
)e
m
et w = vv, e
1
)e
1
. . . v, e
m
)e
m
.
u U et w U

car pour tout 1 k m


w, e
k
) = v, e
k
) v, e
k
) = 0
De plus, si v UU

alors v est normal `a tout vecteur de U dont lui-meme,


donc v, v) = 0 ce qui implique v = 0 et nalement U U

= 0.
Corollaire 5.6 Si U est un sous-espace vectoriel de V alors (U

= U
CHAPITRE 5. PRODUIT SCALAIRE 38
Demonstration
: Montrons dabord U (U

Soit u U alors u, v) = 0 pour tout v U

. Or u est normal a tout


vecteur de U

donc u (U

.
: Supposons maintenant v (U

. Il existe donc u U et w U

tel que v = u + w. Donc w = v u U

. Or v (U

et u U
(U

donc v u = w (U

. Donc v u U

(U

donc
v u, v u) = 0 donc v = u. Ainsi v (U

implique v U.
Theoreme 5.7 (de la meilleur approximation) Soit U un sous-espace
vectoriel de V et v V .Alors
|v P
U
v| |v u|
pour tout u U avec P
U
v la projection orthogonale de v sur U.
Demonstration Soit u U alors
|v P
U
v|
2
|v P
U
v|
2
+|P
U
v u|
2
et dapr`es le theor`eme de Pythagore
|v P
U
v|
2
= |v P
U
v +P
U
v u|
2
= |v u|
2
Proposition 5.2 (Methode des moindres carres) Pour trouver la meilleur
approximation dun syst`eme lineaire qui na pas de solutions, il faut :
1. calculer P
Im(A)
b
2. trouver v F
n
tel que Av = P
Im(A)
b.
Denition 5.14 (Syst`eme normal) Le syst`eme normal associe au syst`eme
Ax = b est A
t
Ax = A
t
b.
5.5 Fonctionnels lineaires et adjoints
Denition 5.15 (Fonctionnel Lineaire) Soit V un F-espace vectoriel muni
dun produit scalaire.
Un fonctionnel lineaire sur V est une application lineaire T L(V, F).
Proposition 5.3 Soit T L(V, F).
Alors il existe un unique vecteur v tel que
T(u) = u, v)
CHAPITRE 5. PRODUIT SCALAIRE 39
Demonstration Commencons par montrer quil existe un vecteur v
V tel que pour tout u V, T(u) = u, v).
Soit (e
1
, . . . , e
n
) une base orthonormale de V, alors
T(u) = T(u, e
1
)e
1
+. . . +u, e
n
)e
n
)
= u, e
1
)T(e
1
) +. . . +u, e
n
)T(e
n
)
= u, T(e
1
)e
1
+. . . +T(e
n
)e
n
)
En posant v = T(e
1
)e
1
+ . . . + T(e
n
)e
n
on a donc montrer quil existe un
vecteur v V tel que T(u) = u, v). Montrons maintenant, par labsurde
que ce vecteur est unique. Soit v
1
, v
2
V tels que pour tout u V :
T(u) = u, v
1
) = u, v
2
)
on a donc
0 = u, v
1
) u, v
2
)
= u, v
1
v
2
)
cette relation est vraie pour tout vecteur u V , en particulier pour u =
v
1
v
2
, ce qui implique v
1
v
2
= 0 et nalement v
1
= v
2
.
Denition 5.16 (Adjoint) Soit T L(V, W).
Ladjoint de T est lapplication T

(W, V ) tel que pour tout w W


Tv, w) = v, T

w)
pour tout v V .
Proposition 5.4 (Importante !) Soit T L(V, W) et F.
1. (S +T)

= S

+T

2. (S)

= S

3. si T L(V ), alors T

L(V ) et (T

= T.
4. (Id
v
)

= Id
v
5. si S L(W, U), T L(V, W) alors (T S)

= S

Proposition 5.5 Soit T L(V, W). Alors


Ker(T

) = Im(T)

Im(T

) = Ker(T)

Ker(T) = (Im(T)

Im(T) = Ker(T

CHAPITRE 5. PRODUIT SCALAIRE 40


Demonstration Si w W, alors :
w Ker(T

) T

w = 0
v, T

w) = 0
T(v), w) = 0
w Im(T)

Denition 5.17 (Conjuguee Transposee) La conjuguee-transposee dune


matrice m par n A est la matrice n par m, notee A

, obtenue en echangeant
les colonnes et les lignes puis en prenant le conjugue complexe de chaque
element de la matrice.
Denition 5.18 (Matrice symetrique et hermitienne) Si
1. A Mat(n, n, R) et A = A

alors A est symetrique.


2. A Mat(n, n, C) et A = A

alors A est hermitienne.


Proposition 5.6 Soit T L(V, W), (e
1
, . . . , e
n
) une base orthonormale
de V et (f
1
, . . . , f
m
) une base orthonormale de W.
Alors
M(T

, (f
1
, . . . , f
m
), (e
1
, . . . , e
n
))
est la conjuguee transposee de
M(T, (e
1
, . . . , e
n
), (f
1
, . . . , f
m
))
Demonstration Soit T L(V, W), (e
1
, . . . , e
n
) une base orthonor-
male de V et (f
1
, . . . , f
m
) une base orthonormale de W. La k
e
colonne de
M(T) est donnee par lexpression des T(e
k
) par rapport `a la base (f
1
, . . . , f
m
).
Comme (f
1
, . . . , f
m
) est une base orthonormale les coecients des T(e
k
)
sont donnes par :
T(e
k
) = Te
k
, f
1
)f
1
+. . . +Te
k
, f
m
)f
m
donc le k
e
element de la ligne j est donne par T(e
k
), f
j
).
De meme en prenant T

au lieu de T et en inversant les les roles des e


j
et f
k
on a lel`ement de la j
e
ligne et de la k
e
colonne de M(T

) donne par
T

(f
k
), e
j
) = f
k
, T(e
j
)) = T(f
k
), e
j
) qui est egal au conjugue de lel`ement
de la k
e
ligne et de la j
e
colonne de M(T).
Chapitre 6
Operateur sur espace
vectoriel muni dun produit
scalaire
6.1 Operateur auto-adjoint et Normal
Denition 6.1 (Auto-adjoint) Une application T est dite auto-adjointe
si et seulement si T = T

.
Proposition 6.1 Toute valeur propre dun operateur auto-adjoint est reelle.
Demonstration Soit T L(V ) un operateur auto-adjoint. Soit F
une valeure propre associee au vecteur v. On a donc :
|v|
2
= v, v)
= Tv, v)
= v, T

v)
= v, Tv)
= v, v)
=

v, v)
donc

= ce qui revient ` a dire que R.
Proposition 6.2 Soit T L(V ) avec V un C-espace vectoriel muni dun
produit scalaire veriant :
Tv, v) = 0 v V.
41
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 42


alors T = 0.
Demonstration
Tu, w) =
T(u +w), u +w) T(u w), u w)
4
+ i
T(u +iw), u +iw) T(u iw), u iw)
4
u, w V
(6.1)
si Tv, v) = 0 alors pour tout v V lequation 6.1 implique Tu, w) = 0,
donc T = 0.
Denition 6.2 (Normal) Un operateur T L(V ) est normal sil com-
mute avec son adjoint, cest-`a-dire
TT

= T

T
Lappelation normal pour de tels operateurs decoule du Corollaire 6.2.
Proposition 6.3 (Importante) Un operateur T L(V ) est normal si et
seulement si |T

v| = |Tv| pour tout v V .


Demonstration Soit T L(V ). T est normal ce qui est equivalent `a
T

T TT

= 0
T

T TT

v, v) = 0 v V
T

Tv, v) = TT

v, v)
|Tv| = |T

v|
Corollaire 6.1 Soit T L(V ) normal et v un vecteur propre de T associe
`a la valeur propre F. Alors v est un vecteur propre de T

associe `a la
valeur propre

.
Demonstration Comme F est une valeur propre de T associee au
vecteur propre v, (TI)v = 0, donc |(TI)v| = 0. Or T est normal, donc
dapr`es la (Proposition 6.3), 0 = |(T I)v| = |(T I)

v| = |(T

I)v|
donc

est une valeur propre de T associe `a v.
Corollaire 6.2 Si T L(V ) est normal, alors les vecteurs propres de T
associe `a des valeurs propres distinctes sont normaux.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 43


Demonstration Soit T L(V ) un operateur normal avec , des
valeurs propres de vecteurs propres associes u, v. Par denition, T(u) = u
et T(v) = v et dapr`es le Corollaire 6.1 T

(v) =

v, do` u :
( )u, v) = u, v) u,

v)
= Tu, v) u, T

v)
= 0 (6.2)
or ,= donc 6.2 implique u normal `a v.
Theoreme 6.1 (Spectral Complexe) Soit V un C-espace vectoriel et T
L(V ).
Alors V `a une base orthonormale formee par les vecteurs propres de T si et
seulement si T est normal.
Demonstration
Sens direct : Supposons que V `a une base orthonormale de vecteurs
propres de T. Par rapport `a cette base, la matrice de T est diagonale.
La matrice de T

est obtenue en prenant le conjugue des termes de la


transposee de la matrice de T, donc la matrice de T

est aussi dia-


gonale. Les deux matrices etant diagonales elles commutent, donc T
doit etre normal.
Sens indirect : Supposons maintenant T normal. Dapr`es le Corol-
laire 5.5 il existe donc une base orthonormale (e
1
, . . . , e
n
) de V par
rapport `a laquelle la matrice de T est triangulaire superieure donc :
M
_
T, (e
1
, . . . , e
n
)
_
=
_

_
a
11
. . . a
1n
.
.
.
.
.
.
a
nn
_

_
Montrons maintenant que cette matrice est en fait diagonale. Claire-
ment
|Te
1
|
2
= [a
1
[
2
et
|T

e
1
|
2
= [a
1
[
2
+. . . +[a
1n
[
2
et dapr`es la Proposition 6.3 |T

e
1
| = |Te
1
| donc [a
12
[
2
+ . . . +
[a
1n
[
2
= 0 ce qui est equivalent `a a
12
= . . . = a
1n
= 0. En procedant
ainsi pour tout les Te
i
il vient que tout les termes en dehors de la
diagonale sont nuls.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 44


Lemme 6.1 Soit T L(V ) un operateur auto-adjoint. Si , R verient

2
< 4 alors T
2
+T +I est inversible
Demonstration Soit v un vecteur non-nul de V, on a donc :
(T
2
+T +I)v, v) = T
2
v, v) +Tv, v) +v, v)
= Tv, Tv) +Tv, v) +|v|
2
|Tv|
2
+[[|Tv||v| +|v|
2
=
_
|Tv|
[[|v|
2
_
2
+
_


2
4
_
|v|
2
0
Lemme 6.2 Soi T L(V ) auto-adjoint. Alors T a une valeur propre.
Demonstration Supposons V un R-espace vectoriel muni dun produit
scalaire et dim(V ) = n. La liste de vecteurs (v, Tv, . . . , T
n
v) ne peut pas etre
lineairement independante puisquelle est de longueur n + 1. Il existe donc
des scalaires a
0
, . . . , a
n
R tels que
0 = a
0
v +. . . +a
n
T
n
v
Supposons maintenant que les a
i
sont les coecients dun polynome donc :
a
0
+a
1
x +. . . +a
n
x
n
= c(x
1
) . . . (x
m
)(x
2
+
1
x +
1
) . . . (x
2
+
M
x +
M
)
avec c ,= 0. On a donc :
0 = a
0
v +. . . +a
n
T
n
v
= (a
0
+. . . +a
n
T
n
)v
= c(T
1
) . . . (T
m
)(T
2
+
1
T +
1
) . . . (T
2
+
M
T +
M
)v
or T est auto-adjoint donc dapr`es le Lemme 6.1 tout les T
2
+
j
x+
j
sont
inversibles (donc (T
2
+
j
T +
j
)v ,= 0) donc
(T
1
) . . . (T
m
)v = 0 (6.3)
donc pour au moins un 1 j m (T
j
)v = 0, ce qui revient `a dire T `a
une valeur propre.
Theoreme 6.2 (Spectral Reel) Soit V un R-espace vectoriel de dimen-
sion nie et T L(V ). V `a une base orthonormale formee par les vecteurs
propres de T si et seulement si T est auto-adjoint.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 45


Demonstration
Sens direct : Supposons V muni dune base orthonormale de vec-
teurs propres de V . Par rapport `a cette base la matrice de T est dia-
gonale. De plus tout les termes sont reels donc cette matrice est egale
`a sa conjuguee transposee. Donc T = T

, ce qui revient `a dire, par


denition, T est auto-adjoint.
Sens indirect : Supposons maintenant T auto-adjoint et montrons
par reccurence sur la dimension de V que V poss`ede une base ortho-
normale de vecteurs propres de T. Le resultat tiens trivialement pour
dim(V ) = 1. Supposons donc dim(V ) > 1 et que le resultat tiens pour
tout dimension inferieure. Soit une valeur propre de T et u le vecteur
propre associe que lon rend unitaire (le Lemme 6.2 garantit lexistence
de cette valeur propre). Soit U = span(u). v U

si et seulement si
u, v) = 0. Supposons v U

. Comme T est auto-adjoint :


u, Tv) = Tu, v) = u, v) = u, v) = 0
donc v U

implique Tv U

, donc U

est invariant sous T. On


denit donc S = T[
U
. Prenons v, w U

:
Sv, w) = Tv, w) = v, Tw) = v, Sw)
donc S est auto-adjoint. Notre hypoth`ese dinduction nous permet donc
de darmer quil existe une base orthonormale de U

formee de vec-
teurs propres de S. Or les vecteurs propres de S sont des vecteurs
propres de T donc en rajoutant u `a une base orthonormale de U

de
vecteurs propres de S donne une base orthonormale de V formee de
vecteurs propres de T.
Corollaire 6.3 Soit T L(V ) un operateur auto-adjoint (ou V un C-
espace vectoriel et T normal). Soit
1
, . . . ,
m
les valeurs propres distinctes
de T. Alors
V = Ker(T
1
) . . . Ker(T
m
)
De plus, tout vecteur dun des Ker(T
j
) est normal `a tout les vecteurs
de toute les autres decompositions.
Demonstration Le theor`eme spectral (6.2 ou 6.1) implique que V `a
une base orthonormale de vecteurs propres de T.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 46


6.2 Operateurs Normaux sur R-espaces vectoriels
muni dun produit scalaire
Lemme 6.3 Soit V un R-espace vectoriel de dimension 2 et T L(V ).
Alors les trois propositions suivantes sont equivalentes :
1. T est normal mais pas auto-adjoint.
2. la matrice de T par rapport `a toute base orthonormale de V est de la
forme
_
a b
b a
_
avec b ,= 0.
3. la matrice de T par rapport `a une certaine base de V est de la forme
_
a b
b a
_
avec b > 0.
Demonstration
1. Supposons T normal mais pas auto-adjoint et (e
1
, e
2
) une base ortho-
normale de V avec :
Mat
_
T, (e
1
, e
2
)
_
=
_
a b
c d
_
|Te
1
|
2
= a
2
+ b
2
et |T

e
1
|
2
= a
2
+ c
2
. Or T est normal, donc
|T

e
1
| = |Te
1
| soit a
2
+b
2
= a
2
+c
2
ou encore b
2
= c
2
(b = c) ou
(b = c). Mais b = c implique T auto-adjoint, donc b = c. En eec-
tuant le produit de Mat
_
T, (e
1
, e
2
)
_
sous la condition c = b avec
ca conjuguee transposee (donc Mat(TT

)) puis en identiant avec


Mat(T

T) (les deux matrices sont egales car T est normal) il vient la


condition d = a.
2. Supposons maintenant le deuxi`eme point. Si b > 0 limplication est
triviale. Si b < 0 alors par rapport `a la base (e
1
, e
2
) la matrice de T
est donnee par :
Mat
_
T, (e
1
, e
2
)
_
=
_
a b
b d
_
avec b > 0 donc limplication est aussi demontree.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 47


3. Supposons maintenant la troisi`eme proposition. En eectuant le pro-
duit TT

et T

T on constate on remarque quils sont egaux. De plus


T nest pas auto-adjoint donc T est normal.
Proposition 6.4 Soit T L(V ) normal et U un sous-espace invariant
sous T. Alors :
1. U

est invariant sous T.


2. U est invariant sous T

.
3. (T[
U
)

= (T

)[
U
4. T[
U
est un operateur normal sur U.
5. T[
U
est un operateur normal sur U

.
Demonstration
1. Soit (e
1
, . . . , e
m
) une base orthonormale de U. Il est possible de ra-
jouter (f
1
, . . . , f
n
) pour que (e
1
, . . . , f
n
) soit une base orthonormale de
V. Comme U est invariant sous T, Te
j
span(e
1
, . . . , e
m
) pour tout
1 j m. La matrice de T est donc donnee par :
Mat
_
T, (e
1
, . . . , f
n
)
_
=
_
A B
C
_
avec A Mat(m, m, R), B, C Mat(n, n, R). T etant normal, pour
tout 1 j m|Te
j
| = |T

e
j
| donc B = 0. Ainsi Tf
k
span(f
1
, . . . , f
m
)
pour tout 1 k m ce qui revient `a dire que (f
1
, . . . , f
m
) qui est une
base de U

est invariant sous T.


2. De meme U est invariant sous T

.
3. Soit S = T[
U
et v U, alors pour tout u U :
Su, v) = Tu, v) = u, T

v)
or T

v U donc S

v = T

v, ce qui revient `a dire (T[


U
)

= T

[
U
.
4. T est normal, donc T commute avec T

et (T[
U
)

= T

[
U
donc T[
U
commute avec son adjoint donc T[
U
est normal.
5. U

est invariant sous T et la restriction de T `a un espace invariant


sous T est normal donc T[
U
est normal.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 48


Theoreme 6.3 Soit V un R-espace vectoriel muni dun produit scalaire et
T L(V ). T est normal si et seulement si il existe une base orthonormale
de V par rapport `a laquelle T `a une matrice diagonale par bloc, o` u chaque
bloc est de dimension 1, ou 2 veriant :
_
a b
b a
_
avec b > 0.
Demonstration Supposons une base de V telle que la matrice de T par
rapport `a cette base verie lenonce du theor`eme. Par rapport `a cette base la
matrice de T commute avec sa conjuguee transposee, donc T commute avec
T

ce qui revient `a dire que T est normal.


Supposons maintenant T normal et montrons par recccurence sur la dimen-
sion de V que la matrice de T par rapport `a une base orthonormee de V
prends la forme enoncee par le theor`eme. Le resultat tiens trivialement pour
dim(V ) = 1 et pour dim(V ) = 2 il sut dinvoquer le Lemme 6.3. Suppo-
sons maintenant dim(V ) > 2 et que le resultat tiens pour toute dimension
inferieure. Dapr`es le theor`eme 4.4 il existe un sous-espace vectoriel U in-
variant sous T de dimension 1 ou 2.
1. si dim(U) = 1 alors il sut de prendre un vecteur de U de norme 1.
Ce vecteur forme une base orthonormale de U et donc la matrice de
T[
U
est carree de dimension 1
2. si dim(U) = 2 alors dapr`es la Proposition 6.4 T[
U
est normal et
dapr`es le Lemme 6.3 la matrice T[
U
`a la forme enoncee dans le
theor`eme.
U

est invariant (par lhypoth`ese dinduction) donc dapr`es la Proposition


6.4 T[
U
est normal et dapr`es le Lemme 6.3 la matrice T[
U
`a la forme
enoncee dans le theor`eme. Ainsi en ajoutant la base de U

`a celle de U
il vient une base orthonormale par rapport `a laquelle la matrice de T `a la
forme demandee.
6.3 Isometrie
Denition 6.3 (Isometrie) Un operateur T L(V ) est une isometrie si
et seulement si pour tout v V
|Sv| = |v|
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 49


Theoreme 6.4 Soit S L(V ). Les propositions suivantes sont equivalentes :
1. S est une isometrie
2. Su, Sv) = u, v) pour tout u, v V .
3. S

S = I
4. (Se
1
, . . . , Se
n
) est une liste de vecteurs orthonormaux de V si (e
1
, . . . , e
n
)
est une liste de vecteurs orthonoraux de V.
5. il existe une base orthonormale (e
1
, . . . , e
n
) de V telle que (Se
1
, . . . , Se
n
)
est orthonormale.
6. S

est une isometrie


7. S

u, S

v) = u, v) pour tout u, v V .
8. SS

= I
9. (S

e
1
, . . . , S

e
n
) est une liste de vecteurs orthonormaux de V si (e
1
, . . . , e
n
)
est une liste de vecteurs orthonoraux de V.
10. il existe une base orthonormale (e
1
, . . . , e
n
) de V telle que (S

e
1
, . . . , S

e
n
)
est orthonormale.
Demonstration
1. Supposons S une isometrie. Pour tout u, v V :
Su, Sv) =
|Su +Sv|
2
|Su Sv|
2
4
=
|S(u +v)|
2
|S(u v)|
2
4
=
|u +v|
2
|u v|
2
4
= u, v)
2. Supposons maintenant Su, Sv) = u, v) on a pour tout u, v V :
(S

S I)u, v) = Su, Sv) u, v)


ce qui dapr`es lhypoth`ese donne 0. En prenant v = (S

S I)u on a
bien S

S I = 0.
3. Supposons (e
1
, . . . , e
n
) une base orthonormale de V, on a donc :
Se
j
, Se
k
) = (S

S I)e
j
, e
k
) = e
j
, e
k
)
donc (Se
1
, . . . , Se
n
) est orthonormal
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 50


4. trivialement le 4
e
enonce implique le 5
e
.
5. Supposons maintenant la 5
e
proposition et demontrons la 1
re
. Soit
(e
1
, . . . , e
n
) une base de V telle que (Sv
1
, . . . , Sv
n
) est orthonormale
et v V , alors :
|Sv|
2
= |S(v, e
1
)e
1
+. . . +v, e
n
))|
2
= |v, e
1
)Se
1
+. . . +v, e
n
)Sv
n
|
2
= [v, e
1
)[
2
+. . . +[v, e
n
)[
2
= |v|
2
6. on sait que SS

= I S

S = I donc il sut de remplacer S par S

dans les demonstrations ci-dessus pour obtenir les demonstration des


propositions restantes.
Theoreme 6.5 Soit V un C-espace vectoriel et S L(V ). S est une
isometrie si et seulement si il existe une base de V orthonormale de vec-
teurs propres de S dont les valeurs absolues des valeur propres valent 1.
Demonstration
Sens direct Soit
1
, . . . ,
m
F les valeurs propres de S L(V ).
On a donc :
v = v, e
1
)e
1
+. . . +v, e
m
)e
m
(6.4)
|v|
2
= [v, e
1
)[
2
+. . . +[v, e
m
)[
2
En appliquant S `a 6.4 il vient :
Sv = v, e
1
)Se
1
+. . . +v, e
m
)Se
m
=
1
v, e
1
)e
1
+. . . +
m
v, e
m
)Se
m
Ce qui nous donne donc la condition
j
= 1 pour que S soit une
isometrie
Sens indirect Dapr`es le theor`eme spectral complexe il existe une
base de V formee de vecteurs propres de S. Soit
i
la valeur propre
associee `a e
i
:
[
i
[ = |
i
e
i
| = |Se
i
| = |e
i
| = 1
donc toute les valeurs propres de S vallent 1.
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 51


Theoreme 6.6 Soit V un R-espace vectoriel. S est une isometrie si et
seulement si il existe une base orthonormale de V par rapport `a laquelle
la matrice de S est diagonale par bloc avec :
_
1

ou
_
1

ou
_
cos() sin()
sin() cos()
_
comme blocs, [0; ].
Demonstration
Sens direct : Supposons S une isometrie. Dapr`es le Theor`eme 6.3 S
admet une matrice diagonale par blocs de dimension 1 ou 2 veriant :
_
a b
b a
_
avec b > 0 par rapport `a une certaine base orthonormale de V .
1. Soit
i
les termes des blocs de dimension 1. Il existe donc e
i
tel
que Se
i
= e
i
or S est une isometrie donc |Se
i
| = |e
i
| =
|e
i
| = 1. Donc pour tout i
i
= 1.
2. Si le bloc est une matrice 2 2 comme decrite ci-dessus, alors il
existe e
j
et e
j+1
par rapport auxquels :
Se
j
= ae
j
+be
j
or S est une isometrie donc
|Se
j
|
2
= |ae
j
|
2
+|be
j+1
|
2
= [a[
2
+[b[
2
= 1
en supposant [0, ] on a donc a = cos() et b = sin(), ce qui
ni la demonstration dans le sens direct.
Sens indirect : Supposons maintenant quil existe une base orthonor-
male de V par rapport `a laquelle la matrice de S `a la forme enoncee
par le theor`eme. Il est donc possible decrire V comme :
V = U
1
. . . U
m
avec les U
i
les sous-espaces vectoriels de V de dimension 1 ou 2.
Comme la base est orthonormale, toute paire de vecteurs u
1
, u
2
ap-
partenant `a des U
i
distincts sont orthogonaux. La forme de la matrice
CHAPITRE 6. OP

ERAT. SUR E.V AVEC PRODUIT SCALAIRE 52


implique aussi que S[
U
i
est une isometrie pour tout i. Si v V il est
donc possible decrire :
|Sv|
2
= |Su
1
+. . . +Su
m
|
2
= |Su
1
|
2
+. . . +|Su
m
|
2
= |u
1
|
2
+. . . +|u
m
|
2
= |v|
2
ce qui demontre que S est une isometrie
Denition 6.4 (Homothetie) Une homothetie T L(V ) est une appli-
cation qui verie :
T = Id F
Chapitre 7
Operateurs sur C-espaces
vectoriels
7.1 Vecteurs propres generalises
Denition 7.1 (Vecteur propre generalise) Soit T L(V ) et C
une valeur propre de T. Un vecteur propre generalise v est deni par :
(T I)
j
v = 0
pour un j N.
Proposition 7.1 Soit T L(V ) et m N tel que Ker(T
m
) = Ker(T
m+1
)
alors
Ker(T
0
) Ker(T
1
) . . . Ker(T
m
) = Ker(T
m+1
) = Ker(T
m+2
) = . . .
Demonstration
: Soit T L(V ) et m N tel que Ker(T
m
) = Ker(T
m+1
). Soit k N
et montrons :
Ker(T
m+k
) = Ker(T
m+k+1
)
Dapr`es lhypoth`ese de depart, on sait que Ker(T
m+k
) Ker(T
m+k+1
).
: Pour montrer linclusion dans laurte sens, prenons v Ker(T
m+k+1
)
alors
0 = T
m+k+1
v = T
m+1
(T
k
v)
donc T
k
v Ker(T
m+1
) = Ker(T
m
) donc v Ker(T
m+k
) ce qui
demontre donc linclusion Ker(T
m+k+1
) Ker(T
m+k
).
53
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 54


Proposition 7.2 Si T L(V ) alors
Ker
_
T
dim(V )
_
= Ker
_
T
dim(V )+1
_
= Ker
_
T
dim(V )+2
_
= . . .
Demonstration Soit T L(V ). Demontrons Ker
_
T
dim(V )
_
= Ker
_
T
dim(V )+1
_
par labsurde, soit :
0 = Ker(T
0
) Ker(T
1
) . . . Ker(T
dim(V )
) Ker(T
dim(V )+1
)
Pour chaque inclusion la dimension du sous-espace doit augmenter dau
moins 1, donc la dimension de Ker
_
T
dim(V )+1
_
dim(V + 1) ce qui est
une contradiction avec la taille maximale dun sous-espace qui est dim(V ).
Corollaire 7.1 Soit T L(V ) et une valeur propre de T. Alors len-
semble des vecteurs propres generalises associes `a est egal `a Ker(T I)
dim(V )
.
Demonstration Si v Ker(T I)
dim(V )
alors par denition dun
vecteur propre generalise est la valeur prorpre associee.
Si v V est un vecteur propre generalise de T correspondant `a alors il
existe j N tel que v Ker(T I)
j
.
Denition 7.2 (Operateur Nilpotent) Un operateur N L(V ) est dit
nilpotent sil existe j N tel que N
j
v = 0 pour tout v V .
Corollaire 7.2 Soit N L(V ) nilpotent. Alors N
dim(V )
= 0.
Demonstration Comme V est nilpotent alors tout vecteur de V est
un vecteur propre generalise associe `a la valeur propre 0. Donc dapr`es le
Corrolaire 7.1 Ker(T
dim(V )
) = V .
Proposition 7.3 Si T L(V ) alors :
Im
_
T
dim(V )
_
= Im
_
T
dim(V +1)
_
= . . .
Demonstration Soit m N tel que m dim(V ), alors dapr`es le
Theor`eme 3.1 :
dim(Im(T
m
)) = dim(V ) dim(Ker(T
m
))
= dim(V ) dim(Ker(T
dim(V )
))
= dim(Im(T
dim(V )
))
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 55


7.2 Polynome caracteristique
Theoreme 7.1 Soit T L(V ) et F. Pour toute base de V par rapport
`a laquelle T `a une matrice triangulaire superieur, apparait
dim
_
Ker(T I)
dim(V )
_
fois sur la diagonale de la matrice de T.
Demonstration Supposons = 0 (Il est facile de generaliser la demonstration
`a ,= 0 en remplacant T par T I). Posons dim(V ) = n et demontrons
le theor`eme par reccurence sur la dimension de V . Le resultat tiens pour
dim(V ) = 1, supposons donc dim(V ) = n > 1 et montrons que le resultat
tiens pour pour dim(V ) = n + 1.
Soit (v
1
, . . . , v
n
) une base de V par rapport `a laquelle T a une matrice tri-
angulaire superieure de la forme :
_

1

.
.
.

n1
0
n
_

_
Posons U = span(v
1
, . . . , v
n1
). U est invariant sous T. Dapr`es notre hy-
poth`ese dinduction 0 apparait dim
_
Ker(T[
U
)
n1
_
fois. Or Ker(T[
U
)
n1
=
Ker(T[
U
)
n
car dim(U) = n 1, donc 0 apparait dim
_
Ker(T[
U
)
n
_
fois.
Considerons maintenant
n
. Soit
1. ,= 0 alors on a :
M(T
n
) = M(T)
n
=
_

n
1

.
.
.

n
n1
0
n
n
_

_
donc il existe u U tel que T
n
v
n
= u +
n
n
v
n
. Prenons u Ker(T
n
)
on a donc v = u +av
n
avec u U et a F, donc :
0 = T
n
v = T
n
u +aT
n
v
n
= T
n
u +au +a
n
n
v
n
or T
n
u, au U mais v
n
/ U donc a
n
n
= 0. Or
n
,= 0 donc a = 0
donc v = u U et Ker(T
n
) U.
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 56


2. = 0 et montrons dim(Ker(T
n
)) = dim(Ker(T[
U
)
n
+1). En utilisant
le theor`eme 2.5 il vient :
dim(Ker(T
n
)) = dim(U Ker(T
n
)) +dim(U +Ker(T
n
)) dim(U)
= dim(Ker(T[
U
)
n
) +dim(U +Ker(T
n
)) (n 1)
Soit w = uv
n
avec u U alors T
n
(uv
n
) = T
n
uT
n
v
n
. Pour que
u v
n
Ker(T
n
) il faut donc prendre T
n
u = T
n
v
n
, or :
T
n
v
n
= T
n1
(Tv
n
) Im(T[
U
)
n1
= Im(T[
U
)
n
donc il existe bien u U tel que u v
n
Ker(T
n
) et
n = dim(V ) dim(U +Ker(T
n
)) > dim(U) = n 1
donc dim(U +Ker(T
n
)) = n
Denition 7.3 (Multiplicite) Soit T L(V ). La multiplicite de la va-
leur propre est denie comme etant la dimension de lespace propre generalise
associe `a .
Proposition 7.4 Si V est un C-espace vectoriel et T L(V ) alors la
somme des multiplicites de toute les valeurs propres de T vaut dim(V ).
Demonstration Soit V un C-espace vectoriel et T L(V ). Alors
dapr`es le Theor`eme 4.3 il existe une base de V par rapport `a laquelle la
matrice de T est triangulaire superieure. Dapr`es le Theor`eme 7.1 la multi-
plicite de vaut le nombre de fois que apparat sur la diagonale de cette
matrice, or la matrice est de dimension n donc elle a dim(V ) valeurs propres
donc la somme des multiplicites des valeurs propres de T vaut dim(V ).
Denition 7.4 (Polyome caracteristique) Soit V un C-espace vectoriel,
T L(V ),
1
, . . . ,
m
F les valeurs propres distinctes de T et d
j
N la
multiplicite de la valeur propre
j
, alors
(z
1
)
d
1
. . . (z
m
)
dm
est le polynome caracteristique de T.
Theoreme 7.2 (Cayley-Hamilton) Soit V un C-espace vectoriel, T L(V )
et q le polynome caracteristique de T, alors
q(T) = 0
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 57


Demonstration Soit (v
1
, . . . , v
n
) une base de V par rapport `a laquelle
la matrice de T est triangulaire superieure. Montrer q(T) = 0 est equivalent
`a montrer q(T)v
j
= 0 pour j = 1, . . . , n ou encore :
(T
1
I) . . . (T
j
)v
j
= 0 j = 1, . . . , n
Trivialement Tv
1

1
v
1
= 0. Supposons donc que le resultat tiens pour
j 1 > 1. Comme la matrice de T est triangulaire superieure on a :
(T
j
)v
j
span(v
1
, . . . , v
j1
)
donc dapres lhypoth`ese dinduction
_
(T
1
I) . . . (T
j1
I)
_
(T
j
)v
j
= 0
7.3 Decomposition dun operateur
Proposition 7.5 Si T L(V ) et p P(F) alors p(T) est invariant sous
T.
Demonstration Soit T L(V ), p P(F) et v Ker(p(T)). Alors
p(T)v = 0, donc :
(p(T))(Tv) = T(p(T)v) = T(0) = 0
donc Tv Ker(p(T)) donc p(T) est invariant sous T.
Theoreme 7.3 Soit V un C-espace vectoriel et T L(V ). Soit
1
, . . . ,
m
F
des valeurs propres distinctes de T et U
1
, . . . , U
m
les sous-espaces correspon-
dants aux vecteurs propres generalises associes. Alors :
1. V = U
1
. . . U
m
2. U
j
est invariant sous T pour tout 1 j m.
3. (T
j
I)[
U
j
est nilpotent pour tout 1 j m.
Demonstration
1. la multiplicite de
j
vaut dim(U
j
) (par denition 7.3) et la somme des
multiplicites vaut dim(V )(7.4), donc :
dim(V ) = U
1
+. . . +U
m
(7.1)
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 58


Posons U = U
1
+ . . . + U
m
alors U est invariant sous T donc il est
legitime de poser S L(U) avec S = T[
U
. S `a les memes valeurs
propres que T avec les meme multiplicites, donc
dim(U) = dim(U
1
) +. . . +dim(U
m
) (7.2)
ce qui avec lequation 7.1 donne dim(U) = dim(V ), or U est un sous-
espace vectoriel de V , donc U = V et V = U
1
+ . . . + U
m
ce qui avec
7.2 permet de conclure.
2. Soit U
j
= Ker(T
j
I)
dim(V )
pour tout 1 j m. Dapr`es la
Proposition 7.5 on a V = U
1
. . . U
m
.
3. decoule de la denition dun operateur nilpotent (7.2).
Corollaire 7.3 Soit V un C-espace vectoriel et T L(V ). Alors il existe
une base de V formee par les vecteurs propres generalises de T.
Demonstration Il sut de prendre une base de chaque espace propre
et de faire une base avec tout ces vecteurs `a laide du Theor`eme 7.3.
Lemme 7.1 Soit N L(V ) nilpotent. Alors il existe une base de V par
rapport `a laquelle la matrice de T est donnee par :
_

_
0
.
.
.
0 0
_

_
(tout les termes sur la diagonale et en-dessous sont nuls).
Demonstration Prenons une base de Ker(N) puis etendons l`a en
une base de Ker(N
2
) et ainsi de suite jusqu`a obtenir une base de V . Au
moins la premi`ere colonne ne contient que des 0 puisquelles sont constituees
de vecteurs de Ker(N). Les quelques colonnes dapr`es sont les images de
vecteurs de Ker(N
2
), donc en appliquant N `a un de ces vecteurs on obtient
un vecteur de Ker(N) donc ces vecteurs ne peuvent pas contenir autre chose
que des 0 sur la diagonale. De proche en proche, on demontre le lemme.
Theoreme 7.4 (Important) Soit V un C-espace vectoriel, T L(V ) et

1
, . . . ,
m
les valeurs propres distinctes de T. Alors il existe une base de V
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 59


par rapport `a laquelle la matrice de T est diagonale par blocs avec chaque
bloc de la forme :
_

j

.
.
.
0
j
_

_
Demonstration Pour j = 1, . . . , m supposons U
j
lespace propre generalise
correspondant
j
. Dapr`es 7.3 (T
j
I)[
U
j
est nilpotent. Prenons une base
pour chaque U
j
. La matrice de T[
U
j
par rapport `a cette base est donc de la
forme evoquee dans le theor`eme. En ajoutant tout les bases des U
j
il vient
donc une matrice diagonale par blocs comme enonce par le theor`eme.
7.4 Polynome minimal
Denition 7.5 (Polynome minimal) Le polynome minimal p est le po-
lynome normalise de plus petit degre qui verie p(T) = 0.
Theoreme 7.5 Soit T L(V ) et q P(F). Alors q(T) = 0 si et seulement
si le polynome minimal de T divise q.
Demonstration Soit p le polynome minimal de T.
Sens direct Supposons q(T) = 0. Il existe donc s, r P(F) tel que :
q = sp +r (7.3)
avec deg(r) deg(p), do` u :
0 = q(T) = s(T)p(T) +r(T) = r(T)
or p est le polynome minimal de T et deg(r) deg(p) donc r = 0.
Donc lequation 7.3 devient q = sp.
Sens indirect Supposons que p divise q. Il existe donc un polynome
s tel que q = sp, donc :
q(T) = S(T)p(T) = s(T)0 = 0
Theoreme 7.6 Soit T L(V ). Alors les solutions du polynome minimal
sont precisement les valeurs propres de T.
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 60


Demonstration Soit
p(z) = a
0
+a
1
+. . . +a
m1
z
m1
+z
m
le polynome minimal de T. Supposons F un racine de p. Alors le po-
lynome minimal de T peut secrire sous la forme :
p(z) = (z )q(z)
avec q un polynome normalise. Or p(T) = 0, donc :
0 = (T I)(q(T)v) v V
Or le degre de q est inferieur de un au degre de p, donc il existe un vecteur
v V tel que q(T)v ,= 0, donc est une valeur propre.
Supposons maintenant F une valeur propre de T et v V le vecteur
propre associe `a , donc Tv = v. En appliquant j fois T aux deux cotes on
obtient T
j
v =
j
v, do` u :
0 = p(T)v = (a
0
+a
1
T +. . . +a
m1
T
m1
+T
m
)v
= (a
0
+a
1
+. . . +a
m1

m1
+
m
)v
= p()v
or v ,= 0 donc p() = 0.
7.5 Forme de Jordan
`
A defaut de pouvoir diagonaliser toutes les matrices, il est possible de les
Jordaniser et ainsi de se rapprocher le plus possible de matrices diagonales
(donc avec autant de 0 que possible).
Lemme 7.2 Soit N L(V ) nilpotent alors il existe v
1
, . . . , v
k
V tel que :
1. (v
1
, Nv
1
, . . . , N
m(v
1
)
v
1
, . . . , v
k
, Nv
k
, . . . , N
m(v
k
)
v
k
) est une base de V
2. (N
m(v
1
)
v
1
, . . . , N
m(v
k
)
v
k
) est une base de Ker(N).
avec m(v
i
) le plus grand entier tel que N
m(v
i
)
v
i
soit non nul.
Denition 7.6 (Base de Jordan) Soit T L(V ). Une base de V est
dite base de Jordan de T si par rapport `a cette base, la matrice de T est
diagonale par blocs avec chaque bloc de la forme :
_

j
1 0

j
.
.
.
.
.
. 1
0
j
_

_
CHAPITRE 7. OP

ERATEURS SUR C-ESPACES VECTORIELS 61


Theoreme 7.7 Soit V un C-espace vectoriel. Si T L(V ) alors il existe
une base de Jordan pour T.
Demonstration Soit N L(V ) nilpotent et v
1
, . . . , v
k
V la base
inversee de celle deni par lenonce du Lemme 7.2. Alors pour tout j N
limage de v
j
est v
j+1
donc la matrice de N par rapport `a cette base est de
la forme :
_

_
0 1 0
.
.
.
.
.
.
.
.
. 1
0 0
_

_
Si T L(V ) et
1
, . . . ,
m
des valeurs propres de T avec U
1
, . . . , U
m
les
espaces propres associes.
V = U
1
. . . U
m
et dapr`es le Theor`eme 7.3 chaque (T
j
I)[
U
j
est nilpotent. U
j
a donc une
base de Jordan et il sut dajouter chacune de ses bases.
Chapitre 8
Operateurs sur R-espaces
vectoriels
8.1 Valeurs propres de matrices carrees
Denition 8.1 F est une valeur propre de la matrice A Mat(n, n, F)
si il existe un vecteur v tel que Ax = x.
Proposition 8.1 Soit T L(V ) et A Mat(n, n, F) la matrice de T par
rapport `a une certaine base de V . Alors les valeurs propres de A sont les
memes que les valeurs propres de T.
Demonstration Soit (v
1
, . . . , v
n
) une base de V par rapport `a laquelle
la matrice de T est A et F. Montrons que est une valeur propre de T
si et seulement si elle est une valeur propre de A.
Sens Direct Supposons une valeur propre de T et v V le vecteur
propre associe, soit :
v = a
1
v
1
+. . . +a
n
v
n
avec a
1
, . . . , a
n
F. Soit x la matrice associee au vecteur v (par rap-
port `a la base (v
1
, . . . , v
n
)).
Ax = M(T)M(v) = M(Tv) = M(v) = M(v) = x
donc est une valeur propre de A.
Sens Indirect Supposons maintenant F une valeur propre de A
et x la matrice du vecteur associe (donc Ax = x). Denissons donc
62
CHAPITRE 8. OP

ERATEURS SUR R-ESPACES VECTORIELS 63


v V par
v = a
1
v
1
+. . . +a
n
v
n
avec a
i
les termes de la matrice de x, donc :
M(Tv) = M(T)M(v) = Ax = x = M(x)
donc Tv = v, ce qui revient `a dire que est une valeur propre de T.
8.2 Valeurs propres de matrice triangulaires superieures
Denition 8.2 (Matrice Triangulaire Superieur par Blocs) Une ma-
trice triangulaire superieure par blocs est une matrice qui ne contient que
des matrices carrees sur la diagonale et des zeros en dessous.
Theoreme 8.1 (Important) Soit V un R-espace vectoriel et T L(V ).
Alors il existe une base de V par rapport `a laquelle la matrice de T est
triangulaire superieure par blocs o` u chaque bloc est :
1. de dimension 1
2. de dimension 2 sans valeurs propres.
Demonstration Trivialement le resultat tiens pour dim(V ) = 1. Sup-
posons donc dim(V ) > 1 et demontrons par reccurence sur dim(V ) le
resultat.
Si T a une valeur propre alors U est un sous-espace de V invariant sous T,
sinon posons U un espace invariant de dimension 2.
Posons A la matrice de T[
U
, A na pas de valaeur propres. Posons donc W
un sous-espace de V tel que V = U W. Pour utiliser lhypoth`ese dinduc-
tion sur W il faudrait que W soit invariant sous T ce qui nest pas garanti,
posons donc S L(W) avec Sw = P
W,U
(Tw) pour tout w W. Par lhy-
poth`es dinduction il existe une base de W par rapport `a laquelle S `a une
matrice triangulaire superieure comme dans lenonce. En ajoutant `a cette
base, celle de U il vient une base par rapport `a laquelle la matrice de T est
triangulaire superieure par blocs.
8.3 Polynome caracteristique
Denition 8.3 (Polynome caracteristique dune matrice 2 2) Le po-
lynome caracteristique dune matrice 2 2 :
_
a c
b d
_
CHAPITRE 8. OP

ERATEURS SUR R-ESPACES VECTORIELS 64


est donne par :
p(x) = (x a)(x d) bc
Proposition 8.2 Soit V un R-espace vectoriel de dimension 2 et T L(V )
sans valeurs propres. Soit p P(R) un polynome normal de degre 2 et A la
matrice de T par rapport `a une certaine base de V .
1. si p est egal au polynome caracteristique de A, alors p(T) = 0
2. si p nest pas le polynome caracteristique de A, alors p(T) est inver-
sible.
Demonstration
1. si p est egal au polynome caractersitique alors
p(x) = (x a)(x d) bc
donc
(T aI)(T dI)v
1
= (T dI)(T aI)v
1
= (T dI)(bv
2
) = bcv
1
(T aI)(T dI) bcI = 0
(x a)(x d) bc
qui est bien le polynome caracteristique.
2. Soit q le polynome caracteristique de A et supposons p ,= q.

Ecrivons :
p(x) = x
2
+
1
x +
1
q(x) = x
2
+
2
x +
2
avec
1
,
2
,
1
,
2
R. On a :
p(T) = p(T) q(T) = (
1

2
)T + (
1

2
)I
si
1
=
2
alors
1
,=
2
(sinon p=q) et p(T) est un multiple de
lidentite, donc A est inversible. Si
1
,=
2
alors :
p(T) = (
1

2
)
_
T

2

1

1

2
I
_
qui est inversible car T na pas de valeurs propres.
CHAPITRE 8. OP

ERATEURS SUR R-ESPACES VECTORIELS 65


Theoreme 8.2 Soit V un R-espace vectoriel et T L(V ). Supposons que
la matrice de T par rapport `a une base de V a la forme :
_

_
A
1

.
.
.
0 A
m
_

_
avec les A
j
des matrices 1 1 ou 2 2 mais sans valeurs propres.
1. si R alors precisement dim
_
Ker(T I)
dim(V )
_
des blocs A
j
sont
de dimension 1.
2. si , R verie
2
< 4 alors precisement
dim
_
Ker(T
2
+T+I)
dim(V )
_
2
des martices A
j
ont comme polynome caracteristique x
2
+x +.
Demonstration
1. Soit , , R avec
2
< 4 et p P(R) deni par :
p(x) =
_
x pour demontrer la premi`ere partie
x
2
+x + pour demontrer la seconde partie
Soit deg(p) = d et dim(V ) = n. Soit m N le nombre de blocs sur
la diagonale de la matrice. Si m = 1 le resultat tiens trivialement,
supposons donc m > 1 et supposons que la matrice `a la forme desiree
pour m1. Soit U
j
lespace engendre par la base de A
j
. Posons U =
U
1
+ . . . + U
m1
. Clairement U est invariant sous T et la matrice de
T[
U
est donnee par :
_

_
A
1

.
.
.
0 A
m1
_

_
donc par lhypoth`ese dinduction, precisement
dim(Ker(p(T|
U
))
N
)
d
des
matrices A
1
, . . . , A
m1
ont un polynome caracteristique p. Supposons
u
m
U
m
. Soit S L(U
m
) loperateur dont la matrice est donnee par
A
m
. En particulier, Su
m
= P
U
M
,U
Tu
m
, donc :
Tu
m
= P
U,Um
Tu
m
+P
Um,U
Tu
m
= v
U
+Su
m
(8.1)
avec v
U
un vecteur de U. Su
m
U
m
donc en appliquant T `a lequation
8.1 il vient :
T
2
u
m
= w
U
+S
2
u
m
CHAPITRE 8. OP

ERATEURS SUR R-ESPACES VECTORIELS 66


avec w
U
U, donc :
p(T)u
m
= w
U
+p(S)u
m
avec w
U
U ce qui par itteration donne :
p(T)
n
u
m
= w
U
+p(S)
n
u
m
(8.2)
Supposons v Ker(p(T)
n
). Il est possible de decomposer v comme
v = u +u
m
avec u U et u
m
U
m
avec 8.2 donne :
0 = p(T)
n
v = p(T)
n
u +p(T)
n
u
m
= p(T)
n
u +w
U
+p(S)
n
u
m
avec w
U
U. Or p(T)
n
u, w
U
U et p(S)
n
u
m
U
m
alors p(S)
n
u
m
=
0. p(S) est inversible, donc u
m
= 0 et v = u U ce qui prouve que
Ker
_
p(T)
n
_
U.
2. Supposons maintenant que p est le polynome caracteristique de A
m
,
donc dim(U
m
) = d, montrons
dim(Ker(p(T)
n
)) = dim(Ker(p(T[
U
)
n
)) +d
Nous avons
dim(Ker(p(T)
n
)) = dim(U Ker(p(T)
n
))
+dim(U +ker(p(T)
n
)) dim(U)
= dim(Ker(p(T[
U
)
n
)) +
dim(U +Ker(p(T)
n
))) (n d)
Il nous reste donc `a montrer u+Ker(p(T)
n
) = V . Prenons u
m
U
m
.
Comme le polynome caracteristique de S est egal `a p, p(S) = 0 donc
p(T)u
m
U et :
p(T)
n
u
m
= p(T)
1
(p(T)u
m
) Im(p(T[
U
)
n1
) = Im(p(T[
U
)
n
)
donc il est possible de prendre u U tel que p(T)
n
u
m
= p(T[
U
)u.
p(T)
n
(u
m
u) = p(T)
n
u
m
p(T)
n
u
= p(T)
n
u
m
p(T[
U
)
n
u
= 0
donc u
m
u Ker(p(T)
n
) et u
m
= u + (u
m
u) U +Ker(p(T)
n
).
Donc U
m
U +Ker(p(T)
n
) alors V = U +U
m
U +Ker(p(T)
n
) et
U +Ker(p(T)
n
) = V .
CHAPITRE 8. OP

ERATEURS SUR R-ESPACES VECTORIELS 67


Denition 8.4 (Paire propre) Soit V un R-espace vectoriel, T L(V )
et , R Le couple (, ) est une parie propre de T si
1.
2
< 4
2. T
2
+T +I nest pas injectif.
Denition 8.5 (Multiplicite dune paire propre) La multiplicite dune
paire propre (, ) est denie par :
Multiplicite de (, ) =
dim
_
Ker(T
2
+T +I)
dim(V )
_
2
Proposition 8.3 Si V est un R-espace vectoriel et T L(V ) alors la
somme des multiplicite de toutes les valeurs propres plus la somme de toutes
les paires propres de T est egal `a dim(V ).
Demonstration Soit V un R-espace vectoriel et T L(V ). Il existe
une base de V par rapport `a laquelle la matrice de T `a la forme enoncee
dans le Theor`eme 8.2. La multiplicite de la valeur propre est donnee par
le nombre de fois quelle apparat sur cette diagonale et la multiplicite de la
paire propre (, ) est donnee par le nombre de fois que x
2
+x+ apparat
comme polynome caracteristique dune matrice 22 sur la diagonale.

Etant
donne que la diagonale `a pour longueur dim(V ) la somme des multiplicites
de toutes les valeurs propres et la somme du double des multiplicites des
paires propres doit etre egal `a dim(V ).
Denition 8.6 (Polynome caracteristique) Le polynome caracteristique
de T est deni par le produit des polynomes caracteristiques des matrices sur
la diagonale de la matrice de T.
Theoreme 8.3 (Cayley-Hamilton) Soit V un R-espace vectoriel, T
L(V ) et q le polynome caracteristique de T, alors q(T) = 0.
Demonstration Travaillons avec une base de V par rapport `a laquelle
la matrice de T est triangulaire superieure par bloc comme enonce dans le
Theor`eme 8.2. Soit U
j
un sous-espace prorpre de dimension 1 ou 2 engendre
par la base correspondant `a A
j
et denissons q(j) par :
q
j
(x) =
_
_
_
x si A
j
est egal `a [
j
]
(x a)(x d) bc si A
j
est egal `a
_
a c
b d
_
CHAPITRE 8. OP

ERATEURS SUR R-ESPACES VECTORIELS 68


Pour montrer q(T) = 0, montrons q(T)[
U
j
= 0 pour j = 1, . . . , m ce qui
revient `a montrer q
1
(T) . . . q
j
(T)[
U
j
= 0 pour tout j = 1, . . . , m. Pour j = 1
le resultat tiens, alors supposons le vrai pour 1 j n soit :
0 = q
1
(T)[
U
1
0 = q
1
(T)q
2
(T)[
U
2
.
.
.
0 = q
1
(T) . . . q
j1
(T)[U
j1
donc v U
j
implique q
j
(T)v = u +q
j
(S)v avec u U
1
+. . . +U
j1
et S
L(U
j
) de polynome caracteristique q
j
. Comme q
j
(S) = 0 q
j
(T)v U
1
+. . .+
U
j1
pour v U
j
, donc par lhypoth`ese dinduction q
1
(T) . . . q
j
(T)[
U
j
= 0
Theoreme 8.4 Soit V un R-espace vectoriel et T L(V ). Soit
1
, . . . ,
m

R les valeurs propres distinctes de T et U
1
, . . . , U
m
les espace propres as-
socies. Soit (
1
,
1
), . . . , (
M
,
M
) les paires propres distinctes de T et V
j
=
Ker
_
(T
2
+
j
T +
j
I)
dim(V )
_
. Alors :
1. V = U
1
. . . U
m
V
1
. . . V
M
2. les U
j
et V
j
sont invariants sous T.
3. chaque (T
j
I)[
U
j
et chaque (T
2
+
j
T +
j
I)[
V
j
est nilpotent.
Demonstration dim(U
j
) est egal `a la multiplicite de
j
valeur propre
de T et dim(V
j
) est egal au double de le multiplicite de (
j
,
j
) comme paire
propre de T. Donc :
dim(V ) = dim(U
1
) +. . . +dim(U
m
) +dim(V
1
) +. . . +dim(V
M
)
Posons U = U
1
+ . . . + U
m
+ V
1
+ . . . + V
M
. U est invariant sous T. Soit
S L(U). Les valeurs propres et paires propres de S sont les memes que
T, donc :
dim(U) = dim(U
1
) +. . . +dim(U
m
) +dim(V
1
) +. . . +dim(V
M
)
donc dim(V ) = dim(U) or U est un sous-espace de V donc U = V o` u
encore
V = U
1
+. . . +U
m
+V
1
+. . . +V
M
Chapitre 9
Trace et determinant
9.1 Changement de Base
Denition 9.1 (Matrice identite) La matrice identite notee I na que
des 1 sur la diagonale.
Denition 9.2 (Matrice Inversible) Une matrice A est inversible sil
existe une matrice carree B de meme dimension tel que
AB = BA = I
B est dit linverse de A.
Proposition 9.1 Si (u
1
, . . . , u
n
) et (v
1
, . . . , v
n
) deux bases de V , alors
M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) est inversible et :
M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))
1
= M(I, (v
1
, . . . , v
n
), (u
1
, . . . , u
n
))
Demonstration
M(ST, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))
= M(S, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))M(T, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))
donc
I = M(I, (v
1
, . . . , v
n
), (u
1
, . . . , u
n
))M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))
et echangeant le role des u et v il vient :
I = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))M(I, (v
1
, . . . , v
n
), (u
1
, . . . , u
n
))
69
CHAPITRE 9. TRACE ET D

ETERMINANT 70
Theoreme 9.1 (du changement de base) Soit T L(V ). Soit (u
1
, . . . , u
n
)
et (v
1
, . . . , v
n
) des bases de V . Soit A = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)).
Alors :
M(T, (u
1
, . . . , u
n
)) = A
1
M(T, (v
1
, . . . , v
n
))A
Demonstration
M(T, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) = M(T, (v
1
, . . . , v
n
))M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))
= M(T, (v
1
, . . . , v
n
))A (9.1)
de meme
M(T, (u
1
, . . . , u
n
)) = A
1
M(T, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) (9.2)
En substituant 9.1 dans 9.2 il vient le resultat desire.
9.2 Trace
Denition 9.3 (Trace dune matrice carree) La trace dune matrice carree
A, notee trace(A), est denie comme la somme des termes sur la diagonale.
Denition 9.4 (Trace dune application) la trace dune application T
L(V ) est loppose du coecient de x
n1
du polynome caracteristique.
Proposition 9.2 Si A et B sont des matrices carrees de meme dimension,
alors :
trace(AB) = trace(BA) (9.3)
Demonstration Soit
A =
_

_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_

_B =
_

_
b
11
. . . b
1n
.
.
.
.
.
.
b
n1
. . . b
nn
_

_
Le j
e
terme sur la diagonale de la matrice AB est donne par :
(ab)
jj
=
n

k=1
a
jk
b
kj
(9.4)
CHAPITRE 9. TRACE ET D

ETERMINANT 71
donc
trace(AB) =
n

j=1
(ab)
jj
=
n

j=1
n

k=1
a
jk
b
kj
=
n

j=1
n

k=1
b
kj
a
jk
= trace(BA)
Corollaire 9.1 Soit T L(V ). Si (u
1
, . . . , u
n
) et (v
1
, . . . , v
n
) sont des
bases de V , alors :
trace
_
M(T, (u
1
, . . . , u
n
))
_
= trace
_
M(T, (v
1
, . . . , v
n
))
_
Demonstration Soit (u
1
, . . . , u
n
) et (v
1
, . . . , v
n
) des bases de V . Soit
A = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) alors :
trace
_
M(T, (u
1
, . . . , u
n
))
_
= trace
_
A
1
M(T, (v
1
, . . . , v
n
))A
_
= trace
_
M(T, (v
1
, . . . , v
n
)A)A
1
_
= trace
_
M(T, v
1
, . . . , v
n
)
_
Theoreme 9.2 Si T L(V ) alors trace(T) = trace
_
M(T)
_
Demonstration Soit T L(V ). La trace de la matrice de T est
independante de la base de V choisie et pour une matrice triangulaire superieure
(ou triangulaire superieur par blocs) lequation est veriee.
Corollaire 9.2 Soit S, T L(V ), alors :
trace(ST) = trace(TS) et trace(S +T) = trace(S) +trace(T)
Demonstration
trace(ST) = trace
_
M(ST)
_
= trace
_
M(S)M(T)
_
= trace
_
M(TS)
_
= trace
_
TS)
_
CHAPITRE 9. TRACE ET D

ETERMINANT 72
et
trace
_
S +T
_
= trace
_
M(S +T)
_
= trace
_
M(S) +M(T)
_
= trace
_
S
_
+trace
_
T
_
9.3 Determinant dun operateur
Denition 9.5 (Inversion) Une paire del`ements (p
i
, p
j
) est une inversion
dans une permutation p si i < j et p
i
> p
j
.
Denition 9.6 Soit T L(V ). Denissons le determinant de T, note
det(T), comme (1)
dim(V )
fois le terme constant du polynome caracteristique.
1. sur un C-espace vectoriel le dertminant est le produit des valeurs propres
det(T) =
n

i=1

i
avec
i
une valeur propre et m le nombre de valeurs propres.
2. sur un R-esapce vectoriel le determinant est donne par le produit des
valeurs propres fois le produits des seconds coecients des paires propres,
soit :
det(T) =
m

i=1

i
M

j=1

j
avec m le nombre de valeurs propres, M le nombre de paires propres,

i
une valeur propre et
j
le second terme dune paire propre.
Proposition 9.3 Un operateur est inversible si et seulement si son determinant
est non-nul.
Demonstration
1. Supposons V un C-espace vectoriel et T L(V ). T est inversible si
et seulement si 0 nest pas une valeur propre de T ce qui revient
`
dire
que T est inversible si et seulement si le produit des valeurs propres
de T nest pas nul, o` u encore det(T) ,= 0.
CHAPITRE 9. TRACE ET D

ETERMINANT 73
2. Supposons maintenant V un R-espace vectoriel. De nouveau T est in-
versible si et seulement si 0 nest pas une valeur propre. Pour toute
paire propre
j
< 4
j
donc
j
> 0 donc
i
,= 0 si et seulement si
det(T) ,= 0.
Lemme 9.1 Soit V un R-espace vectoriel, T L(V ) et , , x R avec

2
< 4. (, ) est une paire propre de T si et seulement si (2x , x
2
+
x+) est une paire propre de xI T. De plus ces paires propres ont meme
multiplicite.
Demonstration
T
2
+T +I = (xI T)
2
(2x +)(xI T) + (x
2
+x +)I
donc (, ) est une paire propre si et seulement si (2x , x
2
+ ax + )
est une paire propre de xI T.
Theoreme 9.3 Soit T L(V ). Le polynome caracteristique de T est donne
par det(xI T).
Demonstration
1. Soit V un C-espace vectoriel et
1
, . . . ,
m
F les valeurs propres de
T. Les valeurs propres de zI T sont donc z
1
, . . . , z
m
donc
par la denition
det(zI T) = (z
1
) . . . (z
n
)
2. si V est un R-espace vectoriel et
1
, . . . ,
m
R les valeurs propres et
(
1
,
1
), . . . , (
M
,
M
) les paires propres de T. Les valeurs propres de
xI T sont donc x

i
et les paires propres (2x
j
, x
2
+
j
+
j
), et
le determinant, par denition est donne par :
de(xI T) =
m

i=1
(x
i
)
M

j=1
(x
2
+
j
x +
j
)
9.4 Determinant dune matrice
Denition 9.7 (Permutation) Une permutation dun ensemble X est une
bijection B : X X, qui consiste `a changer lordre des el`ements de X.
Pour un ensemble de n elements il existe n! permutations possibles.
CHAPITRE 9. TRACE ET D

ETERMINANT 74
Denition 9.8 (Nombre dinversion) Soit une permutation. Le nombre
dinversions de est :
NI() = #(i, j), i < j et (i) > (j) 1 i, j n
Denition 9.9 (Determinant dune matrice) Si A est une matrice n n
denie par :
A =
_

_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_

_
alors le determinant de la matrice A est donne par :
detA =

m
i
perm(n)
(sign(m
i
))a
m
1
,1
. . . a
mnn
Lemme 9.2 Soit A une matrice carree. Si B est la matrice obtenue en
echangeant deux colonnes de A, alors :
det(A) = det(B)
Demonstration Le det(B) est obtenu en interchangeant deux elements
de la permutation du calcul de det(A), donc le sign(det(B)) = sign(det(A))
et det(B) = det(A).
Lemme 9.3 Si A est une matrice carree avec deux colonnes egales, alors
det(A) = 0.
Demonstration En interchangeant les deux colonnes egales de A, il
vient la matrice A et la relation det(A) = det(A) donc det(A) = 0.
Lemme 9.4 Soit A = [a
1
, . . . , a
n
] une matrice n n et (m
1
, . . . , m
n
) une
permutation, alors
det[a
m1
. . . a
mn
] =
_
sign(m
1
, . . . , m
n
)
_
det(A)
Demonstration La matrice A est obtenue par une suite de permuta-
tions de colonnes de [a
m
1
, . . . , a
mn
]. A chaque etape le signe du determinant
est inverse, donc le sign(m
1
, . . . , m
n
) est paire si le nombre de permutations
est paires, impair sinon.
Theoreme 9.4 Si A et B sont des matrices carrees de meme taille alors :
det(AB) = det(BA) = det(A)det(B)
CHAPITRE 9. TRACE ET D

ETERMINANT 75
Demonstration Soit A = [a
1
, . . . , a
n
] avec les a
k
des colonnes et
B =
_

_
b
11
. . . b
1n
.
.
.
.
.
.
b
n1
. . . b
nn
_

_ = [b
1
, . . . , b
n
]
par la denition de la multiplication de deux matrices AB = [Ab
1
, . . . , Ab
n
],
soit
det(AB) = det[Ab
1
. . . Ab
n
]
= det[A(
n

m
1
b
m,1
e
m1
. . .
n

m
1
b
m,n
e
mn
)]
= det[
n

m
1
b
m
1
1
Ae
m
1
. . .
n

m
1
b
mnn
Ae
mn
]
=
b

m
1
=1
. . .
n

mn=1
b
m
1
1
. . . b
mnn
det[Ae
m
1
. . . Ae
mn
]
=

m
1
,...,mnpermn
b
m
1
,1
. . . b
mnn
_
sign(m
1
, . . . , m
n
)
_
det(A)
= (detA)

m
1
,...,mnperm(n)
_
sign(m
1
, . . . , m
n
)
_
b
m
1
1
. . . b
mnn
= (detA)(detB)
Corollaire 9.3 Soit T L(V ), (u
1
, . . . , u
m
) et (v
1
, . . . , v
n
) des bases de V
alors :
det(M(T, (u
1
, . . . , u
n
))) = det(M(T, (v
1
, . . . , v
n
)))
Demonstration Soit (u
1
, . . . , u
m
) et (v
1
, . . . , v
n
) des bases de V . Soit
A = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)), alors :
det(M(T, (u
1
, . . . , u
n
))) = det(A
1
(M(T, (v
1
, . . . , v
n
)))A)
= det((M(T, (v
1
, . . . , v
n
)))A
1
A)
= det((M(T, (v
1
, . . . , v
n
)))
Theoreme 9.5 Si T L(V ) alors det(T) = det(M(T))
CHAPITRE 9. TRACE ET D

ETERMINANT 76
Demonstration Le determinant dune application est independant de
la base. Par rapport `a une certaine base, la matrice de T est triangulaire
superieure (dans le cas dun C-espace vectoriel) ou triangulaire superieure
par blocs (dans le cas dun R-espace vectoriel) et le determinant de lappli-
cation est le meme que celui de la matrice.
Corollaire 9.4 Si S, T L(V ) alors :
det(ST) = det(TS) =
_
det(S)
__
det(T)
_
Demonstration Soit S, T L(V ) alors pour nimporte quelle base de
V
det(ST) = det
_
M(ST)
_
= det
_
M(S)M(T)
_
= det
_
M(S)
_
det
_
M(T)
_
= det(S)det(T)
Bibliographie
[1] Katherine Hess-Belwald : Alg`ebre Lineaire I & II Notes de Cours 2006-
2007
[2] Sheldon Axler : Linear Algebra Done Right, Springer, Second Edition
(1997)
77

S-ar putea să vă placă și