Documente Academic
Documente Profesional
Documente Cultură
Jean-Eloi Lombard
23 juillet 2007
Table des mati`eres
1 Espace Vectoriel 3
1.1 Espace Vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Somme et somme directe de sous-espaces vectoriels . . . . . . 6
2 Espace Vectoriel de Dimension Finie 8
2.1 Span et (in)dependance lineaire . . . . . . . . . . . . . . . . . 8
2.2 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Applications Lineaires 15
3.1 Noyau et Image . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Matrice dune application lineaire . . . . . . . . . . . . . . . . 18
3.3 Inversibilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4 Isomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Valeurs et Vecteurs Propres 24
4.1 Espaces invariants . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2 Matrices Triangulaires Superieurs . . . . . . . . . . . . . . . . 25
4.3 Matrice diagonale . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.4 Espaces invariants sur des R-espaces Vectoriels . . . . . . . . 29
5 Produit scalaire 32
5.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3 Bases orthonormales . . . . . . . . . . . . . . . . . . . . . . . 34
5.4 Projection orthogonale et prob`eme de minimisation . . . . . . 37
5.5 Fonctionnels lineaires et adjoints . . . . . . . . . . . . . . . . 38
1
TABLE DES MATI
`
ERES 2
6 Operat. sur e.v avec produit scalaire 41
6.1 Operateur auto-adjoint et Normal . . . . . . . . . . . . . . . 41
6.2 Operateurs Normaux sur R-espaces vectoriels muni dun pro-
duit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.3 Isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7 Operateurs sur C-espaces vectoriels 53
7.1 Vecteurs propres generalises . . . . . . . . . . . . . . . . . . . 53
7.2 Polynome caracteristique . . . . . . . . . . . . . . . . . . . . 55
7.3 Decomposition dun operateur . . . . . . . . . . . . . . . . . . 57
7.4 Polynome minimal . . . . . . . . . . . . . . . . . . . . . . . . 59
7.5 Forme de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 60
8 Operateurs sur R-espaces vectoriels 62
8.1 Valeurs propres de matrices carrees . . . . . . . . . . . . . . . 62
8.2 Valeurs propres de matrice triangulaires superieures . . . . . 63
8.3 Polynome caracteristique . . . . . . . . . . . . . . . . . . . . 63
9 Trace et determinant 69
9.1 Changement de Base . . . . . . . . . . . . . . . . . . . . . . . 69
9.2 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
9.3 Determinant dun operateur . . . . . . . . . . . . . . . . . . . 72
9.4 Determinant dune matrice . . . . . . . . . . . . . . . . . . . 73
Chapitre 1
Espace Vectoriel
Denition 1.1 (Liste) Une liste de longueur n (n N) est une collection
ordonnee de n objets symbolises par n sigles separe par des virgules, le tout
entre parenth`eses. On dit que lelement j de la liste est la j
e
coordonnee.
Proposition 1.1 Deux listes sont egales si et seulement si :
1. elles ont meme longueur
2. quelque soit le j
e
element de la premi`ere liste, il est egal au j
e
element
de la seconde.
Remarque 1.1 (Dierence entre une liste et un ensemble) Dans une
liste de n elements lordre importe contrairement `a lensemble. Ainsi 1, 2, 3
et 3, 2, 1 et le meme ensemble, mais (1, 2, 3) et (3, 2, 1) sont des listes
dierentes.
Denition 1.2 (Vecteur) Un vecteur est un objet mathematique caracterise
par :
1. une direction
2. un sens
3. une norme
En representation Cartesienne un vecteur de F
n
est represente par une liste
de scalaires de longueur n.
Proposition 1.2 (Addition) Laddition de deux vecteurs de F
n
est donnee
par laddition de chaque composant de la liste. Ainsi, pour u, v F
n
:
u +v = (u
1
+v
1
, . . . , u
n
+v
n
)
3
CHAPITRE 1. ESPACE VECTORIEL 4
Proposition 1.3 (Multiplication) Soit a F et u F
n
, alors la multi-
plication du vecteur u par le scalaire a est donnee par la multiplication de
chaque composante du vecteur par le scalaire a, soit :
au = (au
1
, . . . , au
n
)
1.1 Espace Vectoriel
Denition 1.3 (Espace Vectoriel) Un F-espace vectoriel V est un en-
semble de vecteurs de V muni de la multiplication et de laddition vectorielle
(comme denie ci-dessus) veriant les proprietes suivantes :
1. Commutativite : u +v = v +u u, v V
2. Assossiativite : (u +v) +w = u + (v +w) u, v, w V
3. Identite additive : 0 V/v + 0 = 0 +v = v v V
4. Inverse additif : v V, w V/v +w = 0
5. Identite multiplicative : 1v = vv V
6. Distributivite : a(u + v) = au + av u, v V a F et (a + b)v =
av +bv a, b Fv V .
Proposition 1.4 (Unicite de lelement neutre pour laddition) Un es-
pace vectoriel a un unique element neutre par rapport `a laddition.
Demonstration Supposons 0 et 0
= 0
) = (w +v) +w
= 0 +w
= w
EAIRES 16
Demonstration Pour montrer que Ker(T) est un sous-espace vecto-
riel (en sachant que cest un sous-ensemble de V) il ne nous reste plus qua
demontrer que Ker(T) est ferme sous laddition et la multiplication (et quil
est non-vide). Ladditivite de T implique
T(0) = T(0 + 0) = T(0) +T(0) T(0) = 0
donc 0 Ker(T). Prenons maintenant u, v Ker(T) on a donc :
T(u +v) = T(u) +T(v) = 0
donc (u+v) Ker(T) ce qui montre que Ker(T) satisfait laddition interne.
Prenons maintenant u Ker(T) et a F alors :
T(au) = aT(u) = a0 = 0
donc Ker(T) est ferme sous la multiplication par un scalaire.
Denition 3.3 (Injectivite) Une application lineaire L(V, W) est injec-
tive si quelque soit u, v V on a Tu = Tv implique u = v.
Proposition 3.3 Soit T L(V, W). T est injective si et seulement si
Ker(T) = 0
Demonstration
Sens direct : Supposons T injective et montrons Ker(T) = 0.
Trivialement 0 Ker(T) il nous reste donc a montrer Ker(T) 0.
Prenons u Ker(T) on a donc T(u) = 0 = T(0) or T est injective
donc u = 0.
Sens indirect : Supposons maintenant Ker(T) = 0 et montrons que
T est injective. Prenons donc u, v V tels que T(u) = T(v). On a
donc 0 = T(u)T(v) ce qui implique (par linearite de T) T(uv) = 0.
Donc (u v) Ker(T). Or Ker(T) = 0 (par hypothese) donc
u v = 0 donc u = v ce qui complete la demonstration.
Denition 3.4 (Image) Soit T L(V, W). Limage de T, note Im(T)
(ou range(T)) est le sous-ensemble de W (nous allons montrer que cest
meme un sous-espace vectoriel Proposition 3.4) dont tout les vecteurs sont
de la forme T(v) pour un certain v dans V :
Im(T) = range(T) = w W/v V, w = T(v)
Denition 3.5 (Rang) Le rang dune application lineaire T L(V, W)
est la dimension de son image.
Proposition 3.4 Si T L(V, W) alors Im(T) est un sous-espace vectoriel
de W.
CHAPITRE 3. APPLICATIONS LIN
EAIRES 17
Demonstration Soit T L(V, W) alors T(0) = 0 donc 0 Im(T)
(par denition). Prenons maintenant w
1
et w
2
dans W et montrons que
w
1
+w
2
W. Il existe donc v
1
et v
2
dans V tel que T(v
1
) = w
1
et T(v
2
) =
w
2
.
T(v
1
) +T(v
2
) = T(v
1
+v
2
)
ce qui demontre la premi`ere partie. Montrons maintenant que Im(T) est
ferme sous la multiplication par un scalaire a F. Prenons w W et
v V /T(v) = w. On a donc :
aT(v) = T(av)
ce qui termine la demonstration.
Denition 3.6 (Surjectivite) Une application lineaire T L(V, W) est
dite surjective si et seulement si Im(T) = W.
Theoreme 3.1 (des dimensions ou du rang) Si V et W sont des
espaces vectoriels de dimension nie et T L(V, W) alors Im(T) est un
sous-espace vectoriel de W et :
dim(V ) = dim
_
Im(T)
_
+dim
_
Ker(T)
_
Demonstration Soit V un espace vectoriel de dimension nie et T L(V, W).
Prenons (u
1
, . . . u
m
) une base de Ker(T). On a donc dim(Ker(T)) = m.
Par le Theor`eme 2.3 on peut rajouter des vecteurs `a cette base de Ker(T)
pour former une base de V qui aura la forme (u
1
, . . . , u
m
, w
1
, . . . , w
n
). Donc
dim(V ) = m+n. Il nous faut donc montrer dim(Im(T)) = n. Pour ce faire
nous allons montrer que (Tw
1
, . . . , Tw
n
) est une base de Im(T). Prenons
v V . Comme (u
1
, . . . , u
m
, w
1
, . . . , w
n
) est une base de V il existe a, b R
tels que :
v = a
1
u
1
+. . . +a
m
u
m
+b
1
w
1
+. . . +b
n
w
n
donc :
Tv = b
1
Tw
1
+. . . +b
n
Tw
n
car T est lineaire et (u
1
, . . . , u
m
) Ker(T). On a donc Im(T) = span(b
1
Tw
1
+
. . .+b
n
Tw
n
). Il nous faut donc montrer que (Tw
1
, . . . , Tw
n
) est lineairement
independant. Prenons donc des scalaires c F tels que :
c
1
Tw
1
+. . . +c
n
Tw
n
= 0 (3.1)
T(c
1
w
1
+. . . +c
n
w
n
) = 0
CHAPITRE 3. APPLICATIONS LIN
EAIRES 18
donc (c
1
w
1
+. . . +c
n
w
n
) Ker(T). Or (u
1
, . . . , u
m
) est une base de Ker(T)
donc il existe des scalaires d tels que :
c
1
w
1
+. . . +c
n
w
n
= d
1
u
1
+. . . +d
n
u
n
c
1
w
1
+. . . +c
n
w
n
d
1
u
1
. . . d
n
u
n
= 0 (3.2)
Or (u
1
, . . . , u
m
, w
1
, . . . , w
n
) est une liste lineairement independante donc 3.2
implique que tout les scalaires sont nuls donc lequation 3.1 implique que
Tw
1
, . . . Tw
n
est lineairement independante.
Corollaire 3.1 Si V et W sont des espaces vectoriels de dimension nie
veriant dim(V ) > dim(W) alors il nexiste pas dapplication lineaire injec-
tive de V dans W.
Demonstration Le theor`eme 3.1 nous donne :
dim(V ) = dim(KerT) +dim(ImT)
et Im(T) W donc dim(ImT) < dimW. Or dimW < dimV donc dim(ImT) < dimV
donc dim(KerT) ,= 0.
Corollaire 3.2 Si V et W sont des espaces vectoriels de dimension nie
veriant dim(V ) < dim(W) alors il nexiste pas dapplication lineaire sur-
jective de V dans W.
Demonstration Le theor`eme 3.1 nous donne :
dim(V ) = dim(KerT) +dim(ImT)
Ab absurdo : Supposons quil existe une application T surjective. On au-
rait donc dim(ImT) = dimW ce qui nous donne dim(V ) = dim(KerT) +
dim(W) donc dim(V ) dim(W) ce qui contredit lhypoth`ese dimV <
dimW.
3.2 Matrice dune application lineaire
Denition 3.7 (Matrice) Soit m, n N. Une matrice m-par-n est un ta-
bleau rectangulaire de m lignes et n colonnes de la forme :
_
_
_
a
1,1
. . . a
1,n
.
.
.
.
.
.
a
m,1
. . . a
m,n
_
_
_ (3.3)
CHAPITRE 3. APPLICATIONS LIN
EAIRES 19
Soit T L(V, W), (v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
m
) une base de
W. Pour tout k = 1, . . . , n il existe une combinaison lineaire unique de w
tels que :
Tv
k
= a
1,k
w
1
+. . . +a
m,k
w
m
avec tout les a
j,k
Fj = 1, . . . , n. Les a
j,k
denissent la matrice puisquils
sont les coecients par rapport aux bases choisies. Ainsi la matrice 3.3 est
la matrice de lapplication lineaire T par rapport aux bases (v
1
, . . . , v
n
) et
(w
1
, . . . , w
m
) notee M(T, (v
1
, . . . v
n
), (w
1
, . . . , w
m
)). Cette matrice est construite
en remplissant chaque colonne k avec les coecient de T(v
k
).
Proposition 3.5 Mat(m, n, F) est un espace vectoriel.
Proposition 3.6 La multiplication dune matrice A de termes a
j,k
par une
matrice B de termes b
j,k
est la matrice AB de dimension m-par-n dont le
terme de la j
e
lignes et k
e
colonne est donne par :
n
r=1
a
j,r
b
r,k
Proposition 3.7 Soit T L(V, W), (v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
m
)
une base de W, alors :
M(Tv) = M(T)M(v)
v V.
Demonstration Soit M(T) la matrice :
M(T) =
_
_
a
1,1
. . . a
1,n
.
.
.
.
.
.
a
m,1
. . . a
m,n
_
_
ce qui est equivalent a :
Tv
k
=
m
j=1
a
j,k
w
j
CHAPITRE 3. APPLICATIONS LIN
EAIRES 20
Soit v un vecteur de V alors T(v) est donne par :
Tv = b
1
Tv
1
+. . . +b
n
Tv
n
= b
1
m
j=1
a
j,1
w
j
+. . . +b
n
m
j=1
a
j,n
w
j
=
m
j=1
(a
j,1
b
1
+. . . +a
j,n
b
n
)w
j
donc
M(T(v)) =
_
_
a
1,1
b
1
+. . . +a
1,n
b
n
.
.
.
a
m,1
b
1
+. . . +a
m,n
b
n
_
_
Denition 3.8 (Syst`eme lineaire) Un syst`eme lineaire de m equations
`a n inconnues est deni par m equations du type :
_
_
a
11
x
1
+. . . +a
1n
x
n
= b
1
.
.
.
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
avec a
ij
F
Denition 3.9 (Solution) c = (c
1
, . . . , c
m
) est une solution du syst`eme si
et seulement si
a
i1
c
1
+. . . +a
in
c
n
= b
i
1 i m
Denition 3.10 (Syst`eme homog`ene) Le syst`eme est dit homog`ene si
b
i
= 0 pour tout 1 i m.
Remarque 3.1 (Calcul de linverse dune matrice) Pour calculer lin-
verse dune matrice, il sut dy joindre la matrice identite puis deectuer
une elimination de Gauss-Jordan.
3.3 Inversibilite
Denition 3.11 (Application Inversible) Une application lineaire T L(V, W)
est inversible si il existe une application S L(W, V ) tel que ST est liden-
tite sur V et TS lidentite sur W. On dit alors que S est linverse T.
Proposition 3.8 Linverse dune matrice est unique.
CHAPITRE 3. APPLICATIONS LIN
EAIRES 21
Demonstration Soit S et S
) = (ST)S
= IS
= S
EAIRES 22
Sens direct : supposons que V et W sont des espaces vectoriels iso-
morphes de dimension nie. Il existe donc une application lineaire
inversible T de V dans W. Comme T est inversible elle est injective,
donc Ker(T) = 0 et T est surjective donc Im(T) = W. De plus
dimV = dim(Im(T)) +dim(Ker(T)) donc dim(V ) = dim(W).
Sens indirect : supposons V et W des espaces vectoriels de dimension
nie de meme dimension et montrons quils sont isomorphes. Soit
(v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
n
) une base de W et T une
application lineaire de V dans W denie par :
T(a
1
v
1
+. . . +a
n
v
n
) = a
1
w
1
+. . . +a
n
w
n
T est injective car (w
1
, . . . , w
n
) est lineairement independant (ce qui
implique que Ker(T) = 0) et T est surjective car (v
1
, . . . , v
n
) est
lineairement independant. Donc T est inversible ce qui par denition
revient `a dire que V et W sont isomorphes.
Proposition 3.10 Soit (v
1
, . . . , v
n
) une base de V et (w
1
, . . . , w
m
) une base
de W. Alors M est une application lineaire inversible de L(V, W) dans
Mat(m, n, F)
Demonstration Montrons que M est inversible et commencons par
montrer que M est injective. Soit T L(V, W) et M(T) = 0, on a donc
Tv
k
= 0 pour k = 1, . . . , n. Or v
1
, . . . , v
n
est une base de V donc T =
0. Donc M(T) = 0 impilque T = 0 ce qui revient a dire que M est in-
jective. Montrons maintenant que M est surjective. Soit A un matrice de
Mat(m, n, F) et T L(V, W) tel que la matrice A soit celle de lapplication
T par rapport aux bases de V et W denie ci-dessus. Clairement M(T) = A
donc Im(M) = Mat(m, n, F) ce qui revient a dire que M est surjective.
Proposition 3.11 Si V et W sont des espaces vectoriels de dimension nie
alors L(V, W) est de dimension nie et
dimL(V, W) = dim(V )dim(W) (3.4)
Demonstration dim(Mat(m, n, F)) = mn = dim(L(V, W)). Il sut
de poser dim(V ) = m et dim(W) = n.
Denition 3.12 (Operateur) Une application lineaire dun espace vecto-
riel dans lui-meme est un operateur.
CHAPITRE 3. APPLICATIONS LIN
EAIRES 23
Theoreme 3.3 (pour les paresseux) Soit V un espace vectoriel de di-
mension nie. Si T L(V ) alors les propositions suivantes sont equivalentes :
1. T est inversible
2. T est injective
3. T est surjective
Demonstration Si T est inversible alors, par denition T est injec-
tive et surjective. Montrons que T est injective implique T est surjective.
Si T est injective alors Ker(T) = 0 donc dim(Im(T)) = dim(V )
dim(Ker(T)) = dim(V ) donc T est surjective. Il ne nous reste plus qua
montrer que T surjective implique T inversible. T est surjective implique
dim(V ) = dim(Im(T)) donc dim(Ker(T)) = 0 donc T est injective, donc
T est inversible.
Chapitre 4
Valeurs et Vecteurs Propres
4.1 Espaces invariants
Denition 4.1 (Espace invariant) Soit T L(V ) et U un sous-espace
vectoriel de V. Si pour tout u U, T(u) U alors on dit que U est invariant
sous T.
Denition 4.2 (Valeur propre) Un scalaire F est une valeur propre
de loperateur T L(V ) si il existe un vecteur non-nul v V tel que
Tu = u. Lensemble des valeurs propres est note Spec(T) :
Spec(T) = F/ est une valeur propre de T
Denition 4.3 (Vecteur Propre) Un vecteur v V est un vecteur propre
associe `a la valeure propre F si Tu = u.
Theoreme 4.1 Soit T L(V ) et
1
, . . . ,
m
F des valeurs propres dis-
tinctes de T avec v
1
, . . . , v
m
les vecteurs propres associes. Alors (v
1
, . . . , v
m
)
sont lineairement independants.
Demonstration Ab absurdo Supposons (v
1
, . . . , v
m
) lineairement dependants.
Soit k le plus petit entier positif tel que v
k
span(v
1
, . . . , v
k1
). Il existe
donc des scalaires a
1
, . . . , a
k1
F tels que :
v
k
= a
1
v
1
+. . . +a
k1
v
k1
(4.1)
en appliquant T des deux c otes :
k
v
k
= a
1
1
v
1
+. . . +a
k1
k1
v
k1
(4.2)
24
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 25
en multipliant lequation 4.1 par
k
et en la soustrayant a 4.2 il vient :
0 = a
1
(
k
1
)v
1
+. . . +a
k1
(
k
k1
)v
k1
or par hypothese (v
1
, . . . , v
k1
) est une liste de vecteur lineairement independants
donc tout les a
i
doivent etre nuls ce qui revient `a dire que v
k
= 0 ce qui
contredit lhypoth`ese selon laquelle tout les v sont non-nuls.
Corollaire 4.1 Tout operateur sur un espace vectoriel V admet au plus
dim(V ) valeur propres distinctes.
Demonstration Soit T L(V ),
1
, . . . ,
m
F des valeures propres
associees aux vecteurs propres v
1
, . . . , v
m
. Le theoreme 4.1 implique m dim(V ).
4.2 Matrices Triangulaires Superieurs
Theoreme 4.2 Tout operateur sur un C-espace vectoriel de dimension nie
admet au moins une valeur propre.
Demonstration Soit V un espace vectoriel de dimension n et T
L(V ). En prenant v V on a (v, Tv, T
2
v, . . . , T
n
v) une liste de vecteurs
forcement lineairement dependantes puisque la liste est de longueur n + 1.
Il existe donc a
0
, . . . , a
n
C non tous nuls tels que :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v (4.3)
Soit m le plus grand entier tels que a
m
est non-nul et prenons les a
i
comme
coecient dun polynome de la forme :
a
0
+a
1
z +. . . +a
n
z
n
= c(z
1
) . . . (z
n
)
avec c C non nul et
i
C. Lequation 4.3 devient donc :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v
= (a
0
I +a
1
T +. . . +a
n
T
n1
)v
= c(z
1
) . . . (z
m
I)v
ce qui implique quau moins un T
i
I nest pas injective (sinon il serait
impossible davoir (T
i
I)v = 0 . . .). Il existe donc un vecteur v tel que
(T
i
I)v = 0 ce qui revient `a dire que T a une valeure propre.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 26
Proposition 4.1 Soit T L(V ) et (v
1
, . . . , v
n
) une base de V. Les propo-
sitions suivantes sont equivalentes :
1. la matrice de T par rapport `a la base (v
1
, . . . , v
n
) est triangulaire
superieure.
2. Tv
k
span(v
1
, . . . , v
k
) pour tout k = 1, . . . , n.
3. span(v
1
, . . . , v
k
) est invariant sous T pour tout k = 1, . . . , n.
Demonstration Par denition la dune matrice triangulaire superieure,
les deux premi`eres proposition sont equivalentes. Trivialement la troisi`eme
proposition implique la seconde. Il ne reste donc plus qu`a demontrer que
la seconde implique la troisi`eme. Soit k 1, . . . , n. On a donc T(v
k
)
span(v
1
, . . . , v
k
) donc si v span(v
1
, . . . , v
k
), T(v) span(v
1
, . . . , v
k
), donc
span(v
1
, . . . , v
k
) est invariant sous T.
Theoreme 4.3 Soit T L(V ) avec V un C-espace vectoriel. Alors il existe
une base de V tel que la matrice associee `a lapplication T soit triangulaire
superieure.
Demonstration Procedons `a une demonstration par reccurence sur
la dimension de V. Pour une dimension 1, le resultat tiens. Supposons
dim(V ) > 1 et quil existe une base par rapport `a laquelle la matrice de
T est triangulaire superieure. V etant un C-espace vectoriel, T admet au
moins une valeure propre. Soit C cette valeur propre et posons
U = Im(T I)
T I nest pas injective (par denition de la valeure propre) donc dapr`es
le Theor`eme 3.3, T I nest pas surjective, donc dim(U) < dim(V ). De
plus on a :
Tu = Tu +u u = (T I)u +u
or (T I)u U et u U donc Tu U. T[
u
est donc un operateur sur
U. Or dapr`es lhypoth`ese de reccurence (T I) a une matrice triangulaire
superieure ce qui revient `a ecrire :
Tu
j
span(u
1
, . . . , u
j
)
en rajoutant des vecteurs `a la liste (u
1
, . . . , u
m
) on obtient la liste (u
1
, . . . , u
m
, v
1
, . . . , v
n
)
base de V. Pour tout k on a donc :
Tv
k
= (T I)v
k
+v
k
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 27
de par la denition de U, (T I)v
k
span(u
1
, . . . , v
m
) on a donc :
Tv
k
span(u
1
, . . . , u
m
, v
1
, . . . , v
k
)
donc dapr`es la Proposition 4.1, T `a une matrice triangulaire superieure par
rapport `a la base (u
1
, . . . , u
m
, v
1
, . . . , v
n
).
Proposition 4.2 Soit T L(V ) ayant une matrice triangulaire superieure
par rapport `a une certaine base de V. T est inversible si et seulement si tout
les termes sur la diagonale de la matrice sont non-nuls.
Demonstration
Sens direct : Demontrons dabord que si une des valeurs de la dia-
gonale, dison
k
est nulle alors la matrice associee `a lapplication T
nest pas inversible. Si
1
= 0 alors clairement T nest pas injective,
donc pas bijective, donc pas inversible. Supposons maintenant
k
= 0
avec k = 2, . . . , n. On a donc T(v
k
) span(v
1
, . . . , v
k1
). On peut
donc denir une nouvelle application lineaire :
S : span(v
1
, . . . , v
k
) span(v
1
, . . . , v
k1
)
span(v
1
, . . . , v
k
) est de dimension k et span(v
1
, . . . , v
k1
) est de di-
mension k 1 donc S ne peut pas etre injective. Elle nest donc pas
bijective donc pas inversible.
Sens indirect : Supposons T non-inversible et montrons que cette
proposition implique un
k
nul. Si T nest pas inversible alors T nest
pas injective (car pour un operateur injectivite, surjectivite et bijecti-
vite sont equivalents, Theor`eme 3.3). Il existe donc un vecteur v non
nul et des scalaires a
1
, . . . , a
k
tels que
T(v) = 0
T(a
1
v
1
+. . . , a
k
v
k
) = 0
(a
1
Tv
1
+. . . +a
k1
Tv
k1
) +a
k
Tv
k
= 0 (4.4)
avec (v
1
, . . . , v
n
) une base de V. Clairement le premier terme appar-
tient `a span(v
1
, . . . , v
k1
) et le second appartient aussi car lequation
4.4 implique (a
1
Tv
1
+ . . . + a
k1
Tv
k1
) = a
k
Tv
k
ce qui revient `a
dire Tv
k
span(v
1
, . . . , v
k
). Donc le coecient de v
k
est nul lorsque
de Tv
k
est exprime par rapport `a la base (v
1
, . . . , v
n
). Ce qui demontre
k
= 0.
Proposition 4.3 Soit T L(V ) dont la matrice associee est triangulaire
superieure par rapport `a une certaine base de V. Les valeurs propres de
lapplication T sont les entrees sur la diagonale de la matrice associee.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 28
Demonstration Soit (v
1
, . . . , v
n
) une base de V alors la matrice de T
par rapport `a cette base est donnee par :
M(T, (v
1
, . . . , v
n
)) =
_
2
.
.
.
0
n
_
_
et pour un scalaire
M(T I, (v
1
, . . . , v
n
)) =
_
2
.
.
.
0
n
_
_
est une valeur propre de T si et seulement si =
k
pour un k 1, . . . , n
4.3 Matrice diagonale
Denition 4.4 (Matrice Diagonale) Une matrice est dite diagonale si
tout les termes en dehors de la diagonale sont nuls.
Proposition 4.4 Si T L(V ) a dim(V) valeurs propres distinctes alors
T admet une matrice diagonale par rapport `a une certaine base de V.
Demonstration Puisque T a dim(V ) valeurs propres distinctes, T a
dim(V ) vecteurs propres associes. Or les vecteurs associes `a des valeurs
propres distinctes sont lineairement independants. Donc cette liste de vec-
teurs fournit une base de V. Par rapport `a cette base, la matrice de T est
diagonale.
Proposition 4.5 Soit T L(V ). Soit
1
, . . . ,
m
des valeurs propres dis-
tinctes de T. Alors les propositions suivantes sont equivalentes :
1. T a une matrice diagonale par rapport `a une base de V.
2. V a une base construites par les vecteurs propres de T.
3. il existe des espaces vectoriels V uni-dimensionels U
1
, . . . , U
m
inva-
riants sous T tel que V = U
1
+. . . +U
m
.
4. V = Ker(T
1
I) . . . Ker(T
m
I).
5. dim(V ) = dim(Ker(T
1
I)) +. . . +dim(Ker(T
n
I))
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 29
Demonstration
1. La Proposition 4.5 demontre lequivalence des deux premi`eres proposi-
tions.
2. Supposons maintenant que V poss`ede une base de vecteurs propres de
T en posant U
j
= span(v
j
) on a bien une somme directe despace
vectoriels invariants sous T. Donc la proposition 2 implique la 3.
3. Supposons maintenant la proposition 3 et demontrons quelle implique
la 2. On procede `a la meme desmontration que precedement, mais dans
lautre sens.
4. Supposons maintenant la proposition 2 et montrons la 4. On a donc
tout vecteur v V exprime comme combinaison lineaire des vecteurs
propres de T, soit :
V = Ker(T
1
I) +. . . +Ker(T
n
I) (4.5)
Cette somme est directe car les espaces propres associes `a des valeurs
propres distinctes sont lineairement independants. La denition de la
somme directe et la proposition 4 implique la proposition 5.
5. Demontrons nalement que la proposition 5 implique la 2. On a
dim(V ) = dim(Ker(T
1
I)) +. . . +dim(Ker(T
n
I))
Formons une liste de vecteurs (v
1
, . . . , v
n
) propres de T. Pour montrer
que cette liste est lineairement independante prenons un vecteurs v de
V et montrons que la seule mani`ere davoir v = 0 lorsquil est exprime
dans la base (v
1
, . . . , v
n
) et davoir tout les scalaires a
1
, . . . , a
n
F
nuls, soit :
v = a
1
v
1
+. . . +a
n
v
n
= 0
or les v
k
sont des vecteurs des espaces propres de T, donc la seule
mani`ere davoir v = 0 est de prendre tout les a
k
= 0. Les v
1
, . . . , v
n
sont donc linairement independants et forment donc une base de V.
4.4 Espaces invariants sur des R-espaces Vecto-
riels
Theoreme 4.4 Tout operateur sur un R-espace vectoriel de dimension nie
a un sous-espace invariant de dimension 1 ou 2.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 30
Demonstration Soit V un R-espace vectoriel de dimension n > 0 et
T L(V ). Soit v ,= 0 V alors la liste de vecteurs (v, Tv, T
2
v, . . . , T
n
V )
ne peut pas etre lineairement independantes puisquelle est de longueur n+1.
Il existe donc des scalaires a
0
, . . . , a
n
R non tous nuls tels que :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v
Utilisons ces scalaires pour construire un polynome de degre n que nous
ecrivons sous sa forme factorisee :
c(x
1
) . . . (x
m
)(x
2
+
1
x +
1
) . . . (x
2
+
M
x +
M
)
On a donc :
0 = a
0
v +a
1
Tv +. . . +a
n
T
n
v
= c(T
1
I) . . . (T
m
I)(T
2
+
1
T +
1
I) . . . (T
2
+
M
T +
M
I)v
ce qui revient `a dire quau moins un des (T
k
I) ou un des (T
2
+
K
T+
K
I)
nest pas injectif. Si (T
k
I) nest pas injectif alors T `a un espace invariant
de dimension 1 qui est lespace propre associe `a la valeur propre
k
. En
revanche si cest un des (T
2
+
K
T +
K
I) qui nest pas injectif alors on
a (T
2
+
K
T +
K
I)v = 0. On cherche `a trouver un espace invariant sous
T de dimension 1 ou 2. Prenons span(u, Tu). Tout element de span(u, Tu)
est de la forme au +bTu, on a donc :
T(au +bTu) = aTu +bT
2
u
or T
2
u =
K
Tu
K
u, donc :
T(au +bTu) = aTu b
K
Tu b
K
u
donc T(au +bTu) span(u, Tu).
Denition 4.5 (Projection) Soit U, V et W des espaces vectoriels tels
que V = U W. P
U,W
L(V ) deni par P
U,W
v = u pour tout v V est
la projection de V sur U parall`element `a W.
Proposition 4.6 (Importante ! ! !) P est un projecteur si et seulement si
p p = p.
Theoreme 4.5 Tout operateur sur un R-espace vectoriel de dimension im-
paire a une valeur propre.
CHAPITRE 4. VALEURS ET VECTEURS PROPRES 31
Demonstration Soit V un R-espace vectoriel de dimension nie. Procedons
`a une demonstration par reccurence sur la dimension de V. Pour une dimen-
sion de 1 le thero`eme tient. Supposons donc dim(V ) un impair superieur `a
1. Le resultat tiens donc pour un sous-espace vectoriel de V de dimension
dim(V ) 2. Soit T L(V ). Si T `a une valeur propre la demonstration est
nie, sinon on sait que T a un sous-espace vectoriel invariant U de V de di-
mension 2. Soit W un sous-espace vectoriel de V tel que V = U W. W est
de dimension dim(V ) 2, on peut donc appliquer lhypoth`ese de reccurence.
T[
W
nest pas necessairement un operateur sur W, on pose donc S L(W)
tel que Sw = P
W,U
(Tw) pour tout w W. Lhypoth`ese dinduction implique
que S `a une valeur propre . ll nous faut maintenant chercher une valeur
propre de T[
U+span(w)
. Prenons donc un vecteur u+aw U +span(w) avec
u U et a F, on a donc :
(T I)(u +aw) = Tu U +a(Tw w)
= Tu u +a(P
U,W
(Tw) +P
W,U
(Tw) w)
= Tu u +a(P
U,W
(Tw) +Sw w)
= Tu u +aP
U,W
(Tw)
donc (T I)(u + aw) U or dim(U + span(w)) > dim(U) donc (T
I)[
U+span(w)
nest pas injectif. Il existe donc un vecteur v U +span(w)
V tel que (T I)v = 0 ce qui revient `a dire que T `a une valeur propre.
Chapitre 5
Produit scalaire
5.1 Produit scalaire
Denition 5.1 (Forme) Soit V un F-espace vectoriel. Une forme sur V
est une application
: V V F
Denition 5.2 (Forme symetrique) Une forme : V V F est dite
symetrique si pour tout u, v V :
(u, v) = (v, u)
Denition 5.3 (Forme bilineaire) Une forme : V V F est dite
bilineaire si pour tout
1
,
1
,
2
,
2
F et pour tout u
1
, v
1
, u
2
, v
2
V :
(
1
u
1
+
1
v
1
,
2
u
2
+
2
v
2
) =
1
2
(u
1
, u
2
)+
1
2
(u
1
, v
2
)+
1
2
(v
1
, u
2
)+
1
2
(v
1
, v
2
)
Denition 5.4 (Forme denie positive) Une forme : V V F est
dite denie positive si pour tout v V :
(v, v) 0 et (v, v) = 0 v = 0
Denition 5.5 (Produit scalaire) Un produit scalaire sur un espace vec-
toriel V est une forme symetrique, bilineaire, denie positive qui `a tout
couple delements u, v V associe le nombre u, v) F veriant les pro-
prietes suivantes :
1. positivite v, v) 0 pour tout v V .
2. denitivite v, v) = 0 si et seulement si v = 0.
32
CHAPITRE 5. PRODUIT SCALAIRE 33
3. additivite du premier element u + v, w) = u, w) + v, w) pour tout
u, v, w V .
4. homogeneite du premier element : av, w) = av, w) pour tout a F
et u, v V
5. symetrie conjuguee v, w) = w, v) pour tout v, w V .
Denition 5.6 (Espace prehilbertien) Un espace vectoriel prehilbertien
V est un F-espace vectoriel muni dun produit-scalaire. V peut-etre de di-
mension innie !
Denition 5.7 (Espace Euclidien) Un espace Euclidien est un espace
prehilbertien de dimension nie sur R.
Denition 5.8 (Espace Hermitien) Un espace Hermitien est un espace
prehilbertien de dimension nie sur C.
5.2 Norme
Denition 5.9 Soit v V . La norme de V denotee [[v[[ est donnee par :
[[v[[ =
_
v, v)
Denition 5.10 (Orthoganlite ou perpendicularite) Soit u, v V . u
et v sont dits orthogonaux (ou perpendiculaires) si et seulement si
u, v) = 0
Theoreme 5.1 (de Pythagore) Soit u, v V deux vecteurs orthogonaux.
Alors
[[u +v[[
2
= [[u[[
2
+[[v[[
2
Demonstration u, v V orthogonaux.
[[u +v[[
2
= u +v, u +v)
= [[u[[
2
+[[v[[
2
+u, v) +v, u)
= [[u[[
2
+[[v[[
2
Theoreme 5.2 (Inegalite de Cauchy-Schwarz) Si u, v V alors :
[u, v)[ [[u[[[[v[[
CHAPITRE 5. PRODUIT SCALAIRE 34
Demonstration Considerons la decomposition orthogonale de u sur v
et w :
u =
u, v)
[[v[[
2
v +w
dapr`es le theor`eme de Pythagore, on a :
[[u[[
2
=
_
_
_
_
u, v)
[[v[[
2
v
_
_
_
_
2
+[[w[[
2
=
[u, v)[
2
[[v[[
2
+[[w[[
2
[u, v)[
2
[[v[[
2
et en multipliant les deux cotes de linegalite par [[v[[
2
on obtient le resultat.
Theoreme 5.3 (Inegalite triangulaire) u, v V [[v +w[[ [[v[[ +[[w[[
Demonstration
[[v +w[[
2
= v +w, v +w)
= v, v) +v, w) +w, v) +w, w)
= [[v[[
2
+v, w) +v, w) +[[w[[
2
or
v, w) +v, w) = 2Rev, w)
2[v, w)[
donc
[[v +w[[
2
= [[v[[
2
+ 2[v, w)[ +[[w[[
2
[[v[[
2
+[[w[[
2
5.3 Bases orthonormales
Denition 5.11 (liste de vecteurs orthogonaux) Une liste de vecteur
unitaires (e
1
, . . . , e
n
) est dite orthogonale si et seulement si :
e
i
, e
j
) = 0 1 i, j n, i ,= j
CHAPITRE 5. PRODUIT SCALAIRE 35
Proposition 5.1 Soit (e
1
, . . . , e
n
) une liste orthonormale de vecteurs de V.
Alors
|a
1
e
1
+. . . +a
m
e
m
|
2
= [a
1
[
2
+. . . +[a
m
[
2
Corollaire 5.1 Toute liste de vecteurs orthonormaux est lineairement independnante.
Demonstration Soit (e
1
, . . . , e
m
) une liste de vecteurs lineairement
independants et a
1
, . . . a
m
F des scalaires tels que a
1
e
1
+. . . +a
m
e
m
= 0.
On a donc [a
1
[
2
+. . . +[a
m
[
2
= 0 ce qui implique que tout les a
i
= 0.
Denition 5.12 (Base othonormale) Une base orthonormale de V est
une base de V formee de vecteurs orthonormaux.
Theoreme 5.4 Soit (e
1
, . . . , e
n
) une base orthonormale de V, et v un vec-
teur de V
Alors
v = v, e
1
)e
1
+. . . +v, e
n
)e
n
|v|
2
= [v, e
1
)[
2
+. . . +[v, e
n
)[
2
Demonstration v V donc il existe des scalaires a
1
, . . . , a
n
F tels
que v = a
1
e
1
+ . . . + a
n
v
n
. En prenant le produit scalaire des deux cotes de
lequation avec e
j
on a v, e
j
) = a
j
et avec (Proposition 5.1) on en deduit
la seconde equation.
Theoreme 5.5 (Gram-Schmidt) Soit (v
1
, . . . , v
m
) une liste de vecteurs
lineairements independants de V.
Alors il existe une liste de vecteurs orthonormaux (e
1
, . . . , e
m
) tel que
span(v
1
, . . . , v
m
) = span(e
1
, . . . , e
m
)
Demonstration Pour la demonstration utilisons le procede de Gram-
Schmidt.
Pour construire le premier vecteur e
1
normalisons v
1
. Donc e
1
=
v
1
v
1
Pour
construire tout les autres vecteurs (recursivement) utilisons :
e
j
=
v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|
CHAPITRE 5. PRODUIT SCALAIRE 36
Clairement la norme des e
j
est 1, donc cest bien une liste de vecteurs uni-
taires. De plus, pour tout 1 k j
e
k
, e
j
) =
v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|
, e
k
)
=
v
j
, e
k
) v
j
, e
k
)
|v
j
v
j
, e
j1
)e
j1
. . . v
j
, e
1
)e
1
|
= 0
Donc la liste est aussi orthogonale.
Corollaire 5.2 Tout espace vectoriel de dimension nie admet une base
orthonormale.
Demonstration Il sut dutiliser le procede de Gram-Schmidt pour
obtenir une telle base `a partir de nimporte quelle base de cette espace vec-
toriel.
Corollaire 5.3 Tout liste de vecteurs orthonormaux de V peut-etre etendue
pour devenir une base orthonormale de V.
Demonstration Il sut de rajouter `a la liste de vecteurs orthonor-
maux susament de vecteurs lineairement independants pour former une
base de V, puis appliquer le procede de Gram-Schmidt `a cette base.
Corollaire 5.4 Soit T L(V ). Si T admet une matrice triangulaire superieure
par rapport `a une certaine base de V alors T admet une matrice triangulaire
superieure par rapport `a une certaine base orthonormale de V.
Demonstration Soit (v
1
, . . . , v
n
) une base de V. Si T admet une ma-
trice triangulaire par rapport `a cette base alors
T(v
k
) span(v
1
, . . . , v
k
)
En appliquant le procede de Gram-Schmidt `a (v
1
, . . . , v
k
) il vient (e
1
, . . . , e
k
)
veriant :
span(e
1
, . . . , e
k
) = span(v
1
, . . . , v
k
)
donc T est invariant par rapport `a (e
1
, . . . e
k
) pour tout k < dim(V ) ce qui
revient `a dire que T admet une matrice triangulaire superieure par rapport
`a une base orthonormale.
CHAPITRE 5. PRODUIT SCALAIRE 37
Corollaire 5.5 Soit V un C-espace vectoriel et T L(V ). Alors T admet
une matrice triangulaire superieure par rapport `a une certaine base ortho-
normale de V.
Demonsatration Dapres le Theor`eme 4.3 chaque operateur sur un
C-espace vectoriel admet une matrice triangulaire superieure et dapr`es le
Corrollaire 5.4 loperateur admet une matrice triangulaire par rapport `a une
base orthonormale.
5.4 Projection orthogonale et prob`eme de minimi-
sation
Denition 5.13 (Complement orthogonal) Soit S un sous-espace vec-
toriel de V. Le complement orthogonal de S, note S
est le sous-ensemble
deni par :
S
= v V/v w, w S
Theoreme 5.6 Soit U un sous-espace vectoriel de V,
alors
V = U U
.
Soit (e
1
, . . . , e
m
) une base orthonormale de U et v V .
Alors
v = v, e
1
)e
1
+. . . +v, e
m
)e
m
+v v, e
1
)e
1
. . . v, e
m
)e
m
et posons u = v, e
1
)e
1
+. . . +v, e
m
)e
m
et w = vv, e
1
)e
1
. . . v, e
m
)e
m
.
u U et w U
= 0.
Corollaire 5.6 Si U est un sous-espace vectoriel de V alors (U
= U
CHAPITRE 5. PRODUIT SCALAIRE 38
Demonstration
: Montrons dabord U (U
donc u (U
.
: Supposons maintenant v (U
. Il existe donc u U et w U
. Or v (U
et u U
(U
donc v u = w (U
. Donc v u U
(U
donc
v u, v u) = 0 donc v = u. Ainsi v (U
implique v U.
Theoreme 5.7 (de la meilleur approximation) Soit U un sous-espace
vectoriel de V et v V .Alors
|v P
U
v| |v u|
pour tout u U avec P
U
v la projection orthogonale de v sur U.
Demonstration Soit u U alors
|v P
U
v|
2
|v P
U
v|
2
+|P
U
v u|
2
et dapr`es le theor`eme de Pythagore
|v P
U
v|
2
= |v P
U
v +P
U
v u|
2
= |v u|
2
Proposition 5.2 (Methode des moindres carres) Pour trouver la meilleur
approximation dun syst`eme lineaire qui na pas de solutions, il faut :
1. calculer P
Im(A)
b
2. trouver v F
n
tel que Av = P
Im(A)
b.
Denition 5.14 (Syst`eme normal) Le syst`eme normal associe au syst`eme
Ax = b est A
t
Ax = A
t
b.
5.5 Fonctionnels lineaires et adjoints
Denition 5.15 (Fonctionnel Lineaire) Soit V un F-espace vectoriel muni
dun produit scalaire.
Un fonctionnel lineaire sur V est une application lineaire T L(V, F).
Proposition 5.3 Soit T L(V, F).
Alors il existe un unique vecteur v tel que
T(u) = u, v)
CHAPITRE 5. PRODUIT SCALAIRE 39
Demonstration Commencons par montrer quil existe un vecteur v
V tel que pour tout u V, T(u) = u, v).
Soit (e
1
, . . . , e
n
) une base orthonormale de V, alors
T(u) = T(u, e
1
)e
1
+. . . +u, e
n
)e
n
)
= u, e
1
)T(e
1
) +. . . +u, e
n
)T(e
n
)
= u, T(e
1
)e
1
+. . . +T(e
n
)e
n
)
En posant v = T(e
1
)e
1
+ . . . + T(e
n
)e
n
on a donc montrer quil existe un
vecteur v V tel que T(u) = u, v). Montrons maintenant, par labsurde
que ce vecteur est unique. Soit v
1
, v
2
V tels que pour tout u V :
T(u) = u, v
1
) = u, v
2
)
on a donc
0 = u, v
1
) u, v
2
)
= u, v
1
v
2
)
cette relation est vraie pour tout vecteur u V , en particulier pour u =
v
1
v
2
, ce qui implique v
1
v
2
= 0 et nalement v
1
= v
2
.
Denition 5.16 (Adjoint) Soit T L(V, W).
Ladjoint de T est lapplication T
w)
pour tout v V .
Proposition 5.4 (Importante !) Soit T L(V, W) et F.
1. (S +T)
= S
+T
2. (S)
= S
3. si T L(V ), alors T
L(V ) et (T
= T.
4. (Id
v
)
= Id
v
5. si S L(W, U), T L(V, W) alors (T S)
= S
) = Im(T)
Im(T
) = Ker(T)
Ker(T) = (Im(T)
Im(T) = Ker(T
) T
w = 0
v, T
w) = 0
T(v), w) = 0
w Im(T)
, obtenue en echangeant
les colonnes et les lignes puis en prenant le conjugue complexe de chaque
element de la matrice.
Denition 5.18 (Matrice symetrique et hermitienne) Si
1. A Mat(n, n, R) et A = A
, (f
1
, . . . , f
m
), (e
1
, . . . , e
n
))
est la conjuguee transposee de
M(T, (e
1
, . . . , e
n
), (f
1
, . . . , f
m
))
Demonstration Soit T L(V, W), (e
1
, . . . , e
n
) une base orthonor-
male de V et (f
1
, . . . , f
m
) une base orthonormale de W. La k
e
colonne de
M(T) est donnee par lexpression des T(e
k
) par rapport `a la base (f
1
, . . . , f
m
).
Comme (f
1
, . . . , f
m
) est une base orthonormale les coecients des T(e
k
)
sont donnes par :
T(e
k
) = Te
k
, f
1
)f
1
+. . . +Te
k
, f
m
)f
m
donc le k
e
element de la ligne j est donne par T(e
k
), f
j
).
De meme en prenant T
) donne par
T
(f
k
), e
j
) = f
k
, T(e
j
)) = T(f
k
), e
j
) qui est egal au conjugue de lel`ement
de la k
e
ligne et de la j
e
colonne de M(T).
Chapitre 6
Operateur sur espace
vectoriel muni dun produit
scalaire
6.1 Operateur auto-adjoint et Normal
Denition 6.1 (Auto-adjoint) Une application T est dite auto-adjointe
si et seulement si T = T
.
Proposition 6.1 Toute valeur propre dun operateur auto-adjoint est reelle.
Demonstration Soit T L(V ) un operateur auto-adjoint. Soit F
une valeure propre associee au vecteur v. On a donc :
|v|
2
= v, v)
= Tv, v)
= v, T
v)
= v, Tv)
= v, v)
=
v, v)
donc
= ce qui revient ` a dire que R.
Proposition 6.2 Soit T L(V ) avec V un C-espace vectoriel muni dun
produit scalaire veriant :
Tv, v) = 0 v V.
41
CHAPITRE 6. OP
= T
T
Lappelation normal pour de tels operateurs decoule du Corollaire 6.2.
Proposition 6.3 (Importante) Un operateur T L(V ) est normal si et
seulement si |T
T TT
= 0
T
T TT
v, v) = 0 v V
T
Tv, v) = TT
v, v)
|Tv| = |T
v|
Corollaire 6.1 Soit T L(V ) normal et v un vecteur propre de T associe
`a la valeur propre F. Alors v est un vecteur propre de T
associe `a la
valeur propre
.
Demonstration Comme F est une valeur propre de T associee au
vecteur propre v, (TI)v = 0, donc |(TI)v| = 0. Or T est normal, donc
dapr`es la (Proposition 6.3), 0 = |(T I)v| = |(T I)
v| = |(T
I)v|
donc
est une valeur propre de T associe `a v.
Corollaire 6.2 Si T L(V ) est normal, alors les vecteurs propres de T
associe `a des valeurs propres distinctes sont normaux.
CHAPITRE 6. OP
(v) =
v, do` u :
( )u, v) = u, v) u,
v)
= Tu, v) u, T
v)
= 0 (6.2)
or ,= donc 6.2 implique u normal `a v.
Theoreme 6.1 (Spectral Complexe) Soit V un C-espace vectoriel et T
L(V ).
Alors V `a une base orthonormale formee par les vecteurs propres de T si et
seulement si T est normal.
Demonstration
Sens direct : Supposons que V `a une base orthonormale de vecteurs
propres de T. Par rapport `a cette base, la matrice de T est diagonale.
La matrice de T
_
a
11
. . . a
1n
.
.
.
.
.
.
a
nn
_
_
Montrons maintenant que cette matrice est en fait diagonale. Claire-
ment
|Te
1
|
2
= [a
1
[
2
et
|T
e
1
|
2
= [a
1
[
2
+. . . +[a
1n
[
2
et dapr`es la Proposition 6.3 |T
e
1
| = |Te
1
| donc [a
12
[
2
+ . . . +
[a
1n
[
2
= 0 ce qui est equivalent `a a
12
= . . . = a
1n
= 0. En procedant
ainsi pour tout les Te
i
il vient que tout les termes en dehors de la
diagonale sont nuls.
CHAPITRE 6. OP
2
< 4 alors T
2
+T +I est inversible
Demonstration Soit v un vecteur non-nul de V, on a donc :
(T
2
+T +I)v, v) = T
2
v, v) +Tv, v) +v, v)
= Tv, Tv) +Tv, v) +|v|
2
|Tv|
2
+[[|Tv||v| +|v|
2
=
_
|Tv|
[[|v|
2
_
2
+
_
2
4
_
|v|
2
0
Lemme 6.2 Soi T L(V ) auto-adjoint. Alors T a une valeur propre.
Demonstration Supposons V un R-espace vectoriel muni dun produit
scalaire et dim(V ) = n. La liste de vecteurs (v, Tv, . . . , T
n
v) ne peut pas etre
lineairement independante puisquelle est de longueur n + 1. Il existe donc
des scalaires a
0
, . . . , a
n
R tels que
0 = a
0
v +. . . +a
n
T
n
v
Supposons maintenant que les a
i
sont les coecients dun polynome donc :
a
0
+a
1
x +. . . +a
n
x
n
= c(x
1
) . . . (x
m
)(x
2
+
1
x +
1
) . . . (x
2
+
M
x +
M
)
avec c ,= 0. On a donc :
0 = a
0
v +. . . +a
n
T
n
v
= (a
0
+. . . +a
n
T
n
)v
= c(T
1
) . . . (T
m
)(T
2
+
1
T +
1
) . . . (T
2
+
M
T +
M
)v
or T est auto-adjoint donc dapr`es le Lemme 6.1 tout les T
2
+
j
x+
j
sont
inversibles (donc (T
2
+
j
T +
j
)v ,= 0) donc
(T
1
) . . . (T
m
)v = 0 (6.3)
donc pour au moins un 1 j m (T
j
)v = 0, ce qui revient `a dire T `a
une valeur propre.
Theoreme 6.2 (Spectral Reel) Soit V un R-espace vectoriel de dimen-
sion nie et T L(V ). V `a une base orthonormale formee par les vecteurs
propres de T si et seulement si T est auto-adjoint.
CHAPITRE 6. OP
si et seulement si
u, v) = 0. Supposons v U
implique Tv U
, donc U
:
Sv, w) = Tv, w) = v, Tw) = v, Sw)
donc S est auto-adjoint. Notre hypoth`ese dinduction nous permet donc
de darmer quil existe une base orthonormale de U
formee de vec-
teurs propres de S. Or les vecteurs propres de S sont des vecteurs
propres de T donc en rajoutant u `a une base orthonormale de U
de
vecteurs propres de S donne une base orthonormale de V formee de
vecteurs propres de T.
Corollaire 6.3 Soit T L(V ) un operateur auto-adjoint (ou V un C-
espace vectoriel et T normal). Soit
1
, . . . ,
m
les valeurs propres distinctes
de T. Alors
V = Ker(T
1
) . . . Ker(T
m
)
De plus, tout vecteur dun des Ker(T
j
) est normal `a tout les vecteurs
de toute les autres decompositions.
Demonstration Le theor`eme spectral (6.2 ou 6.1) implique que V `a
une base orthonormale de vecteurs propres de T.
CHAPITRE 6. OP
e
1
|
2
= a
2
+ c
2
. Or T est normal, donc
|T
e
1
| = |Te
1
| soit a
2
+b
2
= a
2
+c
2
ou encore b
2
= c
2
(b = c) ou
(b = c). Mais b = c implique T auto-adjoint, donc b = c. En eec-
tuant le produit de Mat
_
T, (e
1
, e
2
)
_
sous la condition c = b avec
ca conjuguee transposee (donc Mat(TT
et T
.
3. (T[
U
)
= (T
)[
U
4. T[
U
est un operateur normal sur U.
5. T[
U
est un operateur normal sur U
.
Demonstration
1. Soit (e
1
, . . . , e
m
) une base orthonormale de U. Il est possible de ra-
jouter (f
1
, . . . , f
n
) pour que (e
1
, . . . , f
n
) soit une base orthonormale de
V. Comme U est invariant sous T, Te
j
span(e
1
, . . . , e
m
) pour tout
1 j m. La matrice de T est donc donnee par :
Mat
_
T, (e
1
, . . . , f
n
)
_
=
_
A B
C
_
avec A Mat(m, m, R), B, C Mat(n, n, R). T etant normal, pour
tout 1 j m|Te
j
| = |T
e
j
| donc B = 0. Ainsi Tf
k
span(f
1
, . . . , f
m
)
pour tout 1 k m ce qui revient `a dire que (f
1
, . . . , f
m
) qui est une
base de U
.
3. Soit S = T[
U
et v U, alors pour tout u U :
Su, v) = Tu, v) = u, T
v)
or T
v U donc S
v = T
= T
[
U
.
4. T est normal, donc T commute avec T
et (T[
U
)
= T
[
U
donc T[
U
commute avec son adjoint donc T[
U
est normal.
5. U
`a celle de U
il vient une base orthonormale par rapport `a laquelle la matrice de T `a la
forme demandee.
6.3 Isometrie
Denition 6.3 (Isometrie) Un operateur T L(V ) est une isometrie si
et seulement si pour tout v V
|Sv| = |v|
CHAPITRE 6. OP
S = I
4. (Se
1
, . . . , Se
n
) est une liste de vecteurs orthonormaux de V si (e
1
, . . . , e
n
)
est une liste de vecteurs orthonoraux de V.
5. il existe une base orthonormale (e
1
, . . . , e
n
) de V telle que (Se
1
, . . . , Se
n
)
est orthonormale.
6. S
u, S
v) = u, v) pour tout u, v V .
8. SS
= I
9. (S
e
1
, . . . , S
e
n
) est une liste de vecteurs orthonormaux de V si (e
1
, . . . , e
n
)
est une liste de vecteurs orthonoraux de V.
10. il existe une base orthonormale (e
1
, . . . , e
n
) de V telle que (S
e
1
, . . . , S
e
n
)
est orthonormale.
Demonstration
1. Supposons S une isometrie. Pour tout u, v V :
Su, Sv) =
|Su +Sv|
2
|Su Sv|
2
4
=
|S(u +v)|
2
|S(u v)|
2
4
=
|u +v|
2
|u v|
2
4
= u, v)
2. Supposons maintenant Su, Sv) = u, v) on a pour tout u, v V :
(S
S I)u on a
bien S
S I = 0.
3. Supposons (e
1
, . . . , e
n
) une base orthonormale de V, on a donc :
Se
j
, Se
k
) = (S
S I)e
j
, e
k
) = e
j
, e
k
)
donc (Se
1
, . . . , Se
n
) est orthonormal
CHAPITRE 6. OP
= I S
1
.
.
.
n1
0
n
_
_
Posons U = span(v
1
, . . . , v
n1
). U est invariant sous T. Dapr`es notre hy-
poth`ese dinduction 0 apparait dim
_
Ker(T[
U
)
n1
_
fois. Or Ker(T[
U
)
n1
=
Ker(T[
U
)
n
car dim(U) = n 1, donc 0 apparait dim
_
Ker(T[
U
)
n
_
fois.
Considerons maintenant
n
. Soit
1. ,= 0 alors on a :
M(T
n
) = M(T)
n
=
_
n
1
.
.
.
n
n1
0
n
n
_
_
donc il existe u U tel que T
n
v
n
= u +
n
n
v
n
. Prenons u Ker(T
n
)
on a donc v = u +av
n
avec u U et a F, donc :
0 = T
n
v = T
n
u +aT
n
v
n
= T
n
u +au +a
n
n
v
n
or T
n
u, au U mais v
n
/ U donc a
n
n
= 0. Or
n
,= 0 donc a = 0
donc v = u U et Ker(T
n
) U.
CHAPITRE 7. OP
_
0
.
.
.
0 0
_
_
(tout les termes sur la diagonale et en-dessous sont nuls).
Demonstration Prenons une base de Ker(N) puis etendons l`a en
une base de Ker(N
2
) et ainsi de suite jusqu`a obtenir une base de V . Au
moins la premi`ere colonne ne contient que des 0 puisquelles sont constituees
de vecteurs de Ker(N). Les quelques colonnes dapr`es sont les images de
vecteurs de Ker(N
2
), donc en appliquant N `a un de ces vecteurs on obtient
un vecteur de Ker(N) donc ces vecteurs ne peuvent pas contenir autre chose
que des 0 sur la diagonale. De proche en proche, on demontre le lemme.
Theoreme 7.4 (Important) Soit V un C-espace vectoriel, T L(V ) et
1
, . . . ,
m
les valeurs propres distinctes de T. Alors il existe une base de V
CHAPITRE 7. OP
j
.
.
.
0
j
_
_
Demonstration Pour j = 1, . . . , m supposons U
j
lespace propre generalise
correspondant
j
. Dapr`es 7.3 (T
j
I)[
U
j
est nilpotent. Prenons une base
pour chaque U
j
. La matrice de T[
U
j
par rapport `a cette base est donc de la
forme evoquee dans le theor`eme. En ajoutant tout les bases des U
j
il vient
donc une matrice diagonale par blocs comme enonce par le theor`eme.
7.4 Polynome minimal
Denition 7.5 (Polynome minimal) Le polynome minimal p est le po-
lynome normalise de plus petit degre qui verie p(T) = 0.
Theoreme 7.5 Soit T L(V ) et q P(F). Alors q(T) = 0 si et seulement
si le polynome minimal de T divise q.
Demonstration Soit p le polynome minimal de T.
Sens direct Supposons q(T) = 0. Il existe donc s, r P(F) tel que :
q = sp +r (7.3)
avec deg(r) deg(p), do` u :
0 = q(T) = s(T)p(T) +r(T) = r(T)
or p est le polynome minimal de T et deg(r) deg(p) donc r = 0.
Donc lequation 7.3 devient q = sp.
Sens indirect Supposons que p divise q. Il existe donc un polynome
s tel que q = sp, donc :
q(T) = S(T)p(T) = s(T)0 = 0
Theoreme 7.6 Soit T L(V ). Alors les solutions du polynome minimal
sont precisement les valeurs propres de T.
CHAPITRE 7. OP
m1
+
m
)v
= p()v
or v ,= 0 donc p() = 0.
7.5 Forme de Jordan
`
A defaut de pouvoir diagonaliser toutes les matrices, il est possible de les
Jordaniser et ainsi de se rapprocher le plus possible de matrices diagonales
(donc avec autant de 0 que possible).
Lemme 7.2 Soit N L(V ) nilpotent alors il existe v
1
, . . . , v
k
V tel que :
1. (v
1
, Nv
1
, . . . , N
m(v
1
)
v
1
, . . . , v
k
, Nv
k
, . . . , N
m(v
k
)
v
k
) est une base de V
2. (N
m(v
1
)
v
1
, . . . , N
m(v
k
)
v
k
) est une base de Ker(N).
avec m(v
i
) le plus grand entier tel que N
m(v
i
)
v
i
soit non nul.
Denition 7.6 (Base de Jordan) Soit T L(V ). Une base de V est
dite base de Jordan de T si par rapport `a cette base, la matrice de T est
diagonale par blocs avec chaque bloc de la forme :
_
j
1 0
j
.
.
.
.
.
. 1
0
j
_
_
CHAPITRE 7. OP
_
0 1 0
.
.
.
.
.
.
.
.
. 1
0 0
_
_
Si T L(V ) et
1
, . . . ,
m
des valeurs propres de T avec U
1
, . . . , U
m
les
espaces propres associes.
V = U
1
. . . U
m
et dapr`es le Theor`eme 7.3 chaque (T
j
I)[
U
j
est nilpotent. U
j
a donc une
base de Jordan et il sut dajouter chacune de ses bases.
Chapitre 8
Operateurs sur R-espaces
vectoriels
8.1 Valeurs propres de matrices carrees
Denition 8.1 F est une valeur propre de la matrice A Mat(n, n, F)
si il existe un vecteur v tel que Ax = x.
Proposition 8.1 Soit T L(V ) et A Mat(n, n, F) la matrice de T par
rapport `a une certaine base de V . Alors les valeurs propres de A sont les
memes que les valeurs propres de T.
Demonstration Soit (v
1
, . . . , v
n
) une base de V par rapport `a laquelle
la matrice de T est A et F. Montrons que est une valeur propre de T
si et seulement si elle est une valeur propre de A.
Sens Direct Supposons une valeur propre de T et v V le vecteur
propre associe, soit :
v = a
1
v
1
+. . . +a
n
v
n
avec a
1
, . . . , a
n
F. Soit x la matrice associee au vecteur v (par rap-
port `a la base (v
1
, . . . , v
n
)).
Ax = M(T)M(v) = M(Tv) = M(v) = M(v) = x
donc est une valeur propre de A.
Sens Indirect Supposons maintenant F une valeur propre de A
et x la matrice du vecteur associe (donc Ax = x). Denissons donc
62
CHAPITRE 8. OP
1
2
I
_
qui est inversible car T na pas de valeurs propres.
CHAPITRE 8. OP
_
A
1
.
.
.
0 A
m
_
_
avec les A
j
des matrices 1 1 ou 2 2 mais sans valeurs propres.
1. si R alors precisement dim
_
Ker(T I)
dim(V )
_
des blocs A
j
sont
de dimension 1.
2. si , R verie
2
< 4 alors precisement
dim
_
Ker(T
2
+T+I)
dim(V )
_
2
des martices A
j
ont comme polynome caracteristique x
2
+x +.
Demonstration
1. Soit , , R avec
2
< 4 et p P(R) deni par :
p(x) =
_
x pour demontrer la premi`ere partie
x
2
+x + pour demontrer la seconde partie
Soit deg(p) = d et dim(V ) = n. Soit m N le nombre de blocs sur
la diagonale de la matrice. Si m = 1 le resultat tiens trivialement,
supposons donc m > 1 et supposons que la matrice `a la forme desiree
pour m1. Soit U
j
lespace engendre par la base de A
j
. Posons U =
U
1
+ . . . + U
m1
. Clairement U est invariant sous T et la matrice de
T[
U
est donnee par :
_
_
A
1
.
.
.
0 A
m1
_
_
donc par lhypoth`ese dinduction, precisement
dim(Ker(p(T|
U
))
N
)
d
des
matrices A
1
, . . . , A
m1
ont un polynome caracteristique p. Supposons
u
m
U
m
. Soit S L(U
m
) loperateur dont la matrice est donnee par
A
m
. En particulier, Su
m
= P
U
M
,U
Tu
m
, donc :
Tu
m
= P
U,Um
Tu
m
+P
Um,U
Tu
m
= v
U
+Su
m
(8.1)
avec v
U
un vecteur de U. Su
m
U
m
donc en appliquant T `a lequation
8.1 il vient :
T
2
u
m
= w
U
+S
2
u
m
CHAPITRE 8. OP
ETERMINANT 70
Theoreme 9.1 (du changement de base) Soit T L(V ). Soit (u
1
, . . . , u
n
)
et (v
1
, . . . , v
n
) des bases de V . Soit A = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)).
Alors :
M(T, (u
1
, . . . , u
n
)) = A
1
M(T, (v
1
, . . . , v
n
))A
Demonstration
M(T, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) = M(T, (v
1
, . . . , v
n
))M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
))
= M(T, (v
1
, . . . , v
n
))A (9.1)
de meme
M(T, (u
1
, . . . , u
n
)) = A
1
M(T, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) (9.2)
En substituant 9.1 dans 9.2 il vient le resultat desire.
9.2 Trace
Denition 9.3 (Trace dune matrice carree) La trace dune matrice carree
A, notee trace(A), est denie comme la somme des termes sur la diagonale.
Denition 9.4 (Trace dune application) la trace dune application T
L(V ) est loppose du coecient de x
n1
du polynome caracteristique.
Proposition 9.2 Si A et B sont des matrices carrees de meme dimension,
alors :
trace(AB) = trace(BA) (9.3)
Demonstration Soit
A =
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_B =
_
_
b
11
. . . b
1n
.
.
.
.
.
.
b
n1
. . . b
nn
_
_
Le j
e
terme sur la diagonale de la matrice AB est donne par :
(ab)
jj
=
n
k=1
a
jk
b
kj
(9.4)
CHAPITRE 9. TRACE ET D
ETERMINANT 71
donc
trace(AB) =
n
j=1
(ab)
jj
=
n
j=1
n
k=1
a
jk
b
kj
=
n
j=1
n
k=1
b
kj
a
jk
= trace(BA)
Corollaire 9.1 Soit T L(V ). Si (u
1
, . . . , u
n
) et (v
1
, . . . , v
n
) sont des
bases de V , alors :
trace
_
M(T, (u
1
, . . . , u
n
))
_
= trace
_
M(T, (v
1
, . . . , v
n
))
_
Demonstration Soit (u
1
, . . . , u
n
) et (v
1
, . . . , v
n
) des bases de V . Soit
A = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)) alors :
trace
_
M(T, (u
1
, . . . , u
n
))
_
= trace
_
A
1
M(T, (v
1
, . . . , v
n
))A
_
= trace
_
M(T, (v
1
, . . . , v
n
)A)A
1
_
= trace
_
M(T, v
1
, . . . , v
n
)
_
Theoreme 9.2 Si T L(V ) alors trace(T) = trace
_
M(T)
_
Demonstration Soit T L(V ). La trace de la matrice de T est
independante de la base de V choisie et pour une matrice triangulaire superieure
(ou triangulaire superieur par blocs) lequation est veriee.
Corollaire 9.2 Soit S, T L(V ), alors :
trace(ST) = trace(TS) et trace(S +T) = trace(S) +trace(T)
Demonstration
trace(ST) = trace
_
M(ST)
_
= trace
_
M(S)M(T)
_
= trace
_
M(TS)
_
= trace
_
TS)
_
CHAPITRE 9. TRACE ET D
ETERMINANT 72
et
trace
_
S +T
_
= trace
_
M(S +T)
_
= trace
_
M(S) +M(T)
_
= trace
_
S
_
+trace
_
T
_
9.3 Determinant dun operateur
Denition 9.5 (Inversion) Une paire del`ements (p
i
, p
j
) est une inversion
dans une permutation p si i < j et p
i
> p
j
.
Denition 9.6 Soit T L(V ). Denissons le determinant de T, note
det(T), comme (1)
dim(V )
fois le terme constant du polynome caracteristique.
1. sur un C-espace vectoriel le dertminant est le produit des valeurs propres
det(T) =
n
i=1
i
avec
i
une valeur propre et m le nombre de valeurs propres.
2. sur un R-esapce vectoriel le determinant est donne par le produit des
valeurs propres fois le produits des seconds coecients des paires propres,
soit :
det(T) =
m
i=1
i
M
j=1
j
avec m le nombre de valeurs propres, M le nombre de paires propres,
i
une valeur propre et
j
le second terme dune paire propre.
Proposition 9.3 Un operateur est inversible si et seulement si son determinant
est non-nul.
Demonstration
1. Supposons V un C-espace vectoriel et T L(V ). T est inversible si
et seulement si 0 nest pas une valeur propre de T ce qui revient
`
dire
que T est inversible si et seulement si le produit des valeurs propres
de T nest pas nul, o` u encore det(T) ,= 0.
CHAPITRE 9. TRACE ET D
ETERMINANT 73
2. Supposons maintenant V un R-espace vectoriel. De nouveau T est in-
versible si et seulement si 0 nest pas une valeur propre. Pour toute
paire propre
j
< 4
j
donc
j
> 0 donc
i
,= 0 si et seulement si
det(T) ,= 0.
Lemme 9.1 Soit V un R-espace vectoriel, T L(V ) et , , x R avec
2
< 4. (, ) est une paire propre de T si et seulement si (2x , x
2
+
x+) est une paire propre de xI T. De plus ces paires propres ont meme
multiplicite.
Demonstration
T
2
+T +I = (xI T)
2
(2x +)(xI T) + (x
2
+x +)I
donc (, ) est une paire propre si et seulement si (2x , x
2
+ ax + )
est une paire propre de xI T.
Theoreme 9.3 Soit T L(V ). Le polynome caracteristique de T est donne
par det(xI T).
Demonstration
1. Soit V un C-espace vectoriel et
1
, . . . ,
m
F les valeurs propres de
T. Les valeurs propres de zI T sont donc z
1
, . . . , z
m
donc
par la denition
det(zI T) = (z
1
) . . . (z
n
)
2. si V est un R-espace vectoriel et
1
, . . . ,
m
R les valeurs propres et
(
1
,
1
), . . . , (
M
,
M
) les paires propres de T. Les valeurs propres de
xI T sont donc x
i
et les paires propres (2x
j
, x
2
+
j
+
j
), et
le determinant, par denition est donne par :
de(xI T) =
m
i=1
(x
i
)
M
j=1
(x
2
+
j
x +
j
)
9.4 Determinant dune matrice
Denition 9.7 (Permutation) Une permutation dun ensemble X est une
bijection B : X X, qui consiste `a changer lordre des el`ements de X.
Pour un ensemble de n elements il existe n! permutations possibles.
CHAPITRE 9. TRACE ET D
ETERMINANT 74
Denition 9.8 (Nombre dinversion) Soit une permutation. Le nombre
dinversions de est :
NI() = #(i, j), i < j et (i) > (j) 1 i, j n
Denition 9.9 (Determinant dune matrice) Si A est une matrice n n
denie par :
A =
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
alors le determinant de la matrice A est donne par :
detA =
m
i
perm(n)
(sign(m
i
))a
m
1
,1
. . . a
mnn
Lemme 9.2 Soit A une matrice carree. Si B est la matrice obtenue en
echangeant deux colonnes de A, alors :
det(A) = det(B)
Demonstration Le det(B) est obtenu en interchangeant deux elements
de la permutation du calcul de det(A), donc le sign(det(B)) = sign(det(A))
et det(B) = det(A).
Lemme 9.3 Si A est une matrice carree avec deux colonnes egales, alors
det(A) = 0.
Demonstration En interchangeant les deux colonnes egales de A, il
vient la matrice A et la relation det(A) = det(A) donc det(A) = 0.
Lemme 9.4 Soit A = [a
1
, . . . , a
n
] une matrice n n et (m
1
, . . . , m
n
) une
permutation, alors
det[a
m1
. . . a
mn
] =
_
sign(m
1
, . . . , m
n
)
_
det(A)
Demonstration La matrice A est obtenue par une suite de permuta-
tions de colonnes de [a
m
1
, . . . , a
mn
]. A chaque etape le signe du determinant
est inverse, donc le sign(m
1
, . . . , m
n
) est paire si le nombre de permutations
est paires, impair sinon.
Theoreme 9.4 Si A et B sont des matrices carrees de meme taille alors :
det(AB) = det(BA) = det(A)det(B)
CHAPITRE 9. TRACE ET D
ETERMINANT 75
Demonstration Soit A = [a
1
, . . . , a
n
] avec les a
k
des colonnes et
B =
_
_
b
11
. . . b
1n
.
.
.
.
.
.
b
n1
. . . b
nn
_
_ = [b
1
, . . . , b
n
]
par la denition de la multiplication de deux matrices AB = [Ab
1
, . . . , Ab
n
],
soit
det(AB) = det[Ab
1
. . . Ab
n
]
= det[A(
n
m
1
b
m,1
e
m1
. . .
n
m
1
b
m,n
e
mn
)]
= det[
n
m
1
b
m
1
1
Ae
m
1
. . .
n
m
1
b
mnn
Ae
mn
]
=
b
m
1
=1
. . .
n
mn=1
b
m
1
1
. . . b
mnn
det[Ae
m
1
. . . Ae
mn
]
=
m
1
,...,mnpermn
b
m
1
,1
. . . b
mnn
_
sign(m
1
, . . . , m
n
)
_
det(A)
= (detA)
m
1
,...,mnperm(n)
_
sign(m
1
, . . . , m
n
)
_
b
m
1
1
. . . b
mnn
= (detA)(detB)
Corollaire 9.3 Soit T L(V ), (u
1
, . . . , u
m
) et (v
1
, . . . , v
n
) des bases de V
alors :
det(M(T, (u
1
, . . . , u
n
))) = det(M(T, (v
1
, . . . , v
n
)))
Demonstration Soit (u
1
, . . . , u
m
) et (v
1
, . . . , v
n
) des bases de V . Soit
A = M(I, (u
1
, . . . , u
n
), (v
1
, . . . , v
n
)), alors :
det(M(T, (u
1
, . . . , u
n
))) = det(A
1
(M(T, (v
1
, . . . , v
n
)))A)
= det((M(T, (v
1
, . . . , v
n
)))A
1
A)
= det((M(T, (v
1
, . . . , v
n
)))
Theoreme 9.5 Si T L(V ) alors det(T) = det(M(T))
CHAPITRE 9. TRACE ET D
ETERMINANT 76
Demonstration Le determinant dune application est independant de
la base. Par rapport `a une certaine base, la matrice de T est triangulaire
superieure (dans le cas dun C-espace vectoriel) ou triangulaire superieure
par blocs (dans le cas dun R-espace vectoriel) et le determinant de lappli-
cation est le meme que celui de la matrice.
Corollaire 9.4 Si S, T L(V ) alors :
det(ST) = det(TS) =
_
det(S)
__
det(T)
_
Demonstration Soit S, T L(V ) alors pour nimporte quelle base de
V
det(ST) = det
_
M(ST)
_
= det
_
M(S)M(T)
_
= det
_
M(S)
_
det
_
M(T)
_
= det(S)det(T)
Bibliographie
[1] Katherine Hess-Belwald : Alg`ebre Lineaire I & II Notes de Cours 2006-
2007
[2] Sheldon Axler : Linear Algebra Done Right, Springer, Second Edition
(1997)
77