Sunteți pe pagina 1din 92

Universite Paris-Dauphine

I.U.P. Genie Mathematique et Informatique


Deug de genie mathematique et informatique
Alg`ebre et Calcul matriciel
Andre Casadevall
octobre 2004
p. 2 AJ.Casadevall - oct 2004
Table des mati`eres
1 Rappels dalg`ebre lineaire 7
1.1 Un peu de vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Operations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Proprietes des operations internes . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Structures algebriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Exemples despaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Calcul dans les espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.3 Famille delements dun espace vectoriel E - Combinaisons lineaires . . . . . 12
1.2.4 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Proprietes des familles delements dun espace vectoriel E . . . . . . . . . . . . . . . 14
1.3.1 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Familles generatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Bases dun espace vectoriel E . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.4 Theor`eme fondamental des espaces vectoriels . . . . . . . . . . . . . . . . . . 15
1.4 Espaces vectoriels de dimension nie . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.1 Denition - Existence dune base . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Dimension dun espace de dimension nie . . . . . . . . . . . . . . . . . . . . 17
1.4.3 Propriete des espaces de dimension nie . . . . . . . . . . . . . . . . . . . . . 19
1.4.4 Rang dune famille de vecteurs dun espace vectoriel E . . . . . . . . . . . . . 19
1.5 Applications lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.1 Denitions - Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.2 Proprietes des applications lineaires . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.3 Image et noyau dune application lineaire . . . . . . . . . . . . . . . . . . . . 21
1.5.4 Applications lineaires injectives, surjectives - Isomorphismes . . . . . . . . . . 21
1.6 Applications lineaires et dimension nie . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6.1 Caracterisation des applications lineaires . . . . . . . . . . . . . . . . . . . . . 21
1.6.2 Rang dune application lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Calcul Matriciel 25
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Denitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.2 Matrices triangulaires, matrices diagonales . . . . . . . . . . . . . . . . . . . 26
2.2 Operations matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1

Egalite de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Operations lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.4 Inverse dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
TABLE DES MATI
`
ERES
2.2.5 Transposee dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Noyau et image dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Rang dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.3 Matrices de rang-colonne plein . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Matrices et applications lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.1 Application lineaire associee `a une matrice . . . . . . . . . . . . . . . . . . . 33
2.4.2 Representation matricielle des elements de R
n
. . . . . . . . . . . . . . . . . . 34
2.4.3 Representation matricielle des applications lineaires . . . . . . . . . . . . . . 34
2.4.4 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3 Resolution numerique de syst`emes lineaires 37
3.1 Syst`emes lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.2 Representation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.3 Syst`emes triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.4

Etude des solutions dun syst`eme lineaire . . . . . . . . . . . . . . . . . . . . 40
3.2 Matrices echelonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Prol dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2

Elements caracteristiques dune matrice echelonnee . . . . . . . . . . . . . . . 41
3.2.3 Proprietes des matrices echelonnees . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Syst`emes echelonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Denition et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Variables libres dun syst`eme echelonne - Solutions speciales . . . . . . . . . . 43
3.3.3 Resolution dun syst`eme echelonne . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Algorithmes de reduction de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4.1 Operations sur les equations dun syst`eme lineaire . . . . . . . . . . . . . . . 44
3.4.2 Tableau associe `a un syst`eme lineaire . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.3 Matrices gauss-equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.4 Reduction sans echange dun syst`eme dordre n `a la forme triangulaire . . . . 46
3.5 Resolution dun syst`eme par reduction ` a la forme echelonnee . . . . . . . . . . . . . 47
3.5.1 Algorithme de Gauss avec echange . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.2 Proprietes de la matrice initiale deduites de la matrice echelonnee . . . . . . 47
3.5.3 Resolution du syst`eme ((o) Ax = b) . . . . . . . . . . . . . . . . . . . . . . . 48
3.6 Algorithme de Gauss-Jordan - Syst`emes echelonnes reduits . . . . . . . . . . . . . . 48
3.6.1 Matrice echelonnee reduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.6.2 Algorithme de reduction de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . 49
3.7 Calcul de linverse dune matrice carree . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7.1 Reduction de syst`emes qui ne dierent que par leur 2
nd
membre . . . . . . . 50
3.7.2 Algorithme dinversion de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . 51
3.8 Traduction matricielle des transformations de Gauss . . . . . . . . . . . . . . . . . . 52
3.8.1 Proprietes de la base canonique de /
n
. . . . . . . . . . . . . . . . . . . . . 52
3.8.2 Transformation
k,i
(a) : l
i
l
i
+a l
k
: matrices de transvection T
k,i
(a) . . . 52
3.8.3 Transformation
i
(a) : l
i
a l
i
: matrices-produit T
i
(a) . . . . . . . . . . . 53
3.8.4 Transformation
ij
: l
i
l
j
: matrices dechange P
i,j
. . . . . . . . . . . . . . 53
p. 4 AJ.Casadevall - oct 2004
TABLE DES MATI
`
ERES
4 Factorisation LU et applications 55
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.1 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.2 Interet dune telle factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2 Factorisation LU et algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Matrices triangulaires normalisees . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.3 Matrices delimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.4 Factorisation et algorithme de Gauss sans echange . . . . . . . . . . . . . . . 59
4.2.5 Mise en oeuvre de la factorisation LU par lalgorithme de Gauss . . . . . . . 60
4.2.6 Une condition necessaire et susante de factorisation . . . . . . . . . . . . . 61
4.2.7 Factorisations LDV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3 Cas des matrices symetriques - Factorisation de Cholesky . . . . . . . . . . . . . . . 62
4.3.1 Factorisation LDL
T
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3.2 Matrices denies-positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3.3 Factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4 Factorisation PA = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.1 Matrices dechange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.2 Theor`eme de factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.3 Prncipe de la mise en oeuvre de la factorisation . . . . . . . . . . . . . . . . 65
5

Elements propres - Reduction des matrices 67
5.1 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.1.1 Sommes de sous-espaces dun espace vectoriel E . . . . . . . . . . . . . . . . 68
5.1.2 Sommes de sous-espaces de dimension nie . . . . . . . . . . . . . . . . . . . 69
5.1.3 Sommes directes et endomorphismes de E . . . . . . . . . . . . . . . . . . . . 71
5.2 Determinant dune matrice carree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2 Resultats fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.3 R`egles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.4 Determinants et operations matricielles . . . . . . . . . . . . . . . . . . . . . 73
5.3

Elements propres, espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1

Elements propres dune matrice carree . . . . . . . . . . . . . . . . . . . . . . 74
5.3.2

Elements propres dun endomorphisme . . . . . . . . . . . . . . . . . . . . . . 75
5.3.3 Espaces propres dun endomorphisme . . . . . . . . . . . . . . . . . . . . . . 75
5.3.4 Espaces propres dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.4 Diagonalisation des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.1 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.2 Un crit`ere de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.3 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.5 Recherche des valeurs propres - Polyn ome caracteristique . . . . . . . . . . . . . . . 79
5.5.1 Polyn ome caracteristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.5.2 Quelques resultats `a propos des polyn omes . . . . . . . . . . . . . . . . . . . 79
5.5.3 Analyse de la multiplicite des valeurs propres . . . . . . . . . . . . . . . . . . 80
5.6 Trigonalisation des matrices - Applications . . . . . . . . . . . . . . . . . . . . . . . . 81
AJ.Casadevall -oct 2004 p.5
TABLE DES MATI
`
ERES
6 Formes bilineaires et quadratiques 83
6.1 Formes bilineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.1.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 83
6.1.2 Formes symetriques, formes alternees . . . . . . . . . . . . . . . . . . . . . . . 84
6.1.3 Formes bilineaires et dimension nie . . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.2 Forme polaire dune forme quadratique sur E . . . . . . . . . . . . . . . . . . 87
6.2.3 Formes quadratiques et dimension nie . . . . . . . . . . . . . . . . . . . . . 87
6.2.4 Formes positives et denies positives (K = R) . . . . . . . . . . . . . . . . . . 88
6.2.5 Decomposition dune forme quadratique en carres de formes lineaires . . . . . 88
6.3 Orthogonalite par rapport ` a une forme quadratique . . . . . . . . . . . . . . . . . . . 90
6.3.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3.2 Formes non-degenerees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3.3 Bases q-orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4 Espaces Euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4.1 Denition et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4.2 Bases orthonormees et algorithme de Gram-Schmidt . . . . . . . . . . . . . . 92
p. 6 AJ.Casadevall - oct 2004
1
Rappels dalg`ebre lineaire
1.1 Un peu de vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Operations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Proprietes des operations internes . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Structures algebriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Exemples despaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Calcul dans les espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.3 Famille delements dun espace vectoriel E - Combinaisons lineaires . . . . 12
1.2.4 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Proprietes des familles delements dun espace vectoriel E . . . . . . . 14
1.3.1 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Familles generatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Bases dun espace vectoriel E . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.4 Theor`eme fondamental des espaces vectoriels . . . . . . . . . . . . . . . . . 15
1.4 Espaces vectoriels de dimension nie . . . . . . . . . . . . . . . . . . . . . 16
1.4.1 Denition - Existence dune base . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Dimension dun espace de dimension nie . . . . . . . . . . . . . . . . . . . 17
1.4.3 Propriete des espaces de dimension nie . . . . . . . . . . . . . . . . . . . . 19
1.4.4 Rang dune famille de vecteurs dun espace vectoriel E . . . . . . . . . . . . 19
1.5 Applications lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.1 Denitions - Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.2 Proprietes des applications lineaires . . . . . . . . . . . . . . . . . . . . . . 20
1.5.3 Image et noyau dune application lineaire . . . . . . . . . . . . . . . . . . . 21
1.5.4 Applications lineaires injectives, surjectives - Isomorphismes . . . . . . . . . 21
1.6 Applications lineaires et dimension nie . . . . . . . . . . . . . . . . . . . 21
1.6.1 Caracterisation des applications lineaires . . . . . . . . . . . . . . . . . . . . 21
1.6.2 Rang dune application lineaire . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.1 Un peu de vocabulaire . . .
On rappelle dans cette section un vocabulaire qui sera utilise dans la suite de ce cours mais qui
peut egalement apparatre dans les cours dInformatique.
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
1.1.1 Operations
Soient E, F, G . . . des ensembles. Alors :
une operation unaire de E `a valeur dans G est une application de E ou dune partie de E
dans lensemble G .
une operation binaire de EF `a valeur dans G est une application de EF ou dune partie
de E F dans lensemble G .
Une operation interne de E est une application de EE dans E : deux elements quelconques
x et y de E etant donnes, on sait leur associer (calculer) un element z de E.
La somme et le produit des nombres reels ou complexes sont deux exemples doperation binaire
interne.
1.1.2 Proprietes des operations internes
Soit E un ensemble muni dune operation interne notee . Cette operation est :
commutative
est commutative lorsque :
x E, y E, x y = y x
associative
La question de lassociativite se pose lorsquon veut donner un sens ` a une expression de la
forme x y z. On dit que est :
associative `a gauche lorsque x y z a pour valeur (x y)z, cest `a dire que x y est
tout dabord calcule, son resultat est ensuite combine avec z ;
associative `a droite lorsque x y z a pour valeur x (y z) ;
est associative lorsque est simultanement associative `a droite et ` a gauche ; alors
x y z = (x y)z = x (y z)
admet un element neutre
e est element neutre pour loperation lorsque :
x E, x e = e x = x
.
Proposition 1.1
Si loperation admet un element neutre e celui-ci est unique.
Lelement neutre est note 0 lorsquon utilise une notation additive +, et est note 1 ou e
lorsquon utilise une notation multiplicative .
Dans le cas particulier des operations non commutatives (ce qui est le cas pour le produit
matriciel), on dit que e est :
element neutre `a droite lorsque
x E, x e = x
element neutre `a gauche lorsque
x E, e x = x
Proposition 1.2
Si loperation admet simultanement un element neutre `a droite e

et un element neutre `a
gauche e, alors e

= e et est element neutre pour .


poss`ede des elements symetrisables
Supposons que loperation poss`ede un element neutre e ; un element x de E est
symetrisable pour lorsque :
p. 8 AJ.Casadevall - oct 2004
1.1. UN PEU DE VOCABULAIRE . . .
x

E, tel que x x

= x

x = e
x

est alors appele symetrique de x pour .


Proposition 1.3
Si loperation est associative et si x est symetrisable pour , le symetrique de x est unique.
Lorsquon utilise une notation additive +, le symetrique de x est note x et est appele oppose
de x. Lorsquon utilise une notation multiplicative , le symetrique est est note x
1
ou1/x et
est appele inverse.
Dans le cas particulier des operations non commutatives, on dit que x est
symetrisable `a droite lorsque
x

E, tel que x x

= e
symetrisable `a gauche lorsque
x E, tel que x x = e.
Proposition 1.4
Si loperation est associative, poss`ede un element neutre e et si x admet simultanement un
symetrique ` a droite x

et un symetrique ` a gauche x, alors x

= x et x est symetrisable pour


loperation .
poss`ede des elements reguliers
Un element a de E est :
regulier `a droite pour lorsque :
x

E et x E sont tels que a x

= a x alors x

= x
regulier `a gauche lorsque :
x

E et x E sont tels que x

a = x a alors x

= x
regulier lorsquil est simultanement regulier ` a droite et regulier ` a gauche.
Proposition 1.5
Supposons loperation associative. Alors
si a est symetrisable ` a gauche, a est regulier ` a droite ;
si a est symetrisable ` a droite, a est regulier ` a gauche ;
enn si a est symetrisable, a est regulier.
1.1.3 Structures algebriques
Soit E un ensemble muni dune operation interne notee . On dit alors que (E, ) poss`ede une
structure de :
Semi-groupe lorsque loperation est associative ;
Monode si de plus loperation poss`ede un element neutre ;
Groupe si de plus, tout element de E poss`ede un oppose pour loperation ;
et enn de Groupe commutatif (ou abelien), si de plus loperation est commutative.
Soit E un ensemble muni de deux operations internes notees respectivement + et . On dit que
(E, +, ) poss`ede une structure de :
Anneau lorsque :
(E, +) est un groupe commutatif ;
loperation est associative et distributive par rapport ` a loperation +.
AJ.Casadevall -oct 2004 p.9
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
Corps lorsque :
(E, +, ) est un anneau ;
loperation poss`ede un element neutre (appele unite) ;
tout element distinct de lelement neutre de loperation + (note 0) poss`ede un symetrique
pour loperation ; pour le distinguer de loppose (operation +), il est appele inverse.
Enn, lorsque E est aussi muni dune operation externe operant avec un corps K, on dit que :
(E, +, .) est un espace vectoriel sur le corps K lorsque :
(E, +) est un groupe commutatif ;
loperation externe . qui a (a, x) (K, E) associe un element de E note a.x ou plus
simplement ax, verie :
pour tout a de K et tous x et y de E, a(x +y) = ax +ay ;
pour tout x de E et tous a et b de K, (a +b)x = ax +ax;
pour tout x de E et tous a et b de K, a(bx) = (a b)x;
pour tout x de E, 1 x = x.
K est appele corps de base de lespace vectoriel E, ses elements ont souvent appeles
scalaires, les elements de E etant appeles vecteurs.
(E, +, , .) est une alg`ebre sur le corps K lorsque :
(E, +, .) a une structure despace vectoriel sur K ;
(E, +, ) a une structure danneau ;
pour tout a de K, et tout couple (x, y) delements de E, on a :
a(x y) = (a.x) y = x (a.y)
1.2 Espaces vectoriels
1.2.1 Exemples despaces vectoriels
- Premier exemple : R
n
R
n
est le cadre usuel des applications numeriques traitees ordinateur.
Denition 1.1 - n-uplet
Soit n un entier xe. On appelle n-uplet une suite de n nombres reels (x
1
, x
2
, , x
n
) caracterisee
par la propriete :
(x
1
, x
2
, , x
n
) = (y
1
, y
2
, , y
n
)
_

_
x
1
= y
1
x
2
= y
2

x
n
= y
n
Le nombre reel x
i
est appele i
i` eme
coordonnee du n-uplet (x
1
, x
2
, , x
n
).
Denition 1.2 - Lespace R
n
R
n
est lensemble de tous les n-uplets :
x R
n
x = (x
1
, x
2
, , x
n
) o` u pour tout i = 1, 2, . . . , n x
i
R.
Proposition 1.6 La relation degalite
p. 10 AJ.Casadevall - oct 2004
1.2. ESPACES VECTORIELS
(x
1
, x
2
, , x
n
) = (y
1
, y
2
, , y
n
)
_

_
x
1
= y
1
x
2
= y
2

x
n
= y
n
est une relation dequivalence de R
n
.
Denition 1.3 - Operations de R
n
Somme vectorielle
La somme des deux n-uplets x = (x
1
, x
2
, , x
n
) et y = (y
1
, y
2
, , y
n
) est le n-uplet x + y
deni par :
x +y = (x
1
+y
1
, x
2
+y
2
, , x
n
+y
n
)
On verie facilement que (R
n
, +) est un groupe commutatif.
Produit dun n-uplet par un nombre reel
Soit a un nombre reel. Le produit du n-uplet x = (x
1
, x
2
, , x
n
) par le nombre reel a est le
n-uplet note ax, deni par :
ax = (ax
1
, ax
2
, , ax
n
)
Proposition 1.7
(R
n
, +, .) est un espace vectoriel reel (i.e. sur le corps R).
- Deuxi`eme exemple : les polynomes `a coecients reels
Denition 1.4 - Polynome
On appelle polyn ome ` a coecients reels toute suite innie p = (p
n
)
nN
telle quil existe un entier
d tel que pour tout n > d, p
n
= 0.
Le degre dun polyn ome est lindice du coecient non nul dindice le plus eleve.
Enn, deux polyn omes p = (p
n
)
nN
et q = (q
n
)
nN
sont egaux si les deux suites qui les denissent
sont egales :
pour tout n N, p
n
= q
n
On note R[X] lensemble des polyn omes ` a coecients reels.
Notation usuelle - Le polyn ome p de degre d est ecrit :
p = p
0
+p
1
X +p
2
X
2
+ +p
d
X
d
o` u X
k
designe le mon ome de degre k :
X
k
= (0, 0, , 0, 1, 0, )
Denition 1.5 - Operations de R[X]
Somme polynomiale
Le polyn ome somme de deux polyn omes p = (p
n
)
nN
et q = (q
n
)
nN
est le polyn ome p + q
tel que
pour tout n N, (p +q)
n
= p
n
+q
n
On verie facilement que (R[X], +) est un groupe commutatif.
Produit dun polyn ome par un nombre reel
Le produit du polyn ome p = (p
n
)
nN
par le nombre reel a est le polyn ome (a.p) tel que
pour tout n N, (a.p)
n
= a p
n
Proposition 1.8
(R[X], +, .) est un espace vectoriel reel (i.e. sur le corps R).
AJ.Casadevall -oct 2004 p.11
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
- Troisi`eme exemple : les fonctions continues de R dans R
On note (
0
(R) lensemble des fonctions continues de R dans R.
Denition 1.6 - Operations de (
0
(R)
Somme de deux fonctions
La fonction somme de deux fonctions continues f et g est la fonction continue s = f +g telle
que
pour tout x R, s(x) = f(x) +g(x)
On verie facilement que ((
0
(R), +) est un groupe commutatif.
Produit dune fonction par un nombre reel
Le produit de la fonction continue f par le nombre reel a est la fonction continue (a f ) telle
que
pour tout x R, (a.f)(x) = a f(x)
Proposition 1.9
((
0
(R), +, .) est un espace vectoriel reel (i.e. sur le corps R).
1.2.2 Calcul dans les espaces vectoriels
De la denition des espaces vectoriels on deduit les r`egles de calcul suivantes :
Proposition 1.10
pour tout a K, aO
E
= O
E
;
pour tout a K et tout x E, a(x) = (a)x ;
pour tout x E, 0
K
x = O
E
(0
K
designe lelement neutre de la somme dans K) ;
pour tout a K et tout x E, ax = O
E
a = 0
K
ou x = O
E
.
1.2.3 Famille delements dun espace vectoriel E - Combinaisons lineaires
Soit E un espace vectoriel sur un corps K. Une famille delements de E (ou famille de E) est
dune certaine fa con, une partie de E dont on peut reperer les elements au moyen dun indice. On
va en donner une denition plus exacte :
Denition 1.7 - Famille delements de E
Supposons donne un ensemble (lensemble des indices) et une application x de dans E qui
`a tout associe un element x() de E. La famille A = x

est alors le graphe de


lapplication x ; cest ` a dire lensemble des couples x

= (, x()).
Par abus de langage on confond les elements x

de la famille et leur valeur x().


La notation x

est reservee au cas general,lorsquon na aucune information sur la nature de


la famille. Mais lorsque la famille est nie ou denombrable, on utilise les notations suivantes :
x
1
, x
2
, , x
p
lorsque la famille est nie et comporte exactement p elements.
x
1
, x
2
, x
3
, lorsque la famille est denombrable (on peut alors lindicer par N) ;
Exemple 1.2.1 :
La famille 1, x, x
2
, , x
n
est une famille nie de polyn omes, alors que 1, x, x
2
, , x
n
, x
n+1
,
designe une famille denombrable.
Proposition 1.11 - Combinaison lineaire dune famille nie delements de E
Soit x
1
, x
2
, , x
p
une famille de p elements de E et soit a
1
, a
2
, , a
p
, une famille de p
elements de K corps de base de E. Alors :
[x = a
1
x
1
+a
2
x
2
+ +a
p
x
p
=
p

k=1
a
k
x
k
p. 12 AJ.Casadevall - oct 2004
1.2. ESPACES VECTORIELS
est un element de E appele combinaison lineaire (c.l.) des p elements x
1
, x
2
, , x
p
de E af-
fectes des coecients a
1
, a
2
, , a
p
.
Reciproquement, soit X un element de E. On dira que x est une combinaison lineaire de
x
1
, x
2
, , x
p
sil existe p elements de K, a
1
, a
2
, , a
p
tels que :
x = a
1
x
1
+a
2
x
2
+ +a
p
x
p
Proposition 1.12 La valeur dune combinaison lineaire est independante de lordre dapparition
des termes a
k
x
k
dans la combinaison lineaire.
On souhaite generaliser la denition precedente au cas dune famille quelconque delements
de E ; pour cela, on sinspire de la fa con dont sont denis les polyn omes comme combinaison de
mon omes :
Denition 1.8 - Combinaison lineaire dun famille quelconque delements de E
Soit A = x

, une famille delements de E et / = a

une famille de K, corps de base


de E, dont tous les elements sont nuls sauf un nombre ni dentre-eux (notez que les deux
familles poss`edent le meme ensemble dindices).
On appelle combinaison lineaire des x

aectes des coecients a

lelement x de E deni par la


somme nie :
x =

t.q. a

=0
a

En dautres termes, x E est une combinaison lineaire delements de la famille A de E sil existe
une sous-famille nie x
1
, x
2
, x
p
de A et une famille nie a
1
, a
2
, a
p
delements de K
tels que :
x =
p

k=1
a
k
x
k
Remarque : !!!
Famille `a support ni - Soit A un ensemble quelconque, on appelle famille ` a support ni de A,
une famille / = a

dont tous les elements sont nuls sauf un nombre ni dentre-eux.


Lensemble ni 1 = tels que a

,= 0 est appele support de /. Quitte ` a changer les


indices de / on peut toujours supposer que 1 est un intervalle de N.
1.2.4 Sous-espaces vectoriels
Denition 1.9
Soit F une partie dun espace vectoriel E. F est un sous-espace vectoriel (s.e.v) de E si et seulement
si F est non vide et si F muni des lois induites par les lois de E, est un espace vectoriel.
Theor`eme 1.1
Soit F une partie dun espace vectoriel E sur K. Les deux proprietes suivantes sont equivalentes :
F est un sous-espace vectoriel de E
F est non vide et pour tous x et y de F, pour tout a de K, x +ay appartient `a F
Denition 1.10 - Sous-espace vectoriel engendre par une partie dun espace vectoriel
Soit F une partie dun espace vectoriel E. On appelle sous-espace vectoriel de E engendre par F
le plus petit (pour linclusion) sous-espace vectoriel de E contenant F. Il est note V ect(F).
AJ.Casadevall -oct 2004 p.13
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
Proposition 1.13
Soit x V ect(F), alors il existe des x
1
, x
2
, , x
p
elements de F et des scalaires a
1
, a
2
, , a
p
tels
que x = a
1
x
1
+ a
2
x
2
+ + a
p
x
p
. En dautre termes. V ect(F) est lensemble des combinaisons
lineaires des element de F.
Proposition 1.14
si F est un sous-espace vectoriel de E, alors F = V ect(F) ;
si F
1
et F
2
sont deux sous-espaces vectoriels de E, alors V ect(F
1
F
2
) = F
1
+F
2
o` u F
1
+F
2
designe lensemble des elements x de E tels quil existe x
1
F
1
et x
2
F
2
et x = x
1
+ x
2
.
F
1
+F
2
est le sous-espace de E somme des sous-espaces F
1
et F
2
.
1.3 Proprietes des familles delements dun espace vectoriel E
1.3.1 Familles libres
Denition 1.11
Soit A = x

une famille delements de E. A est une famille libre ou lineairement


independante lorsque :
ou bien A ne contient quun seul element x et x ,= 0
ou bien A contient plusieurs element et toute combinaison lineaire delements de A nulle a
tous ses coecients nuls :
(x =
p

k=1
a
k
x
k
o` u a
k
K et x
k
A) et (x = O
E
) a
k
= 0 pour tout k = 1, 2, , p
Exemple 1.3.1 :
Considerons la famille de R[X] formee des monomes 1, X, X
2
. Cette famille est libre, en eet :
p
0
+p
1
X +p
2
X
2
= O
R[X]
x R, p
0
+p
1
x +p
2
x
2
= 0
do` u p
0
= 0, p
1
= 0, p
2
= 0
Proposition 1.15
Toute sous-famille dune famille libre de E est libre.
Une famille est liee (i.e. nest pas libre) si et seulement si un des elements de la famille est
nul ou est combinaison lineaire des autres elements de la famille.
Soit A = x

une famille libre de E. Supposons quil existe un ensemble

et une
bijection de

sur . Alors la famille = x


(

est une famille libre de E. En


particulier, lorsque la famille A est nie, toute famille obtenue en changeant lordre des termes
dans A est libre.
1.3.2 Familles generatrices
Denition 1.12
Soient F un sous-espace vectoriel de E et A = x

une famille delements de F. A est une


famille generatrice de F si et seulement si tout element x de F est une combinaison lineaire des
elements de A. Cest ` a dire :
il existe une famille / = a

`a support ni 1 delements de K telle que : x =

iI
a
i
x
i
Proposition 1.16
Toute sur-famille dune famille generatrice est generatrice.
p. 14 AJ.Casadevall - oct 2004
1.3. PROPRI

ET

ES DES FAMILLES D

EL

EMENTS DUN ESPACE VECTORIEL E


Soit A = x

une famille delements de E, alors A est une famille generatrice de


V ect(A).
Soit F un sous-espace vectoriel de E. Soit A = x

une famille generatrice de F.


Supposons quil existe un ensemble

et une bijection de

sur . Alors la famille =


x
(

est une famille generatrice d F. En particulier, lorsque la famille A est nie,


toute famille obtenue en changeant lordre des termes dans A est generatrice.
1.3.3 Bases dun espace vectoriel E
Denition 1.13
Soit B = b

i
une famille delements de E, B est une base de E si et seulement si B est `a la
fois une famille libre et une famille generatrice de E..
Exemple 1.3.2 : Base canonique de R
n
Considerons la famille c
n
de R
n
formee par les n elements de R
n
:
e
1
= (1, 0, 0, , 0)
e
2
= (0, 1, 0, , 0)
e
i
= (0, , 0, 1, 0, , 0) (le 1 etant en i
` eme
position)
e
n
= (0, 0, , 0, 1)
On peut denir plus formellement la famille c
n
: on designe par le symbole
j
i
une variable qui vaut
1 si i = j et 0 sinon et par e
ij
la j
` eme
coordonnee de e
i
, alors
pour i = 1, 2, , n, et pour j = 1, 2, , n, e
ij
=
j
i
.
c
n
est une base de R
n
. Cette base, particuli`erement simple, est appelee base canoniques de R
n
.
Proposition 1.17
Soit E un espace vectoriel sur un corps K admettant une base B = b

. Alors tout element x


de E secrit de fa con unique comme combinaison lineaire des elements de B :
x E, il existe une unique famille / = a

`a support ni 1 delements de K telle que :


x =

iI
a
i
b
i
Les scalaires a
i
( K) sont les coordonnees de x et les elements a
i
b
i
( E) sont les composantes
de x suivant B.
Proposition 1.18
Soit T = f

une famille libre delements dun espace vectoriel E et soit F = V ect(T) le


sous-espace de E engendre par T. Alors T est une base de F.
1.3.4 Theor`eme fondamental des espaces vectoriels
Certains espaces vectoriels admettent des bases, R
n
ou encore le sous-espace engendre par une
famille libre. Mais en est-il toujours de meme pour un espace vectoriel quelconque ? La reponse est
positive ; Nous admettrons le resultat suivant :
Theor`eme 1.2
Tout espace vectoriel non reduit ` a O admet une base
AJ.Casadevall -oct 2004 p.15
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
Proposition 1.19
Les proprietes suivantes sont equivalentes :
1. B = b

est base de E ;
2. B est une famille libre maximale ;
3. B est une famille generatrice minimale.
1 2
B est une base de E donc une famille libre. Soit une sur-famille de et j \. Alors
b
j
est une combinaison lineaire. de la famille b

puisque B est une base. La sur-famille


b
j

jJ
nest donc pas libre, la famille B est donc libre maximale.
2 3
Soient B une famille libre maximale et x un element de E. Considerons la famille B

= Bx.
B

nest pas libre puisque B est libre maximale, il existe donc une sous-famille nie 1 de et
des scalaires a
i
non tous nuls tels que
a
0
x +

iI
a
i
b
i
= O
E
a
0
est necessairement dierent de zero car si non, la famille B ne serait pas libre. On en deduit
que
x =

iI
a
i
a
0
b
i
et donc que B est une famille generatrice. De plus B est une famille generatrice minimale ; sil
nen etait pas ainsi, un des elements de B serait combinaison lineaire des autres vecteurs de
la famille B et B ne serait alors pas libre.
3 1
Soit B une famille generatrice minimale et b

0
un element quelconque de B. Sil existait une
sous-famille nie 1 de , contenant
0
et des scalaires a
i
non nuls tels que :

iI
a
i
b
i
= O
E
alors on pourrait exprimer b

0
comme combinaison lineaire des autres elements de la famille :
b

0
=

iJ
a
i
a

0
b
i
La famille B ne serait alors pas generatrice minimale. On en deduit que pour toute sous-famille
nie 1 de ,

iI
a
i
b
i
= O
E
a
i
= 0 pour tout i 1
Cest `a dire que la famille B est libre ; cest donc une base de E puisque par hypoth`ese, B est
aussi une famille generatrice. 2
1.4 Espaces vectoriels de dimension nie
R
n
admet plusieurs bases nies. La question qui vient ` a lesprit est la suivante : toutes les bases
de R
n
ont-elles cette propriete en commun ?
p. 16 AJ.Casadevall - oct 2004
1.4. ESPACES VECTORIELS DE DIMENSION FINIE
1.4.1 Denition - Existence dune base
Denition 1.14
On appelle espace vectoriel de dimension nie un espace qui poss`ede une famille generatrice
de cardinal ni, cest ` a dire, comportant un nombre ni delements .
Demontrons le theor`eme fondamental dans le cadre des espaces de dimension nie.
Theor`eme 1.3
Soient E un espace de dimension nie non reduit ` a O, ( une famille nie generatrice de E et
L une famille libre de E dont les elements appartiennent tous `a (. Alors il existe une base B de E
telle que L B (.
Supposons que ( = v
1
, v
2
, , v
n
; alors tout x de E est combinaison lineaire de v
1
, v
2
, , v
n
:
x =
n

k=1
x
k
v
k
Quitte ` a renumeroter les elements de (, on peut supposer que L = v
1
, v
2
, , v
p
avec p n. Si
L est une famille generatrice, le theor`eme est demontre, sinon montrons quil existe v ( tel que
la famille L
1
= L v est encore libre (v v
p+1
, v
p+2
, , v
n
).
En eet sil nen est pas ainsi chacun des vecteurs v
p+1
, , v
n
est combinaison lineaire de
v
1
, v
2
, , v
p
et donc tout x de E est combinaison lineaire de v
1
, v
2
, , v
p
, ce qui est im-
possible par hypoth`ese. Il existe donc v ( tel que la famille L
1
est libre. Quitte ` a renumeroter
les elements de (, on peut supposer que v = v
p+1
.
On construit ainsi une suite strictement croissante de parties libres L
k
de E, incluses dans ( :
L L
1
L
2
(
( et L contiennent respectivement n et p elements, la construction precedente sarrete donc au
bout de n p etapes au plus. Supposons que la construction sarrete `a letape k n p, L
k
est
alors une famille libre et generatrice de E i.e. une base de E. 2
En appliquant le theor`eme precedent ` a une famille generatrice nie ( et en prenant pour L la
partie vide (qui est libre), on obtient le resultat important suivant :
Theor`eme 1.4 Soit ( une famille generatrice nie de E, alors il existe une sous-famille de ( qui
est une base. En dautres termes, un espace vectoriel est de dimension nie si et seulement si il
poss`ede une base comportant un nombre ni delements.
1.4.2 Dimension dun espace de dimension nie
R
n
admet plusieurs bases nies. La question qui vient ` a lesprit est la suivante : toutes les bases
de R
n
poss`edent-elles cette propriete ?
Theor`eme 1.5 - Theor`eme dechange
Soient E un espace vectoriel de dimension nie, ( une famille generatrice nie de E et L une
famille libre de E, alors :
L est de cardinal ni et card(L) card(() ;
il existe une famille generatrice de E obtenue en rempla cant card(L) elements de ( par
card(L) elements de L.
Supposons que ( = v
1
, v
2
, , v
n
, et que L = u
1
, u
2
, , u
p
; supposons de plus que p > n.
Montrons quon peut remplacer un element de ( par u
1
: u
1
est non-nul puisquil appartient ` a une
famille libre, et est engendre par (
u
1
=
n

k=1
a
k
v
k
o` u tous les a
k
ne sont pas nuls
AJ.Casadevall -oct 2004 p.17
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
Quitte ` a renumeroter les elements de (, on peut supposer que a
1
,= 0. Alors toute combinaison
lineaire de (
1
= u
1
, v
2
, , v
n
est aussi une combinaison lineaire de ( = v
1
, v
2
, , v
n
i.e. (
1
est une famille generatrice de E.
Montrons quon peut remplacer un element de (
1
autre que u
1
par u
2
: u
2
est non-nul et est
independant de u
1
puisque L est libre, et est engendre par (
1
u
2
= a
1
u
1
+
n

k=2
a
k
v
k
o` u a
1
,= 0 et o` u tous les a
k
ne sont pas nuls
Quitte ` a renumeroter les elements de (, on peut supposer que a
2
,= 0. Alors toute combinaison
lineaire de (
2
= u
1
, u
2
, v
3
, , v
n
est aussi une combinaison lineaire de (
1
= u
1
, v
2
, , v
n
i.e.
(
2
est une famille generatrice de E.
On construit ainsi une suite de familles (
k
generatrices de E. A la n de la n
i` eme
etape on aura
construit une famille (
n
= u
1
, u
2
, , u
n
ne contenant que des elements de L. Puisque p >
n, u
p
/ (
n
, or (
n
est une famille generatrice de E, u
p
est donc une combinaison lineaire de
u
1
, u
2
, , u
n
ce qui est impossible puisque L est libre. On en deduit que L est une famille nie
et que card(L) card((). 2
Theor`eme 1.6 - Dimension dun espace de dimension nie
Soit E un espace vectoriel de dimension nie, toutes les bases de E poss`edent le meme nombre
delements. Ce nombre commun delements note dim(E), est appele dimension de lespace E.
Exemple 1.4.1 :
Lespace T
n
des polyn omes de degre inferieur ou egal `a n admet 1, x, x
2
, , x
n
pour base.
Cest donc un espace de dimension nie. Sa dimension est (n + 1). Par contre, lespace T
de tous les polyn omes nest pas de dimension nie. En eet sil existait pour un certain
d une base nie formee des polynomes p
0
, p
1
, , p
d
, alors x
d+1
ne pourrait sexprimer
comme combinaison lineaire des polyn omes de cette base puisque ceux-ci sont tous de degres
strictement inferieur ` a d + 1.
R
n
constitue le mod`ele des espaces vectoriels reel de dimension n. En eet soit E un espace
vectoriel de dimension n, et B = b
i

i=1,2, ,n
une base de E. A tout element x de E on peut
faire comprendre le n-uplet (x
1
, x
2
, , x
n
) de ses n composantes dans la base B et ce de
fa con unique. On denit ainsi une bijection de E sur R
n
. Cest dans ce sens quon peut dire
que R
n
est le mod`ele des espaces vectoriels reels de dimension n.
Proposition 1.20
Soit E un espace vectoriel de dimension nie n, et soit B = b
i

i=1,2, ,n
une base de E, alors tout
element x de E secrit de fa con unique :
x =
n

i=1
x
i
b
i
Proposition 1.21
Soit E un espace vectoriel de dimension nie n, alors les proprietes suivantes sont equivalentes :
1. B est une base de E ;
2. B poss`ede exactement n elements et est une partie libre de E ;
3. B poss`ede exactement n elements et est une partie generatrice de E.
p. 18 AJ.Casadevall - oct 2004
1.4. ESPACES VECTORIELS DE DIMENSION FINIE
1.4.3 Propriete des espaces de dimension nie
Theor`eme 1.7 - Theor`eme de la base incompl`ete
Soient E un espace vectoriel de dimension nie n et b
1
, b
2
, , b
p
une famille libre formee de p
elements de E (donc p n). Alors il existe (n p) elements de E, b
p+1
, b
p+2
, , b
n
tels que
B = b
1
, b
2
, , b
p
, b
p+1
, , b
n
soit une base de E.
Cest une consequence de la preuve du theor`eme dechange.
Proposition 1.22
Soit E un espace vectoriel sur K de dimension nie n muni dune base B, alors lapplication de
(E, B) dans K
n
denie par :
x =
n

i=1
x
i
b
i
(x
1
, x
2
, , x
n
) K
n
est un isomorphisme. Tout espace vectoriel de dimension n sur K est isomorphe ` a K
n
.
Proposition 1.23
Soit F un sous-espace vectoriel de lespace vectoriel de dimension nie E, alors :
F est de dimension nie et dim(F) dim(E) ;
De plus, si dim(F) = dim(E), alors F = E.
1.4.4 Rang dune famille de vecteurs dun espace vectoriel E
Denition 1.15
Soit A une famille delements dun espace vectoriel E. Le rang de A est la dimension, lorsquelle
est nie, du sous-espace V ect(A). Le rang de A est note rg(A).
Proposition 1.24 - Rang dune famille libre dun espace vectoriel de dimension nie
Soit A une famille libre dun espace vectoriel E de dimension nie. Alors :
rg(A) = card(A).
Dapr`es le theor`eme dechange (1.5), A est nie.
Denition 1.16 - Transformations dune famille delements de R
n
Soit A = x
1
, x
2
, , x
p
une famille delements de R
n
. Les operations suivantes sont appelees
transformation de Gauss :
pour i ,= j, ajouter ` a lelement x
j
un multiple de lelement x
i
: x
j
x
j
+a x
i
;
multiplier lelement x
i
par une constante a non nulle : x
i
a x
i
echanger lordre des elements x
i
et x
j
: x
i
x
j
Proposition 1.25 - Familles equivalentes
Toute transformation de Gauss appliquee `a une famille A = x
1
, x
2
, , x
p
delements de R
n
la transforme en une famille = y
1
, y
2
, , y
p
delements de R
n
qui engendre le meme sous-
espace de R
n
et qui poss`ede les memes proprietes, (famille libre, generatrice ou base), que la famille
initiale. On dit alors que les familles A et sont equivalentes.
Une strategie pour determiner le rang dune famille A delements de R
n
est de la transformer en
utilisant les operations denies ci-dessus, en une famille echelonnee | equivalente.
AJ.Casadevall -oct 2004 p.19
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
1.5 Applications lineaires
Dans cette section, E, F, G, . . . designent des espaces vectoriels sur le meme corps K.
1.5.1 Denitions - Notations
Denition 1.17
Soient E et F deux espaces vectoriels sur un corps K. Une application f de E dans F est une
application lineaire (ou operateur lineaire) lorsquelle verie les deux proprietes suivantes :
U E, V E, f(U +V ) = f(U) +f(V ) (additivite)
a K, U E, f(aU) = af(U) (homogeneite)
On note L(E, F) lensemble des applications lineaires de E dans F et L(E) lorsque E = F.
Exemple 1.5.1 :
Dans lespace T des polyn omes, lapplication qui ` a un polyn ome P fait correspondre sa derivee P

est une application lineaire. En eet, la derivee de la somme P + Q est P

+ Q

et la derivee de
(aP) est aP

.
Denition 1.18
Une application lineaire de E dans K est appelee forme lineaire ;
Une application lineaire de E dans lui-meme est appelee endomorphisme ;
Une application lineaire bijective de E dans F est appelee isomorphisme ;
Une application lineaire bijective de E dans lui-meme est appelee automorphisme.
On note
L(E, F) lensemble des applications lineaires de E dans F.
L(E) lensemble des endomorphismes de E ;
1.5.2 Proprietes des applications lineaires
Proposition 1.26
Soit f une application lineaire de E dans F et soit

p
i=1
a
i
x
i
une combinaison lineaire delements
de E, alors
f(
p

i=1
a
i
x
i
) =
p

i=1
a
i
f(x
i
)
Proposition 1.27
Soit B = b

une base de E et soit = Y

une famille quelconque de F indexee par le


meme ensemble . Alors il existe une unique application lineaire de E dans F telle que :
pour tout f(b

) = y

Proposition 1.28
Soient f et g deux applications lineaires de E dans F et soient a et b deux nombres reels (ou
complexes), alors af +bg est une application lineaire de E dans F ; L(E, F) et L(E) sont donc des
espaces vectoriels.
Proposition 1.29 - Composition des applications lineaires
Soient f une application lineaire de E dans F et g une application lineaire de F dans un espace
vectoriel G, alors lapplication composee g f est un operateur lineaire de E dans G.
p. 20 AJ.Casadevall - oct 2004
1.6. APPLICATIONS LIN

EAIRES ET DIMENSION FINIE


1.5.3 Image et noyau dune application lineaire
Denition 1.19
Soit f une application lineaire de E dans F. On denit :
limage de f : Im(f) = y F t.q. x E et y = f(x) = f(E)
le noyau de f : Ker(f) = x E t.q. f(x) = O
F
= f
1
O
F
.
Proposition 1.30
Soit f une application lineaire de E dans F :
Im(f) est un sous-espace vectoriel de F ;
Ker(f) est un sous-espace vectoriel de E ;
1.5.4 Applications lineaires injectives, surjectives - Isomorphismes
Denition 1.20
Soit f une application lineaire de E sur F alors f est inversible ou est un isomorphisme de F sur
E lorsquelle est bijective.
Proposition 1.31
Soit f une application lineaire bijective de E sur F alors lapplication inverse f
1
est un isomor-
phisme de F sur E.
Proposition 1.32
Soit f une application lineaire de E dans F,
f injective Ker(f) = O
E
;
f injective limage dune famille libre de E est une famille libre de F ;
f surjective limage dune famille generatrice de E est une famille generatrice de Im(f) ;
f est bijective limage dune base de E est une base de F.
1.6 Applications lineaires et dimension nie
1.6.1 Caracterisation des applications lineaires
Theor`eme 1.8
Supposons que E soit un espace de dimension nie n et soit f une application lineaire de E dans
un espace vectoriel F. Alors f est enti`erement determinee par les images des elements dune base
quelconque de E.
En particulier une application lineaire g qui conciderait avec f sur les elements dune base de E
est identique ` a f.
En eet soit B = b
i

i=1,2, ,n
une base de E. Tout element x de E secrit x =

n
i=1
x
i
b
i
et donc
f(x) =

n
i=1
x
i
f(b
i
). Si on pose f
i
= f(b
i
), alors f(x) =

n
i=1
x
i
f
i
.
Si lapplication lineaire g concide avec f sur B, alors pour tout x E, g(x) =

n
i=1
x
i
f
i
= f(x) .
Proposition 1.33
Soient E un espace vectoriel de dimension nie n et F un espace de dimension nie m. Alors
L(E, F) est un espace vectoriel de dimension n m.
1.6.2 Rang dune application lineaire
Theor`eme 1.9 - Theor`eme Noyau-Image ou des dimensions
Supposons que E est un espace de dimension nie et soit f une application lineaire de E dans un
espace vectoriel F, alors Ker(f) et Im(f) sont de dimension nie, dim Im(f) dim E et
dim E = dim Ker(f) +dim Im(f)
AJ.Casadevall -oct 2004 p.21
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
Supposons que dim E = n. Ker(f) est un sous-espace vectoriel de E, donc Ker(f) est de dimension
nie et dim Ker(f) n.
Soit u
1
, u
2
, , u
p
une base de Ker(f) (p n). Dapr`es le theor`eme de la base incompl`ete (c.f.
1.7) , il existe des vecteurs de E, v
1
, v
2
, , v
np
tels que u
1
, , u
p
, v
1
, , v
np
est une base
de E.
Montrons que f(v
1
), f(v
2
), , f(v
np
) est une base de Im(f) :
Famille libre - Soient a
1
, a
2
, , a
np
des scalaires tels que :
a
1
f(v
1
) +a
2
f(v
2
) + +a
np
f(v
np
) = f(a
1
v
1
+a
2
v
2
+ +a
np
v
np
) = O
Alors a
1
v
1
+ a
2
v
2
+ + a
np
v
np
Ker(f). Il existe donc des scalaires b
1
, b
2
, , b
p
tels
que :
a
1
v
1
+a
2
v
2
+ +a
np
v
np
= b
1
u
1
+b
2
u
2
+ +b
p
u
p
Soit :
a
1
v
1
+a
2
v
2
+ +a
np
v
np
b
1
u
1
b
2
u
2
b
p
u
p
= O
Or u
1
, , u
p
, v
1
, , v
np
est une base de E, donc :
a
1
= a
2
= = a
np
= b
1
= b
2
= = b
p
= 0.
Famille generatrice - Soit y = f(x) un element de Im(f). x secrit :
x = a
1
v
1
+a
2
v
2
+ +a
np
v
np
+b
1
u
1
+b
2
u
2
+ +b
p
u
p
et donc
y = a
1
f(v
1
) +a
2
f(v
2
) + +a
np
f(v
np
) +b
1
f(u
1
) +b
2
f(u
2
) + +b
p
f(u
p
)
Or u
1
, u
2
, , u
p
une base de Ker(f) donc f(u
1
) = f(u
2
) = = f(u
p
) = O et
y = a
1
f(v
1
) +a
2
f(v
2
) + +a
np
f(v
np
)
On en deduit que f(v
1
), f(v
2
), , f(v
np
) est une base de Im(f) et que dim im(f) = n p. 2
Denition 1.21 - Rang dune application lineaire
Si Im(f) est de dimension nie, on appelle rang de lapplication lineaire f la dimension de Im(f) :
rg(f) = dimIm(f)
Le theor`eme Noyau-Image peut senoncer sous la forme :
Theor`eme 1.10 - Theor`eme du rang
Supposons que E soit un espace de dimension nie et soit f une application lineaire de E dans F,
alors :
rg(f) = dim E dim Ker(f)
Proposition 1.34
Supposons que E soit un espace vectoriel de dimension nie et f une application de E dans un
espace vectoriel F, alors :
f injective rg(f) = dim E ;
f surjective F est de dimension nie et rg(f) = dim F ;
f bijective rg(f) = dim E et rg(f) = dim F ;
si F est de dimension nie, dim Im(f) inf(dim E, dim F).
Proposition 1.35
Soient E et F deux espaces vectoriels de meme dimension nie n, les proprietes suivantes sont
equivalentes :
rg(f) = n;
p. 22 AJ.Casadevall - oct 2004
1.6. APPLICATIONS LIN

EAIRES ET DIMENSION FINIE


f est bijective de E sur F ;
f est surjective de E sur F ;
f est injective de E dans F ;
Ker(f) = O
E
;
dimKer(f) = 0 ;
limage dune base de E est une base de F.
AJ.Casadevall -oct 2004 p.23
CHAPITRE 1. RAPPELS DALG
`
EBRE LIN

EAIRE
p. 24 AJ.Casadevall - oct 2004
2
Calcul Matriciel
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Denitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.2 Matrices triangulaires, matrices diagonales . . . . . . . . . . . . . . . . . . 26
2.2 Operations matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1

Egalite de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Operations lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.4 Inverse dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.5 Transposee dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Noyau et image dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Rang dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.3 Matrices de rang-colonne plein . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Matrices et applications lineaires . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.1 Application lineaire associee `a une matrice . . . . . . . . . . . . . . . . . . 33
2.4.2 Representation matricielle des elements de R
n
. . . . . . . . . . . . . . . . 34
2.4.3 Representation matricielle des applications lineaires . . . . . . . . . . . . . 34
2.4.4 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Dans ce chapitre on rappelle quelques notions qui seront utiles dans la suite de ce cours.
K designe R ou C.
2.1 Matrices
2.1.1 Denitions et notations
Denition 2.1 Une matrice de format (m, n) `a coecients dans K est un tableau de m n
elements de K organises en m lignes et n colonnes. Chaque element de la matrice est repere par
CHAPITRE 2. CALCUL MATRICIEL
deux indices, le premier est lindice de la ligne, le second est lindice de la colonne.
_

_
a
11
a
12
a
1j
a
1n
a
21
a
22
a
2j
a
2n
a
i1
a
12
a
ij
a
in
a
m1
a
m2
a
mj
a
mn
_

_
ligne i
colonne j
Notation 2.1
la matrice precedente est notee A = [a
i,j
]
i=1,m; j=1,n
;
a
i,j
ou (A)
i,j
est le terme, lelement ou encore le coecient de la i
i` eme
ligne et de la j
i` eme
colonne de A;
une matrice de format (n, 1) est une matrice-colonne dordre n;
une matrice de format (1, n) est une matrice-ligne dordre n;
une matrice de format (n, n) est une matrice carree dordre n;
la j
i` eme
colonne de la matrice A est notee A
j
ou a
i
suivant quon la consid`ere comme une
matrice-colonne ou un vecteur de R
n
; reciproquement, la matrice dont les colonnes sont
a
1
, a
2
, , a
n
sera notee [a
1
a
2
a
n
] ;
la i
i` eme
ligne de la matrice A est notee A

i
ou a

i
;
/
mn
(K) designe lensemble des matrices de format (m, n) `a coecients dans K et /
n
(K)
lensemble des matrices carrees dordre n .
Denition 2.2 - Diagonale principale
La diagonale principale dune matrice carree A = [a
i,j
]
i,j=1,n
est constituee des elements de la
forme a
i,i
appeles termes diagonaux de A. On notera diag(A) le vecteur de R
n
forme des termes
diagonaux de A : diag(A) = (a
1,1
, a
2,2
, , a
n,n
).
La diagonale principale divise A en deux parties :
la partie sur-diagonale formee des elements a
i,j
tels que i < j (elements sur-diagonaux) ;
la partie sous-diagonale formee des elements a
i,j
tels que i > j (elements sous-diagonaux) ;
termes
sous diagonaux
_

_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_

_
termes
sur diagonaux
2.1.2 Matrices triangulaires, matrices diagonales
Une matrice triangulaire dordre n est une matrice A carree dordre n dont tous les elements
sur-diagonaux ou sous-diagonaux sont nuls :
soit a
ij
= 0 pour tous i et j tels que i > j, la matrice est alors appelee triangulaire
superieure,
p. 26 AJ.Casadevall - oct 2004
2.2. OP

ERATIONS MATRICIELLES
soit a
ij
= 0 pour tous i et j tels que i < j, la matrice est alors appelee triangulaire
inferieure.
_

_
1 0 1 4
0 5 1 7
0 0 0 1
0 0 0 4
_

_
_

_
1 0 0 0
2 2 0 0
1 0 4 0
0 4 0 7
_

_
matrice triangulaire superieure matrice triangulaire inferieure
Une matrice diagonale dordre n est une matrice carree dordre n qui est simultanement
triangulaire superieure et triangulaire inferieure. Cest donc une matrice A carree dordre n
dont les termes non diagonaux sont nuls :
a
ij
= 0 pour tout i ,= j
On denit souvent une matrice diagonale en donnant la valeur de ses elements diagonaux :
D = diag(d
1
, d
2
, , d
n
) est la matrice diagonale dordre n dont les termes diagonaux
verient d
i,i
= d
i
(remarquez la double signication de diag).
diag(1, 2, 3, 4) =
_

_
1 0 0 0
0 2 0 0
0 0 3 0
0 0 0 4
_

_
2.2 Operations matricielles
2.2.1

Egalite de deux matrices
Denition 2.3
Soient A = [a
ij
] et B = [b
ij
] deux matrices de meme format (m, n),
A = B i = 1, , m j = 1, , n a
ij
= b
ij
Proposition 2.1
Legalite est une relation dequivalence de lensemble /
mn
(K).
2.2.2 Operations lineaires
Denition 2.4
Soient A = [a
i,j
] et B = [b
i,j
] deux matrices de meme format (m, n). La matrice somme des
matrices A et B est la matrice S = [s
i,j
] de format (m, n) telle que :
i = 1, , m j = 1, , n, s
i,j
= a
i,j
+b
i,j
Si a est un nombre reel ou complexe, la matrice produit aA est la matrice P = [p
ij
] de format
(m, n) telle que :
i = 1, , m, j = 1, , n p
i,j
= a.a
i,j
Proposition 2.2
Muni de ces deux operations, /
mn
(K) est un espace vectoriel sur K
Proposition 2.3 - Base canonique de /
mn
(K)
Pour i = i m et j = 1 n, on denit dans /
mn
(K) les matrices E
ij
par :
(E
ij
)
l,k
=
_
0 si i ,= i ou k ,= j
1 si i = i et k = j
AJ.Casadevall -oct 2004 p.27
CHAPITRE 2. CALCUL MATRICIEL
E
ij
a la forme suivante :
E
ij
=
j
_

_
0 0 0
.
.
.
.
.
.
.
.
.
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_

_
i
Les mn matrices E
ij
forment une base de /
mn
(K).
2.2.3 Produit matriciel
Denition 2.5 - Compatibilite pour le produit matriciel
Soient A et B deux matrices, on dit que A et B sont compatibles pour le produit AB de A par B,
si et seulement si le nombre de colonnes de A est egal au nombre de lignes de B.
Denition 2.6
Soient A = [a
ij
] de format (m, n) et B = [b
kl
] de format (n, p) deux matrices compatibles pour
le produit AB. La matrice produit de la matrice A par la matrice B est une matrice C = [c
ij
] de
format (m, p) telle que :
i = 1, , m j = 1, , p c
ij
=

n
k=1
a
ik
b
kj
c
ij
est le resultat du produit de la ligne i de A par la colonne j de B.
Proposition 2.4
Sous reserve de la compatibilite des operations, le produit matriciel est :
associatif : (A B) C = A (B C) ;
distributif par rapport ` a la somme : (A+B) C = AB +BC et A (B +C) = AB +AC.
Le produit matriciel nest pas commutatif.
Proposition 2.5 - Expression des lignes et colonnes dune matrice
On note E
j
la matrice-colonne dordre n dont tous les coecients sont nuls sauf le coecient de
la j
` eme
ligne qui vaut 1. Alors pour toute matrice A de format (m, n) :
AE
j
= a
j
(j
` eme
colonne de A)
De meme, on note E

i
la matrice-ligne dordre m dont tous les coecients sont nuls sauf le coecient
de la i
` eme
colonne qui vaut 1. Alors pour toute matrice A de format (m, n) :
E

i
A = a

i
(i
` eme
colonne de A)
Proposition 2.6 - Produit de matrices carrees, triangulaires, diagonales
Le produit de deux matrices carrees est une matrice carree du meme ordre.
Le produit de deux matrices A et B triangulaires inferieures (resp. superieures) dordre n, est
une matrice triangulaire inferieure (resp. superieure) dordre n; les elements diagonaux de la ma-
trice produit AB sont egaux au produit des elements diagonaux de rang homologue des matrices
operandes :
pour tout i, i = 1, , n, (AB)
ii
= a
ii
b
ii
Le produit de deux matrices diagonales est une matrice diagonale du meme ordre :
si A = diag(a
1
, a
2
, , a
n
) et si B = diag(b
i
) alors AB = diag(a
1
b
1
, a
2
b
2
, , a
n
b
n
).
p. 28 AJ.Casadevall - oct 2004
2.2. OP

ERATIONS MATRICIELLES
Denition 2.7 - Matrice-unite
On appelle matrice-unite dordre n la matrice diagonale I
n
telle que I
n
= [
j
i
]
i,j=1,n
I
n
=
_

_
1 0 0
0
.
.
.
0
.
.
.
0 0 1
_

_
Proposition 2.7
Soit A une matrices de format (m, n), alors
I
m
A = A et AI
n
= A
En particulier, si n = m :
I
n
A = AI
n
= A
I
n
est donc lelement unite de /
n
(K). Muni des trois operations, somme, produit par un nombre,
produit matriciel, /
n
(K) est une alg`ebre (c.f. 1.1.3).
Theor`eme 2.1 - Produit matriciel par blocs
Soient A et B deux matrices compatibles pour le produit AB. Si A admet une partition en blocs
A
ik
de format (r
i
, s
k
) et si B admet une partition compatible en blocs B
kj
de format (s
k
, t
j
) alors
le produit AB peut se decomposer en blocs C
ij
de format (r
i
, t
j
) et on a :
i = 1, , m j = 1, , p, C
ij
=
n

k=1
A
ik
B
kj
2.2.4 Inverse dune matrice
Denition 2.8 - Matrice inversible
Une matrice A est inversible si et seulement sil existe une matrice B et une matrice-unite I telles
que AB = BA = I.
Sil en est ainsi, B est est appelee inverse de A et est notee A
1
.
Proposition 2.8
Une condition necessaire pour quune matrice A soit inversible est que A soit carree.
Soit A une matrice carree inversible, son inverse A
1
est unique, est une matrice carree du
meme ordre, inversible et (A
1
)
1
= A.
Une matrice carree inversible, A est reguli`ere(c.f. 1.1.2) ; une matrice carree non-inversible
est dite singuli`ere.
Proposition 2.9
Soit A une matrice diagonale dordre n, A = diag(a
1
, a
2
, , a
n
) ; A est inversible si et seulement
si tous ses elements diagonaux sont dierents de zero. Sil en est ainsi,
A
1
= diag(
1
a
i
,
1
a
i
, ,
1
a
i
)
Proposition 2.10
Soit T une matrice triangulaire superieure (resp. inferieure) dordre n, dont tous les termes di-
agonaux t
ii
sont dierents de zero. Alors T est inversible et son inverse T
1
est une matrice
triangulaire superieure (resp. inferieure) dordre n et les termes diagonaux de la matrice inverse
T
1
sont les inverses des termes diagonaux de rang homologue de T :
pour tout i = 1, , n, (T
1
)
ii
= t
1
ii
AJ.Casadevall -oct 2004 p.29
CHAPITRE 2. CALCUL MATRICIEL
Une demonstration par recurrence de ce resultat utilise les proprietes du produit par blocs applique
aux matrices triangulaires decomposees sous la forme :
T =
_

_
t
11
[ t

1

0
.
.
.
0
[ T
1
_

_
o` u t

1
= t
12
t
1n
est un vecteur-ligne de K
n1
et T
1
une matrice triangulaire superieure dordre
(n 1).
Proposition 2.11
Soient A et B sont deux matrices carrees inversibles, de meme ordre, alors la matrice produit AB
est inversible et (AB)
1
= B
1
A
1
.
Proposition 2.12
Soient A et B deux matrices carrees dordre n telles que AB = I
n
. Alors A et B sont inversibles
et A
1
= B.
Pour monter que A est inversible, il sut de montrer que BA = I
n
, cest `a dire que pour toute
colonne j = 1, 2, , n, (BA)
j
= E
j
. Ici, les colonnes dune matrice seront considerees comme des
matrices-colonnes plutot que comme des vecteurs.
La relation AB = I
n
se traduit par le fait que pour toute colonne j = 1, 2, , n,
(AB)
j
= AB
j
= E
j
.
Montrons que les colonnes de B, B
1
, B
2
, , B
n
, forment une base de /
n,1
. Il sut de montrer
quelles forment une famille libre. Supposons quil existe c
1
, c
2
, , c
n
elements de K tels que
c
1
B
1
+c
2
B
2
+ +c
n
B
n
= O
on en deduit que :
A(c
1
B
1
+c
2
B
2
+ +c
n
B
n
) = c
1
AB
1
+c
2
AB
2
+ +c
n
AB
n
= c
1
E
1
+c
2
E
2
+ +c
n
E
n
= O
do` u c
1
= c
2
= = c
n
= 0 puisque E
1
, E
2
, , E
n
est une base de /
n,1
.
B
1
, B
2
, , B
n
est donc une base de /
n,1
.
On peut donc exprimer les matrices E
j
dans cette base : pour tout j = 1, 2, , n,
E
j
=
j,1
B
1
+
j,2
B
2
+ +
j,n
B
n

Evaluons la j
` eme
colonne de la matrice BA :
(BA)
j
= (BA)E
j
= BA(
j,1
B
1
+
j,2
B
2
+ +
j,n
B
n
)
=
i,1
(BA)B
1
+
i,2
(BA)B
2
+ +
i,n
(BA)B
n
=
i,1
B(AB
1
) +
i,2
B(AB
2
) + +
i,n
B(AB
n
)
=
i,1
BE
1
+
i,2
BE
2
+ +
i,n
BE
n
=
i,1
B
1
+
i,2
B
2
+ +
i,n
B
n
= E
j
On en deduit que pour tout j, la j
` eme
colonne de BA est E
j
; donc BA = I
n
. 2
p. 30 AJ.Casadevall - oct 2004
2.3. NOYAU ET IMAGE DUNE MATRICE
Inversibilite `a droite, `a gauche
Le produit matriciel netant pas commutatif, on peut denir les notions dinversibilite `a droite
ou ` a gauche mais dune fa con un peu particuli`ere puisquil nexiste pas, dans le cas general des
matrices de format (m, n) delement neutre pour le produit matriciel.
Denition 2.9
Soit A une matrice de format (m, n). On dit que A est inversible ` a droite, sil existe une matrice
B de format (n, m) telle que AB = I
m
.
On dit que A est inversible ` a gauche, sil existe une matrice C de format (n, m) telle que CA = I
n
.
Proposition 2.13
Soit A une matrice de format (m, n) inversible ` a droite. Alors, les colonnes de A sont lineairement
independantes.
Pour prouver ce resultat, il sut de reprendre la demonstration de la proposition 2.12.
2.2.5 Transposee dune matrice
Denition 2.10
Soit A = [a
ij
] une matrice de format (m, n), on appelle transposee de A, la matrice de format
(n, m) notee A
T
ou A

telle que :
i = 1, , m j = 1, , p, a

ij
= a
ji
Par exemple, si A =
_
1 2 3
4 5 6
_
, alors A
T
=
_
_
1 4
2 5
3 6
_
_
Proposition 2.14
si a est un element de K, (aA)
T
= aA
T
si A et B sont deux matrices de meme format, (A+B)
T
= A
T
+B
T
si A et B sont deux matrices compatibles pour le produit AB, (AB)
T
= B
T
A
T
enn, si A est une matrice carree inversible, A
T
est inversible et (A
T
)
1
= (A
1
)
T
.
Denition 2.11 - Matrices symetriques et anti-symetriques
Soit A une matrice carree :
A est symetrique si et seulement si A = A
T
;
A est anti-symetrique si et seulement si A = A
T
.
2.3 Noyau et image dune matrice
On convient dassocier ` a tout vecteur x = (x
1
, x
2
, , x
n
) de R
n
la matrice-colonne [x]
E
de
format (n, 1)
[x]
E
=
_

_
x
1
x
2
.
.
.
x
n
_

_
dont le coecient de la i
` eme
ligne est la i
` eme
coordonnee de x dans la base canonique c de R
n
.
Proposition 2.15
Lapplication qui a x R
n
associe la matrice colonne [x]
E
/
n,1
est une application lineaire
bijective ; R
n
et /
n,1
sont donc isomorphes.
Pour simplier les expressions on notera [x] ou plus simplement encore x la matrice [x]
E
en identi-
ant /
n,1
et R
n
.
AJ.Casadevall -oct 2004 p.31
CHAPITRE 2. CALCUL MATRICIEL
2.3.1 Denitions
Denition 2.12 - Noyau dune matrice
Soit A une matrice de format (m, n), le noyau de A est lensemble
N(A) = x R
n
t.q. Ax = O
Proposition 2.16 N(A) est un sous-espace vectoriel de R
n
.
Denition 2.13 - Image ou espace-image dune matrice
Soit A une matrice de format (m, n), limage ou lespace-image de A est lensemble :
R(A) = y R
m
t.q. x R
n
et Ax = y
Proposition 2.17
R(A) est le sous-espace vectoriel de R
m
engendre par les colonnes de A.
En eet soient a
1
, a
2
, , a
n
la famille des colonnes de A (considerees comme des vecteurs de
R
m
). Soit y R(A). Par denition, il existe x R
n
tel que y = Ax. Alors
y = Ax =

n
i=1
x
i
a
i
Tout element y de R(A) est donc combinaison lineaire des colonnes de A. Reciproquement, toute
combinaison lineaire de a
1
, a
2
, , a
n
est un element de R(A).
2.3.2 Rang dune matrice
Denition 2.14
On appelle rang dune matrice A, la dimension de limage de A :
rg(A) = dim R(A)
.
La proposition 2.13 peut senoncer ainsi :
Proposition 2.18
Soit A une matrice de format (m, n) inversible ` a droite, alors rg(A) = n.
Theor`eme 2.2
Soit A une matrice carree dordre n, alors :
rg(A) = n A inversible
La preuve est semblable `a celle de la proposition 2.12. Avec les memes notations, on a :
rg(A) = n la famille A
i
des colonnes de A est une base de /
n,1
;
alors pour tout j = 1, , n, E
j
= b
1,j
a
1
+ b
2,j
a
2
+ + b
n,j
a
n
= AB
j
o` u B
j
designe la
matrice-colonne dordre n :
B
j
=
_

_
b
1,j
b
2,j
.
.
.
b
n,j
_

_
on note B le matrice dont les colonnes sont : B
1
, B
2
, , B
n
; alors la j
` eme
colonne de AB,
(AB)
j
, est egale `a :
(AB)
j
= (AB)E
j
= A(BE
j
) = AB
j
= E
j
do` u AB = I
n
. 2
La notion de rang joue un r ole central dans le calcul matriciel. Deux resultats fondamentaux
font intervenir la notion de rang ; ils seront demontres dans le prochain chapitre :
p. 32 AJ.Casadevall - oct 2004
2.4. MATRICES ET APPLICATIONS LIN

EAIRES
Theor`eme 2.3 Theor`eme de dualite
Soit A une matrice de format (m, n). Alors :
dim R(A) = dim R(A
T
) ou rg(A) = rg(A
T
)
Theor`eme 2.4 Theor`eme noyau-image ou theor`eme du rang
Soit A une matrice de format (m, n). Alors :
n (nb. colonnes de A) = dim R(A) +dim N(A) = rg(A) +dim N(A)
La proposition 2.18 peut alors etre completee :
Proposition 2.19
Soit A une matrice de format (m, n) inversible ` a droite et `a gauche. Alors A est une matrice carree,
inversible dordre n.
En eet rg(A) = n puisque A est inversible `a droite.
A
T
est inversible `a droite puisque A est inversible `a gauche, donc rg(A) = rg(A
T
) = m.
A est donc carree et la proposition 2.12 permet de conclure. 2
2.3.3 Matrices de rang-colonne plein
On appelle ainsi une matrice A de format (m, n) dont les colonnes a
1
, a
2
, , a
n
forment une
famille libre de R
m
. Dapr`es un resultat precedent, on sait que necessairement n m et que les
colonnes de A constituent une base de R(A). La dimension de R(A) est donc egale au nombre de
colonnes de A.
En particulier, si A est inversible `a droite, A est de rang-colonne plein.
Le theor`eme du rang montre que si A est de rang-colonne plein, dim N(A) = 0, cest `a dire que
N(A) = O
n
.
Proposition 2.20
Soit A une matrice de format m, n, les proprietes suivantes sont equivalentes :
A est de rang-colonne plein ;
rg(A) = n;
N(A) = O .
2.4 Matrices et applications lineaires
2.4.1 Application lineaire associee `a une matrice
Proposition 2.21
Soit A une matrice de format mn. Lapplication f
A
de R
n
dans R
m
denie par :
f
A
: x R
n
y R
m
tel que [y] = A[x]
est une application lineaire de R
n
dans R
m
appelee application lineaire canonique associee
`a la matrice A.
Lorsquon identie R
n
et lespace des matrice-colonnes /
n,1
, la relation precedente secrit :
f
A
: x R
n
y R
m
Ax
Proposition 2.22
Soient A une matrice de format mn et f
A
lapplication lineaire associee `a la matrice A, alors
Ker(f
A
) = N(A) ;
Im(f
A
) = R(A) ;
le rang de lapplication lineaire f
A
est egal au rang de la matrice A .
AJ.Casadevall -oct 2004 p.33
CHAPITRE 2. CALCUL MATRICIEL
2.4.2 Representation matricielle des elements de R
n
R
n
peut etre muni dune autre base que la base canonique ; aussi on generalise les notions
developpees en 2.3 au cas dune base quelconque.
Denition 2.15
Une base B
n
= b
1
, , b
n
de R
n
etant xee, on represente les element de R
n
par la matrice-
colonne de leurs composantes suivant B
n
:
si x =
n

i=1
x
i
b
i
, x est represente par la matrice-colonne [x]
B
n
=
_

_
x
1
x
2
.
.
.
x
n
_

_
La matrice [x]
B
n
depend du choix de la base B
n
comme le montre le resultat suivant :
Denition 2.16 - Matrice de passage
Supposons R
n
muni de deux bases B
n
= b
1
, , b
n
et B

n
= b

1
, , b

n
.
On appelle matrice de passage de la base B
n
`a la base B

n
la matrice carree dordre n, notee
P
B
n
B

n
, dont les colonnes sont constituee des coordonnees des vecteurs de la base B

n
exprimees dans
la base B
n
.
Exemple 2.4.1 :
La famille B = (1, 1), (0, 1) est une base de R
2
. La matrice de passage de la base canonique c `a
la base B est la matrice dordre 2 :
_
1 0
1 1
_
Proposition 2.23 - Formule de changement de base
Supposons R
n
muni de deux bases B
n
= b
1
, , b
n
et B

n
= b

1
, , b

n
, alors pour tout x R
n
:
[x]
B
n
= P
B
n
B

n
[x]
B

n
Dans le conteste du passage dune ancienne base vers une nouvelle base, on remarquera que
les anciennes coordonnees sexpriment en fonction de la matrice de passage et des nouvelles
coordonnees.
2.4.3 Representation matricielle des applications lineaires
Denition 2.17 - Matrice dune application lineaire
Soit f une application lineaire de R
n
dans R
m
et supposons choisies une base
B
n
= b
1
, b
2
, , b
n
pour R
n
et une base B
m
pour R
m
.
On appelle matrice de f dans les base B
n
et B
m
la matrice [f]
B
n
B
m
de format (m, n) dont les
colonnes sont formee des coordonnees dans B
m
des images f(b
j
) des elements de la base B
n
:
[f]
B
n
B
m
= [ [f(b
1
)]
B
m
[f(b
2
)]
B
m
[f(b
n
)]
B
m
]
Notation 2.2
Si m = n et si on muni R
n
dune base unique B
n
, la matrice [f]
B
n
B
n
est notee [f]
B
n
.
Lorsque R
n
et R
m
sont munis chacun de leur base canonique, on omet la mention de la base.
Exemple 2.4.2 : Rotation du plan
Le plan geometrique est modelise par R
2
rapporte `a sa base canonique e
1
= (1, 0), e
2
= (0, 1).
On sait que la rotation 1

de centre O et dangle est un endomorphisme de R


2
. Pour determiner
la matrice de 1

, on calcule les images des vecteurs de la base :


1

(e
1
) = (cos , sin ) et 1

(e
2
) = (sin , cos )
p. 34 AJ.Casadevall - oct 2004
2.4. MATRICES ET APPLICATIONS LIN

EAIRES
Donc la matrice de 1

est :
[1

] =
_
cos sin
sin cos
_
Proposition 2.24
Soit A une matrice de format m n et f
A
lapplication lineaire de R
n
dans R
m
canoniquement
associee `a la matrice A. On suppose R
n
et R
m
munis de leur base canonique. Alors, [f
A
] = A.
Theor`eme 2.5 Soit f une application lineaire de R
n
muni dune base B
n
dans R
m
muni dune
base B
m
. Alors,
y = f(x) se traduit matriciellement par : [y]
B
m
= [f]
B
n
B
m
[x]
B
n
Proposition 2.25 - Formule de changement de base pour les matrices
Supposons R
m
muni de deux bases B
m
= f
1
, f
2
, , f
m
et B

m
= f

1
, f

2
, , f

m
, et soit P
B
m
B

m
la matrice de passage de B
m
`a B

m
.
Supposons R
n
muni de deux bases B
n
= e
1
, e
2
, , e
n
et B

n
= e

1
, e

2
, , e

n
, , et soit P
B
n
B

n
la
matrice de passage de B
m
`a B

m
. .
Soit f une application lineaire de R
n
dans R
m
, alors les matrices de f verient la relation :
[f]
B

n
B

m
= P
1
B
m
B

m
[f]
B

n
B

m
P
B
n
B

n
2.4.4 Matrices semblables
Denition 2.18 - Matrices semblables
Deux matrices carrees A et B sont semblables si et seulement si il existe une matrice inversible P
telle que B = P
1
AP
Proposition 2.26
La relation les matrices A et B sont semblables est une relation dequivalence de /
n
(K).
Proposition 2.27
Soit f un endomorphisme de R
n
, si B et B

sont deux bases de R


n
, alors [f]
B
et [f]
B
sont
semblables.
Reciproquement si deux matrices carrees A et B sont semblables on peut interpreter A et B comme
les matrices dun meme endomorphisme de R
n
exprime dans deux bases dierentes.
Proposition 2.28
Soient A et B deux matrices semblables, alors A et B ont meme rang.
AJ.Casadevall -oct 2004 p.35
CHAPITRE 2. CALCUL MATRICIEL
p. 36 AJ.Casadevall - oct 2004
3
Resolution numerique de syst`emes
lineaires
3.1 Syst`emes lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.2 Representation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.3 Syst`emes triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.4

Etude des solutions dun syst`eme lineaire . . . . . . . . . . . . . . . . . . . 40
3.2 Matrices echelonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Prol dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2

Elements caracteristiques dune matrice echelonnee . . . . . . . . . . . . . . 41
3.2.3 Proprietes des matrices echelonnees . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Syst`emes echelonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Denition et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Variables libres dun syst`eme echelonne - Solutions speciales . . . . . . . . . 43
3.3.3 Resolution dun syst`eme echelonne . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Algorithmes de reduction de Gauss . . . . . . . . . . . . . . . . . . . . . 44
3.4.1 Operations sur les equations dun syst`eme lineaire . . . . . . . . . . . . . . 44
3.4.2 Tableau associe `a un syst`eme lineaire . . . . . . . . . . . . . . . . . . . . . . 45
3.4.3 Matrices gauss-equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.4 Reduction sans echange dun syst`eme dordre n `a la forme triangulaire . . . 46
3.5 Resolution dun syst`eme par reduction `a la forme echelonnee . . . . . . 47
3.5.1 Algorithme de Gauss avec echange . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.2 Proprietes de la matrice initiale deduites de la matrice echelonnee . . . . . 47
3.5.3 Resolution du syst`eme ((o) Ax = b) . . . . . . . . . . . . . . . . . . . . . . 48
3.6 Algorithme de Gauss-Jordan - Syst`emes echelonnes reduits . . . . . . . 48
3.6.1 Matrice echelonnee reduite . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.6.2 Algorithme de reduction de Gauss-Jordan . . . . . . . . . . . . . . . . . . . 49
3.7 Calcul de linverse dune matrice carree . . . . . . . . . . . . . . . . . . . 50
3.7.1 Reduction de syst`emes qui ne dierent que par leur 2
nd
membre . . . . . . 50
3.7.2 Algorithme dinversion de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . 51
3.8 Traduction matricielle des transformations de Gauss . . . . . . . . . . . 52
3.8.1 Proprietes de la base canonique de /
n
. . . . . . . . . . . . . . . . . . . . 52
3.8.2 Transformation
k,i
(a) : l
i
l
i
+a l
k
: matrices de transvection T
k,i
(a) . . 52
3.8.3 Transformation
i
(a) : l
i
a l
i
: matrices-produit T
i
(a) . . . . . . . . . . 53
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
3.8.4 Transformation
ij
: l
i
l
j
: matrices dechange P
i,j
. . . . . . . . . . . . . 53
3.1 Syst`emes lineaires
Dans ce chapitre K designe R ou C. On rappelle quune forme lineaire de K
n
une application
lineaire l de K
n
dans K qui peut secrire comme combinaison lineaire de ses variables :
pour tout i, i = 1, 2, , m, l(x
1
, x
2
, , x
n
) = c
1
x
1
+c
2
x
2
+ +c
n
x
n
3.1.1 Denitions
Un syst`eme lineaire `a m equations et n inconnues est une famille de m equations
f
i
(x
1
, x
2
, , x
n
) = b
i
o` u les f
i
sont des formes lineaires des n inconnues x
1
, x
2
, , x
n
et les
b
i
sont des nombres reels ou complexes.
(o)
_

_
f
1
(x
1
, x
2
, , x
n
) = b
1
f
2
(x
1
, x
2
, , x
n
) = b
1

f
m
(x
1
, x
2
, , x
n
) = b
m
Pour tout i, i = 1, 2, , m l
i
peut secrire comme combinaison lineaire de ses variables :
f
i
(x
1
, x
2
, , x
n
) = a
i1
x
1
+a
i2
x
2
+ +a
1n
x
n
Un syst`eme lineaire a donc la forme :
(o)
_

_
a
11
x
1
+a
12
x
2
+a
1n
x
n
= b
1

a
i1
x
1
+a
ij
x
j
a
in
x
n
= b
i

a
m1
x
1
+a
m2
x
2
+a
mn
x
n
= b
m
Precisons le vocabulaire utilise :
Les nombres a
ij
sont les coecients du syst`eme.
Les nombres b
j
constituent le second membre du syst`eme.
Une solution du syst`eme est un vecteur de K
n
dont les coordonnees (x
1
, x
2
, , x
n
) verient
simultanement les m equations.
Lorsque m < n on dit que le syst`eme est sous-determine.
Lorsque n = m on dit que le syst`eme est un syst`eme lineaire dordre n.
Lorsque m > n on dit que le syst`eme est sur-determine.
3.1.2 Representation matricielle
On interpr`ete pour chaque i, lexpression a
i1
x
1
+ +a
ij
x
j
+ +a
in
x
n
comme le produit de
la matrice-ligne
_
a
i1
a
ij
a
in

par la matrice-colonne
_

_
x
1
.
.
.
x
j
.
.
.
x
n
_

_
.
Si on pose A = [a
ij
]
(i=1, ,m),(j=1, ,n)
, x = [x
j
]
(j=1, ,n)
et b = [b
i
]
(i=1, ,m)
, le syst`eme (o) secrit
alors :
(o) Ax = b
p. 38 AJ.Casadevall - oct 2004
3.1. SYST
`
EMES LIN

EAIRES
La matrice A est appelee matrice du syst`eme (o), x est appele vecteur-solution et b vecteur-second-
membre.
Proposition 3.1 - Syst`emes homog`enes
On appelle syst`eme homog`ene un syst`eme dont le second membre est nul :
(H) Ax = O
Un syst`eme homog`ene admet toujours la solution nulle (x = O). Lensemble des solutions de (H)
est le noyau N(A) de A.
Proposition 3.2 - Syst`emes de Cramer
Lorsque le syst`eme (o) Ax = b est un syst`eme dordre n dont la matrice (carree) A est inversible,
le syst`eme est appele syst`eme de Cramer. Alors (o) admet la solution unique x = A
1
b.
3.1.3 Syst`emes triangulaires
On appelle syst`eme triangulaire un syst`eme dont la matrice est triangulaire.
Exemple 3.1.1 :
Considerons le syst`eme suivant :
(T )
_
_
_
1 x
1
+2x
2
x
3
= 2 (e
1
)
2 x
2
2x
3
= 0 (e
2
)
3 x
3
= 3 (e
3
)
Cest un syst`eme triangulaire dont la matrice est une matrice superieure. Pour le resoudre nous
allons eectuer un calcul en cascade remontante ou back substitution :
de lequation (e
3
) on deduit x
3
= 1 que lon reporte dans lequation (e
2
) ;
lequation (e
2
) se reecrit : 2x
2
= 0 + 2, on deduit x
2
= 1 et on reporte dans lequation (e
1
)
les valeurs de x
2
et de x
3
, do` u x
1
= 2 2 + 1 = 1 ;
Le resolution a ete possible car dans chaque equation, le coecient de linconnue dont on calcule la
valeur (coecient diagonal) est dierent de zero. Ce mode de resolution se generalise sans peine :
Proposition 3.3 - Resolution numerique dun syst`eme triangulaire
Soit ((T ) Tx = b) un syst`eme triangulaire dordre n tel que les coecients diagonaux de la matrice
T sont tous dierents de zero.
Alors (T ) admet une solution unique obtenue par substitution par lun des deux algorithmes suiv-
ants :
lorsque T est triangulaire superieure - algorithme de back substitution
x
n
=
b
n
t
nn
;
pour k decroissant de n 1 `a 1
x
k
=
1
t
kk
n

j=k+1
t
kj
x
j
;
lorsque T est triangulaire inferieure - algorithme de forward substitution
x
1
=
b
n
t
11
;
pour k croissant de 2 `a n
x
k
=
1
t
kk
k1

j=1
t
kj
x
j
;
AJ.Casadevall -oct 2004 p.39
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
Exemple 3.1.2 : Famille echelonnee delements de R
n
Une famille A = x
1
, x
2
, , x
p
de p elements de R
n
est strictement echelonnee si les x
i
sont
de la forme suivante :
x
1
= (x
11
, 0, , 0), x
2
= (x
21
, x
22
, 0, , 0), , x
p
= (x
p1
, x
p2
, , x
pp
, 0, , 0)
pour i = 1, , p, x
ii
,= 0 et pour j i, x
ij
= 0
On montre facilement que :
le cardinal dune famille strictement echelonnee de R
n
est inferieur ou egal `a n;
une famille strictement echelonnee est une famille libre.
Pour le second point, il sut de remarquer que la resolution de lequation vectorielle
p

i=1
c
i
x
i
= 0
conduit ` a un syst`eme homog`ene triangulaire dont les coecients diagonaux sont tous dierents de
zero.
Une famille de R
n
est echelonnee si elle est `a un changement de lordre de ses elements pr`es, une
sous-famille dune famille strictement echelonnee.
Une famille de R
n
est quasi-echelonnee si elle est `a un changement de lordre des vecteurs de la
base de R
n
pr`es, une famille strictement echelonnee.
On deduit de ce qui prec`ede que le cardinal une famille echelonnee ou quasi-echelonnee de R
n
est
inferieur ou egal `a n et quune famille echelonnee ou quasi-echelonnee est libre.
3.1.4

Etude des solutions dun syst`eme lineaire
On revient au cas general dun syst`eme lineaire quelconque ((o) Ax = b) ` a m equations et n
inconnues .
Denition 3.1 - Syst`eme homog`ene associe `a un syst`eme lineaire
On appelle syst`eme homog`ene associe au syst`eme ((o) Ax = b), le syst`eme homog`ene (Ax = O)
Theor`eme 3.1
Un syst`eme ((o) Ax = b) admet une solution, au moins, si et seulement si b R(A) (R(A) designe
limage de A et est le sous-espace de K
n
engendre par les colonnes de A).
Supposons que le syst`eme (o) admet une solution x
0
, alors :
ou bien x
0
est lunique solution de (o), alors le syst`eme homog`ene associe (Ax = O) admet
la solution x = O pour unique solution ; reciproquement si (Ax = O) na dautre solution
que la solution nulle x = 0 alors (o) admet une unique solution ;
ou bien (o) admet une autre solution que x
0
, alors (o) admet une innite de solutions qui
sont toutes de la forme :
x = x
0
+ x
N
o` u x
N
est une solution de lequation homog`ene Ax = 0, cest ` a dire un element du noyau
N(A) de A.
3.2 Matrices echelonnes
3.2.1 Prol dune matrice
Denition 3.2 - Lignes nulles
Soit A une matrice de format (mn) on dit que la ligne i de la matrice A est nulle lorsque tous
les coecients de la ligne i sont nuls i.e. j = 1, 2, , n, a
ij
= 0.
p. 40 AJ.Casadevall - oct 2004
3.2. MATRICES

ECHELONN

ES
Exemple 3.2.1 :
La ligne 1 de la matrice suivante est une ligne nulle :
A =
_
_
0 0 0 0
1 2 3 4
0 1 0 4
_
_
Denition 3.3 - Prol dune matrice
Soit A une matrice de format (m, n). On denit une application : [1..m] N par :
_
_
_
si la ligne i est non nulle (i) = infj [1, n] t.q. a
i,j
,= 0
sinon (i) = nb.lignes +i
On appelle prol de la matrice la suite nie (i)
i=1, ,m
.
Denition 3.4 - Matrice echelonnee
Une matrice est echelonnee lorsque son prol est une suite strictement croissante.
Exemple 3.2.2 :
Le prol de la matrice A de lexemple precedent est (4, 1, 2) ; A nest donc pas echelonnee.
3.2.2

Elements caracteristiques dune matrice echelonnee
Denition 3.5 - Pivots dune matrice echelonnee
Soit U une matrice echelonnee de format (m, n). On appelle pivots de U les elements de U de
la forme u
i,(i)
tels que (i) n. On appelle ligne-pivot respectivement colonne-pivot, une ligne
respectivement une colonne qui comporte un pivot.
Exemple 3.2.3 :
Soit
U =
_
_
1 2 3 4
0 0 2 2
0 0 0 0
_
_
Le prol de U est (1, 3, 5) ; U est donc une matrice echelonnee.
Ses pivots sont u
1,1
= 1 et u
2,3
= 2. Les colonnes-pivot sont les colonnes 1 et 3. Les lignes 1 et 2
sont les lignes-pivot ; la ligne 3 est une ligne nulle.
Proposition 3.4
Soit T une matrice triangulaire dont tous les termes diagonaux sont dierents de zero. Alors,
le prol de T est 1, 2, , n et T est une matrice echelonnee dont les pivots sont les termes
diagonaux.
Proposition 3.5
Soit U une matrice-echelonnee de format (m, n), alors :
il y a au plus un pivot par ligne ;
il y a au plus un pivot par colonne ;
nb. pivots = nb. lignes-pivot = nb. colonnes-pivot ;
le nombre de pivots est inferieur ou egal ` a min(m, n) ;
une ligne est une ligne-pivot ou une ligne nulle.
AJ.Casadevall -oct 2004 p.41
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
3.2.3 Proprietes des matrices echelonnees
En raison de leur structure, un certain nombre de caracteristiques, rang et dimension du noyau,
par exemple, se lisent directement sur une matrice-echelonnee.
Theor`eme 3.2
Soit U une matrice echelonnee de format (m, n), alors :
lensemble des colonnes-pivots constitue une base de R(U) ;
rg(U) = dim R(u) = nb. pivots ;
dim N(U) = n - nb. pivots ;
lensemble des lignes-pivots constitue une base de lespace des lignes de U (qui est lespace-
image R(U
T
) de U
T
) :
rg(U
T
) = dim R(U
T
) = nb. pivots
Proposition 3.6 - Prop de dualite pour les matrice echelonnees
Soit U une matrice echelonnee de format (m, n), alors :
rg(U) = nb.pivots = rg(U
T
)
3.3 Syst`emes echelonnes
3.3.1 Denition et exemple
Denition 3.6
Un syst`eme echelonne ((|) Ux = b) est un syst`eme lineaire dont la matrice U est une matrice
echelonnee.
La resolution de ces syst`emes est relativement simple comme le montre lexemple ci-dessous :
Exemple 3.3.1 :
Resolvons le syst`eme echelonne ci-dessous en cherchant les solutions sous la forme x = x
0
+x
N
o` u
x
0
est une solution particuli`ere et x
N
une solution du syst`eme homog`ene associe.
_
x
1
+2x
2
+3x
3
+4x
4
= 4
+2x
3
+2x
4
= 2
dont la matrice est : U =
_
1 2 3 4
0 0 2 2
_
Le syst`eme peut etre reecrit en faisant passer les inconnues x
2
et x
4
dans la membre de droite :
_
1 x
1
+3x
3
= 4 2x
2
4x
4
2 x
3
= 2 2x
4
Toute solution du syst`eme est determinee par la donnee dune valeur pour x
2
R et pour x
4
R :
x
2
et x
4
sont les variables-libres du syst`eme. De meme, les variables x
1
et x
3
associees aux pivots
du syst`eme, sont appelees variables-pivots.
Pour determiner une solution particuli`ere x
0
du syst`eme, on xe, puisquon en a le choix, x
2
= 0
et x
4
= 0. Le syst`eme devient :
_
1 x
1
+3x
3
= 4
2 x
3
= 2

_

_
x
1
= 1
x
2
= 0
x
3
= 1
x
4
= 0
do` u x
0
=
_

_
1
0
1
0
_

_
On utilise une methode systematique pour determiner une base de U. On cherche des solutions
particuli`eres (appelees solutions speciales) du syst`eme Ux = O en donnant successivement `a
chacune des variables-libres la valeur 1 et la valeur 0 aux autres variables-libres. Dans cet exemple,
il y a deux variables libres, x
2
et x
4
. On a donc deux solutions speciales :
p. 42 AJ.Casadevall - oct 2004
3.3. SYST
`
EMES

ECHELONN

ES
n
1
est obtenue en posant x
2
= 1 et x
4
= 0 ; le syst`eme secrit alors :
_
1 x
1
+3x
3
= 2
2 x
3
= 0

_

_
x
1
= 2
x
2
= 1
x
3
= 0
x
4
= 0
do` u n
1
=
_

_
2
1
0
0
_

_
n
2
est obtenue en posant x
2
= 0 et x
4
= 1 ; le syst`eme secrit alors :
_
+1 x
1
+3x
3
= 4
+2 x
3
= 2

_

_
x
1
= 1
x
2
= 0
x
3
= 1
x
4
= 1
do` u n
2
=
_

_
1
0
1
1
_

_
On obtient ainsi un syst`eme de deux solutions n
1
et n
2
du syst`eme homog`ene Ux = O. Par
construction ces solutions constituent une famille libre de N(U). Dautre part la dimension du
noyau de U verie la relation :
dimN(U) = nb. colonnes de U - rg(U) = nb. colonnes de U - nb. pivots = nb. var. libres = 2
n
1
et n
2
forment donc une base de N(U).
La solution generale du syst`eme donne est donc :
x = x
0
+c
1
n
1
+c
2
n
2
=
_

_
1 2c
1
c
2
c
1
1 c
2
+c
2
_

_
3.3.2 Variables libres dun syst`eme echelonne - Solutions speciales
Denition 3.7
Soit ((|) Ux = b) un syst`eme echelonne ; on appelle variables-libres les variables associees aux
colonnes de U qui ne sont pas des colonnes-pivot. Les colonnes associees aux variables-libres sont
appelees colonnes-libres.
Proposition 3.7
Soit ((|) Ux = b) un syst`eme echelonne.
une colonne de U est une colonne-pivot ou une colonne-libre :
nb. colonnes de U = nb.colonnes-pivot + nb. colonnes-libres
soit u
k
une colonne-libre de U ; alors u
k
est une combinaison lineaire des colonnes-libres
situees ` a sa gauche.
Cest une propriete des syst`emes echelonnes de R
m
.
Denition 3.8 - Solutions speciales
Soit U une matrice echelonnee. Les solutions speciales du syst`eme Ux = O sont les solutions
obtenues en donnant successivement `a chaque variable-libre la valeur 1 et la valeur 0 aux autres
variables-libres.
Proposition 3.8
Les solutions speciales dont le nombre est egal au nombre de variables-libres constituent une base
de N(U) ; donc :
dimN(U) = nb. variables-libres = nb. colonnes-libres.
Toute matrice echelonnee U verie donc la relation :
nb. colonnes de U = dimN(U) +rg(U).
AJ.Casadevall -oct 2004 p.43
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
3.3.3 Resolution dun syst`eme echelonne
Denition 3.9 Syst`eme echelonne compatible
Soit ((|) Ux = b) un syst`eme echelonne ; (|) est compatible si aux lignes nulles de U correspondent
des composantes nulles du second membre b.
Proposition 3.9
Un syst`eme ((|) Ux = b) admet (au moins) une solution si et seulement si il est compatible.
Schema de la resolution
Soit ((|) Ux = b) un syst`eme echelonne :
si (|) est compatible :
1. determiner une solution particuli`ere x
0
en xant toutes les variables-libres ` a 0 ;
2. determiner une base du N(U) : pour chaque variable-libre x
i
, on xe x
i
`a 1 et les autres
variables-libres ` a 0 et soit n
i
la solution correspondante du syst`eme homog`ene Ux = 0 ;
3. la solution generale du syst`eme est alors x = x
0
+

i
c
i
n
i
;
sinon (|) na pas de solution.
3.4 Algorithmes de reduction de Gauss
3.4.1 Operations sur les equations dun syst`eme lineaire
Denition 3.10 - Transformations de Gauss
Les transformations suivantes, eectuees sur les equations dun syst`eme lineaire sont appelees
transformations de Gauss elementaires :

ki
(a) : ajouter ` a lequation e
i
lequation e
k
multipliee par une constante a : e
i
e
i
+a e
k

i
(a) : multiplier lequation e
i
par une constante a non nulle : e
i
a e
i

ij
: echanger les equations e
i
et e
j
: e
i
e
j
On appelle transformation de Gauss la composition dun nombre ni de transformations de
Gauss elementaires.
Denition 3.11 - Syst`emes equivalents, gauss-equivalents
Deux syst`emes sont equivalents sils poss`edent les memes solutions.
Deux syst`emes sont gauss-equivalents si lun se deduit de lautre par une transformation de Gauss.
Proposition 3.10
Les relations (o
1
) et (o
1
) sont deux syst`emes equivalents et (o
1
) et (o
1
) sont deux syst`emes
gauss-equivalents sont des relations dequivalence.
Proposition 3.11
Deux syst`emes Gauss-equivalents sont equivalents.
Une transformation de Gauss elementaire appliquees `a un syst`eme ((o) Ax = b) le transforme en
un syst`eme syst`eme ((o
1
) Bx = c) gauss-equivalent qui poss`ede les memes solutions que le syst`eme
(o) initial.
On en deduit quune transformation de Gauss appliquees `a un syst`eme ((o) Ax = b) le transforme
en un syst`eme ((o
1
) Bx = c) gauss-equivalent qui poss`ede les memes solutions que le syst`eme (o)
initial. 2
Remarquons que deux syst`emes peuvent etre equivalents sans etre gauss-equivalents (il sut de
rajouter des lignes nulles ` a un syst`eme pour obtenir un syst`eme equivalent qui nest pas gauss-
equivalent).
p. 44 AJ.Casadevall - oct 2004
3.4. ALGORITHMES DE R

EDUCTION DE GAUSS
Proposition 3.12
Deux syst`emes gauss-equivalents poss`edent le meme nombre dequations et le meme nombre din-
connues.
3.4.2 Tableau associe `a un syst`eme lineaire
Les operations sur les equations dun syst`eme lineaire concernent la totalite de chaque equation,
second membre compris ; aussi associe-t-on `a chaque syst`eme un tableau appele tableau du
syst`eme obtenu en bordant (en concatenant) la matrice du syst`eme par le second membre.
Exemple 3.4.1 :
Au syst`eme
_
_
_
2x
1
+4x
2
+6x
3
= 34
4x
1
+11x
2
+25x
3
= 101
6x
1
+18x
2
+46x
3
= 180
on associe le tableau
_

_
2 4 6
.
.
. 34
4 11 25
.
.
. 101
6 18 46
.
.
. 180
_

_
Les transformations appliquees aux equation du syst`eme se traduisent en transformations sur
les lignes du tableau :

ki
(a) : ajouter ` a la ligne i la ligne k multipliee par une constante a : l
i
l
i
+a l
k

i
(a) : multiplier la ligne i par une constante a non nulle : l
i
a l
i

ij
: echanger les lignes i et j : l
i
l
j
3.4.3 Matrices gauss-equivalentes
Les transformations sur les lignes du tableau dun syst`eme sappliquent ` a la matrice du syst`eme.
Denition 3.12 - Matrices gauss-equivalentes
Deux matrices sont gauss equivalents lorsque :
elles ont meme nombre de lignes et meme nombre de colonnes ;
lune se deduit de lautre par une suite nie de transformations de Gauss elementaires ap-
pliquees aux lignes de la matrice.
Proposition 3.13
Les matrices de deux syst`emes gauss-equivalents sont gauss-equivalentes.
Proposition 3.14
La relation A et B sont deux matrices gauss-equivalentes est une relation dequivalence.
Proposition 3.15
Soient A et B deux matrices gauss-equivalentes. Alors :
A et B ont meme format ;
A et B ont meme noyau et meme rang ; plus precisement, si a
p
1
, a
p
1
, , a
p
r
o` u (1 p
1
<
p
2
< < p
r
n) est une famille libre de colonnes de A, alors les colonnes b
p
1
, b
p
1
, , b
p
r

de B sont lineairement independantes.


Proposition 3.16
Si U et V deux matrices echelonnees gauss-equivalentes les colonnes-pivot respectivement les
colonnes-libres, de U et V ont ont la meme position (le meme numero de colonne).
AJ.Casadevall -oct 2004 p.45
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
3.4.4 Reduction sans echange dun syst`eme dordre n `a la forme triangulaire
Soit (o) Ax = b un syst`eme dordre n; on utilise une suite nie de transformations
ki
(a) :
l
j
l
j
+a l
i
pour transformer ce syst`eme en un syst`eme triangulaire equivalent :
pour k = 1, 2, , n 1
si (a
(k1)
k,k
,= 0)
pour i = k + 1, , n
l
(k)
i
l
(k1)
i

a
(k1)
i,k
a
(k1)
k,k
l
(k1)
k
sinon fin
(lindice superieur comme dans a
(k1)
kk
indique que cette valeur a ete calculee `a letape k 1 de
lalgorithme)
Exemple 3.4.2 :
Appliquons lalgorithme au syst`eme de lexemple 3.4.1 dont le tableau est :
_

_
2 4 6
.
.
. 34
4 11 25
.
.
. 101
6 18 46
.
.
. 180
_

_
Premi`ere etape :
_

_
2 4 6
.
.
. 34
4 11 25
.
.
. 101
6 18 46
.
.
. 180
_

_
l

2
l
2
2 l
1
l

3
l
3
3 l
1
le tableau devient
_

_
2 4 6
.
.
. 34
0 3 13
.
.
. 33
0 6 28
.
.
. 78
_

_
Deuxi`eme etape :
_

_
2 4 6
.
.
. 34
0 3 13
.
.
. 33
0 6 28
.
.
. 78
_

_
l
3
l

3
2 l

1
le tableau devient
_

_
2 4 6
.
.
. 34
0 3 13
.
.
. 33
0 0 2
.
.
. 12
_

_
Puisqu` a chaque etape nous navons utilise que des transformations de Gauss, le syst`eme triangulaire
resultant :
_
_
_
2x
1
+4x
2
+6x
3
= 34
3x
2
+13x
3
= 33
2x
3
= 12
est equivalent au syst`eme initial.
Sa solution peut etre calculee en utilisant lalgorithme de back substitution c.f. 3.1.1.
Proposition 3.17
Si lalgorithme precedent sexecute au moins jusqu` a letape k (k n 1) incluse, alors pour tout
i = 1, 2, , n et pour tout j, j min(i 1, k), a
(k)
i,k
= 0.
p. 46 AJ.Casadevall - oct 2004
3.5. R

ESOLUTION DUN SYST


`
EME PAR R

EDUCTION
`
A LA FORME

ECHELONN

EE
Theor`eme 3.3
Soit ((o) Ax = b) un syst`eme dordre n, si lalgorithme de Gauss sans echange sexecute
compl`etement alors le syst`eme resultant est un syst`eme triangulaire ((T ) Tx = c) equivalent au
syst`eme initial (o).
Si de plus a
(n1)
n,n
,= 0, alors :
les termes diagonaux de T sont tous dierents de zero et T est inversible ;
det(A) = det(T) =

n
i=1
t
i,i
;
le syst`eme (T ) et donc le syst`eme (o), admettent une solution unique.
Cet algorithme est en fait trop rudimentaire pour la resolution de syst`emes lineaires. puisque ceux-
ci ne sont pas necessairement carres. Il a une certaine importance puisquil est utilise comme on le
verra dans le prochain chapitre, pour factoriser les matrices carrees sous la forme LU o` u L est une
matrice triangulaire inferieure et U une matrice triangulaire superieure.
3.5 Resolution dun syst`eme par reduction `a la forme echelonnee
On consid`ere un syst`eme lineaire (o) Ax = b de m equations ` a n inconnues ; on cherche ` a
transformer (o) en un syst`eme echelonne (|) Ux = c equivalent.
3.5.1 Algorithme de Gauss avec echange
l 1 ; k 1
tant que possible
recherche dun i
0
dans la colonne k tel que a
(k1)
i
0
,k
,= 0 (choix du pivot )
si trouve
si (i
0
,= l)
l
(k1)
i
0
l
(k1)
l
pour i = l + 1, , n
l
(k)
i
l
(k1)
i

a
(k1)
i,k
a
(k1)
l,k
l
(k1)
l
passer `a la ligne suivante (l l + 1)
passer `a la colonne suivante (k k + 1)
Lors de la reduction de grands syst`emes, le choix de la ligne-pivot a une incidence sur la precision
du resultat. On montre que le choix de i
0
tel que [a
ki
0
[ = max[a
kj
[ pour j = k, , n est un bon
choix.
Theor`eme 3.4
Soit ((o) Ax = b) un syst`eme lineaire de m equations ` a n inconnues. Alors le syst`eme resultant
de lapplication de lalgorithme de Gauss avec echange est un syst`eme echelonne ((|) Ux = c)
equivalent au syst`eme initial.
3.5.2 Proprietes de la matrice initiale deduites de la matrice echelonnee
Proposition 3.18
Soit U la matrice echelonnee obtenue en appliquant au syst`eme ((o) Ax = b) lalgorithme de Gauss
avec echange. Alors :
A et U sont gauss-equivalentes .
Ux = O Ax = O et N(A) = N(U) ;
dim R(A) = dim R(U) = nb.pivots de U et donc rg(U) = rg(A) ;
les colonnes de A de meme indice que les colonnes-pivot de U forment une base de R(A).
AJ.Casadevall -oct 2004 p.47
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
Theor`eme 3.5 - Theor`eme des dimensions
Soit A une matrice de format (m, n), alors
nb. colonnes de A = dimN(A) +rg(A)
En eet rg(A) = nb.pivots de U et dimN(A) = nb.variable-libres de U.
Theor`eme 3.6 - Propriete de dualite
Soit A une matrice de format (m, n), alors
rg(A) = rg(A
T
)
En eet rg(A) = nb.pivots de U, de meme rg(A
T
) = nb.pivots de U
T
et nb.pivots de U =
nb.pivots de U
T
3.5.3 Resolution du syst`eme ((o) Ax = b)
On sait que si le syst`eme (o) admet une solution x
0
, les solutions de (o) sont la somme dune
solution particuli`ere x
0
de Ax = b et dune solution de Ax = 0 donc de Ux = 0 puisque N(A) =
N(U).
Schema de la resolution
1. Completer le matrice A du syst`eme par le second membre.
2. Reduire le tableau ` a la forme echelonnee Ux = c.
3. Si le syst`eme reduit est compatible
(a) xer les variables libres ` a 0 et determiner une solution particuli`ere de Ux = c donc de
Ax = b
(b) Determiner les solutions speciales n
i
du syst`eme Ux = 0.
(c)

Ecrire la solution generale du syst`eme Ax = b sous la forme x = x
0
+

i
c
i
n
i
.
3.6 Algorithme de Gauss-Jordan - Syst`emes echelonnes reduits
On utilise les trois types de transformation de Gauss pour reduire les syst`emes lineaires `a une
forme echelonnee la plus simple possible.
3.6.1 Matrice echelonnee reduite
Denition 3.13
Soit R une matrice de format (mn). R est une matrice echelonnee reduite lorsque :
R est une matrice echelonnee ;
les pivots de R sont tous egaux ` a un et les elements des colonnes-pivot autres que le pivot,
sont nuls..
Un syst`eme echelonne reduit est un syst`eme dont la matrice est echelonnee reduite.
Exemple 3.6.1 :
La matrice suivante est une matrice echelonnee reduite, son prol est (1, 3, 6, 10) :
R =
_

_
1 2 0 4 5 0
0 0 1 2 3 0
0 0 0 0 0 1
0 0 0 0 0 0
_

_
Les pivots sont r
11
= 1, r
2,3
= 1 et r
3,6
= 1 . Les colonnes-pivot sont les colonnes 1, 3 et 6.
p. 48 AJ.Casadevall - oct 2004
3.6. ALGORITHME DE GAUSS-JORDAN - SYST
`
EMES

ECHELONN

ES R

EDUITS
Remarque : !!!
Soit R une matrice une matrice echelonnee reduite. On peut determiner facilement une base du
noyau N(R) ` a partir des colonnes-libres de R.
Prenons pour R la matrice de lexemple precedent.
Le syst`eme Rx = O secrit :
_
_
_
x
1
+2x
2
+4x
4
+5x
5
= 0
x
3
+2x
4
+3x
5
= 0
x
6
= 0
En faisant passer les trois variables libres x
2
, x
4
, x
5
dans le membre de droite, le syst`eme devient :
_
_
_
x
1
= 2x
2
4x
4
5x
5
x
3
= 2x
4
3x
5
x
6
= 0
La solution speciale n
2
associee `a x
2
est obtenue en posant x
2
= 1, x
4
= 0, x
5
= 0 ; la solution
speciale n
4
associee `a x
4
est obtenue en posant x
2
= 0, x
4
= 1, x
5
= 0 ; enn, la solution speciale
n
5
associee `a x
5
est obtenue en posant x
2
= 0, x
4
= 0, x
5
= 1 :
x
1
x
2
x
3
x
4
x
5
x
6
n
2
= ( 2 1 0 0 0 0 )
n
4
= ( 4 0 2 1 0 0 )
n
5
= ( 5 0 3 1 1 0 )
La solution speciale n
i
est donc obtenue en completant loppose de la colonne libre associee `a la
variable libre x
i
par des zero et un 1 place en position i
3.6.2 Algorithme de reduction de Gauss-Jordan
A chaque etape de lalgorithme de Gauss on normalise la ligne du pivot en divisant celle-ci
par le pivot correspondant, puis on reduit les lignes situees au dessus et au dessous de la ligne du
pivot :
l 1 ; k 1
tant que possible
recherche dun i
0
dans la colonne k tel que a
(k1)
i
0
,k
,= 0 (recherche du pivot )
si trouv e
si (i
0
,= l)
l
(k1)
i
0
l
(k1)
l
l
(k)
l

1
a
(k1)
l,k
l
(k1)
l
(normalisation )
pour i = 1, , k 1
l
(k)
i
l
(k)
i
a
(k1)
i,k
l
(k1)
k
(elimination termes sup. ou upward elimination )
pour i = l + 1, , n
l
(k)
i
l
(k)
i
a
(k1)
i,k
l
(k1)
k
(elimination termes inf.ou forward elimination )
passer `a la ligne suivante (l l + 1)
passer `a la colonne suivante (k k + 1)
fin de lalgorithme
:
AJ.Casadevall -oct 2004 p.49
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
Theor`eme 3.7
Soit ((o) Ax = b) un syst`eme lineaire de m equations ` a n inconnues. Alors le syst`eme resultant
de lapplication de lalgorithme de Gauss-Jordan est un syst`eme echelonne reduit ((|) Rx = c)
equivalent au syst`eme initial.
Ce syst`eme est unique.
Verions lunicite. Il sut de montrer que si U et V sont deux matrices echelonnees reduites gauss-
equivalentes, alors U = V .
Dapr`es la proposition 3.16, U et V ont meme format et leurs colonnes-pivot ainsi que leurs colonnes-
libres ont le meme numero de colonne. De plus, puisque U et V sont des matrices echelonnees
reduites, leurs colonnes-pivot sont identiques.
Supposons que U et V soient distinctes ; elles di`erent alors par une colonne-libre (au moins)
et soit p le plus petit indice tel que u
p
,= v
p
. Soit

U, respectivement

V , la sous-matrice de U,
respectivement V , obtenue en supprimant les colonnes dindice strictement superieur ` a p et toutes
les colonnes-libres dindice strictement inferieur ` a p (qui sont les memes pour U et V ).

U et

V sont
donc formees des r colonnes-pivot dindice inferieur ` a p de U et de V (ces colonnes sont identiques)
et de la colonne u
p
respectivement de la colonne v
p
. les deux matrices

U et

V , de format (m, r +1),
ont la forme suivante :
r colonnes-pivot
.
.
. u
p

U =
_

_
1 0
.
.
. u
p,1
1
.
.
.
.
.
.
0 1
.
.
. u
p,r
0 0
.
.
. 0

.
.
.
0 0
.
.
. 0
_

_
r colonnes-pivot
.
.
. u
p

V =
_

_
1 0
.
.
. v
p,1
1
.
.
.
.
.
.
0 1
.
.
. v
p,r
0 0
.
.
. 0

.
.
.
0 0
.
.
. 0
_

_
la proposition 3.7 montrant que les m r derni`eres composantes de u
p
et v
p
sont necessairement
nulles : u
p
=

r
k=1
a
i
u
p|i
et v
p
=

r
k=1
b
i
v
p|i
avec pour i = 1 r, u
p|i
= v
p|i
.

U et

V extraites de matrices gauss-equivalentes sont elles-memes gauss-equivalentes puisque les
transformations de Gauss ne modient pas lordre des colonnes.
Notons R la matrice constituee par le r premi`eres colonnes de

U (ou de

V ) et considerons les deux
syst`eme : ((o
1
)Tx = u
p
) et ((o
2
)Tx = v
p
). Le tableau du syst`eme (o
1
) nest autre que la matrice

U et celui de (o
2
), la matrice

V . les matrices

U et

V sont gauss-equivalentes, les syst`emes (o
1
) et
(o
2
) le sont donc aussi. Ils poss`edent donc les memes solutions. On en deduit que pour i = 1 r,
u
p,i
= v
p,i
et donc que u
p
= v
p
. 2
3.7 Calcul de linverse dune matrice carree
3.7.1 Reduction de syst`emes qui ne dierent que par leur 2
nd
membre
Les algorithmes precedents ne dependent en fait que de la matrice du syst`eme et pas du second
membre. Aussi, il est possible de resoudre simultanement plusieurs syst`emes qui ne di`erent
que par leur second membre en completant le tableau du syst`eme par les dierents seconds
membres.
Exemple 3.7.1 :
p. 50 AJ.Casadevall - oct 2004
3.7. CALCUL DE LINVERSE DUNE MATRICE CARR

EE
Pour resoudre les deux syst`emes
_
_
_
2x
1
+4x
2
+6x
3
= 34
4x
1
+11x
2
+25x
3
= 101
6x
1
+18x
2
+46x
3
= 180
et
_
_
_
2x
1
+4x
2
+6x
3
= 128
4x
1
+11x
2
+25x
3
= 301
6x
1
+18x
2
+46x
3
= 80
on formera le tableau :
_

_
2 4 6
.
.
. 34
.
.
. 128
4 11 25
.
.
. 101
.
.
. 301
6 18 46
.
.
. 180
.
.
. 80
_

_
Proposition 3.19 - Calcul de linverse dune matrice carree
Soit A une matrice carree dordre n. Soit c
n
= e
1
, e
2
, , e
n
la base canonique de R
n
. Si les n
syst`emes lineaires ((o
i
) Ax = e
i
) ont une solution, alors A est inversible.
En eet, pour i = 1, , n, notons b
i
la solution du syst`eme ((o
i
) Ax
i
= e
i
). On a Ab
i
= e
i
, donc
pour i = 1, , n, e
i
appartient ` a R(A) ; donc dim R(A) = n et dim N(A) = 0.
3.7.2 Algorithme dinversion de Gauss-Jordan
On cree un tableau ` a n lignes et 2n colonnes en bordant la matrice A par la matrice I
n
:
_

_
a
1,1
a
1,n
.
.
. 1 0

.
.
. 1
a
n,1
a
n,n
.
.
. 0 1
_

_
on lui applique lalgorithme de Gauss-Jordan (c.f. 3.6.2) pour transformer le tableau initial en un
tableau dont le bloc gauche est lidentite :
_

_
1 0
.
.
. b
1,1
b
1,n
1
.
.
.
0 1
.
.
. b
n,1
b
n,n
_

_
Theor`eme 3.8
Soit A /
n
(K) et soit une transformations de Gauss telle que (A) = I
n
. Alors A est inversible
et A
1
= (I
n
)
Soit est une transformation de Gauss quelconque, =
p

p1

1
o` u pour i = 1, , p,

i
est une transformation de Gauss elementaire.
On montrera dans la section suivante que pour toute transformation de Gauss elementaire ,
(A) = (I
n
)A.
Supposons ce resultat acquis, alors :
(A) = (
p

p1

2

1
)(A)

p

p1

2
(
1
(A))

p

p1

2
(
1
(I
n
)A)

p

p1
(
2
(I
n
)(
1
(I
n
)A))

p

p1
(
2
(I
n
)
1
(I
n
)A)

p
(I
n
)
p1
(I
n
)
2
(I
n
)
1
(I
n
)A
AJ.Casadevall -oct 2004 p.51
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
On pose B =
p
(I
n
)
p1
(I
n
)
1
(I
n
) alors BA = I
n
; on en deduit (c.f. 2.12) que A est inversible
et que A
1
= B. 2
3.8 Traduction matricielle des transformations de Gauss
3.8.1 Proprietes de la base canonique de /
n
On rappelle que pour i = 1, , n et j = 1, , n, E
ij
designe la matrice carree dordre n telle
que :
(E
i,j
)
lk
=
_
0 si i ,= i ou si k ,= j
1 si i = i et k = j
Proposition 3.20
Alors :
la famille E
i,j
i = 1 , n, j = 1, , n est une base de /
n
(c.f. 2.3)
soit A une matrice carree dordre n, alors E
i,j
A est la matrice carree dordre n dont toutes
les lignes sont nulles ` a lexception la ligne i qui est egale ` a a

j
, j
i` eme
ligne de A : (E
i,j
A)

i
= a

j
.
E
i,j
A =
_

_
0 0
.
.
.
0 0
a

j
0 0
.
.
.
0 0
_

_
1
i
n
(a

i
designe la i
i` eme
ligne de A )
pour tout i = 1 , n, pour tout j = 1, , n, pour tout k = 1 , n et pour tout l = 1, , n,
E
i,j
E
k,l
=
k
j
E
i,l
3.8.2 Transformation
k,i
(a) : l
i
l
i
+a l
k
: matrices de transvection T
k,i
(a)
Denition 3.14
On appelle matrice elementaire delimination ou de transvection une matrice T
k,i
(a) carree
dordre n dont la forme est :
T
k,i
(a) = I
n
+a E
i,k
=
col. k
_

_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 a 1 0 0
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1
_

_
ligne k
ligne i
p. 52 AJ.Casadevall - oct 2004
3.8. TRADUCTION MATRICIELLE DES TRANSFORMATIONS DE GAUSS
Proposition 3.21
T
k,i
(a) est une matrice triangulaire dordre n dont tous les termes diagonaux sont egaux ` a
un ; elle est inversible et T
ki
(a)
1
= T
ki
(a).
T
k,i
(a)A est la matrice deduite de la matrice A par loperation l
i
l
i
+a l
k
.
pour tout A /
n
, T
k,i
(a)A = (T
k,i
(a)I
n
)A donc
k,i
(a)(A) = (
k,i
(a)I
n
)A.
3.8.3 Transformation
i
(a) : l
i
a l
i
: matrices-produit T
i
(a)
Denition 3.15
On appelle matrice-produit une matrice T
i
(a) carree dordre n dont la forme est :
T
i
(a) = I
n
+ (a 1)E
i,i
=
col i
_

_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 0 a 0 0
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1
_

_
ligne i
Proposition 3.22
si a ,= 0, T
i
(a) est une matrice carree, inversible et T
i
(a)
1
= T
i
(1/a).
T
i
(a)A est la matrice deduite de la matrice A par multiplication de la ligne i par a.
pour tout A /
n
, T
i
(a)A = (T
i
(a)I
n
)A donc
i
(a)(A) = (
i
(a)I
n
)A.
3.8.4 Transformation
ij
: l
i
l
j
: matrices dechange P
i,j
Denition 3.16
On appelle matrice dechange ou matrice de permutation une matrice P
i,j
carree dordre n
dont la forme est :
P
i,j
= I +E
i,j
+E
j,i
E
i,i
E
,j
=
col i col j
_

_
1 0 0
0 1
.
.
.
0 1
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
0 1 0
.
.
. 1 0
0 0 1
_

_
ligne i
ligne j
Proposition 3.23
P
i,j
est une matrice carree, inversible et P
1
i,j
= P
i,j
;
P
ij
A est la matrice deduite de la matrice A par echange des lignes i et j.
pour tout A /
n
, P
i,j
A = (P
i,j
I
n
)A donc
ij
(A) = (
ij
I
n
)A.
AJ.Casadevall -oct 2004 p.53
CHAPITRE 3. R

ESOLUTION NUM

ERIQUE DE SYST
`
EMES LIN

EAIRES
p. 54 AJ.Casadevall - oct 2004
4
Factorisation LU et applications
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.1 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.2 Interet dune telle factorisation . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2 Factorisation LU et algorithme de Gauss . . . . . . . . . . . . . . . . . . 57
4.2.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Matrices triangulaires normalisees . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.3 Matrices delimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.4 Factorisation et algorithme de Gauss sans echange . . . . . . . . . . . . . . 59
4.2.5 Mise en oeuvre de la factorisation LU par lalgorithme de Gauss . . . . . . 60
4.2.6 Une condition necessaire et susante de factorisation . . . . . . . . . . . . 61
4.2.7 Factorisations LDV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3 Cas des matrices symetriques - Factorisation de Cholesky . . . . . . . . 62
4.3.1 Factorisation LDL
T
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3.2 Matrices denies-positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3.3 Factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4 Factorisation PA = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.1 Matrices dechange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.2 Theor`eme de factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.3 Prncipe de la mise en oeuvre de la factorisation . . . . . . . . . . . . . . . 65
Dans tout ce chapitre A designe une matrice carree dordre n.
4.1 Introduction
4.1.1 Factorisation LU
Denition 4.1
Soit A une matrice carree dordre n. On dit que A admet une factorisation LU sil existe :
une matrice L triangulaire inferieure dont tous les termes diagonaux sont egaux ` a un
(l
i,i
= 1) ;
une matrice triangulaire superieure U inversible ;
telles que :
A = LU
CHAPITRE 4. FACTORISATION LU ET APPLICATIONS
Theor`eme 4.1
Soit A une matrice carree dordre n. Supposons que A admet une factorisation A = LU, alors :
A est inversible ;
la factorisation lorsquelle possible, est unique.
A est le produit de deux matrices inversibles :
U est inversible par denition ;
L est une matrice triangulaire inferieure dont tous les termes diagonaux sont egaux ` a un,
alors det(L) = 1 et L est inversible ;
Supposons que A admet deux factorisations : A = L
1
U
1
= L
2
U
2
. Puisque toutes les matrices qui
apparaissent dans cette relation sont inversibles, on a : L
1
2
L
1
= U
2
U
1
1
o` u :
L
1
2
L
1
est une matrice triangulaire inferieure dont tous les termes diagonaux sont egaux ` a
un ;
U
2
U
1
1
est une matrice triangulaire superieure.
B = L
1
2
L
1
= U
2
U
1
1
est donc une matrice triangulaire simultanement inferieure et superieure. B
est donc une matrice diagonale. Tous ses termes diagonaux sont egaux ` a un ; B est donc la matrice
identite. On en deduit que L
1
= L
2
et U
1
= U
2
. 2
Lexemple de la matrice A =
_
0 1
1 1
_
montre quune matrice peut etre inversible sans quelle
admette une factorisation LU. La condition A inversible nest donc pas une condition necessaire
et susante de factorisation LU.
4.1.2 Interet dune telle factorisation
La factorisation LU dune matrice carree A est, on va le voir dans la prochaine section,
lequivalent matriciel de lalgorithme de reduction de Gauss et la matrice U lorsque la factori-
sation existe, est la matrice reduite. La factorisation LU est un moyen de memoriser la reduction
de A et si elle est connue, elle simplie la resolution de syst`emes lineaires de matrice A :
Proposition 4.1 Soit A une matrice carree admettant une factorisation LU, alors :
Ax = b
_
Ly = b
Ux = y
La resolution du syst`eme Ax = b dont le co ut est en n
3
/3 est remplacee par la resolution de deux
syst`emes triangulaires dont le co ut est en n
2
/2. Une situation particuli`erement interessante est
celle o` u on doit resoudre une succession de syst`emes ne dierents que par leur second membre. Par
exemple, on souhaite construire une suite (x
n
) delements de R
n
denis par :
_
_
_
x
0
donne
b
k
= f(x
k1
)
x
k
solution du syst`eme (o
k
) Ax
k
= b
k
Une resolution simultanee des syst`emes (o
k
) nest pas possible puisque les b
n
ne sont pas connus
en meme temps. Si A admet une factorisation LU, la situation est beaucoup plus favorable :
_

_
x
0
donne
b
k
= f(x
k1
)
Ly
k
= b
k
Ux
k
= y
k
p. 56 AJ.Casadevall - oct 2004
4.2. FACTORISATION LU ET ALGORITHME DE GAUSS
4.2 Factorisation LU et algorithme de Gauss
Les matrices triangulaires inferieures (ou superieures) dont tous les termes diagonaux sont egaux
`a un jouent un r ole particuli`erement important dans ce chapitre. On va preciser leurs proprietes
dans le paragraphe ci-apr`es.
4.2.1 Un exemple
Reprenons la matrice de lexemple 3.4.2 :
A =
_
_
2 4 6
4 11 25
6 18 46
_
_
On a vu que lon peut obtenir une matrice U triangulaire superieure gauss-equivalente ` a A au
moyen de lalgorithme de Gauss sans echange :
Premi`ere etape :
_
_
2 4 6
4 11 25
6 18 46
_
_
l

2
l
2
2 l
1
l

3
l
3
3 l
1
la matrice devient
_
_
2 4 6
0 3 13
0 6 28
_
_
Deuxi`eme etape :
_
_
2 4 6
0 3 13
0 6 28
_
_
l
3
l

3
2 l

1
la matrice devient
_
_
2 4 6
0 3 13
0 0 2
_
_
En utilisant les notations du chapitre precedent,
U =
2,3
(2)
1,3
(3)
1,2
(2)(A)
ou matriciellement :
U = T
2,3
(2)T
1,3
(3)T
1,2
(2)A = EA avec E = T
2,3
(2)T
1,3
(3)T
1,2
(2)
Les matrices T
2,3
sont des matrices triangulaires inferieures dont tous les termes diagonaux sont
egaux ` a un : E est don une matrice triangulaire inferieure dont tous les termes diagonaux sont
egaux ` a un. On a donc determine la factorisation LU de a : A = E
1
U.
4.2.2 Matrices triangulaires normalisees
Denition 4.2 On appelle matrice triangulaire inferieure (resp. superieure) normalisee dordre
n une matrice triangulaire inferieure (resp. superieure) dordre n dont tous les termes diagonaux
sont egaux ` a un.
Proposition 4.2 - Proprietes des matrices triangulaires normalisees
soient T
1
et T
2
deux matrices triangulaires normalisees du meme type (inferieur ou superieur)
alors T
1
T
2
est une une matrice triangulaire normalisee de meme type ;
soit T une matrice triangulaire normalisee dordre n, alors T est inversible et son inverse est
une matrice triangulaire normalisee de meme type que T ;
lensemble des matrices triangulaires normalisees inferieures (resp. superieures) dordre n
constitue un groupe multiplicatif.
AJ.Casadevall -oct 2004 p.57
CHAPITRE 4. FACTORISATION LU ET APPLICATIONS
4.2.3 Matrices delimination
On a deni dans le chapitre precedent les matrices delimination elementaires ou de transvection
T
k,j
(a) (k ,= i) dont on rappelle les proprietes :
pour k ,= i, T
k,i
(a) = I
n
+aE
i,k
est une matrice triangulaire normalisee dordre n :
k
_

_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 a 1 0 0
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1
_

_
k
i
T
k,i
(a)A est la matrice deduite de la matrice carree A par loperation l
i
l
i
+a l
k
pour k ,= i, T
k,i
(a) est inversible et (T
k,i
(a))
1
= T
k,i
(a).
Proposition 4.3
Pour k ,= i et k ,= j, T
k,i
(a)T
k,j
(b) = T
k,j
(b)T
k,i
(a) est a la forme suivante :
k
_

_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 a 1 0 0
0 b
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1
_

_
k
i
j
Matrices delimination
La derni`ere propriete des matrices de transvection se generalise sons diculte :
Proposition 4.4
La matrice

n
j=k+1
T
k,j
(a
j
) a la forme particuli`erement simple suivante :
n

j=k+1
T
k,j
(a
j
) =
k
_

_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 a
k+1
1 0 0
0 a
k+2
0 1 0
.
.
.
.
.
.
.
.
.
0
0 a
n
0 1
_

_
Ce resultat permet de denir les matrices delimination qui traduiront une etape compl`ete de
lalgorithme de reduction de Gauss sans echange :
p. 58 AJ.Casadevall - oct 2004
4.2. FACTORISATION LU ET ALGORITHME DE GAUSS
Denition 4.3 - Matrice delimination dindice k
La matrice E
k
(a
k+1
, a
k+2
, , a
n
) =

n
j=k+1
T
k,j
(a
j
) est appelee matrice delimination dindice
k (ou de letape k si on fait reference ` a lalgorithme de Gauss). Dans la suite, pour alleger les
notations, cette matrice sera notee E
k
.
Proposition 4.5 - Proprietes des matrices delimination
Les matrices delimination E
k
= E
k
(a
k+1
, , a
n
) poss`edent les proprietes suivantes :
la matrice E
k
(a
k+1
, , a
n
) est une matrice triangulaire inferieure normalisee ; les termes
sous-diagonaux non nuls sont ceux de la colonne k qui ont pour valeur a
k+1
, a
k+2
, , a
n
la matrice E
k
(a
k+1
, , a
n
) est inversible et son inverse est encore une matrice delimination
dindice k :
E
k
(a
k+1
, , a
n
)
1
= E
k
(a
k+1
, , a
n
)
la matrice E
k
(a
k+1
, , a
n
)A est une matrice carree dordre n qui se deduit de A en ajoutant
`a chacune des lignes l
j
, (j = k +1, k +2, , n) de A a
j
fois la ligne l
k
; en dautres termes,
le produit ` a gauche par E
k
(a
k+1
, , a
n
) traduit matriciellement la structure algorithmique
qui constitue letape k de lalgorithme de Gauss sans echange :
pour i croissant de k + 1 `a n
l
i
l
i
a
i
l
k
E
k
(a
k+1
, , a
n
) est inversible comme produit des matrices inversibles E
kj
(a
j
). 2
Linverse dune matrice delimination E
k
(a
k+1
, , a
n
) ne se calcule donc pas, on lobtient di-
rectement en changeant les signes des termes sous-diagonaux de la colonne k.
Dans la proposition suivante on calcule le produit de deux matrices delimination dindices
dierents. Ce produit nest pas commutatif.
Proposition 4.6
Si 1 p < q n, alors :
E
p
(a
p+1
, , a
n
)E
q
(b
q+1
, , b
n
) =
p q
_

_
1 0 0 0
0
.
.
.
.
.
.
.
.
. 1
a
p+1
a
p+2
.
.
.
.
.
.
.
.
.
a
q
1
.
.
.
a
q+1
b
q+1
.
.
.
.
.
.
.
.
. 0
0 a
n
b
n
1
_

_
La matrice produit sobtient directement en pla cant ` a la bonne place les colonnes non-nulles
de E
p
etE
q
. La propriete se generalise au cas du produit de plusieurs matrice delimination (` a la
condition de lecrire dans le bon ordre).
4.2.4 Factorisation et algorithme de Gauss sans echange
Soit A une matrice carree dordre n. Supposons qu` a chaque etape k de la reduction de Gauss
sans echange, le coecient a
(k1)
kk
de la matrice A
(k1)
soit dierent de zero, il peut alors etre choisi
AJ.Casadevall -oct 2004 p.59
CHAPITRE 4. FACTORISATION LU ET APPLICATIONS
pour pivot. Les operations eectuees sur les lignes l
k+1
, , l
n
se traduisent matriciellement par le
produit :
A
(k)
= E
k
A
(k1)
Do` u :
A
(n1)
= E
n1
E
1
A
La matrice A
(n1)
est alors une matrice triangulaire superieure dont les termes diagonaux sont les
pivots de la reduction. On note U cette matrice ; U est donc inversible par construction et :
U = E
n1
E
1
A
Les matrices delimination E
k
sont inversibles. La matrice produit E
n1
E
k
E
1
est donc in-
versible comme produit de matrices inversibles, donc :
A = (E
n1
E
1
)
1
U = E
1
1
E
1
n1
U = LU
Les matrices E
1
k
sont des matrices delimination, ordonnees par indice croissant, on peut donner
directement la forme de la matrice L :
les termes diagonaux sont egaux ` a 1 et L est donc inversible ;
les termes sous-diagonaux sont les opposes des coecients de multiplicite (ou coecients
delimination) apparaissant ` a chaque etape de lalgorithme de Gauss :
l
i,j
=
a
(j1)
i,j
a
(j1)
j,j
o` u a
(j1)
j,j
= u
j,j
est le j
i` eme
pivot de lalgorithme de gauss
2
On a montre le theor`eme suivant :
Theor`eme 4.2
Soit A une matrice carree dordre n. Si lalgorithme de Gauss sans echange sexecute compl`etement
et si a
(n1)
n,n
, A admet une factorisation A = LU, cest ` a dire quil existe :
une matrice L triangulaire inferieure normalisee (matrices des opposes des coecients
delimination) ;
une matrice U triangulaire superieure inversible, ses termes diagonaux etant les pivots de
lalgorithme de Gauss.
La factorisation LU de A lorsquelle existe est unique.
4.2.5 Mise en oeuvre de la factorisation LU par lalgorithme de Gauss
La matrice U resulte de lapplication ` a A de lalgorithme de Gauss sans echange. La matrice L
dont on connat la forme a priori est construite au fur et ` a mesure de lexecution de lalgorithme ;
elle ne se calcule pas . . .
Exemple 4.2.1 :
Reprenons la matrice de lexemple 4.2.1 :
A =
_
_
2 4 6
4 11 25
6 18 46
_
_
On initialise L `a I
3
. La matrice U est le resultat de lapplication de lalgorithme de Gauss sans
echange `a A :
p. 60 AJ.Casadevall - oct 2004
4.2. FACTORISATION LU ET ALGORITHME DE GAUSS
Premi`ere etape :
A
(0)
=
_
_
2 4 6
4 11 25
6 18 46
_
_
l

2
l
2
2 l
1
l

3
l
3
3 l
1
L
(1)
=
_
_
1 0 0
2 1 0
3 0 1
_
_
Deuxi`eme etape :
A
(1)
=
_
_
2 4 6
0 3 13
0 6 28
_
_
l
3
l

3
2 l

1
L
(2)
=
_
_
1 0 0
2 1 0
3 2 1
_
_
do` u
U =
_
_
2 4 6
0 3 13
0 0 2
_
_
L =
_
_
1 0 0
2 1 0
3 2 1
_
_
4.2.6 Une condition necessaire et susante de factorisation
Denition 4.4 - Blocs principaux et determinants principaux dune matrice carree
Soit A une matrice carree dordre n, on appelle bloc principal dordre p o` u p n, le bloc
A(1 : p, 1 : p).
On appelle determinant principal dordre p de A le determinant du bloc A(1 : p, 1 : p).
On montre par recurrence sur lordre de la matrice carree A le resultat suivant :
Theor`eme 4.3
Soit A une matrice carree dordre n, une condition necessaire et susante pour que A admette une
factorisation LU est que tous les determinants principaux de A soient dierents de zero.
4.2.7 Factorisations LDV
On peut diviser chacune des lignes de U par le terme diagonal correspondant u
ii
:
U =
_

_
u
11
0 0
0 u
22
0
.
.
.
.
.
.
.
.
.
0
0 0 u
nn
_

_
_

_
1 u
12
/u
11
u
1n
/u
11
0 1 u
23
/u
22
u
2n
/u
22
.
.
.
.
.
.
.
.
.
u
n1n
/u
n1n1
0 0 1
_

_
Proposition 4.7 - Factorisation LDV
Soit A une matrice carree dordre n, admettant une factorisation LU. Alors A admet une factori-
sation A = LDV unique o` u :
L est une matrice triangulaire inferieure normalisee dordre n;
D est une matrice diagonale dordre n inversible, dont les termes diagonaux sont les pivots
de lalgorithme de Gauss (matrice des pivots) ;
V est une matrice triangulaire superieure normalisee dordre n.
Proposition 4.8
Soit A une matrice carree dordre n, admettant une factorisation LU. Alors A
T
admet une fac-
torisation LU (attention : les matrices L et U de la factorisation de A
T
ne sont pas les memes
que celles de la factorisation de A).
AJ.Casadevall -oct 2004 p.61
CHAPITRE 4. FACTORISATION LU ET APPLICATIONS
En eet, A admet alors une factorisation A = LDV ; donc A
T
= V
T
DL
T
avec :
V
T
matrice triangulaire inferieure normalisee ;
D est une matrice diagonale ;
L
T
est une matrice triangulaire superieure normalisee.
A
T
admet donc une factorisation LDV donc une factorisation LU. 2
4.3 Cas des matrices symetriques - Factorisation de Cholesky
4.3.1 Factorisation LDL
T
Proposition 4.9
Soit A une matrice carree symetrique dordre n, admettant une factorisation LU. Alors A admet
une factorisation A = LDL
T
unique o` u :
L est une matrice triangulaire inferieure normalisee dordre n;
D est une matrice diagonale dordre n dont les termes diagonaux sont les pivots de la reduction
de Gauss.
Si la matrice A admet une factorisation A = LU, elle admet une factorisation A = LDV . Puisque
A est symetrique on a donc LDV = (LDV )
T
.donc LDV = V
T
DL
T
. On regroupe les termes
triangulaires superieurs et le termes triangulaires inferieurs :
(V
T
)
1
LD = DL
T
V
1
(V
T
)
1
L est une matrice triangulaire inferieure normalisee ;
L
T
U
1
est une matrice triangulaire superieure normalisee (matrice des pivots de Gauss).
On en deduit que (V
T
)
1
LD et DL
T
V
1
sont toutes deux diagonales et que leurs termes diagonaux
sont ceux de D. Donc :
(V
T
)
1
LD = DL
T
V
1
= D do` u (V
T
)
1
L = L
T
V
1
= I
n
et donc V = L
T
. 2
Proposition 4.10
Soit A une matrice carree symetrique dordre n, admettant une factorisation LU. Supposons que
tous les pivots de A soient strictement positifs. Alors A admet une factorisation A = C
T
C o` u C est
une matrice triangulaire superieure inversible. Ce type de factorisation est appele factorisation
de Cholesky.
Dapr`es le resultat precedent, A se factorise en A = LDL
T
o` u D diagonale est la matrice des pivots
de Gauss. Soit la matrice diagonale telle que
i,i
=

d
i,i
. Alors D = et A = LL
T
.
On pose C = L
T
; C est une matrice triangulaire superieure inversible. A se factorise donc en
A = C
T
C. 2
4.3.2 Matrices denies-positives
Denition 4.5 - Matrice semi-denie-positive, denie-positive
Soit A une matrice carree dordre n.
A est semi-denie-positive lorsque pour tout x de R
n
, x
T
Ax 0.
A est denie-positive si de plus x
T
Ax = 0 x = O.
Proposition 4.11
Soit A une matrice carree dordre n denie-positive. Alors A est inversible.
Un exemple de matrice symetrique denie-positive est donne par les matrices de la forme M
T
M.
p. 62 AJ.Casadevall - oct 2004
4.3. CAS DES MATRICES SYM

ETRIQUES - FACTORISATION DE CHOLESKY


Proposition 4.12 - Matrices de la forme M
T
M
Soit M une matrice quelconque de format m n. Alors la matrice M
T
M poss`ede les proprietes
suivantes :
M
T
M est symetrique ;
M
T
M est semi-denie-positive ;
M
T
M est denie-positive si et seulement si rg(M) = n i.e. si les colonnes de M sont
lineairement independantes (matrice de rang-colonne plein).
4.3.3 Factorisation de Cholesky
Proposition 4.13
Soit A une matrice carree admettant une factorisation de Cholesky, alors A est symetrique denie-
positive.
Theor`eme 4.4
Soit A une matrice symetrique denie-positive dordre n. Alors il existe une matrice C triangulaire
superieure, unique si tous les termes diagonaux de C sont positifs telle que A = C
T
C
Unicite
On peut remarquer que si S admet une factorisation de Cholesky, alors S admet une factori-
sation LDL
T
. En eet, si est la matrice telle que
ii
= c
ii
, est une matrice inversible. On
pose L = C
T

1
et D = . Alors LDL
T
= C
T

1
C = C
T
C = A. Lunicite decoule
de cette remarque. 2
Existence
On proc`ede par recurrence. Dans la suite, on utilisera la notation suivante :
si x
0
designe le vecteur de R
n1
de coordonnees (x
2
, x
n
) et si x
1
R, [x
1
, x
0
] designe le
vecteur de R
n
de coordonnees (x
1
, x
2
, , x
n
).
Supposons que n = 1, alors A (= a R) admet la factorisation A = C
T
C avec C =

a.
Supposons que le theor`eme soit vrai `a lordre n 1 et montrons le `a lordre n :
A peut secrire
A =
_
a l
T
l A
0
_
o` u a R
+
, l R
n1
et o` u A
0
est une matrice symetrique dordre n 1.
De meme, C peut secrire :
C =
_
b m
t
0 C
0
_
o` u m R
n1
et o` u C
0
est une matrice triangulaire superieure `a diagonale positive
dordre n 1. En identiant A et C
T
C, on montre que b, m et C
0
verient les
relations :
_
_
_
b
2
= a
bm = l
C
T
0
C
0
= A
0
mm
T
On pose b =

a et m =
1
b
l, alors pour tout y R
n1
, le vecteur x
y
de R
n
deni
par x
y
= [
1
a
l
T
y, y] verie :
y
t
(A
0
mm
t
)y = x
t
y
Ax
y
AJ.Casadevall -oct 2004 p.63
CHAPITRE 4. FACTORISATION LU ET APPLICATIONS
A
0
mm
t
est donc une matrice symetrique denie positive dordre n
1
.
Dapr`es lhypoth`ese de recurrence, A
0
mm
t
admet donc une factorisation de
Cholesky : il existe une matrice C
0
triangulaire superieure `a diagonale positive dor-
dre n1 telle que C
T
0
C
0
= A
0
mm
T
. Alors A = C
T
C avec C triangulaire superieure
`a diagonale positive. A admet donc une factorisation de Cholesky. 2
Mise en oeuvre
On identie A et le produit C
T
C o` u C est une matrice triangulaire superieure. On en deduit
que ; a
ij
=

min(i,j)
k=1
c
ki
c
kj
. Do` u lalgorithme :
algorithme de Cholesky
pour i = 1, 2, , n
c
ii
=

_
a
ii

j1

k=1
c
2
ik
pour j = 1, , i 1
c
ij
= a
ij

j1

k=1
c
ik
c
jk
fin
4.4 Factorisation PA = LU
La factorisation PA = LU traduit matriciellement lalgorithme de Gauss avec echange des
lignes.
4.4.1 Matrices dechange
Rappelons les proprietes des matrices dechange (ou de permutation)
On appelle matrice dechange ou de permutation les matrices P
ij
carrees dordre n dont la
forme est :
P
ij
=
i j
_

_
1 0 0
0 1
.
.
.
0 1
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
0 1 0
.
.
. 1 0
0 0 1
_

_
i
j
P
ij
A est la matrice deduite de A par echange des lignes i et j
P
ij
est une matrice symetrique, inversible et P
1
ij
= P
ij
si E
i
une matrice delimination et si i < j, alors F
i
= P
ij
E
i
P
ij
est encore une matrice
delimination
4.4.2 Theor`eme de factorisation
On montre par recurrence sur n le theor`eme suivant :
p. 64 AJ.Casadevall - oct 2004
4.4. FACTORISATION PA = LU
Theor`eme 4.5 Soit A une matrice carree inversible dordre n, alors il existe une matrice U tri-
angulaire superieure inversible, une matrice L triangulaire inferieure normalisee et une matrice P
produit de matrices dechange, telles que PA = LU.
Supposons que n = 2.
A =
_
a b
c d
_
si a ,= 0, il ny a pas dechange de lignes, i.e. P = I
2
et
PA =
_
1 0
c
a
1
_ _
a b
0 d
bc
a
_
= LU
si a = 0 et c ,= 0, on echange les deux lignes i.e. P = P
1,2
=
_
0 1
1 0
_
et
PA =
_
c d
0 b
_
=
_
1 0
0 1
_ _
c d
0 b
_
= LU
si a = 0 et c = 0, A =
_
0 b
0 d
_
a un determinant nul.
Supposons le theor`eme vrai pour toute matrice dordre k, 2 k < n et soit A une matrice
carree inversible dordre n. Il existe r, 1 r n tel que a
1,r
,= 0, sinon la premi`ere colonne
de A serait nulle. On echange la ligne 1 et la ligne r et on reduit les lignes 2 ` a n. On a alors :
P
1,r
A =
_
a v
T
u B
_
=
_
1 0
T
1
a
u I
n1
_ _
a v
T
0 C
_
O` u C = B
1
a
uv
T
est une matrice carree dordre n 1 inversible. En eet det(PA) =
det(A) = a det(C).
Par induction on en deduit quil existe une matrice dechange P
1
, une matrice triangulaire
inferieure normalisee L
1
et une matrice triangulaire superieure inversible U
1
dordre n 1
telles que :
P
1
C = L
1
U
1
Alors puisque P
1
P
1
= I
n1
:
P
1,r
A =
_
1 0
T
0 P
1
_ _
1 0
T
1
a
P
1
u L
1
_ _
a v
T
0 U
1
_
Si on pose P =
_
1 0
T
0 P
1
_
P
1,r
, on obtient : PA =
_
1 0
T
1
a
P
1
u L
1
_ _
a v
T
0 U
1
_
= LU 2
4.4.3 Prncipe de la mise en oeuvre de la factorisation
On peut remarquer que lorsquon applique ` a A lalgorithme de Gauss avec echange des lignes,
alors :
`a chaque etape de la reduction, il existe une matrice dechange P
i
et une matrice delimination
E
i
telles que :
si U = E
n1
P
n1
E
n2
P
n2
E
2
P
2
E
1
P
1
A
U est une matrice triangulaire superieure inversible.
on peut reecrire U sous la forme suivante :
U = E
n1
P
n1
E
n2
P
n1
P
n1
P
n2
E
2
P
2
E
1
P
1
A
AJ.Casadevall -oct 2004 p.65
CHAPITRE 4. FACTORISATION LU ET APPLICATIONS
on pose alors :
F
n1
= E
n1
F
n2
= P
n1
E
n2
P
n1
F
n3
= P
n1
P
n2
E
n3
P
n2
P
n1

F
1
= P
n1
P
n2
P
2
P
1
E
1
P
1
P
2
P
n2
P
n1
de telle sorte que la relation precedente devient :
U = F
n1
E

n2
F
2
F
1
AP
n1
P
n2
P
2
P
1
ou
U = F
n1
F
n2
F
2
F
1
AP
1
la matrice produit F
n1
F
n2
F
2
F
1
est inversible comme produit de matrices inversibles,
on pose L = F
1
1
F
1
2
F
1
n2
F
1
n1
p. 66 AJ.Casadevall - oct 2004
5

Elements propres - Reduction des


matrices
5.1 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.1.1 Sommes de sous-espaces dun espace vectoriel E . . . . . . . . . . . . . . . 68
5.1.2 Sommes de sous-espaces de dimension nie . . . . . . . . . . . . . . . . . . 69
5.1.3 Sommes directes et endomorphismes de E . . . . . . . . . . . . . . . . . . . 71
5.2 Determinant dune matrice carree . . . . . . . . . . . . . . . . . . . . . . 71
5.2.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2 Resultats fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.3 R`egles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.4 Determinants et operations matricielles . . . . . . . . . . . . . . . . . . . . 73
5.3

Elements propres, espaces propres . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1

Elements propres dune matrice carree . . . . . . . . . . . . . . . . . . . . . 74
5.3.2

Elements propres dun endomorphisme . . . . . . . . . . . . . . . . . . . . . 75
5.3.3 Espaces propres dun endomorphisme . . . . . . . . . . . . . . . . . . . . . 75
5.3.4 Espaces propres dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.4 Diagonalisation des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.1 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.2 Un crit`ere de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.3 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 78
5.5 Recherche des valeurs propres - Polyn ome caracteristique . . . . . . . . 79
5.5.1 Polyn ome caracteristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.5.2 Quelques resultats `a propos des polyn omes . . . . . . . . . . . . . . . . . . 79
5.5.3 Analyse de la multiplicite des valeurs propres . . . . . . . . . . . . . . . . . 80
5.6 Trigonalisation des matrices - Applications . . . . . . . . . . . . . . . . . 81
Dans tout ce chapitre K represente R ou C et E un espace vectoriel sur K.
Les elements propres, valeurs propres et vecteurs propres associes, jouent un r ole important dans
la connaissance des proprietes dun endomorphisme. En particulier, lexpression de la matrice dun
endomorphisme dans une base constituee de vecteurs propres est triangulaire ou diagonale ce qui
est particuli`erement agreable.
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


5.1 Complements
5.1.1 Sommes de sous-espaces dun espace vectoriel E
Denitions
Denition 5.1 Somme de p sous-espaces
Soient F
1
, F
2
, , F
p
, des sous-espaces vectoriels de E. La somme des sous-espaces F
1
, F
2
, , F
p
est le sous-ensemble F de E tel que
F = x E t.q. x = x
1
+x
2
+ +x
p
o` u pour tout i = 1, , p, x
i
F
i

F est note F
1
+ F
2
+ + F
p
. Les sous-espaces F
i
sont les espaces composants de F, les x
i
sont
les composantes de x.
Denition 5.2 Somme directe de p sous-espaces
Soient F
1
, F
2
, , F
p
, des sous-espaces vectoriels de E. On dit que la somme F = F
1
, F
2
, , F
p
est
directe si et seulement si tout x de F admet une unique decomposition x = x
1
+x
2
+ +x
p
.
F est alors note F = F
1
F
2
P
p
.
Proprietes
Proposition 5.1 Soient F
1
, F
2
, , F
p
, des sous-espaces de E. Alors la somme F = F
1
+ F
2
+
+F
p
est le plus petit (pour linclusion) sous-espace vectoriel de E contenant F
1
, F
2
, , F
p
.
Verions cette propriete pour p = 2 ; elle se generalise sans peine `a un nombre quelconque de
sous-espaces.
x
1
= x
1
+o donc F
1
F
1
+F
2
de meme F
2
F
1
+F
2
;
F
1
+F
2
est un sous-espace vectoriel de E
en eet si x F
1
+F
2
alors x = x
1
+x
2
, de meme si y F
1
+F
2
, y = y
1
+y
2
.
alors pour tout a K et tout b K, ax +by = (ax
1
+by
1
) + (ax
2
+by
2
) F
1
+F
2
cest le plus petit - soit G un sous-espace vectoriel de E contenant F
1
et F
2
soient x
1
F
1
G et x
2
F
2
G alors x
1
+x
2
G, donc F
1
+F
2
G. 2
Proposition 5.2
Soient F
1
, F
2
, , F
p
, des sous-espaces dun espace vectoriel E. La somme F = F
1
+F
2
+ +F
p
est directe si et seulement si :
pour tout x
i
F
i
tels que x
1
+x
2
+ +x
p
= O, on a x
1
= x
2
= = x
p
= O.
Proposition 5.3
Soient F
1
, F
2
, , F
p
, p sous-espaces dun espace vectoriel E tels que la somme F = F
1
+F
2
+ +F
p
soit directe, alors si pour tout i = 1, , p, x
i
F
i
, la famille x
1
, x
2
, , x
p
est libre.
Sous-espaces supplementaires
Proposition 5.4
Soient F
1
et F
2
deux sous-espaces dun espace vectoriel E. La somme F
1
+ F
2
est directe si et
seulement si F
1
F
2
= O
E
.
Denition 5.3 - Sous-espaces supplementaires
Soient F
1
et F
2
deux sous-espaces dun espace vectoriel E. F
1
et F
2
sont supplementaires si et
seulement si E = F
1
F
2
.
p. 68 AJ.Casadevall - oct 2004
5.1. COMPL

EMENTS
Remarque : !!!
La propriete F
1
F
2
= O
E
qui est vraie pour p = 2 ne se generalise pas au cas p 3. La condition
F
1
F
2
F
p
= O
E
nentrane pas que la somme F
1
+ F
2
+ + F
p
soit directe. On a le
resultat suivant que nous admettrons :
Proposition 5.5
Soient F
1
, , F
p
, des sous-espaces dun espace vectoriel E. Les conditions suivantes sont
equivalentes :
la somme F
1
+F
2
+ +F
p
est directe ;
pour tout i = 1 p 1, F
i+1
(F
1
+F
2
+ +F
i
) = O
E
.
5.1.2 Sommes de sous-espaces de dimension nie
Proposition 5.6
Soient F
1
, , F
p
, des sous-espaces de dimension nie dun espace vectoriel E. Supposons que
pour chaque i = 1 p, B
i
= b
ij
designe une base de F
i
. Alors :
B
1
B
2
B
p
est une famille generatrice de F
1
+F
2
+ +F
p
;
dim(F
1
+F
2
+ +F
p
)
p

i=1
dim(F
i
)
En eet pour tout x appartenant ` a F
1
+ F
2
+ + F
p
, x =

p
i=1
x
i
. Pour tout i = 1 p, x
i
se
decompose suivant la base B
i
x
i
=
dimF
i

j=1
x
ij
b
ij
Alors
x =
p

i=1
dimF
i

j=1
x
ij
b
ij
2
On peut completer ce resultat dans le cas de la somme de deux sous-espaces :
Theor`eme 5.1
Soient F
1
et F
2
deux sous-espaces de dimension nie dun espace vectoriel E.Alors :
dim(F
1
+F
2
) = dimF
1
+dimF
2
dim(F
1
F
2
)
Le resultat est evident si F
1
= O ou si F
2
= O.
Dans le cas general la preuve utilise le theor`eme de la base incompl`ete (c.f.1.7). Supposons
que F
1
F
2
,= O. Soit B
0
= b
1
, , b
p
une base de F
1
F
2
. On compl`ete B
0
en une base
B
1
= b
1
, , b
p
, c
1
, , c
m
de E
1
et en une base B
2
= b
1
, , b
p
, d
1
, , d
n
de E
2
. Soit :
B = b
1
, , b
p
, c
1
, , c
m
, d
1
, , d
n

Montrons que B est une base de E


1
+E
2
:
B est une famille generatrice de E
1
+E
2
dapr`es la proposition precedente.
B est une famille libre. Supposons que :

1
b
1
+ +
p
b
p
+
1
c
1
+ +
m
c
m
+
1
d
1
+ +
n
d
n
= O
Posons x
1
=
1
b
1
+ +
p
b
p
+
1
c
1
+ +
m
c
m
F
1
et x
2
=
1
d
1

n
d
n
F
2
. La
relation precedente secrit donc :
x
1
x
2
= O ou x
1
= x
2
avec x
1
E
1
et x
2
E
2
AJ.Casadevall -oct 2004 p.69
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


On en deduit que x
1
= x
2
E
1
E
2
et donc x
1
= x
2
=
1
b
1
+ +
p
b
p
. On a donc trois
decompositions de x
1
= x
2
dans B :
1.
1
b
1
+ +
p
b
p
+ 0c
1
+ + 0c
m
+ 0d
1
+ 0d
n
2.
1
b
1
+ +
p
b
p
+
1
c
1
+ +
m
c
m
+ 0d
1
+ 0d
n
3. 0b
1
+ + 0b
p
+ 0c
1
+ + 0c
m

1
d
1

n
d
n
Lunicite de la decomposition dun vecteur suivant une base entrane que :
pour i = 1 p,
i
=
i
= 0
pour i = 1 m,
i
= 0
pour i = 1 n,
i
= 0
Tous les coecients de la combinaison lineaire

1
b
1
+ +
p
b
p
+
1
c
1
+ +
m
c
m
+
1
d
1
+ +
n
d
n
sont nuls ; B est une famille libre.
On en deduit que dim(F
1
+F
2
) = dimF
1
+dimF
2
dim(F
1
F
2
)
Si F
1
F
2
,= O, alors soit B
1
= c
1
, , c
m
une base de F
1
et B
2
= d
1
, , d
n
une base de F
2
.
On pose alors B = c
1
, , c
m
, d
1
, , d
n
.
On denit x
1
et x
2
comme precedemment et on montre de meme que x
1
= x
2
= O. On en deduit
alors que B est une base de F
1
+F
2
; do` u le resultat. 2
Proposition 5.7
Soient F
1
et F
2
deux sous-espaces vectoriels de dimension nie dun espace vectoriel E et soient
B
1
une base de F
1
et B
2
, une base de F
2
. Alors les proprietes suivantes sont equivalentes :
la somme F
1
+F
2
est directe ;
B
1
B
2
= et B
1
B
2
est une base de F
1
+F
2
;
dim(F
1
+F
2
) = dim(F
1
) +dim(F
2
)
Remarque : !!!
La condition B
1
B
2
= est necessaire. En eet B
1
B
2
nest pas la juxtaposition des bases mais
bien leur reunion : a, b b, c = a, b, c et non pas a, b, b, c.
Proposition 5.8
Soient F
1
et F
2
deux sous-espaces dun espace vectoriel E de dimension nie. Alors si deux des
conditions suivantes sont veriees F
1
et F
2
sont supplementaires E = F
1
F
2
:
1. F
1
F
2
= O
E

2. dim F
1
+dim F
2
= dim E
Theor`eme 5.2
Soient E un espace vectoriel de dimension nie. Tout sous-espace vectoriel F de E admet un
supplementaire (pas necessairement unique). Tous les sous-espaces supplementaires de F ont meme
dimension.
Proposition 5.9
Soient F
1
, F
2
, , F
p
des sous-espace de dimension nie dun espace vectoriel E. Si pour tout i,
B
i
designe une base de F
i
, les proprietes suivantes sont equivalentes :
les sous espaces F
i
sont en somme directe ;
pour tout x F
1
+F
2
+ +F
p
tel que x = O
E
, alors x
1
= x
2
= = x
p
= O
E
;
dim(F
1
, F
2
, , F
p
) =

p
i=1
dim(F
i
) ;
pour tout i ,= j, B
i
B
j
= et B
1
B
2
B
p
est une base de F
1
+F
2
+ +F
p
.
p. 70 AJ.Casadevall - oct 2004
5.2. D

ETERMINANT DUNE MATRICE CARR

EE
5.1.3 Sommes directes et endomorphismes de E
Denition 5.4 - Sous-espaces stables
Soient E un espace vectoriel de dimension nie sur K, F un sous-espace de E et f un endomor-
phisme de E. F est stable par f lorsque f(F) F.
Proposition 5.10
Soit E un espace vectoriel de dimension nie sur K. Soient F
1
, , F
p
des sous-espaces vectoriels
de E stables par f tels que E =

n
i=1
E
i
.
Supposons que pour i = 1, , p, B
i
soit une base de F
i
, alors B =

p
i=1
B
i
est une base de E et
[f]
B
a la forme diagonale par blocs :
[f]
B
=
_

_
A
1
O
A
2
.
.
.
O A
p
_

_
A
i
etant la matrice dans B
i
de la restriction de f `a E
i
: A
i
= [f
|
E
i
]
E
i
.
5.2 Determinant dune matrice carree
On a pu remarquer dans les paragraphes precedents quune matrice triangulaire est inversible
d`es que le produit de ses termes diagonaux est dierent de zero. Dans cette section on va mettre
en evidence et etudier une application de /
n
dans R appelee determinant et notee det qui est
telle que :
si T est une matrice triangulaire dordre n, det(T) =

i
= 1
n
t
ii
;
pour toute matrice carree A, det(A) ,= 0 A inversible.
5.2.1 Denitions et premi`eres proprietes
Denition 5.5 - Determinant
Soit A une matrice carree dordre n. On appelle determinant de A le scalaire det(A) deni par la
relation de recurrence suivante :
si n = 1 alors det(A) = a
11
sinon det(A) =
n

j=1
(1)
k+1
a
1j
det(

A
1j
)
o` u

A
ij
designe la sous-matrice de A obtenue en supprimant la i
i` eme
ligne et la j
i` eme
colonne de A;

A
ij
est appelee matrice mineure du coecient a
ij
.
Ce mode de calcul de det(A) est appelee developpement par rapport ` a la premi`ere ligne.
Proposition 5.11 - Determinant dune matrice dordre deux, dordre trois
Soit A = [a
i,j
] une matrice carree dordre 2, alors :
det(A) = a
11
a
22
a
12
a
21
Soit A = [a
i,j
] une matrice carree dordre 3, alors :
det(A) = a
11
a
22
a
33
a
11
a
32
a
23
+a
12
a
23
a
31
a
12
a
33
a
21
+a
13
a
21
a
32
a
31
a
22
a
13
Une facon simple de retrouver ces valeurs est de construire le tableau suivant :

a
11
a
12
a
13
.
.
. a
11
a
12
a
21
a
22
a
23
.
.
. a
21
a
22
a
31
a
32
a
33
.
.
. a
31
a
32

AJ.Casadevall -oct 2004 p.71


CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


On fait le produit des termes diagonaux en aectant les diagonales descendantes du signe + et les
diagonales montantes du signe moins.
Ce resultat est connu sous le nom de r`egle de Sarrus.
Proposition 5.12 - Determinant dune matrice triangulaire, dune matrice diagonale
Soit T une matrice triangulaire dordre n, alors
det(T) =

n
i=1
t
ii
De meme si D est diagonale, det(D) =

n
i=1
d
ii
. En particulier det(I
n
) = 1
5.2.2 Resultats fondamentaux
On verie facilement pour les matrices dordre 2 et 3 le resultat suivant ; on ladmettra dans le
cas general :
Theor`eme 5.3
Soit A une matrice carree dordre n,
det(A) = det(A
T
)
Denition 5.6 - Forme n-lineaire alternee
Soit E un espace vectoriel sur K. On appelle forme n-lineaire alternee de E, une application f de
E
n
dans K :
f : (x
1
, , x
n
) o` u x
i
E K
telle que :
pour i = 1, , n, lapplication partielle x
i
f(x
1
, , x
i
, , x
n
) est lineaire ;
f change de signe lorsquon permute deux arguments :
f(x
1
, , x
i
, , x
j
, x
n
) = f(x
1
, , x
j
, , x
i
, x
n
).
On admettra le theor`eme suivant :
Theor`eme 5.4
Soit A une matrice carree dordre n. Lapplication de (K
n
)
n
dans K qui aux colonnes de A fait
correspondre le determinant de A :
(a
1
, a
2
, , a
n
) det(A)
est une forme n-lineaire alternee (i.e. lineaire par rapport ` a chacune des variables).
Reciproquement, toute forme n-lineaire alternee de (K
n
)
n
dans K est proportionnelle ` a cette ap-
plication.
5.2.3 R`egles de calcul
Ces r`egles sont une consequence du theor`eme precedent.
Proposition 5.13
det(A) = 0 lorsque :
une colonne (ou une ligne) est nulle ;
deux colonnes de A sont liees ;
deux colonnes sont identiques.
det(A) change de signe si on echange deux colonnes ou deux lignes ;
det(A) ne change pas si on ajoute `a une colonne (`a une ligne) un multiple dune autre colonne
(dune autre ligne) ;
det(A) est multiplie par a si on multiplie une colonne (une ligne) par a ; en particulier
det(aA) = a
n
det(A).
p. 72 AJ.Casadevall - oct 2004
5.2. D

ETERMINANT DUNE MATRICE CARR

EE
On en deduit le theor`eme suivant :
Theor`eme 5.5
Soit A une matrice carree dordre n, alors
A inversible det(A) ,= 0
Si A nest pas inversible, son rang est inferieur ` a n. Une colonne de A au moins est alors combinaison
lineaire des autres colonnes, on en deduit que det(A) = 0.
Si A est inversible, rg(A) = rg(A
T
) = n. A
T
poss`ede donc n pivots et est gauss-equivalente ` a I
n
:
il existe une suite de transformations de Gauss elementaires
1
,
2
,
m
de matrices T
1
, T
2
, T
m
(c.f. 3.8) telles que :
I
n
= (T
m
T
2
T
1
) A
T
soit A T
T
1
T
T
2
T
T
m
= I
n
donc det(A T
T
1
T
T
2
T
T
m
) = 1
Multiplier ` a droite une matrice M par la transposee T
T
k
dune matrice T
k
associee `a une transfor-
mation de Gauss elementaire
k
eectue sur les colonnes de A une operation semblable que celle
eectuee sur les lignes de A par
k
. Il existe donc trois types de transformations elementaires sur
les colonnes :
1. ajouter ` a une colonne un multiple dune autre colonne : c
j
c
j
+a
j
c
k
, alors det(MT
T
i
) =
det(M) ;
2. multiplier une colonne par une constante non nulle : c
j
a
j
c
j
, alors det(MT
T
i
) = a
j
det(M)
o` u a
j
,= 0 ;
3. echanger deux colonnes : c
j
c
i
, alors det(MT
T
i
) = det(M).
Donc
det(MT
T
i
) ,= 0 det(M) ,= 0.
On en deduit que si A est inversible, il existe des matrices de transformation elementaires T
k
telles
que :
det(A T
T
1
T
T
2
T
T
m
) ,= 0 soit det(a) ,= 0.
Do` u le resultat annonce. 2
5.2.4 Determinants et operations matricielles
Theor`eme 5.6
Soient A et B deux matrices carrees dordre n, alors
det(AB) = det(A)det(B)
Proposition 5.14
Soit A une matrice carree inversible, alors
det(A
1
) =
1
det(A)
et
A
1
=
1
det(A)
[1
i+j
det(

A
ij
)]
T
i=1,nj=1,n
o` u

A
ij
designe la matrice carree dordre n 1 appelee matrice mineure de a
ij
et obtenue en supp-
rimant dans A la ligne I et la colonne j.
Proposition 5.15
Soient A et B = P
1
AP deux matrices semblables, cest ` a dire telles quil existe une matrice
inversible P telle que B = PAP
1
, alors
det(A) = det(B)
AJ.Casadevall -oct 2004 p.73
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


Proposition 5.16
Soit A une matrice carree dordre n, alors
det(A) = det(A
T
)
Proposition 5.17
Soit A une matrice qui se decompose en quatre blocs sous la forme
A =
_
A
1
B
O A
2
_
o` u A
1
et A
2
sont des blocs carres, alors det(A) = det(A
1
)det(A
2
)
5.3

Elements propres, espaces propres
5.3.1

Elements propres dune matrice carree
Denition 5.7 -

Elements propres dune matrice
Soit A une matrice carree dordre n, le couple :
(, v) K K
n
est un element propre de A v ,= O
n
et Av = v
On dit alors que u est un vecteur propre de A associe `a la valeur propre .
Le spectre de A est lensemble des valeurs propres de A.
Proposition 5.18
Soit A une matrice carree dordre n, alors les propositions suivantes sont equivalentes :
est une valeur propre de A;
dim N(AI
n
) 1 ;
det(AI
n
) = 0 ;
rg(AI
n
) < n.
Proposition 5.19
Soit A une matrice triangulaire dordre n, les valeurs propres de A sont les termes diagonaux de
A.
Si A est diagonale, les elements propres de A sont les couples (a
i,i
, e
i
) o` u e
i
est le i
eme
vecteur de
la base canonique de K
n
.
En eet pour tout i = 1, 2, , n, le syst`eme (o
i
) A a
ii
I
n
= O
n
poss`ede au moins un pivot
nul et donc le rang de la matrice (A a
ii
I
n
) est strictement inferieur ` a n. Reciproquement, si
rg(AI
n
) < n, un pivot au moins de la matrice (AI
n
) est nul, il existe donc un indice i
0
tel
que = a
i
0
,i
0
.2
Proposition 5.20
Soit (, v) un element propre dune matrice A, alors :
est valeur propre de A
T
;
pour tout p > 0, (
p
, v) est un element propre de A
p
;
A est inversible si et seulement si 0 nest pas valeur propres de A;
si A est inversible et si (, v) est un element propre de A , (
1
, v) est un element propre de
A
1
.
p. 74 AJ.Casadevall - oct 2004
5.3.

EL

EMENTS PROPRES, ESPACES PROPRES


5.3.2

Elements propres dun endomorphisme
Proposition 5.21
Soient A et B deux matrices semblables (A = PBP
1
), alors
(, v) element propre de A (, P
1
v) element propre de B
En eet, soit (, v) un element propre de A, alors :
Av = v PBP
1
v = v BP
1
v = P
1
v
Cette derni`ere propriete montre que les valeurs propres dune matrice A caracterisent en fait
lendomorphisme f
A
associe `a le matrice A. On est donc en mesure de denir les valeurs propres
dun endomorphisme dun espace vectoriel E sans faire reference `a une base donnee.
Denition 5.8 - Valeurs propres dun endomorphisme
Soit E un espace vectoriel et soit f un endomorphisme de E, est une valeur propre de f si et
seulement si il existe un element u non nul de E tel que f(u) = u.
On dit alors que u est un vecteur propre associe `a la valeur propre de f.
Lensemble des valeurs propres de F est le spectre de f, note sp(f).
Proposition 5.22
Soit f un endomorphisme dun espace vectoriel E, les propositions suivantes sont equivalentes
est une valeur propre de f ;
lendomorphisme (f id
E
) nest pas injectif.
Si de plus, E est un espace de dimension nie :
dim(ker(f id
E
)) 1 ;
det(f id
E
) = 0 ;
rg(f id
E
) < n.
Proposition 5.23
Soit f un endomorphisme dun espace vectoriel E de dimension nie n. Alors, pour toute base B
de E :
valeur propre de f valeur propre de [f]
B
;
u vecteur propre de f [u]
B
vecteur propre de f
B
.
Reciproquement, soit A une matrice carree dordre n, alors pour toute base B de R
n
,
valeur propre de A valeur propre de f
A
valeur propre de [f
A
]
B
;
u vecteur propre de A u vecteur propre de f
A
[u]
B
vecteur propre de [f
A
]
B
.
Proposition 5.24
Soit f un endomorphisme de E et soit (, u) un element propre de f, alors :
pour tout p > 0, (
p
, u) est un element propre de f
p
;
f est inversible si et seulement si est dierent de zero ;
si f est inversible, (
1
, u) est un element propre de f
1
.
5.3.3 Espaces propres dun endomorphisme
Denition 5.9
Soient E un espace vectoriel, f un endomorphisme de E et une valeur propre de f, lensemble
E

deni par :
E

= x E t.q. f(x) = x = ker(f Id


n
)
AJ.Casadevall -oct 2004 p.75
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


est appele espace propre de f associe `a la valeur propre .
Remarque : !!!
E

nest pas lensemble des valeurs propres associees `a la valeur propre . En fait :
u E est un vecteur propre de f associe `a la valeur propre u ,= O
E
et x E

;
Proposition 5.25
Soient E un espace vectoriel, f un endomorphisme de E et une valeur propre de f, alors :
E

est un sous-espace vectoriel de E stable par f ;


si
1
et
2
sont deux valeurs propres distinctes de f, alors, E

1
E

2
= O
E
, la somme
E

1
+E

2
est directe et si v
1
E

1
et v
2
E

2
sont deux vecteurs non nuls, la famille v
1
, v
2

est libre ;
plus generalement, si
1
,
2
, ,
p
sont p valeurs propres deux ` a deux distinctes, la somme
E

1
+E

2
+ +E

p
est directe et si pour tout i = 1, , p, v
i
E

i
sont des vecteurs non
nuls, la famille v
1
, v
2
, , v
p
est libre.
En eet :
soient a K, et v
1
et v
2
deux elements de E

; alors :
f(av
1
+v
2
) = af(v
1
) +f(v
2
) = (av
1
+v
2
)
donc av
1
+v
2
appartient ` a E

.
soient
1
et
2
deux valeurs propres distinctes de f et v E

1
E

2
; alors :
f(v) =
1
v et f(v) =
1
v donc (
1

2
)v = O
E
et v = O
E
on en deduit les deux autres assertions ;
le dernier point se montre par recurrence sur p :
la propriete est vraie pour p = 2 ;
supposons la propriete vraie pour (p 1) ; quitte ` a renumeroter les valeurs propres, on
peut supposer que
p
,= 0 ; soient pour i = 1, , p, p vecteurs tels que v
i
E

i
et tels
que v
1
+v
2
+ +v
p
= O
E
; alors :s
f(v
1
+v
2
+ +v
p
) = f(O
E
) = O
E
f(v
1
+v
2
+ +v
p
) = f(v
1
) +f(v
2
) + +f(v
p
) =
1
v
1
+
2
v
2
+ +
p
v
p
donc :

1
v
1
+
2
v
2
+ +
p
v
p
= O
E
=
p
(v
1
+v
2
+ +v
p
)
on en deduit que :
(
p

1
)v
1
+ (
p

2
)v
2
+ + (
p

p1
v
p1
) = O
E
do` u (
p

1
)v
1
= (
p

2
)v
2
= = (
p

p1
)v
p1
= O
E
dapr`es lhypoth`ese de
recurrence et v
1
= v
2
= = v
p1
v = O
E
puisque pour tout i = 1, , p 1,
i
,=
p
;
comme v
p
= v
1
v
2
v
p1
, on en deduit que v
p
= O
E
.2
Proposition 5.26
Soient E un espace vectoriel de dimension nie, f un endomorphisme de E et une valeur
propre de f, alors E

est de dimension nie et dim(E

) 1.
Le nombre de valeurs propres de f est donc inferieur ou egal ` a dim(E).
p. 76 AJ.Casadevall - oct 2004
5.3.

EL

EMENTS PROPRES, ESPACES PROPRES


5.3.4 Espaces propres dune matrice
Denition 5.10
Soient A une matrice carree dordre n et une valeur propre de A, lensemble :
E

= x K
n
tels que A(x) = x = N(AI
n
)
est appele espace propre associe `a la valeur propre de A.
Proposition 5.27
E

est un sous-espace vectoriel de K


n
, stable par A et de dimension au moins egale ` a 1.
Soient u et v deux elements de E

et a et b deux scalaires. Alors,


A(au +bv) = aAu +bAv = au +bv = (au +bv)
Dautre part, si x E

,
(AI
n
)Ax = AAx Ax = A(AI
n
)x = O
n
donc Ax E

.
Enn, dimE

1 puisque si est valeur propre de A, il existe v K


n
non nul tel que Av = v. 2
Proposition 5.28
Soient
1
et
2
deux valeurs propres distinctes de A, alors E
1
E
2
= O
E
. Plus generalement, si

1
,
2
, ,
p
sont des valeurs propres distinctes de A, la somme E
1
+E
2
+ +E
p
est directe.
Proposition 5.29
Soit A une matrice carree dordre n admettant p valeurs propres distinctes
1
,
2
, ,
p
, alors :
K
n
=

p
i=1
E
i


p
i=1
dim(E
i
) = n
On deduit de la proposition 5.28 le theor`eme suivant :
Theor`eme 5.7
Soit A une matrice carree dordre n admettant p valeurs propres distinctes
1
,
2
, ,
p
et telle que
K
n
=

p
i=1
E
i
. On choisit pour tout i = 1, 2, , p, une base B
i
de E
i
. Soit B = B
1
B
2
B
p
la base de K
n
constituee de la reunion des B
i
et P
B
la matrice de passage de la base canonique ` a
la base B. Alors,
[f
A
]
B
= P
1
B
AP
B
=
_

1
0 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
.
.
.
.
.
.

2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.

2
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

p
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 0
p
_

_
P
1
B
AP
B
= [f
A
]
B
est la matrice de f
A
dans la base B, souvent notee [A]
B
AJ.Casadevall -oct 2004 p.77
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


5.4 Diagonalisation des matrices
On sait que lorsque la matrice A est diagonale, ses valeurs propres sont les termes diagonaux
a
ii
et que le vecteur propre associe `a chaque valeur propre a
ii
est le i
eme
vecteur de la base donnee.
Pour une matrice A quelconque on va chercher une base B constituee de vecteurs propres de A.
Dans cette base A sera representee par une matrice diagonale [A]
B
([A]
B
est en fait [f
A
]
B
).
5.4.1 Matrices diagonalisables
Denition 5.11 - Matrice diagonalisable
Soit A une matrice carree dordre n, A est diagonalisable si et seulement sil existe une matrice di-
agonale D semblable ` a A; cest ` a dire quil existe une matrice inversible P et une matrice diagonale
D telles que A = PDP
1
.
Denition 5.12 - Base propre
Soit A une matrice carree dordre n. Une base B de K
n
est une base propres de A si et seulement
si B est constituee de vecteurs propres de A.
Theor`eme 5.8
Soit A une matrice carree dordre n diagonalisable (A = PDP
1
), alors :
les colonnes P
j
de la matrice P forment une base propre de A;
les coecients diagonaux de A sont les valeurs propres de A : AP
j
= d
j
P
j
.
Reciproquement, si A admet une base propre B = b
1
, b
2
, , b
n
, A est diagonalisable et :
P est la matrice dont les colonnes sont les vecteurs b
1
, b
2
, , b
n
;
D = P
1
AP.
5.4.2 Un crit`ere de diagonalisation
Theor`eme 5.9
Soit A une matrice carree dordre n admettant p valeurs propres distinctes,
1
,
2
, ,
p
. Alors,
A est diagonalisable si A verie une des deux proprietes equivalentes suivantes :
K
n
= E
1
E
2
E
p
;


p
i=1
dim(E
i
) = n
En particulier, si A poss`ede n valeurs propres distinctes, A est diagonalisable. De plus, dans ce cas,
chaque espace propre est de dimension un.
5.4.3 Application de la diagonalisation
Supposons que A soit une matrice carree diagonalisable : A = PDP
1
. Le calcul des puissance
de A est alors tr`es simple :
A
k
= PDP
1
PDP
1
PDP
1
= PD
k
P
1
Exemple 5.4.1 :
Soit :
A =
_
1 1
2 4
_
On montre avec MATLAB par exemple, que A admet (2, (1, 1)) et (3, (1, 2)) pour elements
propres :
A =
_
1 1
1 2
_ _
2 0
0 3
_ _
2 1
1 1
_
p. 78 AJ.Casadevall - oct 2004
5.5. RECHERCHE DES VALEURS PROPRES - POLYN

OME CARACT

ERISTIQUE
Alors :
A
k
=
_
1 1
1 2
_ _
2
k
0
0 3
k
_ _
2 1
1 1
_
=
_
2
k+1
3
k
2
k+1
2 3
k
2
k
+ 3
k
2
k
+ 2 3
k
_
5.5 Recherche des valeurs propres - Polyn ome caracteristique
On a vu dans une proposition precedente (c.f. 5.18) que :
valeur propre de A (AI
n
) non-inversible rg(AI
n
) < n
On va traduire cette propriete en utilisant les determinants.
5.5.1 Polyn ome caracteristique
Denition 5.13
Soit A une matrice carree dordre n, on appelle polyn ome caracteristique le polyn ome ` a coecients
reels ou complexes,
P
A
(t) = det(AtI
n
)
Theor`eme 5.10
Soit A une matrice carree dordre n, alors :
valeur propre de A P
A
() = det(AI
n
) = 0
Une strategie pour determiner les elements propres dune matrice carree A peut donc etre la suiv-
ante :
on calcule les valeurs propres en resolvant lequation P
A
() = 0 ;
pour chaque , on determine les vecteurs propres associes `a en resolvant le syst`eme lineaire
(o

) (AI)x = O
n
.
Proposition 5.30 - Proprietes du polyn ome caracteristique
P
A
(t) est un polyn ome de degre n en t, plus precisement,
P
A
(t) = (1)
n
t
n
+ (1)
n1
tr(A)t
n1
+ +det(A)
( tr(A) designe la trace de A i.e. la somme des termes diagonaux de A)
P
A
(t) = P
T
A
(t) ; A et A
T
ont donc meme polyn ome caracteristique et donc memes valeurs
propres.
Theor`eme 5.11 Deux matrices semblables A et B ont meme polyn ome caracteristique. Le
polyn ome caracteristique de la matrice representant un endomorphisme f L(E) o` u E est de
dimension nie, ne depend donc pas de la base choisie pour representer f.
5.5.2 Quelques resultats `a propos des polyn omes
Theor`eme 5.12 - Division euclidienne
Soient P et M deux polyn omes ` a coecients dans K. On suppose M non-nul. Alors il existe un
couple unique de polyn omes (Q, R) `a coecients dans K tel que :
deg(R) < deg(M)
P = MQ+R
Q est le quotient et R le reste de la division de P par M.
Denition 5.14
Soient P et M deux polyn omes sur K. On suppose M non-nul. Si le reste de la division de P par
M est nul, on dit que M divise P.
AJ.Casadevall -oct 2004 p.79
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


Proposition 5.31
Soit P un polyn ome ` a coecients dans K, a K est est une racine de P ! i.e. P(a) = 0) si et
seulement si le mon ome (Xa) divise P, cest ` a dire sil existe un polyn ome Q `a coecients dans
K tel que P = (X a)Q.
Denition 5.15 - Racine dordre k
Soit P un polyn ome ` a coecients dans K, a K est une racine dordre k de P lorsquil existe un
polyn ome Q `a coecients dans K tel que P = (X a)
k
Q.
Denition 5.16 - Polynome scinde dans K
Soit P un polyn ome de degres n `a coecients dans K ; P est scinde dans K lorsque P poss`ede
n racines dans K (chaque racine etant comptee avec son ordre de multiplicite).
Si P admet p racines distinctes a
1
, a
2
, , a
p
(p n) dans K, alors :
P = c(X a
1
)
d
1
(X a
2
)
d
2
(X a
p
)
d
p
avec c K et d
1
+d
2
+ +d
p
= n.
Theor`eme 5.13 - Theor`eme de DAlembert
Tout polyn ome ` a coecients complexes est scinde dans C.
5.5.3 Analyse de la multiplicite des valeurs propres
Denition 5.17
Soit A une matrice carree dordre n et une valeur propre de A.
on appelle multiplicite algebrique de lordre de multiplicite de dans le polyn ome car-
acteristique de A;
on appelle multiplicite geometrique de la dimension de lespace propre E

associe `a .
Proposition 5.32
Soit A une matrice carree dordre n et une valeur propre de A, alors la multiplicite geometrique
de est inferieure ou egale ` a sa multiplicite algebrique p

:
1 dim(E

) p

En particulier, lorsque est racine simple de P


A
, E

est de dimension un.


La preuve de cette propriete est une consequence du theor`eme de la base incompl`ete (c.f. 1.7).
Soient une valeur propre de A (donc de lendomorphisme f
A
canonique associe `a A ) et
B

= b
1
, , b
p
une base de E

. On compl`ete B

en une base B = b
1
, , b
p
, b
p+1
, , b
n
de
K
n
. Determinons la matrice [f
A
]
B
de f
A
dans cette base :
pour i = 1, , p, f
A
b
i
= b
i
[f
A
]
B
a donc la forme suivante :
[f
A
]
B
=
_
_
I
p
[ B

O [ C
_
_
o` u O est la matrice nulle de format (n p, p), B est une matrice de format (p, n p) et C une
matrice carre dordre p. Le polyn ome caracteristique de A est independant de la base choisie :
P
A
(t) = det([f
A
]
B
tI
n
) =

( t)I
p
[ B

O [ (C tI
np
)

=
P
A
(t) = det(( t)I
p
)det((C tI
np
)) = ( t)
p
det((C tI
np
))
est donc racine de P
A
(t) dordre p au moins. 2
p. 80 AJ.Casadevall - oct 2004
5.6. TRIGONALISATION DES MATRICES - APPLICATIONS
Theor`eme 5.14 - Une condition necessaire et susante de diagonalisation
Soit A une matrice carree dordre n `a coecients dans K, alors :
A est diagonalisable dans K
_
_
_
P
A
est scinde dans K : P
A
(t) =

p
i=1
(t
i
)
d
i
et
pour chaque i = 1, , p, d
i
= dim(E

i
)
5.6 Trigonalisation des matrices - Applications
On sait que lorsque T est une matrice triangulaire, les termes diagonaux de T sont les valeurs
propres de T ; cette forme bien que moins avantageuse que la forme diagonale reste cependant
interessante. Si A est une matrice carree quelconque, on cherche une base B dans la quelle A est
representee par une matrice [A]
B
triangulaire
Denition 5.18 Matrice trigonalisable
Soit A une matrice carree dordre n, A est trigonalisable (ou triangulable) sil existe une matrice
inversible P et une matrice triangulaire superieure (ou inferieure) T telles que : A = PTP
1
.
Proposition 5.33
Soient A et B deux matrices semblables, alors :
A triangulable B triangulable
La propriete A est triangulable est donc une propriete de lendomorphisme f
A
de L(E) associe
`a la matrice A et est independante de la base choisie pour representer f
A
.
Proposition 5.34
Soit A une matrice carree dordre n trigonalisable, alors le polyn ome caracteristique P
A
est scinde.
Theor`eme 5.15
Soit A une matrice carree dordre n `a coecients complexes. Alors il existe une matrice P
inversible et une matrice triangulaire T, toutes deux ` a coecients complexes telles que A = PTP
1
.
On montre par recurrence que si le polyn ome caracteristique P
A
est scinde, alors, A est trigonalis-
able :
Pour n = 1, il ny a rien a montrer ;
Supposons le resultat vrai ` a lordre n 1 ; puisque P
A
est scinde, P
A
poss`ede au moins, une
racine
1
et soit v
1
un vecteur propre associe `a
1
. On compl`ete v
1
en une base de K
n
:
B = v
1
, v
2
, , v
n
; dans cette base, la matrice de A (en fait de f
A
) a la forme :
[f
A
]
B
=
_
_

1
[ b

1

O
n1
[ B
_
_
o` u O
n1
est une matrice (n1), 1), b

1
une matric 1, (n1)) et B une matrice carree dordre(n
1).
P
A
(X) = (
X
)P
B
(X) mais puisque P
A
est scinde, P
B
lest aussi. B est trigonalisable dapr`es
lhypoth`ese de recurrence. 2
Les resultats suivants sont des consequences du theor`eme precedent :
Theor`eme 5.16 - Theor`eme de Caley-Hamilton
Soit A une matrice carree dordre n et P
A
() son polyn ome caracteristique. Alors la matrice P
A
(A)
est la matrice nulle.
Ce theor`eme permet le calcul de A
p
(p Z) en fonction de I
n
, A, A
2
, , A
n1
.
AJ.Casadevall -oct 2004 p.81
CHAPITRE 5.

EL

EMENTS PROPRES - R

EDUCTION DES MATRICES


Exemple 5.6.1 :
Reprenons la matrice de lexemple (5.4.1).
A =
_
1 1
2 4
_
P
A
() =
2
5 + 6 = ( 2)( 3). Alors :
A
2
5A+ 6I
2
= 0
On en deduit que :
A
2
= 5A6I
2
= 5
_
1 1
2 4
_
6
_
1 0
0 1
_
ou que :
6A
1
= A+ 5I
2
=
_
1 1
2 4
_
+ 5
_
1 0
0 1
_
Ce second resultat est dune importance capitale lorsquon veut calculer lexponentielle dune ma-
trice :
Theor`eme 5.17
Soit A une matrice carree dordre n telle que toutes les racines du polyn ome caracteristique P
A
()
soient dans K. Alors il existe une matrice D diagonale dordre n et une matrice nilpotente N, telles
que ND = DN et que A = D +N.
p. 82 AJ.Casadevall - oct 2004
6
Formes bilineaires et quadratiques
6.1 Formes bilineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.1.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . 83
6.1.2 Formes symetriques, formes alternees . . . . . . . . . . . . . . . . . . . . . . 84
6.1.3 Formes bilineaires et dimension nie . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.2 Forme polaire dune forme quadratique sur E . . . . . . . . . . . . . . . . . 87
6.2.3 Formes quadratiques et dimension nie . . . . . . . . . . . . . . . . . . . . 87
6.2.4 Formes positives et denies positives (K = R) . . . . . . . . . . . . . . . . . 88
6.2.5 Decomposition dune forme quadratique en carres de formes lineaires . . . . 88
6.3 Orthogonalite par rapport `a une forme quadratique . . . . . . . . . . . 90
6.3.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . 90
6.3.2 Formes non-degenerees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3.3 Bases q-orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4 Espaces Euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4.1 Denition et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4.2 Bases orthonormees et algorithme de Gram-Schmidt . . . . . . . . . . . . . 92
6.1 Formes bilineaires
6.1.1 Denitions et premi`eres proprietes
Soient E et F deux espaces vectoriels sur K (K = R ou C).
Denition 6.1 - Forme bilineaire
Une application f de (E F) dans K est une forme bilineaire si et seulement si les deux
applications partielles :
f
1
: x f(x, .) de E dans K
f
2
: y f(., y) de F dans K
sont lineaires. Cest ` a dire :
a et b K, x
1
et x
2
E, y F, f(ax
1
+ bx
2
, y) = af(x
1
, y) + bf(x
2
, y) (linearite `a
gauche) ;
a et b K, x E, y
1
et y
2
F, f(x, ay
1
+by
2
) = af(x, y
1
)+bf(x, y
2
) (linearite `a droite).
CHAPITRE 6. FORMES BILIN

EAIRES ET QUADRATIQUES
On note Bil(E, F) lensemble des formes bilineaires de (E F).
Le plus souvent, E = F ; on appelle alors forme bilineaire de E une forme bilineaire de (E E) et
on note Bil(E) lensemble des formes bilineaires de E.
Proposition 6.1
Les ensembles Bil(E, F) et Bil(E) sont des espaces vectoriels sur K.
Exemple 6.1.1 :
Le produit scalaire canonique de R
n
deni par :
< x, y >=
n

k=1
x
k
y
k
= x
T
y
est une forme bilineaire de R
n
.
Soit A une matrice carree dordre n. On denit une application f de R
n
R
n
dans R par :
f(x, y) = x
t
Ay
Alors f est une forme bilineaire de R
n
.
Proposition 6.2
Soit f une forme bilineaire de (E F). Alors quelque soit x element de E,
f(x, O
F
) = 0
et quelque soit y element de F,
f(O
E
, y) = 0
6.1.2 Formes symetriques, formes alternees
Soit E un espace vectoriel sur K
Denition 6.2
Une forme bilineaire symetrique de E est une forme bilineaire f de E telle que :
x E, y E, f(x, y) = f(y, x)
Une forme bilineaire alternee ou antisymetrique de E est une forme bilineaire f de E telle
que :
x, y, f(x, y) = f(y, x)
On note Bil
S
(E) lensemble des formes symetriques de E et Bil
A
(E) lensemble des formes alternees
de E.
Exemple 6.1.2 :
Lapplication f de R
2
R
2
dans R denie par f(x, y) = x
1
y
2
est une forme bilineaire de R
2
qui nest ni symetrique, ni alternee.
Lapplication f de R
2
R
2
dans R denie par f(x, y) = x
1
y
2
x
2
y
1
est une forme bilineaire
alternee de R
2
.
Le produit scalaire canonique de R
n
est une forme bilineaire symetrique de R
n
.
Lorsque A une matrice symetrique dordre n, lapplication f de R
n
R
n
dans R denie par :
f(x, y) = x
t
Ay
est une forme bilineaire symetrique de R
n
.
Proposition 6.3
Si f est une forme bilineaire alternee de E, pour tout x de E, f(x, x) = 0.
p. 84 AJ.Casadevall - oct 2004
6.1. FORMES BILIN

EAIRES
Proposition 6.4
Si f est une forme de E lineaire ` a gauche (resp. ` a droite) et symetrique, f est une forme bilineaire
symetrique ; de meme, si f est une forme de E lineaire ` a gauche (resp. ` a droite) et alternee, f est
une forme bilineaire alternee.
Proposition 6.5
Les ensembles Bil
s
(E) et Bil
a
(E) sont des sous-espaces vectoriels de Bil(E) et
Bil(E) = Bil
s
(E) Bil
a
(E)
En eet, soit f une forme bilineaire de E, alors :
f(x, y) =
1
2
(f(x, y +f(y, x)) +
1
2
(f(x, y f(y, x))
On pose s(x, y) =
1
2
(f(x, y+f(y, x)) et a(x, y) =
1
2
(f(x, yf(y, x)). Alors s est une forme bilineaire
symetrique, a une forme bilineaire alternee et f = s +a.2
6.1.3 Formes bilineaires et dimension nie
Theor`eme 6.1 - Matrice dune forme bilineaire
Soit E un espace de dimension nie n et soit B = b
1
, b
2
, , b
n
une base de E. Pour toute
forme bilineaire f de E il existe une matrice B = [b
ij
], carree dordre n, notee [f]
B
telle que pour
tout x et tout y de E :
f(x, y) = x
t
B y =
n

i=1
n

j=1
b
ij
x
i
y
j
o` u pour tout i = 1, , n, et tout j = 1, , m, b
ij
= f(b
i
, b
j
)
Exemple 6.1.3 :
Reprenons les formes bilineaires de lexemple (6.1.2).
Dans la base canonique, la matrice de la forme bilineaire de R
2
denie par f(x, y) = x
1
y
2
est :
_
0 1
0 0
_
Dans la base canonique, la matrice de la forme bilineaire alternee de R
2
denie par f(x, y) =
x
1
y
2
x
2
y
1
est :
_
0 1
1 0
_
Le produit scalaire canonique de R
n
deni par < x, y >= x
T
y est une forme bilineaire
symetrique de R
n
. Sa matrice dans la base canonique est la matrice identite dordre n :
< x, y >= x
T
y = x
T
I
n
y
Proposition 6.6
Soit f une forme bilineaire de E, alors :
f symetrique [f]
B
symetrique ;
f alternee [f]
B
antisymetrique.
Proposition 6.7
Lapplication de Bil(E) dans /
n
(K) qui ` a une forme bilineaire f fait correspondre la matrice [f]
B
est un isomorphisme. On en deduit que :
AJ.Casadevall -oct 2004 p.85
CHAPITRE 6. FORMES BILIN

EAIRES ET QUADRATIQUES
Bil(E) est de dimension n
2
Bil
s
(E) est de dimension
1
2
n(n + 1)
Bil
a
(E) est de dimension
1
2
n(n 1)
Proposition 6.8
Soit une forme bilineaire de E. On a montre quil existe une forme bilineaire symetrique s et une
forme bilineaire alternee a telles que f = s +a. Alors :
[s]
B
=
1
2
([f]
B
+ [f]
T
B
) et [a]
B
=
1
2
([f]
B
[f]
T
B
)
En eet, il sut de remarquer que si f est une forme bilineaire, f(y, x) = y
T
[f]
B
x et utiliser la
proposition 6.5. 2
Proposition 6.9 - Formule de changement de base
On suppose que lespace vectoriel E est muni de deux bases B et B

et que P
B,B
designe la matrice
de passage de la base B `a la base B

. Soit alors f une forme bilineaire de E :


[f]
B
= P
T
B,B
[f]
B
P
B,B

6.2 Formes quadratiques


Dans R
n
, la norme euclidienne est denie ` a partir du produit scalaire usuel par la relation :
|x|
2
=< x, x >
1/2
. Soit E un espace vectoriel sur un corps K. On va etudier les applications q de E dans K denies
par q(x) = f(x, x) o` u f est une forme bilineaire de E.
6.2.1 Denitions et premi`eres proprietes
Denition 6.3 - Forme quadratique
Une application q de E dans K est une forme quadratique de E si et seulement si il existe une
forme bilineaire f de E et si
x E, q(x) = f(x, x)
On dit que q est la forme quadratique associee `a f.
Proposition 6.10
Lensemble Q(E) des formes quadratiques sur E est un espace vectoriel sur K.
Proposition 6.11
Soit q une forme quadratique sur E et f une forme bilineaire associee `a q, alors pour tout x et tout
y de E et pour tout a de K :
q(ax +y) = a
2
q(x) +a(f(x, y) +f(y, x)) +q(y)
En particulier :
q(ax) = a
2
q(x)
p. 86 AJ.Casadevall - oct 2004
6.2. FORMES QUADRATIQUES
6.2.2 Forme polaire dune forme quadratique sur E
Exemple 6.2.1 :
Considerons lest deux formes bilineaires f
1
et f
2
de R
3
denies par :
f
1
(x, y) = x
T
_
_
1 1 0
1 2 1
0 1 1
_
_
y et f
2
(x, y) = x
T
_
_
1 3 1
1 2 3
1 1 1
_
_
y
Calculons les formes quadratiques q
1
et q
2
associees `a ces deux formes bilineaires :
q
1
(x) = f
1
(x, x) = x
2
1
+ 2x
2
2
+x
2
3
2x
1
x
2
2x
2
x
3
avec x = (x
1
, x
2
, x
3
)
q
2
(x) = f
2
(x, x) = x
2
1
+ 2x
2
2
+x
2
3
2x
1
x
2
2x
2
x
3
avec x = (x
1
, x
2
, x
3
)
On constate donc que q
1
(x) = q
2
(x).
Appelons B
1
la matrice de f
1
et B
2
la matrice de f
2
. Calculons B
1
B
2
:
B
1
B
2
=
_
_
0 2 1
2 0 2
1 2 0
_
_
La matrice B
1
B
2
est antisymetrique. La forme bilineaire a(x, y) = f
1
(x, y) f
2
(x, y), a est donc
alternee.
Proposition 6.12
Soient q une forme quadratique, f une forme bilineaire associee ` a q et a une forme bilineaire
alternee. Alors la forme quadratique associee `a f +a est q. f nest pas denie de facon unique
par la donnee de q.
Theor`eme 6.2 -

Egalites de polarisation
Soit q une forme quadratique de E, il existe une unique forme bilineaire symetrique

f telle que
pour tout x de E, q(x) =

f(x, x) ; f est appelee forme polaire de la forme quadratique q. Elle est
denie par les relations equivalentes suivantes :
2

f(x, y) = q(x +y) q(x) q(y)
4

f(x, y) = q(x +y) q(x y)
Proposition 6.13
Soit q une forme quadratique sur E et

f sa forme polaire, alors :
q(ax +y) = a
2
q(x) + 2a

f(x, y) +q(y)
6.2.3 Formes quadratiques et dimension nie
Soient E un espace de dimension nie n et B = b
1
, b
2
, , b
n
une base de E. Soit q une
forme quadratique de E et

f sa forme polaire.

f est representee dans la base B par une matrice
symetrique B = [f]
B
telle que b
ij
= f(b
i
, b
j
).
Proposition 6.14
Soient q une forme quadratique de E et B la matrice representant la forme polaire

f de q. Alors :
q(x) = x
t
Bx =
n

i=1
b
ii
x
i
. .
termes carr es
+ 2

i<j
b
ij
x
i
x
j
. .
termes rectangles
Denition 6.4 - Matrice dune forme quadratique
Soit E un espace vectoriel de dimension nie n muni dune base B. Soit q une forme quadratique
de E. La matrice de q dans la base B est la matrice symetrique [

f]
B
] de sa forme polaire.
AJ.Casadevall -oct 2004 p.87
CHAPITRE 6. FORMES BILIN

EAIRES ET QUADRATIQUES
6.2.4 Formes positives et denies positives (K = R)
Dans tout ce paragraphe, E designe un espace vectoriel reel.
Denition 6.5
Soit q une forme quadratique de E ; q est positive si et seulement si :
x E, q(x) 0
q est denie positive si et seulement elle est positive et si de plus
q(x) = 0 x = 0
Si f est une forme bilineaire de E, on dit que f est positive (respectivement denie positive) si la
forme quadratique q associee ` a f est positive (respectivement denie positive).
Proposition 6.15
Si E est de dimension nie, pour toute base B de E,
q (ou f) est positive [f]
B
est semi-denie positive
q (ou f) est denie positive [f]
B
est denie positive
Theor`eme 6.3 Inegalite de Cauchy-Schwarz
Soit q une forme quadratique positive de E et

f sa forme polaire. Alors :
x E et y E,

f(x, x)
2
q(x)q(y)
Du theor`eme precedent, on deduit linegalite de Minkowsky :
Proposition 6.16 - Inegalite de Minkowsky
Soit q une forme quadratique positive de E :
pour tout x E,
_
q(x +y)
_
q(x) +
_
q(y)
Proposition 6.17
Lorsque q est une forme quadratique denie positive, lapplication p : x E q(x)
1/2
poss`ede
les proprietes suivantes :
pour tout x de E, p(x) 0 ;
p(x) = 0 x = 0
E
;
pour tout x de E et tout a de K, p(ax) [a[p(x) ;
pour tout x et tout y de E, p(x +y) p(x) +p(y) ;
On dit que p est une norme de E.
6.2.5 Decomposition dune forme quadratique en carres de formes lineaires
On suppose ici que E est un espace vectoriel reel de dimension nie.
Denition 6.6 - Formes lineaires dun espace de dimension nie
Soit E un espace vectoriel reel. Une forme lineaire de E est une application lineaire de E dans R.
Lensemble des formes lineaires de E est un espace vectoriel reel note L(E, R) ou E

et est appele
dual de E.
Proposition 6.18
Soient f une forme lineaire de E et B = b
1
, b
2
, , e
n
une base de E. Alors pour tout x E,
f(x) =
n

i=1
x
i
a
i

o` u a
i
= f(e
i
).
p. 88 AJ.Casadevall - oct 2004
6.2. FORMES QUADRATIQUES
Theor`eme 6.4
Soit B = b
1
, b
2
, , b
n
une base de E. Les applications coordonnees :
b

i
: x E x
i
R
sont des formes lineaires de E (b

i
E

) ; la famille b

1
, b

2
, , b

n
est une base de E

appelee base
duale de la base B. E

est donc un espace vectoriel de dimension nie de meme dimension que E.


Exemple 6.2.2 :
Soit q(x, y, z) = x
2
+ y
2
+ z
2
xy yz. On va ecrire q sous la forme dune somme de carres de
formes lineaires de R
3
:
En regroupant les termes en x :
q(x, y, z) = (x
y
2
)
2
+
3y
2
4
+z
2
yz = (x
y
2
)
2
+q
1
(y, z)
q
1
ne depend plus que de y et de z ; on peut la factoriser ` a son tour en eliminant z :
q
1
(y, z) = z
2
yz +
3y
2
4
= (z
y
2
)
2
+
y
2
2
donc :
q(x, y, z) = (x
y
2
)
2
+ (z
y
2
)
2
+
y
2
2
par construction les formes (x
y
2
), (z
y
2
) et
y

2
sont lineairement independantes.
Algorithme de decomposition de Gauss
On generalise la demarche de lexemple precedent : Soit q une forme quadratique de matrice B.
ou bien, il existe i tel que b
ii
,= 0, alors (on suppose que i = 1)
q(x) = b
11
x
2
1
+ 2x
1
l
1
(x

) +r(x

) o` u x

= (x
2
, x
3
, , x
n
)
et o` u l
1
et r sont respectivement une forme lineaire et une forme quadratique en x

q(x) = b
11
_
x
1
+
l
1
(x

)
b
11
_
2
+
_

l
1
(x

)
2
b
11
+r(x

)
_
. .
forme quad. ne contenant plus x
1
nalement q(x) = b
11
_
x
1
+
l
1
(x

)
b
11
_
2
+q
1
(x

)
il nexiste pas de terme carre, alors, il existe necessairement un couple (i, j) tel que b
ij
,= 0.
(supposons que i = 1 et j = 2)
q(x) = b
12
x
1
x
2
+x
1
l
1
(x) +x
1
l
1
(x) +r(x) o` u x

= (x
3
, , x
n
)
et o` u l
1
, l
2
et r sont respectivement des formes lineaires et une forme quadratique en x
q(x) = b
12
_
x
1
+
l
2
(x)
b
12
__
x
2
+
l
1
(x)
b
12
_
+
_

l
1
(x)l
1
(x)
b
11
+r(x)
_
. .
forme quad. ne contenant plus x
1
ni x
2
q(x) =
b
12
4
_
x
1
+x
2
l
1
(x)+l
2
(x)
b
12
_
2

b
12
4
_
x
1
x
2
l
2
(x)l
1
(x)
b
12
_
2
+q
1
(x)
On reit`ere le processus jusqu`a avoir compl`etement epuise toutes les variables de q. Remarquons
que les formes ainsi construites sont par construction lineairement independantes.
La decomposition obtenue par lalgorithme precedent nest pas unique. Elle depend du choix
des variables `a eliminer. On a cependant le resultat suivant que nous admettrons :
AJ.Casadevall -oct 2004 p.89
CHAPITRE 6. FORMES BILIN

EAIRES ET QUADRATIQUES
Theor`eme 6.5 Theor`eme de Sylvester
Soient E un espace vectoriel reel de dimension n et q une forme quadratique de E. Il existe deux
entiers positifs p
+
et p

tels que 0 p
+
+ p

n et que pour toute decomposition de q en carres


de formes lineaires independantes,
p
+
est le nombre de carres precedes du signe +;
p

est le nombre de carres precedes du signe


Le couple (p
+
, p

) est la signature de la forme quadratique q.


Proposition 6.19 Soient E un espace vectoriel reel de dimension nie n et q une forme quadra-
tique de E de signature (p
+
, p

). Alors :
q positive p

= 0
q denie positive p
+
= n
6.3 Orthogonalite par rapport `a une forme quadratique
E est un espace vectoriel quelconque, q une forme quadratique de E et

f sa forme polaire.
6.3.1 Denitions et premi`eres proprietes
Denition 6.7
x E et y E sont q-orthogonaux (ou

f-orthogonaux) lorsque

f(x, y) = 0
soient A et B deux parties de E. A et B sont q-orthogonales (ou f-orthogonales) lorsque
x A, y B, f(x, y) = 0
soit A une partie de E ; le q-orthogonal de A est sous ensemble de E deni par :
A

q
= x E tels que pour tout y E, f(x, y) = 0
Proposition 6.20
A

q
est un sous-espace vectoriel de E
A B B

q
A

q
(A

q
)

q
A
6.3.2 Formes non-degenerees
Denition 6.8 - Noyau dune forme quadratique
On appelle noyau de q (ou de

f), le sous-espace vectoriel de E deni par :
N
q
= x E tels que pour tout y E, q(x) = f(x, y) = 0 = E

q
Denition 6.9 - Forme non-degeneree
On dit que q (ou

f) est non-degeneree lorsque N
q
= 0
E

Theor`eme 6.6
Soit q une forme quadratique positive de E. Alors
q (ou

f) denie positive q (ou

f) non-degeneree
Cest une consequence de linegalite de Cauchy-Schwarz 2
Theor`eme 6.7
Supposons que E est un espace de dimension nie. Soient B une base de E et B = [f]
B
la matrice
de

f dans la base B. Alors :
N
q
= Ker l
q
o` u l
q
est lendomorphisme de E tel que [l
q
]
B
= B;
q (ou

f) non-degeneree B inversible.
p. 90 AJ.Casadevall - oct 2004
6.4. ESPACES EUCLIDIENS
On appelle alors rang de q (ou de f) le rang de l
q
cest ` a dire n dim N
q
)
Proposition 6.21
Supposons que E est un espace de dimension nie et soit F est un sous-espace vectoriel de E.
Supposons q est non-degeneree, alors :
E = F F

q
et (F

q
)

q
= F
6.3.3 Bases q-orthogonales
E est un espace de dimension n, q une forme quadratique de E et

f sa forme polaire.
Denition 6.10 Base q-orthogonale
Une base | = u
1
, u
2
, , u
n
de E est une base q-orthogonale (ou f-orthogonale) si pour tout
i = 1, 2, , n et tout j = 1, 2, , n tels que i ,= j,

f(u
i
, u
j
) = 0.
Proposition 6.22
Soit | de E une base q-orthogonale. Alors la matrice de q (ou de f) dans cette base est diagonale.
Le nombre des termes diagonaux non nuls est le rang de q.
On admettra le resultat suivant :
Theor`eme 6.8
Soient E un espace de dimension n et q une forme quadratique de E, il existe une base | =
u
1
, u
2
, , u
n
de E qui est q-orthogonale et dans cette base,
q(x) =

n
i=1
q(u
i
)x
2
i
Si B = [q]
U
est la matrice de q dans cette base, B = diag(q(u
1
, u
2
, , u
n
) et le nombre de q(u
i
) ,= 0
est le rang de q.
Si K = R et si d
+
est le nombre de termes diagonaux positifs et d

est celui des termes diagonaux


negatifs, la signature de q est le couple (d
+
, d

)
6.4 Espaces Euclidiens
6.4.1 Denition et premi`eres proprietes
Denition 6.11 - Espace euclidien
Soit E un espace vectoriel reel de dimension nie. E est un espace euclidien si on peut denir
sur E une forme bilineaire symetrique denie positive.
Cette forme bilineaire est alors appelee produit scalaire de E et est notee < x, y >. Si B =
b
1
, b
2
, , b
n
est une base de E, il existe une matrice symetrique B telle que :
< x, y >= x
t
By
Exemple 6.4.1 :
R
n
muni de la forme bilineaire f(x, y) = x
t
y est un espace euclidien.
Soit E = T
3
lespace des polynomes `a coecients reels de degre inferieur ou egal `a trois.
Lapplication f(p, q) =
_
1
0
p(t)q(t)dt est une forme bilineaire denie positive qui donne ` a T
3
une structure despace euclidien.
Proposition 6.23
Soit E un espace euclidien :
Inegalite de Cauchy-Schwarz - Pour tous x et y dans E,
< x, y >
2
< x, x >< y, y >
Lapplication qui ` a x E p(x) =

< x, x > est une norme sur E.
AJ.Casadevall -oct 2004 p.91
CHAPITRE 6. FORMES BILIN

EAIRES ET QUADRATIQUES
6.4.2 Bases orthonormees et algorithme de Gram-Schmidt
Denition 6.12 - Base orthonormee
Soient E un espace euclidien, < , > son produit scalaire et et | = u
1
, u
2
, , u
n
une base de E.
| est orthonormee (par rapport au produit scalaire), si pour tout i, j, < u
i
, u
j
>=
i,j
Proposition 6.24
Si | est une base orthonormee, la matrice [< , >]
U
du produit scalaire dans la base | est lidentite.
Projections orthogonales
Soit F un sous-espace de E. On sait que E = F F

o` u F

designe le sous espace orthogonal


de F par rapport au produit scalaire de E. Pour tout x de E il existe donc un couple unique (y, y

)
de F F

tel que x = y +y

.
Denition 6.13 - Projections orthogonales sur F et F

Les applications P
F
de E sur F et P
F
de E sur F

sont appelees projections orthogonales sur F


et F

.
Proposition 6.25
P
F
et P
F
sont des applications lineaires ;
P
F
P
F
= p
F
, P
F
P
F
= P
F
et P
F
+P
F
= Id
E
;
Si u
1
, u
2
, , u
p
est une base orthonormee de F, P
F
(x) =

p
i=1
< x, u
i
> u
i
.
Algorithme de Gram-Schmidt
Soit Be = e
1
, e
2
, , e
n
une base de E. On construit comme dans la cas usuel une base
orthonormee |e = u
1
, u
2
, , u
n
veriant
pour tout k = 1, , n, V ect(e
1
, e
2
, , e
k
) = V ectu
1
, u
2
, ,
k
)
par :
u
1
=
e
1

<e
1
,e
1
>
pour k = 2, , n
b
k
= e
k
P
Fk1
o` u F
k1
= V ect(u
1
, , u
k1
) = V ect(e
1
, , e
k1
)
u
k
=
b
k

<b
k
,b
k
>
p. 92 AJ.Casadevall - oct 2004

S-ar putea să vă placă și