Sunteți pe pagina 1din 115

Université Cheick Anta Diop (UCAD), Sénégal

Faculté des Sciences et Techniques (FAST)

Titre :

COURS D'ALGEBRE

Par :
Mr Mamadou BARRY
Maître de Conférence

Année académique : 2012 - 2013


1

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Table des matières

1 Théorie des ensembles 4


1.1 Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Structures algébriques : Groupes -Anneaux - Corps 21


2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Groupres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Anneaux -Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 Polynômes et fractions rationnelles 35


3.1 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4 Espaces vectoriels 46
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Bases et dimension d'un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 53

5 Applications linéaires 58
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . 60
5.3 Noyau et Image d'une application linéaire . . . . . . . . . . . . . . . . . . . . . 61
5.4 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

6 Matrices 71
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3 Matrice d'une application linéaire : application linéaire associée à une matrice . 80
6.4 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.5 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

7 Déterminant d'une matrice 95


7.1 Déterminant d'une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.2 Application des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


TABLE DES MATIÈRES 3

8 Diagonalisation 105
8.1 Les éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.3 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 112

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Premier

Théorie des ensembles

Contents
1.1 Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.1.1 Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Les connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Propriétés des connecteurs logiques . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Les quanticateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.1 Dénitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 8


1.2.2 Parties d'un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.4 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.3.1 Dénitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 12


1.3.2 Composition d'application . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Injection  surjection  bijection . . . . . . . . . . . . . . . . . . . . . 13
1.3.4 Image directe et image réciproque . . . . . . . . . . . . . . . . . . . . 15
1.4 Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.4.1 Dénitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 17


1.4.2 Relation d'équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3 Relation d'ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.1 Notions de logique

1.1.1 Propositions
Dénition 1.1. On appelle proposition, tout énoncé qui est vrai dans certaines conditions ou
faux dans d'autres conditions, mais dont on peut toujours dire s'il est vrai ou faux.

Remarque 1.1. La propriété essentielle d'une proposition P est d'être dotée d' l'une des valeurs
de vérité V (vrai) ou F (faux) [1 ou 0].

Exemple 1.1. "n est une entier et n est un multiple de 2." Cette proposition est vraie si n est
un entier pair et fausse si n est un entier impair.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Notions de logique 5

Dénition 1.2. Une assertion est une proposition qui est toujours vraie ou fausse.

Exemple 1.2. "La terre est ronde."


"Fatick est la capitale du Sénégal."
"Si n est un entier, 2n + 1 est impair."

Dénition 1.3. 1. On appelle axiome, toute proposition en laquelle on attribue par conven-
tion la valeur vraie.
2. On appelle théorème, toute proposition dont on démontre qu'elle a la valeur vraie.

Remarque 1.2. Soit P une proposition. Le tableau suivant représente la table de vérité de P :
P
V
F

1.1.2 Les connecteurs logiques


Les principaux connecteurs logiques sont : la négation, la conjonction, la disjonction, l'im-
plication et l'équivalence.

La négation
La négation d'une proposition P est une proposition notée qP ou P̄ ou ” non P ”. La propo-
sition qP est vraie si P est fausse, et qP est fausse si P est vraie. La table de vérité de la négation,
est :
P qP
V F
F V

La conjonction
Etant données deux propositions P et Q, la conjonction de P et Q est une proposition
notée P ∧ Q ou encore "P et Q". La proposition P ∧ Q est vraie si et seulement si P et Q
sont simultanémént vraies, et P ∧ Q est fausse dans le cas contraire. La table de vérité de la
conjonction est :
P Q P ∧Q
V V V
V F F
F V F
F F F

La disjonction
Etant données deux propositions P et Q, on appelle la disjonction de P et Q, la proposition
notée P ∨ Q ou encore "P ou Q". La proposition P ∧ Q est vraie si et seulement si l'une ou
moins des propositions P ou Q est vraie, et fausse si et seulement si P et Q sont simultanémént
fausses. La table de vérité de la disjonction est :

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Notions de logique 6

P Q P ∨Q
V V V
V F V
F V V
F F F

L'implication
Etant donnée deux propositions P et Q, la proposition qP ∨ Q signie P implique Q, et se
nonte P ⇒ Q. La proposition P ⇒ Q est fausse si P est vraie et Q est fausse, et P ⇒ Q est
vraie dans le cas contraire. La table de vérité de l'implication est :

P Q P ⇒Q
V V V
V F F
F V V
F F V

Remarque 1.3. P ⇒ Q signie aussi "Si P alors Q". Si x est un réel, alors x2 + 1 est un réel
positif : x ∈ R2 ⇒ x2 + 1 > 0.

L'équivalence
Etant données P et Q deux propositions, la proposition (P ⇒ Q) ∧ (Q ⇒ P ) s'appelle
l'équivalence et se note P ⇐⇒ Q et on lit "P équivaut à Q". La proposition P ⇐⇒ Q est vraie
si P et Q sont simultanémént vraies ou simultanémént fausses et P ⇐⇒ Q est fausse dans le
cas contraire.

Remarque 1.4. Soient P, Q et R trois propositions. Les conditions suivantes sont équivalentes :
1. Les propositions P, Q et R sont équivalentes.

P ⇐⇒ Q
2.
Q ⇐⇒ R
3. P ⇒ Q ⇒ R ⇒ P .

La table de vérité de l'équivalence est :

P Q P ⇐⇒ Q
V V V
V F F
F V F
F F V

1.1.3 Propriétés des connecteurs logiques


Soient P , Q et R trois propositions.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Notions de logique 7

Commutativité
1. Le connecteur "et " est commutatif. P ∧ Q ⇐⇒ Q ∧ P .
2. Le connecteur "ou " est commutatif. P ∨ Q ⇐⇒ Q ∨ P .

Associativité
1. Le connecteur "et " est associatif. (P ∧ Q) ∧ R ⇐⇒ P ∧ (Q ∧ R).
2. Le connecteur "et " est associatif. (P ∨ Q) ∨ R ⇐⇒ P ∨ (Q ∨ R).

Distributivité
1. Le connecteur "et " est distributif par rapport à "ou". P ∧ (Q ∨ R) ⇐⇒ (P ∧ Q) ∨ (P ∧ R).
(Q ∨ R) ∧ P ⇐⇒ (Q ∧ P ) ∨ (R ∧ P ).
2. Le connecteur "ou" est distributif par rapport au connecteur "et ".
P ∨ (Q ∧ R) ⇐⇒ (P ∨ Q) ∧ (P ∨ R). (Q ∧ R) ∨ P ⇐⇒ (Q ∨ P ) ∧ (R ∨ P ).

Lois de Morgan
q(P ∨ Q) ⇐⇒qP ∧qQ
q(P ∧ Q) ⇐⇒qP ∨qQ.

Idempotence
1. Le connecteur "et " est idempotent : P ∧ P ⇐⇒ P .
2. Le connecteur "ou" est idempotent : P ∨ P ⇐⇒ P .

Notation 1.1. q(qP ) ⇐⇒ P .

La contraposée
(P ⇒ Q) ⇐⇒qQ ⇒qP .
Ainsi, on a : q(P ⇒ Q) ⇐⇒q(qP ∨ Q) ⇐⇒ P ∧qQ.

La régle de l'évidence
P ∨qP ⇐⇒ Vrai.

La régle de la contradiction
P ∧qP ⇐⇒ Faux. Ainsi, on a P ∧ Vrai ⇐⇒ P P ∨ Faux ⇐⇒ P .

1.1.4 Les quanticateurs


Il y a deux types de quanticateurs : le quanticateur universel et le quanticateur existen-
tiel.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Ensembles 8

Notation 1.2. Le quanticateur universel est noté "∀" et on lit "Quelque soit". Le quantica-
teur existentiel est noté "∃" et on lit " il existe". Soit P (x) une proposition contenant un objet
x du référentiel E.
1. Pour exprimer l'assertion : "il existe au moins un objet x appartenant à E pour lequel
P (x) est vraie". On écrit dans ce cas : (∃x ∈ E), P (x).
2. Pour exprimer l'assertion : "x est un élément quelconque de E pour lequel P (x) est vraie".
On écrit : (∀x ∈ E), P (x).
Exemple 1.3. 1. ∃x ∈ R, x2 − 3x + 2 = 0.
2. ∀x ∈ R, x2 + 5 > 0.
Propriété 1.1. 1. q[(∀x), P (x)] ⇐⇒ (∃x), P (x).
2. q[(∃x), P (x)] ⇐⇒ (∀x), qP (x).
3. q[(∀x)(P (x) ⇒ Q(x))] ⇐⇒ (∃x), (P (x) ∧ uqq(x)).
4. (∃x)(∃y), P (x, y) ⇐⇒ (∃y)(∃x), P (x, y).
5. (∀x)(∀y), P (x, y) ⇐⇒ (∀y)(∀x), P (x, y).
6. (∃y)(∀x), P (x, y) ⇐⇒ (∀x)(∃y), P (x, y).
7. (∀x)(P (x) et Q(x)) ⇐⇒ [(∀x), P (x)] et [(∀x), Q(x)].
8. (∀x)(P (x) ou Q(x)) ⇐⇒ [(∀x), P (x)] ou [(∀x), Q(x)].
9. (∃x)(P (x) ou Q(x)) ⇐⇒ [(∃x), P (x)] ou [(∃x), Q(x)].
10. (∃x)(P (x) et Q(x)) ⇐⇒ [(∃x), P (x)] et [(∃x), Q(x)].
Remarque 1.5. La réciproque du 10) est en général fausse. Par exemple, "Il existe des hommes
riches et honnêtes" implique qu'"il existe des hommes richees et aussi des hommes honnêtes."
Par contre, "il existe des hommes richees et aussi des hommes honnêtes" n'implique pas qu' "il
existe des hommes riches et honnêtes".
Exemple 1.4.
(∀ε ∈ R∗+ )(∃η ∈ R+

)(∀x ∈ R)(|x| < η ⇒ |f (x)| < ε)
(∃ε ∈ R∗+ )(∀η ∈ R+

)(∃x ∈ R)(|x| < η et |f (x)| < ε)
. Homework : Donner l'alphabet grec.
Soit P, Q et R trois propositions. Montrons que S1 est équivalente à S2 où : S1 = P ⇒
(Q ⇒ R) et S2 = (P ∧ Q) ⇒ R.

1.2 Ensembles

1.2.1 Dénitions et exemples


Dénition 1.4. Un ensemble est une collection d'objets appelés éléments ou points. En général,
on désigne les ensembles par des lettres majuscules et les éléments par des lettres miniscules.
Remarque 1.6. Un ensemble qui n'a pas d'éléments est un ensemble vide et se note : φ. Parfois
cerntans ensembles peuvent être dénis par des propositions.
Exemple 1.5. 1. N, Z, Q, R, C sont des ensembles.
2. φ = {x, x 6= x}; R+ = {x ∈ R/x ≥ 0}; R∗ = {x ∈ R/x 6= 0}.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Ensembles 9

1.2.2 Parties d'un ensemble


Dénition 1.5. Soient E et F deux sous-ensembles. On dit que E est inclus dans F, si tout
élément de E est aussi un élément de F.

Notation 1.3. Si E est inclus dans F, on écrit E ⊂ F .

Remarque 1.7. E ⊂ F ⇐⇒ (∀x)(x ∈ E ⇒ x ∈ F ).


Dénition 1.6. Soient E un ensemble. On dit qu'un ensemble A est une partie ou sous-
ensemble de E, si SA ⊂ E.

Exemple 1.6. N, Z, Q, et R sont des parties de C.

Remarque 1.8. Soient E et F deux ensembles.

E = F ⇐⇒ E ⊂ F et F ⊂ E

Dénition 1.7. Soit E un ensemble. On appelle l'ensemble des parties de E, l'ensemble noté
P(E), dont les éléments sont des sous-ensembles de E.

Remarque 1.9. Si card(E) = n alors card(P(E)) = 2n .

Exemple 1.7. 1. Soit E un ensemble. φ et E sont des parties de E.


2. On pose : E = {a, b, c}, on a : card(E) = 3.

P(E) = {φ, {a, b, c}, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}

1.2.3 Opérations sur les ensembles


Soient E, F des ensembles, A, B, et C trois parties de E.
1. Intersection

Dénition 1.8. On appelle intersection de E et F , l'ensemble des éléments x qui appar-


tiennent à la fois à E et F .
Notation 1.4. E ∩ F = {x/x ∈ E et x ∈ F }.
Remarque 1.10. (a) E ∩ F ⊂ E et E ∩ F ⊂ F .
(b) Si E ∩ F = φ, on dit que E et F sont disjoints.
(c) E ⊂ φ = φ.
2. Réunion

Dénition 1.9. On appelle réunion de E et F , l'ensemble des éléments x tels que x ∈


E ou x ∈ F .
Notation 1.5. E ∪ F = {x/x ∈ E ou x ∈ F }.
Remarque 1.11. (a) E ⊂ E ∩ F et F ⊂ E ∪ F .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Ensembles 10

(b) E ∪ φ = E et E ∪ F = φ ⇐⇒ E = φ et F = φ.
3. Complémentaire

Dénition 1.10. On appelle complémentaire de A dans E, l'ensemble des éléments de E


qui n'appartiennent pas à A.
Notation 1.6. {AE = Ā = E r A. {AE = {x ∈ E/x 6∈ A}.
Remarque 1.12. (a) {(E {AE ) = A.
(b) {φE = E et {EE = φ.
(c) A ∩ Ā = φ et A ∪ Ā = E.
Propriété 1.2. (a) Commutativité

 L'intersection est commutative : A ∩ B = B ∩ A.


 La réunion est commutative : A ∪ B = B ∪ A.
(b) L'associativité

 L'intersection est associative : (A ∩ B) ∩ C = A ∩ (B ∩ C).


 La réunion est associative : (A ∪ B) ∪ C = A ∪ (B ∪ C).
(c) Distributivité

 La réunion est distributive par rapport à l'intersection.

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

(B ∩ C) ∪ A = (B ∪ A) ∩ (C ∪ A)
(d) L'intersection est distributive par rapport à la réunion.

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

(B ∪ C) ∩ A = (B ∩ A) ∪ (C ∩ A)
Idempotence

(a) La réunion est idempotente : A ∪ A = A.


(b) L'intersection est idempotente : A ∩ A = A.
Lois de Morgan

(a)
{E (A ∪ B) = {E A ∩ {E B
{E (A ∩ B) = {E A ∪ {E B
Preuve 1.1. (a) {E (A ∩ B) = {E A ∪ {E B
Soit x ∈ {E (A ∩ B). Alors, x 6∈ (A ∩ B), donc x ∈ A ou x ∈ B . Ainsi, x ∈
{E A ou {E B . D'où {E (A ∩ B) ⊂ {E A ∪ {E B . Réciproquement, soit x ∈ {E A ∪ {E B .
Alors, x ∈ {E A ou x ∈ {E B .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Ensembles 11

 Si x ∈ {E A, alors x 6∈ A. Ainsi, x 6∈ A ∩ B ; d'où x ∈ {E (A ∩ B).


 Si x ∈ {E B , alors x 6∈ B . Ainsi, x 6∈ A ∩ B ; d'où x ∈ {E (A ∩ B).
D'où, {E A ∪ {E B ⊂ {E (A ∩ B). Par conséquent :

{E (A ∩ B) = {E A ∪ {E B

(b) {E (A ∪ B) = {E A ∩ {E B
Elle découle de la première preuve, en posant A0 = {E A et B 0 = {E B .

{E (A0 ∩ B 0 ) = {E A0 ∪ {E B 0 = {E ({E A) ∪ {E ({E B) = A ∪ B

Propriété 1.3. Soit (Ai )i∈i une famille de parties de E (Ai ⊂ E, ∀i ∈ I ).


(a) I est ni, I = {1, 2, ..., n}.
\
x∈ Ai ⇐⇒ ∀i ∈ I, x ∈ Ai
i∈I

[
x∈ ⇐⇒ ∃k ∈ I, x ∈ Ak
i∈I

(b) I est une ensemble quelconque.


\
x∈ Ai ⇐⇒ ∀i ∈ I, x ∈ Ai
i∈I

[
x∈ ⇐⇒ ∃k ∈ I, x ∈ Ak
i∈I

1.2.4 Produit cartésien


Dénition 1.11. On appelle produit cartésien des ensembles E et F , l'ensemble des éléments
(x, y) tels que x ∈ E et y ∈ F .

Notation 1.7. E × F = {(x, y)/x ∈ E et y ∈ F }.


Remarque 1.13. 1. E × F 6= F × E. Car E × F = {(x, y)/x ∈ E, y ∈ F } et F × E =
{(x, y)/x ∈ F, y ∈ E}.
2. Si card(E) = n et card(F ) = m, alors E × F et F × E ont m × n éléments .

Exemple 1.8. E = {α, β}; F = {a, b, c, d}. Card(E × F ) = 2 × 4 = 8.


E × F = {(α, a); (α, b); (α, c); (α, d); (β, a); (β, b); (β, c); (β, d)}

F × E = {(a, α); (a, β); (b, α); (b, β); (c, α); (c, β); (d, α); (d, β)}

Propriété 1.4. 1. Si A ⊂ E et B ⊂ F alors A × B ⊂ E × F .


2. Soient E1 , E2 , E3 trois ensembles.

E1 × (E2 ∩ E3 ) = (E1 × E2 ) ∩ (E1 × E3 )

E1 × (E2 ∪ E3 ) = (E1 × E2 ) ∪ (E1 × E3 )

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Applications 12

3. Soient E1 , . . . , En des ensembles. Le produit cartésien des ensembles E1 , . . . , En est l'ensem-


ble des n-uplets (x1 , . . . , xn ) où xi ∈ Ei pour i ∈ {1, ..., n}. On note :
n
Y
E1 × E2 × · · · × En = Ei
i=1

n
Y
Ei {(x1 , . . . , xn )/xi ∈ Ei , 1 ≤ i ≤ n}
i=1

Soit (Ei )i∈I une famille d'ensembles. On appelle produit cartésien des Ei avec i ∈ I ,
l'ensemble dont les éléments sont (xi )i∈I , xi ∈ Ei .
Y
Ei = {(xi )i∈I /xi ∈ Ei , i ∈ I}
i∈I

Si E1 = E2 = · · · = En = E, alors , Ei En , et :
Qn
i=1

En {(x1 , . . . , xn )/xi ∈ E, 1 ≤ i ≤ n}

1.3 Applications

1.3.1 Dénitions et exemples


Dénition 1.12. Soient E et F deux ensembles. On appelle graphe de E vers F toute partie
non vide de E × F . Autrement dit : un élément du graphe G est un couple ordonné (x, y) où x ∈
E et y ∈ F .
Dénition 1.13. Soient E et F deux ensembles. On appelle application de E dans F , toute
relation f qui associe à chaque élément x de E un et un seul élément y de F.
f :E −→ F f
E −→ F
Notation 1.8. ou
x 7−→ y = f (x) x 7−→ y = f (x)
où E est appelé l'ensemble de départ de f . F est appelé l'ensemble d'arrivée de f, et l'élément
y est appelé l'image de x par f.
Remarque 1.14. 1. Une application est un triplet f = (E, F, G) où G = {(x, f (x))/x ∈ E}
est appelé graphe de f.
2. Soient f1 = (E1 , F1 , G1 ) et f2 = (E2 , F2 , G2 ) deux applications. On a :

 E1 = E2
f1 = f2 ⇐⇒ F = F2
 1
G1 = G2
Exemple 1.9. 1. Soit E un ensemble.
IdE : E −→ E
est une application, appélée identité de E .
x 7−→ x
f1 : N −→ Z f2 : R −→ R f3 : C −→ C
2.
n 7−→ 2n x 7−→ |2x − 5| z 7−→ z + z̄
sont des applications.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Applications 13

Dénition 1.14. Soit f une application de E dans F, et A une partie de E. On appelle restric-
tion de f à A, et on note f/A , l'application h de A dans F, telle que h(x) = f (x) pour tout x ∈ A.

h = f/A : A −→ F
x 7−→ h(x) = f (x)

Remarque 1.15. Si card(E) = n et card(F ) = p, alors le nombre d'applications de E dans F


est p .
n

Exemple 1.10. E = {a, b, c}; F = {α, β}. Le nombre d'applications de E dans F est 23 = 8,
et le nombre d'applications de F dans E est 32 = 9.

1.3.2 Composition d'application


Soient E, F et H trois ensembles, et f : E 7−→ F ; g : F 7−→ H deux applications. Soit x ∈ E,
on lui associe un et un seul élément de H. On abtient ainsi une application de E dans H appelée
application composée de g et f, et est notée g ◦ f .

g ◦ f = g[f (x)] pour tout x ∈ E

f g
E 7−→ F 7−→ H
g◦f
x 7−→ f (x) = y 7−→ g(y)

Remarque 1.16. 1. La composée d'applications n'est pas commutative, i.e. g ◦ f 6= f ◦ g .


2. La composition d'applications est associative. Soient E1 , E2 , E3 , E4 des ensembles.
f1 : E1 7−→ E2 ; f2 : E2 7−→ E3 et f3 E3 7−→ E4 trois applications.

f3 ◦ f2 ◦ f1 = (f3 ◦ f2 ) ◦ f1 = f3 ◦ (f2 ◦ f1 )

f : R −→ R g : R −→ R
Exemple 1.11. Soit 2 et
x 7−→ x x 7−→ |x + 1|
2 2
(f ◦ g)(x)f [g(x)] = |x + 1| = (x + 1)
(g ◦ f )(x) = g[f (x)] = |x2 + 1| = x2 + 1. Remarquons que (f ◦ g)(x) 6= (g ◦ f )(x).

1.3.3 Injection  surjection  bijection


Soit f : E 7−→ F une application.
1. Injection

Dénition 1.15. On dit que f est une injection si et seulement si tout élément y de
F adment au plus un antécédent. Autrement dit, f est injective ⇐⇒ ∀(x, x0 )E2 (f (x) =
g(x0 ) ⇒ x = x0 ).
Exemple 1.12. (a) Soit E un ensemble. L'application identité est injective.
f : R+ −→ R
(b) est injective (à vérier).
x 7−→ x2

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Applications 14

(c) Soit E un ensemble et A une partie de E.


j : A −→ E
est une injection, appelée injection canonique.
x 7−→ x
f2 : R −→ R f3 : C −→ C
(d) et ne sont pas injectives
x 7−→ x2 z 7−→ z + z̄ = 2Re(z)
(à vérier).
2. Surjection

Dénition 1.16. On dit que f est une surjection, si tout élément y de F admet au moins
un antécédent dans E. Autrement dit, f est surjective ⇐⇒ ∀y ∈ F, ∃x ∈ E tel que y =
f (x).
Exemple 1.13. (a) Soit E un ensemble. L'application identité est surjective.
g1 : R −→ R+
(b) est surjective (à vérier), mais l'application f2 ainsi que f3
x 7−→ x2
(dans l'exemple précédent) n'est surjective.
(c) On pose
π : Rn −→ Rp
(x1 , . . . , xn ) 7−→ (x1 , . . . , xp )
π est une application surjective. Soit Y = (y1 , . . . , yp ) ∈ Rp , et
n−p

X = (y1 , . . . , yp , 0, 0, ..., 0) ∈ Rn . π(X) = Y , ce qui implique que π est surjective.


z }| {

π1 : R2 −→ R π : R2 −→ R
et 2
(x, y) 7−→ x (x, y) 7−→ y
π1 et π2 sont surjectives.
3. Bijection

Dénition 1.17. On dit que f est bijective si et seulement f est à la fois injective et
surjective. Autrement dit, f est bijective ⇐⇒ ∀y ∈ F, ∃!x ∈ E/y = f (x).
Exemple 1.14. (a) Soit E un ensemble. L'application identité de E est bijective.
h1 : R+ −→ R+ h : R −→ R
(b) 2 est bijective. Il en est de même de 1 (à
x 7−→ x x −
7 → x3
montrer).
Proposition 1.1. Soit f : E −→ F une application. Alors f est bijective si et seulement
s'il existe une application g : E 7−→ F tel que g ◦ f = IdE et f ◦ g = IdF . g est appelée
l'application réciproque de f.
Notation 1.9. g = f −1 .
h3 : R3 −→ R3
Exemple 1.15. est bijective (à montrer).
(x, y, z) 7−→ (2x, x − y + z, x + z)
Théorème 1.1. Soit f : E 7−→ F une application telle que card(E) = card(F ). Alors les
conditions suivantes sont équivalentes :
(a) f est injective ;

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Applications 15

(b) f est surjective ;


(c) f est bijective.

1.3.4 Image directe et image réciproque


Soient f : E 7−→ F une application, A ⊂ E, et B ⊂ F .

Image directe
Dénition 1.18. On appelle image directe de A l'ensemble des images des éléments de A par
f. On note : f (A) = {f (x)/x ∈ A} ou f (A) = {y ∈ F/∃x ∈ E/y = f (x)}.

Remarque 1.17. Soit f :: E 7−→ F .


1. f (A) ⊂ F ;
2. f (E) = {f (x)/x ∈ E} est appelée image de f, et est notée f (E) = Im(f ).
3. On dit que A est stable par f si f (A) = A.
4. On dit que A est invariant par f si f (A) = A.

Exemple 1.16. Soit la fonction dénie sur R par f : x 7−→ x2 − x. Calculons f ([−3; 2[).
f ([−3; 2[) = {f (x)/xd ∈ [−3; 2[} = [− 14 ; 12] ∪ [− 41 ; 2[= [− 14 ; 12].

Proposition 1.2. f : E 7−→ F est surjective si et seulement si Im(f ) = F .

Preuve 1.2. Supposons que f est surjective. Montrons que Im(f ) = F . On a : Im(f ) = f (E)F .
Pour cela montrons en un premier lieu que F ⊂ Im(f ) = F . Soit y ∈ F , comme f est surjective,
donc ∃x ∈ E, tel que y = f (x). f (x) ∈ f (E) donc y ∈ f (E), donc y ∈ Im(f ), d'où F ⊂
Im(f ). Ainsi, F = Im(f ). Supposons réciproquement que Im(f ) = F , et montrons que f est
surjective. Soit y ∈ F ⇒ y ∈ Im(f ) donc y ∈ f (E), donc ∃x ∈ E, tel que : y = f (x), d'où f
est surjective.

Image réciproque
Dénition 1.19. On appelle image réciproque de B par f , l'ensemble des antécédents des
éléments de B par f.
On note f −1 (B) = {x ∈ E/f (x) ∈ B}.

Exemple 1.17. 1. Soit la fonction dénie sur R, f : x 7−→ x2 . On pose B = {−1}; B 0 =


{−3}; B” =]2, 4].
√ √
f −1 (B) = {−1, 1}; f −1 (B 0 ) = φ; et f −1 (B”) = [−2; − 2[∪] 2, 2].
g : R2 −→ R+
2. Soit Déterminer g −1 ({1}) et g −1 ([4; 9[).
(x, y) 7−→ x2 + y 2

Remarque 1.18. 1. L'image réciproque d'une partie existe toujours, alors que l'image ré-
ciproque d'un élément n'existe que si l'application est bijective.
2. f −1 (F ) = {x ∈ E/f (x) ∈ F } = E.
3. f (φ) = φ et f −1 (φ) = φ.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Applications 16

4. A ⊂ f −1 (f (A)), ∀A ⊂ E et f (f −1 (B)) ⊂ B, ∀B ⊂ F .

Théorème 1.2. Soit f : E −→ F une application, et soient A, et A' deux parties de E.


1. Si A ⊂ A0 alors f (A) ⊂ f (A0 )
2. f (A ∪ A0 ) = f (A) ∪ f (A0 )
3. f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 )
4. f (A ∩ A0 ) =⊂ f (A) ∩ f (A0 ) ⇐⇒ f est injective
5. f −1 (f (A)) = A ⇐⇒ f est injective

Preuve 1.3. 1. Si A ⊂ A0 alors f (A) ⊂ f (A0 ).


f (A) = {y ∈ F/∃x ∈ AS/y = f (x)} . Soit y ∈ f (A).∃x ∈ A/y = f (x). Or A ⊂
A0 , donc x ∈ A0 , qui implique f (x) ∈ f (A0 ), donc y ∈ f (A0 ), d'où f (A) ⊂ f (A0 ) .
2. f (A ∪ A0 ) = f (A) ∪ f (A0 ) . On a A ⊂ A ∪ A0 ⇒ f (A) ⊂ f (A ∪ A0 ), d'après 1). On a aussi
A0 ⊂ A ∪ A0 ⇒ f (A0 ) ⊂ f (A ∪ A0 ). Donc, f (A) ∪ f (A0 ) ⊂ f (A ∪ A0 )(∗). De même, soit
y ∈ f (A ∪ A0 ).∃x ∈ A ∪ A0 tel que y = f (x). x ∈ A ∪ A0 ⇒ x ∈ A ou x ∈ A0 .

x ∈ A ⇒ f (x) ∈ f (A)
⇒ f (x) ∈ f (A)ou f (x) ∈ f (A0 )
x ∈ A0 ⇒ f (x) ∈ f (A0 )
Donc, f (x) ∈ f (A) ∪ f (A0 ), et alors : y ∈ f (A) ∪ f (A0 ). Par conséquent, f (A ∪ A0 ) ⊂
f (A) ∪ f (A0 ) (**).
(*) et (**) donnent : f (A ∪ A0 ) = f (A) ∪ f (A0 ) .
3. Montrons que f (A∩A0 ) ⊂ f (A)∩f (A0 ). Soit y ∈ f (A∩A0 ), donc, ∃x ∈ (A∩A0 ) tel que y =
f (x).
x ∈ A ∩ A0 ⇒ x ∈ A et x0 ∈ A0 ;

x ∈ A ⇒ f (x) ∈ f (A)
⇒ f (x) ∈ f (A)et f (x) ∈ f (A0 )
x ∈ A0 ⇒ f (x) ∈ f (A0 )
Donc, f (x) ∈ f (A) ∩ f (A0 ). Ainsi, f (A ∩ A0 ) = f (A) ∩ f (A0 ).
On laisse la preuve du 3) et du 4) à la charge du lecteur.

Exemple 1.18. Soit la fonction f dénie sur R telle que : x 7−→ x2 . On pose A = [−1, 0] et A0 =
[0, 1]. A ∩ A0 = {0} et f (A ∩ A0 ) = f ({0}) = {f (x)/x ∈ {0}} = {f (0)} = 0. Par contre,
f (A) = [0, 1] = f (A0 ), et f (A) ∩ f (A0 ). Notons que dans cet exemple, f (A ∩ A0 ) f (A) ∩ f (A0 ).

Théorème 1.3. Soit f : E −→ F une application, et soient B, et B' deux parties de F .


1. Si B ⊂ B 0 alors f −1 (B) ⊂ f −1 (B 0 )
2. f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 )
3. f −1 (B ∩ B 0 ) = f (B) ∩ f (B 0 )
4. f (f −1 (B)) = B ⇐⇒ f est surjective
5. f −1 ({F (B)) = {E f −1 (B)

Preuve 1.4. 1. Si, B ⊂ B 0 alors f −1 (B) ⊂ f −1 (B 0 ). Soit x ∈ f −1 (B); donc f (x) ∈ B . Or,
B ⊂ B 0 , donc f (x) ∈ B 0 . D'où, x ∈ f −1 (B 0 ) ainsi, on obtientf −1 (B) ⊂ f −1 (B 0 ).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Relations binaires 17

2. f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) .
On a :
B ⊂ B ∪ B0 f −1 (B) ⊂ f −1 (B ∪ B 0 )
 

B0 ⊂ B ∪ B0 f −1 (B 0 ) ⊂ f −1 (B 0 ) ⊂ f −1 (B ⊂ B 0 )
Donc f −1 (B) ∪ f −1 (B 0 ) ⊂ f −1 (B ∪ B 0 ). Montrons de même que f −1 (B ∪ B 0 ) ⊂ f −1 (B) ∪
f −1 (B 0 ). Soit x ∈ f −1 (B ∪ B 0 ). f (x) ∈ B ∪ B 0 . Ainsi, f (x) ∈ B ou f (x) ∈ B 0 , d'où
x ∈ f −1 (B) ou x ∈ f −1 (B 0 ). Par conséquent, x ∈ f −1 (B) ∪ f −1 (B 0 ). D'où le résultat :
f −1 (B ∪ B 0 ) ⊂ f −1 (B) ∪ f −1 (B 0 ).
On en déduit : f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) .
3. Montrons f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 ) . On a

B ∩ B0 ⊂ B f −1 (B ∩ B 0 ) ⊂ f −1 (B)
 

B ∩ B0 ⊂ B0 f −1 (B ∩ B 0 ) ⊂ f −1 (B 0 )

Donc f −1 (B ∩ B 0 ) ⊂ f −1 (B) ∩ f −1 (B 0 ).
Soit x ∈ f −1 (B) ∩ f −1 (B 0 ). x ∈ f −1 (B) et f −1 (B 0 ), qui implique, f (x) ∈ B et f (x) ∈
B 0 , soit , f (x) ∈ B ∩B 0 . Par suite, x ∈ f −1 (B ∩B 0 ). D'où le résultat : f −1 (B)∩f −1 (B 0 ) ⊂
f −1 (B ∩ B 0 ).
On en déduit : f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 ) .

1.4 Relations binaires

1.4.1 Dénitions et exemples


Dénition 1.20. Soit E un ensemble. On appelle relation binaire sur E, tout couple < = (E, Γ),
où Γ est une partie de E × E, appelée graphe de Γ. Si (x, y) ∈ Γ, on dit que x est en relation
avec y et on note x<y .

Exemple 1.19. 1. Dans Z, la relation d'égalité est une relation binaire.


2. Dans R, la relation ” ≤ ” est une relation binaire.
3. Dans P(X) où X est un ensemble, la relation d'inclusion est une relation binaire sur
P(X).
4. Dans N∗ , la relation de divisibilité est une relation binaire sur N∗ .

Dénition 1.21. Soit < une relation binaire sur E.


1. On dit que < est réexive, si ∀x ∈ E, x<x.
2. On dit que < est symétrique si ∀x, y ∈ E, x<y ⇒ y<x.
3. On dit que < est anti-symétrique si, ∀x, y ∈ E, x<y et y<x ⇒ x = y .
4. On dit que < est transitive si :

x<y
∀x, y, z ∈ E, ⇒ x<z
y<z

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Relations binaires 18

1.4.2 Relation d'équivalence


Dénition 1.22. Soit < une relation binaire sur E. On dit que < est une relation d'équivalence
sur E, si < est à la fois symétrique, réexive et transitive.

Exemple 1.20. 1. La relation d'égalité est une rélation d'équivalence sur E.


2. Soit p un entier positif. Dans Z, on dénit la relation < par x<y ⇐⇒ x − y ∈ pZ ⇐⇒
k ∈ Z/x − y = kp. < est une relation d'équivalence sur Z (à montrer).
3. Soit f : E −→ F une application dénit sur E par : x<y ⇐⇒ f (x) = f (y). < est une
relation d'équivalence sur E, appelée relation d'équivalence associée à f.
4. Dans R, on dénit : x<y ⇐⇒ sin x = sin y . < est une relation d'équivalence.

Dénition 1.23. Soit < une relation d'équivalence sur E. On appelle classe d'équivalence
modulo < d'un élément a de E, l'ensemble des éléments x de E qui sont en relation avec a. On
la note ā ou C(a)ouȧ.
ȧ = ā = C(a) = {x ∈ E/x<a}
.

Dénition 1.24. L'ensemble des classes d'équivalence modulo < s'appelle l'ensemble des quo-
tients de E par R. On le note E/< = {ẋ/x ∈ E}.

Exemple 1.21. 1. Soit E = {−5, −3, −2, −1, 0, 1, 2, 3, 10}. On dénit la relation x<y ⇐⇒
|x| = |y|. < est une relation d'équivalence sur E.
(a) 0̇ = {x ∈ E/|x| = 0} = {0} .
(b) 1̇ = {x ∈ E/|x| = 1} = {−1; 1}.
(c) 2̇ = {x ∈ E/|x| = 2} = {−2; 2}
(d) 3̇ = {x ∈ E/|x| = 3} = {−3; 3}.
(e) 10
˙ = {x ∈ E/|x| = 10} = {10}.
(f ) −5̇ = {x ∈ E/|x| = 5} = {−5}.
(g) E/< = {ẋ ∈ E} = {{−5}; {10}; {−3; 3}; {−2; 2}; {−1; 1}}.
2. Dans Z, on dénit la relation x<y ⇐⇒ x − y ∈ 2Z.
Soit a ∈ Z.

ȧ = {x ∈ Z/x<a} (1.1)
= {x ∈ Z/x − a ∈ 2Z} (1.2)
= {x ∈ Z/∃k ∈ Z : x − a = 2k} (1.3)
= {x ∈ Z/∃k ∈ Z : x = 2k + a} (1.4)

D'où ȧ = {x ∈ Z/∃k ∈ Z : x = 2k + a}. Donc, dans la classe d'un élément a, a n'est que
la classe du reste de la division euclidienne par 2. O, 1 étant les restes de la division par
2, on a deux classes : 0̇ = {x ∈ Z/x<0} = {x ∈ Z/∃k ∈ Z : x = 2k}. DOnc la classe
de 0 est la classe des entiers pairs. 1̇ = {x ∈ Z/∃k ∈ Z : x = 2k + 1}, la classe de 1 est
l'ensemble des entiers impairs.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Relations binaires 19

Propriété 1.5. Soit < une relation d'équivalence sur E.


1. ∀x ∈ E, x ∈ ẋ.
2. ∀x, y ∈ E, (x<y ⇐⇒ ẋ = ẏ).
3. ∀(x, y) ∈ E2 , (x 6 <y ⇒ ẋ ∩ ẏ = φ).
4. Les classes d'équivalence modulo R de E réalisant une partition de E.
[
E= ẋ
x∈E

Théorème 1.4 (Décomposition canonique d'applications). Soient E, F deux ensembles, f une


application. Alors les assertions suivantes sont vériées :
1. La relation binaire < dénie sur E par x<y ⇐⇒ f (x) = f (y) est une relation d'équivalence
sur E, dite relation d'équivalence associée à f.
2. Soit π : E −→ E/< la surjection canonique x 7−→ π(x) = x ; et j : Im(f ) −→ F, x 7−→
j(x) = x est l'injection canonique. Il existe une bijection unique f¯ : E/< −→ Im(f ) telle
que f = j ◦ f¯ ◦ π . On a le diagramme suivant :
f
E −→ F
π ˆj
−→
E/< f¯ Im(f )
Preuve 1.5. 1. Montrons que f¯ est une application. En eet, soit x̄, x̄0 6∈ E/< tel que

ẋ = ẋ0 ⇒ x<x0 (1.5)


⇒ f (x) = f (x ) 0
(1.6)
⇒ f¯(ẋ) = f¯(ẋ0 ) (1.7)

Donc f est une application. Ainsi, f¯(ẋ) = f¯(ẋ0 ) ⇒ x<x0 ⇒ ẋ = ẋ0 . Donc f¯ est injective.
Par ailleurs, soit y ∈ Im(f ). On a y ∈ f (E). Donc ∃x ∈ E/y = f (x) = f¯(ẋ). f¯ est donc
surjective. D'où le résultat : f¯ est une bijection.
2. Montrons f = j ◦ f¯ ◦ π . Soit x ∈ E .

(j ◦ f¯ ◦ π)(x) = (j ◦ f¯)(π(x)) (1.8)


= j ◦ f¯(ẋ) (1.9)
= j ◦ [f¯(ẋ)] (1.10)
= j(f (x)) (1.11)
= f (x) (1.12)

D'où j ◦ f¯ ◦ π = f , ce qui nit la démonstration.

1.4.3 Relation d'ordre


Soit < une relation binaire sur E.

Dénition 1.25. On dit que < est une relation d'ordre sur E, si < est à la fois réexive ,
antisymétrique et transitive.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Relations binaires 20

Remarque 1.19. Soit < une relation d'ordr sur E.


1. < est dite relation d'ordre total si ∀x, y ∈ E, soit x<y ou y<x.
2. < est dite relation d'ordre partiel s'il existe au moins (x, y) ∈ E2 , tel que x 6 <yety<x.
3. Le couple (E, Re) est appelé ensemble ordonné.

Exemple 1.22. 1. Dans R, la relation ” ≤ ” est une relation d'ordre total sur R.
2. Dans N∗ , la relation binaire suivante : x<y ⇐⇒ xdivise y est une relation d'ordre partiel
sur N∗ .
3. Soit X un ensemble. Sur P(X), la relation binaire suivante : A<B ⇐⇒ A ⊂ B est une
relation d'ordre partiel.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Deux

Structures algébriques : Groupes

-Anneaux - Corps

2.1 Généralités

2.1.1 Lois de compositions internes


Dénition 2.1. Soit E un ensemble. On appelle loi de composition interne sur E, toute
application de E × E dans E.

· : E×E −→ E
Notation 2.1.
(x, y) 7−→ x· y

∗ : E × E −→ E
(x, y) 7−→ x∗y

⊥ : E×E −→ E
(x, y) 7−→ x⊥y

Remarque 2.1. x ∗ y est le composé de x et y pour la loi ∗.

Exemple 2.1. 1. Dans N, le pgcd et le ppcmm sont des lois de composition internes. En
pgcd : N × N −→ N
eet, est une application. De même,
(m, n) 7−→ pgcd(m, n)
ppcm : N × N −→ N
(m, n) 7−→ ppcm(m, n)
2. Dans Z, l'addition et la multiplication sont des lois de composition internes, car
+ : Z × Z −→ Z × : Z × Z −→ Z
et
(m, n) 7−→ m + n (m, n) 7−→ m × n

3. Dans R, on dénit a ∗ b = a5 + b5 . ∗ est une loi de composition interne sur R.
5

4. Soit X un ensemble quelconque : E = P(X). L'intersection et la réunion sont des lois de


composition internes sur P(X).
∪: P(X) × P(X) −→ P(X)
(A, B) 7−→ A ∪ B

∩: P(X) × P(X) −→ P(X)


(A, B) 7−→ A ∩ B

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Généralités 22

5. Soit X un ensemble. On pose : E = F(X, X), l'ensemble des applications de X dans X. La


◦ : E × E −→ E
composition des applications est une loi de composition internes sur E. Car
(f, g) 7−→ g◦f
est une application.

2.1.2 Propriétés des lois de composition internes


Soient E un ensemble muni d'une loi de composition internes notée ∗.

Associativité
La loi ∗ est associative si et seulement si (x ∗ y) ∗ z = x ∗ (y ∗ z), ∀(x, y, z) ∈ E2 .

Commutativité
La loi ∗ est commutative si et seulement si x ∗ y = y ∗ x, ∀(x, y) ∈ E2 .

Elément neutre
On dit que e est élément neutre de E pour la loi ∗ si et seulement si ∀x ∈ E, e ∗ x = x ∗ e = x.
Si e ∗ x = x, on dit que e est un élément neutre à gauche.
Si x ∗ e = x, on dit que e est un élément neutre à droite.
Exemple 2.2. Dans P(X), on a φ ∪ A = A ∪ φ = A. φ est l'élément neutre de la loi ∪. De
même, X ∩ A = A ∩ X = A. X est l'élément de neutre de la loi ∩.

Elément symétrique
Soit e l'élément neutre de E pour la loi ∗. Soit x ∈ E . On dit que x adment un élémént
symétrique de la loi ∗ s'il existe x0 ∈ E tel que x ∗ x0 = x0 ∗ x = e.
Si x ∗ x0 = e, on dit que x' est le symétrique à droite de x.
Si x0 ∗ x = e, on dit que x est le symétrique à gauche de x.
Exemple 2.3. 1. Dans R, le symétrique x' de x pour la loi + s'appelle opposé de x , et est
noté -x (x + x0 = x0 + x = 0 ⇒ x0 = x).
2. Dans R∗ , le symétrique de x pour la loi × s'appelle inverse de x, et est noté 1
x
( x × x0 =
x0 × x = 1 ⇒ x0 = x1 ).

Distributivité
Soient ∗et · deux lois de composition internes sur E. On dit que la loi ∗ est distributive par
rapport à la loi ·, si pour tous (x, y, z) ∈ E3 , on a :
x ∗ (y· z) = (x ∗ y)· (x ∗ z)
(y· z) ∗ x = (y ∗ x) ◦ (z ∗ x)
Exemple 2.4. 1. Dans R, la multiplication est distributive par rapport à l'addition. En eet,
x × (y + z) = (x × y) + (x × z), (y + z) × x = y × x + z × x.
2. Dans P(X), la réunion est distributive par rapport à l'intersection et vice -versa. En eet,
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 23

2.2 Groupres

2.2.1 Dénitions et exemples


Dénition 2.2. On appelle groupe tout ensemble G muni d'une loi de composition interne
notée ∗ possédant les propriétés suivantes :
1. La loi ∗ est associative ;
2. G admet e comme un élément neutre pour la loi ∗.
3. Tout élément de G admet un symétrique pour la loi ∗.
Si de plus la loi ∗ est commutative, on dit que G est commutatif ou

Remarque 2.2. 1. Si + est la loi du groupe G, lélément neutre est noté 0. Dans ce cas,
l'élément symétrique x' est noté -x, pour tout x ∈ G.
2. Si × est la loi de G, alors l'élément neutre est noté 1, et l'élément symétrique d'un élément
x, est noté x−1 .
3. Si, (G, · ) est un groupe, on notera le symétrique d'un élément x de G par x−1 .

Exemple 2.5. 1. (Z, +), (Q, +), (R, +), (C, +), (Z/nZ , +) sont des groupes abéliens pour l'ad-
dition.
2. (Q∗ , ×), (R∗ , ×), (C∗ , ×), ({−1, 1}, ×) sont des groupes abéliens.
3. Soit E une ensemble quelconque. (S(E), ◦) est un groupe, non nécessairement commutatif.
En particulier, si E = {1, 2, ..., n} = In . Dans ce cas, S(E) se note Sn , soit (Sn , ◦), et
s'appelle le groupe des permutations d'ordre n.
Sn a n! éléments. Pour n = 3, S3 a 6 éléments. S3 = {Id, σ1 , σ2 , σ3 , σ4 , σ5 }
   
1 2 3 1 2 3
Id = σ1 =
1 2 3 2 1 3
   
1 2 3 1 2 3
σ2 = σ3 =
1 3 2 3 2 1
   
1 2 3 1 2 3
σ4 = σ5 =
2 3 1 3 1 2
Le lecteur pourra compléter le tableau suivant :
y
◦ Id σ1 σ2 σ3 σ4 σ5
Id Id σ1 σ2 σ3 σ4 σ5
σ1 Id
σ2 Id
σ3 Id
σ4 Id
σ5 Id
4. (Rn , +) est un groupe abélien.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 24

2.2.2 Sous-groupes
Dénition 2.3. Soit (G, ∗) un groupe et H une partie de G. On dit que H est un sous-groupe
de G si :
1. ∀(x, y) ∈ H 2 , x ∗ y ∈ H . (on dit que H est stable par la loi ∗).
2. ∀x ∈ H, x−1 ∈ H .

Remarque 2.3. 1. Une partie H de G est un sous-groupe de G si et seulement si H 6= φ et ,


∀(x, y) ∈ H , x ∗ y −1 ∈ H .
2

2. Si (G, ∗) est un groupe d'élément neutre e ; alors une partie H de G est un sous-groupe si
et seulement si e ∈ H et ∀(x, y) ∈ H 2 , x ∗ y −1 ∈ H .

Exemple 2.6. 1. Soit (G, ∗) un groupe d'élément neutre e. Alors, {e} et G sont des sous-
groupes de G.
2. Z et Q sont des sous-groupes de (R, +).
3. H = {z ∈ C∗ /|z| = 1} est un sous-groupe de (C∗ , ∗) ; en eet, on a : 1 ∈ H, H 6= φ.
Soient z, z 0 ∈ H.z · z 0−1 ∈ H . Car |z| = 1, |z 0 | = 1, |z · z 0−1 | = |z| · |z 0−1 | = |z| × |z10 | = 1.
4. Un {z ∈ C ∗ /z n = 1} est un sous-groupe de (C∗ , ∗).
5. (Z, +) est un sous-groupe de Z. Le sous-groupe est noté nZ, n ∈ N.

Proposition 2.1. Soit (G, ∗) un groupe d'élément neutre e, et soit (Hi )i∈I une famille quel-
conque de sous-groupe, alors i∈I Hi est un sous-groupe de G.
T

Preuve 2.1. Posons H = i∈I Hi .


T

 On a e ∈ Hi , ∀i ∈ I, car Hi est un sous-groupe de G. Comme e ∈ Hi , e ∈ i∈I Hi , donc e ∈


T

H . Soit (x, y) ∈ H 2 , x ∈ H ⇒ ∀i ∈ I, x ∈ Hi , y ∈ H ⇒ ∀i ∈ I, y ∈ Hi . Donc,


x ∗ y −1 ∈ Hi , ∀i ∈ I . Ainsi, x ∗ y −1 ∈ H . D'où le résultat : H est une sous-groupe de G.

Proposition 2.2. Soit (G, ∗) un groupe.


1. En général, la réunion de deux sous-groupes de G, n'est pas un sous-groupe de G.
2. Si H1 et H2 deux sous-groupes de G. H1 ∪ H2 est un sous-groupe de G si et seulement si
H1 ⊂ H2 ou H2 ⊂ H1 .

Preuve 2.2. 1. Il sut de prendre H1 = 2Z et H2 = 3Z, deux sous-groupes de (Z, +).


H1 ∪ H2 = 2Z ∪ 3Z n'est pas un sous-groupe de (Z, +). En eet, 2 ∈ 2Z, et 3 ∈ Z ; mais
2 + 3 = 5 6∈ 2Z ∪ 3Z.
2. On laisse la preuve du 2 en exercice.

Dénition 2.4. Soit A une partie non vide de G, un groupe muni de la loi ∗. On appelle
sous-groupe engendré par A le plus petit sous-groupe de G contenant A. On le note < A >.

Remarque 2.4. 1. Si A est un sous-groupe de A, alors < A >= A.


2. A est l'ensemble des produits nis d'éléments de A, i.e < A >= {x ∈ G/x = x1 ∗ x2 ∗
· · · ∗ xs } où xi ∈ A ou xi ∈ A−1 , A−1 est l'ensemble des symétriques des éléments de A.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 25

Exemple 2.7. Dans (Z, +), < {1} >= Z, en eet

m fois



1 + 1 + · · · + 1 si m ≥ 0
 z
 }| {
< {1} >= {m ∈ Z/m = }
 |m| fois

−1 − 1 − · · · − 1 si m ≤ 0
 z
 }| {

Remarque 2.5. Soit (G, ∗) un groupe. On pose A = {a}.


1. < A >=< a >= {ak /k ∈ Z} si la loi est multiplicative.
2. < A >=< a >= {ka/k ∈ Z} si la loi est additive.
3. Dans le groupe S3 , < σ1 >= {σ1 /k ∈ Z}.

Proposition 2.3. Soit (G, ∗) un groupe et H1 et H2 deux sous-groupes de G. Les assertions


suivantes sont vériées :
1. H1 ∗ H1 = H1 .
2. H1 ∗ H2 n'est pas en général un sous-groupe de G.
3. H1 ∗ H2 est un sous-groupe de G équivaut à H2 ∗ H1 = H1 ∗ H2 .

Preuve 2.3. (Homework).

2.2.3 Homomorphismes de groupes


Dénition 2.5. Soient (G, ∗) et (G0 , ⊥) deux groupes. On appelle homomorphisme de G dans
G', toute application f de G dans G vériant : f (x ∗ y) = f (x)⊥f (y), ∀(x, y) ∈ G2 . On note :
f : (G, ∗) −→ (G, ⊥)
x 7−→ f (x)

f : (C, +) −→ (C, ×)
Exemple 2.8. 1. En eet, f (z + z 0 ) = f (z) × f (z 0 ). f
z 7−→ f (z) = ez
est un homomorphisme.
g : (R∗ , +) −→ (R, ×)
2. est un homomorphisme de groupe car g(x ∗ x0 ) =
x 7−→ g(x) = lnx
g(x) + g(x ).
0

h : (Sn , ◦) −→ ({−1; 1}, ×)


3. est un homomorphisme (i(σ) est le nombre d'in-
σ 7−→ (−1)i(σ)
version de σ ). h(σ) est la signature de σ .

Dénition 2.6. Soient (G, ∗) et (G0 , ⊥) deux groupes et f : G −→ G0 un homomorphisme de


groupes.
1. On dit que f est un isomorphisme de groupes, si f est bijective.
2. On dit que f est un endomorphisme du groupe G si G = G0 .
3. On appelle automorphisme de G si f est un endomorphisme de G, et est bijectif.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 26

Exemple 2.9.p 1. (R, +) est un groupe abélien. De même, (R, ∗) est un groupe abélien avec
x∗y = 3
+ y 3 Vérions si (R, +) et (R, ∗) sont isomorphes.
x3
g : (R, ∗) −→ (R, ×)
Soit
t 7−→ g(x) = t3

Montrons que f est un homomorphisme. Soient (a, b) ∈ R2 . f (a ∗ b) = ( 3 a3 + b3 )3 =
a3 + b3 = f (a) + f (b). D'où le résultat. Soit y ∈ R, tel que f (x) = y, i.e x3 = y ; ce qui

donne x = 3 y . Il y a une unique solution, donc f est bijective : f est un isomorphisme de
groupes.
2. Soit (G, ◦) un groupe, et a ∈ G, e l'élément neutre de G. L'application g : (G, · ) −→
(G, · ), x 7−→ g(x) = a · x · a−1 . g est un automorphisme de G. En eet, g(x· x0 ) =
g(x)· g(x0 ), ∀x, x0 ∈ G, et g est bijectif (à montrer, injectiion et surjection).

Dénition 2.7. Soit f : (G, ×) −→ (G0 , ⊥) est homomorphisme de groupes, et e' l'élément
neutre de G'. On appelle noyau de f, le sous-groupe de G, noté Ker(f ) tel que :

Ker(f ) = f −1 ({e0 }) = {x ∈ G/f (x) = e0 }

Proposition 2.4. Soient f : (G, ∗) −→ (G0 , ⊥) un homomorphisme de groupes, e et e' les


élément neutres respectifs de G et C'. Alors on a les assertions suivantes :
1. Ker(f ) est un sous-groupre de (G, ∗).
2. Im(f ) est un sous - groupe de (G0 , ⊥).
3. f est injective ⇐⇒ Ker(f ) = {e}.
4. f est surjective ⇐⇒ Im(f ) = G0 .
5. ∀x ∈ G, f (x−1 ) = [f (x)]−1 .
6. Si H' est un sous-groupe de G', alors f −1 (H 0 ) est un sous-groupe de G.

Preuve 2.4. 1. On a : f (e) = f (e ∗ e) = f (e)⊥f (e). En composant par (f (e))−1 à droite,


on a f (e)⊥(f (e))−1 = f (e)⊥(f (e)⊥(f (e))−1 ), qui implique e0 = f (e)⊥e0 , d'où le résultat :
e0 = f (e), donc e ∈ Ker(f ) ; Montrons que x ∗ y −1 ∈ Ker(f ), ∀x, y ∈ Ker(f ).

f (x ∗ y −1 ) = f (x)⊥f (y −1 )
= f (x)⊥[f (y)]−1
= e0 ⊥e−1 ( car f (x) = e0 = f (y))
= e0 ( car e0−1 = e)

D'où f (x ∗ y −1 ) = e0 . Par suite, x ∗ y 1 ∈ Ker(f ) ; Ker(f ) est un sous-groupe de G.


2. Montrons [f (x)]−1 = f (x−1 ). Soit x ∈ G. On a : x ∗ x−1 = x−1 ∗ x = e.

x ∗ x−1 ⇒ f (x ∗ x−1 ) = f (e) (2.1)


⇒ f (x)⊥f (x−1 ) = f (e) (2.2)
⇒ f (x)⊥f (x−1 ) = e0 (2.3)

D'où [f (x)]−1 = f (x−1 ), ce qui achève la démonstration.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 27

2.2.4 Ordre d'un groupe


Soit (G, ∗) un groupe d'élément neutre e.

Dénition 2.8. On appelle ordre de G, le cardinal de G. On le note : ◦ G = Card(G) = |G|.

Remarque 2.6. L'ordre d'un groupe G est le plus petit entier n tel que ∀x ∈ G, xn = e, avec
xn = x ∗ x ∗ · · · ∗ x (si la loi du groupe est notée) ∗.

Dénition 2.9. Soit (G, ∗) un groupe et a ∗ G. On appelle l'ordre de a le cardinal du sous-


groupe engendré par a. On le note ◦ =◦ (< a >) = Card(< a >).

Exemple 2.10. 1. Soit (G, ∗) un groupe, avec G = {−1; 1}, on a : ◦ (G) = 2, i.e , ∀x ∈
G, x2 = 1.
2. (Sn , ◦), le groupe des permutations. ◦ (Sn ) = n!.
3. Soit (K, · ) le groupe d'ordre 4 appelé groupe de Klein. K = {e, a, b, c}. On a : a2 = e; b2 =
e; c2 = e; a· b = b· a = c; a· c = c· a = b; b· c = c· b = a.
y
◦ e a b c
e e a b c
a a e c b
b b c e a
c c b a e
Théorème 2.1 (De Lagrange). Soit (G, ∗) un groupe et H un sous-groupe de G. Alors ◦ (H)
divise ◦ (G), i.e, l'ordre de H divise l'ordre de G.

Remarque 2.7. On dit qu'un groupe G est ni si son cardinal est ni.

2.2.5 Groupe-quotient
Soit (G, · ) un groupe d'élément neutre.

Proposition 2.5. Soit H un sous-groupe de G. Alors les assertions suivantes sont vériées :
1. La relation binaire < dénie sur G par ∀(x, y) ∈ G2 , x<y ⇐⇒ x−1 · y ∈ H , est une
relation d'équivalence sur G.
2. La relation binaire <0 dénie sur G par : ∀(x, y) ∈ G2 , x<y ⇐⇒ y· x−1 ∈ H , est une
relation d'équivalence sur G.
3. La classe d'équivalence d'un élément x ∈ G modulo < est ẋ = x· H .
4. La classe d'équivalence d'un élément x ∈ G modulo <0 est ẋ = H· x.

Preuve 2.5. 1. Montrons que < est une relation d'équivalence sur G.
(a) Réexibilité
Soit x ∈ G, on a : x−1 · x = e ∈ H , i.e, x−1 · x ∈ H, d'où x ∈ Rex. Donc < est
réexive.
(b) Symétrie
Soient (x, y) ∈ G/x<y , x<y ⇒ x−1 · y ∈ H . Donc, (x−1 · y)−1 ∈ H , i.e, y −1 · (x−1 )−1 ∈
H ⇒ y −1 · x ∈ H , d'où y<x. Alors < est symétrique.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 28

(c) Transitivité
Soient (x, y, z) ∈ G2 /x<y et y<z . x<y ⇐⇒ x−1 · y ∈ H , et , y<z ⇐⇒ y −1 · z ∈ H .
Ainsi, x−1 · y· y −1 · z ∈ H , i.e, x−1 · e· z ∈ H , i.e, x−1 · z ∈ H. D'où x<z . < est une
relation transitive. Par conséquent, < est une relation d'équivalence, d'après tout ce
qui précède.
2. Montrons que la classe d'équivalence modulo < est ẋ = x· H . Soit x ∈ G.

ẋ = {y ∈ G/x<y}
= {y ∈ G/x−1 · y ∈ H}
= {y ∈ G/x· x−1 · y ∈ x· H}
= {y ∈ G/y ∈ x· H}
= x· H

Ce qui achève la démonstration.

G/< = Ensemble-quotient modulo< = {ẋ/x<y} = {x · H/x ∈ G}

Remarque 2.8. 1. G/< est noté aussi G/H .


2. Les classes modulo < sont dites classes à gauche modulo H . x ∈ G, ẋ = x· H . ẋ est
l'ensemble des classes de x à gauche modulo H.
3. Les classes d'équivalence modulo <0 sont dites classes à droite modulo H, x ∈ G, ẋ = H · x
(classe de x à droite modulo H). On le note G/<0 = {H· x/x ∈ G}.
4. Si (G, · ) est commutatif, alors H · x = x · H, ∀x ∈ G.
5. ė = e· H = H· e = H .
6. (G, +) un groupe. Soit x ∈ G, ẋ = x + H (classe de x modulo H). On rappelle que
x· H = {x· h/h ∈ H}.

Dénition 2.10. Soit (G, · ) un groupe et H un sous-groupe de G. On dit que : H est invariant,
ou distingué, ou normal dans G, si ∀x ∈ G, x· H = H· x.

Proposition 2.6. Soit H un sous-groupe de G. Alors, les conditions suivantes sont équiva-
lentes :
1. H est normal,
2. ∀x ∈ G, x· H· x−1 = H ,
3. ∀x ∈ G, x· H· x−1 ⊂ H .

Exemple 2.11. 1. Dans un groupe abélien, tous les sous-groupes sont invariants.
2. Dans (Z, +), tous les sous-groupes sont invariants (on rappelle que tous les sous-groupes
ici sont de la forme pZ(p > 0)) ;

Théorème 2.2. Soit (G, · ) un groupe, H un sous-groupe invariant de G. Alors, les assertions
suivantes sont vériées :
1. La relation d'équivalence < dénie sur G par x<y ⇐⇒ x−1 · y ∈ H est compatible avec la
structure du groupe G.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 29

2. La loi · dénie par G/H par :


G/H × G/H −→ G/H
(x̄, ȳ) 7−→ x̄· ȳ = x· y
est une loi de composition interne sur G/H .
3. (G/H , · ) est un groupe appelé le groupe quotient de G par H.
Remarque 2.9. 1. La relation < est compatible avec la loi du groupe G si ∀(x, y) ∈ G2 , ∀(x0 , y 0 ) ∈
G , on a
2

[x<y et x0 <y 0 ] ⇒ x· x0 <y· y 0


2. Soit e l'élément neutre de G. ē = e· H = H est l'élément neutre de G/H .
3.
x̄· ȳ = (x· H)· (y· H)
= x· (H· y)· H
= x· y· H· H = x· y· H
= (x· y)· H
= x· y
Ce qui achève la démonstration.
Exemple 2.12. 1. (Z, +) est un groupe abélien. Soit p > 0, H = pZ est un sous-groupe de
Z.
x<y ⇐⇒ x + y −1 ∈ H ⇐⇒ x − y ∈ pZ
< est une relation d'équivalence sur Z.
Z/< = ZpZ = {0̄, 1̄, 2̄, ..., p − 1}
(ZpZ , +) est un groupe abélien.
Cas particulier de Z6Z = {0̄, 1̄, 2̄, 3̄, 4̄, 5̄}.
y
+ 0̄ 1̄ 2̄ 3̄ 4̄ 5̄
0̄ 0̄ 1̄ 2̄ 3̄ 4̄ 5̄
1̄ 1̄ 2̄ 3̄ 4̄ 5̄ 0̄
2̄ 2̄ 3̄ 4̄ 5̄ 0̄ 1̄
3̄ 3̄ 4̄ 5̄ 0̄ 1̄ 2̄
4̄ 4̄ 5̄ 0̄ 1̄ 2̄ 3̄
5̄ 5̄ 0̄ 1̄ 2̄ 3̄ 4̄
2. An , l'ensemble des permutations paires est un sous-groupe invariant de Sn . En eet,
ε : Sn −→ {−1; 1}
σ 7−→ ε(σ) = (−1)i(σ)
Ker(ε) = {σ ∈ Sn , ε(σ) = 1} = An . (Sn/An , ◦) est un groupe appelé groupe-quotient de Sn
par An , avec Sn/An = {σ̄/σ ∈ Sn }. Si σ est une permutation paire, et σ 0 une permutation
impaire, on a :

(Sn ) n!
Sn/An = {σ̄, σ̄ 0 }, ◦ (Sn/An ) = 2, ◦ (An ) = =
2 2
. D'où l'ordre de l'ensemble des permutations paires est n!
2
= Card(An ) .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 30

Dénition 2.11. Soit (G, ◦) un groupe.


1. On dit que G est monogène s'il existe a ∈ G tel que G =< a >, < a >= {ak /k ∈ Z}.
2. On dit que G est cyclique si G est monogène et ni.

Exemple 2.13. Z est monogène ; et Z/pZ est un groupe cyclique.

2.2.6 Groupes symétriques : Sn


Généralités
Soit E un ensemble quelconque non vide et Card(E) = n.

Dénition 2.12. Une bijection de E sur E est dite une permutation de E.

Remarque 2.10. S(E) est l'ensemble des permutations de E, Card(S(E)) = n!.


Proposition 2.7. (S(E), ◦) est un groupe appelé le groupe des permutations de E.
Remarque 2.11. 1. (S(E), ◦) n'est pas en général commutatif.
2. Si E = {1, 2, 3, ..., n} = In , alors on note S(E) = Sn . Voir l'exemple n° ? au début de la
section.

Support
Dénition 2.13. On appelle support de σ l'ensemble des k ∈ In /σ(k) 6= k , on le note supp(σ).
 
1 2 3
Exemple 2.14. On considère (S3 , ◦). On pose σ2 = , supp(σ2 ) = {1, 3}.
3 2 1

Proposition 2.8. Soient σ, σ0 ∈ Sn . Si supp(σ)∩ supp(σ0 ) = φ, alors, σ et σ 0 commutent entre


eux.
   
1 2 3 4 5 6 1 2 3 4 5 6
Exemple 2.15. On pose σ1 = et σ2 = .
2 3 1 4 5 6 1 2 3 5 6 4
Supp(σ1 ) = {1, 2, 3} et supp(σ2 ) = {4, 5, 6}. Les deux supports sont disjoints, donc les deux
permutations commutent.

Cycles
Soit σ ∈ Sn .

Dénition 2.14. Une permutation σ est un cycle de longueur r (1 ≤ r ≤ n) s'il existe


a1 , a2 , ..., ar ∈ In /σ(a1 ) = a2 , σ(a2 ) = a3 , ..., σ(ar−1 ) = ar , et σ(ar ) = a1 , et ∀k ∈ In −
{a1 , ..., ar }, σ(k) = k . On note alors le cycle σ = (a1 , a2 , ..., ar ).

Exemple 2.16. Avec l'exemple précédent, on a σ1 = (1, 2, 3) et σ2 = (4, 5, 6) . Donc σ1 et σ2


sont de longueur 3.

Remarque 2.12. Soit σ = (a1 , a2 , ..., ar ) un cycle.


1. supp(σ) = {a1 , a2 , ..., ar } .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Groupres 31

2. ◦ (σ) =◦ (a1 , a2 , ..., ar ) = longueur de cycle = r.


3. σ r = Id.
Dénition 2.15. Une transposition est un cycle de longueur 2.
Remarque 2.13. Si σ est une transposition, alors il existe α1 , α2 ∈ In , tels que σ = (α1 , α2 ).
 
1 2 3
Exemple 2.17. Dans le groupe (S3 , ◦), σ1 = = (1, 3) est une transposition de
3 2 1
longueur 2 .

Décomposition d'une permutation


Théorème 2.3. Soit σ ∈ Sn et σ 6= Id. Alors, σ s'écrit sous la forme de produits de cycles
disjoints σ = σ1 ◦ σ2 ◦ σ3 ◦ · · · ◦ σr , où les σi , i ∈ {1, 2, ..., r} sont des cycles de longueur i.
 
1 2 3 4 5 6
Exemple 2.18. 1. σ1 = = (1, 3, 4, 6) ◦ (2, 5).
3 5 4 6 2 1
 
1 2 3 4 5 6 7 8 9
2. σ2 = = (1, 4, 7, 8) ◦ (2, 6, 5) ◦ (3, 9).
4 6 9 7 2 5 8 1 3
Théorème 2.4. Soit σ ∈ Sn (σ 6= Id). Alors, σ se décompose en un produit de transpositions
non permutables en général. σ = σ1 ◦ σ2 ◦ σs , où σi sont des cycles, pour (1 ≤ i ≤ s).
Soit σj = (aj1 , aj2 , ..., ajk ) un cycle .
σj = (aj1 , aj2 ) ◦ (aj2 ◦ aj3 ) ◦ · · · ◦ (aj k−1 , ajk )
Exemple 2.19.
 
1 2 3 4 5 6
σ =
3 5 4 6 2 1
= (1, 3, 4, 6) ◦ (2, 5)
= (1, 3) ◦ (3, 4) ◦ (2, 5)
Dénition 2.16. Soit σ = σ1 · σ2 · · · · σs ∈ Sn . On appelle ordre de σ le ppcm des ordes des
cycles σ1 , σ2 ,..., et σs . Card(σ) =◦ (σ) = ppcm(σ1 , ..., σs )
Dénition 2.17. Soit σ ∈ Sn et (i, j) ∈ N. On dit que σ réalise une inversion entre i et j si
pour i ≤ j on a : σ(i) ≥ σ(j). On note i(σ) le nombre d'inversion de σ .
 
1 2 3 4 5 6 7 8 9
Exemple 2.20. On pose σ = = (1, 4, 7, 8) ◦ (2, 6, 5) ◦ (3, 9).
4 6 9 7 2 5 8 1 3 | {z } | {z } | {z }
σ1 σ2 σ3

(σ) = ppcm(◦ (σ1 ),◦ (σ2 ),◦ (σ3 )) = ppcm(4, 3, 2) = 12.
Par ailleurs, 2012 = 12 ∗ 167 + 8, donc
σ 2012 = σ 8
= (σ14 )2 ◦ (σ23 )2 ◦ σ22 ◦ (σ32 )4
= σ22
= (2, 5, 6)
i(σ) = 22 et ε(σ) = 1 : σ est une permutation paire.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Anneaux -Corps 32

2.3 Anneaux -Corps

2.3.1 Dénitions et exemples


Dénition 2.18. Soit A un ensemble muni de deux lois de composition internes notées + et
·. On dit que A est un anneau si :
1. (A, +) est un groupe abélien.
2. La loi notée · est associative.
3. La loi · est distributive par rapport à la loi +.
Si de plus, la loi · est commutative, on dit que (A, +, · ) est un anneau commutatif. Si de plus
A admet un élément neutre pour la loi ·, notée 1A , on dit que (A, +, · ) est un anneau unitaire.

Exemple 2.21. (Z, +, ×), (Q, +, ×), (R, +, ×), (C, +, ×), (Z/pZ , +, ×), ppremier sont des an-
neaux commutatifs unitaires.

Conséquences 2.1. Quelques règles de calcul


Soit (A, +, · ) un anneau commutatif unitaire.
1. ∀x ∈ A, x· 0A = 0A · x = 0A .
2. ∀(x, y) ∈ A2 , x· (−y) = (−x)· y = −x· y .
3. ∀x ∈ A, x0 = 1A , et , xn = x· xn−1 .
4.
n
X
n
∀(x, y) ∈ A, (x + y) = Cnk xk · y n−k
k=0

2.3.2 Eléments particuliers d'un anneau


Soit A un anneau unitaire.
1. Elément inversible
Un élément a ∈ A est inversible s'il existe a0 ∈ A tel que a· a0 = a0 · a = 1A . Notons
a0 = a1− est appelé inverse de a.
2. Elément nilpotent
Un élément a est dit nilpotent dans A s'il existe n ∈ N∗ tel que an = 0.
Exemple 2.22. 2̇ ∈ Z/8Z . 2̇3 = 8̇ = 0̇, donc 2̇ et nilpotent d'ordre 3 dans (Z/8Z , +, · ).
3. Diviseur de zéro

 Un élément a ∈ A0 est dit diviseur de zéro à gauche s'il existe b ∈ A∗ /a· b = 0.


 Un élément a ∈ A0 est dit diviseur de zéro à droite s'il existe b ∈ A∗ /b· a = 0.
Exemple 2.23. Dans (Z/6Z , +, · ), on a 2̇· 3̇ = 6̇ = 0̇, donc 2̇ et 3̇ sont des diviseurs de
zéro.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Anneaux -Corps 33

2.3.3 Anneaux intègres


Dénition 2.19. Un anneau A est dit intègre s'il n'a pas de diviseurs de zéro, i.e, ∀(x, y) ∈
A , x· y = 0 ⇒ x = 0 ou y = 0.
2

Exemple 2.24. (Z, +, ×), (Q, +, ×), (R, +, ×), (C, +, ×), (Z/pZ , +, ×), ppremier sont des an-
neaux intègres. Par contre, l'anneau (R2 , +, · ) avec :

+: (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )

·: (x, y)· (x0 , y 0 ) = (xx0 , yy 0 )


n'est pas intègre, puisque (1, 0)· (0, 6) = (0, 6).
De même, (Z/6Z , +, · ) n'est pas un anneau intègre.

2.3.4 Sous-anneaux et notion d'idéaux


Dénition 2.20. Soit A un anneau. On appelle sous-anneau de A, toute partie B de A vériant
les conditions suivantes :
1. (B, +) est un est sous-groupe de (A, +),
2. ∀(x, y) ∈ B 2 , x· y ∈ B ,
Si de plus (A, +, · ) est un anneau unitaire, 1A ∈ B .

Exemple 2.25. (Z, +, ×) est un sous-anneau de (Q, +, ×).


Dénition 2.21. Soit (A, +, · ) un anneau.
1. On appelle idéal à gauche de A, toute partie I de A vériant les conditions suivantes :
(a) (I, +) est un sous-groupe de (A, +).
(b) ∀a ∈ A, ∀x ∈ I, a· x ∈ I ,
2. On appelle idéal à droite de A, toute partie I de A vériant les conditions suivantes :
(a) (I, +) est un sous-groupe de (A, +).
(b) ∀a ∈ A, ∀x ∈ I, x· a ∈ I ,
3. Une partie I de A est dite idéale bilatère de A, si I est à la fois idéal à gauche et à droite
de A, i.e, I est un idéal bilatère de A si
(a) (I, +) est un sous-groupe de (A, +).
(b) ∀a ∈ A, ∀x ∈ I, a· x· a ∈ I ,

Exemple 2.26. 1. Soit (A, +, · ) un anneau. {0A } et A sont des idéaux de A.


2. Dans (Z, +, ×), les idéaux de Z sont de la forme pZ, p ∈ N ∗ .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Anneaux -Corps 34

2.3.5 Homomorphismes d'anneaux


Dénition 2.22. Soient (A, +) et (A0 , +) deux anneaux. On appelle homomorphisme de A
dans A', toute application f : A0 −→ A vériant les conditions suivantes :
1. f (x + y) = f (x) + f (y) ,
2. f (x)· f (y) = f (x· y).
Si de plus A et A' sont des anneaux unitaires, alors f (1A ) = 1A0 .

Remarque 2.14. Soit f : A0 −→ A un homomorphisme.


1. Si A = A', on dit que f est un endomorphisme de A.
2. Si f est bijectif, on dit que f est un isomorphisme.
3. On dit que f est un automorphisme si f est un endomorphisme bijectif de A.

Dénition 2.23. Soit (A, +, · un anneau. Un idéal I de A est dit principal de A si I est engendré
par un élément de l'anneau. On note I =< a >.

Exemple 2.27. Dans (Z, +, ×) tous les idéaux sont principaux, car ils sont de la forme pZ =<
p >.

Dénition 2.24. Soit (A, +, · un anneau commutatif. Un idéal bilatère P de A est dit premier
si ∀a, b ∈ A, a· b ∈ P ⇒ a ∈ P ou b ∈ P .

Exemple 2.28. Dans (Z, +, ×) tous les idéaux sont premiers.

Dénition 2.25. Soit (A, +, · un anneau. Un idéal bilatère M est dit maximal si M 6= EA et
pour J idéal de A, si M ⊂ J , alors J = M ou J = A.

Exemple 2.29. Dans (Z, +, ×), I = pZ est un idéal maximal de Z si et seulement si p est
premier.

Dénition 2.26. Soit K un ensemble muni de deux lois de composition internes + et ·. On


dit que (K, +, ×) est un corps si :
1. (K, +, ×) est un anneau unitaire ;
2. Tout élément non nul de K est inversible, i.e , ∀x ∈ K∗ , ∃x0 ∈∗ tel que x· x0 = x0 · x = 1.
Si de plus, la loi · est commutative, alors (K, +, ×) est un corps commutatif.

Exemple 2.30. (Q, +, ×), (R, +, ×), (C, +, ×), (Z/pZ , +, ×), ppremier sont des corps commu-
tatifs. (Z, +, ×) n'est pas un corps commutatif car 2 n'est pas un élément inversible.
√ √
De même, Q[ 2] = {a + b 2/a, b ∈ Q} est un corps commutatif.

Dénition 2.27. Soit (K, +, ×) un corps, on appelle sous-corps de K, toute partie K0 de K


vériant les conditions suivantes :
1. K0 est un sous-anneau de K.
2. ∀x ∈ K − {0}, x−1 ∈ K.

Exemple 2.31. R est un sous-corps de C.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Trois

Polynômes et fractions rationnelles

Contents
3.1 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.2 Structures de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.3 Propriétés arithmétiques des polynômes . . . . . . . . . . . . . . . . . 38
3.2 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.2.1 Corps des fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . 42


3.2.2 Opérations sur K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.3 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . 43
3.2.4 Décomposition d'une fraction rationnelle dans R[X] . . . . . . . . . . 45

3.1 Polynômes

3.1.1 Généralités
Soit K un corps commutatif.

Dénition 3.1. On appelle polynôme à une indéterminée X à coecients dans K, toute suite
(a0 , a1 , ..., ak+1 , ...) = (ak )k∈N d'éléments de K nuls à partir d'un certain rang. On note : P =
(a0 , a1 , ..., ak+1 , ...), les éléments ak sont appelés les coecients du polynômes P.
Notation 3.1. 1. K[X] est l'ensemble des polynômes à coecients dans K, à une indéter-
minée X.
2. R[X] est l'ensemble des polynômes à coecients dans R, à une indéterminée X.
3. C[X] est l'ensemble des polynômes à coecients dans C, à une indéterminée X.
Dénition 3.2. Soit P = (ak )k∈N un polynôme de K[X].
1. On dit que P est le polynôme nul si ak = 0, ∀k ∈ N.
2. Si P 6= 0, on appelle degré de P, le plus grand des entiers k tels que ak 6= 0, et on note
d◦ P = deg(P ).
P = (a0 , a1 , ..., an , 0, 0, ....), deg(P ) = n
3. On appelle valuation de P, le plus petit des entiers k tels que ak 6= 0 et on note V (P ) =
V al(P ).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Polynômes 36

Exemple 3.1. Soit P = (0, 0, 0, −2, 8, 7, 10, 4, 5, 0, 0, ...) un polynôme. deg(P ) = 8, V al(P ) =
3.

Remarque 3.1. 1. V al(P ) ≤ deg(P ), ∀P ∈ K[X] et P 6= 0.


2. Si P = 0, V al(P ) = +∞ et deg(P ) = −∞.
3. Deux polynômes P = (ak )k∈N et Q = (bk )k∈N sont égaux si et seulement si ak = bk ∀k ∈ N.

3.1.2 Structures de K[X]


Addition
Soient deux polynômes P = (ak )k∈N et Q = (bk )k∈N .

P + Q = (ak + bk )k∈N
= (a0 + b0 , a1 + b1 , ..., ak + bk , ...)

On montre que l'ensemble K[X], muni de l'addition est un groupe abélien.

Proposition 3.1. (K[X], +) est un groupe abélien.


Remarque 3.2. Soient P et Q deux polynômes.
1. d◦ (P + Q) ≤ max(d◦ (P ), d◦ (Q)).
2. V al(P + Q) ≥ min(V al(P ), V al(Q)).

Produit externe
Soient α ∈ K, et P = (ak )k∈N ∈ K[X], on a α · P = (α · ak )k∈N .

Remarque 3.3. Soient (α, β) ∈ K2 , (P, Q) ∈ K[X]2 .


1. α · (P + Q) = α · P + α · Q
2. (α + β) · P = α · P + β · P
3. α(β · P ) = (αβ) · P
4. 1 · P = P
5. 1K · P = P
−∞ si α = 0

6. deg(α · P ) =
deg(P ) si (α, P ) 6= 0
−∞ si α = 0

7. V al(α · P ) =
V al(P ) si (α, P ) 6= 0

Produit de deux polynômes


Soient deux polynômes P = (ak )k∈N et Q = (bk )k∈N . On dénit : P · Q = (cn )n∈N où
cn = nk=0 ak bn−k .
P

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Polynômes 37

Théorème 3.1. (K[X], +, ◦) est un anneau commutatif et intègre.


0K[X] = (0, 0, 0, ..., 0, ...)

1K[X] = (1, 0, 0, ..., 0, ...)

Remarque 3.4. Soient P et Q deux polynômes non nuls.


1. d◦ (P · Q) = d◦ (P ) + d◦ (Q) ;
2. V al(P · Q) = V al(P ) + V al(Q).

Proposition 3.2. Soit K[X] un corps commutatif. Alors le groupe des éléments inversibles de
K[X] est l'ensemble des polynômes de degré zéro.

Preuve 3.1. Soit P ∈ K[X]. P est inversible s'il existe Q ∈ K[X] tels que P · Q = 1K[X] .
Ainsi, deg(P · Q) = deg(1K[X] ) = 0, deg(P ) + deg(Q) = 0, donc deg(P ) = deg(Q) = 0. D'où
P = (a0 , 0, 0, ..., 0), avec a ∈ K (P est un polynôme constant).

Dénition 3.3. On appelle indéterminée le polynôme X dont tous les coecients sont nuls
sauf le coecient d'indice 1 ∈ N, et qui est égal à 1K = 1.

X = (0, 1, 0, 0, ..., 0)

X 2 = (0, 1, 0, 0, ..., 0)(0, 1, 0, 0, ..., 0) = (0, 0, 1, 0, ..., 0)


X 3 = (0, 0, 0, 1
|{z} , 0, ..., )
4e position
X n = (0, 0, 0, ..., 0, 1
|{z} , O, ...)
n+1ime position

an X n = (0, 0, 0, ..., 0, an , O, ...)


|{z}
n+1ime position

P = (ak ) ∈ K[X]
= (a0 , a1 , a2 , ..., an , ...)
= (a0 , 0, 0, ..., 0) + (0, a1 , 0, ..., 0) + · · · + (0, 0, 0, ..., an , 0, ...)
= a0 (1, 0, 0, ..., 0) + a1 (0, 1, 0, ..., 0) + · · · + an (0, 0, 0, ..., 1, 0, ...)
= a0 · · · 1K[X] + a1 · X + a2 · X 2 + · · · + an · X n + · · ·
X
= ak x k
k∈N

Ainsi, si deg(P ) = n, alors P = (a0 , a1 , ..., an , 0, ...) = ak X k .


Pn
k=0

Remarque 3.5. 1. Si deg(P ) = n, alors le coecient non nul an est dit coecient dominant
de P.
2. Si an = 1, alors P est dit polynôme unitaire ou normal.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Polynômes 38

3.1.3 Propriétés arithmétiques des polynômes


Division euclidienne
Dénition 3.4. Soient A et B deux polynôme de K[X]. On dit que B divise A s'il existe un
polynôme Q ∈ K[X] tel que A = B · Q. Dans ce cas, A est dit multiple de B et Q s'appelle le
quotient de la division de A par B.

Théorème 3.2. Soitent A et B deux polynômes tels que B 6= 0. Alors il exite un couple (Q, R)
de K[X] unique tels que A = B · Q + R avec d◦ (R) < d◦ (B). Q s'appelle le quotient de la
division de A par B. R est le reste de la division de A par B.

Preuve 3.2. 1. Existence


Si deg(A) < deg(B), on a : A = 0 · B + A.
Si deg(A) ≥ deg(B), on raisonne par récurrence sur le degré de A.
 Si deg(A) = deg(B), A = α · B + C, où α ∈ K[X], deg(α) = 0, avec deg(C) < deg(B).
 Supposons la propriété est vraie jusqu'au rang n ≥ deg(B).
Si deg(A) = n + 1 et deg(B) = p,
n+1 p
X X
k
A= ak x B= bkxk
k=0 k=0

an+1 et bp sont les coecients dominants respectifs de A et B. Posons A1 = A −


an+1 b−1
p X
n+1−p
· B , donc deg(A1 ) ≤ n, et alors il existe (Q1 , R1 ) ∈ K[X]2 tel que
A1 = Q1 · B + R1 . On a :

A − an+1 b−1
p X
n+1−p
+ Q1 = Q1 · B + R1
A = (an+1 b−1
p X
n+1−p
+ Q1 ) · B + R1
= Q · B + R1

avec Q = an+1 b−1


p X
n+1−p
+ Q1 . Par conséquent, la propriété est vraie au rang (n + 1).
2. Unicité
Supposons que A = B · Q + R avec deg(R) < deg(B) et A = B 0 · Q + R, avec deg(R) <
deg(B). On a B · (Q − Q0 ) = R0 − R. Donc, deg(B(Q − Q0 )) = deg(R0 − R). Donc
deg(B) + deg(B(Q − Q0 )) = max(deg(R), deg(R)) < deg(B).
D'où deg(Q − Q0 ) < 0, ainsi Q − Q0 = 0, soit Q = Q0 et R = R0 . L'unicité est donc
vériée.

Exemple 3.2. X 2 − 2X + 4

X 2 + 2X + 1 X4 + X 2 − 4X − 2
− X 4 − 2X 3 − X 2
− 2X 3 − 4X
3 2
2X + 4X + 2X
4X 2 − 2X − 2
− 4X 2 − 8X − 4
− 10X − 6

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Polynômes 39
     
X 4 + X 2 − 4X − 2 = X 2 + 2X + 1 · X 2 − 2X + 4 + − 10X − 6
   
1 7 4
X 2 + 2X + 1 = − 10X − 6 · − 10 X − 50 + 25
 
4 125 75
− 10X − 6 = 25
· − 2
X − 2
+0

Remarque 3.6. Division euclidienne suivant les puissances croissantes


Soit p ∈ N, A, B deux polynômes de K[X] telq que V al(B) = 0, alors il existe un unique
couple (Q, R) ∈ K[X]2 tels que A = B · Q + X p+1 R. Q le quotient, R le reste de la division, et
deg(Q) ≤ p.

Exemple 3.3. A = 1 + X et B = 1 − X + X 2 .

1+X 1 − X + X2
−(1 − X + X 2 ) 1 + 2X + X 2
2X − X 2
−(2X − 2X 2 − 2X 3 )
X 2 − 2X 3
−(X 2 − X 3 + X 4 )
−X 3 − X 4 = −X 3 (1 + X)

A B Q R
z }| { z }| {z }| { z }| {
2 2 3
1 + X = (1 − X + X ) (1 − 2X + X ) + X (−1 − X)

Idéaux de K[X]
Plus grand commun diviseur (PGCD)
Soient A1 , A2 , ..., An des polynômes de K[X] non nuls. Posons
n
X
n
I = {p ∈ K[X], ∃u1 , u2 , ..., un ∈ K[X] , p = ui Ai }
i=1

On a I est un idéal de K[X], et d'après le théorème précédent, ∃D ∈ K[X] tel que I =< D >
(idéal engendré par D), D un polynôme unitaire. On a Ai ∈ I , car Ai = 0·A1 +0·A2 +· · ·+1·Ai +
· · · + 0 · An . Donc, ∀i ∈ {1, ..., n}, Ai ∈ I, Ai = D · ui , avec ui ∈ K[X]. Donc D est un diviseur
commun des Ai . Vérions que D est plus grand diviseur commun des Ai , i ∈ K[X], i ∈ [1, n].
Soit D' un autre diviseur commun des Ai . Soit Ai = D0 · u0i , où u0i ∈ K[X], comme In =< D >,
donc D ∈ I , donc D = ni=1 Ai · ui = ni=1 D0 u0i ui , soit D = D0 · ( ni=1 u0i ui ), et donc, D est le
P P P

plus grand diviseur commun des Ai .

Théorème 3.3 (De Bézout). Soient A1 , A2 , ..., An des polynômes non nuls de K[X]. Alors
A1 , A2 , ..., An sont premiers entre eux si et seulement s'il existe u1 , u2 , ..., un ∈ K[X] tel que
1K[X] = u1 A1 + u2 A2 + · · · + un An .

Corollaire 1. (De Gauss)


Soient A, B et C trois polynômes . Si A divise B · C et si pgcd(A, B) = 1, alors A divise C.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Polynômes 40

Preuve 3.3. pgcd(A, B) = 1, d'après Bézout, ∃U, V ∈ K[X], tel que U · A + V · B = 1.


A divise B · C ⇒ ∃W 6= 0, W ∈ K[X], tel que BC = W · A.
A · U + B · V = 1 ⇒ C · A · U + C · B · V = C . Donc, A · C · U + A · W · V = C , soit
A[C · U + W · V ] = C . Si nous posons U ” = C · U + W · V ∈ K[X], AU ” = C . D'où A divise
C.

Exemple 3.4. On pose A1 = X(X + 1), A2 = X(X + 2), A3 = (X1)(X + 2).

pgcd(A1 , A2 ) = X

pgcd(A1 , A3 ) = X + 1
pgcd(A2 , A3 ) = X + 2
pgcd(A1 , A2 , A3 ) = 1

Remarque 3.7. Soient A, B ∈ K[X] tel que A = Q · B + R, alors pgcd(A, B) = pgcd(B, R).

Recherche du pgcd : algorithme d'Euclide


Soient A et B deux polynômes tels que B 6= 0.

A = Q1 B + R1 avec deg(R1 ) < deg(B)

B = R1 Q2 + R2 avec deg(R2 ) < deg(R1 )

R1 = R2 Q3 + R3 avec deg(R3 ) < deg(R2 )


.. .. ..
. . .
Rs = Rs+1 Qs+2 + Rs+2 avec deg(Rs+2 ) < deg(Rs+1 )

Rs+1 = Rs+2 Qs+3 + Rs+3 avec deg(Rs+3 ) < deg(Rs+2 )


Si Rs+3 , alors pgcd(A, B) = pgcd(B, R1 ). Alors pgcd(A, B) = pgcd(B, R1 ) = · · · = pgcd(Rs+1 , Rs+2 ) =
Rs+2 , avec Rs qui sont des polynômes unitaires.

Exemple 3.5.
   
X 4 + 7X 3 + 19X 2 + 23X + 10 = X 4 + 7X 3 + 18X 2 + 22X + 12 · 1 + X 2 + X − 2
     
X 4 + 7X 3 + 18X 2 + 22X + 12 = X 2 + X − 2 · X 2 + 6X + 14 + 20X + 40
   
1 1
X2 + X − 2 = 20X + 40 · 20
X − 20
+0

pgcd(X 4 + 7X 3 + 19X 2 + 23X + 10, X 4 + 7X 3 + 18X 2 + 22X + 12) = X + 2 (Polynôme unitaire)

Remarque 3.8. Le pgcd des polynômes A1 , A2 , ..., An s'obtient en prenant dans leurs décom-
positions en produit de facteurs irréductibles, les facteurs unitaires communs à chacune des
décompositions.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Polynômes 41

Fonctions polynômes
Dénition 3.5. Soit P = a0 + a1 X + · · · + an X n ∈ K[X]. On appelle fonction polynôme
associé à P l'application p̃ dénie de K dans K associant à tout élément x ∈ K, l'élément
p̃(x) = a0 + a1 x + · · · + an xn

p̃ : K −→ K
x 7−→ a0 + a1 x + · · · + an x n

Exemple 3.6. Soit P = 2 + 5x − 5x2 + 8x3 ∈ R[X]. P̃ (x) = 2 + 5x − 5x2 + 8x3 est la fonction
polynôme associée à P .

Polynôme dérivé
Pn
Soit P = k=0 ak xk ∈ K[X]. On appelle polynôme dérivé, tout polynôme :
n
X n+1
X
k−1
P̃ = kak x = (j + 1)aj+1 xj
k=1 j=0

Conséquences 3.1. (Formule de Taylor)


(x−a)2 (x−n)n (n)
SOit a ∈ K, p ∈ K[X], p = p(a) + (x−a)
1!
p0 (a) + 2!
p”(a) + ··· + n!
p (a).

Racine d'un polynôme


Soit a ∈ K et p ∈ K[X].

Dénition 3.6. On dit que a est racine ou zéro de P si et seulement si P (a) = a.

Remarque 3.9. Si a est une racine de P, alors x - a divise P.

Théorème 3.4 (De D'Alembert). Soit P un polynôme de C[X] de degré supérieure où égal à
1. Alors il existe a ∈ C, tel que P (a) = 0. On dit que C est algébriquement clos.

Dénition 3.7. Soit a ∈ Ket P ∈ K[x]. On dit que a est une racine multiple d'ordre k de P si
(x − a) divise P , et (x − a) ne divise pas P k+1 .
k

Remarque 3.10. 1. Si k = 1, on dit que a est une racine simple de P.


2. Si k = 2, on dit que a est une racine double de P.

1. P = (x − a)(x − b)2 (x − c)3 avec a, b, c ∈ R. a est racine simple de P, b est racine double
de P, c est racine triple de P.

Dénition 3.8. Soit P ∈ K[X] un polynôme non constant. On dit que P est scindé s'il existe
λ1 , λ2 , ..., λn ∈ K , tels que P = α(x − λ1 )(x − λ2 ) · · · (x − λn ), avec α ∈ K, appelé coecient
dominant de P. les λi , i ∈ {1, ..., n} sont appelés racines de P.

Exemple 3.7. P = X 2 + 1 est scindé dans C[X] car P = (x − i)(x + i), mais il n'est pass
scindé dans R[X].

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Fractions rationnelles 42

Dénition 3.9. (Polynômes irréductibles) On dit qu'un polynôme P de K[X] est irréductible
ou premier sur K s'il n'est pas constant et ses seuls diviseurs dans K[x] sont des polynômes
associés à P, et les éléments non nuls de K.

Exemple

3.8.

P = X 2 − 2 est un polynôme irréductible dans Q[X], (car 2 ∈ Q), x2 − 2 =
(x − 2)(x + 2) n'est pas irréductible dans R[X].
x2 + 1 est irréductible dans R[X], mais n'est pas irréductible dans C[X].

Remarque 3.11. Les polynômes irréductibles sont les polynômes du premier degré.

3.2 Fractions rationnelles

Soit K un corps commutatif, K = Q, R ou C.

3.2.1 Corps des fractions rationnelles


On dénit sur K[X] × K[X]∗ la relation binaire suivante, dénie par :

(A, B)<(A0 , B 0 ) ⇐⇒ A · B 0 = A0 · B

. < est une relation d'équivalence sur K[X] × K[X]∗ .

˚
K[X] × K[X]∗ /< = {(A,
\ B)/(A, B) ∈ K[X] × K[X]∗ }

˚
\
(A, B) = {(C, D) ∈ K[X] × K[X]∗ /(C, D)<(A, B)}

Dénition 3.10. On appelle fraction rationnelle F, toute classe d'équivalence modulo <.

Remarque 3.12. On dit aussi fraction rationnelle à une indéterminée X à coecients dans
K.

Notation 3.2. Si (A, B) ∈ F , on écrit : F = A


B
= A · B −1 . (A, B) est une représentation de la
˚
classe F = (A,
\ B) .
˚ ˚
Exemple 3.9. X+1
X 2 −1
= X−1
X 2 −2X+1
, \
(X − 1, X 2 − 2X + 1) = X−1
X 2 −2X+1
. De même, (X +\
1; X 2 − 1) =
X+1
X 2 −1
.

Notation 3.3. On note K[X] l'ensemble des fractions rationnelles à une indéterminée X à
coecients dans K.

3.2.2 Opérations sur K[X]


Soient A
B
et C
D
deux éléments de K[x].
1. Addition (+)

A C AD + BC
+ =
B D BD

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Fractions rationnelles 43

2. Multiplication (×)

A C AC
× =
B D BD
Proposition 3.3. 1. (K[X], +) est un groupe abélien.
2. (K[X], +, ×) est un corps commutatif appelé corps des fractions rationnelles à une in-
déterminée X, et à coecients dans K, avec 0K[X] = B0 où B 6= 0, 1K[X] = B
B
où B 6= 0.

Dénition 3.11. On dit qu'une fraction rationnelle F = A


B
est irréductible si pgcd(A, B) = 1.

Dénition 3.12. On appelle fonction rationnelle associée à la fraction rationnelle F = A


B
,
toute application :

F̃ : K −→ K
Ã(x)
x 7−→ F̃ = B̃(x)

où Ã est la fonction polynôme associée à A. B̃ la fonction polynôme associée à B.

Dénition 3.13. 1. On appelle pôle de la fraction rationnelle F = A


B
, tout élément α ∈ K,
tel que B(α) = 0.
2. On appelle pôle d'ordre k de F = A
B
, toute racine d'ordre k de B.
3. L'ensemble DF = K − {α ∈ K/B(α) = 0} s'appelle le domaine de dénition de la fraction
rationnelle F = B
A
.

3.2.3 Décomposition en éléments simples


Quelques théorèmes généraux
Théorème 3.5. Soit F un élément de K[X]. Alors, il existe un unique polynôme E telle que
F = E + R où R est une fraction rationnelle du dégré strictement négatif (i.e si R = B
A
, on a :
deg(A) < deg(B)).

Dénition 3.14. Soit F ∈ A


B
∈ K[X], deg(F ) = deg(A) − deg(B).

Exemple 3.10. F = X 3 +X+2


X 2 +1
=X+ 2
X 2 +1
.

Remarque 3.13. Si F = E + R, E est dite partie entière de F.

Théorème 3.6. Soit F = Q1 ·QP2 ···Qn une fraction rationnelle où les polynômes Q1 , Q2 , ..., Qn
sont premiers entre eux et deg(P ) < deg(Q1 · Q2 · · · Qn ). Alors il existe une famille et une seule
(Pi )1≤p≤n de polynômes tels que
n
P X Pi
= et deg(Pi ) < deg(Qi )
Q1 · Q2 · · · Qn i=1
Q i

Exemple 3.11. F = X 2 +2
(X−1)(X+1)(X 2 +X+1)
= P1
X−1
+ P2
X+1
+ P3
X 2 +X+1
.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Fractions rationnelles 44

Décomposition en éléments simples dans C[X]


Théorème 3.7. Soit F un élément de C[X] écrit sous la forme F = Q P
, deg(Q) ≥ 1. Q =
λ(X − a1 ) (X − a2 ) · · · (X − an ) , alors il existe un unique polynôme E tel que :
α1 α2 αn

P
F =
λ(X − a1 )α1 (X − a2 )α2 · · · (X − an )αn
n X αi
X bij j
= E+ ( )
i=1 j=1
X − ai

avec bij ∈ C, ∀i = 1, ..., n; ∀j = 1, ..., αi .

Exemple 3.12. F = X5
(X−1)2 (X 2 +1)
∈ C[X]. La division euclidienne donne : X 5 = (X + 2)((X −
2X 3 −2X 2 +3X−2
1)2 (X 2 + 1) + 2X 3 − 2X + 3X − 2, donc F = X + 2 + F 0 , avec F 0 =
2
(X−1)2 (X 2 +1)
. D'après
le théorème, il existe (a1 , a2 , a3 , a4 ) ∈ C4 , tels que
a1 a2 a3 a4
F0 = + 2
+ +
X − 1 (X − 1) (X − i) (X + i)

Déterminons les coecients de la décomposition.


1. On multiplie les deux membres par (x − 1)2 , et ensuite on fait tendre X vers 1. On a :
3 −2X 2 +3X−2
donc 2X(X−i)(X+i) a3
= a1 (X − 1) + a2 (X − 1)2 + (X − 1)2 ( (X−i) a4
+ (X+i) ), ce qui donne
a2 = 2 .
1

2. On multiplie par (X − i), et on fait tendre X vers i. On a : a3 = 4i .


3. De même on multiplie par X + i, et on fait tendre X vers i−, on a : a4 = − 4i .
4. Il ne reste que a1 , qui donne quand on fait tendre X vers 0, a1 = 2.

Théorème 3.8. Soit F = QPn (n ∈ N∗ ) une fraction rationnelle telle que deg(P ) < deg(Qn ),
alors il existe une famille et une seule de polynômes P1 , P2 , ..., Pn telle que F = ni=1 Q
Pi
i , avec
P

deg(Pi ) < deg(Q).

Exemple 3.13. F = X 3 +1a1


= (X−2)
(X−2)4
a2
+ (X−2) 2 +
a3 3
(X−2)
+ a2 4
(X−2)
. Il ne reste qu'à passer à
l'identication des coecients a1 , a2 , a3 et a4 .

Dénition 3.15. On appelle élément simple de K[X], toute fraction rationnelle de la forme
A

,où B est un polynôme irréductible de K[X] et α un entier supérieur ou égal à 1, avec
deg(A) < deg(B).

Exemple 3.14. 1. Soit F1 = a


(x−b)α
∈ R[X], α ∈ N∗ , (a, b) ∈ R[X]. F1 est un élément simple
de première espèce.
2. F2 = ax+b
(x2 +pqx+q)3
∈ R[X], avec p2 − 4q < 0 est un élément simple de seconde espace.
3. Dans C[X], les éléments simples sont de la forme a
(x−b)α
∈ R[X], α ∈ N∗ , (a, b) ∈ R[X].

Théorème 3.9. Soit F un élément de K[X] écrit sous la forme F = Q P


, avec Q un polynôme
de degré au moins égal à 1, et soit Q = γ · A · B · · · L la décomposition de Q en facteurs
α β λ

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Fractions rationnelles 45

irréductibles. Alors, il existe une famille unique A1 , ..., Aα , B1 , ..., Bβ , L1 , ..., Lλ , telle que :

P P
F = =
Q γ · A · B β · · · Lλ
α
hA A2 Aα i
1
= E+ + 2 + ··· + α
A A A
hB B2 Bα i
1
+ + 2 + ··· + β
B B B
hL L2 Lα i
1
+··· + + 2 + ··· + λ
L L L
avec deg(Ai ) < deg(A) (1 ≤ i ≤ α), deg(Bi ) < deg(B) (1 ≤ i ≤ β), deg(Bi ) < deg(B) (1 ≤ i ≤
λ).

3.2.4 Décomposition d'une fraction rationnelle dans R[X]


Soit F = P
Q
∈ R[X], avec :

Q = λ(x − a1 )α1 (x − a2 )α2 · · · (x − an )αn (x2 + β1 x + δ1 )γ1 (x2 + β2 x + δ2 )γ2 · · · (x2 + βm x + δm )γm

avec βk − 4δj < 0, ∀j = 1, ..., m.

Théorème 3.10. Soit F = P


Q
∈ R[X], avec deg(Q) ≥ 1. Alors il existe un unique polynôme E
et des familles de réels Aij et Bkl 11 ≤≤ kl ≤≤ γmk et Ckl 11 ≤≤ kl ≤≤ γmk , tels que :
1≤i≤n
  
1 ≤ j ≤ αi

n X αi n X γk
X Aij X Bkl x + Ckl
F = E+ [ ] + [ ]
i=1 j=1
(x − ai )j k=1 l=1
(x 2 + β x + δ )l
k k

Exemple 3.15. Soit F = X5


(X−1)2 (X 2 +1)
∈ R[X].
2X 3 −2X 2 +3X−2
F = X+2+F 0 , avec F = (X−1)2 (X 2 +1) . D'après
0
le théorème précédent, il existe (a1 , a2 , b1 , b2 ) ∈
R4 , tels que
a1 a2 b1 x + b2
F0 = + 2
+
X − 1 (X − 1) (X 2 + 1)
Déterminons les coecients de la décomposition de F'.
1. On multiplie les deux membres par (X − 1)2 , et on fait tendre X vers 1. On trouve a2 = 12 .
2. On multiplie par (X − i) et on fait tendre X vers i. On a a1 ib2 = − 21 , par identication,
on obtient b1 = 0 et b2 = − 12 .
3. On multiplie par X et on fait tendre vers 0. On obtient : a2 = −2.

2 1 1
F =X +2− + −
X − 1 2(X − 1)2 2(X 2 + 1)

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Quatre

Espaces vectoriels

Contents
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.1.1 Dénitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


4.1.2 Exemples (usuels) d'espaces vectoriels usuels . . . . . . . . . . . . . . 48
4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.2.1 Dénition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 49


4.2.2 Opérations sur les sous-espaces vectoriels . . . . . . . . . . . . . . . . 50
4.3 Bases et dimension d'un espace vectoriel . . . . . . . . . . . . . . . 53

4.3.1 Dépendance linéaire et indépendance linéaire . . . . . . . . . . . . . . 53


4.3.2 Bases d'un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.3 Dimension d'un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 55
4.3.4 Rang d'un système de vecteurs . . . . . . . . . . . . . . . . . . . . . . 56

4.1 Généralités

4.1.1 Dénitions et exemples


Soit K un corps commutatif.

Dénition 4.1. On appelle loi de composition externe sur un ensemble E, de domaine K à


gauche, toute application de K × E dans E. On note :
· : K × E −→ E
(α, x) 7−→ α · x

Dénition 4.2. On appelle loi de composition externe sur un ensemble E, de domaine K à


droite, toute application de E × K dans E. On note :
· : E × K −→ E
(x, α) 7−→ x · α

Remarque 4.1.

1. En général, nous utiliserons la notation 00 ·00 pour désigner la loi de composition externe.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Généralités 47

2. En général la loi de composition externe est aussi appelée mutiplication externe.

Dénition 4.3. Soit E un ensemble muni d'une loi de composition interne notée additivement,
et K un corps commutatif. On dira que E est un espace vectoriel sur K si et seulement si E
vérie les conditions suivantes :
1. (E, +) est un groupe abélien.
2. Il existe une loi de composition externe sur E notée
· : K × E −→ E
(α, x) 7−→ α · x

P1 α · (x + y) = α · x + α · y, ∀α ∈ K, ∀(x, y) ∈ E2 .
P2 (α + β) · x = α · x + β · x, ∀(α, β) ∈ K2 , et ∀x ∈ E.
P3 α · (β · x) = (αβ) · x, ∀(α, β) ∈ K 2 et ∀x ∈ E.
P4 1K · x = x, ∀ ∈ E.

Remarque 4.2. Les éléments de E sont appelés les vecteurs et les éléments de K sont appelés
les scalaires.

Notation 4.1. Si E est un espace vectoriel sur K, on dit aussi E est un K-espace vectoriel ou
encore, on écrit : E est unK-e.v, (E, +, .) est un K-e.v.

Conséquences 4.1. (Règles de calcul dans un e.v )


Soit (E, +, .) un K-e.v. Alors on a les assertions suivantes :
1. ∀x ∈ E, ∀α ∈ K, α · x = 0E ⇐⇒ α = OK ou x = 0E ;
2. ∀α ∈ K, ∀(x, y) ∈ E2 , α · (x − y) = α · x − β · y ;
3. ∀α ∈ K, ∀y ∈ E, α · (−y) = −α · y ;
4. ∀(α, β) ∈ K2 , ∀x ∈ E, (α − β) · x = α · x − β · x ;
5. ∀β ∈ K, ∀x ∈ E, (−β) · x = −β · x

Preuve 4.1. 1. Montrons si α = 0K ou x = 0E , alors α · x = 0E .


Si α = 0K , soit x ∈ E, 0E · x = 0E . On a : 0K · x = (0K + 0K ) · x = 0K · x + 0K · x, d'après la
propriété P2 précédente, on a (−0K · x + 0K · x = 0K · x + 0K · x + (−0K · x). Donc 0K · x = 0E .
Si x = 0E , montrons que α · 0E = 0E , ∀α ∈ K. Soit α ∈ K, α · 0E = α · (0E + 0E ). Donc,
α · 0E = α · 0E + α · 0E .
α · 0E + (−α · 0E ) = (α · 0E ) + (α · 0E ) + (−α · 0E ). Donc, 0E = α · 0E + 0E , alors
α = 0K ou x = 0E .
Si α 6= K, et K est un corps, alors ∃α0 ∈ K/α · α0 = α0 · α = 1K (car tout élément non nul
d'un corps est inversible). Or, α· = 0E ⇒ α0 · (α · x) = α0 · 0E = 0E . Donc, (α0 · α) · x = 0E .
Donc, 1E · x = 0E .
Si x 6= 0E , montrons que α = 0K . Supposons par absurde que α 6= 0K . Comme α ∈ K ⇒
∃α00 ∈ K/α00 · α = α · α00 = 1K , or α · x = 0E ⇒ α00 · (α · x) = 0E . Donc, (α00 · α) · x = 0E ,
donc, 1K · x = 0E , x = 0E , ce qui est en une contradiction. Par conséquent, α = 0K .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Généralités 48

2. Montrons que ∀(x, y) ∈ E2 , ∀α ∈ K, α · (x − y) = α · x − α · y . Soient α ∈ K, (x, y) ∈ E2 .


α · (x − y) + α · y = α · (x − y + y) = α · (x + 0E ,
α · (x − y) + α · y = α · (x + 0E ) = α · x, donc, α · (x − y) + α · y + (−α · y) = α · x + (−α · y),
α · (x − y) + 0E = α · x − α · y , d'où α · (x − y) = α · x − α · y .
3. En posant x = 0E , dans (2), on a ; :

α · (0E − y) = α · 0E − α · y

Donc α · (−y) = −α · y .

4.1.2 Exemples (usuels) d'espaces vectoriels usuels


1. Tout corps commutatif K est un K-e.v.
 (K, +) est un groupe abélien.
 (K, +, ·) est un K-e.v .
En particulier, (Q, +, ×) est un Q-e.v ; (R, +, ×) est R-e.v ; (C, +, ×) est un C-e.v. (Z/pZ, +, ×)
est un Z/pZ -e.v. (p premier).
√ √ √
Cependant (Q, +, ×) n'est pas un R-e.v , car 1 ∈ Q, 2 ∈ R et 2 · 1 = 2 ∈ Q.
De même, (R, +, ×) n'est pas un C-e.v , car 1 ∈ Q, i ∈ C, i · 1 = i 6∈ R.
2. Soit K un corps commutatif. Kn = K × K × · · · × K, (n ≥ 1).
Z Addition :
Soit X = (xn , . . . , xn ) et X 0 = (x0n , . . . , x0n ) deux éléments de Kn .

X + X 0 = (x1 + x01 , x2 + x02 , ..., xn + x0n )

Z Multiplication externe :
·:
K × Kn −→ Kn
Soient X = (xn , . . . , xn ) ∈ Kn et α ∈ K. α·X = (α·Xn , . . . , α·Xn ).
(α, X) 7−→ α · X
(Kn , +, ×) est une K-e.v. De même, (Qn , +, ×) est un Q-e.v ; (Rn , +, ×) est un R-e.v ;
(Cn , +, ×) est un C-e.v ; (Z/pZ, +, ×) est un Z/pZ-e.v, p étant un entier premier.
3. Soit X un ensemble quelconque et K un corps commutatif. F(X, K) est l'ensemble des
applications de X dans K.
Z Addition :
Soient f et g deux éléments de F(X, K).
Soit x ∈ X, on a (f + g)(x) = f (x) + g(x) donc,
f + g : X −→ K
x 7−→ f (x) + g(x)
Z Multiplication externe :
Soient α ∈ K et f ∈ F(X, K). Soit x ∈ X, (α · f )(x) = α · f (x).
α · f : X −→ K
x 7−→ α · f (x)
(F(X, K), +, ·) est un K-e.v appelé l'espace vectoriel des applications de X dans K.
 X = R, K = R, (F(R, R), +, ×) est R-e.v .
 X = N, K = R, (F(N, R), +, ×) est R-e.v, appelé espace vectoriel des suites réelles .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Sous-espaces vectoriels 49

 X = N, K = C, (F(N, C), +, ×) est C-e.v, appelé espace vectoriel des suites com-
plexes.
4. Rn [x] l'ensemble des polynômes de degré inférieur ou égal à n, à coecients dans R.
Soit p(x) ∈ Rn [x], p(x) = a0 + a1 x + · · · + an xn où ai ∈ R, 0 ≤ i ≤ n.
Z Addition :
Soient p(x) = a0 + a1 x + · · · + san xn et q(x) = b0 + b1 x + · · · + bn xn où ai ∈ R, 0 ≤ i ≤
n et bi ∈ R, 0 ≤ i ≤ n.

p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn


Z Multiplication externe :
Soient α ∈ K. α · p(x) = (α · a0 ) + (α · a1 )x + · · · + (α · an )xn .
(Rn [X], +, ·) est un R-e.v, appelé l'espace vectoriel des polynômes de degré inférieur ou
égal à n coecients réels.

4.2 Sous-espaces vectoriels

4.2.1 Dénition et exemples


Soit (E, +, −) est un K-e.v.
Dénition 4.4. Soit F une partie de E. On dit que F est un sous-espace vectoriel de E sur K
si :
1. F 6= φ ;
2. F est stable pour l'addition, i.e, ∀(x, y) ∈ F2 , x + y ∈ F ;
3. F est stable pour la multiplication externe, i.e, ∀α ∈ K, ∀x ∈ F, on a α · x ∈ F.
Notation 4.2. Si F est un sous-espace vectoriel de E sur K. On dit aussi que F est un K-sous
espace vectoriel. On note F est K-s.e.v.
Remarque 4.3. 1. F est un K-s.e.v. si F 6= φ , et pour tous (α, β) ∈ K2 , (x, y) ∈ F2 , α ·
x + β · y ∈ F.
2. Si F est K-s.e.v de E, alors 0E ∈ F.
Exemple 4.1. 1. E et {0E } sont K-s.e.v de E.
2. Vérier que F = {(x, y, z) ∈ R3 /2x − 3y + 4z = 0} est un s.e.v de (R3 , +, ·).
3. Vérier que G = {(x, y, z, t) ∈ R4 /xy = 0}.
Les exemples suivants sont à montrer :
4. (F(R, R), +, ·) est un R-e.v.
 H1 = f ∈ F(R, R)/f est continue sur R est un R-s.e.v .
 H2 = f ∈ F(R, R)/f est paire est un R-s.e.v .
 H3 = f ∈ F(R, R)/f est impaire est un R-s.e.v .
´1
 H4 = f ∈ F(R, R)/ 0 f (t)dt est un R-s.e.v .
5. (Rn [x], +, ·) est un R-e.v .
 G1 = {p(x) ∈ Rn [x]/p0 (0) = 0} est un R-s.e.v .
 G1 = {p(x) ∈ Rn [x]/p(1) = p0 (1) = 0} est un R-s.e.v .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Sous-espaces vectoriels 50

4.2.2 Opérations sur les sous-espaces vectoriels


Soient (E, +, ·) un K-e.v , F et G deux K-s.e.v de E.

Intersection
Proposition 4.1. F ∩ G est un sous-espace vectoriel de E sur K.
Preuve 4.2. 1. F ∩ G 6= φ.
On a 0E ∈ F car F est un sous-espace vectoriel, autant que G.
Donc, 0E ∈ F ∩ G, d'où F ∩ G 6= φ.
2. Soient (α, α0 ) ∈ K2 et (X, X 0 ) ∈ F ∩ G2 , α · X + ph0 · X 0 ∈ F ∩ G. X ∈ F ∩ G ⇒ X ∈
F et X ∈ G ; X 0 ∈ F ∩ G ⇒ X 0 ∈ FetX 0 ∈ G.

X∈F
⇒ α · X + α0 · X 0 ∈ F car F est un s.e.v .
X0 ∈ F

X∈G
⇒ α · X + α0 · X 0 ∈ G car G est un s.e.v .
X0 ∈ G
Donc α · X + α · X 0 ∈ F ∩ G. Ainsi, F ∩ G est un sous-espace vectoriel de E.

Remarque 4.4. Soit (Fi )i∈I une famille de K-s.e.v de E . Alors i∈I Fi est un K - s.e.v de E.
T

Réunion
Proposition 4.2. F ∪ G n'est pas en général un sous-espace vectoriel de E.
Preuve 4.3. On sait que (R2 , +, ·) un R-e.v . On pose F1 = {λ · µ1 /λ ∈ R, µ1 = (1, 0)} (qui
est un sous-espace vectoriel, puisque pour tout u ∈ 0E , H = {λ · u/λ ∈ K} est un sous-espace
vectoriel de E). Il en est de même de F2 = {λ · µ2 /λ ∈ R, µ2 = (0, 1)}. F1 ∪ F2 n'est pas un
sous-espace vectoriel de R2 , étant donné que µ1 + µ2 6∈ F1 ∪ F2 .

Remarque 4.5. F ∪ G est un sous-espace vectoriel de E si et seulement si F ⊂ G ou G ⊂ F .

Complémentaire d'un sous-espace vectoriel


Proposition 4.3. {FE n'est pas sous-espace vectoriel de E.

Preuve 4.4. Comme F est un sous-espace vectoriel de E, alors, 0E ∈ F. Donc, 0E 6∈ {FE . Donc
{FE n'est pas un sous-espace vectoriel de E.

Sous-espace vectoriel engendré


Dénition 4.5. Soient µ1 , . . . , µn des vecteurs de E. On appelle combinaison linéaire des élé-
ments µ1 , . . . , µn , un élément de la forme λ1 · µ1 + λ2 · µ2 + · · · + λn · µn , où λi ∈ K, i = 1, 2, ..., n.

Exemple 4.2. 1. (Rn , +, ·) est un R-espace vectoriel. Soit X = (x1 , . . . , xn ) ∈ Rn .


X = x1 (1, 0, ..., 0) + x2 (0, 1, 0, ..., 0) + · · · + xn (0, 0, ..., 1). X est une linéaire des éléments
(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 1).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Sous-espaces vectoriels 51

2. (Rn [x], +, ·) est un R-espace vectoriel. Soit p(x) = a0 + a1 x + a2 x2 + · · · + an xn un élément


de Rn [x]. p(x) est une combinaison linéaire des éléments 1, x, x2 ,..., xn .
3. (R2 , +, ·) est un R-espace vectoriel. u = (2, 3) = 2 · (1, 0) + 3 · (x, 1). u est une combinaison
linéaire de (1, 0) et (0, 1).

Proposition 4.4. Soit A une partie non vide de E. Alors, il existe un plus petit sous-espace
vectoriel de E contenant A. Le sous-espace vectoriel est l'ensemble F de toutes les combinaisons
linéaires d'éléments de A.

Notation 4.3. F est appelé le sous-espace vectoriel de E engendré par A.


F = V ect(A) = lin(A). A est appelée partie génératrice de F.

Dénition 4.6. Soit A une partie non vide d'un K-e.v de E. On appelle sous-espace engendré
par A, le plus petit sous-espace vectoriel de E contenant A. V ect(A) = A⊂F F (où F est s.e.v
T

de E contenant A).

Remarque 4.6. 1. X ∈ V ect(A) ⇐⇒ ∃a1 , . . . , as ∈ A, et ∃α1 , . . . , αs ∈ K tel que


X = α1 · a1 + · · · + αs · as .
2. Si A = φ, V ect(A) = {0E }.
3. Pour montrer qu'une partie G de E est un K-s.e.v de E, il sut de montrer que G 6= φ,
et que tout élément de G est une combinaison linéaire de vecteurs de E.

Exemple 4.3. 1. G1 = {(x, y, z) ∈ R3 /2x − 3 + z = 0} = V ect{(1, 0, −2), (0, 1, 3)} .


2. G2 = {p(x) ∈ R3 [x]/p(1) = p0 (1) = 0} = V ect{1 − 2x + x2 , 2 − 3x + x3 }.

Somme de sous-espaces vectoriels


Proposition 4.5. F + G est un sous-espace vectoriel de E sur K.

Preuve 4.5.  On a 0E ∈ F et 0E ∈ G, donc 0E ∈ F + G 6= φ.


 Soient X, Y ∈ F + G et (α, β) ∈ K2 . X ∈ F + G ⇒ ∃x0 ∈ F, y 0 ∈ G tel que X = x0 + y 0 .
De même, Y ∈ F + G ⇒ ∃x” ∈ F, y” ∈ G tel que X = x” + y”. Ainsi, α · X + β · Y =
α(x0 + y 0 ) + β(x” + y”) = z + z 0 ∈ F + G, avec z = αx0 + βx” ∈ F, et αy 0 + βy” ∈ G.
Par conséquent, F + G est un sous-espace vectoriel de E.

Remarque 4.7. F + G = lin(F ∪ G).


Dénition 4.7. On dit que deux sous-espaces vectoriels F et G de E sont supplémentaires dans
E si F ∩ G = {0E } et F + G = E.

Remarque 4.8. Soient F1 , . . . , Fn des K − e.v de E.


1. Fi = F1 + F2 + · · · + Fn est un K-e.v de E.
Pn
i=1

2. Les sous-espaces vectoriels F1 , . . . , Fn sont dits supplémentaires dans E, si :


n
X n
X
Fi = E et Fj ∩ ( Fi ) = {0E }, (∀j = 1, 2, ..., n)
i=1 i=1,i6=j

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Sous-espaces vectoriels 52

Théorème 4.1 (Caractérisation des sous-espaces vectoriels supplémentaires).


Soient E1 et E2 deux K-s.e.v de E. Alors les conditions suivantes sont équivalentes :
1. E1 et E2 sont supplémentaires dans E.
2. Tout élément X de E s'écrit de manière unique sous la forme X = x1 + x2 avec
x1 ∈ E et x2 ∈ E.
3. E = E1 + E2 et ∀x1 ∈ E1 , ∀x2 ∈ E2 ,

x1 = 0E
x1 + x2 = 0E ⇒
x2 = 0E

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Bases et dimension d'un espace vectoriel 53

Preuve 4.6.

1) ⇒ 2) Comme E1 et E2 sont supplémentaires dans E, on a E1 + E2 = E et E1 ∩ E2 = {0E }.


Soit X ∈ E∃x1 ∈ E1 , x2 ∈ E2 tel que X = X1 + X2 . Supposons ∃x01 ∈ E1 et x02 ∈
E2 tel que X = x01 + x02 . Donc x1 + x2 = x01 + x02 , donc x1 − x01 = x02 − x2 .
x1 − x01 ∈ E1 et x02 − x2 ∈ E donc x1 − x01 ∈ E1 ∩ E2 et x02 − x2 ∈ E1 ∩ E2 .
Or E1 ∩ E2 = {0E }, d'où x1 − x01 = 0E et x02 − x2 = 0E , donc x1 = x01 et x2 = x02 , d'où
l'écriture unique.
2) ⇒ 3) On a :
E1 s.e.v de E

⇒ E1 + E2 s.e.v de E donc E1 + E2 ⊂ E
E2 s.e.v de E
Soit X ∈ E ⇒ ∃x1 ∈ E1 et x2 ∈ E2 tel que
X = x1 + x2 doncX ∈ E1 + E2 , donc E ⊂ E1 + E2 d'où E1 + E2 = E.
Soit x1 ∈ E1 et x2 ∈ E2 tel que x1 + x2 = 0E . Or 0E = 0E + 0E . Donc x1 = 0E et x2 = 0E ,
car l'écriture de 0E est unique.
3) ⇒ 1) D'après 3) on a E1 + E2 = E. Vérions que E1 ∩ E2 = 0E . Soit X ∈ E1 ∩ E2 . X ∈
E1 et X ∈ E2 ; et X + (−X) = 0E , et d'après le 3), X = 0E . D'où le résultat.

Dénition 4.8. On dit que deux sous-espaces vectoriels E1 et E2 constituent une somme directe
de E s'ils vérient l'une des conditions équivalentes du théorème précédent.

Notation 4.4. E1 ⊕ E2 = E.
Exemple 4.4. (A montrer)

1. On pose E1 = {(x, 0)/x ∈ R} et E2 = {(0, x)/x ∈ R}. Vérier que E1 ⊕ E2 = R2 .


2. On pose P = {f ∈ F(R, R)/f paire } et P = {f ∈ F(R, R)/f impaire }. Vérier que
P ⊕ I = F(R, R).

4.3 Bases et dimension d'un espace vectoriel

4.3.1 Dépendance linéaire et indépendance linéaire


Dénition 4.9. Soit {u1 , . . . , un } une famille de vecteurs d'un K-e.v E. On dit que la famille
{u1 , . . . , un } est liée s'il existe des scalaires non tous nuls (α1 , . . . , αn ) ∈ Kn tels que α1 · u1 +
· · · + αn · un = 0E .

Remarque 4.9. 1. On dit que les vecteurs u1 , . . . , un sont linéairement indépendants si la


famille {u1 , . . . , un } est liée.
2. La famille {u1 , . . . , un } est liée si l'un au moins des vecteurs est une combinaison linéaire
des autres vecteurs, i.e ∃p ∈ {1, 2, ..., n} tel que up = ni=1,i6=p αi ui .
P

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Bases et dimension d'un espace vectoriel 54

Dénition 4.10. Soit {u1 , . . . , un } une famaille de vecteurs de E (K-e.v). On dit que la famille
{u1 , . . . , un } est libre, si toute relation α1 · u1 + · · · + αn · un = 0E implique α1 = α2 =
· · · = αn = 0K . Autrement dit, les vecteurs {u1 , . . . , un } sont linéairement indépendants , si
∀{(α1 , . . . , αn )} ∈ K, on a :

α1 · u1 + · · · + αn · un = 0E ⇒ ph1 = α2 = · · · = αn = 0K

Remarque 4.10. Soit {ui /i ∈ I} une famille de vecteurs du K-e.v E. La famille {ui /i ∈ I}
est libre si ∀n ∈ N , {u1 , . . . , un } est libre.

Exemple 4.5. (A montrer)

1. La famille S1 = {u1 , u2 } avec u1 = (1, 1) et u2 = (1, 2) est libre.


2. La famille {(1, 2, 0), (−2, −1, 1), (0, 3, 1)} est libre .
3. La famille {sin(t), cos(t)} est libre .

Proposition 4.6. Soit E un K-e.v. Alors les assertions suivantes sont vériées :
1. Toute famille réduite à un vecteur non nul est libre.
2. Toute famille de E contenant le vecteur nul est liée.

Preuve 4.7. 1. Soit u ∈ E tel que u 6= 0E . Soit α ∈ K tel que α · u = 0E . Ceci implique
α = 0K donc {u} est libre.
2. Soit S 0 = {u1 , . . . , uk−1 , 0E , uk+1 , ..., un } une famille de vecteurs de E. On a 0K · u1 + 0K ·
u2 + · · · + 0K · uk−1 + 1K · 0E + 0K · uk+1 + · · · + 0K · un = 0E . On a une combinaison linéaire
nulle dont les coecients ne sont pas tous nuls. Donc S' est une famille liée.

Proposition 4.7. Soit (E, +, −) un K-e.v. Alors les assertions suivantes sont vériées :
1. Toute famille de vecteurs de E contenant un sous-ensemble lié est lié.
2. Tous sous-ensemble d'une famille libre est libre.

Preuve 4.8. 1. Soit S = {u1 , . . . , up , up+1 , ..., un } une famille de n vecteurs de E. Si {u1 , . . . , up }
est liée, donc ∃k ∈ {1, ..., p} tel que uk = i=1,i6=k αi ui donc ∃k ∈ {1, ..., n} tel que
Pp

uk = i=1,i6=k αi ui avec αp+1 = αn = 0K , donc S est une famille liée.


Pp

2. Soit S = {u1 , . . . , up , ..., un } une famille libre de vecteurs de E. S 0 = {u1 , . . . , up } est un


sous-ensemble de S'. Soient α1 , ..., αp ∈ K tel que pi=1 αi ui = 0E . Donc pi=1 αi ui +
P P

0K · up+1 + · · · + 0K · un = 0E . Comme {u1 , . . . , up , ..., un } est une famille libre, donc


α1 = α2 = · · · = αp = 0K . Donc S' est une famille libre.

4.3.2 Bases d'un espace vectoriel


Dénition 4.11. Soit S = {u1 , ..., un } une famille de vecteurs du K-e.v E. On dit que S est
une base de E, si S est une famille libre et génératrice de E.

Exemple 4.6. (A montrer)

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Bases et dimension d'un espace vectoriel 55

1. B == {e1 , . . . , en } est une base de Rn , avec e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ..., en =
(0, 0, ..., 1). Elle est appelée base canonique de Rn .
(a) {(0, 1), (1, 0)} est une base de R2 .
(b) {(1, 0, 0), (0, 1, 0), (0, 0, 1)} est une base de R3 .
2. {(1, 3, 0), (0, 2, 1)} est une base de S = {(x, y, z) ∈ R3 /3x − y + 2z = 0}.
3. B = {1, x, x2 , ..., xn } est une base de Rn [n].

Théorème 4.2. Soit B = {u1 , ..., un } une base du K-e.v E. Alors pour tout X ∈ E, il existe
unique n-uplet (α1 , . . . , αn ) ∈ K tel que X = ni=1 αi ui et les αi (1 ≤ i ≤ n) sont les composantes
P

de X dans la base B.

Exemple 4.7. (A montrer)

1. Soit B = {e1 , e2 , e3 } la base canonique de R3 , et u = (5, 6, 7) ∈ R3 . On a : u = 5 · e1 + 6 ·


e2 + 7 · e3 .
2. Soit B 0 = {e01 , e02 , e03 } une autre base de R3 , telle que e01 = (−1, 1, 1), e02 = (1, −1, 1), et
e03 = (1, 1, −1). On a u = 13 e0 + 6e02 + 11
2 1 2 3
e0

4.3.3 Dimension d'un espace vectoriel


Remarque 4.11. Toutes les bases d'un espace vectoriel ont le même nombre d'éléments.

Dénition 4.12. On appelle dimension du K-e.v E, le nombre d'éléments d'une base de E.

Notation 4.5. dimK (E) = dim(E).


Remarque 4.12. dimK {0E } = 0.
Exemple 4.8. 1. dimR (Rn ) = n, et dimR (Rn [x]) = n + 1.

Dénition 4.13. On dit qu'un K-e.v E est de dimension nie s'il admet un système générateur
ni.

Proposition 4.8. Soit E un K-e.v de dimension nie et E 6= {0E }. Alors de toute famille
génératrice de E, on peut extraire une base de E.

Théorème 4.3 (de la base imcomplète). Soit E un K-e.v de dimension nie et E 6= {0E }.
Alors pour toute famille libre {u1 , . . . , up } de E, il existe des vecteurs v1 , . . . , vq ∈ E tels que
{u1 , . . . , up , v1 , . . . , vq } soit une base de E. Autrement dit, si E est un K-e.v de dimension nie
et E 6= {0E } , alors toute famille libre de E peut être complètée de manière à avoir une base de
E.

Proposition 4.9. Soit E un K-e.v de dimension n, et S un système de vecteurs de E tels que


card (S) = n. Alors les conditions suivantes sont équivalentes :
1. S est libre ;
2. S est un système générateur de E ;
3. S est une base de E.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Bases et dimension d'un espace vectoriel 56

Exemple 4.9. (A montrer)

1. S = {(0, 1, 1), (1, 0, 1), (1, 1, 0)} est une famille libre de R3 ,et card (S) = 3. Ainsi, S est
une base de R3 .
2. S 0 = {(1, 1, 1, 1), (0, 2, 1, −1)} est une base de R4 . On montre qu'en complètant S' avec
u = (0, 0, 1, 0) et v = (0, 0, 0, 1), on obtient une nouvelle famille S" libre. Et comme, card
(S") = 4, alors S" est une base de R4 .

Proposition 4.10. Soit E un K-e.v de dimension nie. Alors les sous-espaces vectoriels E1
et E2 de E
sont supplémentaires dans E si et seulement si pour toute base B1 de E1 et pour toute base
B2 de E2 , B1 ∪ B2 est une base de E.

Exemple 4.10.
E1 = {(x, y) ∈ R2 /y = 0} et E2 = {(x, y) ∈ R2 /x = 0} sont deux sous-espaces vectoriels de
R2 . B1 = {(1, 0)} et B2 = {(0, 1)} sont respectivement des bases de E1 et E2 . Or B1 ∪ B2 est
une base de R2 (la base canonique par ailleurs) , donc E1 et E2 sont supplémentaires dans R2 ,
i.e , E1 ⊕ E2 = R2 .

Théorème 4.4. Soient E un K-e.v de dimension nie, F et G deux K-s.e.v de E. Alors , on


a les asssertions suivantes :
1. F est de dimension nie et dimK (F ) ≤ dimK (E).
2. F = E ⇐⇒ dimK (F ) = dimK (E).
 
F ⊂G G⊂F
3. F = G ⇐⇒ ⇐⇒
dimK (F ) = dimK (G) dimK (F ) = dimK (G)

Remarque 4.13. SOit E un K-e-.v de dimension n.


1. Toute partie libre de E a au plus n éléménts.
2. Toute partie génératrice de E a au moins n éléménts.

Théorème 4.5 (Formule de Grassman). Soient E1 et E2 deux K-s.e.v de E de dimension nie.

dimK (E1 + E2 ) = dimK (E1 ) + dimK (E2 ) − dimK (E1 ∩ E2 )

4.3.4 Rang d'un système de vecteurs


Dénition 4.14. Soit S = {u1 , . . . , un } un système de vecteurs de E. On appelle rang de S le
nombre maximal de vecteurs linéairement indépendants que l'on peut extraire de S. Autrement
dit, le rang de S est la dimension du sous-espace vectoriel de E engendré par S. On note
Rg(S) = dimK (V ect(S)).

Remarque 4.14. Soit S = {u1 , . . . , un } un système de vecteurs de E. Alors 1 ≤ Rg(S) ≤ n.

Exemple 4.11. Soit S = {u1 , u2 , u3 } avec u1 = (1, 1); u2 = (1, 0)etu3 = (1, 2). S est une
famille liée, car dim(R2 ) = 2. Mais S 0 = {u1 , u2 } est une famille libre (à vérier), donc
Rg(S) = Rg(S 0 ) = 2.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Bases et dimension d'un espace vectoriel 57

Dénition 4.15. Soient S1 et S2 deux systèmes de vecteurs du K-e.v E. On dit que S1 et S2


sont équivalents si lin(S1 ) = lin(S2 ).

Dénition 4.16. Soit S un système de vecteurs de E. On appelle opération élémentaire dans


S, l'une des opérations suivantes :
1. Changement de l'ordre des vecteurs du système S.
2. Multiplication d'un élémént de S par un scalaire non nul.
3. Substitution d'un élémént de S par une combinaison linéaire de vecteurs de S.

Remarque 4.15. Soit S un système de vecteurs de E. Si on eectue sur S une ou plusieurs


opérations éléméntaires, alors le nouveau système de vecteurs obtenu reste équivalents à S.

Théorème 4.6. Soit S = {u1 , . . . , un } un système de vecteurs de Kp . On suppose les vecteurs


ordonnés comme suit ; pour chaque uk de S, si l'une des composantes par exemple celle d'ordre
rk est non nulle, les vecteurs suivant uk ont tous la composante d'ordre rk nulle, alors le système
est libre.

Exemple 4.12. Il sut de considérer les vecteurs u1 = (1, 2, 3, 4), u2 = (0, 3, −1, 0) et u3 =
(0, 0, 2, 4).

Méthode de Gauss-Jordan
On utilisera cette méthode pour :
1. Montrer qu'un système est libre ou lié ;
2. Trouver la relation de dépendance linéaire ;
3. Trouver une base d'un sous-espace vectoriel ;
4. Trouver le rang d'un système de vecteurs ;
5. Trouver la dimension d'un sous-espace vectoriel.

Exemple 4.13.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Cinq

Applications linéaires

Contents
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5.1.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . 60

5.3 Noyau et Image d'une application linéaire . . . . . . . . . . . . . . . 61

5.3.1 Dénitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 61


5.3.2 Propriétés des applications linéaires . . . . . . . . . . . . . . . . . . . 63
5.4 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

5.1 Généralités

5.1.1 Dénitions
Soient E et F deux K-e.v et f : E −→ F une application.

Dénition 5.1. On dit que f est linéaire si et seulement si :


h f(X + X 0 ) = f(X) + f(X 0 ), ∀X, X 0 ∈ E,
h f(α · X) = α · f(X), ∀α ∈ K, et ∀X ∈ E.

Dénition 5.2. On dit que f est linéaire si et seulement si :

f(α · X + β · X 0 ) = α · f(X) + β · f(X 0 ), ∀α, β ∈ K, et ∀X, X 0 ∈ E

Remarque 5.1. Soit f : E −→ F une application linéaire.


1. f(OE ) = OF ;
2. f(−X) = −f(X) ;
3. f( ni=1 αi Xi ) = ni=1 αi f(Xi ), ∀αi ∈ K, ∀Xi ∈ E(1 ≤ i ≤ n).
P P

Preuve 5.1.

1. Par dénition, f(α · X) = α · f(X), ∀α ∈ K, et ∀X ∈ E.


Posons α = OK , on a f(OK · X) = OK · f(X) = OF car f(X) ∈ OK .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Généralités 59

2. Posons α = −1K , on a f(−1K · X) = −1K · f(X) = −f(X).


3. Par récurrence sur n.
Pour n = 2, on a :

f(α · X + β · X 0 ) = α · f(X) + β · f(X 0 ), ∀α, β ∈ K, et ∀X, X 0 ∈ E


Supposons la vraie jusqu'à l'ordre nn et mongrons qu'elle est vraie jusqu'à l'ordre n + 1.
Soit {X1 , . . . , Xn+1 } ⊂ E et (α1 , . . . , αn+1 ) ∈ Kn

Xn+1 Xn
f( αi Xi ) = f( αi Xi + αn+1 Xn+1 )
i=1 i=1
n
X
= f( αi Xi ) + f(αn+1 Xn+1 )
i=1
n
X
= αi f(Xi ) + αn+1 f(Xn+1 )
i=1

Dénition 5.3. On dit que f est un endomorphisme de E si f est linéaire, et E = F.

Dénition 5.4. On dit que f est une isomorphisme si f est linéaire et bijective.

Dénition 5.5. On dit que f est un automorphisme si f est un endomorphisme bijectif.

Notation 5.1. LK (E, F) est l'ensemble des applications linéaires de E dans F.


LK (E) = L(E) = EndK (E)

est l'ensemble des endomorphisme de E.

Dénition 5.6. On dit que f est une forme linéaire de E si f est linéaire, et si
F = K(f : E −→ K).

Exemple 5.1. A montrer.

IdE : E −→ E
1. Soit E un K-e.v,
x 7−→ x
est linéaire.

f : R3 −→ R2
2.
(x, y, z) 7−→ (2x − y + 3z, x + 5y − z)
est linéaire.

g: R4 −→ R
3.
(x, y, z, t) 7−→ 3x + 2y − 4z + t
est linéaire.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les applications linéaires 60

h: R3 −→ R3
4.
(x, y, z) 7−→ (xy, x + y + z, x − y)
n'est pas linéaire. Il sut de prendre u = (1, 3, −1) et v = (2, 5, 3).
On a : h(u) + h(v) 6= h(u + v).

ϕ : Rn [x] −→ Rn [x]
5. d
P (x) 7−→ ϕ(p(x)) = dx
(P (x))
est linéaire.

6. Soit K un corps commutatif et (r ≤ n).


φ: Kn −→ Kr
(x1 , . . . , xn ) 7−→ (x1 , . . . , xr )
est une application linéaire.

5.2 Opérations sur les applications linéaires


%
Addition
Soient f, g ∈ LK (E, F), telles que :
f : E −→ F g : E −→ F
x 7−→ f(x) x 7−→ g(x)
Soit x ∈ E, (f + g)(x) = f(x) + g(x).
f + g : E −→ F
x 7−→ f(x) + g(x)
Proposition 5.1. f + g est une application linéaire.
Preuve 5.2. (Homework).
En conclusion, (LK (E, F), +) est un groupe abélien.
%
Multiplication par un scalaire
Soit f ∈ LK (E, F) et α ∈ K. Soit x ∈ E, (α · f)(x) = α · f(x).
α · f : E −→ F
x 7−→ α · f(x)
Proposition 5.2. α · f est une application linéaire.
Preuve 5.3. (Homework).
En conclusion, (LK (E, F), +, ·) est un K-e.v.
Remarque 5.2. Si de plus E et F sont deux K-e.v de dimension nie, alors LK (E, F) est
un K-e.v de dimension nie, et

dim(LK (E, F)) = dimK (E) × dimK (F)


%
Composition d'applications linéaires
Soient E et F et G 3 K-e.v.
f : E −→ F, et g : F −→ G deux applications linéaires.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 61

Soit x ∈ E, (g ◦ f)(x) = g[f(x)].


g ◦ f : E −→ G
x 7−→ g[f(x)]
Proposition 5.3. g ◦ f est une application linéaire.
Preuve 5.4. (Homework).
Remarque 5.3. Soit f ∈ LK (E).
f ◦f : E −→ E
x 7−→ f[f(x)]
est un endomorphisme de E.
f n = f ◦ f ◦ · · · ◦ f : E −→ F est un endomorphisme de E.
%
Application linéaire réciproque
Soit f : E −→ F un isomorphisme. Comme f est bijectif, on a :
f −1 : F −→ E
x 7−→ f −1 (x)
Proposition 5.4. f −1 est linéaire.
Preuve 5.5. On a f −1 : F −→ E. Soient (Y1 , Y2 ) ∈ F2 et α1 , α2 ∈ K.
Y1 ∈ F ⇒ ∃X1 ∈ E tel que Y1 = f(X1 ) ⇒ X1 = f −1
(Y1 )
Y2 ∈ F ⇒ ∃X2 ∈ E tel que Y2 = f(X2 ) ⇒ X2 = f −1 (Y2 )

f −1 (α1 Y1 + α2 Y2 ) = f −1 (α1 f(X1 ) + α2 f(X2 ))


= f −1 [f(α1 X1 + α2 X2 )]
= (f −1 ◦ f)((α1 X1 + α2 X2 ))
= IdE (α1 X1 + α2 X2 )
= α1 f −1 (Y1 ) + α2 f −1 (Y2 )

D'où f −1 est linéaire.

5.3 Noyau et Image d'une application linéaire

5.3.1 Dénitions et exemples


Soit f une application linéaire (où f ∈ LK (E, F)).

Dénition 5.7. On appelle noyau de f l'ensemble des éléments de E dont l'image par f est
nulle. On note Ker(f).
Ker(f) = {X ∈ E/f(X) = OF }

Dénition 5.8. On appelle image de f l'ensemble des images des éléments de E par f . On note
Im(f) = f(E).

Im(f) = {f(x)/X ∈ E} = {Y ∈ F/∃X ∈ E/Y = f(X)}

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 62

Remarque 5.4. Soit f ∈ LK (E, F).

1. Ker(f) ⊂ E ;
2. Im(f) ⊂ F.

Proposition 5.5. Soit f ∈ LK (E, F). Alors les assertions suivantes sont vériées :
1. Ker(f) est un sous-espace vectoriel de E.
2. Im(f) est un sous-espace vectoriel de F.

Preuve 5.6. 1. Ker(f) est un sous-espace vectoriel de E.


(a) Ker(f) 6= φ, car OE ∈ ker(f).
(b) Soient (X, X 0 ) ∈ Ker2 (f) et α, α0 ∈ K.

X ∈ Ker(f) =⇒ f(X) = OF
X 0 ∈ Ker(f) =⇒ f(X 0 ) = OF

f(α · X + α0 · X 0 ) = α · f(X) + α0 · f(X 0 )


= α · OF + α0 · OF
= OF

Donc α · X + α0 · X 0 ∈ Ker(f).
i) et ii) implique Ker(f) est un sous-espace vectoriel de E.
2. Im(f) est un sous-espace vectoriel de F.
(a) Im(f) 6= φ. En eet, f(OE ) = OF ∈ Im(f).
(b) Soient (Y, Y 0 ) ∈ Im(f) et (α, α0 ) ∈ K 2 .

Y ∈ Im(f) =⇒ ∃X ∈ E/Y = f(X)
Y 0 ∈ Im(f) =⇒ ∃X 0 ∈ E/Y 0 = f(X 0 )

α · Y + α0 · Y 0 = α · f(X) + α0 · f(X 0 )
= f(α · X + α0 · X 0 )

Car f est linéaire. Posons Z = α·X +α0 ·X 0 ∈ E. Donc α·Y +α0 ·Y 0 = f(Z) ∈ Im(f).
i) et ii) implique Im(f) est un K-e.v sous-espace vectoriel de E.

Exemple 5.2.

ϕ: R4 −→ R2
1.
(x, y, z, t) (x, y, z, t) 7−→ (x − y + 2z + t, 2x + y − z + 3t)
Ker(ϕ) = {X ∈ R4 /ϕ(X) = OR2 }. Soit X = (x, y, z, t) ∈ Ker(ϕ). Donc ϕ(X) = OR2
 
x − y + 2z + t = 0 x − y = −2z − t
=⇒
2x + y − z + 3t = 0 2x + y = z − 3t

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 63

Ainsi, on obtient x = − 31 z − 34 t et y = 53 z − 13 t.

1 4 5 1
X = (− z − t, z − t, z, t)
3 3 3 3
1 5 4 1
= (− z, z, z, 0) + (− t; − t, 0, t)
3 3 3 3
4 1
= z(−1, 5, 3, 0) + t(−4, −1, 0, 3)
3 3
Posons : u1 = (−1, 5, 3, 0); u2 = (−4, −1, 0, 3). Ker(ϕ) = lin({u1 , u2 }).
Im(ϕ) = {Y ∈ R2 /∃X ∈ R4 /Y = ϕ(X)}.
Soit Y ∈ Im(ϕ). ∃X = (x, y, z, t) ∈ R4 tel que :

Y = ϕ(x, y, z, t)
= (x − y + 2z + t, 2x + y − z + 3t)
= x(1, 2) + y(−1, 1) + z(2, −1) + t(1, 3)

Posons : v1 = (1, 2); v2 = (−1, 1); v3 = (2, −1); v4 = (1, 3). On a Y = x · v1 + y · v2 + z ·


v3 + t · v4 .
Im(ϕ) = lin({v1 , . . . , v4 }).
2.
ϕ: Rn [x] −→ Rn [x]
d
P (x) 7−→ ϕ(p(x)) = dx
(P (x))

Ker(ϕ) = {P (x) =∈ Rn [x]/ϕ(P (x)) = 0}


Soit P (x) = a0 + a1 x + a2 x2 + · · · + an xn ∈ Ker(ϕ).
Donc ϕ(P (x)) = 0 → dx d
(P (x)) = 0 qui implique a1 + 2a2 x + · + nan xn−1 = 0. Or
{1, x, x2 , ..., xn−1 } est libre, car {1, x, x2 , ..., xn−1 } est la base canonique de Rn−1 [x] . Donc
a1 = a2 = · · · = an = 0. P (x) = a0 = a0 · 1 ;
Ker(ϕ) = lin({1}) = R.
Im(ϕ) = {q(X) ∈ Im(ϕ)} =⇒ ∃P (x) = a0 + +a1 x + a2 x2 + · · · + an xn ∈ Rn [x],
telle que q(x) = ϕ(P (x)) = dx d
(P (x)) = a1 + 2a2 x + · + nan xn−1 .
Donc Im(ϕ) = lin({1, x, x2 , ..., xn−1 }) = Rn−1 [x].

5.3.2 Propriétés des applications linéaires


Proposition 5.6. Soit f ∈ LK (E, F). Alors les assertions suivantes sont vériées :
1. L'image par f d'un système lié de E est un système lié de F.
2. Si A est un K-e.v de E, alors f(A) est un K-s.e.v de F.
3. Si {u1 , . . . , un } est un système générateur d'un s.e.v A DE E, alors {f (u1 ), ..., f (un )} est
un système générateur de f(A).

Preuve 5.7.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 64

1. Soit {v1 , v2 , ..., vn } un système lié de E. Donc il existe des scalaires λ1 , . . . , λn non tous
nuls tels que λ1 · v1 + λ2 · v2 + · · · + λn · vn = OE . Donc :

f(λ1 · v1 + λ2 · v2 + · · · + λn · vn ) = f(OE ) = OF

Or f est linéaire. Donc il existe des scalaires λ1 , . . . , λn non tous nuls tels que

λ1 · f(v1 ) + λ2 · f(v2 ) + · · · + λn · f(vn )


Donc {f(v1 ), f(v2 ), ..., f(vn )} est lié.
2. (a) On a OE ∈ A, car A est un s.e.v. Donc f(OE ) ∈ f(A) qui implique OF ∈ f(A), donc
f(A) est non vide.
(b) Soient Y, Y 0 ∈ f(A), α, α0 ∈ K 2

Y ∈ f(A) ⇒ ∃ ∈ A/f(X) = Y
Y 0 ∈ f(A) ⇒ ∃ ∈ A/f(X 0 ) = Y 0
α · Y + β · Y 0 = α · f(X) + β · f(0 X) = f(α · X + β · X 0 ).
X” = α · X + β · X 0 ∈ A, car A est un s.e.v de E, donc α · Y + β · Y 0 = f(X 0 ) ∈ f(A).
Donc f(A) est un s.e.v de F.
(c) Soit {u1 , . . . , un } est un système générateur du s.e.v de A. Y ∈ f(A) ⇒ ∃ ∈ A/f(X) =
Y.
n
X
n
X ∈ A ⇒ ∃(λ1 , . . . , λn ) ∈ K /X = λk · uk
k=1
n
X n
X
Y = f(X) = f( λk · uk ) = λk f(uk )
k=1 k=1

D'où {f(u1 ), f(u2 ), ..., f(un )} est un système générateur de f(A).

Théorème 5.1. Soit f ∈ LK (E, F), alors les conditions suivantes sont équivalentes :
1. f est injective.
2. Ker(f) = {OE }.

Preuve 5.8.

1) ⇒ 2) Soit X ∈ Ker(f) donc f(X) = OF , or f(OE ) = OF .


Donc f(X) = f(OE ). Comme f est injective, on a X = OE . Donc Ker(f) = {OE }.
2) ⇒ 1) Soient X, X 0 ∈ E tels que f(X) = f(X 0 ). On a : f(X) − f(X 0 ) = OF .
Donc f(X − X−) = OF , car f est linéaire.
Donc X − X 0 ∈ Ker(f), or d'après l'hypothèse , Ker(f) = {OE } , donc X = X 0 .

Théorème 5.2. Soit f ∈ LK (E, F). Les conditions suivantes sont équivalentes :
1. f est injective ;
2. L'image par f de tout système libre de E est un système libre de F.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 65

Preuve 5.9.

1) ⇒ 2) Soit (ui )i∈In une famille libre de E. Montrons que (f(ui ))i∈In est libre .
Soit (λi )i∈In une famille de scalaires telle que i∈In λi f(ui ) = OF .
P

On a : f( i∈In ·ui = OF , car f est linéaire. Donc i∈In ·ui ∈ Ker(f).


P P

D'où i∈In ·ui = OE ; or (ui )i∈In est une famille libre de E, donc λi = O, ∀i ∈ In .
P

Donc (f(ui ))i∈In est libre .


2) ⇒ 1) Soit X ∈ Ker(f). Supposons par l'absurde que X 6= OE , donc {X} est libre, donc
{f(X)} est libre. Or f(X) = OF : contradiction. D'où X = OE , qui implique Ker(f) =
{OE }.
D'où l'injectivité de f .

Exemple 5.3.
ϕ: R4 −→ R4
(x, y, z, t) 7−→ (2x, x + y, y − 2z, x + y + t)
Ker(ϕ) = {X ∈ R4 /ϕ(X) = OR4 }. Soit X = (x, y, z, t) ∈ Ker(ϕ)
 

 2x = 0 
 x=0
 
x+y = 0 y=0
 
ϕ(X) = OR4 =⇒ =⇒

 y − 2z = 0 
 z=0

 x+y+t = 0 
 t=0

Donc X = OR4 , Ker(ϕ) = {OR4 }. D'où ϕ est injective.

Théorème 5.3. Soit f ∈ LK (E, F) et {e1 , . . . , en } une base de E, alors, on a les assertions
suivantes sont vériées :
1. f est injective ⇐⇒ {f(e1 ), f(e2 ), ..., f(en )} est libre.
2. f est surjective ⇐⇒ {f(e1 ), f(e2 ), ..., f(en )} est système générateur. f est bijective ⇐⇒
{f(e1 ), f(e2 ), ..., f(en )} est une base de F.

Preuve 5.10. 1) Déjà fait.


2) Supposons que f est surjective. Soit Y ∈ F, donc ∃X ∈ E tel que Y = f(X).
n
X
X ∈ E =⇒ (λ1 , . . . , λn ) ∈ Kn tel que X = λk · ek
k=1

n
X n
X
Y = f(X) = f( λk · ek ) = λk · f(ek )
k=1 k=1

Donc {f(e1 ), f(e2 ), ..., f(en )} est un système générateur de F.


Supposons Y ∈ F. puisque {f(e1 ), f(e2 ), ..., f(en )} est un système générateur de F, ∃α1 , . . . , αn ∈
K telle que :
X n Xn
Y = αk · f(ek ) = f( αk · ek )
k=1 k=1

Posons X = αk · ek ∈ E donc Y = f(X). D'où f est surjective.


Pn
k=1

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 66

3) f est bijective ⇐⇒ f est injective et surjective.


f est injective ⇐⇒ {f(e1 ), f(e2 ), ..., f(en )} est libre.
f est surjective ⇐⇒ {f(e1 ), f(e2 ), ..., f(en )} est système générateur.
En conclusion, f est bijective =⇒ {f(e1 ), f(e2 ), ..., f(en )} est une base.

Théorème 5.4. Soient B = {u1 , . . . , un } une base de E et {v1 , v2 , ..., vn } une famille de vecteur
de F . Alors, il existe une linéaire et une seule f : E −→ F telle que f(ui ) = vi ∀i(1 ≤ i ≤ n),
et pour X ∈ E, X = a1 · u1 + a2 · u2 + · · · + an · un avec ai ∈ ai ∈ K, i = 1, 2, ..., n, on a :
f(X) = a1 · v1 + a2 · v2 + · · · + an · vn .

Preuve 5.11. Supposons que f(ui ) = vi ∀i(1 ≤ i ≤ n).


1. Soient X, X 0 ∈ E.

X ∈ =⇒ ∃(λ1 , . . . , λn ) ∈ Kn /X = ni=1 αi · ui
 P

X 0 ∈ =⇒ ∃(λ01 , . . . , λ0n ) ∈ Kn /X 0 = ni=1 αi0 · ui


P

X + X 0 = (α1 + α10 )u1 + · · · + (αn + αn0 )un


f(X + X 0 ) = (α1 + α10 )v1 + · · · + (αn + αn0 )vn

f(X + X 0 ) = (α1 · v1 + · · · + αn · vn ) + (α10 · v1 + · · · + αn0 · vn )

f(X + X 0 ) = f(X) + f(X 0 )

Soit βK et X = a1 ·u1 +a2 ·u2 +· · ·+an ·un ∈ E. β·X = (β·a1 )·u1 +(β·a2 )·u2 +· · ·+(β·an )·un

f(β · X) = (β · a1 ) · v1 + (β · a2 ) · v2 + · · · + (β · an ) · vn = β · (a1 · v1 + a2 · v2 + · · · + an · vn )

f(β · X) = β · f(X)

2. Preuve de l'unicité.
Soit g : E −→ F une application linéaire telle que : g(ui ) = vi ∀i(1 ≤ i ≤ n). Soit
X ∈ E, et X = a1 · u1 + a2 · u2 + · · · + an · un ∈ E

g(X) = g(a1 · u1 + a2 · u2 + · · · + an · un )
= a1 · g(u1 ) + a2 · g(u2 ) + · · · + an · g(un )
= a1 · v1 + a2 · v2 + · · · + an · vn

Donc g(X) = f(X). g = f , d'où l'unicité de f .

Remarque 5.5. Une application linéaire est entièrement déterminée par la donnée des images
des éléments d'une base de l'espace de départ.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 67

Exemple 5.4. Soit f : R3 −→ R3 telle que f(−1, 1, 1) = (2, 1), f(1, −1, 1) = (3, 0), et
f(1, 1, −1) = (1, 1) Comme {(−1, 1, 1), (1, −1, 1), (1, 1, −1)} est une base de R3 donc f est une
application linéaire. Posons u1 = (−1, 1, 1), u2 = (1, −1, 1), u3 = (1, 1, −1).
Soit X = (x, y, z) ∈ R3 , ∃(a, b, c) ∈ R3 tel que X = a · u1 + b · u2 + c · u3 .
On a : f(X) = a · v1 + b · v2 + c · v3 f(x) = (2a + 3b + c, a + c). En posant X = a · u1 + b · u2 + c · u3 ,
on tire a(−1, 1, 1) + b(1, −1, 1) + c(1, 1, −1) = (x, y, z).
1 1
 
 −a + b + c = x  c = 2x + 2y
a − b + c = y =⇒ a = 12 y + 12 z
a+b−c=z b = 12 x + 12 z
 

On en déduit,
3 5 1 1
f(x, y, z) = (2x + y + z; x + y + z)
2 2 2 2
Théorème 5.5. (des 3 dimensions)
Soient E et F deux K-e.v de dimensions nies, et f ∈ LK (E, F). Alors :

dim(E) = dim(Ker(f)) + dim(Im(f))


.

Preuve 5.12. Supposons que dim(E) = n et dim(Ker(f)) = r avec r ≤ n. Montrons que


dim(Im(f)) = n − r.
Soit B = {v1 , . . . , vr } une base de Ker(f). On peut compléter B par {w1 , . . . , wn−r } de façon
que {v1 , . . . , vr , w1 , . . . , wn−r } soit une base de E. Montrons que {f(w1 ), ..., f(wn−r )} est une base
de Im(f). Posons B 0 = {f(w1 ), ..., f(wn−r )}.
Montrons que B' est un système générateur de Im(f). Soit Y ∈ Im(f), ∃X ∈ E tel que
Y = f(X). Puisque X ∈ E, ∃α1 , . . . , αr , β1 , . . . , βn−r ∈ K tel que

X = α1 v1 + · · · + αr vr + β1 w1 + · · · + βn−r wn−r

f(X) = f(α1 v1 + · · · + αr vr + β1 w1 + · · · + βn−r wn−r )


= α1 · f(v1 ) + · · · + αr · f(vr ) + β1 · f(w1 ) + · · · + βn−r · f(wn−r )
= β1 · f(w1 ) + · · · + βn−r · f(wn−r )

Car f(vi ) = OF , ∀i(1 ≤ i ≤ r). Donc

Y = β1 · f(w1 ) + · · · + βn−r · f(wn−r )


D'où B' est un système générateur de Im(f). Montrons que B' est libre. Soit λ1 , . . . , λn−r ∈ K
tel que λ1 · f(w1 ) + · · · + λn−r · f(wn−r ) = OF . On a : f(λ1 w1 + · · · + λn−r wn−r ) = OF . On en
déduit
λ1 w1 + · · · + λn−r wn−r ∈ Ker(f), donc ∃α1 , . . . , αr ∈ K tel que :

λ1 w1 + · · · + λn−r wn−r = α1 v1 + · · · + αr vr

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Noyau et Image d'une application linéaire 68

λ1 w1 + · · · + λn−r wn−r − α1 v1 − · · · − αr vr = OE
Or {v1 , . . . , vr , w1 , . . . , wn−r } est libre , donc λ1 = λ2 = · · · = λn−r = α1 = · · · = αr = 0.
λ1 = λ2 = · · · = λn−r = 0, d'où B' est libre. Par conséquent , B' est une base de Im(f).
dim(Im(f)) = n − r. D'où le résultat :

dim(E) = dim(Ker(f)) + dim(Im(f))

Exemple 5.5.
f : R4 −→ R2
(x, y, z, t) 7−→ (x − y + 2z + t, x + y − 2z + 3t)
f est linéaire. Ker(f) = {X ∈ R4 /f(X) = OR2 }.
Soit X = (x, y, z, t) ∈ Ker(f), donc f(X) = OR2 .
 
x − y + 2z + t = 0 x = −2t
x + y − 2z + 3t = 0 y = 2z − t

X = (−2t, 2z − t, z, t)
= z (0, 2, 1, 0) +t (−2, −1, 0, 1)
| {z } | {z }
u v

Ker(f) = lin({u, v}). On vérie aisément que B = {u, v} est une base de Ker(f). Donc
dim(Ker(f)) = 2.
Par suite , dim(Im(f)) = dim(R4 ) − dim(Ker(f)) = 4 − 2 = 2. Or Im(f) est un s.e.v de
R2 , donc on a Im(f) = R2 , i.e, f est surjective.

Corollaire 2. Soient E et F deux K-e.v de même dimension nie, et f ∈ LK (E, F). Alors les
assertions suivantes sont équivalentes :
1. f est injective ;
2. f est surjective ;
3. f est bijective.

Preuve 5.13.

1) ⇒ 2) Supposons que f injective. Donc Ker(f) = {OE }. D'où dim(Ker(f)) = 0.


On a dim(E) = dim(Ker(f)) + dim(Im(f)) = dim(Im(f)). Or dim(E) = dim(F), et
Im(f) est s.e.v de F.
Donc Im(f) = F. f est surjective.
2) ⇒ 3) Supposons que f est surjective. On a Im(f) = F. D'où dim(Im(f)) = dim(F),
On en déduit dim(Ker(f)) = dim(E) − dim(Im(f)) = dim(E) − dim(F) = 0,
i.e Ker(f) 6= {OE }.
3) ⇒ 1) Cas trivial.

Corollaire 3. Soit E un K-e.v de dimension nie, et f ∈ LK (E). Alors les conditions suivantes
sont équivalentes :

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Base duale 69

1. f est injective ;
2. f est surjective ;
3. f est bijective.
Exemple 5.6.
ϕ: R3 −→ R3
(x, y, z) 7−→ (2x − y, x + y, x + 2y + 3z)
ϕ est un endomorphisme de R3 . Ker(ϕ) = {X ∈ R3 /ϕ(X) = OR3 }.
Soit X = (x, y, z) ∈ Ker(ϕ).
 
 2x − y = 0  x = 0
x+y = 0 =⇒ y = 0
 
x + 2y + 3z = 0 z = 0
Donc Ker(ϕ) = {OR3 }, i.e ϕ est injective.
Comme ϕ est un endomorphisme, ϕ est donc bijective.

5.4 Base duale

Soit E un K-e.v de dimension nie.


Dénition 5.9. On appelle espace vectoriel dual de E le K-e.v des formes linéaires de E. On
note E = LK (E, K).

Remarque 5.6.

1.

dim(E ∗ ) = dim(LK (E, K))


= dimK (E) × dimK (K)
= dimK (E) × 1
= dimK (E)

2. Soit B = {e1 , . . . , en } une base de E. Soit fi : E −→ K telle que :



1 si k = i
fk (ei ) =
0 si k 6= i
Donc fi est une forme linéaire de E. Soit X ∈ E, X = ni=1 αi · ei .
P

Xn n
X
fk (X) = fk ( αi · ei ) = αi · fk (ei ) = αk · fk (ek )
i=1 i=1

Théorème 5.6. Soit E un K-e.v de dimension nie n et B = {e1 , . . . , en } une base de E. Alors
les formes linéaires {f1 , . . . , fn } dénies par

1 si j = i
fj (ei ) =
0 si j 6= i
forment une base de E∗ .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Base duale 70

Preuve 5.14. Comme dim(E ∗ ) = card(B 0 ) = n, B' est une base de E∗ si et seulement si B'
est libre. Montrons que B' est libre.
Soient α1 , . . . , αn ∈ K tel que : α1 · f1 + α2 · f2 + · · · + αn · fn = OE

∀XE, (α1 · f1 + α2 · f2 + · · · + αn · fn )(X) = 0

∀XE, α1 · f1 (X) + α2 · f2 (X) + · · · + αn · fn (X) = 0


Soit k ∈ {1, ..., n}, ek ∈ B .

Xn n
X
( αi · fi )(ek ) = 0 =⇒ αi · fi (ek ) = 0
i=1 i=1
=⇒ αk · fk (ek ) = 0
=⇒ αk = O

Donc ∀k ∈ {1, ..., n}, ( ni=1 αi · fi )(ek ) = 0 =⇒ αk = O. Donc B' est une famille libre. D'où B'
P

est une base de E∗ . On note {e∗1 , . . . , e∗n } la base duale de E∗ , i.e fi = e∗i .

Exemple 5.7. (R3 , +, ·)


Posons B = {e1 , e2 , e3 } avec e1 = (−1, 0, 1), e2 = (1, 10), e3 = (1, −1, 1). B 0 = {f1 , f2 , f3 } la
base duale de (R3 )∗ . (R3 )∗ = LR (R3 , R). On a :
f1 : R3 −→ R
(x, y, z) 7−→ ax + by + cz
1
 
 f1 (e1 ) = 1  a = −3
f (e ) = 0 =⇒ b = 13
 1 2
c = 23

f1 (e3 ) = 0
On a : f1 (x, y, z) = − 13 x + 13 y + 23 z .
f2 : R3 −→ R
(x, y, z) 7−→ a0 x + b0 y + c0 z
  0 1
 f2 (e1 ) = 0  a = 3
f (e ) = 1 =⇒ b0 = 2
 2 2  0 3
1
f2 (e3 ) = 0 c = 3

On a : f2 (x, y, z) = 13 x + 23 y + 31 z .
f3 : R3 −→ R
(x, y, z) 7−→ a”x + b”y + c”z
1
 
 f3 (e1 ) = 0  a” = 3
f (e ) = 0 =⇒ b” = − 13
 3 2
c” = 31

f3 (e3 ) = 1
On a : f1 (x, y, z) = 13 x − 13 y + 13 z .
{f1 , f2 , f3 } est une base de R3 appellée base duale de {e1 , e2 , e3 }.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Six

Matrices

Contents
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

6.1.1 Dénition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 71


6.1.2 Quelques types de matrices . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . 74

6.2.1 Egalité de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74


6.2.2 Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.2.3 Multiplication par un scalaire . . . . . . . . . . . . . . . . . . . . . . . 75
6.2.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3 Matrice d'une application linéaire : application linéaire associée à

une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

6.3.1 Matrice d'une application linéaire . . . . . . . . . . . . . . . . . . . . . 80


6.3.2 Application linéaire associée à une matrice . . . . . . . . . . . . . . . . 82
6.4 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

6.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.4.2 Quelques méthodes de calcul de l'inverse . . . . . . . . . . . . . . . . . 84
6.5 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

6.5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.5.2 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.5.3 Eet d'un changement de bases sur les composantes d'un vecteur . . . 89
6.5.4 Eet d'un changement de bases sur la matrice d'une application linéaire 90

6.1 Généralités

6.1.1 Dénition et exemples


Soit K un corps commutatif (Q, R ou C).

Dénition 6.1. On appelle matrice de type (n, m), ou m×n à coecients dans K, tout tableau
A de n.m éléments de K constitué de n lignes et de m colonnes.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Généralités 72

Notation 6.1.  
a11 a12 . . . a1m
 a21 a22 . . . a2m 
A = (aij ) , A= . .. .. .. 
 
 ..
1≤i≤n
1≤j ≤m . . . 
an1 an2 . . . anm
aij ∈ K, i= l'indice des lignes, j=l'indice des colonnes.
On dit que A = (aij ) 1 ≤ i ≤ n est une matrice de type n × m.
1≤j ≤m

Exemple 6.1.
 
1 2 3 4
1. A =
−1 0 1 −5
A est une matrice de type (2, 4).
 
1 4 3
−1 0 3
 
2. A = 
0
 est une matrice de type (4, 3).
 2 1 1
6 7 8
 
−2 0
3. A” = est une matrice de type (2, 2).
4 7

Remarque 6.1. Soit A = (aij ) 1≤i≤n une matrice de type (n, m).
1≤j ≤m
 Si m 6= n, A est une matrice rectangulaire.
 Si n = m, A est une matrice carrée d'ordre n , et on écrit A = (aij ) 1≤i≤n .
1≤j ≤n

Notation 6.2.

Mn,m (K) est l'ensemble des matrices de type (n, m) à coecients dans K.

Mn (K) est l'ensemble des matrices carrées d'ordre n à coecients dans K.

6.1.2 Quelques types de matrices


Transposée d'une matrice
Soit A = (aij ) 1≤i≤n ∈ Mn,m (K).
1≤j ≤m

Dénition 6.2. On appelle transposée de A, la matrice de type (m, n), dont les lignes sont les
colonnes de A. On note :

t
A = (aji ) 1≤j ≤m
1≤i≤n
 
a11 a21 ... an1
 a12 a22 ... an2 
t
A= . .. .. .. 
 
 .. . . . 
a1m a2m . . . anm

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Généralités 73

 
−1 2 3 4
Exemple 6.2. Soit A = ∈ M2,4 (R).
1 5 0 7
 
−1 1
 2 5
 
t
A=  est une matrice de type (4, 2).
 3 0
4 7
−1 3 6 −1 0 1
   

De même pour A =  0 4 5 , t A =  3 4 −2 .


1 −2 2 6 5 2

Matrices diagonales
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n

Dénition 6.3. A est dite matrice diagonale si et seulement si aij = 0 pour tout i 6= j . On
écrit :  
a11 0 ... 0
 0 a22 ... 0 
A= . .. .. ..
 
 .. . . .


0 0 . . . ann
(a11 , a22 , a33 , · · · , ann ) est la diagonale principale.

Remarque 6.2. Les éléments aii (i = 1, · · · , n) sont les éléments diagonaux, ou la diagonale
principale.
−5 0 0
 

Exemple 6.3. A =  0 2 0  est une matrice diagonale.


0 0 −1

Matrices triangulaires
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n

Dénition 6.4. 1. A est dite triangulaire supérieure, si tous les éléments situés en dessous
de la diagonale principale sont nuls, c'est-à-dire aij = 0, si i > j .
 
a11 a12 . . . a1n
 0 a22 . . . a2n 
A= . .. .. .. 
 
 .. . . . 
0 0 . . . ann
2. A est dite matrice triangulaire inférieure si aij = 0 pour tout i < j .
 
a11 0 ... 0
 a21 a22 ... 0 
A= . .. .. ..
 
 .. . . .


an1 an2 . . . ann

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les matrices 74

Matrices scalaires
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n

Dénition 6.5. A est dite matrice scalaire si elle est diagonale, et tous les éléments diagonaux
sont égaux.
   
a11 0 ... 0 a 0 ... 0
 0 a22 ... 0  0 a ... 0
A= . .. .. ..  =  .. .. . . ..  , aii = a, ∀i = 1, · · · , n.
   
 .. . . .  . . . .
0 0 . . . ann 0 0 ... a
Remarque 6.3. Si a = 1K , la matrice scalaire obtenue s'appelle la matrice unité d'ordre n, et
on note :
 
1 0 ... 0
0 1 ... 0
In =  . .. . . .. 
 
 .. . . .
0 0 ... 1

Matrices symétriques
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n

Dénition 6.6.A est dite symétrique si on a t A = A.


   
0 1 1 0 1 1
Exemple 6.4. 1. A = 1 0 1 on a : A = 1 0
  t  1. A est une matrice symétrique.
1 1 0 1 1 0
−1 1
 
1
2. A =  1 −1 1  ,t A0 = A0 . A' est une matrice
0
symétrique.
1 1 −1

6.2 Opérations sur les matrices

6.2.1 Egalité de matrices


Soient A = (aij ) 1≤i≤n et B = (bij ) 1≤i≤n deux éléments de Mn,m (K).
1≤j ≤m 1≤j ≤m
On dit que A = B si et seulement si aij = bij ∀1 ≤ i ≤ n, ∀1 ≤ j ≤ m.

Remarque 6.4. Si aij = 0K ∀1 ≤ i ≤ n, ∀1 ≤ j ≤ m,


 
0 0 ... 0
0 0 ... 0
A = 0Mn,m (K) = . .. . . ..  (n lignes, m colonnes)
 
 .. . . .
0 0 ... 0
est la matrice nulle de type (n, m).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les matrices 75

6.2.2 Addition
Soient A = (aij ) 1≤i≤n et B = (bij ) 1≤i≤n deux éléments de Mn,m (K).
1≤j ≤m 1≤j ≤m

A + B = (aij + bij ) 1 ≤ i ≤ n
1≤j ≤m
 
a11 + b11 a12 + b12 . . . a1m + b1m
 a21 + b21 a22 + b22 . . . a2m + b2m 
=  .. .. . ..
 
 . . . . .


an1 + bn1 an2 + bn2 . . . anm + bnm
     
−1 2 3 4 2 −1 0 −2 1 13 2
Exemple 6.5. A = ,B= =⇒ A + B =
5 6 0 1 4 −3 4 3 9 3 4 4

Propriétés de l'addition
Soient A = (aij ) 1≤i≤n , A0 = (a0ij ) 1≤i≤n et A” = (a”ij ) 1≤i≤n trois éléments de
1≤j ≤m 1≤j ≤m 1≤j ≤m

Mn,m (K).
1. L'addition est associative :

A + (A0 + A”) = (A + A0 ) + A”

2. L'addition est commutative :

A + A0 = A0 + A

3. La matrice nulle est l'élément neutre de Mn,m (K) pour l'addition :

0Mn,m (K) + A = A + 0Mn,m (K)

4. Tout élément de Mn,m (K) admet un symétrique pour l'addition :

A + (−A) = (−A) + A = 0Mn,m (K)

−A = (−aij ) 1≤i≤n s'appelle l'opposé de la matrice A.


1≤j ≤m

Proposition 6.1. (Mn,m (K), +) est un groupe abélien.

6.2.3 Multiplication par un scalaire


Soient A = (aij ) 1≤i≤n et α ∈ K.
1≤j ≤m

 
α · a11 α · a12 . . . α · a1m
 α · a21 α · a22 . . . α · a2m 
α · A = α · (aij ) = (α · aij ) = . .. .. .. 
 
 ..
1≤i≤n 1≤i≤n
1≤j ≤m 1≤j ≤m . . . 
α · an1 α · an2 . . . α · anm

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les matrices 76

•: K × Mn,m (K) −→ Mn,m (K)


(α, A) 7−→ α·A
est une application linéaire.

Propriété 6.1.

1. α · (A + B) = α · A + α · B, ∀α ∈ K, ∀(A, B) ∈ (Mn,m (K))2 .


2. (α + β) · A = α · A + β · B, ∀(α, β) ∈ K2 , ∀(A, B) ∈ (Mn,m (K))2 .
3. α · (β · A) = (α.β) · A, ∀(α, β) ∈ K2 , ∀A ∈ Mn,m (K).
4. 1K · A = A, ∀A ∈ Mn,m (K).

Proposition 6.2. (Mn,m (K), +, •) est un K-e.v de dimension n × m.


Remarque 6.5. (Mn (K), +, •) est un K-e.v de dimension n × n = n2 .
Exemple 6.6.

(M2 (R), +, •) est un R-e.v de dimension 22 .

a b
Soit A = ∈ M2 (R).
c d
       
a 0 0 b 0 0 0 0
A = + + +
0 0 0 0 c 0 0 d
       
1 0 0 1 0 0 0 0
= a· +b· +c· +d·
0 0 0 0 1 0 0 1
       
1 0 0 1 0 0 0 0
Soient E1 = , E2 = , E3 = , E4 = .
0 0 0 0 1 0 0 1
A = aE1 + bE2 + cE3 + dE4
M2 (R) est engendré par {E1 , . . . , E4 }. Vérions que {E1 , . . . , E4 } est une famille libre.
Soient α, β, γ, λ ∈ R tel que α · E1 + β · E2 + γ · E3 + λ · E4 = 0M2 (R) .
         
1 0 0 1 0 0 0 0 0 0
α· +β· +γ· +λ· =
0 0 0 0 1 0 0 1 0 0
       
α 0 0 β 0 0 0 0
+ + +
0 0 0 0 γ 0 0 λ


 α = 0
    
α β 0 0 β = 0

= , qui implique
γ λ 0 0 
 γ = 0

 λ = 0
Donc {E1 , . . . , E4 } libre, alors {E1 , . . . , E4 } est une base de M2 (R), appelée la base canonique
de M2 (R).

Remarque 6.6. (Mn (R), +, •) est un R-e.v de base canonique {E1 , . . . , En2 }.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les matrices 77

6.2.4 Produit de matrices


 0
x1
Soient X = (x1 , x2 ) ∈ M1,2 (R) et X 0 = ∈ M2,1 (R).
x02
 0
0 x1
X ·X = (x1 , x2 ) ·
x02
= x1 · x01 + x2 · x02 ∈ R
 0
x1
 .. 
Soient (x1 , . . . , xn ) ∈ M1,n (R) et X =  .  ∈ Mn,1 (R)
0

x0
 n0 
x1
 .. 
X · X = (x1 , . . . , xn ) ·  .  = x1 · x01 + x2 · x02 + · · · + xn · x0n
0

x0n
Dénition 6.7. Soient A = (aij ) 1≤i≤n et B = (bij )
. On appelle produit de A et
1≤i≤m
1≤j ≤m 1≤j ≤p

B, la matrice C dénie par C = A · B , dont les éléments sont Cik , avec Cik = m j=1 aij bjk ,
P

C = A · B = (Cik ) 1 ≤ i ≤ n , (n, p) = (n, m) · (m, p).


1≤j ≤p

Remarque 6.7. Cik est le produit (scalaire) de la i-ème ligne de A par la k-ème colonne de B.
     
a11 a12 . . . a1m b11 b12 . . . b1p c11 c12 . . . c1p
 a21 a22 . . . a2m   b21 b22 . . . b2p 
  c21 c22 . . . c2p 
   
 .. .. . . ..  ·  .. .. .. . = . .. . . . 

 . . . .   . . . ..   .. . . .. 
 

an1 an2 . . . anm bm1 bm2 . . . bmp cn1 cn2 . . . cnp

k-ème colonne de B
..
z }| {  
.
  
b1k
 b2k  . . . cik . . . . . .
 
ième ligne de A  i1 i2
a a . . . aim 
 
·  ..  = ..
  
   .   . 
.
 
bmk ..

Exemple 6.7.
 
−2 0 3
 
1 0−2 3 3 1 4
 
1. A = , B= . A et de type (2, 4), B et de type (4, 3).
4 3 1 −1  4 −1 5
1 0 3
C = A · B est de type (2, 3).
 
−2 0 3
     
1 0 −2 3 3 1 4 −7 2 2
C= · =
4 3 1 −1  4 −1 5 4 2 2 6
1 0 3

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les matrices 78

−1
 

2. A0 =  2  , B 0 = (2, −5, 4)
3
−1 −2 5 −4
   

C 0 = A0 · B 0 =  2  · (2, −5, 4) =  4 −10 8 


3 6 −15 12
−2 3 1
   
0
3. A” =  0 4 5 , B” = 4.
1 23 5
 
17
C” = A” · B” = 41

23

Propriétés du produit matriciel


Soient A = (aij ) 1≤i≤n , B = (bij ) 1≤i≤m et C = (cij ) 1≤i≤p
1≤j ≤m 1≤j ≤p 1≤j ≤q
§ Associativité :
Le produit de matrices est associatif, A · (B · C) = (A · B) · C .
§ Commutativité :
En général, le produit
 de matrices
 n'est
 pascommutatif.
−2 1 0 1
Exemple 6.8. A = ,B= .
3 4 1 3
     
−2 1 0 1 1 1
A·B = · =
3 4 1 3 4 15
     
0 1 −2 1 3 1
B·A= · =
1 3 3 4 7 13
A · B 6= B · A.
§ Distributivité :
Le produit de matrices est distributif par rapport à l'addition : ∀A, B ∈ Mn (K).
A · (B + C) = A · B + A · C et (B + C) · A = B · A + C · A.
§ Transposée du produit :
Soient (A, B) ∈ Mn2 (K), t (A · B) =t B ·t A.
§ Puissance d'une matrice :
Soient (A, B) ∈ Mn2 (K) tel que A · B = B · A.
m
X
m k k
(A + B) = Cm A · B m−k
k=0
Remarque 6.8.
 
1 0 ... 0
0 1 ... 0
1. A0 = In =  . .. . . .. 
 
 .. . . .
0 0 ... 1

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Opérations sur les matrices 79

2. Une matrice carrée N est dite nilpotente d'indice p si N p = 0 et N p−1 6= 0.


 
1 1 2
Exemple 6.9. A = 0 1 1, calculons An .
0 0 1
   
1 0 0 0 1 2
A = 0 1 0 + 0 0 1
0 0 1 0 0 0
   
1 0 0 0 1 2
Posons I = 0 1 0 , N = 0 0 1 , A = I + N, I · N = N · I = N .
0 0 1 0 0 0
Xn
n n
A = (I + N ) = Cnk N k · I n−k
k=0

I n−k = I et An =
Pn
k=0 Cnk N k
     
0 1 2 0 1 2 0 0 1
N 2 = 0 0 1 · 0 0 1 = 0 0 0
0 0 0 0 0 0 0 0 0
    
0 0 1 0 1 2 0 0 0
N · N 2 = N 3 = 0 0 0 · 0 0 1 = 0 0 0
0 0 0 0 0 0 0 0 0
N 3 = 0, donc N est une matrice nilpotente d'indice 3.

n
n
X n!
A = Cnk N k , Cnk =
k=0
k!(n − k)!
= Cn0 N 0
+ Cn1 N 1 + Cn2 N 2
n(n − 1) 2
= 1·I +n·N + N
2
     
1 0 0 0 1 2 0 0 1
n(n − 1) 
=  0 1 0 + n · 0 0 1 + · 0 0 0
2
0 0 1 0 0 0 0 0 0
 
1 n 2n + n(n−1)
2
= 0 1 n
 

0 0 1
 2

1 n n +3n
2
= 0 1 n 
 
0 0 1

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Matrice d'une application linéaire : application linéaire associée à une matrice 80

6.3 Matrice d'une application linéaire : application linéaire

associée à une matrice

6.3.1 Matrice d'une application linéaire


Soient E, F de K-e.v et f ∈ LK (E, F), B = {u1 , . . . , un } une base de E, et D = {v1 , . . . , vm }
une base de F.

Dénition 6.8. On appelle matrice associée à l'application linéaire f par rapport aux bases
B et D, la matrice A dont les colonnes sont constituées par les composantes de f (u1 ), f (u2 ), ..., f (un ),
exprimées dans la base D = {v1 , . . . , vm }. On note A = M (f, B, D) = MB,D (f) (matrice associée
à f relativement aux bases B et D).


 f (u1 ) = a11 V1 + a21 V2 + · · · + am1 Vm
 f (u2 ) = a12 V1 + a22 V2 + · · · + am2 Vm



f (u3 ) = a13 V1 + a23 V2 + · · · + am3 Vm
.. .. . .
. . + .. + · · · + ..

=




a1n V1 + a2n V2 + · · · + amn Vm

f (un ) =

f (u1 ) f (u2 ) . . . f (un )


  
a11 a21 . . . am1 V1 

 a12 a22 . . . am2  V2
 

A0 = M (f, B 0 ) =  . . . ..  ..

 .. .. .. .  . 


a1n a2n . . . amn Vm

Remarque 6.9. 1. Si f : E −→ F une application linéaire, telle que dim(E) = n et dim(F) =


m. Alors A = M (f, B, D) = (aij ) 1 ≤ i ≤ n où B est une base de E et D est une base de F.
1≤j ≤m

2. La matrice d'une application linéaire dépend des bases de l'espace de départ et de l'espace
d'arrivée.
3. M (f, B, D) signie la matrice de l'application linéaire relativement aux bases B et F, ou
la matrice associée à f dans les bases B et D.

Exemple 6.10.
f : R2 −→ R4
X
(x,y) 7−→ (x + y, 2x − y, 3x + 4y, x − y)

Soit D = {1 , . . . , 4 } la base canonique de R4 et B = {e1 , . . . , e2 } la base canonique de


R2 . A = M (f, B, D) est la matrice associée à f dans les bases B et D.

f(e1 ) = f(1, 0) = (1, 2, 3, 1) = 1 · 1 + 2 · 2 + 3 · 3 + 1 · 4

f(e2 ) = f(0, 1) = (1, −1, 4, −1) = 1 · 1 − 1 · 2 + 4 · 3 − 1 · 4

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Matrice d'une application linéaire : application linéaire associée à une matrice 81

f (e1 ) f (e2 )
  
1 1 1 


 2 −1  2
  
M (f, B, D) = 
 3 4  3




1 −1 4 

f : R2 −→ R4
X
(x,y) 7−→ (x + y, 2x − y, 3x + 4y, x − y)

Soit D = {1 , . . . , 4 } la base canonique de R4 et B 0 = {e01 , . . . , e02 } = {(1, 1); (1, 2)} une
base de R2 . A0 = M (f, B 0 , D) est la matrice associée à f dans les bases B' et D.

f(e01 ) = f(1, 1) = (2, 1, 7, 0) = 2 · 1 + 1 · 2 + 7 · 3 + 0 · 4

f(e02 ) = f(1, 2) = (3, 0, 11, −1) = 3 · 1 + 0 · 2 + 11 · 3 − 1 · 4

f (e01 ) f (e02 )
  
2 3 1 


 1 0  2
  
M (f, B 0 , D) = 
 7 11  3




0 −1 4 

g: R3 [x] −→ R3 [x]
X
P(x) 7−→ d
dx
(P (x)) − P (x)

A” = M (g, C, C), C = {1, x, x2 , x3 } la base canonique de R3 [x], A” = M (g, C).




 g(1) = −1 = −1 · 1 + 0 · x + 0 · x2 + 0 · x3

g(x) = 1 − x = 1 · 1 + −1 · x + 0 · x2 + 0 · x3


 g(x2 ) = 2x − x2 = 0 · 1 + 2 · x + 1 · x2 + 0 · x3
 g(x3 ) = 3x2 − x3 = 0 · 1 + 0 · x + 3 · x2 + −1 · x3

g(1) g(x) g(x2 ) g(x3 )


  
−1 1 0 0 1 


 0 −1 2 0  x
  
A” = 
 0 0 −1 3  x2



x3

0 0 0 −1 

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Matrice d'une application linéaire : application linéaire associée à une matrice 82

6.3.2 Application linéaire associée à une matrice


Soit A = (aij ) 1≤i≤n ∈ Mn,m (K).
1≤j ≤m
On peut associer à A l'application linéaire fA dénie par :
f : Kn −→ Kn
X 7−→ fA (X) = A · X

Remarque 6.10.
f : Kn −→ Kn
est une application linéaire, appelée application linéaire
X 7−→ fA (X) = A · X
associée à A.
En eet, Soient X, X 0 ∈ Km ,
1. fA (X + X 0 ) = A · (X + X 0 ) = A · X + A · X 0 = fA (X) + fA (X 0 ),
2. Soient α ∈ K, X ∈ K m ,
fA (α · X) = A · (α · X) = (A · α) · X = (α · A) · X = α · fA (X).

1 −1 2 3
 
f : R4 −→ R3
Exemple 6.11. A = 0 1 2 3 ∈ M3,4 (R).
X 7−→ fA (X) = A · X
4 −1 2 7
   
x x
1 −1 2 3
 
y  y 
   
fA (x, y, z, t) = A ·   = 0 1 2 3 ·  
z  z 
4 −1 2 7
t t
= (x − y + 2z + 3t, y + 2z + 3t, 4x − y + 2z + 7)

Proposition 6.3. Soient E, F deux K-e.v de dimensions respectives n et m, B une base de E


et D une base de F, alors l'application :

Ψ: LK (E, F) −→ Mn,m (K)


f 7−→ Ψ(f) = M (f, B, D)

est un isomorphisme d'espaces vectoriels.

Preuve 6.1.

1. Ψ est-elle linéaire ?
Soient f et g de LK (E, F), α, β ∈ K.

Ψ(αf + βg) = M (αf + βg, B, D)


= M (αf, B, D) + M (βg, B, D)
= α · M (f, B, D) + β · M (g, B, D)
= α · Ψ(f) + β · M (g)

2. Ψ est - elle bijective ?


Comme dim(LK (E, F)) = dimK (E) × dimK (F) = n · m = dimK (Mn,m (K)),

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Matrices inversibles 83

et comme à tout élément A ∈ Mn,m (K), on peut associer une unique application linéaire,
Ψ est surjective.
De plus,

Ker(Ψ) = {f ∈ LK (E, F)/Ψ(f) = 0}


= {f ∈ LK (E, F)/M (f, B, D) = 0}
= {OLK (E,F) }

Ψ est injective. Ψ est donc une application linéaire bijective.

Remarque 6.11.

1. Soient f, g ∈ LK (E, F). B une base de E, et D une base de F.

M (f + g, B, D) = M (f, B, D) + M (g, B, D)

2. Soient f : E −→ F et g : F −→ G deux applications linéaires, et B une base de E, B' une


base de F, B" une base de G. Alors :

M (g ◦ f, B, B”) = M (g, B 0 , B”) × M (f, B, B 0 )

3. Soit f : E −→ E un endomorphisme de E, B une base de E.

M (f 2 , B) = (M (f, B))2

M (f n , B) = (M (f, B))n

6.4 Matrices inversibles

6.4.1 Généralités
Dénition 6.9. Soit A une matrice carrée d'ordre n à coecients dans K. On dit que A est
inversible ou (régulière), s'il existe une matrice carrée A' d'ordre n telle que A·A0 = A0 ·A = In .

Notation 6.3. La matrice A' est appelée l'inverse de A, et est notée A−1 = A0 .

Remarque 6.12.

1. L'inverse d'une matrice si elle exite, est unique.


2. Soient A1 , A2 ∈ Mn (K) inversibles. Alors :

(A1 · A2 )−1 = A−1 −1


1 · A2

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Matrices inversibles 84

6.4.2 Quelques méthodes de calcul de l'inverse


X Première méthode (méthode directe)
   
1 3 x z
Soit A = ∈ M2 (R). Cherchons A =
0
telle que A · A0 = A0 · A = I2 .
3 4 y t
     
0 1 3 x z x + 2y z + 2t 
A·A = · = = 1 00 1
3 4 y t 3x + 4y 3z + 4t
 

 x + 2y = 0 
 x = −2
y = 32
   
3x + 4y = 0 −2 1
 
0
⇐⇒ =⇒ A = 3

 z + 2t = 0 
 z = 1 2
− 12

 3z + 4t = 0  t = −1

2

X Polynôme caractéristique.
Soit P (x) un polynôme admettant 1 coecient constant non nul et A ∈ Mn (K).
Proposition 6.4. Si A est une racine de P(x) , alors A est inversible.
Preuve 6.2. P (x) = a0 + a1 x + a2 x2 + · · · + am xm avec ai ∈ K, 0 ≤ 1 ≤ m.
a0 6= 0 ⇒ a0 inversible, i.e ∃a00 ∈ K tel que a0 · a00 = a00 · a0 = 1K .
A est une racine de P (x) ⇒ P (A) = 0
P (A) = a0 · In + a1 · A + · · · + am Am = 0.

a1 · A + a2 · A2 + · · · + am · Am = −a0 · In ⇐⇒ −a00 · (a1 · A + a2 · A2 + · · · + am · Am = In


⇐⇒ −a00 · a1 · A − a00 · a2 · A2 + · · · − a00 · am · Am = In
⇐⇒ A · (−a00 · a1 · In + · · · − a00 · am · Am−1 ) = In
 
1 2
Exemple 6.12. Soit A = , P (t) = t2 − 5t − 2.
3 4
P (A) = A2 − 5A − 2I2
     
2 1 2 1 2 7 10
A = · =
3 4 3 4 15 22

On vérie aisément que P (A) = 0, donc on obtient : ( 12 A − 52 I2 ) · A = I2 .


 
−2 1
A est donc inversible. A = 2 A − 2 I2 = 3
−1 1 5
.
2
− 21
X Méthode de Gauss - Jordan.
Soit A ∈ Mn (K). On a :A|In ∼ In |A.

(a) Superposer A avec In : A|In ;


(b) Faire subir au bloc une série d'opérations élémentaires pour changer la position de
la matrice unité ;
(c) A la dernière opération, la matrice A' obtenue dans le bloc est l'inverse de A.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Matrices inversibles 85

Exemple 6.13.

  0 
−1 1 −1 1 1 1 0 0
  
1 1 0 0 L1  L1 = L1 
0
 1 −1 1 0 1 0
 L2 ∼  0 0 2 1 1 0
 L2 = L2 + L1
1 −1 0 0 1 L03 = L3 + L1
 
1 L3 0 2 0 1 0 1

L”1 = L01 

−1 1 1 1 0 0
 

∼  0 2 0 1 0 1  L”2 = L02 ∼
0 
0 0 2 1 1 0
L”3 = L3 
 (3)
L1 = −2L”1 + L”3 

2 −2 0 −1 1 0


∼  0 2 0 1 0 1  L(3) 2 = L” 2
(3) 
0 0 2 1 1 0 L3 = L”3

  (4) (3) (3)

2 0 0 0 1 1 L1 = L2 + L1  
∼  0 2 0 1 0 1  L(4) 2 = L
(3)
2
(4) (3) 
0 0 2 1 1 0 L3 = L3

 (5) (4)

1 0 0 0 12 21 L1 = 12 L1 


1 1  (5) 1 (4)
∼  0 1 0 2 0 2
L2 = 2 L2
1 1 (5) (4) 
0 0 1 0 L3 = 12 L3

2 2
D'où
 1 1
0 2 2
A−1 =  12 0 1
2
1 1
2 2
0
Théorème 6.1. Soit A ∈ Mn (K), alors les conditions suivantes sont équivalentes :
1. A est inversible ;
2. t A est inversible ;
3. Les lignes de A sont linéairement indépendantes ;
4. Les colonnes de A sont linéairement indépendantes ;
5. Rg(A) = n
Dénition 6.10. Soit A = (aij ) 1≤i≤n ∈ Mn,m (K) .
1≤j ≤m
On appelle rang de A, le rang du système constitué par les vecteurs lignes ou colonnes de la
matrice A. On note Rg(A.
 
0 1 1
Exemple 6.14. Soit A = 1 0 1.
1 1 0
  
0 1 1 u1 
 1 0 1  u2 =⇒ {u1 , u2 , u3 } est libre.

1 1 0 u3
Donc A est inversible.
Remarque 6.13. Soit f ∈ LK (E, F) et B une base de E, et B' une base de F. Alors f est
bijective si et seulement si M (f, B, B 0 ) est inversible.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 86

6.5 Changement de bases

6.5.1 Généralités
Matrices équivalentes
Dénition 6.11. Soient A, B ∈ Mn,p (K) On dit que A et B sont équivalentes si et seulement
si s'il existe une matrice inversible P d'ordre p et s'il existe une matrice inversible Q d'ordre n
telles que B = Q−1 · A · P .

Exemple 6.15. 1. Les matrices d'une même application linéaire sont équivalentes.
2.
f : R2 −→ R4
(x,y) 7−→ (x + y, 2x − y, 3x + 4y, x − y)

Soit B = {e1 , e2 } la base canonique de R2 , B 0 = {e01 , e02 }, avec e01 = (1, 1) et e02 = (1, 2)
D = {1 , 2 , 3 , 4 } base canonique de R4 .
 
1 1
2 −1
 
A = M (f, B, D) = 
3 4

1 −1
 
2 3
1 0
 
A0 = M (f, B 0 , D) = 
7 11 

0 −1
A et A' sont des matrices équivalentes.

Remarque 6.14. Deux matrices sont équivalentes si et seulement si elles ont même rang.

Matrices semblables
Dénition 6.12. Soient A et B deux matrices de Mn (K).
On dit que A et B sont semblables si et seulement s'il existe une matrice inversible P d'ordre
n telle que B = P −1 · A · P .

Exemple 6.16. 1. Les matrices associées à un endomorphisme sont semblables.

g: R2 −→ R2
(x,y) 7−→ (x − y, 2x + y)

Soit B = {e1 , e2 } la base canonique de R2 , A = M (g, B) matrice associée à g dans la


base B.
g(e1 ) = g(1, 0) = (1, 2) = 1 · e1 + 2 · e2 g(e2 ) = g(0, 1) = (−1, 1) = −1 · e1 + 1 · e2

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 87

 
1 −1
A=
2 1
B 0 = {e01 , e02 } est une base de R2 avec e01 = (−1, 1) et e02 = (1, 2).
A0 = M (g, B 0 ) est la matrice associée à g dans la base B'. on a

g(e01 ) = −2e1 − e2
  0
e1 = −e1 + e2
0 et
g(e2 ) = −1e1 + 4e2 e02 = e1 + 2e2

e1 = − 32 e01 + 31 e2 g(e01 ) = e01 − e02


 
=⇒
e2 = 13 (e01 + e02 ) g(e02 ) = 2e01 + e02
 
1 2
0 0
A = M (g, B ) = , A et A' sont semblables.
−1 1

Trace d'une matrice


Dénition 6.13. Soit A = (aij ) 1≤i≤n ∈ Mn (K). On appelle trace de A, le scalaire noté :
1≤j ≤n

tr(A) = a11 + a22 + · · · + ann

tr : Mn (K) −→ K
(aij ) 1 ≤ i ≤ n 7−→ tr(A) = a11 + a22 + · · · + ann
1≤j ≤n

Proposition 6.5. La trace est une application linéaire.


Preuve 6.3.
tr : Mn (K) −→ K
(aij ) 1 ≤ i ≤ n 7−→ tr(A) = a11 + a22 + · · · + ann
1≤j ≤n

Soient α, β ∈ K, A = (aij ) 1≤i≤n et A0 = (a0ij ) 1≤i≤n .


1≤j ≤n 1≤j ≤n

α · A + β · A0 = α · (aij ) 1≤i≤n + β · (a0ij ) 1≤i≤n


1≤j ≤n 1≤j ≤n

= (α · aij + β · a0ij ) 1≤i≤n


1≤j ≤n

tr(α · A + β · A0 ) = tr (α · aij + β · a0ij )


 
1≤i≤n
1≤j ≤n

= (α · a11 + β · a011 ) + · · · + (α · ann + β · a0nn


= α · (a11 + a22 + · · · + ann ) + β · (a011 + a022 + · · · + a0nn )
= α · tr(A) + β · tr(A0 )

Remarque 6.15. 1. Soient A, B ∈ Mn (K). On a : tr(A · B) = tr(B · A).


2. tr(In ) = n.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 88

6.5.2 Matrice de passage


Dénition 6.14. Soient B = {u1 , . . . , un } et B 0 = {u01 , . . . , u0n } deux bases de E.
On appelle matrice de passage de la base B à la base B', la matrice P d'ordre n dont les
colonnes sont les composantes des éléments u01 , . . . , u0n exprimés dans la base B.
 0

 u1 = α11 u1 + α21 u2 + · · · + αn1 un
0
 u2 = α12 u1 + α22 u2 + · · · + αn2 un



u03 = α13 u1 + α23 u2 + · · · + αn3 un
.. .. . .
. . + .. + · · · + ..

=




 0
un = α1n u1 + α2n u2 + · · · + αnn un

u01 u02 . . . u0n


  
α11 α21 ... αn1 u1 

α12 α22 ... αn2 u2
  

P =  .. .. .. .. ..
 
. . . . .

  


α1n α2n ... αnn un

P = (αij ) 1≤i≤n
1≤j ≤n

Remarque 6.16. 1. P est une matrice inversible.


2. Si P est la matrice de passage de la base B à la matrice base B', alors P −1 est la matrice
de passage de la base B' à la base B.

Exemple 6.17. X (R2 , +, ·).


C = {e1 , e2 } est la base canonique de R2 . e1 = (1, 0), e2 = (0, 1). C 0 = {e01 , e02 }, où
e01 = (1, 1), e02 = (1, 2) est une autre base de R2 . Soit P la matrice de passage de C à C' :

e01 = (1, 1) = 1 · e1 + 1 · e2
  
1 1
=⇒ P =
e02 = (1, 2) = 1 · e1 + 2 · e2 1 2
Soit P' la matrice de passage de la base C' à la base C :
 0
e1 = 2 · e01 − 1 · e02
  
e1 = 1 · e1 + 1 · e2 2 −1
=⇒ 0
=⇒ P = et P −1 = P
e02 = 1 · e1 + 2 · e2 e2 = −1 · e01 + ·e02 −1 1

X (R3 , +, ·). Soit C1 = {e1 , . . . , e3 } la base canonique, et C2 = {e01 , . . . , e03 } une autre base
R3 telle que
 0
 e1 = (0, 1, 1) = 0 · e1 + 1 · e2 + 1 · e3
e0 = (1, 0, 1) = 1 · e1 + 0 · e2 + 1 · e3
 20
e3 = (1, 1, 0) = 1 · e1 + 1 · e2 + 0 · e3
 
0 1 1
P = 1 0 1
1 1 0
P 0 = P −1 est la matrice de passage de C2 à C1 .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 89

Remarque 6.17. Soient B et B' deux bases de E, alors la matrice de passage de B à B' est
identique à la matrice associée à :
IdE : E −→ E
X 7−→ X

Preuve 6.4. On a B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n }, IdE (u0i ) = u0i , ∀i(1 ≤ i ≤ n).

IdE (u01 ) = u01




 = α11 u1 + α21 u2 + · · · + αn1 un
0 0
 IdE (u2 ) = u2 = α12 u1 + α22 u2 + · · · + αn2 un



IdE (u03 ) = u03 = α13 u1 + α23 u2 + · · · + αn3 un
.. .. . .
. . + .. + · · · + ..

=




IdE (un ) = u0n
0
α1n u1 + α2n u2 + · · · + αnn un

=

IdE (u01 ) IdE (u02 ) . . . IdE (u0n )


  
α11 α21 . . . αn1 u1 

 α12 α22 . . . α n2
 u2 
M (IdE , B 0 , B) =  . .. . . .. .
 
 .. . . .  .. 



α1n α2n . . . αnn un

u01 u02 . . . u0n


  
α11 α21 ... αn1 u1 

α12 α22 ... αn2 u2
  

=  .. .. .. .. ..
 
. . . . .

  


α1n α2n ... αnn un

M (IdE , B 0 , B) = P est la matrice de passage de B à B'

6.5.3 Eet d'un changement de bases sur les composantes d'un vecteur
Soient B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n }, deux bases de E K-e.v et P la matrice de
passage de la base B à la base B'.

Proposition 6.6. Soit V un vecteur de E. Si X et X' sont les composantes respectives de V


dans les bases B et B', alors, on a :

  0
x1 x1
 x2   x0 
 2
X 0 = P −1 · X, avec X =  .  et X 0 =  . 
 
..  .. 
xn x0n
xi , x0j ∈ K, ∀i, j.

Exemple 6.18.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 90

1. (R2 , +, ·), et soit C = {e1 , e2 } sa base canonique. C 0 = {e01 , e02 } une autre base R2 , telle
 
5
que e1 = (1, 1) et e2 = (1, 2). Soit X =
0 0
la matrice de V = (5, 6) ∈ R2 .
6
 
1 1
Soit P la matrice de passage de C à C', on sait que P = et
1 2
   
2 −1 4
−1
P = . Puisque X = P · X , on obtient X =
0 −1 0
, composantes de V
−1 1 1
dans C'.
2. (R3 , +, ·)
Posons : B = {e1 , . . . , e3 } et B 0 = {e01 , . . . , e03 }, B est la base canonique de R3 , et B' en
est une autre base, telle que e01 = (1, −1, 1), e02 = (1, −1, 1), e03 = (1, 1, −1). La matrice
de passage de B à B' est :
 1 1
−1 1
 
1 0 2 2
P =  1 −1 1  et P = 12 0 12 
−1 
1 1
1 1 −1 2 2
0
 
2
Pour V = (2, 3, 4) ∈ R on pose : X = 3 ; on a :
3 
4
 1 1    
0 2 2 2 7
0 1 1   1  
X = 2 0 2 · 3 = · 6

1 1 2
2 2
0 4 5
1
V = (7e01 + 6e02 + 5e03 )
2

6.5.4 Eet d'un changement de bases sur la matrice d'une application


linéaire
Soient E et F deux K-e.v de dimensions respectives n et m. Soient B = {u1 , . . . , un } et
B = {u01 , . . . , u0n } deux bases de E ; D = {v1 , . . . , vm } et D0 = {v10 , . . . , vm
0
} deux bases de F.
Soit f : E −→ F une application linéaire.
Posons P : matrice de passage de B à B', et Q : matrice de passage de D à D'.

Théorème 6.2. Si A = M (f, B, D) est la matrice associée à f relativement aux bases B et


D, et A = M (f, B 0 , D0 ) est la matrice associée à f relativement aux bases B' et D'. Alors
0

A0 = Q−1 · A · P .

Preuve 6.5.
f : E −→ F
x 7−→ y = f(x)
Soit x ∈ E, X la matrice des composantes de x dans la base B, et X' les composantes de x dans
la base B'. On a : X 0 = P −1 ·X . f(x) = y , soit Y la matrice des composantes de y dans la base D
et Y' ses composantes dans la base D'. On a Y 0 = Q−1 · Y . y = f(x) ⇒ Y = A · X; Y 0 = A0 · X 0 .
Y ∈ Mm,1 (K), A ∈∈ Mm,n (K), X ∈ Mn,1 (K), A · X ∈∈ Mm,1 (K).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 91

Y 0 = A0 · X 0 Q−1 · Y = A0 · P −1 · X , donc Q−1 · A · X = A0 · P −1 · X .


Donc Q−1 · A = P −1 · A. D'où A0 = Q−1 · A · P .

Exemple 6.19.
ϕ: R3 −→ R2
(x,y,z) 7−→ (x + 2y + z, 2x − y − z)
Dans cet exemple, C et C' représentent respectivement la base canonique de R3 , et l'autre
base utilisée dans les exemples précédents. De même, D et D' représentent respectivement la
base canonique de R2 et l'autre base de R2 couramment utilisée dans les exemples précédents
également.  
1 2 1
Soit A = M (f, C, D) : matrice associée à f dans les bases C et D. On a : A = .
2 −1 −1
A0 = M (f, C 0 , D0 ) : matrice associée à f dans les bases C' et D'. On a : A0 = Q−1 · A · P , où
P : matrice de passage de C à C' ; Q : matrice de passage de D à D'.
 
1 0 0  
2 −1
On rappelle que P = 0 1 0 et que Q = −1
.
−1 1
0 0 1
Donc :  
    1 0 0
2 −1 1 2 1
A0 = · · 0 1 0
−1 1 2 −1 −1
0 0 1
Une autre méthode : A0 = M (f, C 0 , D0 ) =?
0 0 0

 f(e1 ) = α1 · 1 + α2 · 2
f(e02 ) = β1 · 01 + β2 · 02
f(e03 ) = γ1 · 01 + γ2 · 02

 
0 α1 β1 γ1
A =
α2 β2 γ2

Corollaire 4. Soit f un endomorphisme de E et B = {u1 , . . . , un } et B 0 = {u01 , . . . , u0n } deux


bases de E.
Si A = M (f, B) est la matrice associée à f dans la base B, et A0 = M (f, B 0 ) la matrice
associée à f dans la base B', alors A0 = P −1 · A · P , où P est la matrice de passage de B à B'.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 92

Exercices 1.

Í1 Calculer les produits possibles pour les matrices ci-dessous :

1 −3
 
   
1 −3 3 4 7
A1 = , A 2 = 4 6  , A 3 =
−2 0 4 5 −2
0 2
   
1 2 1 5
A4 = 4 , A5 = (−1, 2, −10), A6 = 7 4 3
5 8 9 0
 
1 1 1
Í2 On considère la matrice A = 0 1 1 et on pose B = A − I .

0 0 1
Calculer B n pour n ∈ N, et en déduire l'expression de An .
2 −1 2
 

Í3 Soit A =  5 −3 3 .
−1 0 −2
1. Calculer (A + I)3 .
2. En déduire que A est inversible.
Í4 Soit fR3 −→ R3 l'endomorphisme dont la matrice dans la base canonique C = {e1 , e2 , e3 }
 
0 1 0
est A = −1 2 0 
1 0 −1
1. Montrer que A3 − A2 − A + I3 = 0.
En déduire que A est inversible et calculer A−1 .
2. Que peut-on dire de f .
Í5 Soit C = {e1 , e2 , e3 } la base canonique de R3 , et f l'endomorphisme de R3 dénie par
f(x, y, z) = (2x − y, x + y + z, −x + 2y + 2z)
1. Déterminer la matrice associée à f par rapport à la base C.
2. Soit B = {1 , 2 , 3 } avec 1 = (0, 1, 1), 2 = (1, 0, 1) et 3 = (1, 1, 0).
(a) Vérier que B est une base de R3 , et donner la matrice associée à f dans la base
B.
(b) Déterminer la matrice associée à f par rapport aux bases B et C, puis la matrice
associée à f par rapport aux bases C et B.
(c) Donner les matrices de passage de B à C, et C à B.
(d) En déduire la matrice associée à f dans la base B.
Í6 Calculer l'inverse des matrices suivantes par la méthode de Gauss :
 
  −1 1 1 1
1 2 0
1 1 −1 1 
 
0
A = 3 −1 1 ; A = 
 
 1 −1 1 1

0 1 2
1 1 1 −1

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 93

Í7 Soit l'application linéaire f : R3 −→ R2 dénie par :

f(x, y, z) = (2x + y + z, y − 3z)

Considérons C1 et B1 respectivement les bases canoniques de R3 et R2 .


Soient C2 = {(−1, 1, 1); (1, −1, 1), (1, 1, −1)} un système de R3 et B2 = {(1, 1), (1, −1)}
un système de R2 .
1. Trouver la matrice de l'application f par rapport aux bases C1 et B1
2. Montrer que C2 est une base de R3 , et B2 est une base de R2 .
3. Trouver la matrice de passage P de C1 à C2 , puis celle de Q de B1 à B2 .
4. Déterminer la matrice M2 de f par rapport aux bases C2 et B2 . Calculer Q−1 M1 P .
 
a b c
Í8 Soit E = {M ∈ M3 (R)/M =  c a b  , a, b, c, ∈ R}.
b c a
1. Montrer que E est un sous-espace vectoriel de M3 (R).
2. Déterminer une base B de E, et la dimension de E.
3. Soit
φ: R3 −→ E
 
x y z
(x, y, z) 7−→ φ(x, y, z) = z x y 
y z x

(a) Montrer que φ est un isomorphisme.


(b) Déterminer la matrice associée à φ par rapport à la base canonique C de R3 , et
de la base B de E.
1 a a2
 

Í9 Soit Ma = 0 1 2a
0 0 1
1. Montrer que Ma · Mb = Ma+b . En déduire que Ma est inversible, et calculer (Ma )−1 .
2. Calculer (Ma )n .
Í10 Soit
ϕ: R2 [x] −→ R2 [x]
d
P (x) 7−→ ϕ(p(x)) = p(x) + dx
(P (x))
Soit C la base canonique de R2 [x], et considérons les éléments suivants :

Q0 = 1 + x

Q1 = x + x2
Q2 = 1 + x2
B = {Q0 , Q1 , Q2 }

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Changement de bases 94

1. Montrer que B est une base de R2 [x].


2. Déterminer la matrice de passage de C à B, puis la matrice associée à ϕ dans la
base C et dans la base B.
3. Soit φ(x) = x2 − x. Déterminer les composantes de φ respectivement dans les bases
C et B.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Sept

Déterminant d'une matrice

Contents
7.1 Déterminant d'une matrice carrée . . . . . . . . . . . . . . . . . . . 95

7.1.1 Dénitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 95


7.1.2 Calcul de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.2 Application des déterminants . . . . . . . . . . . . . . . . . . . . . . 100

7.2.1 Calcul de l'inverse d'une matrice . . . . . . . . . . . . . . . . . . . . . 100


7.2.2 Détermination du rang d'une matrice . . . . . . . . . . . . . . . . . . . 101
7.2.3 Systèmes d'équations linéaires : . . . . . . . . . . . . . . . . . . . . . . 102

7.1 Déterminant d'une matrice carrée

7.1.1 Dénitions et exemples


Dénition 7.1. Soit A ∈ Mn (K). On appelle déterminant de A, le scalaire noté :

a11 a12 . . . a1n

a21 a22 . . . a2n
det(A) = . .. .. .

.. . . ..

an1 an2 . . . ann
et qui est dénie par : X
det(A) = ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n
σ∈Sn

ε: Sn −→ {−1, 1}
σ 7−→ Aε(σ) = (−1)I(σ) = (−1)k
avec I(σ) = nombre d'inversions de σ .
     
a11 a12 a1n
 a21   a22   a2n 
Remarque 7.1. Si C1 =   .. , C2 =  .. , ..., Cn =  ..  sont les n colonnes de A,
    
 .   .   . 
an1 an2 ann
alors :
det(A) = detB (C1 , . . . , Cn )

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Déterminant d'une matrice carrée 96

B étant la base canonique de Kn .

Exemple 7.1.

1. Soit A = (aij ) 1≤i≤2 ∈ M2 (R).


1≤j ≤2

a11 a12 X
det(A) = = ε(σ)aσ(1)1 aσ(2)2
a21 a22 σ∈S
2

   
1 2 1 2
S2 = {Id, σ1 }, Id = , σ1 = .
1 2 2 1

ε(Id) = 1, σ12 = Id, ε(σ1 ) = −1.


An = {σ ∈ Sn /ε(σ) = 1} = Ker(ε) est groupe alterné.

◦ (Sn )
(Sn /An ) = ◦ (A )
n

det(A) = ε(Id) · a11 · a22 + ε(σ1 ) · a21 · a12 = a11 · a22 − a21 · a12 .
2. Soit A = (aij ) 1≤i≤3 ∈ M3 (R).
1≤j ≤3
X
det(A) = ε(σ)aσ(1)1 aσ(2)2 aσ(3)3
σ∈S3

S3 = {Id, σ1 , . . . , σ5 }, on a :
   
1 2 3 1 2 3
Id = σ1 =
1 2 3 1 3 2
   
1 2 3 1 2 3
σ2 = σ3 =
3 2 1 2 1 3
   
1 2 3 1 2 3
σ4 = σ5 =
2 3 1 3 1 2

det(A) = ε(Id)a11 · a22 · a33 + ε(σ1 )a11 · a32 · a23 + ε(σ2 )a31 · a22 · a13
+ε(σ3 )a21 · a12 · a33 + ε(σ4 )a21 · a32 · a13 + ε(σ5 )a31 · a12 · a23



 ε(Id) = 1
ε(σ1 ) = −1 (σ1 est une tranposition)



..


.

ε(σ2 ) = −1

..


 ε(σ3 ) = −1 .
car σ4 = (1 2 3) = (1 2)(2 3)




 ε(σ4 ) = 1
ε(σ5 ) = 1 car σ5 = (1 3 2) = (1 3)(3 2)

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Déterminant d'une matrice carrée 97

σ4 et σ5 sont des permutations paires.

det(A) = a11 · a22 · a33 − a11 · a32 · a23 − a31 · a22 · a13
−a21 · a12 · a33 + a21 · a32 · a13 + a31 · a12 · a23

Remarque 7.2. Soit E un K-e.v de dimension n.

1. Si f ∈ LK (E) et B est une base de E, A = M (f, B), det(f) = det(A).


2. Soit B une base de E, V1 , . . . , Vn des élémentss de E, et A' la matrice des commposantes
de V1 , . . . , Vn dans la base B :

det(A0 ) = detB (S) = detB (V1 , . . . , Vn ) où S = {V1 , . . . , Vn }

Propriété 7.1.

1. ∀α ∈ K, ∀A ∈ Mn (K), det(α · A) = αn · det(A).


2. ∀A, B ∈ Mn (K), det(A · B) = det(A) · det(B).
3. ∀A ∈ Mn (K), det(t A) = det(A).
4. ∀A ∈ Mn (K), A est inversible ⇐⇒ det(A) 6= 0.
5. Posons :
 
r| A B
M =  
n − r| O C
r|n − r
avec A ∈ Mr (K), O ∈ Mn−r,r (K), B ∈ Mr,n−r (K), C ∈ Mn−r (K). On a :

det(M ) = det(A) · det(C)

Preuve 7.1. (Homework)

Conséquences 7.1.

• ∀A ∈ Mn (K) et ∀p ∈ N∗ : det(Ap ) = [det(A)]p .


• Si A est nilpotente d'indice r, on a : det(A) = 0.
• Si A est antisymétrique et n impair, alors det(A) = 0.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Déterminant d'une matrice carrée 98

7.1.2 Calcul de déterminants


Soit A = (aij ) 1≤i≤n ∈ Mn (K) .
1≤j ≤n

Dénition 7.2. On appelle mineur d'ordre (i,j) ou mineur relativement à l'élément aij , le
déterminant ∆ij = det(Aij ) d'ordre n-1 obtenu en supprimant dans A la i-ème ligne et la j-ème
colonne.

Suppression de la +
y

j-ème colonne de A

a11 a12 ... a1j ... a1n

a21 a22 ... a2j ... a2n
.. .. ..

. . | . Suppression de la
∆ij =
−ai1 − −ai2 − − − − − − −aij − − − − − − −ain − | i-ème ligne de A ←

−+
.. .. ..
. . | .

an1 an2 ... anj ... ann
Dénition 7.3. On appelle cofacteur relatif à aij ( associé à aij ) dans A, le scalaire (−1)i+j ∆ij
(produit de (−1)i+j par le mineur d'ordre (i,j)).
Remarque 7.3. On appelle rangée d'une matrice ou d'un déterminant, toute ligne ou colonne
d'une matrice ou du déterminant.
Proposition 7.1. Soit A = (aij ) 1≤i≤n ∈ Mn (K) .
1≤j ≤n

1. ∀j ∈ {1, ..., n},


n
X
det(A) = aij · cij , où cij = (−1)i+j ∆ij
i=1
C'est le développement du déterminant suivant la j-ème colonne.
2. ∀i ∈ {1, ..., n},
n
X
det(A) = aij · cij
j=1

C'est le développement du déterminant suivant la i-ème colonne.


Exemple 7.2.
 
a11 a12 a13
1. Soit A = (aij ) 1≤i≤3 = a21 a22 a23  .
1≤j ≤3
a31 a32 a33

a11 a12 a13
a 22 a 23
a 21 a 23

det(A) = a21 a22 a23 = a11 · (−1)1+1 + a12 · (−1)1+2
a a 32 a 33
a31 a33
31 a32 a33


1+3 a21 a22

+a13 · (−1)
a31 a32

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Déterminant d'une matrice carrée 99

2.

1 2 3
1+1 5 6 1+2 4 6 1+3 4 5

d = 4 5 6 = 1×(−1) +2×(−1) +3×(−1) 7 8 = −3+12−9 = 0

7 8 9 8 9 7 9

Remarque

7.4. (Méthode de Sarrus)

a b c
Soit A =  a0 b0 c0 .
a” b” c”

+ a b c −

a b c
a0 b 0 c 0

det(A) = a0 b0 c0 = a” b” c”

a” b” c”
a b c
0
a b0 c 0

det(A) = (ab0 c” + a0 b”c + a”bc0 ) − (a”b0 c + ab”c0 + a0 bc”)


Conséquences 7.2.

W Le déterminant est laissé invariant si l'on développe suivant n'importe quelle rangée,
W On ne change pas la valeur d'un déterminant en remplaçant une ligne par la somme de
cette ligne et une combinaison linéaire des autres lignes,
W On ne change pas aussi la valeur du déterminant en remplaçant une colonne par la somme
de cette colonne, et par une combinaison linéaire des autres colonnes.
Exemple 7.3.
C1 C2 − 2C1 C3 − 3C1

1 2 3 1 0 0
1+1 −3 −6

d = 4 5 6 = 4 −3 0 = 1 × (−1)
=0
−6 −12
7 8 9 7 −6 −12

Exemple 7.4. Déterminant de Vandermonde


Soit (x1 , . . . , xn ) ∈ Kn . On appelle déterminant de Vandermonde d'ordre n, le scalaire noté :
1 x1 x21 . . . x1n−1


1 x2 x2 . . . xn−1
2 2
Y
V (x1 , . . . , xn ) = . . .. . . .. = (xi − xj )

.. .. . . .

1≤i≤n
1 xn x2 . . . xn−1 1≤j ≤n
n n

1 x1
n = 2 V (x1 , x2 ) = = x2 − x1 .
1 x2
1 x1 x21

1 0 0
n = 3 V (x1 , x2 , x3 ) = 1 x2 x2 = x2 − x1 = 1 x2 − x1 x2 − x1 .

2 2 2
1 x x2 1 x − x x2 − x2
3 3 1
3 3 1
x2 − x1 x22 − x21
V (x1 , x2 , x3 ) = = (x2 − x1 ) · (x3 − x1 ) · (x3 − x2 )
x3 − x1 x23 − x21

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application des déterminants 100

Remarque 7.5.
   
α1 a11 α1 a12 . . . α1 a1n a11 a12 . . . a1n
 α2 a21 α2 a22 . . . α2 a2n   a21 a22 . . . a2n 
 
 .. .. .. ..  = α1 · α2 · · · αn ·  .. .. .. . 
 
 . . . .   . . . .. 
αn an1 αn an2 . . . αn ann an1 an2 . . . ann

7.2 Application des déterminants

7.2.1 Calcul de l'inverse d'une matrice


Dénition 7.4. Soit A = (aij ) 1≤i≤n ∈ Mn (K) .
1≤j ≤n
On appelle comatrice de A dont les coecients sont les cofacteurs de A.
Notation 7.1.
A∗ = Com(A) = ((−1)∆ij ) 1≤i≤n
1≤j ≤n

à =t (A∗ ) × A∗ est appellee la matrice adjointe.


Propriété 7.2. Soit A ∈ Mn (K). On a :

A · Ã = Ã · A = det(A) · In
Corollaire 5. Si A est une matrice inversible, alors det(A) 6= 0, on a :

1 t
(A∗ )
A−1 = · Ã =
det(A) det(A)
Exemple 7.5.

1 −1 1
 

X On pose A = −1 1 1 .
1 1 −1

1 −1 1 1 −1 1 L1
   
L1
det(A) = −1 1 1  L2 = 0 0 2 L2 + L1
1 1 −1 L3 0 2 0 L3 + L2

0 2
= 1 × (−1)1+1 · = −4 6= 0
2 0
Donc A est inversible.

1
A−1 = × (t (A∗ ))
det(A)
 
1 1 −1 1 −1 1
 + 1 −1 − 1 −1 + 1 1 

 
−1 1 1 1 1 −1
 
A∗ = −

+ −
 
 1 −1 1 −1 1 1  
 
 −1 1
+ 1 −1
1 1 
+ −
1 1 −1 1 −1 1

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application des déterminants 101

−2 0
 
2
A∗ =  0 −2 −2
−2 −2 0
1
0 21

−1 2
A =
0 12

7.2.2 Détermination du rang d'une matrice


Dénition 7.5. Soit A = (aij ) 1≤i≤n ∈ Mn (K). On appelle matrice extraite de A, toute
1≤j ≤n
matrice obtenue en supprimant un certain nombre de lignes et un certain nombre de colonnes
de A.

Dénition 7.6. On appelle déterminant extrait de A, tout déterminant d'une matrice carrée
extraite de A.

Proposition 7.2. Soit A ∈ Mn,m (K) non nulle. Alors le rang de A est le plus grand entier r
tel que l'on puisse extraire de A au moins une matrice carrée inversible d'ordre r.
Autrement dit, le rang de A est l'ordre maximal d'une matrice carrée inversible extraite de A,
appelée matrice principale de A.

1 −1 1 2
 

Exemple 7.6. Soit A = 1 −2 0 −2. On a 1 ≤ Rg(A) ≤ 3.


0 1 1 4

1 −1 1
 

Pour A1 = 1 −2 0 , det(A1 ) = 0
0 1 1
 
1 1 2
Pour A2 = 1 0 −2 , det(A2 ) = 0
0 1 4

−1 1 2
 

Pour A3 = −2 0 −2 , det(A3 ) = 0


1 1 4

1 −1 2
 

Pour A4 = 0 −2 −2 , det(A4 ) = 0


1 1 4
 
1 2
Pour B = , det(B) 6= 0
0 −2
Ainsi, Rg(A) = Rg(B) = 2.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application des déterminants 102

7.2.3 Systèmes d'équations linéaires :


Dénition 7.7. On appelle système de m équations à n inconnues à coecients dans K, un
système de la forme :


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn

= b2
.. . . .


 . + .. + · · · + .. = ..
am1 x1 + am2 x2 + · · · + amn xn = bm

Où nx , . . . , nn sont des inconnues du système. Les (aij ) 1≤i≤m sont les coecients du système.
1≤j ≤n

Les coecients bj , (1 ≤ j ≤ n) forment le second membre du système.

Remarque 7.6. Si bj = 0, ∀j = 1, ..., n. Le système est dit homogène.


Interprêtation :
1. A = (aij ) 1≤i≤m est la matrice des coecients du système (ou matrice du système).
1≤j ≤n
  
x1 b1
 x2   b2 
2. Posons X =  .  , B =  . . Le système (S) est équivalentes à A · X = B .
   
..  .. 
xn bn

Dénition 7.8. On dit que le système (S) est de Cramer si et seulement si m = n et det(A) 6=
0.

Remarque 7.7. Le système de Cramer admet une unique solution X = A−1 · B .

Dénition 7.9. On appelle déterminant du système, le déterminant de la matrice A des coef-


cients du système.

Théorème 7.1. Soit (S) le système,




 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn

= b2
(S) : .. . . .


 . + .. + · · · + .. = ..
am1 x1 + am2 x2 + · · · + amn xn = bm

et A = (aij ) 1≤i≤m est la matrice des coecients du système (ou matrice du système). Alors
1≤j ≤n
les conditions suivantes sont équivalentes :
 (S) admet une unique solution.
 A est inversible.
 det(A) 6= 0.

Formules de Cramer

Soit (S) un système de Cramer. La solution unique de (S), est donnée par les formules :

∆i
xi = (1 ≤ i ≤ n)

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013
Application des déterminants 103

Où ∆ est le déterminant du système, et ∆i est le déterminant déduit de ∆ en remplaçant la


i-ème colonne ∆ par les termes du second memblre : nb , . . . , nn .
Substitution y
de la
+

i-ème colonne de A
 
a11 a12
··· a1i · · · a1n a11 a12 · · · b1 · · · a1n
a21 a22 ··· a2i · · · a2n a
 21 a22 · · · b2 · · · a2n 
∆= . .. .. .. ∆i =  .. .. .. .. 

.. . ··· . ··· .  . . ··· . ··· . 

an1 an2 ··· ani · · · ann an1 an2 · · · bn · · · ann

∆1 ∆2 ∆n
S = {( , , ..., )}
∆ ∆ ∆
Exemple 7.7. Résolvons le système

 −x + y + z = 1 −1 1 −1 1
 
1 1
x − y + z = 2 , avec A =  1 −1 1  , ∆ = 1 −1 1 = 4 6= 0


x+y−z =3 1 −1 1 −1

1 1

Le système ci-dessus est de Cramer : S = {( ∆∆1 , ∆∆2 , ∆∆3 )}.



1 1 1 −1 1 1 −1 1 1

∆x = 2 −1 1 = 10, ∆y = 1 2 1 = 8, ∆z = 1 −1 2 = 6
3 1 −1 1 3 −1 1 1 3
5 3
S = {( ; 2; )}
2 2
Cas général

Soit (S) un système de m équations linéaires à n inconnues, A = (aij ) 1≤i≤m la matrice des
1≤j ≤n

coecients du système, et r est le rang de (S).

Théorème 7.2. (Théorème de Rouche - Fonténé )


Les assertions suivantes sont vérifées :
1. Si n = m = r, alors le système (S) admet une unique solution (S est de Cramer).
2. Si r = m < n, alors le système admet des solutions que l'on obtient en donnant des valeurs
arbitraires aux n-m inconnues, et en résolvant le système de Cramer aux m inconnues
principales.
  
x−y+z+t = 1 1 −1 1 1
Exemple 7.8. Résolvons , avec A = .
x + y + 2z + 4t = 5 1 1 2 4

1 −1
On note que = 2 6= 0. Le système donne donc :
1 1

x = 12 (6 − 3z − 5t)


y = 12 (4 − z − 3t)
1 1
S = {( (6 − 3z − 5t); (4 − z − 3t), z, t)}
2 2

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application des déterminants 104

3. Si r < m, alors le système admet des solutions si et seulement si m-r déterminants


caractéristiques sont tous nuls. Ainsi, si cette condition est réalisée, le système se réduit
à r équations principales que l'on résoud comme au 2).

a11
a12 · · · a1r b1
a21 a22 · · · a2r b2
∆ = ... .. .. .. , avec k > 0

. ··· . .


ar1
ar2 · · · arr br
a
k1 ak2 · · · akr b
k

est un déterminant caractéristique.



 x − y + z + 2t = 1 1 −1 1 2
 

Pour x − 2y − 2t = 2 on a : A = 1 −2 0 −2 , et Rg(A) = 2.



y + z + 4t = 3 0 1 1 4

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Chapitre Huit

Diagonalisation

Contents
8.1 Les éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

8.1.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . 105


8.1.2 Propriétés des valeurs propres et vecteurs propres . . . . . . . . . . . . 106
8.1.3 Polynôme caractéristique de f . . . . . . . . . . . . . . . . . . . . . . . 107
8.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

8.2.1 Dénition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 109


8.3 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . 112

8.3.1 Calcul de la puissance k ième d'une matrice . . . . . . . . . . . . . . . 112


8.3.2 Résolution d'un système de suite récurrentes . . . . . . . . . . . . . . . 112
8.3.3 Système d'équations diérentielles . . . . . . . . . . . . . . . . . . . . 113

8.1 Les éléments propres

8.1.1 Valeurs propres et vecteurs propres


Soit E un K−e.v 1 et f ∈ LK (E) ; K = R ou C.

Dénition 8.1. Un vecteur X ∈ E est appelé vecteur propre de f si les conditions suivantes
sont vériées :
* X 6= OE ;
* ∃λ ∈ K tel que f(X) = λ · X ; le scalaire λ est appelé valeur propre associé à X.

Dénition 8.2. Un scalaire λ ∈ K est dit valeur propre de f s'il est racine du polynôme :

P (x) = det (f − x · IdE )

Proposition 8.1. Soit λ ∈ K. Alors Eλ = {X ∈ E/f(X) = λ · X} est un s.e.v 2 de E, appelé le


s.e.v propre assocé à la valeur propre λ.

Preuve 8.1.

1. Espace vectoriel.
2. Sous-espace vectoriel.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Les éléments propres 106

* f(OE ) = OE = λ · OE =⇒ OE ∈ Eλ , Eλ 6= φ ;
* Soient X1 , X2 ∈ Eλ et α1 , α2 ∈ K :

X1 ∈ Eλ =⇒ f(X1 ) = λ · X1

X2 ∈ Eλ =⇒ f(X2 ) = λ · X2

f(α1 · X1 + α2 · X2 ) = α1 · f (X1 ) + α2 · f(X2 )


= α1 · (λ · x1 ) + α2 · (λ · X2 )
= (α1 · λ) · X1 + (α2 · λ) · X2
= λ · (α1 X1 + α2 X2 )

Donc α1 · X1 + α2 · X2 ∈ Eλ . D'où Eλ est K-s.e.v de E.

Remarque 8.1. Si λ est d'un valeur propre de f . Alors ∃X 6= OE tel que X ∈ Ker(f − IdE ).

8.1.2 Propriétés des valeurs propres et vecteurs propres


Soit λ une valeur propre de f .

Théorème 8.1. Soit f ∈ LK (E) et E un K-e.v de dimension nie. Alors les conditions suiv-
antes sont équivalentes :
1. λ est une valeur propre de f,
2. f − λ · IdE n'est pas injective.

Preuve 8.2.
⇒ 3 ) On suppose que λ est une valeur propre de f .
Donc, il existe X 6= OE tel que f(X) = λ · X . Ce qui implique que (f − λ · IdE )(X) = OE . Donc,
f − λ · IdE n'est pas injective car, Ker(f − λ · IdE ) 6= OE .
⇐ 4 ) Si f − λ · IdE n'est pas injective, alors ∃u 6= OE tel que (f − λ · IdE )(u) 6= OE . Donc
f(u) = λ · u. D'où λ est une valeur propre de f .

Théorème 8.2. Soit f ∈ LK (E) et E un K-e.v de dimension nie. Si λ1 et λ2 sont deux valeurs
propres distinctes de f , alors, Eλ1 ∩ Eλ2 = {OE }, où Eλ1 est le s.e.v propre associé à λ1 , et Eλ2
est le s.e.v propre associé à λ2 .

Preuve 8.3. Soit X ∈ Eλ1 ∩ Eλ2 . Donc


 
X ∈ Eλ1 f(X) = λ1 · X
=⇒
X ∈ Eλ2 f(X) = λ2 · X

Donc λ1 · X = λ2 · X =⇒ (λ1 − λ2 ) · X = 0 ; or λ1 − λ2 6= 0R , donc XE = OE , d'où

Eλ1 ∩ Eλ2 = {OE }


3. Premier sens de la preuve
4. Second sens de la preuve

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Les éléments propres 107

Théorème 8.3. Soient E un K-e.v de dimension nie, et f ∈ LK (E); (λ1 , . . . , λn ) ∈ Kn des


valeurs propres deux à deux distinctes de f et X1 , . . . , Xn des vecteurs propres associés respec-
tivement aux valeurs propres λ1 , . . . , λn . Alors {X1 , . . . , Xn } est une famille libre.

Preuve 8.4. (Par récurrence sur n).

8.1.3 Polynôme caractéristique de f


Soient E un K-e.v muni d'une base B = {e1 , . . . , en } et f ∈ LK (E) ; A = M (f, B) la matrice
associée à f dans la base B.

Remarque 8.2. Si λ est une valeur propre de f , alors f − λ · IdE n'est pas bijective, c'est à dire
que :
det(f − λ · IdE ) = det(A − λ · In ) = 0

Dénition 8.3. On appelle polynôme caractéristique de f ou de A, le polynôme

PA (x) = det(A − x · In )

Remarque 8.3. Les valeurs propres de A sont les racines du polynôme PA (x).
 
a11 − x a12 ... a1n
 a21 a22 − x . . . a2n 
A = (aij ) , A − x · In =  . .. .. .. 
 
 ..
1≤i≤n
1≤j ≤n . . . 
an1 an2 . . . ann − x
   
1 0 ... 0 x 0 ... 0
0 1 . . . 0 0 x . . . 0
In =  . .. . . ..  =⇒ x · I =  .. .. . . .. 
   
 ..
n
. . . . . . .

0 0 ... 1 0 0 ... x

a11 − x a12 ... a1n

a21 a22 − x ... a2n
PA (x) = det(A − x · In ) = . .. .. ..

.. . . .



an1 an2 . . . ann − x

PA (x) = (−1)n xn + (−1)n−1 tr(A)xn−1 + · · · + det(A)

Exemple 8.1.
 
1 2
1. f : R −→ R un endomorphisme dont la matrice dans la base canonique est
2 2
.
−1 4
On a :

1 − x 2
PA (x) = det(A − x · I2 ) = = x2 − 5x + 6
−1 4 − x
On trouve det(A) = 6 ; tr(A) = 5 ; ∆ = 25 − 24 = 1 =⇒ λ1 = 2, λ2 = 3 sont les valeurs
propres de la matrice A ou de f .

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Les éléments propres 108
 −1 1 1

2. On donne A = 1 −1 1 .
1 1 −1


−1 − x 1 1 L1 

PA (x) = det(A − x · I3 ) = 1
−1 − x 1 L2
−1 − x L3
1 
1
1 − x L01 =

1 − x 1 − x L1 + L2 + L3 

= 1
−1 − x 1 L02 = L2
−1 − x L03 =
1 
1 L3
= L01

1 1 1 L”1 

0 0
= (1 − x) 1 −1 − x 1 L”2 = L2 − L1
−1 − x L”3 = L03 − L01
1 
1

1 1 1

= (1 − x) 0 −2 − x 0
0 0 −2 − x

−2 − x 0
= (1 − x)(1)
0 −2 − x

PA (x) = (1 − x)(x + 2)2 ; λ = 1 ou λ = −2 sont les valeurs propres de A.

Dénition 8.4. On appelle spectre de f , l'ensemble des valeurs propres de f .


On note Spec(f).

Exemple 8.2.  
−1 1 1 1
 1 −1 1 1
 
A=  =⇒ Spec(A) = {1; −2}
1 1 −1 1 
1 1 1 −1
Théorème 8.4. Soit f ∈ LK (E) et dim(E) = n. Si λ est une valeur propre de f d'ordre de
multiplicité α, alors : 1 ≤ dim(Eλ ) ≤ α .

Preuve 8.5. (Homework)

Remarque 8.4. Soit PA (x) le polynôme caractéristique de A . Alors PA (A) = 0.


 
1 2
Exemple 8.3.
−1 4

1 − x 2
PA (x) = det(A − x · I2 ) = = (x − 2)(x − 3)
−1 4 − x
Spec(A) = {2; 3}, Eλ = {X ∈ R2 /f(X) = λ · X}, E2 = {X ∈ R2 /A · X = 2 · X}.
Soit X = (x, y) ∈ E2 , A · X = 2 · X .
       
1 2 x x x + 2y = 2x −x + 2y = 0
· =2 ⇐⇒ ⇐⇒
−1 4 y y −x + 4y = 2y −x + 2y = 0
Ce qui implique x = 2y; X = (2y, y) = y(2, 1).
Posons V = (2; 1) implique X = y · V implique E2 = lin({V }).

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Diagonalisation 109

V 6= 0R2 ⇒ {V } libre .{V } est une base de E2 .


V est un vecteur propre associé à 2.
E3 = {X ∈ R2 /A · X = 3 · X}.
     
1 2 x x
Soit X = (x, y) ∈ E ⇒ · =3 , ce qui implique,
−1 4 y y
 
x + 2y = 3x −2x + 2y = 0
qui implique D'où x = y
−x + 4y = 3y −4x + 4y = 0
X = (x, y) = (x, x) = x(1; 1). Posons V 0 = (1; 1). On a X = x · V 0 , donc E3 = lin({V 0 }).
V 0 6= 0R2 ⇒ {V 0 } libre. {V 0 } est une base de E3 . Donc V 0 est un vecteur propre associé à 3.

8.2 Diagonalisation

8.2.1 Dénition et exemples


Dénition 8.5. On dit qu'un endomorphisme f d'un K-e.v E de dimension n est diagonalisable,
si E adment une base B par rapport à laquelle la matrice associée à f est diagonalisable.

Dénition 8.6. On dit qu'une matrice carrée d'ordre n A est diagonalisable s'il existe une
matrice carrée P telle que P −1 .A.P soit une matrice diagonale.

Théorème 8.5. Soit E un K-e.v de dimension nie, et f un endomorphisme de E, alors f est


diagonalisable si et seulement de E admet une base formée de vecteurs propres de f .

Preuve 8.6. Posons dim(E) = n; B = {e1 , . . . , en } une base de E.


⇒) Comme f est diagonalisable, donc E adment une base B 0 = {e01 , . . . , e0n } par rapport à
laquelle la matrice associée à f est diagonalisable.

f (e01 ) = λ1 e01 + · · · + 0 · e0n





 f (e0 )

= 0 · e01 + λ2 · e02 + · · · + 0 · e0n
2
.. .


 . = ..
0
f (en ) = 0 · e01 + · · · + λn · e0n

f (e01 ) f (e02 ) . . . f (e0n )


 
λ1 0 ... 0
 0 λ2 . . . 0 
A0 = M (f, B 0 ) =  . .. . . .. 
 
 .. . . . 
0 0 ... λn

On a : e01 , . . . , e0n sont des vecteurs propres associés respectivement aux scalaires λ1 , . . . , λn .
⇐) Si E admet une base formée de vecteurs de E,
e = {1 , . . . , n } et f(i ) = λ · i avec 1 ≤ i ≤ n.

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Diagonalisation 110

f (1 ) f (2 ) . . . f (n )


 
α1 0 ... 0
 0 α2 . . . 0 
M (f, C) =  . .. . . .. 
 
 .. . . . 
0 0 ... αn

Donc M (f, C) est diagonalisable. D'où f est diagonalisable.

f : R2 −→ R2
 
1 2
Exemple 8.4. A = ,
−1 4 X 7−→ A · X
PA (x) = (x − 2)(x − 3); E2 = V ect({V }); V = (2; 1) ; E3 = V ect({V 0 }) ; V 0 = (1; 1)
B = {V, V 0 } est une base de R2 , donc f est une diagonalisable, d'où A es diagonalisable .
Soit P la matrice de passage de la base canonique C de R2 , à la base B. On a :
   
2 1 −1 2 0
P = ;P · A · P = D = A =
1 1 0 2

Théorème 8.6. Soit f un endomorphisme d'un K-e.v de dimension nie n, et λ1 , . . . , λp les


valeurs propres de f ; alors les conditions suivantes sont équivalentes :
1. f est diagonalisable ;
2. E = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλn ;
3. dim(E) = dim(Eλ1 ) + dim(Eλ2 ) + · · · + dim(Eλn ).

−1 1
 
1
ϕ : R3 −→ R3
Exemple 8.5. A =  1 −1 1  ,
X 7−→ A·X
1 1 −1


−1 − x 1 1

PA (x) = 1 −1 − x 1 = −(x − 1)(x + 2)2
1 1 −1 − x
Spec(A) = {1; −2} ; E1 = {X ∈ R3 /A · X = X} . Soit X = (x, y, z) ∈ E1 . On a :

 −2x + y − z =0
x − 2y + z =0
x + y − 2z

=0

Donc x = y = z , qui implique X = x · (1; 1; 1).


Soit w = (1; 1; 1), E1 = lin({w}). w 6= 0R3 ⇒ {w} libre .{w} est une base de E1 . Donc w
est un vecteur propre associé à 1 ; dim(E1 ) = 1.
E−2 = {X ∈ R3 /A · X = −2 · X}
Soit X = (x, y, z) ∈ E−2 , donc x + y + z = 0 =⇒ z = −x − y .
X = (x, y, −x − y) = x · (1; 0; −1) +y · (0; 1; −1)
| {z } | {z }
w0 w”

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Diagonalisation 111

E2 = lin({w0 , w”}). {w0 , w”} libre =⇒ {w0 , w”} est une base de E−2 .
Donc dim(E−2 ).

dim(E1 ) + dim(E−2 ) = 1 + 2 = 3 = dim(R3 )


Donc A est diagonalisable.
Corollaire 6. Soit f un endomorphisme d'un K-e.v E de dimension n. Si f adment n valeurs
propres distinctes 2 à 2, alors f est diagonalisable.
Théorème 8.7. Soit f un endomorphisme sur un K-e.v E de dimension n. Alors f est diago-
nalisable si et seulement si les deux conditions suivantes sont vériées :
1. Pf (x) est scindé ;
2. Pour chaque valeur propre λi d'ordre de multiplicité αi , on a dim(Eλi ) = αi .
Remarque 8.5. (Pratique de la diagonalisation)
Pour diagonaliser un endomorphisme (une matrice), on passera par les étapes suivantes :
 On détermine d'abord le polynôme caractéristique ;
 On détermine ensuite les bases des diérents sous-espaces vectoriels propres :
 Si la réunion de ces bases est une base de E, alors f est diagonalisable.
 Et la matrice de f par rapport à cette nouvelle base de E est diagonalisable.
 
2 0 4
Exemple 8.6. A =  3 −4 12
−4 −2 5


2−x 2 − x
 
0 4 0 4
A − x · I3 =  3 −4 − x 12  ; det(A − x · I3 ) = 3 −4 − x 12
−4 −2 5−x −4 −2 5 − x

PA (x) = −x · (x − 2)(x − 1) =⇒ Spec(A) = {O; 2; 1}


On a 3 valeurs propres distinctes deux à deux, d'où A est diagonalisable.
E0 = {X ∈ R3 /A · X = 0 · X} = vect({u1 }) avec u1 = (−4; 3; 2).
{u1 } est une base de E0 . De même,
E1 = {X ∈ R3 /A · X = X} = vect({u2 }) avec u2 = (−4; 0; 1).
{u2 } est une base de E1 . De même,
E2 = {X ∈ R3 /A · X = 2 · X} = vect({u3 }) avec u3 = (2; 1; 0).
{u3 } est une base de E2 . Posons B = {u1 , u2 , u3 }. B est une base de R3 constituée de
vecteurs propres. f(u1 ) = 0 · u1 , f(u2 ) = 1 · u2 , f(u3 ) = 2 · u3 .

f (u1 ) f (u2 ) f (u3 )


 
 0 0 0
A0 = M (f, B) =
 

 0 1 0
 
0 0 2
= Diag(0, 1, 2)

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application de la diagonalisation 112

Soit P la matrice de passage de C (base canonique) à B, on a :

u1 u2 u3
−4 −4 2
 

P =  3 0 1 
2 1 0
= Diag(0, 1, 2)

On a : A0 = P −1 · A · P .

8.3 Application de la diagonalisation

8.3.1 Calcul de la puissance k ième d'une matrice


Soit A ∈ Mn (K). On suppose que A est diagonalisable. Donc, il existe alors deux matrices
A' et P telle que A0 = P −1 · A · P , où A' est une matrice diagonale et P une matrice inversible.
A0 = P −1 · A · P =⇒ A = P · A0 · P −1

Ak = (P · A0 · P −1 )k = P k · A0k · (P −1 )k = P · A0k · P −1

α1k 0
   
α1 0 ... 0 ... 0
 0 α2 ... 0   0 α2k ... 0 
A0 =  .. .. .. ..  =⇒ A0k =  .. .. .. ..
   
. . . . . . . .

   
0 0 . . . αn 0 0 ... αnk

8.3.2 Résolution d'un système de suite récurrentes


Exemple 8.7. Soient (Un ) et (Vn ) deux suites telles que

Un+1 = Un − Vn ; U0 = 2
Vn+1 = 2Un + 4Vn ; V0 = 2
   
Un U0
Posons Xn = , X0 =
Vn V0
       
Un+1 1 −1 Un 1 −1
= · =⇒ Xn+1 = A.Xn avec A =
Vn+1 2 4 Vn 2 4
X1 = A · X0 ; X2 = A · X1 = A2 · X0 ; ..., Xn = An · X0 . 
1
PA (x) = (x − 2)(x − 3) ; E2 = lin({w1 }) avec w1 =
−1
 
1
E3 = lin({w2 }) avec w2 =
−2
 
2 0
A = P · A · P, avec A =
0 −1 0
0 3

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application de la diagonalisation 113

B = {w1 , w2 } est une base de R2 ; C est la base canonique. Soit P la matrice de passage de
C à B.  
1 1
P = ; A = P · A0 · P −1
−1 −2
 n+1
− 3n 2n+1 − 2 · 3n

n 0n −1 2
A =P ·A ·P =
−2n + 3n −2n + 2 · 3n
   
n Un n n U0
Xn = A · X0 ⇐⇒ = A · X0 = A ·
Vn V0
Puis on détermine Un et Vn .

8.3.3 Système d'équations diérentielles


Soit le système d'équations diérentielles suivant :

dx1

 = a11 x1 + a12 x2 + · · · + a1n xn
dt


 dx2


 = a21 x1 + a22 x2 + · · · + a2n xn
dt
.. .. .. ..
. = . . .





 dx n
= an1 x1 + an2 x2 + · · · + ann xn


dt
xi : R −→ R
t 7−→ xi (t)

x1
Posons X =  ... , A = (aij ) , dX
= A · X . Pour résoudre dX
= A · X , on procède
 
1≤i≤n dt dt
1≤j ≤n
xn
de la manière suivante :
1. On diagonalise la matrice A.
A0 = P −1 · A · P (A est semblable à A'). A' est diagonale.
2. On intègre le système :
dX 0
= A0 · X 0 avec X 0 = P −1 · X .
dt
3. On revient à X par X = P · X 0 .

dx
  
=x−y x dX
dt
dy , X= , = A · X, avec
dt
= 2x + 4y y dt
 
1 −1
A=
2 4
   dx 
   
x 1 −1 x
Exemple 8.8. X= , dX
dt
dt
= A · X, dy = ·
y dt
2 4 y
   
2 0 1 1
1. A0 = P −1 · A · P , A0 = , P =
0 3 −1 −2

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013


Application de la diagonalisation 114

dX 0
2. = A0 · X 0 ; X 0 = P −1 · X ⇒ X = P · X 0 .
dt
 0
dx    0  0
 dt  2 0 x 0 x
 dy 0  = · 0 ;X =
0 3 y y0
dt ( 0 ( 0
dx 0 dx
dt0
= 2x x00
= 2dt
dy =⇒ dy
dt
= 3y 0 y0
= 3dt
´ dx0 ´
x0
= 2dt; ln |x0 | = 2t + c; |x0 | = e2t+c ; x0 = c1 e2t .
 0   2t 
x ce
0 2t 0 3t
x = c1 e ; y = c2 e ⇒ 0 = 1 3t
y c2 e
Or X = P · X 0

 0    2t 
x 1 1 ce
0 = · 1 3t
y −1 −2 c2 e
2t 3t
 
c1 e + c2 e
=
−c1 e2t − 2c2 e3t

x = c1 e2t + c2 e3t


y = −c1 e2t − 2c2 e3t

Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013

S-ar putea să vă placă și