Documente Academic
Documente Profesional
Documente Cultură
Titre :
COURS D'ALGEBRE
Par :
Mr Mamadou BARRY
Maître de Conférence
4 Espaces vectoriels 46
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Bases et dimension d'un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 53
5 Applications linéaires 58
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . 60
5.3 Noyau et Image d'une application linéaire . . . . . . . . . . . . . . . . . . . . . 61
5.4 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6 Matrices 71
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3 Matrice d'une application linéaire : application linéaire associée à une matrice . 80
6.4 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.5 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8 Diagonalisation 105
8.1 Les éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.3 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Contents
1.1 Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Les connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Propriétés des connecteurs logiques . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Les quanticateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1 Propositions
Dénition 1.1. On appelle proposition, tout énoncé qui est vrai dans certaines conditions ou
faux dans d'autres conditions, mais dont on peut toujours dire s'il est vrai ou faux.
Remarque 1.1. La propriété essentielle d'une proposition P est d'être dotée d' l'une des valeurs
de vérité V (vrai) ou F (faux) [1 ou 0].
Exemple 1.1. "n est une entier et n est un multiple de 2." Cette proposition est vraie si n est
un entier pair et fausse si n est un entier impair.
Dénition 1.2. Une assertion est une proposition qui est toujours vraie ou fausse.
Dénition 1.3. 1. On appelle axiome, toute proposition en laquelle on attribue par conven-
tion la valeur vraie.
2. On appelle théorème, toute proposition dont on démontre qu'elle a la valeur vraie.
Remarque 1.2. Soit P une proposition. Le tableau suivant représente la table de vérité de P :
P
V
F
La négation
La négation d'une proposition P est une proposition notée qP ou P̄ ou ” non P ”. La propo-
sition qP est vraie si P est fausse, et qP est fausse si P est vraie. La table de vérité de la négation,
est :
P qP
V F
F V
La conjonction
Etant données deux propositions P et Q, la conjonction de P et Q est une proposition
notée P ∧ Q ou encore "P et Q". La proposition P ∧ Q est vraie si et seulement si P et Q
sont simultanémént vraies, et P ∧ Q est fausse dans le cas contraire. La table de vérité de la
conjonction est :
P Q P ∧Q
V V V
V F F
F V F
F F F
La disjonction
Etant données deux propositions P et Q, on appelle la disjonction de P et Q, la proposition
notée P ∨ Q ou encore "P ou Q". La proposition P ∧ Q est vraie si et seulement si l'une ou
moins des propositions P ou Q est vraie, et fausse si et seulement si P et Q sont simultanémént
fausses. La table de vérité de la disjonction est :
P Q P ∨Q
V V V
V F V
F V V
F F F
L'implication
Etant donnée deux propositions P et Q, la proposition qP ∨ Q signie P implique Q, et se
nonte P ⇒ Q. La proposition P ⇒ Q est fausse si P est vraie et Q est fausse, et P ⇒ Q est
vraie dans le cas contraire. La table de vérité de l'implication est :
P Q P ⇒Q
V V V
V F F
F V V
F F V
Remarque 1.3. P ⇒ Q signie aussi "Si P alors Q". Si x est un réel, alors x2 + 1 est un réel
positif : x ∈ R2 ⇒ x2 + 1 > 0.
L'équivalence
Etant données P et Q deux propositions, la proposition (P ⇒ Q) ∧ (Q ⇒ P ) s'appelle
l'équivalence et se note P ⇐⇒ Q et on lit "P équivaut à Q". La proposition P ⇐⇒ Q est vraie
si P et Q sont simultanémént vraies ou simultanémént fausses et P ⇐⇒ Q est fausse dans le
cas contraire.
Remarque 1.4. Soient P, Q et R trois propositions. Les conditions suivantes sont équivalentes :
1. Les propositions P, Q et R sont équivalentes.
P ⇐⇒ Q
2.
Q ⇐⇒ R
3. P ⇒ Q ⇒ R ⇒ P .
P Q P ⇐⇒ Q
V V V
V F F
F V F
F F V
Commutativité
1. Le connecteur "et " est commutatif. P ∧ Q ⇐⇒ Q ∧ P .
2. Le connecteur "ou " est commutatif. P ∨ Q ⇐⇒ Q ∨ P .
Associativité
1. Le connecteur "et " est associatif. (P ∧ Q) ∧ R ⇐⇒ P ∧ (Q ∧ R).
2. Le connecteur "et " est associatif. (P ∨ Q) ∨ R ⇐⇒ P ∨ (Q ∨ R).
Distributivité
1. Le connecteur "et " est distributif par rapport à "ou". P ∧ (Q ∨ R) ⇐⇒ (P ∧ Q) ∨ (P ∧ R).
(Q ∨ R) ∧ P ⇐⇒ (Q ∧ P ) ∨ (R ∧ P ).
2. Le connecteur "ou" est distributif par rapport au connecteur "et ".
P ∨ (Q ∧ R) ⇐⇒ (P ∨ Q) ∧ (P ∨ R). (Q ∧ R) ∨ P ⇐⇒ (Q ∨ P ) ∧ (R ∨ P ).
Lois de Morgan
q(P ∨ Q) ⇐⇒qP ∧qQ
q(P ∧ Q) ⇐⇒qP ∨qQ.
Idempotence
1. Le connecteur "et " est idempotent : P ∧ P ⇐⇒ P .
2. Le connecteur "ou" est idempotent : P ∨ P ⇐⇒ P .
La contraposée
(P ⇒ Q) ⇐⇒qQ ⇒qP .
Ainsi, on a : q(P ⇒ Q) ⇐⇒q(qP ∨ Q) ⇐⇒ P ∧qQ.
La régle de l'évidence
P ∨qP ⇐⇒ Vrai.
La régle de la contradiction
P ∧qP ⇐⇒ Faux. Ainsi, on a P ∧ Vrai ⇐⇒ P P ∨ Faux ⇐⇒ P .
Notation 1.2. Le quanticateur universel est noté "∀" et on lit "Quelque soit". Le quantica-
teur existentiel est noté "∃" et on lit " il existe". Soit P (x) une proposition contenant un objet
x du référentiel E.
1. Pour exprimer l'assertion : "il existe au moins un objet x appartenant à E pour lequel
P (x) est vraie". On écrit dans ce cas : (∃x ∈ E), P (x).
2. Pour exprimer l'assertion : "x est un élément quelconque de E pour lequel P (x) est vraie".
On écrit : (∀x ∈ E), P (x).
Exemple 1.3. 1. ∃x ∈ R, x2 − 3x + 2 = 0.
2. ∀x ∈ R, x2 + 5 > 0.
Propriété 1.1. 1. q[(∀x), P (x)] ⇐⇒ (∃x), P (x).
2. q[(∃x), P (x)] ⇐⇒ (∀x), qP (x).
3. q[(∀x)(P (x) ⇒ Q(x))] ⇐⇒ (∃x), (P (x) ∧ uqq(x)).
4. (∃x)(∃y), P (x, y) ⇐⇒ (∃y)(∃x), P (x, y).
5. (∀x)(∀y), P (x, y) ⇐⇒ (∀y)(∀x), P (x, y).
6. (∃y)(∀x), P (x, y) ⇐⇒ (∀x)(∃y), P (x, y).
7. (∀x)(P (x) et Q(x)) ⇐⇒ [(∀x), P (x)] et [(∀x), Q(x)].
8. (∀x)(P (x) ou Q(x)) ⇐⇒ [(∀x), P (x)] ou [(∀x), Q(x)].
9. (∃x)(P (x) ou Q(x)) ⇐⇒ [(∃x), P (x)] ou [(∃x), Q(x)].
10. (∃x)(P (x) et Q(x)) ⇐⇒ [(∃x), P (x)] et [(∃x), Q(x)].
Remarque 1.5. La réciproque du 10) est en général fausse. Par exemple, "Il existe des hommes
riches et honnêtes" implique qu'"il existe des hommes richees et aussi des hommes honnêtes."
Par contre, "il existe des hommes richees et aussi des hommes honnêtes" n'implique pas qu' "il
existe des hommes riches et honnêtes".
Exemple 1.4.
(∀ε ∈ R∗+ )(∃η ∈ R+
∗
)(∀x ∈ R)(|x| < η ⇒ |f (x)| < ε)
(∃ε ∈ R∗+ )(∀η ∈ R+
∗
)(∃x ∈ R)(|x| < η et |f (x)| < ε)
. Homework : Donner l'alphabet grec.
Soit P, Q et R trois propositions. Montrons que S1 est équivalente à S2 où : S1 = P ⇒
(Q ⇒ R) et S2 = (P ∧ Q) ⇒ R.
1.2 Ensembles
E = F ⇐⇒ E ⊂ F et F ⊂ E
Dénition 1.7. Soit E un ensemble. On appelle l'ensemble des parties de E, l'ensemble noté
P(E), dont les éléments sont des sous-ensembles de E.
P(E) = {φ, {a, b, c}, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}
(b) E ∪ φ = E et E ∪ F = φ ⇐⇒ E = φ et F = φ.
3. Complémentaire
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
(B ∩ C) ∪ A = (B ∪ A) ∩ (C ∪ A)
(d) L'intersection est distributive par rapport à la réunion.
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(B ∪ C) ∩ A = (B ∩ A) ∪ (C ∩ A)
Idempotence
(a)
{E (A ∪ B) = {E A ∩ {E B
{E (A ∩ B) = {E A ∪ {E B
Preuve 1.1. (a) {E (A ∩ B) = {E A ∪ {E B
Soit x ∈ {E (A ∩ B). Alors, x 6∈ (A ∩ B), donc x ∈ A ou x ∈ B . Ainsi, x ∈
{E A ou {E B . D'où {E (A ∩ B) ⊂ {E A ∪ {E B . Réciproquement, soit x ∈ {E A ∪ {E B .
Alors, x ∈ {E A ou x ∈ {E B .
{E (A ∩ B) = {E A ∪ {E B
(b) {E (A ∪ B) = {E A ∩ {E B
Elle découle de la première preuve, en posant A0 = {E A et B 0 = {E B .
[
x∈ ⇐⇒ ∃k ∈ I, x ∈ Ak
i∈I
[
x∈ ⇐⇒ ∃k ∈ I, x ∈ Ak
i∈I
F × E = {(a, α); (a, β); (b, α); (b, β); (c, α); (c, β); (d, α); (d, β)}
n
Y
Ei {(x1 , . . . , xn )/xi ∈ Ei , 1 ≤ i ≤ n}
i=1
Soit (Ei )i∈I une famille d'ensembles. On appelle produit cartésien des Ei avec i ∈ I ,
l'ensemble dont les éléments sont (xi )i∈I , xi ∈ Ei .
Y
Ei = {(xi )i∈I /xi ∈ Ei , i ∈ I}
i∈I
Si E1 = E2 = · · · = En = E, alors , Ei En , et :
Qn
i=1
En {(x1 , . . . , xn )/xi ∈ E, 1 ≤ i ≤ n}
1.3 Applications
Dénition 1.14. Soit f une application de E dans F, et A une partie de E. On appelle restric-
tion de f à A, et on note f/A , l'application h de A dans F, telle que h(x) = f (x) pour tout x ∈ A.
h = f/A : A −→ F
x 7−→ h(x) = f (x)
Exemple 1.10. E = {a, b, c}; F = {α, β}. Le nombre d'applications de E dans F est 23 = 8,
et le nombre d'applications de F dans E est 32 = 9.
f g
E 7−→ F 7−→ H
g◦f
x 7−→ f (x) = y 7−→ g(y)
f3 ◦ f2 ◦ f1 = (f3 ◦ f2 ) ◦ f1 = f3 ◦ (f2 ◦ f1 )
f : R −→ R g : R −→ R
Exemple 1.11. Soit 2 et
x 7−→ x x 7−→ |x + 1|
2 2
(f ◦ g)(x)f [g(x)] = |x + 1| = (x + 1)
(g ◦ f )(x) = g[f (x)] = |x2 + 1| = x2 + 1. Remarquons que (f ◦ g)(x) 6= (g ◦ f )(x).
Dénition 1.15. On dit que f est une injection si et seulement si tout élément y de
F adment au plus un antécédent. Autrement dit, f est injective ⇐⇒ ∀(x, x0 )E2 (f (x) =
g(x0 ) ⇒ x = x0 ).
Exemple 1.12. (a) Soit E un ensemble. L'application identité est injective.
f : R+ −→ R
(b) est injective (à vérier).
x 7−→ x2
Dénition 1.16. On dit que f est une surjection, si tout élément y de F admet au moins
un antécédent dans E. Autrement dit, f est surjective ⇐⇒ ∀y ∈ F, ∃x ∈ E tel que y =
f (x).
Exemple 1.13. (a) Soit E un ensemble. L'application identité est surjective.
g1 : R −→ R+
(b) est surjective (à vérier), mais l'application f2 ainsi que f3
x 7−→ x2
(dans l'exemple précédent) n'est surjective.
(c) On pose
π : Rn −→ Rp
(x1 , . . . , xn ) 7−→ (x1 , . . . , xp )
π est une application surjective. Soit Y = (y1 , . . . , yp ) ∈ Rp , et
n−p
π1 : R2 −→ R π : R2 −→ R
et 2
(x, y) 7−→ x (x, y) 7−→ y
π1 et π2 sont surjectives.
3. Bijection
Dénition 1.17. On dit que f est bijective si et seulement f est à la fois injective et
surjective. Autrement dit, f est bijective ⇐⇒ ∀y ∈ F, ∃!x ∈ E/y = f (x).
Exemple 1.14. (a) Soit E un ensemble. L'application identité de E est bijective.
h1 : R+ −→ R+ h : R −→ R
(b) 2 est bijective. Il en est de même de 1 (à
x 7−→ x x −
7 → x3
montrer).
Proposition 1.1. Soit f : E −→ F une application. Alors f est bijective si et seulement
s'il existe une application g : E 7−→ F tel que g ◦ f = IdE et f ◦ g = IdF . g est appelée
l'application réciproque de f.
Notation 1.9. g = f −1 .
h3 : R3 −→ R3
Exemple 1.15. est bijective (à montrer).
(x, y, z) 7−→ (2x, x − y + z, x + z)
Théorème 1.1. Soit f : E 7−→ F une application telle que card(E) = card(F ). Alors les
conditions suivantes sont équivalentes :
(a) f est injective ;
Image directe
Dénition 1.18. On appelle image directe de A l'ensemble des images des éléments de A par
f. On note : f (A) = {f (x)/x ∈ A} ou f (A) = {y ∈ F/∃x ∈ E/y = f (x)}.
Exemple 1.16. Soit la fonction dénie sur R par f : x 7−→ x2 − x. Calculons f ([−3; 2[).
f ([−3; 2[) = {f (x)/xd ∈ [−3; 2[} = [− 14 ; 12] ∪ [− 41 ; 2[= [− 14 ; 12].
Preuve 1.2. Supposons que f est surjective. Montrons que Im(f ) = F . On a : Im(f ) = f (E)F .
Pour cela montrons en un premier lieu que F ⊂ Im(f ) = F . Soit y ∈ F , comme f est surjective,
donc ∃x ∈ E, tel que y = f (x). f (x) ∈ f (E) donc y ∈ f (E), donc y ∈ Im(f ), d'où F ⊂
Im(f ). Ainsi, F = Im(f ). Supposons réciproquement que Im(f ) = F , et montrons que f est
surjective. Soit y ∈ F ⇒ y ∈ Im(f ) donc y ∈ f (E), donc ∃x ∈ E, tel que : y = f (x), d'où f
est surjective.
Image réciproque
Dénition 1.19. On appelle image réciproque de B par f , l'ensemble des antécédents des
éléments de B par f.
On note f −1 (B) = {x ∈ E/f (x) ∈ B}.
Remarque 1.18. 1. L'image réciproque d'une partie existe toujours, alors que l'image ré-
ciproque d'un élément n'existe que si l'application est bijective.
2. f −1 (F ) = {x ∈ E/f (x) ∈ F } = E.
3. f (φ) = φ et f −1 (φ) = φ.
4. A ⊂ f −1 (f (A)), ∀A ⊂ E et f (f −1 (B)) ⊂ B, ∀B ⊂ F .
Exemple 1.18. Soit la fonction f dénie sur R telle que : x 7−→ x2 . On pose A = [−1, 0] et A0 =
[0, 1]. A ∩ A0 = {0} et f (A ∩ A0 ) = f ({0}) = {f (x)/x ∈ {0}} = {f (0)} = 0. Par contre,
f (A) = [0, 1] = f (A0 ), et f (A) ∩ f (A0 ). Notons que dans cet exemple, f (A ∩ A0 ) f (A) ∩ f (A0 ).
Preuve 1.4. 1. Si, B ⊂ B 0 alors f −1 (B) ⊂ f −1 (B 0 ). Soit x ∈ f −1 (B); donc f (x) ∈ B . Or,
B ⊂ B 0 , donc f (x) ∈ B 0 . D'où, x ∈ f −1 (B 0 ) ainsi, on obtientf −1 (B) ⊂ f −1 (B 0 ).
2. f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) .
On a :
B ⊂ B ∪ B0 f −1 (B) ⊂ f −1 (B ∪ B 0 )
⇒
B0 ⊂ B ∪ B0 f −1 (B 0 ) ⊂ f −1 (B 0 ) ⊂ f −1 (B ⊂ B 0 )
Donc f −1 (B) ∪ f −1 (B 0 ) ⊂ f −1 (B ∪ B 0 ). Montrons de même que f −1 (B ∪ B 0 ) ⊂ f −1 (B) ∪
f −1 (B 0 ). Soit x ∈ f −1 (B ∪ B 0 ). f (x) ∈ B ∪ B 0 . Ainsi, f (x) ∈ B ou f (x) ∈ B 0 , d'où
x ∈ f −1 (B) ou x ∈ f −1 (B 0 ). Par conséquent, x ∈ f −1 (B) ∪ f −1 (B 0 ). D'où le résultat :
f −1 (B ∪ B 0 ) ⊂ f −1 (B) ∪ f −1 (B 0 ).
On en déduit : f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) .
3. Montrons f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 ) . On a
B ∩ B0 ⊂ B f −1 (B ∩ B 0 ) ⊂ f −1 (B)
⇒
B ∩ B0 ⊂ B0 f −1 (B ∩ B 0 ) ⊂ f −1 (B 0 )
Donc f −1 (B ∩ B 0 ) ⊂ f −1 (B) ∩ f −1 (B 0 ).
Soit x ∈ f −1 (B) ∩ f −1 (B 0 ). x ∈ f −1 (B) et f −1 (B 0 ), qui implique, f (x) ∈ B et f (x) ∈
B 0 , soit , f (x) ∈ B ∩B 0 . Par suite, x ∈ f −1 (B ∩B 0 ). D'où le résultat : f −1 (B)∩f −1 (B 0 ) ⊂
f −1 (B ∩ B 0 ).
On en déduit : f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 ) .
Dénition 1.23. Soit < une relation d'équivalence sur E. On appelle classe d'équivalence
modulo < d'un élément a de E, l'ensemble des éléments x de E qui sont en relation avec a. On
la note ā ou C(a)ouȧ.
ȧ = ā = C(a) = {x ∈ E/x<a}
.
Dénition 1.24. L'ensemble des classes d'équivalence modulo < s'appelle l'ensemble des quo-
tients de E par R. On le note E/< = {ẋ/x ∈ E}.
Exemple 1.21. 1. Soit E = {−5, −3, −2, −1, 0, 1, 2, 3, 10}. On dénit la relation x<y ⇐⇒
|x| = |y|. < est une relation d'équivalence sur E.
(a) 0̇ = {x ∈ E/|x| = 0} = {0} .
(b) 1̇ = {x ∈ E/|x| = 1} = {−1; 1}.
(c) 2̇ = {x ∈ E/|x| = 2} = {−2; 2}
(d) 3̇ = {x ∈ E/|x| = 3} = {−3; 3}.
(e) 10
˙ = {x ∈ E/|x| = 10} = {10}.
(f ) −5̇ = {x ∈ E/|x| = 5} = {−5}.
(g) E/< = {ẋ ∈ E} = {{−5}; {10}; {−3; 3}; {−2; 2}; {−1; 1}}.
2. Dans Z, on dénit la relation x<y ⇐⇒ x − y ∈ 2Z.
Soit a ∈ Z.
ȧ = {x ∈ Z/x<a} (1.1)
= {x ∈ Z/x − a ∈ 2Z} (1.2)
= {x ∈ Z/∃k ∈ Z : x − a = 2k} (1.3)
= {x ∈ Z/∃k ∈ Z : x = 2k + a} (1.4)
D'où ȧ = {x ∈ Z/∃k ∈ Z : x = 2k + a}. Donc, dans la classe d'un élément a, a n'est que
la classe du reste de la division euclidienne par 2. O, 1 étant les restes de la division par
2, on a deux classes : 0̇ = {x ∈ Z/x<0} = {x ∈ Z/∃k ∈ Z : x = 2k}. DOnc la classe
de 0 est la classe des entiers pairs. 1̇ = {x ∈ Z/∃k ∈ Z : x = 2k + 1}, la classe de 1 est
l'ensemble des entiers impairs.
Donc f est une application. Ainsi, f¯(ẋ) = f¯(ẋ0 ) ⇒ x<x0 ⇒ ẋ = ẋ0 . Donc f¯ est injective.
Par ailleurs, soit y ∈ Im(f ). On a y ∈ f (E). Donc ∃x ∈ E/y = f (x) = f¯(ẋ). f¯ est donc
surjective. D'où le résultat : f¯ est une bijection.
2. Montrons f = j ◦ f¯ ◦ π . Soit x ∈ E .
Dénition 1.25. On dit que < est une relation d'ordre sur E, si < est à la fois réexive ,
antisymétrique et transitive.
Exemple 1.22. 1. Dans R, la relation ” ≤ ” est une relation d'ordre total sur R.
2. Dans N∗ , la relation binaire suivante : x<y ⇐⇒ xdivise y est une relation d'ordre partiel
sur N∗ .
3. Soit X un ensemble. Sur P(X), la relation binaire suivante : A<B ⇐⇒ A ⊂ B est une
relation d'ordre partiel.
-Anneaux - Corps
2.1 Généralités
· : E×E −→ E
Notation 2.1.
(x, y) 7−→ x· y
∗ : E × E −→ E
(x, y) 7−→ x∗y
⊥ : E×E −→ E
(x, y) 7−→ x⊥y
Exemple 2.1. 1. Dans N, le pgcd et le ppcmm sont des lois de composition internes. En
pgcd : N × N −→ N
eet, est une application. De même,
(m, n) 7−→ pgcd(m, n)
ppcm : N × N −→ N
(m, n) 7−→ ppcm(m, n)
2. Dans Z, l'addition et la multiplication sont des lois de composition internes, car
+ : Z × Z −→ Z × : Z × Z −→ Z
et
(m, n) 7−→ m + n (m, n) 7−→ m × n
√
3. Dans R, on dénit a ∗ b = a5 + b5 . ∗ est une loi de composition interne sur R.
5
Associativité
La loi ∗ est associative si et seulement si (x ∗ y) ∗ z = x ∗ (y ∗ z), ∀(x, y, z) ∈ E2 .
Commutativité
La loi ∗ est commutative si et seulement si x ∗ y = y ∗ x, ∀(x, y) ∈ E2 .
Elément neutre
On dit que e est élément neutre de E pour la loi ∗ si et seulement si ∀x ∈ E, e ∗ x = x ∗ e = x.
Si e ∗ x = x, on dit que e est un élément neutre à gauche.
Si x ∗ e = x, on dit que e est un élément neutre à droite.
Exemple 2.2. Dans P(X), on a φ ∪ A = A ∪ φ = A. φ est l'élément neutre de la loi ∪. De
même, X ∩ A = A ∩ X = A. X est l'élément de neutre de la loi ∩.
Elément symétrique
Soit e l'élément neutre de E pour la loi ∗. Soit x ∈ E . On dit que x adment un élémént
symétrique de la loi ∗ s'il existe x0 ∈ E tel que x ∗ x0 = x0 ∗ x = e.
Si x ∗ x0 = e, on dit que x' est le symétrique à droite de x.
Si x0 ∗ x = e, on dit que x est le symétrique à gauche de x.
Exemple 2.3. 1. Dans R, le symétrique x' de x pour la loi + s'appelle opposé de x , et est
noté -x (x + x0 = x0 + x = 0 ⇒ x0 = x).
2. Dans R∗ , le symétrique de x pour la loi × s'appelle inverse de x, et est noté 1
x
( x × x0 =
x0 × x = 1 ⇒ x0 = x1 ).
Distributivité
Soient ∗et · deux lois de composition internes sur E. On dit que la loi ∗ est distributive par
rapport à la loi ·, si pour tous (x, y, z) ∈ E3 , on a :
x ∗ (y· z) = (x ∗ y)· (x ∗ z)
(y· z) ∗ x = (y ∗ x) ◦ (z ∗ x)
Exemple 2.4. 1. Dans R, la multiplication est distributive par rapport à l'addition. En eet,
x × (y + z) = (x × y) + (x × z), (y + z) × x = y × x + z × x.
2. Dans P(X), la réunion est distributive par rapport à l'intersection et vice -versa. En eet,
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
2.2 Groupres
Remarque 2.2. 1. Si + est la loi du groupe G, lélément neutre est noté 0. Dans ce cas,
l'élément symétrique x' est noté -x, pour tout x ∈ G.
2. Si × est la loi de G, alors l'élément neutre est noté 1, et l'élément symétrique d'un élément
x, est noté x−1 .
3. Si, (G, · ) est un groupe, on notera le symétrique d'un élément x de G par x−1 .
Exemple 2.5. 1. (Z, +), (Q, +), (R, +), (C, +), (Z/nZ , +) sont des groupes abéliens pour l'ad-
dition.
2. (Q∗ , ×), (R∗ , ×), (C∗ , ×), ({−1, 1}, ×) sont des groupes abéliens.
3. Soit E une ensemble quelconque. (S(E), ◦) est un groupe, non nécessairement commutatif.
En particulier, si E = {1, 2, ..., n} = In . Dans ce cas, S(E) se note Sn , soit (Sn , ◦), et
s'appelle le groupe des permutations d'ordre n.
Sn a n! éléments. Pour n = 3, S3 a 6 éléments. S3 = {Id, σ1 , σ2 , σ3 , σ4 , σ5 }
1 2 3 1 2 3
Id = σ1 =
1 2 3 2 1 3
1 2 3 1 2 3
σ2 = σ3 =
1 3 2 3 2 1
1 2 3 1 2 3
σ4 = σ5 =
2 3 1 3 1 2
Le lecteur pourra compléter le tableau suivant :
y
◦ Id σ1 σ2 σ3 σ4 σ5
Id Id σ1 σ2 σ3 σ4 σ5
σ1 Id
σ2 Id
σ3 Id
σ4 Id
σ5 Id
4. (Rn , +) est un groupe abélien.
2.2.2 Sous-groupes
Dénition 2.3. Soit (G, ∗) un groupe et H une partie de G. On dit que H est un sous-groupe
de G si :
1. ∀(x, y) ∈ H 2 , x ∗ y ∈ H . (on dit que H est stable par la loi ∗).
2. ∀x ∈ H, x−1 ∈ H .
2. Si (G, ∗) est un groupe d'élément neutre e ; alors une partie H de G est un sous-groupe si
et seulement si e ∈ H et ∀(x, y) ∈ H 2 , x ∗ y −1 ∈ H .
Exemple 2.6. 1. Soit (G, ∗) un groupe d'élément neutre e. Alors, {e} et G sont des sous-
groupes de G.
2. Z et Q sont des sous-groupes de (R, +).
3. H = {z ∈ C∗ /|z| = 1} est un sous-groupe de (C∗ , ∗) ; en eet, on a : 1 ∈ H, H 6= φ.
Soient z, z 0 ∈ H.z · z 0−1 ∈ H . Car |z| = 1, |z 0 | = 1, |z · z 0−1 | = |z| · |z 0−1 | = |z| × |z10 | = 1.
4. Un {z ∈ C ∗ /z n = 1} est un sous-groupe de (C∗ , ∗).
5. (Z, +) est un sous-groupe de Z. Le sous-groupe est noté nZ, n ∈ N.
Proposition 2.1. Soit (G, ∗) un groupe d'élément neutre e, et soit (Hi )i∈I une famille quel-
conque de sous-groupe, alors i∈I Hi est un sous-groupe de G.
T
Dénition 2.4. Soit A une partie non vide de G, un groupe muni de la loi ∗. On appelle
sous-groupe engendré par A le plus petit sous-groupe de G contenant A. On le note < A >.
m fois
1 + 1 + · · · + 1 si m ≥ 0
z
}| {
< {1} >= {m ∈ Z/m = }
|m| fois
−1 − 1 − · · · − 1 si m ≤ 0
z
}| {
f : (C, +) −→ (C, ×)
Exemple 2.8. 1. En eet, f (z + z 0 ) = f (z) × f (z 0 ). f
z 7−→ f (z) = ez
est un homomorphisme.
g : (R∗ , +) −→ (R, ×)
2. est un homomorphisme de groupe car g(x ∗ x0 ) =
x 7−→ g(x) = lnx
g(x) + g(x ).
0
Exemple 2.9.p 1. (R, +) est un groupe abélien. De même, (R, ∗) est un groupe abélien avec
x∗y = 3
+ y 3 Vérions si (R, +) et (R, ∗) sont isomorphes.
x3
g : (R, ∗) −→ (R, ×)
Soit
t 7−→ g(x) = t3
√
Montrons que f est un homomorphisme. Soient (a, b) ∈ R2 . f (a ∗ b) = ( 3 a3 + b3 )3 =
a3 + b3 = f (a) + f (b). D'où le résultat. Soit y ∈ R, tel que f (x) = y, i.e x3 = y ; ce qui
√
donne x = 3 y . Il y a une unique solution, donc f est bijective : f est un isomorphisme de
groupes.
2. Soit (G, ◦) un groupe, et a ∈ G, e l'élément neutre de G. L'application g : (G, · ) −→
(G, · ), x 7−→ g(x) = a · x · a−1 . g est un automorphisme de G. En eet, g(x· x0 ) =
g(x)· g(x0 ), ∀x, x0 ∈ G, et g est bijectif (à montrer, injectiion et surjection).
Dénition 2.7. Soit f : (G, ×) −→ (G0 , ⊥) est homomorphisme de groupes, et e' l'élément
neutre de G'. On appelle noyau de f, le sous-groupe de G, noté Ker(f ) tel que :
f (x ∗ y −1 ) = f (x)⊥f (y −1 )
= f (x)⊥[f (y)]−1
= e0 ⊥e−1 ( car f (x) = e0 = f (y))
= e0 ( car e0−1 = e)
Remarque 2.6. L'ordre d'un groupe G est le plus petit entier n tel que ∀x ∈ G, xn = e, avec
xn = x ∗ x ∗ · · · ∗ x (si la loi du groupe est notée) ∗.
Exemple 2.10. 1. Soit (G, ∗) un groupe, avec G = {−1; 1}, on a : ◦ (G) = 2, i.e , ∀x ∈
G, x2 = 1.
2. (Sn , ◦), le groupe des permutations. ◦ (Sn ) = n!.
3. Soit (K, · ) le groupe d'ordre 4 appelé groupe de Klein. K = {e, a, b, c}. On a : a2 = e; b2 =
e; c2 = e; a· b = b· a = c; a· c = c· a = b; b· c = c· b = a.
y
◦ e a b c
e e a b c
a a e c b
b b c e a
c c b a e
Théorème 2.1 (De Lagrange). Soit (G, ∗) un groupe et H un sous-groupe de G. Alors ◦ (H)
divise ◦ (G), i.e, l'ordre de H divise l'ordre de G.
Remarque 2.7. On dit qu'un groupe G est ni si son cardinal est ni.
2.2.5 Groupe-quotient
Soit (G, · ) un groupe d'élément neutre.
Proposition 2.5. Soit H un sous-groupe de G. Alors les assertions suivantes sont vériées :
1. La relation binaire < dénie sur G par ∀(x, y) ∈ G2 , x<y ⇐⇒ x−1 · y ∈ H , est une
relation d'équivalence sur G.
2. La relation binaire <0 dénie sur G par : ∀(x, y) ∈ G2 , x<y ⇐⇒ y· x−1 ∈ H , est une
relation d'équivalence sur G.
3. La classe d'équivalence d'un élément x ∈ G modulo < est ẋ = x· H .
4. La classe d'équivalence d'un élément x ∈ G modulo <0 est ẋ = H· x.
Preuve 2.5. 1. Montrons que < est une relation d'équivalence sur G.
(a) Réexibilité
Soit x ∈ G, on a : x−1 · x = e ∈ H , i.e, x−1 · x ∈ H, d'où x ∈ Rex. Donc < est
réexive.
(b) Symétrie
Soient (x, y) ∈ G/x<y , x<y ⇒ x−1 · y ∈ H . Donc, (x−1 · y)−1 ∈ H , i.e, y −1 · (x−1 )−1 ∈
H ⇒ y −1 · x ∈ H , d'où y<x. Alors < est symétrique.
(c) Transitivité
Soient (x, y, z) ∈ G2 /x<y et y<z . x<y ⇐⇒ x−1 · y ∈ H , et , y<z ⇐⇒ y −1 · z ∈ H .
Ainsi, x−1 · y· y −1 · z ∈ H , i.e, x−1 · e· z ∈ H , i.e, x−1 · z ∈ H. D'où x<z . < est une
relation transitive. Par conséquent, < est une relation d'équivalence, d'après tout ce
qui précède.
2. Montrons que la classe d'équivalence modulo < est ẋ = x· H . Soit x ∈ G.
ẋ = {y ∈ G/x<y}
= {y ∈ G/x−1 · y ∈ H}
= {y ∈ G/x· x−1 · y ∈ x· H}
= {y ∈ G/y ∈ x· H}
= x· H
Dénition 2.10. Soit (G, · ) un groupe et H un sous-groupe de G. On dit que : H est invariant,
ou distingué, ou normal dans G, si ∀x ∈ G, x· H = H· x.
Proposition 2.6. Soit H un sous-groupe de G. Alors, les conditions suivantes sont équiva-
lentes :
1. H est normal,
2. ∀x ∈ G, x· H· x−1 = H ,
3. ∀x ∈ G, x· H· x−1 ⊂ H .
Exemple 2.11. 1. Dans un groupe abélien, tous les sous-groupes sont invariants.
2. Dans (Z, +), tous les sous-groupes sont invariants (on rappelle que tous les sous-groupes
ici sont de la forme pZ(p > 0)) ;
Théorème 2.2. Soit (G, · ) un groupe, H un sous-groupe invariant de G. Alors, les assertions
suivantes sont vériées :
1. La relation d'équivalence < dénie sur G par x<y ⇐⇒ x−1 · y ∈ H est compatible avec la
structure du groupe G.
Support
Dénition 2.13. On appelle support de σ l'ensemble des k ∈ In /σ(k) 6= k , on le note supp(σ).
1 2 3
Exemple 2.14. On considère (S3 , ◦). On pose σ2 = , supp(σ2 ) = {1, 3}.
3 2 1
Cycles
Soit σ ∈ Sn .
Exemple 2.21. (Z, +, ×), (Q, +, ×), (R, +, ×), (C, +, ×), (Z/pZ , +, ×), ppremier sont des an-
neaux commutatifs unitaires.
Exemple 2.24. (Z, +, ×), (Q, +, ×), (R, +, ×), (C, +, ×), (Z/pZ , +, ×), ppremier sont des an-
neaux intègres. Par contre, l'anneau (R2 , +, · ) avec :
+: (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
Dénition 2.23. Soit (A, +, · un anneau. Un idéal I de A est dit principal de A si I est engendré
par un élément de l'anneau. On note I =< a >.
Exemple 2.27. Dans (Z, +, ×) tous les idéaux sont principaux, car ils sont de la forme pZ =<
p >.
Dénition 2.24. Soit (A, +, · un anneau commutatif. Un idéal bilatère P de A est dit premier
si ∀a, b ∈ A, a· b ∈ P ⇒ a ∈ P ou b ∈ P .
Dénition 2.25. Soit (A, +, · un anneau. Un idéal bilatère M est dit maximal si M 6= EA et
pour J idéal de A, si M ⊂ J , alors J = M ou J = A.
Exemple 2.29. Dans (Z, +, ×), I = pZ est un idéal maximal de Z si et seulement si p est
premier.
Exemple 2.30. (Q, +, ×), (R, +, ×), (C, +, ×), (Z/pZ , +, ×), ppremier sont des corps commu-
tatifs. (Z, +, ×) n'est pas un corps commutatif car 2 n'est pas un élément inversible.
√ √
De même, Q[ 2] = {a + b 2/a, b ∈ Q} est un corps commutatif.
Contents
3.1 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.2 Structures de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.3 Propriétés arithmétiques des polynômes . . . . . . . . . . . . . . . . . 38
3.2 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1 Polynômes
3.1.1 Généralités
Soit K un corps commutatif.
Dénition 3.1. On appelle polynôme à une indéterminée X à coecients dans K, toute suite
(a0 , a1 , ..., ak+1 , ...) = (ak )k∈N d'éléments de K nuls à partir d'un certain rang. On note : P =
(a0 , a1 , ..., ak+1 , ...), les éléments ak sont appelés les coecients du polynômes P.
Notation 3.1. 1. K[X] est l'ensemble des polynômes à coecients dans K, à une indéter-
minée X.
2. R[X] est l'ensemble des polynômes à coecients dans R, à une indéterminée X.
3. C[X] est l'ensemble des polynômes à coecients dans C, à une indéterminée X.
Dénition 3.2. Soit P = (ak )k∈N un polynôme de K[X].
1. On dit que P est le polynôme nul si ak = 0, ∀k ∈ N.
2. Si P 6= 0, on appelle degré de P, le plus grand des entiers k tels que ak 6= 0, et on note
d◦ P = deg(P ).
P = (a0 , a1 , ..., an , 0, 0, ....), deg(P ) = n
3. On appelle valuation de P, le plus petit des entiers k tels que ak 6= 0 et on note V (P ) =
V al(P ).
Exemple 3.1. Soit P = (0, 0, 0, −2, 8, 7, 10, 4, 5, 0, 0, ...) un polynôme. deg(P ) = 8, V al(P ) =
3.
P + Q = (ak + bk )k∈N
= (a0 + b0 , a1 + b1 , ..., ak + bk , ...)
Produit externe
Soient α ∈ K, et P = (ak )k∈N ∈ K[X], on a α · P = (α · ak )k∈N .
Proposition 3.2. Soit K[X] un corps commutatif. Alors le groupe des éléments inversibles de
K[X] est l'ensemble des polynômes de degré zéro.
Preuve 3.1. Soit P ∈ K[X]. P est inversible s'il existe Q ∈ K[X] tels que P · Q = 1K[X] .
Ainsi, deg(P · Q) = deg(1K[X] ) = 0, deg(P ) + deg(Q) = 0, donc deg(P ) = deg(Q) = 0. D'où
P = (a0 , 0, 0, ..., 0), avec a ∈ K (P est un polynôme constant).
Dénition 3.3. On appelle indéterminée le polynôme X dont tous les coecients sont nuls
sauf le coecient d'indice 1 ∈ N, et qui est égal à 1K = 1.
X = (0, 1, 0, 0, ..., 0)
P = (ak ) ∈ K[X]
= (a0 , a1 , a2 , ..., an , ...)
= (a0 , 0, 0, ..., 0) + (0, a1 , 0, ..., 0) + · · · + (0, 0, 0, ..., an , 0, ...)
= a0 (1, 0, 0, ..., 0) + a1 (0, 1, 0, ..., 0) + · · · + an (0, 0, 0, ..., 1, 0, ...)
= a0 · · · 1K[X] + a1 · X + a2 · X 2 + · · · + an · X n + · · ·
X
= ak x k
k∈N
Remarque 3.5. 1. Si deg(P ) = n, alors le coecient non nul an est dit coecient dominant
de P.
2. Si an = 1, alors P est dit polynôme unitaire ou normal.
Théorème 3.2. Soitent A et B deux polynômes tels que B 6= 0. Alors il exite un couple (Q, R)
de K[X] unique tels que A = B · Q + R avec d◦ (R) < d◦ (B). Q s'appelle le quotient de la
division de A par B. R est le reste de la division de A par B.
A − an+1 b−1
p X
n+1−p
+ Q1 = Q1 · B + R1
A = (an+1 b−1
p X
n+1−p
+ Q1 ) · B + R1
= Q · B + R1
Exemple 3.2. X 2 − 2X + 4
X 2 + 2X + 1 X4 + X 2 − 4X − 2
− X 4 − 2X 3 − X 2
− 2X 3 − 4X
3 2
2X + 4X + 2X
4X 2 − 2X − 2
− 4X 2 − 8X − 4
− 10X − 6
Exemple 3.3. A = 1 + X et B = 1 − X + X 2 .
1+X 1 − X + X2
−(1 − X + X 2 ) 1 + 2X + X 2
2X − X 2
−(2X − 2X 2 − 2X 3 )
X 2 − 2X 3
−(X 2 − X 3 + X 4 )
−X 3 − X 4 = −X 3 (1 + X)
A B Q R
z }| { z }| {z }| { z }| {
2 2 3
1 + X = (1 − X + X ) (1 − 2X + X ) + X (−1 − X)
Idéaux de K[X]
Plus grand commun diviseur (PGCD)
Soient A1 , A2 , ..., An des polynômes de K[X] non nuls. Posons
n
X
n
I = {p ∈ K[X], ∃u1 , u2 , ..., un ∈ K[X] , p = ui Ai }
i=1
On a I est un idéal de K[X], et d'après le théorème précédent, ∃D ∈ K[X] tel que I =< D >
(idéal engendré par D), D un polynôme unitaire. On a Ai ∈ I , car Ai = 0·A1 +0·A2 +· · ·+1·Ai +
· · · + 0 · An . Donc, ∀i ∈ {1, ..., n}, Ai ∈ I, Ai = D · ui , avec ui ∈ K[X]. Donc D est un diviseur
commun des Ai . Vérions que D est plus grand diviseur commun des Ai , i ∈ K[X], i ∈ [1, n].
Soit D' un autre diviseur commun des Ai . Soit Ai = D0 · u0i , où u0i ∈ K[X], comme In =< D >,
donc D ∈ I , donc D = ni=1 Ai · ui = ni=1 D0 u0i ui , soit D = D0 · ( ni=1 u0i ui ), et donc, D est le
P P P
Théorème 3.3 (De Bézout). Soient A1 , A2 , ..., An des polynômes non nuls de K[X]. Alors
A1 , A2 , ..., An sont premiers entre eux si et seulement s'il existe u1 , u2 , ..., un ∈ K[X] tel que
1K[X] = u1 A1 + u2 A2 + · · · + un An .
pgcd(A1 , A2 ) = X
pgcd(A1 , A3 ) = X + 1
pgcd(A2 , A3 ) = X + 2
pgcd(A1 , A2 , A3 ) = 1
Remarque 3.7. Soient A, B ∈ K[X] tel que A = Q · B + R, alors pgcd(A, B) = pgcd(B, R).
Exemple 3.5.
X 4 + 7X 3 + 19X 2 + 23X + 10 = X 4 + 7X 3 + 18X 2 + 22X + 12 · 1 + X 2 + X − 2
X 4 + 7X 3 + 18X 2 + 22X + 12 = X 2 + X − 2 · X 2 + 6X + 14 + 20X + 40
1 1
X2 + X − 2 = 20X + 40 · 20
X − 20
+0
Remarque 3.8. Le pgcd des polynômes A1 , A2 , ..., An s'obtient en prenant dans leurs décom-
positions en produit de facteurs irréductibles, les facteurs unitaires communs à chacune des
décompositions.
Fonctions polynômes
Dénition 3.5. Soit P = a0 + a1 X + · · · + an X n ∈ K[X]. On appelle fonction polynôme
associé à P l'application p̃ dénie de K dans K associant à tout élément x ∈ K, l'élément
p̃(x) = a0 + a1 x + · · · + an xn
p̃ : K −→ K
x 7−→ a0 + a1 x + · · · + an x n
Exemple 3.6. Soit P = 2 + 5x − 5x2 + 8x3 ∈ R[X]. P̃ (x) = 2 + 5x − 5x2 + 8x3 est la fonction
polynôme associée à P .
Polynôme dérivé
Pn
Soit P = k=0 ak xk ∈ K[X]. On appelle polynôme dérivé, tout polynôme :
n
X n+1
X
k−1
P̃ = kak x = (j + 1)aj+1 xj
k=1 j=0
Théorème 3.4 (De D'Alembert). Soit P un polynôme de C[X] de degré supérieure où égal à
1. Alors il existe a ∈ C, tel que P (a) = 0. On dit que C est algébriquement clos.
Dénition 3.7. Soit a ∈ Ket P ∈ K[x]. On dit que a est une racine multiple d'ordre k de P si
(x − a) divise P , et (x − a) ne divise pas P k+1 .
k
1. P = (x − a)(x − b)2 (x − c)3 avec a, b, c ∈ R. a est racine simple de P, b est racine double
de P, c est racine triple de P.
Dénition 3.8. Soit P ∈ K[X] un polynôme non constant. On dit que P est scindé s'il existe
λ1 , λ2 , ..., λn ∈ K , tels que P = α(x − λ1 )(x − λ2 ) · · · (x − λn ), avec α ∈ K, appelé coecient
dominant de P. les λi , i ∈ {1, ..., n} sont appelés racines de P.
Exemple 3.7. P = X 2 + 1 est scindé dans C[X] car P = (x − i)(x + i), mais il n'est pass
scindé dans R[X].
Dénition 3.9. (Polynômes irréductibles) On dit qu'un polynôme P de K[X] est irréductible
ou premier sur K s'il n'est pas constant et ses seuls diviseurs dans K[x] sont des polynômes
associés à P, et les éléments non nuls de K.
√
Exemple
√
3.8.
√
P = X 2 − 2 est un polynôme irréductible dans Q[X], (car 2 ∈ Q), x2 − 2 =
(x − 2)(x + 2) n'est pas irréductible dans R[X].
x2 + 1 est irréductible dans R[X], mais n'est pas irréductible dans C[X].
Remarque 3.11. Les polynômes irréductibles sont les polynômes du premier degré.
(A, B)<(A0 , B 0 ) ⇐⇒ A · B 0 = A0 · B
˚
K[X] × K[X]∗ /< = {(A,
\ B)/(A, B) ∈ K[X] × K[X]∗ }
˚
\
(A, B) = {(C, D) ∈ K[X] × K[X]∗ /(C, D)<(A, B)}
Dénition 3.10. On appelle fraction rationnelle F, toute classe d'équivalence modulo <.
Remarque 3.12. On dit aussi fraction rationnelle à une indéterminée X à coecients dans
K.
Notation 3.3. On note K[X] l'ensemble des fractions rationnelles à une indéterminée X à
coecients dans K.
A C AD + BC
+ =
B D BD
2. Multiplication (×)
A C AC
× =
B D BD
Proposition 3.3. 1. (K[X], +) est un groupe abélien.
2. (K[X], +, ×) est un corps commutatif appelé corps des fractions rationnelles à une in-
déterminée X, et à coecients dans K, avec 0K[X] = B0 où B 6= 0, 1K[X] = B
B
où B 6= 0.
F̃ : K −→ K
Ã(x)
x 7−→ F̃ = B̃(x)
Théorème 3.6. Soit F = Q1 ·QP2 ···Qn une fraction rationnelle où les polynômes Q1 , Q2 , ..., Qn
sont premiers entre eux et deg(P ) < deg(Q1 · Q2 · · · Qn ). Alors il existe une famille et une seule
(Pi )1≤p≤n de polynômes tels que
n
P X Pi
= et deg(Pi ) < deg(Qi )
Q1 · Q2 · · · Qn i=1
Q i
Exemple 3.11. F = X 2 +2
(X−1)(X+1)(X 2 +X+1)
= P1
X−1
+ P2
X+1
+ P3
X 2 +X+1
.
P
F =
λ(X − a1 )α1 (X − a2 )α2 · · · (X − an )αn
n X αi
X bij j
= E+ ( )
i=1 j=1
X − ai
Exemple 3.12. F = X5
(X−1)2 (X 2 +1)
∈ C[X]. La division euclidienne donne : X 5 = (X + 2)((X −
2X 3 −2X 2 +3X−2
1)2 (X 2 + 1) + 2X 3 − 2X + 3X − 2, donc F = X + 2 + F 0 , avec F 0 =
2
(X−1)2 (X 2 +1)
. D'après
le théorème, il existe (a1 , a2 , a3 , a4 ) ∈ C4 , tels que
a1 a2 a3 a4
F0 = + 2
+ +
X − 1 (X − 1) (X − i) (X + i)
Théorème 3.8. Soit F = QPn (n ∈ N∗ ) une fraction rationnelle telle que deg(P ) < deg(Qn ),
alors il existe une famille et une seule de polynômes P1 , P2 , ..., Pn telle que F = ni=1 Q
Pi
i , avec
P
Dénition 3.15. On appelle élément simple de K[X], toute fraction rationnelle de la forme
A
Bα
,où B est un polynôme irréductible de K[X] et α un entier supérieur ou égal à 1, avec
deg(A) < deg(B).
irréductibles. Alors, il existe une famille unique A1 , ..., Aα , B1 , ..., Bβ , L1 , ..., Lλ , telle que :
P P
F = =
Q γ · A · B β · · · Lλ
α
hA A2 Aα i
1
= E+ + 2 + ··· + α
A A A
hB B2 Bα i
1
+ + 2 + ··· + β
B B B
hL L2 Lα i
1
+··· + + 2 + ··· + λ
L L L
avec deg(Ai ) < deg(A) (1 ≤ i ≤ α), deg(Bi ) < deg(B) (1 ≤ i ≤ β), deg(Bi ) < deg(B) (1 ≤ i ≤
λ).
Q = λ(x − a1 )α1 (x − a2 )α2 · · · (x − an )αn (x2 + β1 x + δ1 )γ1 (x2 + β2 x + δ2 )γ2 · · · (x2 + βm x + δm )γm
n X αi n X γk
X Aij X Bkl x + Ckl
F = E+ [ ] + [ ]
i=1 j=1
(x − ai )j k=1 l=1
(x 2 + β x + δ )l
k k
2 1 1
F =X +2− + −
X − 1 2(X − 1)2 2(X 2 + 1)
Espaces vectoriels
Contents
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1 Généralités
Remarque 4.1.
1. En général, nous utiliserons la notation 00 ·00 pour désigner la loi de composition externe.
Dénition 4.3. Soit E un ensemble muni d'une loi de composition interne notée additivement,
et K un corps commutatif. On dira que E est un espace vectoriel sur K si et seulement si E
vérie les conditions suivantes :
1. (E, +) est un groupe abélien.
2. Il existe une loi de composition externe sur E notée
· : K × E −→ E
(α, x) 7−→ α · x
P1 α · (x + y) = α · x + α · y, ∀α ∈ K, ∀(x, y) ∈ E2 .
P2 (α + β) · x = α · x + β · x, ∀(α, β) ∈ K2 , et ∀x ∈ E.
P3 α · (β · x) = (αβ) · x, ∀(α, β) ∈ K 2 et ∀x ∈ E.
P4 1K · x = x, ∀ ∈ E.
Remarque 4.2. Les éléments de E sont appelés les vecteurs et les éléments de K sont appelés
les scalaires.
Notation 4.1. Si E est un espace vectoriel sur K, on dit aussi E est un K-espace vectoriel ou
encore, on écrit : E est unK-e.v, (E, +, .) est un K-e.v.
α · (0E − y) = α · 0E − α · y
Donc α · (−y) = −α · y .
Z Multiplication externe :
·:
K × Kn −→ Kn
Soient X = (xn , . . . , xn ) ∈ Kn et α ∈ K. α·X = (α·Xn , . . . , α·Xn ).
(α, X) 7−→ α · X
(Kn , +, ×) est une K-e.v. De même, (Qn , +, ×) est un Q-e.v ; (Rn , +, ×) est un R-e.v ;
(Cn , +, ×) est un C-e.v ; (Z/pZ, +, ×) est un Z/pZ-e.v, p étant un entier premier.
3. Soit X un ensemble quelconque et K un corps commutatif. F(X, K) est l'ensemble des
applications de X dans K.
Z Addition :
Soient f et g deux éléments de F(X, K).
Soit x ∈ X, on a (f + g)(x) = f (x) + g(x) donc,
f + g : X −→ K
x 7−→ f (x) + g(x)
Z Multiplication externe :
Soient α ∈ K et f ∈ F(X, K). Soit x ∈ X, (α · f )(x) = α · f (x).
α · f : X −→ K
x 7−→ α · f (x)
(F(X, K), +, ·) est un K-e.v appelé l'espace vectoriel des applications de X dans K.
X = R, K = R, (F(R, R), +, ×) est R-e.v .
X = N, K = R, (F(N, R), +, ×) est R-e.v, appelé espace vectoriel des suites réelles .
X = N, K = C, (F(N, C), +, ×) est C-e.v, appelé espace vectoriel des suites com-
plexes.
4. Rn [x] l'ensemble des polynômes de degré inférieur ou égal à n, à coecients dans R.
Soit p(x) ∈ Rn [x], p(x) = a0 + a1 x + · · · + an xn où ai ∈ R, 0 ≤ i ≤ n.
Z Addition :
Soient p(x) = a0 + a1 x + · · · + san xn et q(x) = b0 + b1 x + · · · + bn xn où ai ∈ R, 0 ≤ i ≤
n et bi ∈ R, 0 ≤ i ≤ n.
Intersection
Proposition 4.1. F ∩ G est un sous-espace vectoriel de E sur K.
Preuve 4.2. 1. F ∩ G 6= φ.
On a 0E ∈ F car F est un sous-espace vectoriel, autant que G.
Donc, 0E ∈ F ∩ G, d'où F ∩ G 6= φ.
2. Soient (α, α0 ) ∈ K2 et (X, X 0 ) ∈ F ∩ G2 , α · X + ph0 · X 0 ∈ F ∩ G. X ∈ F ∩ G ⇒ X ∈
F et X ∈ G ; X 0 ∈ F ∩ G ⇒ X 0 ∈ FetX 0 ∈ G.
X∈F
⇒ α · X + α0 · X 0 ∈ F car F est un s.e.v .
X0 ∈ F
X∈G
⇒ α · X + α0 · X 0 ∈ G car G est un s.e.v .
X0 ∈ G
Donc α · X + α · X 0 ∈ F ∩ G. Ainsi, F ∩ G est un sous-espace vectoriel de E.
Remarque 4.4. Soit (Fi )i∈I une famille de K-s.e.v de E . Alors i∈I Fi est un K - s.e.v de E.
T
Réunion
Proposition 4.2. F ∪ G n'est pas en général un sous-espace vectoriel de E.
Preuve 4.3. On sait que (R2 , +, ·) un R-e.v . On pose F1 = {λ · µ1 /λ ∈ R, µ1 = (1, 0)} (qui
est un sous-espace vectoriel, puisque pour tout u ∈ 0E , H = {λ · u/λ ∈ K} est un sous-espace
vectoriel de E). Il en est de même de F2 = {λ · µ2 /λ ∈ R, µ2 = (0, 1)}. F1 ∪ F2 n'est pas un
sous-espace vectoriel de R2 , étant donné que µ1 + µ2 6∈ F1 ∪ F2 .
Preuve 4.4. Comme F est un sous-espace vectoriel de E, alors, 0E ∈ F. Donc, 0E 6∈ {FE . Donc
{FE n'est pas un sous-espace vectoriel de E.
Proposition 4.4. Soit A une partie non vide de E. Alors, il existe un plus petit sous-espace
vectoriel de E contenant A. Le sous-espace vectoriel est l'ensemble F de toutes les combinaisons
linéaires d'éléments de A.
Dénition 4.6. Soit A une partie non vide d'un K-e.v de E. On appelle sous-espace engendré
par A, le plus petit sous-espace vectoriel de E contenant A. V ect(A) = A⊂F F (où F est s.e.v
T
de E contenant A).
Preuve 4.6.
Dénition 4.8. On dit que deux sous-espaces vectoriels E1 et E2 constituent une somme directe
de E s'ils vérient l'une des conditions équivalentes du théorème précédent.
Notation 4.4. E1 ⊕ E2 = E.
Exemple 4.4. (A montrer)
Dénition 4.10. Soit {u1 , . . . , un } une famaille de vecteurs de E (K-e.v). On dit que la famille
{u1 , . . . , un } est libre, si toute relation α1 · u1 + · · · + αn · un = 0E implique α1 = α2 =
· · · = αn = 0K . Autrement dit, les vecteurs {u1 , . . . , un } sont linéairement indépendants , si
∀{(α1 , . . . , αn )} ∈ K, on a :
α1 · u1 + · · · + αn · un = 0E ⇒ ph1 = α2 = · · · = αn = 0K
Remarque 4.10. Soit {ui /i ∈ I} une famille de vecteurs du K-e.v E. La famille {ui /i ∈ I}
est libre si ∀n ∈ N , {u1 , . . . , un } est libre.
∗
Proposition 4.6. Soit E un K-e.v. Alors les assertions suivantes sont vériées :
1. Toute famille réduite à un vecteur non nul est libre.
2. Toute famille de E contenant le vecteur nul est liée.
Preuve 4.7. 1. Soit u ∈ E tel que u 6= 0E . Soit α ∈ K tel que α · u = 0E . Ceci implique
α = 0K donc {u} est libre.
2. Soit S 0 = {u1 , . . . , uk−1 , 0E , uk+1 , ..., un } une famille de vecteurs de E. On a 0K · u1 + 0K ·
u2 + · · · + 0K · uk−1 + 1K · 0E + 0K · uk+1 + · · · + 0K · un = 0E . On a une combinaison linéaire
nulle dont les coecients ne sont pas tous nuls. Donc S' est une famille liée.
Proposition 4.7. Soit (E, +, −) un K-e.v. Alors les assertions suivantes sont vériées :
1. Toute famille de vecteurs de E contenant un sous-ensemble lié est lié.
2. Tous sous-ensemble d'une famille libre est libre.
Preuve 4.8. 1. Soit S = {u1 , . . . , up , up+1 , ..., un } une famille de n vecteurs de E. Si {u1 , . . . , up }
est liée, donc ∃k ∈ {1, ..., p} tel que uk = i=1,i6=k αi ui donc ∃k ∈ {1, ..., n} tel que
Pp
1. B == {e1 , . . . , en } est une base de Rn , avec e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ..., en =
(0, 0, ..., 1). Elle est appelée base canonique de Rn .
(a) {(0, 1), (1, 0)} est une base de R2 .
(b) {(1, 0, 0), (0, 1, 0), (0, 0, 1)} est une base de R3 .
2. {(1, 3, 0), (0, 2, 1)} est une base de S = {(x, y, z) ∈ R3 /3x − y + 2z = 0}.
3. B = {1, x, x2 , ..., xn } est une base de Rn [n].
Théorème 4.2. Soit B = {u1 , ..., un } une base du K-e.v E. Alors pour tout X ∈ E, il existe
unique n-uplet (α1 , . . . , αn ) ∈ K tel que X = ni=1 αi ui et les αi (1 ≤ i ≤ n) sont les composantes
P
de X dans la base B.
Dénition 4.13. On dit qu'un K-e.v E est de dimension nie s'il admet un système générateur
ni.
Proposition 4.8. Soit E un K-e.v de dimension nie et E 6= {0E }. Alors de toute famille
génératrice de E, on peut extraire une base de E.
Théorème 4.3 (de la base imcomplète). Soit E un K-e.v de dimension nie et E 6= {0E }.
Alors pour toute famille libre {u1 , . . . , up } de E, il existe des vecteurs v1 , . . . , vq ∈ E tels que
{u1 , . . . , up , v1 , . . . , vq } soit une base de E. Autrement dit, si E est un K-e.v de dimension nie
et E 6= {0E } , alors toute famille libre de E peut être complètée de manière à avoir une base de
E.
1. S = {(0, 1, 1), (1, 0, 1), (1, 1, 0)} est une famille libre de R3 ,et card (S) = 3. Ainsi, S est
une base de R3 .
2. S 0 = {(1, 1, 1, 1), (0, 2, 1, −1)} est une base de R4 . On montre qu'en complètant S' avec
u = (0, 0, 1, 0) et v = (0, 0, 0, 1), on obtient une nouvelle famille S" libre. Et comme, card
(S") = 4, alors S" est une base de R4 .
Proposition 4.10. Soit E un K-e.v de dimension nie. Alors les sous-espaces vectoriels E1
et E2 de E
sont supplémentaires dans E si et seulement si pour toute base B1 de E1 et pour toute base
B2 de E2 , B1 ∪ B2 est une base de E.
Exemple 4.10.
E1 = {(x, y) ∈ R2 /y = 0} et E2 = {(x, y) ∈ R2 /x = 0} sont deux sous-espaces vectoriels de
R2 . B1 = {(1, 0)} et B2 = {(0, 1)} sont respectivement des bases de E1 et E2 . Or B1 ∪ B2 est
une base de R2 (la base canonique par ailleurs) , donc E1 et E2 sont supplémentaires dans R2 ,
i.e , E1 ⊕ E2 = R2 .
Exemple 4.11. Soit S = {u1 , u2 , u3 } avec u1 = (1, 1); u2 = (1, 0)etu3 = (1, 2). S est une
famille liée, car dim(R2 ) = 2. Mais S 0 = {u1 , u2 } est une famille libre (à vérier), donc
Rg(S) = Rg(S 0 ) = 2.
Exemple 4.12. Il sut de considérer les vecteurs u1 = (1, 2, 3, 4), u2 = (0, 3, −1, 0) et u3 =
(0, 0, 2, 4).
Méthode de Gauss-Jordan
On utilisera cette méthode pour :
1. Montrer qu'un système est libre ou lié ;
2. Trouver la relation de dépendance linéaire ;
3. Trouver une base d'un sous-espace vectoriel ;
4. Trouver le rang d'un système de vecteurs ;
5. Trouver la dimension d'un sous-espace vectoriel.
Exemple 4.13.
Applications linéaires
Contents
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . 60
5.1 Généralités
5.1.1 Dénitions
Soient E et F deux K-e.v et f : E −→ F une application.
Preuve 5.1.
Xn+1 Xn
f( αi Xi ) = f( αi Xi + αn+1 Xn+1 )
i=1 i=1
n
X
= f( αi Xi ) + f(αn+1 Xn+1 )
i=1
n
X
= αi f(Xi ) + αn+1 f(Xn+1 )
i=1
Dénition 5.4. On dit que f est une isomorphisme si f est linéaire et bijective.
Dénition 5.6. On dit que f est une forme linéaire de E si f est linéaire, et si
F = K(f : E −→ K).
IdE : E −→ E
1. Soit E un K-e.v,
x 7−→ x
est linéaire.
f : R3 −→ R2
2.
(x, y, z) 7−→ (2x − y + 3z, x + 5y − z)
est linéaire.
g: R4 −→ R
3.
(x, y, z, t) 7−→ 3x + 2y − 4z + t
est linéaire.
h: R3 −→ R3
4.
(x, y, z) 7−→ (xy, x + y + z, x − y)
n'est pas linéaire. Il sut de prendre u = (1, 3, −1) et v = (2, 5, 3).
On a : h(u) + h(v) 6= h(u + v).
ϕ : Rn [x] −→ Rn [x]
5. d
P (x) 7−→ ϕ(p(x)) = dx
(P (x))
est linéaire.
Dénition 5.7. On appelle noyau de f l'ensemble des éléments de E dont l'image par f est
nulle. On note Ker(f).
Ker(f) = {X ∈ E/f(X) = OF }
Dénition 5.8. On appelle image de f l'ensemble des images des éléments de E par f . On note
Im(f) = f(E).
1. Ker(f) ⊂ E ;
2. Im(f) ⊂ F.
Proposition 5.5. Soit f ∈ LK (E, F). Alors les assertions suivantes sont vériées :
1. Ker(f) est un sous-espace vectoriel de E.
2. Im(f) est un sous-espace vectoriel de F.
Donc α · X + α0 · X 0 ∈ Ker(f).
i) et ii) implique Ker(f) est un sous-espace vectoriel de E.
2. Im(f) est un sous-espace vectoriel de F.
(a) Im(f) 6= φ. En eet, f(OE ) = OF ∈ Im(f).
(b) Soient (Y, Y 0 ) ∈ Im(f) et (α, α0 ) ∈ K 2 .
Y ∈ Im(f) =⇒ ∃X ∈ E/Y = f(X)
Y 0 ∈ Im(f) =⇒ ∃X 0 ∈ E/Y 0 = f(X 0 )
α · Y + α0 · Y 0 = α · f(X) + α0 · f(X 0 )
= f(α · X + α0 · X 0 )
Car f est linéaire. Posons Z = α·X +α0 ·X 0 ∈ E. Donc α·Y +α0 ·Y 0 = f(Z) ∈ Im(f).
i) et ii) implique Im(f) est un K-e.v sous-espace vectoriel de E.
Exemple 5.2.
ϕ: R4 −→ R2
1.
(x, y, z, t) (x, y, z, t) 7−→ (x − y + 2z + t, 2x + y − z + 3t)
Ker(ϕ) = {X ∈ R4 /ϕ(X) = OR2 }. Soit X = (x, y, z, t) ∈ Ker(ϕ). Donc ϕ(X) = OR2
x − y + 2z + t = 0 x − y = −2z − t
=⇒
2x + y − z + 3t = 0 2x + y = z − 3t
Ainsi, on obtient x = − 31 z − 34 t et y = 53 z − 13 t.
1 4 5 1
X = (− z − t, z − t, z, t)
3 3 3 3
1 5 4 1
= (− z, z, z, 0) + (− t; − t, 0, t)
3 3 3 3
4 1
= z(−1, 5, 3, 0) + t(−4, −1, 0, 3)
3 3
Posons : u1 = (−1, 5, 3, 0); u2 = (−4, −1, 0, 3). Ker(ϕ) = lin({u1 , u2 }).
Im(ϕ) = {Y ∈ R2 /∃X ∈ R4 /Y = ϕ(X)}.
Soit Y ∈ Im(ϕ). ∃X = (x, y, z, t) ∈ R4 tel que :
Y = ϕ(x, y, z, t)
= (x − y + 2z + t, 2x + y − z + 3t)
= x(1, 2) + y(−1, 1) + z(2, −1) + t(1, 3)
Preuve 5.7.
1. Soit {v1 , v2 , ..., vn } un système lié de E. Donc il existe des scalaires λ1 , . . . , λn non tous
nuls tels que λ1 · v1 + λ2 · v2 + · · · + λn · vn = OE . Donc :
f(λ1 · v1 + λ2 · v2 + · · · + λn · vn ) = f(OE ) = OF
Or f est linéaire. Donc il existe des scalaires λ1 , . . . , λn non tous nuls tels que
Théorème 5.1. Soit f ∈ LK (E, F), alors les conditions suivantes sont équivalentes :
1. f est injective.
2. Ker(f) = {OE }.
Preuve 5.8.
Théorème 5.2. Soit f ∈ LK (E, F). Les conditions suivantes sont équivalentes :
1. f est injective ;
2. L'image par f de tout système libre de E est un système libre de F.
Preuve 5.9.
1) ⇒ 2) Soit (ui )i∈In une famille libre de E. Montrons que (f(ui ))i∈In est libre .
Soit (λi )i∈In une famille de scalaires telle que i∈In λi f(ui ) = OF .
P
D'où i∈In ·ui = OE ; or (ui )i∈In est une famille libre de E, donc λi = O, ∀i ∈ In .
P
Exemple 5.3.
ϕ: R4 −→ R4
(x, y, z, t) 7−→ (2x, x + y, y − 2z, x + y + t)
Ker(ϕ) = {X ∈ R4 /ϕ(X) = OR4 }. Soit X = (x, y, z, t) ∈ Ker(ϕ)
2x = 0
x=0
x+y = 0 y=0
ϕ(X) = OR4 =⇒ =⇒
y − 2z = 0
z=0
x+y+t = 0
t=0
Théorème 5.3. Soit f ∈ LK (E, F) et {e1 , . . . , en } une base de E, alors, on a les assertions
suivantes sont vériées :
1. f est injective ⇐⇒ {f(e1 ), f(e2 ), ..., f(en )} est libre.
2. f est surjective ⇐⇒ {f(e1 ), f(e2 ), ..., f(en )} est système générateur. f est bijective ⇐⇒
{f(e1 ), f(e2 ), ..., f(en )} est une base de F.
n
X n
X
Y = f(X) = f( λk · ek ) = λk · f(ek )
k=1 k=1
Théorème 5.4. Soient B = {u1 , . . . , un } une base de E et {v1 , v2 , ..., vn } une famille de vecteur
de F . Alors, il existe une linéaire et une seule f : E −→ F telle que f(ui ) = vi ∀i(1 ≤ i ≤ n),
et pour X ∈ E, X = a1 · u1 + a2 · u2 + · · · + an · un avec ai ∈ ai ∈ K, i = 1, 2, ..., n, on a :
f(X) = a1 · v1 + a2 · v2 + · · · + an · vn .
X ∈ =⇒ ∃(λ1 , . . . , λn ) ∈ Kn /X = ni=1 αi · ui
P
Soit βK et X = a1 ·u1 +a2 ·u2 +· · ·+an ·un ∈ E. β·X = (β·a1 )·u1 +(β·a2 )·u2 +· · ·+(β·an )·un
f(β · X) = (β · a1 ) · v1 + (β · a2 ) · v2 + · · · + (β · an ) · vn = β · (a1 · v1 + a2 · v2 + · · · + an · vn )
f(β · X) = β · f(X)
2. Preuve de l'unicité.
Soit g : E −→ F une application linéaire telle que : g(ui ) = vi ∀i(1 ≤ i ≤ n). Soit
X ∈ E, et X = a1 · u1 + a2 · u2 + · · · + an · un ∈ E
g(X) = g(a1 · u1 + a2 · u2 + · · · + an · un )
= a1 · g(u1 ) + a2 · g(u2 ) + · · · + an · g(un )
= a1 · v1 + a2 · v2 + · · · + an · vn
Remarque 5.5. Une application linéaire est entièrement déterminée par la donnée des images
des éléments d'une base de l'espace de départ.
Exemple 5.4. Soit f : R3 −→ R3 telle que f(−1, 1, 1) = (2, 1), f(1, −1, 1) = (3, 0), et
f(1, 1, −1) = (1, 1) Comme {(−1, 1, 1), (1, −1, 1), (1, 1, −1)} est une base de R3 donc f est une
application linéaire. Posons u1 = (−1, 1, 1), u2 = (1, −1, 1), u3 = (1, 1, −1).
Soit X = (x, y, z) ∈ R3 , ∃(a, b, c) ∈ R3 tel que X = a · u1 + b · u2 + c · u3 .
On a : f(X) = a · v1 + b · v2 + c · v3 f(x) = (2a + 3b + c, a + c). En posant X = a · u1 + b · u2 + c · u3 ,
on tire a(−1, 1, 1) + b(1, −1, 1) + c(1, 1, −1) = (x, y, z).
1 1
−a + b + c = x c = 2x + 2y
a − b + c = y =⇒ a = 12 y + 12 z
a+b−c=z b = 12 x + 12 z
On en déduit,
3 5 1 1
f(x, y, z) = (2x + y + z; x + y + z)
2 2 2 2
Théorème 5.5. (des 3 dimensions)
Soient E et F deux K-e.v de dimensions nies, et f ∈ LK (E, F). Alors :
X = α1 v1 + · · · + αr vr + β1 w1 + · · · + βn−r wn−r
λ1 w1 + · · · + λn−r wn−r = α1 v1 + · · · + αr vr
λ1 w1 + · · · + λn−r wn−r − α1 v1 − · · · − αr vr = OE
Or {v1 , . . . , vr , w1 , . . . , wn−r } est libre , donc λ1 = λ2 = · · · = λn−r = α1 = · · · = αr = 0.
λ1 = λ2 = · · · = λn−r = 0, d'où B' est libre. Par conséquent , B' est une base de Im(f).
dim(Im(f)) = n − r. D'où le résultat :
Exemple 5.5.
f : R4 −→ R2
(x, y, z, t) 7−→ (x − y + 2z + t, x + y − 2z + 3t)
f est linéaire. Ker(f) = {X ∈ R4 /f(X) = OR2 }.
Soit X = (x, y, z, t) ∈ Ker(f), donc f(X) = OR2 .
x − y + 2z + t = 0 x = −2t
x + y − 2z + 3t = 0 y = 2z − t
X = (−2t, 2z − t, z, t)
= z (0, 2, 1, 0) +t (−2, −1, 0, 1)
| {z } | {z }
u v
Ker(f) = lin({u, v}). On vérie aisément que B = {u, v} est une base de Ker(f). Donc
dim(Ker(f)) = 2.
Par suite , dim(Im(f)) = dim(R4 ) − dim(Ker(f)) = 4 − 2 = 2. Or Im(f) est un s.e.v de
R2 , donc on a Im(f) = R2 , i.e, f est surjective.
Corollaire 2. Soient E et F deux K-e.v de même dimension nie, et f ∈ LK (E, F). Alors les
assertions suivantes sont équivalentes :
1. f est injective ;
2. f est surjective ;
3. f est bijective.
Preuve 5.13.
Corollaire 3. Soit E un K-e.v de dimension nie, et f ∈ LK (E). Alors les conditions suivantes
sont équivalentes :
1. f est injective ;
2. f est surjective ;
3. f est bijective.
Exemple 5.6.
ϕ: R3 −→ R3
(x, y, z) 7−→ (2x − y, x + y, x + 2y + 3z)
ϕ est un endomorphisme de R3 . Ker(ϕ) = {X ∈ R3 /ϕ(X) = OR3 }.
Soit X = (x, y, z) ∈ Ker(ϕ).
2x − y = 0 x = 0
x+y = 0 =⇒ y = 0
x + 2y + 3z = 0 z = 0
Donc Ker(ϕ) = {OR3 }, i.e ϕ est injective.
Comme ϕ est un endomorphisme, ϕ est donc bijective.
Remarque 5.6.
1.
Xn n
X
fk (X) = fk ( αi · ei ) = αi · fk (ei ) = αk · fk (ek )
i=1 i=1
Théorème 5.6. Soit E un K-e.v de dimension nie n et B = {e1 , . . . , en } une base de E. Alors
les formes linéaires {f1 , . . . , fn } dénies par
1 si j = i
fj (ei ) =
0 si j 6= i
forment une base de E∗ .
Preuve 5.14. Comme dim(E ∗ ) = card(B 0 ) = n, B' est une base de E∗ si et seulement si B'
est libre. Montrons que B' est libre.
Soient α1 , . . . , αn ∈ K tel que : α1 · f1 + α2 · f2 + · · · + αn · fn = OE
Xn n
X
( αi · fi )(ek ) = 0 =⇒ αi · fi (ek ) = 0
i=1 i=1
=⇒ αk · fk (ek ) = 0
=⇒ αk = O
Donc ∀k ∈ {1, ..., n}, ( ni=1 αi · fi )(ek ) = 0 =⇒ αk = O. Donc B' est une famille libre. D'où B'
P
est une base de E∗ . On note {e∗1 , . . . , e∗n } la base duale de E∗ , i.e fi = e∗i .
On a : f2 (x, y, z) = 13 x + 23 y + 31 z .
f3 : R3 −→ R
(x, y, z) 7−→ a”x + b”y + c”z
1
f3 (e1 ) = 0 a” = 3
f (e ) = 0 =⇒ b” = − 13
3 2
c” = 31
f3 (e3 ) = 1
On a : f1 (x, y, z) = 13 x − 13 y + 13 z .
{f1 , f2 , f3 } est une base de R3 appellée base duale de {e1 , e2 , e3 }.
Matrices
Contents
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.4.2 Quelques méthodes de calcul de l'inverse . . . . . . . . . . . . . . . . . 84
6.5 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.5.2 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.5.3 Eet d'un changement de bases sur les composantes d'un vecteur . . . 89
6.5.4 Eet d'un changement de bases sur la matrice d'une application linéaire 90
6.1 Généralités
Dénition 6.1. On appelle matrice de type (n, m), ou m×n à coecients dans K, tout tableau
A de n.m éléments de K constitué de n lignes et de m colonnes.
Notation 6.1.
a11 a12 . . . a1m
a21 a22 . . . a2m
A = (aij ) , A= . .. .. ..
..
1≤i≤n
1≤j ≤m . . .
an1 an2 . . . anm
aij ∈ K, i= l'indice des lignes, j=l'indice des colonnes.
On dit que A = (aij ) 1 ≤ i ≤ n est une matrice de type n × m.
1≤j ≤m
Exemple 6.1.
1 2 3 4
1. A =
−1 0 1 −5
A est une matrice de type (2, 4).
1 4 3
−1 0 3
2. A =
0
est une matrice de type (4, 3).
2 1 1
6 7 8
−2 0
3. A” = est une matrice de type (2, 2).
4 7
Remarque 6.1. Soit A = (aij ) 1≤i≤n une matrice de type (n, m).
1≤j ≤m
Si m 6= n, A est une matrice rectangulaire.
Si n = m, A est une matrice carrée d'ordre n , et on écrit A = (aij ) 1≤i≤n .
1≤j ≤n
Notation 6.2.
Mn,m (K) est l'ensemble des matrices de type (n, m) à coecients dans K.
Dénition 6.2. On appelle transposée de A, la matrice de type (m, n), dont les lignes sont les
colonnes de A. On note :
t
A = (aji ) 1≤j ≤m
1≤i≤n
a11 a21 ... an1
a12 a22 ... an2
t
A= . .. .. ..
.. . . .
a1m a2m . . . anm
−1 2 3 4
Exemple 6.2. Soit A = ∈ M2,4 (R).
1 5 0 7
−1 1
2 5
t
A= est une matrice de type (4, 2).
3 0
4 7
−1 3 6 −1 0 1
Matrices diagonales
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n
Dénition 6.3. A est dite matrice diagonale si et seulement si aij = 0 pour tout i 6= j . On
écrit :
a11 0 ... 0
0 a22 ... 0
A= . .. .. ..
.. . . .
0 0 . . . ann
(a11 , a22 , a33 , · · · , ann ) est la diagonale principale.
Remarque 6.2. Les éléments aii (i = 1, · · · , n) sont les éléments diagonaux, ou la diagonale
principale.
−5 0 0
Matrices triangulaires
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n
Dénition 6.4. 1. A est dite triangulaire supérieure, si tous les éléments situés en dessous
de la diagonale principale sont nuls, c'est-à-dire aij = 0, si i > j .
a11 a12 . . . a1n
0 a22 . . . a2n
A= . .. .. ..
.. . . .
0 0 . . . ann
2. A est dite matrice triangulaire inférieure si aij = 0 pour tout i < j .
a11 0 ... 0
a21 a22 ... 0
A= . .. .. ..
.. . . .
an1 an2 . . . ann
Matrices scalaires
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n
Dénition 6.5. A est dite matrice scalaire si elle est diagonale, et tous les éléments diagonaux
sont égaux.
a11 0 ... 0 a 0 ... 0
0 a22 ... 0 0 a ... 0
A= . .. .. .. = .. .. . . .. , aii = a, ∀i = 1, · · · , n.
.. . . . . . . .
0 0 . . . ann 0 0 ... a
Remarque 6.3. Si a = 1K , la matrice scalaire obtenue s'appelle la matrice unité d'ordre n, et
on note :
1 0 ... 0
0 1 ... 0
In = . .. . . ..
.. . . .
0 0 ... 1
Matrices symétriques
Soit A = (aij ) 1≤i≤n ∈ Mn (K).
1≤j ≤n
6.2.2 Addition
Soient A = (aij ) 1≤i≤n et B = (bij ) 1≤i≤n deux éléments de Mn,m (K).
1≤j ≤m 1≤j ≤m
A + B = (aij + bij ) 1 ≤ i ≤ n
1≤j ≤m
a11 + b11 a12 + b12 . . . a1m + b1m
a21 + b21 a22 + b22 . . . a2m + b2m
= .. .. . ..
. . . . .
an1 + bn1 an2 + bn2 . . . anm + bnm
−1 2 3 4 2 −1 0 −2 1 13 2
Exemple 6.5. A = ,B= =⇒ A + B =
5 6 0 1 4 −3 4 3 9 3 4 4
Propriétés de l'addition
Soient A = (aij ) 1≤i≤n , A0 = (a0ij ) 1≤i≤n et A” = (a”ij ) 1≤i≤n trois éléments de
1≤j ≤m 1≤j ≤m 1≤j ≤m
Mn,m (K).
1. L'addition est associative :
A + (A0 + A”) = (A + A0 ) + A”
A + A0 = A0 + A
α · a11 α · a12 . . . α · a1m
α · a21 α · a22 . . . α · a2m
α · A = α · (aij ) = (α · aij ) = . .. .. ..
..
1≤i≤n 1≤i≤n
1≤j ≤m 1≤j ≤m . . .
α · an1 α · an2 . . . α · anm
Propriété 6.1.
Remarque 6.6. (Mn (R), +, •) est un R-e.v de base canonique {E1 , . . . , En2 }.
x0
n0
x1
..
X · X = (x1 , . . . , xn ) · . = x1 · x01 + x2 · x02 + · · · + xn · x0n
0
x0n
Dénition 6.7. Soient A = (aij ) 1≤i≤n et B = (bij )
. On appelle produit de A et
1≤i≤m
1≤j ≤m 1≤j ≤p
B, la matrice C dénie par C = A · B , dont les éléments sont Cik , avec Cik = m j=1 aij bjk ,
P
Remarque 6.7. Cik est le produit (scalaire) de la i-ème ligne de A par la k-ème colonne de B.
a11 a12 . . . a1m b11 b12 . . . b1p c11 c12 . . . c1p
a21 a22 . . . a2m b21 b22 . . . b2p
c21 c22 . . . c2p
.. .. . . .. · .. .. .. . = . .. . . .
. . . . . . . .. .. . . ..
k-ème colonne de B
..
z }| {
.
b1k
b2k . . . cik . . . . . .
ième ligne de A i1 i2
a a . . . aim
· .. = ..
. .
.
bmk ..
Exemple 6.7.
−2 0 3
1 0−2 3 3 1 4
1. A = , B= . A et de type (2, 4), B et de type (4, 3).
4 3 1 −1 4 −1 5
1 0 3
C = A · B est de type (2, 3).
−2 0 3
1 0 −2 3 3 1 4 −7 2 2
C= · =
4 3 1 −1 4 −1 5 4 2 2 6
1 0 3
−1
2. A0 = 2 , B 0 = (2, −5, 4)
3
−1 −2 5 −4
I n−k = I et An =
Pn
k=0 Cnk N k
0 1 2 0 1 2 0 0 1
N 2 = 0 0 1 · 0 0 1 = 0 0 0
0 0 0 0 0 0 0 0 0
0 0 1 0 1 2 0 0 0
N · N 2 = N 3 = 0 0 0 · 0 0 1 = 0 0 0
0 0 0 0 0 0 0 0 0
N 3 = 0, donc N est une matrice nilpotente d'indice 3.
n
n
X n!
A = Cnk N k , Cnk =
k=0
k!(n − k)!
= Cn0 N 0
+ Cn1 N 1 + Cn2 N 2
n(n − 1) 2
= 1·I +n·N + N
2
1 0 0 0 1 2 0 0 1
n(n − 1)
= 0 1 0 + n · 0 0 1 + · 0 0 0
2
0 0 1 0 0 0 0 0 0
1 n 2n + n(n−1)
2
= 0 1 n
0 0 1
2
1 n n +3n
2
= 0 1 n
0 0 1
Dénition 6.8. On appelle matrice associée à l'application linéaire f par rapport aux bases
B et D, la matrice A dont les colonnes sont constituées par les composantes de f (u1 ), f (u2 ), ..., f (un ),
exprimées dans la base D = {v1 , . . . , vm }. On note A = M (f, B, D) = MB,D (f) (matrice associée
à f relativement aux bases B et D).
f (u1 ) = a11 V1 + a21 V2 + · · · + am1 Vm
f (u2 ) = a12 V1 + a22 V2 + · · · + am2 Vm
f (u3 ) = a13 V1 + a23 V2 + · · · + am3 Vm
.. .. . .
. . + .. + · · · + ..
=
a1n V1 + a2n V2 + · · · + amn Vm
f (un ) =
2. La matrice d'une application linéaire dépend des bases de l'espace de départ et de l'espace
d'arrivée.
3. M (f, B, D) signie la matrice de l'application linéaire relativement aux bases B et F, ou
la matrice associée à f dans les bases B et D.
Exemple 6.10.
f : R2 −→ R4
X
(x,y) 7−→ (x + y, 2x − y, 3x + 4y, x − y)
f (e1 ) f (e2 )
1 1 1
2 −1 2
M (f, B, D) =
3 4 3
1 −1 4
f : R2 −→ R4
X
(x,y) 7−→ (x + y, 2x − y, 3x + 4y, x − y)
Soit D = {1 , . . . , 4 } la base canonique de R4 et B 0 = {e01 , . . . , e02 } = {(1, 1); (1, 2)} une
base de R2 . A0 = M (f, B 0 , D) est la matrice associée à f dans les bases B' et D.
f (e01 ) f (e02 )
2 3 1
1 0 2
M (f, B 0 , D) =
7 11 3
0 −1 4
g: R3 [x] −→ R3 [x]
X
P(x) 7−→ d
dx
(P (x)) − P (x)
Remarque 6.10.
f : Kn −→ Kn
est une application linéaire, appelée application linéaire
X 7−→ fA (X) = A · X
associée à A.
En eet, Soient X, X 0 ∈ Km ,
1. fA (X + X 0 ) = A · (X + X 0 ) = A · X + A · X 0 = fA (X) + fA (X 0 ),
2. Soient α ∈ K, X ∈ K m ,
fA (α · X) = A · (α · X) = (A · α) · X = (α · A) · X = α · fA (X).
1 −1 2 3
f : R4 −→ R3
Exemple 6.11. A = 0 1 2 3 ∈ M3,4 (R).
X 7−→ fA (X) = A · X
4 −1 2 7
x x
1 −1 2 3
y y
fA (x, y, z, t) = A · = 0 1 2 3 ·
z z
4 −1 2 7
t t
= (x − y + 2z + 3t, y + 2z + 3t, 4x − y + 2z + 7)
Preuve 6.1.
1. Ψ est-elle linéaire ?
Soient f et g de LK (E, F), α, β ∈ K.
et comme à tout élément A ∈ Mn,m (K), on peut associer une unique application linéaire,
Ψ est surjective.
De plus,
Remarque 6.11.
M (f + g, B, D) = M (f, B, D) + M (g, B, D)
M (f 2 , B) = (M (f, B))2
M (f n , B) = (M (f, B))n
6.4.1 Généralités
Dénition 6.9. Soit A une matrice carrée d'ordre n à coecients dans K. On dit que A est
inversible ou (régulière), s'il existe une matrice carrée A' d'ordre n telle que A·A0 = A0 ·A = In .
Notation 6.3. La matrice A' est appelée l'inverse de A, et est notée A−1 = A0 .
Remarque 6.12.
X Polynôme caractéristique.
Soit P (x) un polynôme admettant 1 coecient constant non nul et A ∈ Mn (K).
Proposition 6.4. Si A est une racine de P(x) , alors A est inversible.
Preuve 6.2. P (x) = a0 + a1 x + a2 x2 + · · · + am xm avec ai ∈ K, 0 ≤ 1 ≤ m.
a0 6= 0 ⇒ a0 inversible, i.e ∃a00 ∈ K tel que a0 · a00 = a00 · a0 = 1K .
A est une racine de P (x) ⇒ P (A) = 0
P (A) = a0 · In + a1 · A + · · · + am Am = 0.
Exemple 6.13.
0
−1 1 −1 1 1 1 0 0
1 1 0 0 L1 L1 = L1
0
1 −1 1 0 1 0
L2 ∼ 0 0 2 1 1 0
L2 = L2 + L1
1 −1 0 0 1 L03 = L3 + L1
1 L3 0 2 0 1 0 1
L”1 = L01
−1 1 1 1 0 0
∼ 0 2 0 1 0 1 L”2 = L02 ∼
0
0 0 2 1 1 0
L”3 = L3
(3)
L1 = −2L”1 + L”3
2 −2 0 −1 1 0
∼ 0 2 0 1 0 1 L(3) 2 = L” 2
(3)
0 0 2 1 1 0 L3 = L”3
(4) (3) (3)
2 0 0 0 1 1 L1 = L2 + L1
∼ 0 2 0 1 0 1 L(4) 2 = L
(3)
2
(4) (3)
0 0 2 1 1 0 L3 = L3
(5) (4)
1 0 0 0 12 21 L1 = 12 L1
1 1 (5) 1 (4)
∼ 0 1 0 2 0 2
L2 = 2 L2
1 1 (5) (4)
0 0 1 0 L3 = 12 L3
2 2
D'où
1 1
0 2 2
A−1 = 12 0 1
2
1 1
2 2
0
Théorème 6.1. Soit A ∈ Mn (K), alors les conditions suivantes sont équivalentes :
1. A est inversible ;
2. t A est inversible ;
3. Les lignes de A sont linéairement indépendantes ;
4. Les colonnes de A sont linéairement indépendantes ;
5. Rg(A) = n
Dénition 6.10. Soit A = (aij ) 1≤i≤n ∈ Mn,m (K) .
1≤j ≤m
On appelle rang de A, le rang du système constitué par les vecteurs lignes ou colonnes de la
matrice A. On note Rg(A.
0 1 1
Exemple 6.14. Soit A = 1 0 1.
1 1 0
0 1 1 u1
1 0 1 u2 =⇒ {u1 , u2 , u3 } est libre.
1 1 0 u3
Donc A est inversible.
Remarque 6.13. Soit f ∈ LK (E, F) et B une base de E, et B' une base de F. Alors f est
bijective si et seulement si M (f, B, B 0 ) est inversible.
6.5.1 Généralités
Matrices équivalentes
Dénition 6.11. Soient A, B ∈ Mn,p (K) On dit que A et B sont équivalentes si et seulement
si s'il existe une matrice inversible P d'ordre p et s'il existe une matrice inversible Q d'ordre n
telles que B = Q−1 · A · P .
Exemple 6.15. 1. Les matrices d'une même application linéaire sont équivalentes.
2.
f : R2 −→ R4
(x,y) 7−→ (x + y, 2x − y, 3x + 4y, x − y)
Soit B = {e1 , e2 } la base canonique de R2 , B 0 = {e01 , e02 }, avec e01 = (1, 1) et e02 = (1, 2)
D = {1 , 2 , 3 , 4 } base canonique de R4 .
1 1
2 −1
A = M (f, B, D) =
3 4
1 −1
2 3
1 0
A0 = M (f, B 0 , D) =
7 11
0 −1
A et A' sont des matrices équivalentes.
Remarque 6.14. Deux matrices sont équivalentes si et seulement si elles ont même rang.
Matrices semblables
Dénition 6.12. Soient A et B deux matrices de Mn (K).
On dit que A et B sont semblables si et seulement s'il existe une matrice inversible P d'ordre
n telle que B = P −1 · A · P .
g: R2 −→ R2
(x,y) 7−→ (x − y, 2x + y)
1 −1
A=
2 1
B 0 = {e01 , e02 } est une base de R2 avec e01 = (−1, 1) et e02 = (1, 2).
A0 = M (g, B 0 ) est la matrice associée à g dans la base B'. on a
g(e01 ) = −2e1 − e2
0
e1 = −e1 + e2
0 et
g(e2 ) = −1e1 + 4e2 e02 = e1 + 2e2
tr : Mn (K) −→ K
(aij ) 1 ≤ i ≤ n 7−→ tr(A) = a11 + a22 + · · · + ann
1≤j ≤n
P = (αij ) 1≤i≤n
1≤j ≤n
e01 = (1, 1) = 1 · e1 + 1 · e2
1 1
=⇒ P =
e02 = (1, 2) = 1 · e1 + 2 · e2 1 2
Soit P' la matrice de passage de la base C' à la base C :
0
e1 = 2 · e01 − 1 · e02
e1 = 1 · e1 + 1 · e2 2 −1
=⇒ 0
=⇒ P = et P −1 = P
e02 = 1 · e1 + 2 · e2 e2 = −1 · e01 + ·e02 −1 1
X (R3 , +, ·). Soit C1 = {e1 , . . . , e3 } la base canonique, et C2 = {e01 , . . . , e03 } une autre base
R3 telle que
0
e1 = (0, 1, 1) = 0 · e1 + 1 · e2 + 1 · e3
e0 = (1, 0, 1) = 1 · e1 + 0 · e2 + 1 · e3
20
e3 = (1, 1, 0) = 1 · e1 + 1 · e2 + 0 · e3
0 1 1
P = 1 0 1
1 1 0
P 0 = P −1 est la matrice de passage de C2 à C1 .
Remarque 6.17. Soient B et B' deux bases de E, alors la matrice de passage de B à B' est
identique à la matrice associée à :
IdE : E −→ E
X 7−→ X
Preuve 6.4. On a B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n }, IdE (u0i ) = u0i , ∀i(1 ≤ i ≤ n).
6.5.3 Eet d'un changement de bases sur les composantes d'un vecteur
Soient B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n }, deux bases de E K-e.v et P la matrice de
passage de la base B à la base B'.
Exemple 6.18.
1. (R2 , +, ·), et soit C = {e1 , e2 } sa base canonique. C 0 = {e01 , e02 } une autre base R2 , telle
5
que e1 = (1, 1) et e2 = (1, 2). Soit X =
0 0
la matrice de V = (5, 6) ∈ R2 .
6
1 1
Soit P la matrice de passage de C à C', on sait que P = et
1 2
2 −1 4
−1
P = . Puisque X = P · X , on obtient X =
0 −1 0
, composantes de V
−1 1 1
dans C'.
2. (R3 , +, ·)
Posons : B = {e1 , . . . , e3 } et B 0 = {e01 , . . . , e03 }, B est la base canonique de R3 , et B' en
est une autre base, telle que e01 = (1, −1, 1), e02 = (1, −1, 1), e03 = (1, 1, −1). La matrice
de passage de B à B' est :
1 1
−1 1
1 0 2 2
P = 1 −1 1 et P = 12 0 12
−1
1 1
1 1 −1 2 2
0
2
Pour V = (2, 3, 4) ∈ R on pose : X = 3 ; on a :
3
4
1 1
0 2 2 2 7
0 1 1 1
X = 2 0 2 · 3 = · 6
1 1 2
2 2
0 4 5
1
V = (7e01 + 6e02 + 5e03 )
2
A0 = Q−1 · A · P .
Preuve 6.5.
f : E −→ F
x 7−→ y = f(x)
Soit x ∈ E, X la matrice des composantes de x dans la base B, et X' les composantes de x dans
la base B'. On a : X 0 = P −1 ·X . f(x) = y , soit Y la matrice des composantes de y dans la base D
et Y' ses composantes dans la base D'. On a Y 0 = Q−1 · Y . y = f(x) ⇒ Y = A · X; Y 0 = A0 · X 0 .
Y ∈ Mm,1 (K), A ∈∈ Mm,n (K), X ∈ Mn,1 (K), A · X ∈∈ Mm,1 (K).
Exemple 6.19.
ϕ: R3 −→ R2
(x,y,z) 7−→ (x + 2y + z, 2x − y − z)
Dans cet exemple, C et C' représentent respectivement la base canonique de R3 , et l'autre
base utilisée dans les exemples précédents. De même, D et D' représentent respectivement la
base canonique de R2 et l'autre base de R2 couramment utilisée dans les exemples précédents
également.
1 2 1
Soit A = M (f, C, D) : matrice associée à f dans les bases C et D. On a : A = .
2 −1 −1
A0 = M (f, C 0 , D0 ) : matrice associée à f dans les bases C' et D'. On a : A0 = Q−1 · A · P , où
P : matrice de passage de C à C' ; Q : matrice de passage de D à D'.
1 0 0
2 −1
On rappelle que P = 0 1 0 et que Q = −1
.
−1 1
0 0 1
Donc :
1 0 0
2 −1 1 2 1
A0 = · · 0 1 0
−1 1 2 −1 −1
0 0 1
Une autre méthode : A0 = M (f, C 0 , D0 ) =?
0 0 0
f(e1 ) = α1 · 1 + α2 · 2
f(e02 ) = β1 · 01 + β2 · 02
f(e03 ) = γ1 · 01 + γ2 · 02
0 α1 β1 γ1
A =
α2 β2 γ2
Exercices 1.
1 −3
1 −3 3 4 7
A1 = , A 2 = 4 6 , A 3 =
−2 0 4 5 −2
0 2
1 2 1 5
A4 = 4 , A5 = (−1, 2, −10), A6 = 7 4 3
5 8 9 0
1 1 1
Í2 On considère la matrice A = 0 1 1 et on pose B = A − I .
0 0 1
Calculer B n pour n ∈ N, et en déduire l'expression de An .
2 −1 2
Í3 Soit A = 5 −3 3 .
−1 0 −2
1. Calculer (A + I)3 .
2. En déduire que A est inversible.
Í4 Soit fR3 −→ R3 l'endomorphisme dont la matrice dans la base canonique C = {e1 , e2 , e3 }
0 1 0
est A = −1 2 0
1 0 −1
1. Montrer que A3 − A2 − A + I3 = 0.
En déduire que A est inversible et calculer A−1 .
2. Que peut-on dire de f .
Í5 Soit C = {e1 , e2 , e3 } la base canonique de R3 , et f l'endomorphisme de R3 dénie par
f(x, y, z) = (2x − y, x + y + z, −x + 2y + 2z)
1. Déterminer la matrice associée à f par rapport à la base C.
2. Soit B = {1 , 2 , 3 } avec 1 = (0, 1, 1), 2 = (1, 0, 1) et 3 = (1, 1, 0).
(a) Vérier que B est une base de R3 , et donner la matrice associée à f dans la base
B.
(b) Déterminer la matrice associée à f par rapport aux bases B et C, puis la matrice
associée à f par rapport aux bases C et B.
(c) Donner les matrices de passage de B à C, et C à B.
(d) En déduire la matrice associée à f dans la base B.
Í6 Calculer l'inverse des matrices suivantes par la méthode de Gauss :
−1 1 1 1
1 2 0
1 1 −1 1
0
A = 3 −1 1 ; A =
1 −1 1 1
0 1 2
1 1 1 −1
Í9 Soit Ma = 0 1 2a
0 0 1
1. Montrer que Ma · Mb = Ma+b . En déduire que Ma est inversible, et calculer (Ma )−1 .
2. Calculer (Ma )n .
Í10 Soit
ϕ: R2 [x] −→ R2 [x]
d
P (x) 7−→ ϕ(p(x)) = p(x) + dx
(P (x))
Soit C la base canonique de R2 [x], et considérons les éléments suivants :
Q0 = 1 + x
Q1 = x + x2
Q2 = 1 + x2
B = {Q0 , Q1 , Q2 }
Contents
7.1 Déterminant d'une matrice carrée . . . . . . . . . . . . . . . . . . . 95
ε: Sn −→ {−1, 1}
σ 7−→ Aε(σ) = (−1)I(σ) = (−1)k
avec I(σ) = nombre d'inversions de σ .
a11 a12 a1n
a21 a22 a2n
Remarque 7.1. Si C1 = .. , C2 = .. , ..., Cn = .. sont les n colonnes de A,
. . .
an1 an2 ann
alors :
det(A) = detB (C1 , . . . , Cn )
Exemple 7.1.
1 2 1 2
S2 = {Id, σ1 }, Id = , σ1 = .
1 2 2 1
det(A) = ε(Id) · a11 · a22 + ε(σ1 ) · a21 · a12 = a11 · a22 − a21 · a12 .
2. Soit A = (aij ) 1≤i≤3 ∈ M3 (R).
1≤j ≤3
X
det(A) = ε(σ)aσ(1)1 aσ(2)2 aσ(3)3
σ∈S3
S3 = {Id, σ1 , . . . , σ5 }, on a :
1 2 3 1 2 3
Id = σ1 =
1 2 3 1 3 2
1 2 3 1 2 3
σ2 = σ3 =
3 2 1 2 1 3
1 2 3 1 2 3
σ4 = σ5 =
2 3 1 3 1 2
det(A) = ε(Id)a11 · a22 · a33 + ε(σ1 )a11 · a32 · a23 + ε(σ2 )a31 · a22 · a13
+ε(σ3 )a21 · a12 · a33 + ε(σ4 )a21 · a32 · a13 + ε(σ5 )a31 · a12 · a23
ε(Id) = 1
ε(σ1 ) = −1 (σ1 est une tranposition)
..
.
ε(σ2 ) = −1
..
ε(σ3 ) = −1 .
car σ4 = (1 2 3) = (1 2)(2 3)
ε(σ4 ) = 1
ε(σ5 ) = 1 car σ5 = (1 3 2) = (1 3)(3 2)
det(A) = a11 · a22 · a33 − a11 · a32 · a23 − a31 · a22 · a13
−a21 · a12 · a33 + a21 · a32 · a13 + a31 · a12 · a23
Propriété 7.1.
Conséquences 7.1.
Dénition 7.2. On appelle mineur d'ordre (i,j) ou mineur relativement à l'élément aij , le
déterminant ∆ij = det(Aij ) d'ordre n-1 obtenu en supprimant dans A la i-ème ligne et la j-ème
colonne.
Suppression de la +
y
j-ème colonne de A
a11 a12 ... a1j ... a1n
a21 a22 ... a2j ... a2n
.. .. ..
. . | . Suppression de la
∆ij =
−ai1 − −ai2 − − − − − − −aij − − − − − − −ain − | i-ème ligne de A ←
−+
.. .. ..
. . | .
an1 an2 ... anj ... ann
Dénition 7.3. On appelle cofacteur relatif à aij ( associé à aij ) dans A, le scalaire (−1)i+j ∆ij
(produit de (−1)i+j par le mineur d'ordre (i,j)).
Remarque 7.3. On appelle rangée d'une matrice ou d'un déterminant, toute ligne ou colonne
d'une matrice ou du déterminant.
Proposition 7.1. Soit A = (aij ) 1≤i≤n ∈ Mn (K) .
1≤j ≤n
2.
1 2 3
1+1 5 6 1+2 4 6 1+3 4 5
d = 4 5 6 = 1×(−1) +2×(−1) +3×(−1) 7 8 = −3+12−9 = 0
7 8 9 8 9 7 9
Remarque
7.4. (Méthode de Sarrus)
a b c
Soit A = a0 b0 c0 .
a” b” c”
+ a b c −
a b c
a0 b 0 c 0
det(A) = a0 b0 c0 = a” b” c”
a” b” c”
a b c
0
a b0 c 0
W Le déterminant est laissé invariant si l'on développe suivant n'importe quelle rangée,
W On ne change pas la valeur d'un déterminant en remplaçant une ligne par la somme de
cette ligne et une combinaison linéaire des autres lignes,
W On ne change pas aussi la valeur du déterminant en remplaçant une colonne par la somme
de cette colonne, et par une combinaison linéaire des autres colonnes.
Exemple 7.3.
C1 C2 − 2C1 C3 − 3C1
1 2 3 1 0 0
1+1 −3 −6
d = 4 5 6 = 4 −3 0 = 1 × (−1)
=0
−6 −12
7 8 9 7 −6 −12
Remarque 7.5.
α1 a11 α1 a12 . . . α1 a1n a11 a12 . . . a1n
α2 a21 α2 a22 . . . α2 a2n a21 a22 . . . a2n
.. .. .. .. = α1 · α2 · · · αn · .. .. .. .
. . . . . . . ..
αn an1 αn an2 . . . αn ann an1 an2 . . . ann
A · Ã = Ã · A = det(A) · In
Corollaire 5. Si A est une matrice inversible, alors det(A) 6= 0, on a :
1 t
(A∗ )
A−1 = · Ã =
det(A) det(A)
Exemple 7.5.
1 −1 1
X On pose A = −1 1 1 .
1 1 −1
1 −1 1 1 −1 1 L1
L1
det(A) = −1 1 1 L2 = 0 0 2 L2 + L1
1 1 −1 L3 0 2 0 L3 + L2
0 2
= 1 × (−1)1+1 · = −4 6= 0
2 0
Donc A est inversible.
1
A−1 = × (t (A∗ ))
det(A)
1 1 −1 1 −1 1
+ 1 −1 − 1 −1 + 1 1
−1 1 1 1 1 −1
A∗ = −
+ −
1 −1 1 −1 1 1
−1 1
+ 1 −1
1 1
+ −
1 1 −1 1 −1 1
−2 0
2
A∗ = 0 −2 −2
−2 −2 0
1
0 21
−1 2
A =
0 12
Dénition 7.6. On appelle déterminant extrait de A, tout déterminant d'une matrice carrée
extraite de A.
Proposition 7.2. Soit A ∈ Mn,m (K) non nulle. Alors le rang de A est le plus grand entier r
tel que l'on puisse extraire de A au moins une matrice carrée inversible d'ordre r.
Autrement dit, le rang de A est l'ordre maximal d'une matrice carrée inversible extraite de A,
appelée matrice principale de A.
1 −1 1 2
1 −1 1
Pour A1 = 1 −2 0 , det(A1 ) = 0
0 1 1
1 1 2
Pour A2 = 1 0 −2 , det(A2 ) = 0
0 1 4
−1 1 2
1 −1 2
Où nx , . . . , nn sont des inconnues du système. Les (aij ) 1≤i≤m sont les coecients du système.
1≤j ≤n
Dénition 7.8. On dit que le système (S) est de Cramer si et seulement si m = n et det(A) 6=
0.
et A = (aij ) 1≤i≤m est la matrice des coecients du système (ou matrice du système). Alors
1≤j ≤n
les conditions suivantes sont équivalentes :
(S) admet une unique solution.
A est inversible.
det(A) 6= 0.
Formules de Cramer
Soit (S) un système de Cramer. La solution unique de (S), est donnée par les formules :
∆i
xi = (1 ≤ i ≤ n)
∆
Mr Mamadou BARRY ©ENSAE/FAST/UCAD 2013
Application des déterminants 103
∆1 ∆2 ∆n
S = {( , , ..., )}
∆ ∆ ∆
Exemple 7.7. Résolvons le système
−x + y + z = 1 −1 1 −1 1
1 1
x − y + z = 2 , avec A = 1 −1 1 , ∆ = 1 −1 1 = 4 6= 0
x+y−z =3 1 −1 1 −1
1 1
Soit (S) un système de m équations linéaires à n inconnues, A = (aij ) 1≤i≤m la matrice des
1≤j ≤n
x = 12 (6 − 3z − 5t)
y = 12 (4 − z − 3t)
1 1
S = {( (6 − 3z − 5t); (4 − z − 3t), z, t)}
2 2
Diagonalisation
Contents
8.1 Les éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Dénition 8.1. Un vecteur X ∈ E est appelé vecteur propre de f si les conditions suivantes
sont vériées :
* X 6= OE ;
* ∃λ ∈ K tel que f(X) = λ · X ; le scalaire λ est appelé valeur propre associé à X.
Dénition 8.2. Un scalaire λ ∈ K est dit valeur propre de f s'il est racine du polynôme :
Preuve 8.1.
1. Espace vectoriel.
2. Sous-espace vectoriel.
* f(OE ) = OE = λ · OE =⇒ OE ∈ Eλ , Eλ 6= φ ;
* Soient X1 , X2 ∈ Eλ et α1 , α2 ∈ K :
X1 ∈ Eλ =⇒ f(X1 ) = λ · X1
X2 ∈ Eλ =⇒ f(X2 ) = λ · X2
Remarque 8.1. Si λ est d'un valeur propre de f . Alors ∃X 6= OE tel que X ∈ Ker(f − IdE ).
Théorème 8.1. Soit f ∈ LK (E) et E un K-e.v de dimension nie. Alors les conditions suiv-
antes sont équivalentes :
1. λ est une valeur propre de f,
2. f − λ · IdE n'est pas injective.
Preuve 8.2.
⇒ 3 ) On suppose que λ est une valeur propre de f .
Donc, il existe X 6= OE tel que f(X) = λ · X . Ce qui implique que (f − λ · IdE )(X) = OE . Donc,
f − λ · IdE n'est pas injective car, Ker(f − λ · IdE ) 6= OE .
⇐ 4 ) Si f − λ · IdE n'est pas injective, alors ∃u 6= OE tel que (f − λ · IdE )(u) 6= OE . Donc
f(u) = λ · u. D'où λ est une valeur propre de f .
Théorème 8.2. Soit f ∈ LK (E) et E un K-e.v de dimension nie. Si λ1 et λ2 sont deux valeurs
propres distinctes de f , alors, Eλ1 ∩ Eλ2 = {OE }, où Eλ1 est le s.e.v propre associé à λ1 , et Eλ2
est le s.e.v propre associé à λ2 .
Remarque 8.2. Si λ est une valeur propre de f , alors f − λ · IdE n'est pas bijective, c'est à dire
que :
det(f − λ · IdE ) = det(A − λ · In ) = 0
PA (x) = det(A − x · In )
Remarque 8.3. Les valeurs propres de A sont les racines du polynôme PA (x).
a11 − x a12 ... a1n
a21 a22 − x . . . a2n
A = (aij ) , A − x · In = . .. .. ..
..
1≤i≤n
1≤j ≤n . . .
an1 an2 . . . ann − x
1 0 ... 0 x 0 ... 0
0 1 . . . 0 0 x . . . 0
In = . .. . . .. =⇒ x · I = .. .. . . ..
..
n
. . . . . . .
0 0 ... 1 0 0 ... x
a11 − x a12 ... a1n
a21 a22 − x ... a2n
PA (x) = det(A − x · In ) = . .. .. ..
.. . . .
an1 an2 . . . ann − x
Exemple 8.1.
1 2
1. f : R −→ R un endomorphisme dont la matrice dans la base canonique est
2 2
.
−1 4
On a :
1 − x 2
PA (x) = det(A − x · I2 ) = = x2 − 5x + 6
−1 4 − x
On trouve det(A) = 6 ; tr(A) = 5 ; ∆ = 25 − 24 = 1 =⇒ λ1 = 2, λ2 = 3 sont les valeurs
propres de la matrice A ou de f .
−1 − x 1 1 L1
PA (x) = det(A − x · I3 ) = 1
−1 − x 1 L2
−1 − x L3
1
1
1 − x L01 =
1 − x 1 − x L1 + L2 + L3
= 1
−1 − x 1 L02 = L2
−1 − x L03 =
1
1 L3
= L01
1 1 1 L”1
0 0
= (1 − x) 1 −1 − x 1 L”2 = L2 − L1
−1 − x L”3 = L03 − L01
1
1
1 1 1
= (1 − x) 0 −2 − x 0
0 0 −2 − x
−2 − x 0
= (1 − x)(1)
0 −2 − x
Exemple 8.2.
−1 1 1 1
1 −1 1 1
A= =⇒ Spec(A) = {1; −2}
1 1 −1 1
1 1 1 −1
Théorème 8.4. Soit f ∈ LK (E) et dim(E) = n. Si λ est une valeur propre de f d'ordre de
multiplicité α, alors : 1 ≤ dim(Eλ ) ≤ α .
8.2 Diagonalisation
Dénition 8.6. On dit qu'une matrice carrée d'ordre n A est diagonalisable s'il existe une
matrice carrée P telle que P −1 .A.P soit une matrice diagonale.
On a : e01 , . . . , e0n sont des vecteurs propres associés respectivement aux scalaires λ1 , . . . , λn .
⇐) Si E admet une base formée de vecteurs de E,
e = {1 , . . . , n } et f(i ) = λ · i avec 1 ≤ i ≤ n.
f : R2 −→ R2
1 2
Exemple 8.4. A = ,
−1 4 X 7−→ A · X
PA (x) = (x − 2)(x − 3); E2 = V ect({V }); V = (2; 1) ; E3 = V ect({V 0 }) ; V 0 = (1; 1)
B = {V, V 0 } est une base de R2 , donc f est une diagonalisable, d'où A es diagonalisable .
Soit P la matrice de passage de la base canonique C de R2 , à la base B. On a :
2 1 −1 2 0
P = ;P · A · P = D = A =
1 1 0 2
−1 1
1
ϕ : R3 −→ R3
Exemple 8.5. A = 1 −1 1 ,
X 7−→ A·X
1 1 −1
−1 − x 1 1
PA (x) = 1 −1 − x 1 = −(x − 1)(x + 2)2
1 1 −1 − x
Spec(A) = {1; −2} ; E1 = {X ∈ R3 /A · X = X} . Soit X = (x, y, z) ∈ E1 . On a :
−2x + y − z =0
x − 2y + z =0
x + y − 2z
=0
E2 = lin({w0 , w”}). {w0 , w”} libre =⇒ {w0 , w”} est une base de E−2 .
Donc dim(E−2 ).
2−x 2 − x
0 4 0 4
A − x · I3 = 3 −4 − x 12 ; det(A − x · I3 ) = 3 −4 − x 12
−4 −2 5−x −4 −2 5 − x
u1 u2 u3
−4 −4 2
P = 3 0 1
2 1 0
= Diag(0, 1, 2)
On a : A0 = P −1 · A · P .
Ak = (P · A0 · P −1 )k = P k · A0k · (P −1 )k = P · A0k · P −1
α1k 0
α1 0 ... 0 ... 0
0 α2 ... 0 0 α2k ... 0
A0 = .. .. .. .. =⇒ A0k = .. .. .. ..
. . . . . . . .
0 0 . . . αn 0 0 ... αnk
B = {w1 , w2 } est une base de R2 ; C est la base canonique. Soit P la matrice de passage de
C à B.
1 1
P = ; A = P · A0 · P −1
−1 −2
n+1
− 3n 2n+1 − 2 · 3n
n 0n −1 2
A =P ·A ·P =
−2n + 3n −2n + 2 · 3n
n Un n n U0
Xn = A · X0 ⇐⇒ = A · X0 = A ·
Vn V0
Puis on détermine Un et Vn .
dx
=x−y x dX
dt
dy , X= , = A · X, avec
dt
= 2x + 4y y dt
1 −1
A=
2 4
dx
x 1 −1 x
Exemple 8.8. X= , dX
dt
dt
= A · X, dy = ·
y dt
2 4 y
2 0 1 1
1. A0 = P −1 · A · P , A0 = , P =
0 3 −1 −2
dX 0
2. = A0 · X 0 ; X 0 = P −1 · X ⇒ X = P · X 0 .
dt
0
dx 0 0
dt 2 0 x 0 x
dy 0 = · 0 ;X =
0 3 y y0
dt ( 0 ( 0
dx 0 dx
dt0
= 2x x00
= 2dt
dy =⇒ dy
dt
= 3y 0 y0
= 3dt
´ dx0 ´
x0
= 2dt; ln |x0 | = 2t + c; |x0 | = e2t+c ; x0 = c1 e2t .
0 2t
x ce
0 2t 0 3t
x = c1 e ; y = c2 e ⇒ 0 = 1 3t
y c2 e
Or X = P · X 0
0 2t
x 1 1 ce
0 = · 1 3t
y −1 −2 c2 e
2t 3t
c1 e + c2 e
=
−c1 e2t − 2c2 e3t
x = c1 e2t + c2 e3t