Sunteți pe pagina 1din 125

Universit Mohamed Chrif Messaadia de Souk-Ahras

Facult des Sciences et Technologie


Dpartement des Mathmatiques et Informatique

Cours dAnalyse Numrique 2


Conformment aux programmes
LMD : Mathmatiques appliques
Mathmatiques et informatique

Dr. BELLOUFI MOHAMMED

Site web :http ://www.univ-soukahras.dz/fr/prole/mbellou


E-mail : mbellou_doc@yahoo.fr

Avr 2015

Table des matires


Introduction Gnrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 Rsolution des systmes linaires


1.1 Quelques rappels dalgbre linaire . . . . . . . . . . . . . .
1.1.1 Norme induite . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Rayon spectral . . . . . . . . . . . . . . . . . . . . .
1.1.3 Matrices diagonalisables . . . . . . . . . . . . . . . .
1.2 Mthodes directes . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Mthode de Gauss . . . . . . . . . . . . . . . . . . .
1.2.2 Mthode de Gauss-Jordan . . . . . . . . . . . . . . .
1.2.3 Stratgie du choix du pivot . . . . . . . . . . . . . .
1.2.4 Stratgie du pivot total . . . . . . . . . . . . . . . . .
1.2.5 La mthode L:U . . . . . . . . . . . . . . . . . . . .
1.2.6 Mthode de Cholesky . . . . . . . . . . . . . . . . . .
1.3 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Le problme des erreurs darrondis . . . . . . . . . .
1.3.2 Conditionnement et majoration de lerreur darrondi
1.4 Mthodes itratives . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Dnition et proprits . . . . . . . . . . . . . . . . .
1.4.2 Mthodes de Jacobi, Gauss-Seidel et SOR/SSOR . .
1.5
Travaux dirigs 1 . . . . . . . . . . . . . . . . . . . . . . .
2

Calcul des valeurs et vecteurs propres


2.1 Mthode de la puissance . . . . . . . . . . . . .
2.2 Calcul de la valeur propre de plus petit module
2.3 Calcul dautres valeurs propres . . . . . . . . . .
2.4 Algorithme QR . . . . . . . . . . . . . . . . . .
2.5 Mthode de Jacobi . . . . . . . . . . . . . . . .
2.6
Travaux dirigs 2 . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

4
4
4
5
6
7
8
11
14
16
17
19
20
21
21
22
22
24
30

.
.
.
.
.
.

45
45
48
48
49
52
54

3 Rsolution dquations et systmes non linaires


60
3.1 Racines de lquation f (x) = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2 Sparation des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.1 Mthode graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1

3.2.2 Mthode de balayage . . . . . . . . . . . . . . . . .


3.3 Approximation des racines : Mthodes itrative . . . . . .
3.3.1 Mthode de Newton-Raphson . . . . . . . . . . . .
3.3.2 Mthode de Newton-Raphson pour deux inconnues
3.3.3 La mthode de Newton-Raphson et les polynme .
3.3.4 Mthode de point xe . . . . . . . . . . . . . . . .
3.3.5 Acclration de la convergence . . . . . . . . . . . .
3.3.6 Convergence de la mthode de newton-Raphson . .
3.3.7 Mthode de la scante . . . . . . . . . . . . . . . .
3.3.8 Mthode de dichotomie . . . . . . . . . . . . . . . .
3.4
Travaux dirigs 3 . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

4 Rsolution numrique des quations direntielles ordinaires


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Mthodes numriques un pas . . . . . . . . . . . . . . . . . .
4.2.1 Mthode DEULER . . . . . . . . . . . . . . . . . . . . .
4.2.2 Mthode de Taylor (dordre2) . . . . . . . . . . . . . . .
4.2.3 Mthode du point milieu . . . . . . . . . . . . . . . . . .
4.2.4 Mthode de Runge-Kutta . . . . . . . . . . . . . . . . .
4.3 Mthode numriques pas multiples . . . . . . . . . . . . . . .
4.3.1 Mthode dAdams-Bashforth . . . . . . . . . . . . . . . .
4.3.2 Mthode dAdams-Moulton . . . . . . . . . . . . . . . .
4.3.3 Mthode de prdiction-correction . . . . . . . . . . . . .
4.4 Autres Mthodes . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Mthode dAdams . . . . . . . . . . . . . . . . . . . . .
4.4.2 Mthode des approximations successives (Picard ) . . . .
4.5 Stabilit des solutions . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1 Cas dun systme linaire coe cients constants . . . .
4.5.2 Ptite perturbation dun systme linaire . . . . . . . . .
4.6
Travaux dirigs 4 . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

dordre
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

63
64
65
67
69
70
74
76
78
79
81

1
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

93
93
94
94
96
99
100
103
104
105
107
107
107
111
113
113
114
115

0.1. INTRODUCTION GNRALE

0.1

Introduction Gnrale

Daprs les historiens, le calcul numrique remonte au moins au troisime millnaire avant
notre re. Il est lorigine favoris par le besoin deectuer des mesures dans dirents domaines
de la vie courante, notamment en agriculture, commerce, architecture, gographie et navigation ainsi quen astronomie. Il semble que les Babyloniens (qui peuplaient lactuelle Syrie/Iraq)
sont parmi les premiers raliser des calculs algbriques et gomtriques alliant complexit
et haute prcision. Surtout, ils donnent une importance et un sens au placement relatif des
chires constituant un nombre, cest--dire introduire la notion de base de dnombrement, en
loccurrence, la base sexagsimale que nous avons ni par adopter dans certains domaines. Ils se
distinguent ainsi dautres civilisations, mme bien plus rcentes, qui dveloppent des mthodes
plus lourdes, en introduisant une plthore de symboles. Il y a environ 3500 ans, les populations
de la valle de lIndus (rgions de lInde et du Pakistan) introduisent les notions de zro et
emploient les nombres ngatifs. Il adapte galement le systme de comptage Babylonien au
systme dcimal qui est le ntre aujourdhui. Ces premiers outils de calcul sont largement dvelopps par la suite par les Grecs, puis transmis en Europe par lintermdiaire des civilisations
musulmanes peuplant le bassin mditerranen.
Le calcul numrique tel que nous le concevons pratiquement aujourdhui connat son premier
vritable essor partir du XVIIme sicle avec les progrs fulgurants des Mathmatiques et
de la Physique, plus ou moins lis aux observations et aux calculs astronomiques. Plusieurs
machines de calcul sont en eet construites, comme la nPascaline" invente par B. Pascal en
1643. Babbage en 1834 mais qui fonctionnait mal, ou encore le tabulateur de H. Hollerith
spcialement conu pour recenser la population amricaine, vers 1890. Il sagit bien-entendu de
machines mcaniques imposantes et dutilisation assez limite. Le manque de moyens de calcul
performants limite en fait lexpansion et la validation de certaines thories du dbut du XXme
sicle. Ce fut le cas en particulier de la thorie de la Relativit Gnrale due A. Einstein.
La Seconde Guerre Mondiale et les progrs technologiques quelle engendre va permettre au
calcul numrique damorcer un second envol. Les anglais mettent au point le premier ordinateur
en 1939, Colossus, dont la mission est de dcrypter les messages codes envoyes par lmetteur
ENIGMA de lAllemagne nazie. Cette machine introduit les concepts rvolutionnaires mis
par A. Turing dans les annes 1936 concernant lautomatisation des calculs. Les calculateurs
sont dsormais entirement lectroniques. Autre machine qui fait date dans lhistoire, le ENIAC
(nElectronic Numerical Integrator And Computer) construit en 1946. Malheureusement, ce type
de machine ne dispose pas de mmoire interne et doit tre en permanence reprogramme.
A la n des annes 1940, un certain J. von Neumann repense larchitecture des ordinateurs et introduit, entre autres, les mmoires permettant de sauvegarder les programmes, et les
concepts de hardware (matriel) et de software (logiciel). La premire machine de calcul incluant
les concepts de von Neumann (et ceux de Turing) est ainsi produite par la rme amricaine
IBM ; elle sappelle MARK I et pse 5 tonnes. Les premires applications concernent tous les
domaines sciatiques et techniques. Le FORTRAN I, un langage de programmation destine aux
scientiques, est conu ds 1954. . . mais il lui manque un vrai compilateur.
Vers la n des annes 1960, lapparition progressive des transistors et de leur assemblage
massif sur des surfaces de plus en plus rduites augmente considrablement les performances
1

des machines et permet des simulations numriques de ralisme croissant. Cet eort de miniaturisation est dailleurs impos par la course la conqute de lespace. Apparaissent ainsi en
1970 les fameux microprocesseurs mis au point par les rmes Intel et Motorola qui quipent
la majeure partie des sondes spatiales de lpoque. Le calcul numrique devient rapidement
une science part entire. Les annes 70 marquent aussi le tournant pour les langages de programmation : certains sont dnitivement produits des ns scientiques, alors que dautres
seront penss pour la gestion, comme le Cobol. Au dbut des annes 1980, lordinateur le plus
puissant du monde sappelle CRAY I. Sa forme est spcialement choisie pour optimiser la rapidit des calculs. Cest aussi le dbut de linformatique familiale avec la mise sur le march des
PERSONAL COMPUTERS DIBM
En une quinzaine dannes, la rapidit des calculateurs a t multiplie par plus de 10000.
La vitesse dexcution des oprations lmentaires se compte maintenant en dizaines de millions
de millions doprations la seconde (ou dizaines de Tra-ops, comparer la centaine de
mga -ops du CRAY I). Les capacits de stockage ont gagn 7 ordres de grandeur au moins.
Aujourdhui, toutes ces performances doublent tous les ans. Pour le monde scientique, celui de
la Recherche Fondamentale et de lIndustrie, les calculateurs et le dveloppement de techniques
de programmation spciques (comme la programmation parallle) sont devenus des outils
incontournables la connaissance et ouvrent de nouveaux horizons pour la modlisation et la
comprhension des phnomnes complexes et la mise au point de nouvelles technologies.
On regroupe sous le terme gnrique de "mthodes numriques", toutes les techniques de
calcul qui permettent de rsoudre de manire exacte ou, le plus souvent, de manire approche un problme donn. Le concept de calcul est assez vaste et doit tre pris au sens large.
Il peut sagir de dterminer linconnue dune quation, de calculer la valeur dune fonction en
un point ou sur un intervalle, dintgrer une fonction, dinverser une matrice, etc. Bien que la
mise en quation dun problme et sa rsolution passent naturellement par les Mathmatiques,
les problmatiques sous-jacentes concernent des disciplines aussi varies que la Physique, lAstrophysique, la Biologie, la Mdecine, lEconomie, etc. Il existe ainsi une grande varit de
problmes possibles avec pour chacun deux, des mthodes trs spciques. De fait, le nombre
total de mthodes numriques dont nous disposons lheure actuelle est vraisemblablement
gigantesque.
Une mthode numrique met en uvre une certaine procdure, une suite doprations, gnralement en tries grand nombre, que lon transcrira ensuite dans un langage de programmation.
Bien quune mthode numrique puisse seectuer mentalement (du moins avec
pun crayon et un
papier) comme inverser une matrice 2x2, rsoudre tan x 1 = 0, ou calculer 2, elle ncessite
dans la majorit des cas un ordinateur qui a lavantage de la rapidit (mais pas de la prcision).
Il convient ce niveau de bien direncier la partie mthode numrique, souvent indpendante
du calculateur et du langage, et la partie programmation qui met en uvre dune part lalgorithme et dautre part une suite dinstructions crites dans un langage de programmation. Bien
sr, une mthode numrique pourra dpendre de larchitecture dun ordinateur et du langage
utilis. Toutefois, lun des soucis majeurs de lutilisateur et du programmeur est dassurer
son programme une certaine portabilit, cest--dire de pouvoir lexcuter sur des machines
direntes sans avoir besoin dadaptations (trop) spciques.
Les mthodes numriques sont indispensables la ralisation de programmes de calculs ou
2

0.1. INTRODUCTION GNRALE


codes de calcul. En particulier, pour les astrophysiciens qui ne bncient pas dun laboratoire
permettant de valider leurs thories partir dexpriences renouvelables loisir et contrlables,
ces outils sont le seul moyen de simuler ou de modliser les phnomnes que nous observons,
de les interprter et de les comprendre. Rappelons que les mthodes numriques sont en eet
prsentent dans toutes les disciplines de lAstrophysique moderne : la cosmologie, linstrumentation, le traitement de donnes, la plantologie, la physique solaire, la physique des galaxies,
la physique extragalactique, etc. Sil est vrai quil existe une trs grande diversit de mthodes
numriques avec lesquelles ont peut, en pratique, quasiment tout faire, certains problmes (par
exemple en traitement du signal, en mcanique cleste ou en mcanique des uides) ont ncessit
la mise au point de mthodes trs spciques.
Lobjet de lanalyse numrique est de concevoir et dtudier des mthodes de rsolution de
certains problmes mathmatiques, en gnral issus de la modlisation de problmes rels", et
dont on cherche calculer la solution laide dun ordinateur.
Le cours est structur en quatre grands chapitres :
Rsolution des systmes linaires
Calcul des valeurs et vecteurs propres
Systmes non linaires
Equations direntielles.

Chapitre 1
Rsolution des systmes linaires
On note MN (R) lensemble des matrices carres dordre N . Soit A 2 MN (R) une matrice
inversible, et b 2 Rn , on a comme objectif de rsoudre le systme linaire Ax = b, cest dire
de trouver x solution de :
x 2 RN
(P)
Ax = b
Comme A est inversible, il existe un unique vecteur x 2 RN solution de (P). Nous allons
tudier dans les deux chapitres suivants des mthodes de calcul de ce vecteur x : la premire
partie de ce chapitre sera consacre aux mthodes directes" et la deuxime aux mthodes itratives". Nous aborderons ensuite en troisime partie les mthodes de rsolution de problmes
aux valeurs propres.
Un des points essentiels dans le cacit des mthodes envisages concerne la taille des
systmes rsoudre. Entre 1980 et 2000, la taille de la mmoire des ordinateurs a augment
de faon drastique. La taille des systmes quon peut rsoudre sur ordinateur a donc galement
augment.
Le dveloppement des mthodes de rsolution de systmes linaires est lie lvolution des
machines informatiques. Un grand nombre de recherches sont dailleurs en cours pour proter
au mieux de larchitecture des machines (mthodes de dcomposition en sous domaines pour
proter des architectures parallles, par exemple).
Dans la suite de ce chapitre, nous verrons deux types de mthodes pour rsoudre les systmes
linaires : les mthodes directes et les mthodes itratives. Pour faciliter la comprhension de
leur tude, nous commenons par quelques rappels dalgbre linaire.

1.1
1.1.1

Quelques rappels dalgbre linaire


Norme induite

Dnition 1.1.1 (Norme matricielle, norme induite) On note MN (R) lespace vectoriel
(sur R) des matrices carres dordre N .
4

1.1. QUELQUES RAPPELS DALGBRE LINAIRE


1. On appelle norme matricielle sur MN (R) une norme k:ksur MN (R) t.q.
kABk

kAk kBk ; 8A; B 2 MN (R)

2. On considre MN (R) muni dune norme k:k. On appelle norme matricielle induite (ou
norme induite) sur MN (R) par la norme k:k, encore note k:k, la norme sur MN (R) dnie par :
kAk = sup fkAxk ; x 2 Rn ; kxk = 1g ; 8A 2 MN (R)
Proposition 1 Soit MN (R) muni dune norme induite k:k. Alors pour toute matrice A 2
MN (R), on a :
1. kAxk kAk kxk ; 8x 2 Rn ;
2. kAk = max fkAxk
; kxk = 1; xo2 Rn g ;
n
; x 2 Rn n f0g
3. kAk = max kAxk
kxk
4. k:k est une norme matricielle.
Proposition 2 Soit A = (ai; j )i; j2f1;:::;N g 2 MN (R)
1. On munit Rn de la norme k:k1 et MN (R) de la norme induite correspondante, note
aussi k:k1 . Alors
N
P
kAk1 = max
jai; j j
i2f1;:::;N g j=1

2. On munit Rn de la norme k:k1 et MN (R) de la norme induite correspondante, note aussi


k:k1 . Alors
N
P
kAk1 = max
jai; j j
j2f1;:::;N g i=1

3. On munit Rn de la norme k:k2 et MN (R) de la norme induite correspondante, note aussi


k:k2 . Alors
At A

kAk2 =

1.1.2

1
2

Rayon spectral

Dnition 1.1.2 (Valeurs propres et rayon spectral) Soit A 2 MN (R) une matrice inversible. On appelle valeur propre de A tout 2 C tel quil existe x 2 CN ,x 6= 0 tel que
Ax = x. Llment x est appel vecteur propre de A associ . On appelle rayon spectral de
A la quantit (A) = max f ; 2 C, valeur propre de Ag.
Lemme 1.1.1 (Convergence et rayon spectral) On munit MN (R) dune norme, note k:k.
Soit A 2 MN (R).
Alors :
1. (A) < 1 si et seulement si Ak ! 0 quand k ! 1.
2. (A) < 1 ) lim supk!1 Ak

3. lim inf k!1 A

1
k

1
k

1.

< 1.

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


1

4. (A) = limk!1 Ak k :
5. On suppose de plus que k:k une norme matricielle (induite ou non). Alors
kAk :

(A)

Remarque 1.1.1 (Convergence des suites) Une consquence immdiate du lemme est que
si x(0) est donn et x(k) dni par x(k+1) = Ax(k) , alors la suite x(k) k2N converge vers 0 si et
seulement si (A) < 1.
Proposition 3 (Rayon spectral et norme induite) Soient A 2 MN (R) et " > 0. Il existe
une norme sur Rn (qui dpend de A et ") telle que la norme induite sur MN (R), note k:kA; "
vrie kAkA; "
(A) + ".
Lemme 1.1.2 (Triangularisation dune matrice) Soit A 2 MN (R) une matrice carre
quelconque, alors il existe une base (f1 ; :::; fN ) de C et une famille de complexes ( i; j )i=1;:::;N;j=1;:::;N;j<i
P
telles que Afi = i;i fi +
i;j fj De plus i;j est valeur propre de A pour tout i 2 f1; :::; N g.
j<i

On admettra ce lemme.
Nous donnons maintenant un thorme qui nous sera utile dans ltude du conditionnement,
ainsi que plus tard dans ltude des mthodes itratives.
Thorme 1.1.1 (Matrices de la forme Id + A) 1. Soit une norme matricielle induite, Id
la matrice identit de MN (R) et A 2 MN (R) telle que kAk < 1.
Alors la matrice Id + A est inversible et
(Id + A)

1
:
1 kAk

2. Si une matrice de la forme Id + A 2 MN (R) est singulire, alors kAk


norme matricielle k:k :

1.1.3

1 pour toute

Matrices diagonalisables

Dnition 1.1.3 (Matrice diagonalisable) Soit A une matrice relle carre dordre n. On
dit que A est diagonalisable dans R si il existe une base ( 1 ; :::; n ) et des rels 1 ; :::; n (pas
forcment distincts) tels que A i =
i pour i = 1; :::; n. Les rels 1 ; :::; n sont les valeurs
propres de A, et les vecteurs 1 ; :::; n sont les vecteurs propres associs.
Lemme 1.1.3 Soit A une matrice relle carre dordre n, diagonalisable dans R. Alors
A = P diag ( 1 ; :::;

n) P

o P est la matrice dont les vecteurs colonnes sont gaux aux vecteurs
6

1 ; :::;

n.

1.2. MTHODES DIRECTES


Lemme 1.1.4 Soit E un espace vectoriel sur R de dimension nie : dimE = n; n 2 N ; muni
dun produit scalaire i.e. dune application

qui vrie :

E E ! R;
(x; y) ! < x; y >E
8x 2 E; < x; x >E

0 et < x; x >E = 0 , x = 0;

8(x; y) 2 E ; < x; y >E =< y; x >E ;

8y 2 E; lapplication de E dans R; dnie par x !< x; y >E est linaire:


p
Ce produit scalaire induit une norme sur E, kxk = < x; x >E :
Soit T une application linaire de E dans E. On suppose que T est symtrique, c..d. que
< T (x); y >E =< x; T (y) >E , 8(x; y) 2 E 2 . Alors il existe une base orthonorme (f1 :::fn ) de E
(c..d. telle que (fi ; fj )E = i;j ) et ( 1 ; :::; n ) 2 Rn tels que T (fi ) = i fi pour tout i 2 f1:::ng.

Consquence immdiate : Dans le cas o E = Rn , le produit


P scalaire canonique de
x = (x1 ; :::; xN )t et y = (y1 ; :::; yN )t est dni par < x; y >E = x y = N
i=1 xi yi Si A 2 MN (R)
est une matrice symtrique, alors lapplication T dnie de E dans E par : T (x) = Ax est
linaire, et : < T (x); y >= Ax y = x At y = x Ay =< x; T (y) >. Donc T est linaire symtrique.
Par le lemme prcdent, il existe (f1 ; :::; fN ) et ( 1 ; :::; N ) 2 RN tels que T fi = Afi = i fi
8i 2 f1; :::; N g et fi .fj = i;j ; 8(i; j) 2 f1; :::; N g2 .
Interprtation algbrique : Il existe une matrice de passage P de (e1 ; :::; eN ) base canonique dans (f1 ; :::; fN ) dont la premire colonne de P est constitue des coordonnes de fi
dans (e1 ; :::; eN ). On a : P ei = fi . On a alors P 1 AP ei = P 1 Afi = P 1 ( i fi ) = i ei =
diag ( 1 ; :::; N ) ei , o diag ( 1 ; :::; N ) dsigne la matrice diagonale de coe cients diagonaux
1 ; :::; N On a donc :
0
i
P 1 AP =
= D:
0
N
De plus P est orthogonale, i.e. P 1 = P t . En eet,
P t P ei ej = P ei P ej =< fi ; fj >=

i;j 8i; j

2 f1:::N g;

et donc (P t P ei ei ) ej = 0 8j 2 f1:::N g 8i 2 f1; :::N g. On en dduit P t P ei = ei pour tout


i = 1; :::N ,
i.e. P t P = P P t = Id.

1.2

Mthodes directes

On appelle mthode directe de rsolution de (P) une mthode qui donne exactement x (A
et b tant connus) solution de (P) aprs un nombre ni doprations lmentaires (+; ; ; =).
Parmi les mthodes de rsolution du systme (P) on citera :
- Mthode de Gauss(mthode du pivot)
- Mthode de Gauss-Jordan
- La mthode L:U
- Mthode de Cholesky
7

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

1.2.1

Mthode de Gauss

Soit Ax = b o A est une matrice (n n) ; non singulire (det (A) 6= 0 , A non singulire).
Principe :
? Transformation de la matrice A en une matrice triangulaire suprieure .
.
on construit A .. b et :
.
A .. b

.
transformation ! A0 .. b0 une matrice triangulaire suprieure .ie :
0
B
B
B
@

a11
a21
..
.

a12
a22
..
.

an1

an2

..

a1n
a2n
..
.

b1
b2
..
.

ann

bn

C
B
C
B
C !B
A
@

.
A .. b
0

a11
0
..
.

a12
0
a22
..
.

..

a1n
0
a2n
..
.

b1
0
b2
..
.

bn

ann

C
C
C
A

.
! A0 .. b0

? Puis, on rsout le systme A x = b (dont la solution est exactement la solution du systme


Ax = b )
ETAPES : On pose A = A(1) et b = b(1) :
1ere tape :
(1)
? Si a11 6= 0; on fait les aectations suivantes
(2)
(1)
La ligne L1 est maintenue ie : L1
L1
On obtient alors :
0 (1)
(1)
a11 a12
B a(1) a(1)
B 21
22
B .
.
.
.
@ .
.
(1)
an1

Li

Li

(1)

..

(1)
an2

(1)

ai1

(2)

(2)

pour i = 2; n ;

(1)

a1n
(1)
a2n
..
.

b1
(1)
b2
..
.

(1)
ann

(1)
bn

(1)

a11

C
B
C
B
C !B
A
@

.
A(1) .. b(1)
o :

et

8
(1)
< a(2)
1j = a1j
:

(2)
aij

(2)

(2)

a11
0
..
.

a12
(2)
a22
..
.

(2)

..

.
! A(2) .. b(2)

j = 1; n

(1)
aij

(1)

ai1

(1)
a11

8
(1)
< b(2)
1 = b1
:

(1)

L1

(2)

(1)

b1 = bi

(1)

a1j , i = 2; n ; j = 1; n

(1)

ai1

(1)

a11

(1)

b1

, i = 2; n

a1n
(2)
a2n
..
.
(2)

ann

(2)

b1
(2)
b2
..
.

(2)

bn

1
C
C
C
A

1.2. MTHODES DIRECTES


(1)

(1)

(1)

? Si a11 = 0; on cherche une ligne Lp avec 2 p n telle que ap1 6= 0: Puis on permute
(1)
(1)
les lignes L1 et Lp pour obtenir
Ax = b () A(1) x = b(1) () P (1) A(1) x = P (1) b(1)
(1)
(1)
o P (1) est la matrice de permutation des lignes L1 et Lp :P (1) est elle meme la matrice
identit dans laquelle on permute la premire ligne et la P eme ligne.
(1)

Dans ce cas au lieu de la matrice A(1) on considre la matrice : A = P (1) A(1) dont on
(1)
notera encore les lments par aij et on lui applique des transformations analogues celles
(1)
correspondantes au cas a11 6= 0 ,tudi plus haut.
k eme tape :
(k)

? akk = 0 : On permute les lignes est une ligne dindice p avec k + 1 p n; telle que :
(k)
apk 6= 0: Et dela
A(k) x = b(k) () P (k) A(k) x = P (k) b(k)
(k)
(k)
o P k est la matrice de permutation des lignes Lk et Lp : P k est la matrice identit o on
permute la k eme et la P eme ligne.
(k)

(k)

On considre alors : A = P (k) A(k) et b = P (k) A(k) : Aprs transformation on obtient


(k+1)
A
et b(k+1) avec :
8
(k)
< a(k+1)
= aij , i = 1; k; j = 1; n
ij
et

(k+1)

(k)

aij

= aij

(k)

akk

8
(k)
< b(k+1)
= bi
i
:

(k+1)

bi

(k)

aik

(k)

akj ; i = k + 1; n ; j = 1; n

i = 1; k
(k)

= bi

(k)

aik

(k)

bk ; i = k + 1; n

(k)

akk

et ceci en faisant les aectations suivantes :


8
(k+1)
(k)
>
L1
! L1
>
>
>
(k+1)
(k)
>
L2
! L2
>
>
<
..
.
>
(k+1)
(k)
>
Lk
! Lk
>
>
>
(k)
>
>
: L(k+1) ! L(k) aik L(k) ; ,i = k + 1; n
i

Rsolution de A0 x = b0 :
On pose

(k)

akk

B
B
.. 0
(n) .. (n)
A .b = A .b
=B
B
@
0

(n)

a11
0
..
.
0
9

(n)

a11
(n)
a11
..
.
..
.

(n)

..

a11
(n)
a11
..
.
(n)

a11

(n)

b1
(n)
b2
..
.
(n)

bn

1
C
C
C
C
A

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


Et del

Ax = b () A(1) x = b(1)
() A(2) x = b(2)
..
.
() A(n) x = b(n)
() A0 x = b0

do (Rsolution par remonte)


8
0
x1 = a10 (b01 a1;2 x2
>
>
11
>
>
..
<
.
0
1
x
(b0n 1 an
>
n 1 = a0
>
>
n 1;n 1
>
: x = 01 b0
n

( On dtermine xn , puis xn

an;n

a1;n xn )
1;2 xn )

; etc. jusqu obtention de x1 :)

Remarque 1.2.1 1. La mthode de Gauss ncessite 32 n3 oprations pour un systme dordre


n:
n
(k)
2. Elle permet de calculer det (A) puisque det (A) = ( 1)j
akk o j est le nombre de
k=1

permulations.
Exemples 1 Soit rsoudre le systme :
8
< 2x1 + 3x2 x3 = 5
4x2 + 4x2 3x3 = 3
(1)
:
2x1 + 3x2 x3 = 1
Le systme (1) scrit encore
0
2
3
4
A=@ 4
2 3

1ere tape :
(1)
? a11 = 2 6= 0

2
@ 4

: Ax = b avec
1
0 1
1
5
3 A ;b = @ 3 A
1
1

3
4
2 3

1
3
1

.
A(1) ..b(1)

1
0
2
5
A
@
0
!
3
0
1
.
! A(2) ..b(2)

10

1
x1
x = @ x2 A
x3

et

3
2
6

1
1
2

5
6

7 A

1.2. MTHODES DIRECTES


2eme tape :
(2)
? a22 = 2 6= 0

1
0
1 5
1
1
7 A !@ 0
0
2 6

2 3
@ 0
2
0 6

1
1
2 A
3

0 0
1 0
0 1

.
! A(3) ..b(3)

.
A(2) ..b(2)

Rsolution de A0 x = b0 :
.
Posons A0 .. b0 : On a alors :
1 0
1 0
2 3
1
x1
2
1 A @ x2 A = @
A0 x = b0 () @ 0
0 0
5
x3
8
< 2x1 + 3x2 x3 = 5
2x2 + x3 = 7
()
()
:
5x3 = 12
0

1.2.2

Mthode de Gauss-Jordan

7 A
15
8
< x1 = 1
x2 = 2
:
x3 = 3

Soit le systme linaire Ax = b o A est une matrice (n n) ; rgulire.


Principe :
? Transformation de la matrice A en matrice identit
.
.
ie :
A .. b _ transformation ! I .. b0 o I est la matrice identit.
? Do :
Ax = b () Ix = b0 () x = b0
ETAPES : On pose A = A(1) et b = b(1) :
1ere tape :
(1)
? Si a11 6= 0; on fait les aectations suivantes
(2)
(1)
1
L1
L1
(1)
(2)
Li

a11
(2)
Li

On a alors :
0
B
B
B
@

(1)

(1)

ai1

(2)

Li

(1)

a11
(1)
a21
..
.

a12
(1)
a22
..
.

(1)
an1

(1)
an2

i = 2; n
(1)

..

(1)

a1n
(1)
a2n
..
.

b1
(1)
b2
..
.

(1)
ann

(1)
bn

C
B
C
B
C !B
A
@

.
A(1) ..b(1)

(2)

1
0
..
.

a12
(2)
a22
..
.

(2)
an2

.
! A(2) ..b(2)
11

(2)

..

a1n
(2)
a2n
..
.
(2)

ann

(2)

b1
(2)
b2
..
.
(2)

bn

1
C
C
C
A

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


avec :

8
(2)
>
>
< a1j =
>
>
:

et

(2)

(1)

a1j

(1)

a11

j = 1; n

(1)

(1)

(2)

aij = aij
ai1 a1j ; i = 2; n ; j = 2; n
(2)
aij = 0 , i = 2; n ; j = 1
8
< b(2) = b(1)
1
(1)
1
a11
(2)
(1)
:
b =b
i

1ere tape :

(1)

(2)

ai1

bi ;

i = 2; n

(2)

? Si a22 6= 0; on fait les aectations suivantes


(3)
(2)
1
L2
L2
(2)
(3)
Li

a22
(2)
Li

(3)

(2)

L2

ai2

i = 1; n avec

do :
0
B
B
B
@

(2)

(2)

(2)

1
0
..
.

a12
(2)
a22
..
.

a1n
(2)
a2n
..
.

b1
(2)
b2
..
.

(2)
an2

(2)
ann

(2)
bn

B
C
B
C
C !B
@
A

.
A(2) ..b(2)
avec :

8
(2)
>
>
< a1j =
>
>
:

et

(3)

0
1
..
.

a13
(3)
a23
..
.

(3)
an3

(1)

(k+1)

Li

(1)

(2)

(e)

ai2

(")

b2 ;

i = 1; n; i 6= 0

(k)

(k)

(k)

aik

(k+1)

Lk

i = 1; n avec
12

i 6= k

(3)

ann

ai1 a1j ; i = 2; n ; j = 2; n
= 2; n ; j = 1

Lk

Li

.
! A(3) ..b(3)

(k)

1
(k)
akk

..

j = 1; n

8
< b(2) = b(1)
1
(1)
1
a11
: b(3) = b(2)
i

? akk 6= 0 :
(1)
Lk

(3)

a1n
(3)
a2n
..
.

(1)

a1j

a11
(2)
(1)
aij = aij
(2)
aij = 0; i

k eme tape :

1
0
..
.

i 6= 2
(3)

a1
(3)
a2
..
.
(3)

an

1
C
C
C
A

1.2. MTHODES DIRECTES


On obtient :
0
B
B
B
B
B
B
B
B
B
B
B
@

(k)

1
0
..
.

0 a1k
(k)
0 a2k

0
0
..
.

1 ak 1;k
(k)
0 akk

0 ank

(k)

(k)

a1n
(k)
a2n

b1
(k)
b2
..
.

(k)

ak 1;n
(k)
a1k

(k)

bk 1
(k)
bk
..
.

(k)

ann

(k)

bn

et

: a(k+1) = a(k)
ij
ij

(k)

(k)

(k+1)

(k+1)

0 a1;k+1
(k+1)
0 a2;k+1

a1n
(k+1)
a2n

b1
(k+1)
b2
..
.

(k+1)

ak;n
(k+1)
ak+1;n

(k+1)

bk
(k+1)
bk+1
..
.

(k+1)

ann

(k+1)

bn

1 ak;k+1
(k+1)
0 ak+1;k+1
0 an;k+1

(k+1)

(k+1)

.
! A(k+1) .. b(k+1)

(k)

(k+1)

akj

(k)

aik
8
<

(k+1)

1
0
..
.

C
B
C
B
C
B
C
B
C
B
C
B
C !B 0
C
B
C
B 0
C
B
C
B ..
A
@ .
0

.
A(k) .. b(k)
avec
8
<

akj

(k)

akk
(k+1)
akj

(k+1)

bk

j = k; n
; i = 1; n; i 6= k; j = k + 1; n
(k)

: b(k+1) = b(k)
i
i

bk

(k)

akk

(k)

aik

(k+1)

bk

i = 1; n ; i 6= k

Remarque 1.2.2 1. La mthode de Gauss-Jordan ncessite n3 oprations lmentaires (moins


rapide que celle de Gauss et que celle de Cholesky que lon verra par la suite).
2. Elle est conseille pour inverser une matrice, car elle vite la remonte(ie :la rsolution
par retour arrire) quon rencontre dans la mthode de Gauss.
Exemples 3 Soit rsoudre le systme :
8
2x1 + 3x2
x3 = 5
<
4x1 + 4x2 3x3 = 3
(1)
:
2x1 + 3x2 x3 = 1

Le systme (1) scrit


0
2
@
4
A=
2

1ere tape :
(1)
? a11 = 2 6= 0

encore :Ax = b avec


1
0 1
3
1
5
A
@
4
3
3 A
; b=
3
1
1

2
@ 4

3
4
2 3

1
3
1

1
0
1
5
3 A !@ 0
0
1
13

et

1
x1
x = @ x2 A
x3

3 2
2
6

1
1 2 5 2
1
7 A
2
6

1
C
C
C
C
C
C
C
C
C
C
C
A

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


.
! A(2) ..b(2)

.
A(1) ..b(1)
2eme tape :
(2)
? a22 = 2 6= 0
0

1 3 2
@ 0
2
0 6

3eme tape :
(3)
? a33 = 5 6= 0

1
0
1 2 5 2
1
1
7 A !@ 0
0
2
6

1
0
5 4
11 4
A
1 1 2
7 2
0
5
15

.
! A(3) ..b(3)

.
A(2) ..b(2)

1
0
1 0
5 4
11 4
1
A
@ 0 1 1 2
@
7 2
0
!
0
5
15
0 0
0

.
A(3) ..b(3)

0 0
1 0
0 1

.
! A(4) ..b(4)

1
1
2 A
3

Solution de A0 x = b0 :
Posons b0 = b(4) :On a alors : x = b0 = (1:2:3) :

1.2.3

Stratgie du choix du pivot

Exemples 4 Sachant que la solution exacte du systme ci-aprs est


(x1 ; x2 ) = (1 3; 2 3) ; retrouvons la par la mthode de Gauss. Le systme est
0:0003x1 + 3x2 = 2:0001
x1 + x2 = 1
? Posons
A=

0:0003 3
1
1

et

b=

2:0001
1

Nous avons : a11 = 0:0003 6= 0; do :


0:0003 3 2:0001
1
1 1
.
A .. b

0:0003 3
2:0001
0
9999
6666

.
! A0 .. b0

14

1.2. MTHODES DIRECTES


et del :
= 2222
=?
x2 = 6666
9999
3333
1
x1 = 0:0003
(2:0001 3x2 ) =?
Question 1 : Eectuer les calculs avec quatre(04) c.s
Rponse 1 : x2 = 0:6667 et x1 = 0:3333
Question 2 : mme question avec cinq (05) c.s
Rponse 2 : x2 = 0:66667 et x1 = 0:3
Question 3 : avec trois (03) c.s
Rponse 3 : x2 = 0:667 et x1 = 3
Remarque 1.2.3 1. Les chires de la valeur x2 restent stables. Par contre ceux de x1 mtent
chaque nouvelle prcision.
2. Les solutions auxquelles on aboutit sont, des chelles dirents, loignes de la solution
exacte.
Commentaire 1 Cette perte dans la prcision est due au pivot a11 = 0:0003 qui est trs
petit.
Cas gnral
Soit le systme
8
>
>
>
<
>
>
>
:

a11 x1 + a12 x2 +
a22 x2 +
..
.

+ a1n xn = b1
+ a2n xn = b2
ann xn = bn

avec a11 ' 0 et a11 6= 0:


On suppose que les solutions x1 ; x2 ; : : : ; xn soient connues.Posons :
x1 = x1 4x1
x2 = x2 4x2
o x1 ; x2 ; : : : ; xn sont des valeurs
..
.
approches de x1 ; x2 ; : : : ; xn
xn = xn 4xn
Dterminons 4x1 =?
Nous avons :
a1n xn )
x1 = a111 (b1 a12 x2
1
= a11 (b1 a12 x2
a1n xn a12 4x2
a1n 4xn )
a12
a1n
1
a1n xn ) a11 4x2
4xn
= a11 b1 a12 x2
a11
a12
a1n
= x1 a11 4x2
4xn
a11
a12
a1n
et del : 4x1 = a11 4x2
4xn :Mais puisque a11 ' 0 alors aa12
0:
a11
11
a1j
De mme pour les autres a11 ; j = 3; n: Et donc lerreur 4x1 sera importante.
15

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


Stratgie du pivot partiel
Supposons que lon soit la k eme tape de la mthode Gauss :
0 (k)
(k)
(k)
(k)
(k)
a11 a12
a1k
a1n b1
(k)
(k)
(k)
(k)
B 0
a22
a2k
a2n b2
B
B .
..
B ..
.
(k) .. (k)
!B
A .b
(k)
(k)
(k)
B 0
0 akk
akn bk
B
B .
..
..
@ ..
.
.
(k)
(k)
(k)
0
0 ank
ann bn
(k)

(k)

(k)

1
C
C
C
C
C
C
C
C
A

Parmi les coe cients akk ; ak+1;k ; : : : ; ank ; on choisit celui dont le module est le plus grand
ie : max
i=k;n

(k)

aik

: Le pivot sera ce coe cient, et on permute alors la k eme ligne et la ligne du

pivot ainsi obtenu.

1.2.4

Stratgie du pivot total


(k)

A la k eme tape le pivot est choisit parmi les coe cients aij ; i = k; n
module soit le plus grand

ie :

max
i=k;n j=k;n

(k)

aij

j = k; n;tel que son

Attention ! : Achaque permutation de colonnes les inconnues changent de places .


Exemples 7 Soit le systme
8
< x1 + 3x2 + 3x3 = 2
2 x1 + 2x2 + 5x3 = 7
:
3x1 + 2x2 + 6x3 = 12
Posons :

(1)

1
.
A .. b = @ 2
3

k = 1 : max aij ; i = 1; 2; 3 j = 1; 2; 3
permutant les lignes 1 et 3 on obtient :
0
1
@ 2
3

3 3
2 5
2 6

7 A
12

= 6: La ligne du pivot total sera alors L3 : En

3 3
2 5
2 6

7 A
12

La colonne du pivot total est Col3 ; et on permute les colonnes 1 et 3 :


0
1
0
1
6 2
3
12
6 2 3 12
@ 5
@ 0 1 3
1 2
3 A
!
2 2 7 A
0 2
1 2
8
3
3 1
2
16

1.2. MTHODES DIRECTES


(2)

k = 2 : max aij ; i = 2; 3 j = 2; 3 = 2 La ligne du pivot total est alor L3 : Et donc on


permute les lignes 2 et 3 :
1
12
8 A
2

6 2
3
@ 0 2
1 2
0 1 3
1 2

6
@ 0
0

1
2 3
12
A
2
1 2
8
0
5 12
5 3

Del, du fait de la permutation des colonnes 1 et 3. On obtient le systme quivalent suivant :


8
8
6x3 + 2x2 + 3x1 = 1
< x1 = 1
<
1
x2 = 3
2x2 2 x1 = 8
()
:
:
5
5
x
=
x3 = 4
12 1
3

1.2.5

La mthode L:U

Soit le systme linaire Ax = b


(1)
Principe : Dcomposition de la matrice A de faon la mettre sous la forme : A = L:U o
L est une matrice triangulaire unitaire infrieure et U une matrice triangulaire suprieure.
Rsolution : Le systme (1) devient :
Ly = b
Ax = b
()
L |{z}
Ux = b
()
Ux = y
y

Donc la rsolution du systme Ax = b revient la rsolutions des deux systmes Ly = b


et U x = y; et la rsolution de ces derniers est immdiate, puisque les matrices L et U sont
triangulaires.
Mthode :
Par la mthode de Gauss on obtient
0 (n)
1
(n)
(n)
(n)
(n)
a11 a12 a13
a1n b1
B
(n)
(n)
(n)
(n) C
B 0
a22 a23
a1n b2 C
B
.
.
(n)
(n)
(n) C
0
a33
a1n b3 C
A(k) ..b(k) = A(k) ..b(k) = B
B 0
C
..
B ..
C
..
.
.
@ .
A
(n)

B
B
B
=B
B
B
@
avec : Ax = b
()
On pose alors U = A0

(1)

a11
0
0
..
.

(1)

a12
(2)
a22
0

ann

(1)

a13
(2)
a23
(3)
a33

(1)

...

a1n
(2)
a1n
(3)
a1n

(n)

ann

A0 x = b 0

17

(1)

b1
(2)
b2
(3)
b3
..
.

(n)

bn

1
C
C
C
C
C
C
A

(n)

bn

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


0

ie :

B
B
B
=B
B
B
@

(1)

(1)

a11
0
0
..
.

0
et on montre que : A = L:U
0
1
B l21
B
B
L = B l31
B ..
@ .
ln1

Vrication : Pour
On a :
0 (1)
a11
B
B 0
U =B
@ 0
0
do

(1)

l21 =
l32 =
Ainsi

a21

(1)
a11
(2)
a32
(2)
a22

a21
a11

a11
B a
B 21
B
= B a31
B
@
a41

(1)

a13
(2)
a23
(3)
a33

..

(1)

a1n
(2)
a1n
(3)
a1n

b1
(2)
b2
(3)
b3
..
.

.
(n)

C
C
C
C
C
C
A

(n)

ann

bn

o
0
1
l32

0
0
0
..
.

1
...

ln2

ln;n

C
C
C
C
C
A

n=4

a14
(2)
a24
(3)
a34
(4)
a44

a13
(2)
a23
(3)
a33
0
(1)

l31 =

(1)

(1)

(1)

a12
(2)
a22
0
0

a31

(1)
a11
(2)
a42
(2)
a22

1
B l21
;L = B
@ l31
l41

C
C
C
A

l41 =

B
B
B
L:U = B
B
@

a12
(2)
+ a22
a21 aa21
11

B
B
B
L =B
B
@

a21
a11
a31
a11
a41
a11

0
1

(2)

a22
(2)
a42
(2)

a22

0
0
1
(3)

a43

(3)

a33

a13
(2)
a21 aa13
+ a23
11
a31 aa13
+a
11

(2)

a41 aa13
+a
11

+ a42
a41 aa12
11

0
0

(2)

a32

(2)

a22
(2)
a42

a41
a11

(2)

21
a31 aa11
+ a32

0
1

a21
a11
a31
a11

(2)

a32

(1)

a11

l43 =
0

a41

(3)

a43

(2)
a22

(3)
a33

1
0
0
a
C
0 C B 11
CB 0
B
0 C
C@ 0
A
0
1

(2)
(2) a23
32 a(2)
22
(2)
(2) a23
42 a(2)
22

(k)

avec lik =

0
1
l32
l42

(1)

a31
a11

l42 =

(1)

a12
(2)
a22
0

aik

1
0
0 C
C
0 A
1

0
0
1
l43

(n)

akk

(k)

lik =

aik

(n)

akk

a41
a11

(3)

a43

(3)

a33

1
0
0 C
C
C
0 C
C
A
1
a12
(2)
a22
0
0

a13
(2)
a23
(3)
a33
0

a14
(2)
a24
(3)
a34
(4)
a44

1
C
C
C
A

a14
(2)
a21 aa14
+ a24
11

+ a33

(3)

a31 aa14
+a
11

(3)

+a
a41 aa14
11

+ a43
18

(2)
(2) a24
(2)
32 a
22
(2)
(2) a24
(2)
42 a
22

(3)

+ a34

(3)

(3) a34

+ a43

(3)

a33

(4)

+ a44

C
C
C
C
C
A

1.2. MTHODES DIRECTES


0

a11
B a21
=B
@ a31
a41

1.2.6

a12
a22
a32
a42

1
a14
(k)
a
a24 C
C = A car a(k+1) = a(k) + a(k) kj
ij
ij
ik (k)
a34 A
akk
a44

a13
a23
a33
a43

Mthode de Cholesky

Soit A une matrice carre dordre n; A = (aij ) i; j = 1; n


Dnition 1.2.1 Soit A 2 Mn (R) est dite symtrique si elle coincide avec sa transpose ie :
A = AT ou encore : aij = aji , i; j = 1; n
Thorme 1.2.1 (Sylvester) Soit A 2 Mn (R) une matrice symtrique. Alors A est dnie
positive si et seulement si
8x 2 Rn ; x 6= 0; hAx; xi = xT :Ax

0:

Thorme 1.2.2 A est dnie positive si et seulement si tous ses mineurs :

41 = a11 ; 42 =

a11
a21

a12
a22

a11
a21
a31

42 =

a12
a22
a32

a13
a23
a33

; 4n = det (A)

;:::

sont strictement positifs.


Thorme 1.2.3 (Cholesky) Soit A une matrice carre dordre n, non singulire et symtrique. Pour quil existe une matrice triangulaire infrieure L, de meme dimension que A, telle
que : A = LLT ; il faut et il su t que A soit dnie positive .
Remarque 1.2.4 L nest pas unique
La dcomposition devient unique si lon xe lavance les lments diagonaux lii avec
lii 0:
Algorithme de dcomposition
An dobtenir les lments lij de la matrice L on multiplie les matrices L et LT , puis on identie les coe cients respectifs dans lgalit : A = L LT pour obtenir les quations
2
l11
= a11
2
2
2
2
2
li1 + li2 + li3 +
+ li;i 1 + lii = aii
li1 lji + li2 lj2 + li3 lj3 + +lij ljj = aij ,
lij = 0
i j

19

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


Do, on a successivement (en choissant systmatiquement le signe +) :
8
>
>
>
>
>
>
>
>
>
<

p
l11 = v
a11
u
u
lij = taii

>
>
>
>
>
>
>
>
>
:

lij =

1
ljj

i 1
X

2
, i = 2; n
lik

k=1
j 1

aij

lik ljk

k=1

lij = 0 i;

; i

Rsolution du Ax = b
Rsoudre le systme Ax = b revient alors rsoudre :
Ly = b
L |{z}
LT x = b
()
LT x = y
y

do lon dduit :

et

8
>
>
>
<

8
>
>
>
<

y1 =

>
>
>
: yi =

>
>
>
: xi =

1
lii

1
lii

bi

i 1
X

b1
l11

lik yk

k=1

xn =
yi

n
X

; i = 2; n

yn
lnn

lki xk

k=i+1

; i = 1; n

Remarque 1.2.5 La mthode de Cholesky ncessite n3 opirations lmentaires (meilleur que


celle de Gauss).
La mthode de Cholesky permet le calcul du dterminant de A:
En eet : A = L LT =) det (A) = det LLT = det (L) det LT
!2
n
Y
2
= (det (L)) =
lii
i=1

1.3

Conditionnement

Dans ce paragraphe, nous allons dnir la notion de conditionnement dune matrice, qui
peut servir tablir une majoration des erreurs darrondi dues aux erreurs sur les donnes.
Malheureusement, nous verrons galement que cette majoration nest pas forcment trs utile
dans des cas pratiques, et nous nous eorcerons dy remdier. la notion de conditionnement est
galement utilise dans ltude des mthodes itratives que nous verrons plus loin.
20

1.3. CONDITIONNEMENT

1.3.1

Le problme des erreurs darrondis

Soient A 2 Mn (R) inversible et b 2 Rn ; supposons que les donnes A et b ne soient


connues qu une erreur prs. Ceci est souvent le cas dans les applications pratiques. Considrons
par exemple le problme de la conduction thermique dans une tige mtallique de longueur 1,
modlise par lintervalle [0; 1]. Supposons que la temprature u de la tige soit impose aux
extrmits, u(0) = u0 et u(1) = u1 . On suppose que la temprature dans la tige satisfait
lquation de conduction de la chaleur, qui scrit (k(x)u0 (x))0 = 0, o k est la conductivit
thermique. Cette quation direntielle du second ordre peut se discrtiser par exemple par
dirences nies, et donne lieu un systme linaire de matrice A. Si la conductivit k nest
connue quavec une certaine prcision, alors la matrice A sera galement connue une erreur
prs, note (A. On aimerait que lerreur commise sur les donnes du modle (ici la conductivit
thermique k) nait pas une consquence catastrophique sur le calcul de la solution du modle
(ici la temprature u). Si par exemple 1% derreur sur k entrane 100% derreur sur u, le modle
ne sera pas dune utilit redoutable. . .
Lobjectif est donc destimer les erreurs commises sur x solution de (P) partir des erreurs
commises sur b et A. Notons ( b 2 Rn lerreur commise sur b et A lerreur commise sur A. On
cherche alors valuer x est solution (si elle existe) du systme :
x + x 2 Rn
(A + A ) (x + x ) = b +

(1.1)
b

On va montrer que si A "nest pas trop grand", alors la matrice A +


quon peut estimer x enfonction de A et A .

1.3.2

est inversible, et

Conditionnement et majoration de lerreur darrondi

Dnition 1.3.1 (Conditionnement) Soit Rn muni dune norme k.k et Mn (R) muni de la
norme induite. Soit A 2 Mn (R) une matrice inversible. On appelle conditionnement de A par
rapport la norme k.k le nombre rel positif cond(A) dni par :
cond(A) = kAk A

Proposition 4 (Proprits gnrales du conditionnement) Soit Rn muni dune norme


k.k et Mn (R) muni de la norme induite.
1. Soit A 2 Mn (R) une matrice inversible, alors cond(A) 1.
2. Soit A 2 Mn (R) et 2 R , alors cond( A) = cond(A).
3. Soient A et B 2 Mn (R) des matrices inversibles, alors cond(AB) = cond(A)cond(B).
Proposition 5 (Proprits du conditionnement pour la norme 2) Soit Rn muni dune
norme k.k2 et Mn (R) muni de la norme induite. Soit A 2 Mn (R) une matrice inversible. On
note cond2 (A) le conditionnement associ la norme induite par la norme euclidienne sur Rn .
1. Soit A 2 Mn (R) une matrice inversible. On note n [resp: 1 ] la plus grande [resp.
petite] valeurppropre de At A (noter que At A est une matrice symtrique dnie positive). Alors
cond2 (A) =
n= 1.
21

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

2. Si de plus A une matrice symtrique dnie positive, alors cond2 (A) = n1 , o n [resp.
1 ] est la plus grande [resp. petite] valeur propre de A.
3. Si A et B sont deuxmatrices symtriques dnies positives, alors cond2 (A+B) max(cond2 (A); c
4. Soit A 2 Mn (R) une matrice inversible. Alors cond2 (A) = 1 si et seulement si A = Q
o 2 R et Q est une matrice orthogonale (cest--dire Qt = Q 1 ).
5. Soit A 2 Mn (R) une matrice inversible. On suppose que A = QR o Q est une matrice
orthogonale. Alors cond2 (A) = cond2 (R).
6. Soient A; B 2 Mn (R) deux matrices symtriques dnies positives. Montrer que cond2 (A+
B) maxfcond2 (A); cond2 (B)g.
Thorme 1.3.1 Soit A 2 Mn (R) une matrice inversible, et b 2 Rn , b 6= 0. On munit Rn
dune norme k.k, et Mn (R) de la norme induite. Soient A 2 Mn (R) et b 2 Rn . On suppose
que k A k < kA1 1 k . Alors la matrice (A + A ) est inversible et si x est solution de (P) et x + x
est solution de (1.1), alors
k xk
kxk

1.4

cond(A)
kA 1 k k

b
Ak

(1.2)

Mthodes itratives

Les mthodes directes que nous avons tudies dans le paragraphe prcdent sont trs e caces : elles donnent la solution exacte (aux erreurs darrondi prs) du systme linaire considr. Elles ont linconvnient de ncessiter une assez grande place mmoire car elles ncessitent
le stockage de toute la matrice en mmoire vive. Si la matrice est pleine, c..d. si la plupart
des coe cients de la matrice sont non nuls et quelle est trop grosse pour la mmoire vive de
lordinateur dont on dispose, il ne reste plus qu grer habilement le swapping" cestdire
lchange de donnes entre mmoire disque et mmoire vive pour pouvoir rsoudre le systme.
Cependant, si le systme a t obtenu partir de la discrtisation dquations aux drivs
partielles, il est en gnral creux", c..d. quun grand nombre des coe cients de la matrice du
systme sont nuls ; de plus la matrice a souvent une structure bande", i.e. les lments non
nuls de la matrice sont localiss sur certaines diagonales.

1.4.1

Dnition et proprits

Soit A 2 Mn (R) une matrice inversible et b 2 Rn , on cherche toujours ici rsoudre le


systme linaire (P) cestdire trouver x 2 Rn tel que Ax = b.
Dnition 1.4.1 On appelle mthode itrative de rsolution du systme linaire (P) une mthode qui construit une suite (x(k) )k2N (o litr" x(k) est calcul partir des itrs x(0) :::x(k 1) )
cense converger vers x solution de (P)).
Dnition 1.4.2 On dit quune mthode itrative est convergente si pour tout choix initial x(0)
2 Rn , on a :
x(k) ! x quand n ! +1
22

1.4. MTHODES ITRATIVES


Puisquil sagit de rsoudre un sytme linaire, il est naturel dessayer de construire la suite des
itrs sous la forme x(k+1) = Bx(k) + c, o B 2 Mn (R) et c 2 Rn seront choisis de manire
ce que la mthode itrative ainsi dnie soit convergente.On appellera ce type de mthode
Mthode I, et on verra par la suite un choix plus restrictif quon appellera Mthode II.
Dnition 1.4.3 (Mthode I) On appelle mthode itrative de type I pour la rsolution du
systme linaire (P) une mthode itrative o la suite des itrs (x(k) )k2N est donne par :
Initialisation x(0) 2 Rn
Itration n x(k+1) = Bx(k) + c
o B 2 Mn (R) et c 2 Rn .
Remarque 1.4.1 (Condition ncessaire de convergence) Une condition ncessaire pour
que la mthode I converge est que c = (Id B)A 1 b. En eet, supposons que la mthode
converge. En passant la limite lorsque n tend vers linni sur litration n de lalgorithme, on
obtient x = Bx + c et comme x = A 1 b, ceci entrane c = (Id B)A 1 b.
Remarque 1.4.2 (Intrt pratique) La mthode I est assez peu intressante en pratique, car il faut calculer A 1 b, sauf si (Id B)A 1 = Id, avec 2 R. On obtient dans ce
cas :
B=
A + Id
et

c= b

cestdire
xn+1 = xn + (b

Axn ):

Le terme b Axn est appel rsidu et la mthode sappelle dans ce cas la mthode dextrapolation
de Richardson.
Thorme 1.4.1 (Convergence de la mthode de type I) Soit A 2 Mn (R) inversible,
b 2 Rn . On considre la mthode I avec B 2 Mn (R) et
c = (Id

B)A 1 b:

(1.3)

Alors la mthode I converge si et seulement si le rayon spectral (B) de la matrice B vrie


(B) < 1.
~
Dnition 1.4.4 (Mthode II) Soit A 2 Mn (R) une matrice inversible, b 2 Rn . Soient M
~
~
~
~
et N 2 Mn (R) des matrices telles que A = M N et M est inversible (et facile inverser).
On appelle mthode de type II pour la rsolution du systme linaire (P) une mthode
itrative o la suite des itrs (x(k) )k2N est donne par :
Initialisation x(0) 2 Rn
~ x(k+1) = N
~ x(k) + b
Itration n M
23

(1.4)

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


~ x(k+1) = N
~ x(k) + b pour tout k 2 N et x(k) ! y quand n ! +1 alors
Remarque 1.4.3 Si M
~y = N
~ y + b, c..d. (M
~ N
~ )y = b et donc Ay = b. En conclusion, si la mthode de type II
M
converge, alors elle converge bien vers la solution du systme linaire.
Thorme 1.4.2 (Convergence de la mthode II) Soit A 2 Mn (R) une matrice inver~ et N
~ 2 Mn (R) des matrices telles que A = M
~ N
~ et M
~ est inversible.
sible, b 2 Rn . Soient M
Alors :
~ 1N
~ < 1.
1. La mthode dnie par (1.2) converge si et seulement si
M
2. La mthode itrative dnie par (1.2) converge si et seulement si il existe une norme
~ 1N
~ < 1.
induite note k:k telle que M
Thorme 1.4.3 (Condition su sante de convergence, mthode II) Soit A 2 Mn (R)
~ et N
~ 2 Mn (R) telles que A = M
~ N
~ et
une matrice symtrique dnie positive, et soient M
~ < 1, et
~ est inversible. Si la matrice M
~t+N
~ est symtrique dnie positive alors
~ 1N
M
M
donc la mthode II converge

1.4.2

Mthodes de Jacobi, Gauss-Seidel et SOR/SSOR

Dcomposition par blocs de A :


Dans de nombreux cas pratiques, les matrices des systmes linaires rsoudre ont une
structure par blocs", et on se sert de cette structure lors de la rsolution par une mthode
itrative.
Dnition 1.4.5 Soit A 2 Mn (R) une matrice inversible. Une P
dcomposition par blocs de A
est dnie par un entier S
N , des entiers (ni )i=1;:::;S tels que Si=1 ni = N , et S 2 matrices
Ai;j 2 Mni ;nj (R) (ensemble des matrices rectangulaires ni lignes et nj colonnes, telles que les
matrices Ai;j soient inversibles pour i = 1; :::; S et
2
3
A1;1 A1;2
A1;S
6
7
..
6 A2;1 . . . . . .
7
.
6 .
7
..
.. ..
6 .
7
.
.
.
6 .
7
A=6
(1.5)
7
.
.
.
.
6
7
.. ..
..
..
6
7
6 ..
7
..
..
4 .
.
.
AS 1;S 5
AS;1
AS;S 1 AS;S
Remarque 1.4.4 1. Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul
coe cient.
2. Si A est symtrique dnie positive, la condition Ai;j inversible dans la dnition 1.3.5
est inutile car Ai;j est ncessairement symtrique dnie positive donc inversible. Prenons par
exemple i = 1 ; soit y 2 Rn1 , y 6= 0 et x = (y; 0:::; 0)t 2 Rn . Alors A1;1 y y = Ax x > 0 donc
A1;1 est symtrique dnie positive.
24

1.4. MTHODES ITRATIVES


3. Si A est une matrice triangulaire par blocs, c..d. de la forme (1.3) avec Ai;j = 0 si j > i,
alors
S
Q
det(A) =
det(Ai;i ):
i=1

Par contre si A est dcompose en 2 2 blocs carrs (i.e. tels que ni = mj ; 8(i; j) 2 f1; 2g),
on a en gnral : det(A) 6= det(A1;1 ) det(A2;2 ) det(A1;2 ) det(A2;1 ).

Mthode de Jacobi

~ x = d soit facile rsoudre


On peut remarquer que le choix le plus simple pour le systme M
(on rappelle que cest un objectif de la mise sous forme mthode de type II) est de prendre
~ une matrice diagonale. La mthode de Jacobi consiste prendre pour M
~ la matrice
pour M
diagonale D forme par les blocs diagonaux de A :
3
2
A1;1 0
0
6
.. 7
..
..
6 0
.
.
. 7
7
6 .
..
... ..
7
6 .
.
.
7
6 .
D=6
7
.
.
.
.
6
..
.. 7
..
..
6
7
7
6 ..
.
.
.
.
4 .
.
.
0 5
0
0 AS;S
Dans la matrice ci-dessus, 0 dsigne un bloc nul.
~ = E + F , o E et F sont constitus des blocs triangulaires infrieurs et
On a alors N
suprieurs de la matrice A :
3
2
0
0
0
6
.. 7
6 A1;1 . . . . . .
. 7
7
6
.
..
..
..
7
6
.
.
.
.
.
7
6
E=6
.. 7
..
..
..
6
.
.
.
. 7
7
6
7
6
..
.
.
.
.
4
.
.
0 5
.
AS;1
AS;S 1 0
et

~
On a bien A = M
scrit :

6
6
6
6
6
F =6
6
6
6
4

0
0
..
.

A1;2
..
.
..
.

..

..

..

..

..

..

..

..
..
.
0

A1;S
..
.

..
.
AS
0

1;S

7
7
7
7
7
7:
7
7
7
5

~ et avec D; E et F dnies comme ci-dessus, la mthode de Jacobi


N
Dx(k+1)

x(0) 2 Rn
= (E + F ) x(k) + b
25

(1.6)

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


Lorsquon crit la mthode de Jacobi comme une mthode I, on a B = D 1 (E + F ) ; on
notera J cette matrice.
En introduisant la dcomposition par blocs de x, solution recherche de (P), c..d. : x =
[x1 ; :::; xS ] , o xi 2 Rni , on peut aussi crire la mthode de Jacobi sous la forme :
(

(k+1)

Ai;i xi

j<i

x(0) 2 Rn
P
(k)
(k)
Ai;j xj
Ai;j xj + bi i = 1; :::; S

(1.7)

j>i

Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul coe cient, et on
obtient la mthode de Jacobi par points (aussi appele mthode de Jacobi), qui scrit donc :
(

(k+1)

ai;i xi

j<i

x(0) 2 Rn
P
(k)
(k)
ai;j xj
ai;j xj + bi i = 1; :::; n

(1.8)

j>i

Mthode de Gauss-Seidel
Lide de la mthode de Gauss-Seidel est dutiliser le calcul des composantes de litr
(k+1)
du
(k + 1) ds quil est eectu. Par exemple, pour calculer la deuxime composante x2
(k+1)
(k+1)
quon vient de calculer plutt
vecteur x
, on pourrait employer la nouvelle" valeur x1
(k)
(k+1)
que la valeur x1 comme dans (1.5) ; de mme, dans le calcul de x3
, on pourrait employer
(k+1)
(k+1)
(k)
(k)
les nouvelles" valeurs x1
et x2
plutt que les valeurs x1 et x2 .
(k+1)
(k)
si j < i. On obtient donc
Cette ide nous suggre de remplacer dans (1.5) xj par xj
lalgorithme suivant :
(

(k+1)

Ai;i xi

j<i

x(0) 2 Rn
P
(k+1)

Ai;j xj

i<j

(k)

Ai;j xj + bi i = 1; :::; S

(1.9)

Notons que lalgorithme de GaussSeidel par points (cas ou S = N et ni = 1) scrit donc :


(

(k+1)
ai;i xi

j<i

x(0) 2 Rn
P
(k)
ai;j xj + bi i = 1; :::; n

(k)
ai;j xj

(1.10)

j>i

La mthode de GaussSeidel scrit donc sous forme de mthode II avec M = D E et


N =F :
x(0) 2 Rn
(1.11)
(D E) x(k+1) = F x(k) + b
Lorsquon crit la mthode de GaussSeidel comme une mthode I, on a B = (D
on notera L1 cette matrice, dite matrice de Gauss-Seidel.

E) 1 F ;

Mthodes SOR et SSOR

Lide de la mthode de sur-relaxation (SOR = Successive Over Relaxation) est dutiliser


la mthode de Gauss-Seidel pour calculer un itr intermdiaire x~(k+1) quon relaxe" ensuite
26

1.4. MTHODES ITRATIVES


pour amliorer la vitesse de convergence de la mthode. On se donne 0 < ! < 2, et on modie
lalgorithme de GaussSeidel de la manire suivante :
8
>
x(0) 2 Rn
>
<
P
P
(k+1)
(k+1)
(k)
Ai;i x~i
=
Ai;j xj
Ai;j xj + bi
(1.12)
j<i
i<j
>
>
(k+1)
(k)
: x(k+1) = !~
xi
+ (1 !) xi i = 1; :::; S:
i

(Pour ! = 1 on retrouve la mthode de GaussSeidel.)


Lalgorithme ci-dessus peut aussi scrire (en multipliant par Ai;i la ligne 3 de lalgorithme
(1.10)) :
8
x(0) 2 Rn
>
<
#
"
P
P
(1.13)
(k)
(k)
(k+1)
(k+1)
Ai;j xj + bi + (1 !) Ai;i xi
=!
Ai;j xj
>
: Ai;i xi
i<j

j<i

On obtient donc

(D

!E) x(k+1) = !F x(k) + !b + (1

!) Dx(k) :

Lalgorithme SOR scrit donc comme une mthode II avec


~ =D
M
!

~ =F+
E et N

D:

~ N
~.
Il est facile de vrier que A = M
Lalgorithme SOR scrit aussi comme une mthode I avec
D
!

B=

(F +

D):

On notera L! cette matrice.


En symtrisant" le procd de la mthode SOR, c..d. en eectuant les calculs SOR sur
les blocs dans lordre 1 N puis dans lordre N 1, on obtient la mthode de sur-relaxation
symtrise (SSOR = Symmetric Successive Over Relaxation) qui scrit dans le formalisme de
la mthode I avec
B=
|

D
!

(E +
{z

D
D)
!
!
}|

calcul dans l0ordre S:::1

!
!

calcul dans l0ordre 1:::S

Etude thorique de convergence


On aimerait pouvoir rpondre aux questions suivantes :
1. Les mthodes sontelles convergentes ?
2. Peut-on estimer leur vitesse de convergence ?
27

(F +
{z

D) :
}

CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES


3. Peut-on estimer le coe cient de relaxation ! optimal dans la mthode SOR, c..d. celui
qui donnera la plus grande vitesse de convergence ?
On va maintenant donner des rponses, partielles dans certains cas, faute de mieux, ces
questions.
Convergence On rappelle quune mthode itrative de type I, i.e. crite sous la forme
(n+1)
x
= Bx(n) + C converge si et seulement si (B)n1.
Thorme 1.4.4 (Sur la convergence de la mthode SOR) Soit A 2 Mn (R) qui admet
une dcomposition par blocs dnie dans la dnition 1.3 ; soient D la matrice constitue par
les blocs diagonaux, E (resp. F ) la matrice constitue par les blocs triangulaires infrieurs
(resp. suprieurs) ; on a donc : A = D E F . Soit L! la matrice ditration de la mthode
SOR (et de la mthode de GaussSeidel pour ! = 1) dnie par :
L! =

D
!

(F +

!
!

D); ! 6= 0:

Alors :
1. Si (L! ) < 1 alors 0 < ! < 2.
2. Si on suppose de plus que A symtrique dnie positive, alors :
(L! ) < 1 si et seulement si 0 < ! < 2:
En particulier , si A est une matrice symtrique dnie positive, la mthode de GaussSeidel
converge.
Remarque 1.4.5 On a vu (thorme 1.35) que si A est une matrice symtrique dnie positive,
la mthode de GaussSeidel converge. Par contre, mme dans le cas o A est symtrique dnie
positive, il existe des cas o la mthode de Jacobi ne converge pas.
Remarquons que le rsultat de convergence des mthodes itratives donn par le thorme
prcdent nest que partiel, puisquil ne concerne que les matrices symtriques dnies positives
et que les mthodes Gauss-Seidel et SOR. On a aussi un rsultat de convergence de la mthode
de Jacobi pour les matrices diagonale dominante stricte, et un rsultat de comparaison des
mthodes pour les matrices tridiagonales par blocs, voir le thorme 1.3.5 donn ci-aprs. Dans
la pratique, il faudra souvent compter sur sa bonne toile. . .
Estimation du coe cient de relaxation optimal de SOR
La question est ici destimer le coe cient de relaxation, optimal dans la mthode SOR,
c..d. le coe cient, ! 0 2 ]0; 2[ (condition ncessaire pour que la mthode SOR converge, voir
thorme 1.3.4) tel que (L!0 ) < (L! ) 8! 2 ]0; 2[.
Daprs le paragraphe prcdent ce ! 0 donnera lameilleure convergence possible pour SOR.
On sait le faire dans le cas assez restrictif des matrices tridiagonales par blocs.
Thorme 1.4.5 (Coe cient optimal, matrice tridiagonale) On considre une matrice
A 2 Mn (R) qui admet une dcomposition par blocs dnie dans la dnition 1.3 ; on suppose
28

1.4. MTHODES ITRATIVES


que la matrice A est tridiagonale par blocs, c..d. Ai;j = 0 si ji jj > 1 ; soient L1 et J les
matrices ditration respectives des mthodes de Gauss-Seidel et Jacobi, alors :
1. (L1 ) < ( (J))2 : la mthode de GaussSeidel converge (ou diverge) donc plus vite que
celle de Jacobi.
2. On suppose de plus que toutes les valeurs propres de la matrice ditration J de la mthode
de Jacobi sont relles. alors le paramtre de relaxation optimal, c..d. le paramtre ! 0 tel que
(L!0 ) = min f (L! ) ; ! 2 ]0; 2[g, sexprime en fonction du rayon spectral (J) de la matrice
J par la formule :
2
q
> 1;
!0 =
1+ 1
(J)2
et on a :

(L!0 ) = ! 0

1:

29

TRAVAUX DIRIGS 1

Travaux dirigs 1
Exercice 01 :
Soit le syst`eme lineaire suivant :

+=

&&

]V%
VM&
(V% ]
,



- .

"





J

a) Resoudre ce syst`eme par la methode de Gauss.


b) Factoriser la matrice du syst`eme en produit o`u est une matrice triangulaire inferieure (avec des 1 sur la diagonale principale) et triangulaire
superieure, puis resoudre ce syst`eme.
Exercice 02 :
Soit le syst`eme lineaire

o`u :

Factoriser la matrice

, et

en produit  puis resoudre le syst`eme.

Exercice 03

Soit A Mn (IR) une matrice symtrique dnie positive.


1. On suppose ici que A est tridiagonale. Estimer le nombre d'oprations de la fact
orisation LL t dans ce cas.
2. Mme question si A est une matrice bande (c'est--dire p diagonales non nulles).
3. En dduire une estimation du nombre d'oprations ncessa ires pour la discrtisation de l'quation
u = f

Mme question pour la discrtisation de l'quat ion u = f .

Exercice 04
Soit a IR et

a
A=
a

a
1
a

a
a
1

Montrer que A est symtrique dfinie positive si et seulement si 1/2 < a < 1
et que la mthode de Jacobi
converge si et seulement si 1/2 < a < 1/2.

30

Exercice 05
0

1
2 1
1. Soit A =
.
1 0
Calculer la dcomposition LDLt de A. Existe-t-il une dcomposition LLt de A ?
2. Montrer que toute matrice de MN (IR) symtrique dfinie positive admet une dcomposition LDLt .
1
0
0 1
t
3. Ecrire lalgorithme de dcomposition LDL . La matrice A =
admet-elle une dcomposition LDLt ?
1 0
Exercice 06
Soit N 1. Soit A = (ai,j )i,j=1,...,N MN (IR) une matrice symtrique. On note D la partie diagonale de A,
E la partie triangulaire infrieure de A et F la partie triangulaire suprieure de A, cest--dire :
D = (di,j )i,j=1,...,N , di,j = 0 si i %= j, di,i = ai,i ,
E = (ei,j )i,j=1,...,N , ei,j = 0 si i j, ei,j = ai,j si i > j,
F = (fi,j )i,j=1,...,N , fi,j = 0 si i j, fi,j = ai,j si i < j.
Noter que A = D E F . Soit b IR N . On cherche calculer x IR N t.q. Ax = b. On suppose que D est
dfinie positive (noter que A nest pas forcment inversible). On sintresse ici la mthode de Jacobi (par points),
Initialisation. x(0) IR N
Itrations. Pour n IN, Dx(n+1) = (E + F )x(n) + b.
On pose J = D1 (E + F ).
1. Montrer, en donnant un exemple avec N = 2, que J peut ne pas tre symtrique.
2. Montrer que J est diagonalisable dans IR et, plus prcisement, quil existe une base de IR N , note {f1 , . . . ,
fN }, et il existe {1 , . . . , N } IR t.q. Jfi = i fi pour tout i {1, . . . , N } et t.q. Dfi fj = i,j pour
tout i, j {1, . . . , N }.
En ordonnant les valeurs propres de J, on a donc 1 . . . N , on conserve cette notation dans la suite.

3. Montrer que la trace de J est nulle et en dduire que 1 0 et N 0.

On suppose maintenant que A et 2D A sont symtriques dfinies positives et on pose x = A1 b.

4. Montrer que la mthode de Jacobi (par points) converge (cest--dire x(n) x quand n ). [Utiliser un
thorme du cours.]
On se propose maintenant damliorer la convergence de la mthode par une technique de relaxation. Soit
> 0, on considre la mthode suivante :
Initialisation. x(0) IR N
Itrations. Pour n IN, D
x(n+1) = (E + F )x(n) + b, x(n+1) = x
(n+1) + (1 )x(n) .
5. Calculer les matrices M (inversible) et N telles que M x(n+1) = N x(n) + b pour tout n IN, en
fonction de , D et A. On note, dans la suite J = (M )1 N .
31

TRAVAUX DIRIGS 1

6. On suppose dans cette question que (2/)D A est symtrique dfinie positive. Montrer que la mthode
converge (cest--dire que x(n) x quand n .)
7. Montrer que (2/)D A est symtrique dfinie positive si et seulement si < 2/(1 1 ).

8. Calculer les valeurs propres de J en fonction de celles de J. En dduire, en fonction des i , la valeur
optimale" de , cest--dire la valeur de minimisant le rayon spectral de J .
Exercice 07

Soit A = (ai;j )i;j2f1;:::;N g 2 Mn (R).


1. On munit Rn de la norme k k et: M
de
n la norme induite correspondante, note aussi
1 (R)P
k:k1 .Montrer que kAk1 = maxi2f1;:::;N g N
j=1 jai;j j :
2. On munit Rn de la norme k:k1 et M (R) de
la norme induite correspondante, note aussi
PnN
k:k1 . Montrer que kAk1 = maxj2f1;:::;N g i=1 jai;j j :
3. On munit Rn de la norme k:k2 et Mn (R) de la norme induite correspondante, note aussi
1
k:k2 . Montrer que kAk2 = ( (At A)) 2 :
Exercice 08

Soient A 2 Mn (R) et k:k une norme matricielle.


1. Montrer que si (A) < 1, les matrices Id A et Id + A sont inversibles.
2. Montrer que la srie de terme gnral Ak converge (vers (Id A) 1 ) si et seulement si
(A) < 1.
Exercice 09

Rsoudre le systme par la mthode de Gauss

(1)

8
>
>
<
>
>
:

2x1 + x2 + x4 = 2
4x1 2x2 + 3x3 7x4 = 9
4x1 + x2 2x3 + 8x4 = 2
3x2 12x3 x4 = 2

32

SUGGESTIONS ET CORRIGS

Suggestions et Corrigs
Exercice 01

]V%
VM&
(V% ]
,

&&
~

"

- .

Posons




, o`u

et

, on calcule

, o`u

J

Ce syst`eme secrit sous la forme

do`u :

on calcule
m

Donc,
m

, o`u


 






La matrice m est ainsi triangulaire superieure, cest la matrice recherchee.

n
n
n
n
n
n

Dautre part, on a m
, on en deduit donc que
m
m
m
m
m
n

33

Ainsi,

6m

, avec

On a ainsi factorise sous la forme :

Presantation de la methode didentification

Resoudre
revient a` resoudre
. On pose alors
, la
resolution du syst`eme initial revient a` resoudre successivement les deux syst`emes
triangulaires :

Finalement, on resout :

Exercice 02

, o`u

et

34

Factorisons la matrice en produit  .

n
n
n
Posons m
, on calcule m




o`u :

Soit le syst`eme lineaire

SUGGESTIONS ET CORRIGS

do`u :

on calcule

, o`u

Donc,

3


 






La matrice m est ainsi triangulaire superieure, cest la matrice recherchee.


n

nP
n

n
n
n
m
m
m
m
m
. On en deduit donc
Dautre part, on a m

Ainsi,

se factorise donc sous la forme :

, avec

3

, cest a`

Resolvons le syst`eme

. Cela revient a` resoudre


puis

dire a` resoudre successivement les syst`emes

Finalement, on resout :


3

35

Exercice 03
On utilise le rsultat de conservation du profil de la matrice nonc dans le cours. Comme A est symtrique,
le nombre p de diagonales de la matrice A est forcment impair si A ; notons q = p1
2 le nombre de sous- et
sur-diagonales non nulles de la matrice A, alors la matrice L aura galement q sous-diagonales non nulles.
1. Cas dune matrice tridiagonale. Si on reprend lalgorithme de construction de la matrice L vu en cours, on
remarque que pour le calcul de la colonne n + 1, avec 1 n < n 1, on a le nombre doprations suivant :
n
X
Calcul de n+1,n+1 = (an+1,n+1
n+1,k n+1,k )1/2 > 0 :
k=1

une multiplication, une soustraction, une extraction de !


racine, soit 3 oprations lmentaires.
n
X
1
:
Calcul de n+2,n+1 = an+2,n+1
n+2,k n+1,k
n+1,n+1
k=1
une division seulement car n+2,k = 0.
On en dduit que le nombre doprations lmentaires pour le calcul de la colonne n + 1, avec 1 n < n 1, est
de 4.
Or le nombre doprations pour la premire et dernire colonnes est infrieur 4 (2 oprations pour la premire
colonne, une seule pour la dernire). Le nombre Z1 (n) doprations lmentaires pour la dcomposition LLt de A
peut donc tre estim par : 4(n 2) Z1 (n) 4n, ce qui donne que Z1 (n) est de lordre de 4n (le calcul exact
du nombre doprations, inutile ici car on demande une estimation, est 4n 3.)
2. Cas dune matrice p diagonales.
On cherche une estimation du nombre doprations Zp (n) pour une matrice p diagonales non nulles (ou q sousdiagonales non nulles) en fonction de n.
On remarque que le nombre doprations ncessaires au calcul de
n+1,n+1 = (an+1,n+1
et i,n+1 =

ai,n+1
Pn

n
X

n+1,k n+1,k )1/2 > 0,

k=1

n
X

i,k n+1,k

k=1

1
n+1,n+1

est toujours infrieur 2q + 1, car la somme k=1 fait intervenir au plus q termes non nuls.
De plus, pour chaque colonne n + 1, il y a au plus q + 1 coefficients i,n+1 non nuls, donc au plus q + 1 coefficients
calculer. Donc le nombre doprations pour chaque colonne peut tre major par (2q + 1)(q + 1).
On peut donc majorer le nombre doprations zq pour les q premires colonnes et les q dernires par 2q(2q +
1)(q + 1), qui est indpendant de n (on rappelle quon cherche une estimation en fonction de n, et donc le nombre
zq est O(1) par rapport n.)
Calculons maintenant le nombre doprations xn ncessaires une colonne n = q + 1 n q 1. Dans (1.50) et
(1.51), les termes non nuls de la somme sont pour k = i q, . . . , n, et donc on a (n i + q + 1) multiplications
et additions, une division ou extraction de racine. On a donc
36

SUGGESTIONS ET CORRIGS

Exercice 04
Si a = 0, alors A = Id, donc A est s.d.p. et la mthode de Jacobi converge.
Si a %= 0, posons a = (1 ), et calculons le polynme caractristique de la matrice A en fonction de la
variable .
V
V
V
V
V 1 1 V
V a a
V
a
V
V
V
V
a a VV = a3 det VV 1 1 VV = a3 (3 3 + 2).
P () = det VV a
V 1 1 V
V a
a
a V

On a donc P () = a3 ( 1)2 ( + 2). Les valeurs propres de la matrice A sont donc obtenues pour = 1 et
= 2, cestdire : 1 = 1 a et 2 = 1 + 2a.
La matrice A est dfinie positive si 1 > 0 et 2 > 0, cestdire si 21 < a < 1.
La mthode de Jacobi scrit :
X (n+1) = D1 (D A)X (n) ,

avec D = Id dans le cas prsent ; donc la mthode converge si et seulement si (D A) < 1.


Les valeurs propres de D A sont de la forme = 1 o est valeur propre de A. Les valeurs propres de
D A sont donc 1 == a (valeur propre double) et 2 = 2a.. On en conclut que la mthode de Jacobi converge
si et seulement si 1 < a < 1 et 1 < 2a < 1, i.e. 12 < a < 12 .
La mthode de Jacobi ne converge donc que sur lintervalle ] 12 , 12 [ qui est strictement inclus dans lintervalle
] 12 , 1[ des valeurs de a pour lesquelles la matrice A est s.d.p..
Exercice 05
' 1 0 (
' 0 (
et D =
.
1
0
Par identification, on obtient = 2, = 21 et = 12 .
' a 0 (
, on obtient c2 = 12 ce qui est impossible dans IR.
Si maintenant on essaye dcrire A = LLt avec L =
b c
En fait, on peut remarquer quil est normal que A nadmette pas de dcomposition LLt , car elle nest pas dfinie
positive. En effet, soit x = (x1 , x2 )t IR 2 ,, alors Ax x = 2x1 (x1 + x2 ), et en prenant x = (1, 2)t , on a
Ax x < 0.
1. On pose L =

2. 2. Reprenons en ladaptant la dmonstration du thorme 1.3. On raisonne donc par rcurrence sur la dimension.
1. Dans le cas N = 1, on a A = (a1,1 ). On peut donc dfinir L = ()1,1 ) o )1,1 = 1, D = (a1,1 ), d1,1 %= 0, et
on a bien A = LDLt .
2. On suppose que, pour 1 p N , la dcomposition A = LDLt sobtient pour A Mp (IR) symtrique
dfinie positive ou ngative, avec di,i %= 0 pour 1 i N et on va dmontrer que la proprit est encore
vraie pour A MN +1 (IR) symtrique dfinie positive ou ngative. Soit donc A MN +1 (IR) symtrique
dfinie positive ou ngative ; on peut crire A sous la forme :

B
a

A=

at

37

o B MN (IR) est symtrique dfinie positive ou ngative (calculer Axx avec x = (y, 0)t , avec y IR N
pour le vrifier), a IR N et IR.
Par hypothse de rcurrence, il existe une matrice M MN (IR) M = (mi,j )N
i,j=1 et une matrice diagonale

D = diag(d1,1 , d2,2 , . . . , dN,N ) dont les coefficients sont tous non nuls, telles que :
(a)

mi,j = 0 si j > i

(b)

mi,i = 1
t.
B = M DM

(c)

On va chercher L et D sous la forme :

L=

bt

, D =

1
0
0

avec b IR N , IR tels que LDLt = A. Pour dterminer b et , calculons LDLt avec L et D de la forme
(1.8.75) et identifions avec A :

0 D
b
M Db
M
M DM
M
0

LDLt =

t
t
t
t

+
b
1
0
1
0

b DM
b Db

On cherche b IR N et IR tels que LDLt = A, et on veut donc que les galits suivantes soient
vrifies :
+ = .
= a et bt Db
M Db
;N
La matrice M est inversible (en effet, le dterminant de M scrit det(M ) = i=1 1 = 1). Par hypothse
est aussi inversible. La premire galit ci-dessus donne : b = D
1 M 1 a. On
de rcurrence, la matrice D
calcule alors = bt M 1 a. Remarquons quon a forcment %= 0, car si = 0,

t
M Db
M DM

A = LDLt =

bt DM
bt Db
qui nest pas inversible. En effet, si on cherche (x, y) IR N IR solution de

x
M DM
0
M Db

= ,

t
t
t
y
0
b DM
b Db

on se rend compte facilement que tous les couples de la forme (M t by, y)t , y IR, sont solutions. Le
noyau de la matrice nest donc pas rduit {0} et la matrice nest donc pas inversible. On a ainsi montr que
dN +1,N +1 %= 0 ce qui termine la rcurrence.
38

SUGGESTIONS ET CORRIGS

3. On reprend lalgorithme de dcomposition LLt :


Soit A MN (IR) symtrique dfinie positive ou ngative ; on vient de montrer quil existe une matrice L
MN (IR) triangulaire infrieure telle que )i,j = 0 si j > i, )i,i = 1, et une matrice D MN (IR) diagonale
inversible, telles que et A = LDLt . On a donc :
ai,j =

N
%

k=1

)i,k dk,k )j,k , (i, j) {1, . . . , N }2 .

1. Calculons la 1re colonne de L ; pour j = 1, on a :


a1,1 = d1,1 donc d1,1 = a1,1 ,
a2,1
,
a2,1 = )2,1 d1,1 donc )2,1 =
d1,1
ai,1
i {2, . . . , N }.
ai,1 = )i,1 )1,1 donc )i,1 =
)1,1
2. On suppose avoir calcul les n premires colonnes de L. On calcule la colonne (n + 1) en prenant j = n + 1
dans
n
%
Pour i = n + 1, an+1,n+1 =
)2n+1,k dk,k + dn+1,n+1 donc
k=1

dn+1,n+1 = an+1,n+1

n
%

)2n+1,k dk,k .

k=1

On procde de la mme manire pour i = n + 2, . . . , N ; on a :


ai,n+1 =

n+1
%

)i,k dk,k )n+1,k =

k=1

n
%

)i,k dk,k )n+1,k + )i,n+1 dn+1,n+1 )n+1,n+1

k=1

et donc, comme on a montr dans la question 2 que les coefficients dk,k sont tous non nuls, on peut crire :
)i,n+1 =

<

ai,n+1

n
%

)i,k dk,k )n+1,k

k=1

39

1
dn+1,n+1

Exercice 06
1. J = D1 (E + F ) peut ne pas tre symtrique, mme si A est symtrique :
1
0
2 1
.
En effet, prenons A =
1 1
Alors
10
1 0
1 0
0 1
0 12
0
0
0 1
1
2
=
%=
J = D (E + F ) =
1
0 1
1 0
1 0
2

1
0

donc J nest pas symtrique.


2. On applique lexercice prcdent pour lapplication linaire T de matrice D, qui est, par hypothse, dfinie
positive (et videmment symtrique puisque diagonale) et S = E + F , symtrique car A est symtrique.
Il existe donc (f1 . . . fN ) base de E et (1 . . . N ) IR N tels que
Jfi = D1 (E + F )fi = i fi ,

i = 1, . . . , N, et (Dfi , fj ) = ij .

3. Par dfinition de J, tous les lments diagonaux de J sont nuls et donc sa trace galement. Or T rJ =

N
%

i .

i=1

Si i > 0 i = 1, . . . , N , alors T rJ > 0, donc i0 ; i 0 et comme 1 i0 , on a 1 0. Un


raisonnement similaire montre que N 0.

4. La mthode de Jacobi converge si et seulement si (J) < 1 (thorme 1.27 page 28). Or, par la question
prcdente, (A) = max(1 , N ). Supposons que 1 1, alors 1 = , avec 1. On a alors
D1 (E +F )f1 = f1 ou encore (E +F )f1 = Df1 , ce qui scrit aussi (D +E +F )f1 = D(1)f1
cestdire (2D A)f1 = Df1 avec 0. On en dduit que ((2D A)f1 , f1 ) = 0, ce qui contredit
le fait que 2D A est dfinie positive. En consquence, on a bien 1 1.
Supposons maintenant que N = 1. On a alors D1 (E + F )f1 = fN , soit encore (E + F )fN =
DfN . On en dduit que AfN = (D E F )fN = D(1 )fN = DfN avec 0. On a
alors(AfN , fN ) 0, ce qui contredit le fait que A est dfinie positive.

(n+1) + (1 )x(n). On a donc x(n+1) =


5. Par dfinition, on a :D
x(n+1) s = (E + F )x(n) + b et x(n+1) = x
[D1 (E+F )x(n) +D1 b]+(1)x(n) cestdire x(n+1) = [Id(IdD1 (E+F ))]x(n) +D1 b,,
soit encore 1 Dx(n+1) = [ 1 D (D (E + F ))]x(n) + b. On en dduit que M x(n+1) = N x(n) + b avec
M = 1 D et N = 1 D A.

6. La matrice ditration est donc maintenant J = M1 N qui est symtrique pour le produit scalaire
(, )M donc en reprenant le raisonnement de la question 2, il existe une base (f1 , . . . , fN ) (IR N )N
et (
1 , . . .
N ) IR N tels que
J fi = M
et

N fi = D

1
1
i fi , i = 1, . . . , N,
D A fi =

Dfi f = , i, = 1, . . . , N, j, = 1, . . . , N.

Supposons
1 1, alors
1 = , avec 1 et D1 ( 1 D A)f1 = f1 , ou encore 1 D Af1 =
1
2
1
Df1 . On a donc 2 D Af1 = (1 ) Df1 , ce qui entrane ( D A)f1 f1 0. Ceci contredit

2
lhypothse D A dfinie positive.
40

SUGGESTIONS ET CORRIGS

De mme, si
N 1, alors
N = avec 1. On a alors
1
1
( D A)fN = DfN ,

et donc AfN = (1) 1 DfN ce qui entrane en particulier que AfN fN 0 ; or ceci contredit lhypothse
A dfinie positive.
7. On cherche une condition ncessaire et suffisante pour que
0
1
2
D A x x > 0, x %= 0,

ce qui est quivalent

1
2
D A fi fi > 0, i = 1, . . . , N,

o les (fi )i=1,N sont les vecteurs propres de D1 (E + F ). En effet, la famille (fi )i=1,...,N est une base de
IR N , et
0
0
1
1
2
2
D A fi =
D D + (E + F ) fi

0
1
2
=
1 Dfi + i Dfi
1
0
2
1 + i Dfi .
=

(
'
On a donc en particulier 2 D A fi fj = 0 is i %= j, ce qui prouve que (1.8.86) est quivalent (1.8.87).
De (1.8.87), on dduit, grce au fait que (Dfi , fi ) = 1,
00

1 0
1
1
2
2
D A fi , fi =
1 + i .

On veut donc que 2 1 + 1 > 0 car 1 = inf i , cestdire : 2 < 1 1, ce qui est quivalent :
2
<
.
1 1
8. La matrice ditration J scrit :
J =

DA

1
= I , avec I = D1 ( D A).

Soit une valeur propre de I associe un vecteur propre u ; alors :


1
0
1
0
1
1
1
D
D A u = u, i.e.
D A u = Du.

On en dduit que

1
1
(D A)u +
1 Du = Du, soit encore

1
0
1
1
D (E + F )u = 1 + u.

41

Or fi est vecteur prore de D1 (E + F ) associe la valeur propre i (question 2). On a donc :


0
1
1
1
D (E + F )fi = i fi = 1 + fi ,

1
0
1
()
1
1
est valeur
ce qui est vrai si i = 1 + , cestdire = i 1 . Donc i = i 1

propre de J associe au vecteur propre fi .


On cherche maintenant minimiser le rayon spectral
(J ) = sup |(i 1
i

On a
(1 1
et

1
)|

1
1
1
) (i 1 ) (N 1 ),

1
1
1
) (1 1 ) (i 1 ),

0
1
1
1
(J ) = max |(N 1 )|, | (1 1 |)

(N 1
donc

dont le minimum est atteint (voir Figure 1.8) pour


(1 1 ) 1 = 1 (1 N ) cestdire =

2
2 1 N

Exercice 07

1. Pour montrer lgalit, prendre x tel que xj = sign(ai0 ;j ) o i0 est tel que
P
j=1;:::;N jai;j j ; 8i = 1; :::; N , et sign(s) dsigne le signe de s.

j=1;:::;N

jai0 ;j j

2. Pour montrer lgalit, prendre x tel que xj0 = 1 et xj = 0 si j 6= j0, o j0 est tel que
P
P
j=1;:::;N jai;j0 j =
i=1;:::;N jai;j j :

3. Utiliser le fait que At A est une matrice symtrique positive pour montrer lingalit, et
pour lgalit, prendre pour x le vecteur propre associ la plus grande valeur propre de A.

Exercice 08

1. Montrer que si (A) < 1, alors 0 nest pas valeur propre de Id + A et Id


2. Utiliser le rsultat de Rayon spectral.

42

A.

SUGGESTIONS ET CORRIGS

Exercice 09
Le systme (1) scrit encore : Ax = b avec
0

0
2 3

B 4
A =B
@ 4
1
0
3

7 C
C ;
2 8 A
12
1

B
b=B
@

9 C
C
2 A
2

1
x1
B x2 C
C
et x = B
@ x3 A
x4

1ere tape :
(1)

? Le pivot a11 = 2 6= 0
0

0
2 3

B 4
B
@ 4
1
0
3

1
2 1
0
4
2
B
1
5 C
7
9 C
C
C ! B 0 0 3
@ 0
1
2 0
2 A
2 8
2 A
0
3
12
1 2
12
1 2
4

.
A(1) ..b(1)

.
! A(2) ..b(2)

2eme tape :
.
(2)
Dans A(2) ..b(2) on constate que le pivot a22 = 0. Do on fait une permutation des lignes
(2) . (2)
2 et 3 (par exemple) : Ce qui revient considerer A .. b
avec :

8
<
:

(2)

= P (2) A(2)

= P (2) b(2)

2 1
B 0
1
B
@ 0 0
0
3

1
B 0
=B
0
0

0
0
1
0

0
1
0
0

1
0
0 C
C
0
1

(2)

On a alors : Le pivot a22 6= 0


et

ou P (2)

(2)

0
2
3
12

(2)

(2)

a22 = a22 =
4
0
1

1
2 1
0
4
2
B
1
2 0
2 C
2 C
C
C !B 0
@ 0 0
3
1
5 A
5 A
0 0
6
1 8
2

(2) . (2)
A .. b

.
! A(3) .. b(3)

3eme tape :
(3)
? Le pivot a33 = 3 6= 0
43

2
B 0
B
@ 0
0

0
1

2
3

4
0
1

12

1
2 1
0
4
2
B
1
2 0
2 C
2 C
C !B 0
C
@ 0 0
3
1
5 A
5 A
0 0
6
1 8
2

.
A(3) .. b(3)

.
! A(4) .. b(4)

Rsolution de A0 x = b0 :
.
.
Posons A0 .. b0 = A(4) .. b(4) : On a alors
10
1 0
x1
2 1
0
4
B
B 0
C B
1
2 0 C
C B x2 C = B
A0 x = b0 () B
@ 0 0
3
1 A @ x3 A @
0 0
0
1
x4
8
8
2x
+
x
0x
+
4x
=
2
>
>
1
2
3
4
>
>
<
<
x2 2x3 + 0x4 = 2
()
()
3x3 + x4 = 5
>
>
>
>
:
:
x4 = 2
0

44

2 C
C
5 A
2

x1 = 3
x2 = 4
x3 = 1
x4 = 2

Chapitre 2
Calcul des valeurs et vecteurs propres
Les valeurs propres dune matrice sont un outil prcieux pour lingnieur. Comme application
principale, on notera le calcul des oscillations propres dun systme quil soit mcanique ou
lectrique. Les valeurs propres peuvent galement donner linformation contenue dans un grand
ensemble de donnes, telles les directions principales dun nuage de points, ou linformation
contenue dans un grand graphe. Et la liste ne sarrte videmment pas l. Rappelons tout
dabord la dnition mathmatique dune valeur propre et de son vecteur propre associ.
Dnition 2.0.1 Soit A 2 Rn n une matrice relle. La valeur 2 C est une valeur propre de
A sil existe v 2 Cn v 6= 0 (appel vecteur propre associ ) tel que Av = v.
La question du calcul des valeurs propres dune matrice est fondamentale. Il est cependant
peu pratique de devoir calculer les racines du polynme caractristique dune matrice det(A I)
an den connatre les valeurs propres.
Dans cette section, nous allons montrer comment on peut obtenir trs rapidement quelques
valeurs propres et leurs vecteurs propres associs en appliquant une mthode itrative, connue
sous le nom de mthode de la puissance. La question du calcul de toutes les valeurs propres
dune matrice, bien quimportante, dborde du cadre de ce cours.

2.1

Mthode de la puissance

Soit une matrice relle A 2 Rn n . Dans cette section, nous supposons que les valeurs propres
de A sont telles que
j 1 j > j 2 j j 3 j ::: j n j
et que chaque valeur propre i a un vecteur propre associ v (i) :La mthode de la puissance
est une mthode itrative qui sert a trouver une approximation de 1 . Notons limportance de
la condition de stricte ingalit j 1 j > j 2 j.
Nous supposons dabord que les vecteurs propres de A forment une base linaire de Cn .
Nous partons dun vecteur complexe arbitraire w(0) 2 Cn .
Celui-ci peut scrire comme une combinaison linaire des dirents vecteurs propres de A.
On a donc
w(0) = 1 v (1) + 2 v (2) + ::: + n v (n)
(01)
45

CHAPITRE 2.

CALCUL DES VALEURS ET VECTEURS PROPRES

avec i 2 C pour tout i : Supposons encore que 1 6= 0 : Nous procdons prsent aux
direntes itrations de la m ethode de la puissance. On calcule successivement
w(1) = Aw(0)
w(2) = Aw(1) = A2 w(0)
...
w(k) = Aw(k 1) = Ak w(0) :
Si on reprend (1), on peut egalement crire
w(k) = Ak w(0)
= Ak ( 1 v (1) + ::: + n v (n) )
= 1 k1 v (1) + ::: + n kn v (n)
en utilisant la proprit des vecteurs propres. Finalement, la dernire expression se recrit
w(k) =

k
1

1v

(1)

2(

2 k (2)

) v

+ ::: +

n(

n k (n)

) v

Comme j 1 j > j j j pour tout j 6= 1, tous les termes ( 1j )k tendent vers 0 quand k tend vers
linni. A linni, la quantit w(k) tend donc vers la
direction du vecteur propre dominant de A. En gnral videmment, soit si j 1 j > 1, la
quantit tend vers linni, soit si j 1 j < 1, la quantit tend vers 0, et il sera di cile de localiser
la vraie direction. Dans la pratique, on procde donc la normalisation des vecteurs aprs
chaque tape :
w(k)
(k)
z =
; w(k+1) = Az (k) :
(k)
kw k

Le processus converge alors vers le vecteur propre dominant. On peut obtenir la valeur
propre dominante en calculant chaque tape
T

qui converge vers

1.

= z (k) w(k+1)

z (k) Az (k)
= (k)T (k)
z
z

En eet, on a
T

qui converge vers 1 si zk converge vers v (1) . Remarquons que le processus que nous venons
de dcrire converge vers le vecteur propre avec une vitesse dpendant du ratio j 2 j = j 1 j. Plus
ce quotient est petit, plus la convergence est rapide. Le processus ne convergera donc pas vite
pour des matrices pour lesquelles les deux valeurs propres dominantes sont proches. Une faon
dacclrer le processus est de travailler avec une matrice B = A mI. En eet toutes les valeurs
propres de B sont exactement i m : Si on connat une approximation des valeurs propres, il
peut tre possible damliorer le ratio j 2 mj = j 1 mj. En rgle gnrale, on na videmment
pas accs aux valeurs propres et il est donc di cile de trouver le m optimal. Remarquons quon
peut aussi se servir de cette astuce pour calculer une autre valeur propre. En eet, si on applique
la mthode de la puissance B := A mI, celle-ci va converger vers la valeur propre la plus
loigne de m.
46

2.1. MTHODE DE LA PUISSANCE


Exemple
Soit la
0 matrice A : 1
1 2 0
@
2 1 0 A
A=
0 0
1

1
1
On se donne le vecteur : V1 = @ 0 A
0
partir duquel on construit la suite de vecteurs AV1 ; A2 V1 ; :::, reporte dans le tableau
ci-dessous.
1
5
13=5 41=13 121=41 365=121 ::::::
1
1
1
1
1
1
1
4
14
40
122
364
0
2
v
::::::
5
13
41
121
365
0
0
0
0
0
0
0
Les composantes des vecteurs de ce tableau ont t divises par0la premire
composante.
1
1
Il est clair que la suite des vecteurs tend vers le vecteur : u1 = @ 1 A
0
et que la suite des valeurs de converge vers la valeur 1 = 3:
La matrice A considre tant symtrique, le vecteur propre de sa transpose, correspondant
la valeur propre
1 sera :
0 1
1
v 1 = u1 = @ 1 A
0
Construisons prsent la matrice A1 qui est telle que :
0
1
1=2 1=2
0
t
u1 v 1 @
1=2
1=2 0 A
=
A1 = A
1 t
v 1 u1
0
0
1
0

1
1
On se donne nouveau un vecteur V1 : V1 = @ 0 A
0
et on procde de la mme manire quavec la matrice A
1
2

1
0
0

1
1

1
0

13=5
1
1
0

41=13
::::::
0

1
1
On voit que cette suite de vecteurs converge vers le vecteur propre : u2 = @ 1 A
0
et que la valeur propre qui lui correspond est 2 = 1:
47

CHAPITRE 2.

CALCUL DES VALEURS ET VECTEURS PROPRES

On recommence le processus
en dnissant
une matrice A2 partir de A1 ; u1 et v2 = u2 :
0
1
0 0 0
u2 t v 2
@ 0 0 0 A
A2 = A1
1 t v 2 u2 =
0 0
1
Il 0
est clair
1 que la valeur propre de cette matrice est 3 = 1 et que le vecteur propre est :
0
u3 = @ 0 A
1

2.2

Calcul de la valeur propre de plus petit module

Il est galement possible de calculer la valeur propre de plus petit module ( condition
quelle soit non nulle) avec la mthode de la puissance. En eet,
si A est inversible, on peut voir que si est une valeur propre de A, alors on a
Ax = x , x = A

( x) , A 1 x =

Ds lors, si est une valeur propre de A, 1 est une valeur propre de A 1 . On en dduit aussi
que si est la valeur propre de plus petit module de A, 1 sera la valeur propre de plus grand
module deA 1 . On peut donc appliquer la mthode de la puissance de manire totalement
similaire avec A 1 et ecrire
z (k) =

w(k)
; w(k+1) = A 1 z (k) :
kw(k) k

Remarquons que dans la dernire expression, il nest pas ncessaire dectuer la coteuse
opration de linversion de la matrice A. On peut tout fait se contenter dune factorisation
LU de la matrice et rsoudre le systme Aw(k+1) = z (k) a chaque itration. Finalement, on
peut remarquer que lon peut se servir de la mthode inverse de la puissance, associe un
changement de matrice B = A mI pour trouver la valeur propre qui est la plus proche dun
scalaire m.

2.3

Calcul dautres valeurs propres

Supposons que lon ait trouv la valeur propre dominante 1 de A. On souhaite prsent
calculer la deuxime valeur propre de plus grand module, savoir 2 .
La mthode que nous dcrirons en premier lieu ne convient que pour une matrice A symtrique. Si 1 et v 1 sont respectivement la valeur propre et le vecteur propre dj- calculs, on
forme la matrice
1 1T
A=A
(02)
1v v
Comme la matrice A est symtrique, A1 lest aussi. On calcule que A1 v 1 = 0 et que A1 v j =
j
j v pour tout vecteur propre v associ une valeur propre j ; j = 2; 3; :::; n: Par consquent,
j

48

2.4. ALGORITHME QR
A1 a tous les vecteurs propres de A et toutes ses valeurs propres except 1 qui est remplace
par zro.
Lorsque 2 et v 2 ont t calculs a partir de A1 , le processus peut tre rpt en formant
2 2T
A 2 = A1
, et ainsi de suite pour la dtermination des valeurs propres et vecteurs
2v v
propres restant.
Une autre mthode de dation consiste trouver une matrice nonsingulire P telle que
1
P v = e1 o e1 est le vecteur canonique e1 = (1; 0:::0)T .
On obtient alors de Av 1 = 1 v 1 que
1

P AP
(P AP

P v1 =
1

)e1 =

La dernire galit signie que la matrice P AP


doit tre de la forme
0
P AP

=@ 0
0

1P v

1 e1 :
1

, qui a les mmes valeurs propres que A,


1
bT
A1 A

et la matrice dordre (n 1) occupant le coin infrieur droit de P AP 1 possde donc bien les
proprits recherches. Comme pour lautre mthode de dation, on peut rpter le processus
en calculant A2 a partir de A1 une fois 2 et v 2 calculs.

2.4

Algorithme QR

La mthode que nous allons tudier maintenant sest rvle dans la pratique comme lune
des plus e caces pour la recherche de toutes les valeurs propres dune matrice symtrique ou
non-symtrique.
Lalgorithme QR consiste a construire une suite de matrices A = A1 ; A2 ; A3 ; ::: au moyen
des relations
Ak = Qk Rk ; Ak+1 = Rk Qk ; :::

(03)

O les matrices Qk sont orthogonales et les matrices Rk sont triangulaires suprieures.


Rappelons ce thorme dalgbre concernant la dcomposition
QR dcoulant du principe dorthogonalisation de Gram-Schmidt.
Thorme 2.4.1 Toute matrice A 2 Rn n carre non singulire peut tre ecrite sous la forme
A = QR o R dsigne une matrice non singulire triangulaire suprieure et o Q dsigne une
matrice unitaire, cest- -dire QQT = QT Q = I:
On peut montrer que la matrice Ak tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A.
49

CHAPITRE 2.

CALCUL DES VALEURS ET VECTEURS PROPRES

Thorme 2.4.2 (Convergence de lalgorithme QR) Si les valeurs propres


de A satisfont les conditions
j 1 j > j 2 j > j 3 j > ::: > j

i,

i = 1; 2; :::; n

nj

(04)

alors la matrice Ak dnie en (4) tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A, ranges dans lordre des modules dcroissants.
Preuve. Puisque les valeurs propres de A sont toutes direntes (et relles), il existe une
matrice non-singulire (et relle) X, telle que :
A = XDX

(05)

o
D := diag( 1 ;

2 ; :::;

n)

Dnissons les matrices Q; R; L et U par les relations


X = QR

= LU:

(06)

Les matrices R et U sont triangulaires suprieures, la matrice L est triangulaire infrieure


avec tous ses lments diagonaux gaux 1 et la matrice Q est orthogonale. La matrice R est
non-singulire puisque X lest galement. La dcomposition QR existe toujours, tandis que la
dcomposition LU existe seulement si tous les mineurs principaux de X 1 sont non nuls.
Analysons maintenant en dtail une tape de lalgorithme QR. On a
Ak+1 = Rk Qk = QTk Ak Qk

(07)

A partir de cette dernire relation on dduit


Ak+1 = PkT APk

(08)

Pk := Q1 Q2 :::Qk

(09)

Uk := Rk Rk 1 :::R1

(10)

o
Si lon pose alors
on calcule
Pk Uk = Q1 Q2 :::Qk

(Qk Rk ) Rk 1 :::R2 R1

= Pk 1 Ak Uk
= APk 1 Uk

1
1

(11)

o la dernire galit est obtenue grce (08). On obtient alors par rcurrence de (11)
Pk Uk = Ak
50

(12)

2.4. ALGORITHME QR
Cette dernire relation montre que Pk et Uk sont les facteurs de la d composition QR de
la matrice Ak .
Si on reprend a prsent (06), on a successivement daprs (08), (05) et (06)
Ak+1 = PkT APk
= PkT XDX

Pk

= PkT QRDR 1 QT Pk

(13)
1

La matrice R etant triangulaire suprieure, la matrice R lest aussi et a pour lments


diagonaux les inverses des lments diagonaux de R. Le produit RDR 1 est donc une matrice
triangulaire suprieure dont la diagonale est gale D. Il su t donc pour tablir le thorme
de montrer que Pk ! Q:
Pour tablir ce dernier fait, considrons la matrice Ak qui, tant donn (05) et (06) peut
scrire sous les formes
Ak = XDk X

= QRDk LU = QR Dk LD

Dk U

(14)

On constate que la matrice Dk LD k est une matrice triangulaire infrieure dont les lments
diagonaux sont gaux 1, tandis que llment (i; j) est gal lij ( i = j )k lorsque i > j; et nous
pouvons donc crire
Dk LD k = I + Ek o lim Ek = 0
k!1

Lquation (14) donne alors


Ak = QR (I + Ek ) Dk U
1

= Q I + REk R

RDk U

= Q (I + Fk ) RDk U
o
lim Fk = 0

k!1

On peut alors eectuer la dcomposition QR de la matrice (I + Fk ), soit


~

(I + Fk ) = Qk Rk
~

o Qk et Rk tendent vers I puisque Fk tend vers zro. On a donc nalement


~

Ak =

Rk RDk U

QQk

(15)

Le premier des facteurs de (15) est orthogonal et le second est triangulaire suprieur : on a
donc bien obtenu une dcomposition QR de Ak . Mais cette dcomposition est unique puisque
~

Ak est non-singulire. Comparant alors (15) et (12) on a Pk = QQk et donc Pk ! Q puisque


~

Qk ! I.
51

CHAPITRE 2.

2.5

CALCUL DES VALEURS ET VECTEURS PROPRES

Mthode de Jacobi

Soit une matrice carre symtrique A dordre n dont on cherche dterminer les valeurs
propres. La mthode consiste en des transformations successives du type T 1 AT qui amnent
la matrice A sous la forme diagonale. Comme les transformations de ce type ne modient pas
les valeurs propres, ces dernires se trouvent, en n de calcul, sur la diagonale de la matrice
transforme. De plus, il est possible de calculer aussi les valeurs propres Vi , i = 1; :::; n de A
en multipliant les valeurs propres i de la matrice nale, qui ne sont autres que les colonnes de
la matrice identit, par le produit T1 T2 :::Tk des matrices de transformations successives, soit :
Vi = T1 T2 :::Tk

i = 1; :::; n

Dans la mthode de Jacobi, la matrice T est du type :


(p)ieme
(q)ieme
colonne
colonne
#
0
1 #
1:::::::::::0
0::::::0::::::0::::::0
B
C
:::::::::::::::::::::::::::::::::::::::
B
C
B 0::::::::: cos ' 0::::::0
sin '::::::0 C
B
C
C
::::::::::::::::::::::::::::::::::::::
T =B
B
C
B :::::::::::: sin ' 0:::::0
C
cos
'::::0
B
C
A
@
:::::::::::::::::::::::::::::::::::::::
0::::::::::::::0 0:::::::::::::::::::::1
ieme
(p)
ligne
(q)ieme ligne
qui est gale la matrice unit du mme ordre que la matrice A, lexeption des lments
tpp ; tqq ; tpq et tqp . p et q sont tels que llment apq soit le plus grand lment extra-diagonal et
o ' est tel que :
2apq
tan (2') =
app aqq
Exemple
Soit la
0 matrice A : 1
1 2 0
@
2 1 0 A
A=
0 0
1
Le plus grand lment extra-diagonal de la matrice A tant llment a12 , langle ' sera tel
que :
2a12
a11 a22
Comme a11 = a22 ; ' = 4 , la matrice transformation T12 scrit alors :
p
0 p
1
2=2
2=2
0
p
p
T12 = @ 2=2
2=2 0 A
0
0
1
tan (2') =

52

2.5. MTHODE DE JACOBI


do

1
3 0
0
1 0 A
A1 = T12 AT12 = @ 0
0 0
1
qui est diagonale. Les valeurs propres de A1 ; et par consquent de A sont donc : x1 = 3 et
x2 = x3 = 1:
Quant aux vecteurs propres, puisque le calcul sest opr en une seule tape, ils sont donns
directement par les colonnes de la matrice T . On a donc :
0 1 0 1
0 1 0
1
0 1 0 1
1
1
0
1
0
0
@
A
@
A
@
A
@
A
@
A
@
0
0
1
1
0
0 A
V1 = T12
u
; V2 = T12
u
; V3 = T12
u
0
0
0
0
1
1

53

TRAVAUX DIRIGS 2

Travaux dirigs 2
Exercice 01
1. Soit A MN (IR) une matrice symtrique. Soit N IR valeur propre de A t.q. |N | = (A) et soit
x(0) IR N . On suppose que N nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A N Id). On dfinit la suite (x(n) )nIN par x(n+1) = Ax(n) pour n IN. Montrer que
(a)

x(n)
(N )n

(b)

)x(n+1) )
)x(n) )

x, quand n , avec x %= 0 et Ax = N x.
(A) quand n .

Cette mthode de calcul sappelle mthode de la puissance".


2. Soit A MN (IR) une matrice inversible et b IR N . Pour calculer x t.q. Ax = b, on considre la mthode
itrative appele mthode I" en cours, et on suppose B symtrique. Montrer que, sauf cas particuliers
prciser,
(a)
(b)

)x(n+1) x)
)x(n) x)

(B) quand n (ceci donne une estimation de la vitesse de convergence).

)x(n+1) x(n) )
)x(n) x(n1) )

(B) quand n (ceci permet destimer (B) au cours des itrations).

Exercice 02


cos
Soit A =
sin

sin
0

1. Calculer les valeurs propres de la matrice A.


2. Effectuer la dcompositionQR de la matrice A.
3. Calculer A1 = RQ et A1 = RQ bId o b est le terme a122 de la matrice A1
1.
1 Q
4. Effectuer la dcomposition QR de A1 et A1 , et calculer les matrices A2 = R1 Q1 et A2 = R
Exercice 03
1. Soit A Mn (IR) une matrice symtrique. Soit n IR valeur propre de A t.q. |n | = (A) et soit
x(0) IR n . On suppose que n nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A n Id), ce qui revient dire que . lorsquon crit le vecteur propre x(0) dans la base des vecteurs
propres, la composante sur le vecteur propre associ n est non nulle. On dfinit la suite (x(k) )nIN par
x(k+1) = Ax(k) pour n IN. Montrer que
(a)

x(k)
(n )n

(b)

kx(k+1) k
kx(k) k

x, quand k , avec x 6= 0 et Ax = n x.
(A) quand n .

Cette mthode de calcul de la plus grande valeur propre sappelle mthode de la puissance".
54

2. Soit A Mn (IR) une matrice inversible et b IR n . Pour calculer x t.q. Ax = b, on considre un mthode
itrative : on se donne un choix initial x(0) , et on construit la suite x(k) telle que x(k+1) = Bx(k) + c
avec c = (Id B)A1 b, et on suppose B symtrique. On rappelle que si (B) < 1, la suite tend vers x.
Montrer que, sauf cas particuliers prciser,
kx(k+1) xk
kx(k) xk

(a)

(B) quand k (ceci donne une estimation de la vitesse de convergence de la


mthode itrative).

(b)

kx(k+1) x(k) k
kx(k x(k1) k

(B) quand k (ceci permet destimer (B) au cours des itrations).

Exercice 04
Soient u et v deux vecteurs de IR n . On rappelle que la projection orthogonale proju (v) du vecteur v sur la droite
vectorielle engendre par u peut scrire de la manire suivante :
proju (v) =

vu
u,
uu

o u v dsigne le produit scalaire des vecteurs u et v. On note k k la norme euclidienne sur IR n .

1. Soient (a1 , . . . , an ) une base de IR n . On rappelle qu partir de cette base, on peut obtenir une base orthogonale
(v1 , . . . , vn ) et une base orthonormale (q1 , . . . , qn ) par le procd de Gram-Schmidt qui scrit :
a1
ka1 k
v2
q2 =
kv2 k
v3
q3 =
kv3 k
v4
q4 =
kv4 k
..
.

v1 = a1 ,

q1 =

v2 = a2 projv1 (a2 ),
v3 = a3 projv1 (a3 ) projv2 (a3 ),
v4 = a4 projv1 (a4 ) projv2 (a4 ) projv3 (a4 ),
..
.
vk = ak

k1
X

projvj (ak ),

qk =

j=1

On a donc
vk = ak

k1
X
j=1

ak vj
vj ,
vj vj

qk =

vk
kvk k

vk
.
kvk k

1. Montrer par rcurrence que la famille (v1 , . . . , vn ) est une base orthogonale de IR n .
2. Soient A la matrice carre dordre n dont les colonnes sont les vecteurs aj et Q la matrice carre dordre N dont
les colonnes sont les vecteurs qj dfinis par le procd de Gram-Schmidt (1.132), ce quon note :




Q = q1 q2 . . . qn .
A = a1 a2 . . . an ,
55

TRAVAUX DIRIGS 2

Montrer que
ak = kvk kqk +

k1
X
j=1

ak vj
qj .
kvj k

En dduire que A = QR, o R est une matrice triangulaire suprieure dont les coefficients diagonaux sont positifs.
3. Montrer que pour toute matrice A Mn (IR) inversible, on peut construire une matrice orthogonale Q (c.. d.
telle que QQt = Id) et une matrice triangulaire suprieure R coefficients diagonaux positifs telles que A = QR.


1 4
.
4. Donner la dcomposition QR de A =
1 0
5. On considre maintenant lalgorithme suivant (o lon stocke la matrice Q orthogonale cherche dans la matrice
A de dpart (qui est donc crase)
Algorithme 1.63 (Gram-Schmidt modifi).
Pour k = 1, . . . , n,
Calcul de la norme de ak
Pn
1
rkk := ( i=1 a2ik ) 2

Normalisation
Pour = 1, . . . , n
ak := ak /rkk
Fin pour
Pour j = k + 1, . . . , n
Produit scalaire correspondant qk aj
Pn
rkj := i=1 aik aij

On soustrait la projection de ak sur qj sur tous les vecteurs de A aprs k.


Pour i = k + 1, . . . , n,
aij := aij aik rkj
Fin pour i
Fin pour j
Montrer que la matrice A rsultant de cet algorithme est identique la matrice Q donne par la mthode de GramSchmidt, et que la matrice R est celle de Gram-Schmidt. (Cet algorithme est celui qui est effectivement implant,
car il est plus stable que le calcul par le procd de Gram-Schmidt original. )

56

SUGGESTIONS ET CORRIGS

Suggestions et Corrigs
Exercice 01
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fN ) (IR N )N une base
orthonorme de vecteurs propres de A associe aux valeurs propres (1 , . . . , N ) IR N . On dcompose
&N
&N
&N
x(0) sur (fi )i=1,...,N : x(0) = i=1 i fi . On a donc Ax(0) = i=1 i i fi et An x(0) = i=1 ni i fi .
On en dduit :
1n
N 0
%
x(n)
i
=
i fi .
nN
N
i=1
Comme N nest pas valeur propre,
lim (

n+

i n
) = 0 si i %= N .
N

Soient 1 , . . . , p les valeurs propres diffrentes de N , et p+1 , . . . , N = N . On a donc


&N
(n)
limn+ xn = i=p+1 i fi = x, avec Ax = N x.
N

De plus, x %= 0 : en effet, x(0)


/ (Ker(A N Id)) = V ect{f1 , . . . , fp }, et donc il existe i {p +
1, . . . , N } tel que i %= 0.
Pour montrer (b), remarquons que :
(n+1)

"x

"=

N
%

n+1
i
i

i=1

(n)

et "x

"=

N
%

ni i

i=1

car (f1 , . . . , fN ) est une base orthonorme. On a donc


"x(n+1) "
= nN
(n)
"x "

"

x(n+1)
"
n+1
"x"
N
= N lorsque n +.

N
"x"
x(n)
"
"
N

2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) % Ker(B N Id)
o N est la plus grande valeur propre de B, (avec |N | = (B)et N non valeur propre), alors
"y (n+1) "
(B) lorsque n +,
"y (n) "
cestdire

"x(n+1) x"
(B) lorsque n +.
"x(n) x"
57

Exercice 03
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fn ) (IR n )n une base
orthonorme de vecteurs propres
propres
(1 , . . . , n ) IR nP
. On dcompose
Pn de A associe aux valeurs
Pn
n
(0)
(0)
(0)
n (0)
x sur (fi )i=1,...,n : x = i=1 i fi . On a donc Ax = i=1 i i fi et A x = i=1 ni i fi .
On en dduit :
n
n 
X
i
x(n)
i fi .
=
nn
n
i=1
Comme n nest pas valeur propre,

lim (

n+

i n
) = 0 si i 6= n .
n

Soient 1 , . . . , p les valeurs propres diffrentes de n , et p+1 , . . . , n = n . On a donc


Pn
(n)
limn+ xn = i=p+1 i fi = x, avec Ax = n x.
n

De plus, x 6= 0 : en effet, x(0)


/ (Ker(A n Id)) = V ect{f1 , . . . , fp }, et donc il existe i {p +
1, . . . , n} tel que i 6= 0.
Pour montrer (b), remarquons que :
(n+1)

kx

k=

n
X

n+1
i
i

i=1

(n)

et kx

k=

n
X

ni i

i=1

car (f1 , . . . , fn ) est une base orthonorme. On a donc


kx(n+1) k
= nn
kx(n) k
2.

x(n+1)
k
kxk
n+1
n

= n lorsque n +.
n
kxk
x(n)
k
k
n

a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) 6 Ker(B n Id) o
n est la plus grande valeur propre de B, (avec |n | = (B)et n non valeur propre), alors
ky (n+1) k
(B) lorsque n +,
ky (n) k
cestdire

kx(n+1) xk
(B) lorsque n +.
kx(n) xk
58

SUGGESTIONS ET CORRIGS

b) On applique maintenant 1a) y (n) = x(n+1) x(n) avec


y (0) = x(1) x(0) o x(1) = Ax(0) .
On demande que x(1) x(0)
/ Ker(B n Id) comme en a), et on a bien y (n+1) = By (n) , donc
ky (n+1) k
(B) lorsque n +.
ky (n) k

Exercice 04
1. Par dfinition de la projection orthogonale, on a v1 v2 = a1 (a2 proja1 (a2 )) = 0.
Supposons la rcurrence vraie
au rang N 1 et montrons que vn est orthogonal tous les vi pour i = 1, . . . , N 1.
Pn1
a v
Par dfinition, vn = an j=1 vkj vjj vj , et donc
vn vi = an vi

n1
X
j=1

an vj
an vi
vj vi = an vi
vj vj
vi vi

par hypothse de rcurrence. On en dduit que vn vi = 0 et donc que la famille (v1 , . . . vn ) est une base orthogonale.
2.

De la relation (1.132), on dduit que :


ak = vk +

k1
X
j=1

wk vj
vj ,
vj vj

qk =

k1
X

ak vj
qj .
kvj k

et comme vj = kvj kaj , on a bien :


ak = kvk kqk +

j=1

vk
,
kvk k

La k-ime colonne de A est donc une combinaison linaire de la k-me colonne de Q affecte du poids kvk k et
ak vj
. Ceci scrit sous forme matricielle A = QR o R est une matrice
des k 1 premires affectes des poids klv
jk
ak vj
carre dont les coefficients sont Rk,k = kvk k, Rj,k = kv
si j < k, et Rj,k = 0 si j > k. La matrice R est donc
jk
bien triangulaire suprieure et coefficients diagonaux positifs.


3. Si A est inversible, par le procd de Gram-Schmidt (1.132) on construit la matrice Q = q1 q2 . . . qn ,
et par la question 1.b, on sait construire une matrice R triangulaire suprieure coefficients diagonaux positifs
A = QR.
 
 
1
1 2
4. On a a1 =
et donc q1 = 2
1
2

   
 

 
 
2
4 4 1
2
4
a2 v1
1
1 2

2 .
=
. Donc q 2 = 2
2
, et Q = 2
Puis a2 =
et donc v2 = a2 v1 v1 v1 =
1
2
0
0
2
2 2





a2 v1 
kv1 k kv1 k
2 22
2
2 .
Enfin, R =
, et Q = 21
=
0 2 2
2 2
0
kv1 k
59

Chapitre 3
Rsolution dquations et systmes non
linaires
3.1

Racines de lquation f (x) = 0

Dnition 3.1.1 Soit f une fonction de R dans R dont le domaine de dnition est une partie
Df de R . On dit que 2 Df est une racine de lquation
f (x) = 0

(1)

f( ) = 0

(2)

, si
Rsoudre lquation (1) cest trouver tous les nombres rels tels que (2) soit vrie.
En dautres termes, on cherche dterminer lensemble
Z (f ) = fx 2 Df =f (x) = 0g, appel les de f . Z (f ) est donc lensemble des racinees de f (x) = 0:
Il nest pas toujours possible de rsoudre compltement ce problme pour toutes formes de fonctions f . Z (f ) peut en eet, avoir un grand nombre de structures possibles.
Exemples 2.1
1- Soit f (x) = ax2 + bx + c; a; b; c 2 R, avec Df = R: Alors ker f contient au plus deux lments
et peut aussi tre vide.
2- Soit f (x) = sin(x) et Df = R+ ; alors les racines de lquation f (x) = 0 sont en nombres
inni dnombrable et Z (f ) = fx 2 R+ =x = k ; k = 0; 1; 2; 3; :::g
3- Pour f dnie par
sin( x1 ) si x > 0
f (x) =
0
si x 0
Les racines de lquation f (x) = 0 sont dans ce cas la demi droite ngative R et les lments
de la suite S = k1 ; k = 1; 2; 3; ::: :
Ainsi Z (f ) = R [ x 2 R = x = k1 ; k = 1; 2; 3; :::
On peut remarquer quil existe (au moins) une racine dans S (dirente de 0) aussi prs que
lon veut de 0: On dit que 0 est un point daccumulation de la suite S:
60

3.2. SPARATION DES RACINES

Dnition 3.1.2 On dit quune racine


dune quation f (x) = 0 est sparable si on peut
trouver un intervalle [a; b] tel que soit la seule racine de cette quation dans [a; b] ; ou encore
si Z (f ) \ [a; b] = f g
La racine est alors dite spare ( on dit aussi racine isole).
Remarque 3.1.1 Dans les deux cas 1 et 2 de lexemple 2:1 ci-dessus, toutes les racines sont
sparables. Par contre dans le cas 3, les seules racines sparables sont les lments de S. Les
lments de S qui sont les plus prs de 0 sont les plus di cile sparer. La longueur de
lintervalle [a; b] de la dnition 2:2 devient en eet, de plus en plus petite au fur et mesure
que lon sapproche de 0 dans S.

3.2

Sparation des racines

Il ny a pas de mthode gnrale pour sparer les racines dune quation f (x) = 0.
Pratiquement, en dehors de ltude thorique directe de f si f est donne analytiquement, on
utilise deux types de mthodes : une mthode graphique et une mthode de balayage.

3.2.1

Mthode graphique

Soit on trace (exprimentalement ou par tude des variations de f ) le graphe de la fonction f


et on cherche son intersection avec laxe Ox: Soit on dcompose f en deux fonctions f1 et f2
simples tudier, telles que : f = f1 f2 ; et on cherche les points dintersection des graphes
de f1 et f2 , dont les abscisses sont exactement les racines de lquation f (x) = 0
Remarque 3.2.1 On choisit souvent f1 et f2 de faon ce que leur courbes soient des courbes
connues.
Exemples 2.2
1- Soit rsoudre graphiquement lquation : x2 a = 0; o a > 0; x. (D = R)
Les variations et la courbe reprsentative de la fonction f (x) = x2 a sont donnes par le
tableau et le graphe suivants :

61

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES


p
Bien que dans cet exemple les solutions soient videment connues (x = + a): on voit que
lintersection du graphe de la fonction f (x) = x2 a avec laxe Ox permet de localiser les
racines de lquation f (x) = 0:

62

3.2. SPARATION DES RACINES

2- Soit lquation
( )
x log x = 1;
x>0
(D = R+ )
1
Cette quation scrit encore sous la forme : log x = x ; En posant f1 (x) = log x: f2 (x) = x1 et
f (x) = f1 (x) f2 (x) = log x x1 ; lquation ( ) devient quivalente f (x) = f1 (x) f2 (x) = 0:
Les variations des fonctions f1 et f2 sont donnes par les courbes ci-dessous :
Labscisse du point dintersection des deux courbes permet de localiser la solution de ( ) et
fournit mme une (premire) approximation de celle-ci (et ceci en utilisant, par exemple, du
papier millimtr ou encore en graduant les deux axes).

3.2.2

Mthode de balayage

On considre une suite croissante nie fxi g ; (i = 0; 1; :::; n) de valeurs de x rparties sur lintervale [a; b] contenu dans le domaine de dnition D de f . Si f est continue et si f (xi )f (xi+1 ) < 0
alors il existe entre xi et xi+1 au moins une racine de f (x) = 0 (cest le thorme classique des
valeurs intermdiaires).
La mthode consiste donc dterminer parmi les quantits f (xi )f (xi+1 ); (i = 0; 1; :::; n) celles
qui sont ngatives.
Remarque 2.3
1- La mthode de balayage ne permet de conclure qu lexistence d(au moins) une racine dans
un intervalle [xi ; xi+1 ] :
Si une racine est double (f ( ) = f 0 ( ) = 0 et f "( ) 6= 0); cette mthode ne permet pas de
la sparer.

63

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

De mme, si deux racines sont trs voisines, on risque de ne pas les sparer dans le processus
ci-dessus comme le montre la gure suivante :

2- Lintervalle de dpart [a; b] doit tre su samment grand an de contenir les racines ventuelles de lquation f (x) = 0; mais sauf dans des cas particulier, on ne peut pas estimer
correctement sa longueur.

3.3

Approximation des racines : Mthodes itrative

Dnition 3.3.1 On appelle mthode itrative un procd de calcul de la forme :


xk+1 = F (xk );

k = 0; 1; 2; :::

(a)

dans lequel on part dune valeur (approche) x0 pour calculer x1 ; puis laide de x1 on calcule
x2 , etc...
La formule (a) est dite formule de rcurrence.
Le procd est dit convergent si la suite (xk ) est convergente.
Parmi les mthode numrique en gnral et les mthode itratives en particulier, les plus
puissantes permettant la rsolution approche des quations de la forme f (x) = 0 gure la
mthode suivante :
64

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

3.3.1

Mthode de Newton-Raphson

Notons par x une racine (exacte) recharche et par x0 une valeur approche de x .
On suppose que f est de classe C 1 au voisinage de x . Le dveloppement de Taylor dordre
deux de f nous donne :
f (x ) = f (x0 ) + f 0 (x0 )(x

x0 ) +

f "( )
(x
2

x0 )2

2 (x ; x0 )

et comme f (x ) = 0, on supposant f (x0 ) 6= 0; on aurra :


x = x0

f (x0 )
f 0 (x0 )

f "( )
(x
2f 0 (x0 )

x0 )2

)
et en ngligeant le reste R2 = 2ff "(
x0 )2 ; la quantit x0
0 (x ) (x
0
x1 , constitue alors une valeur approche amliore de x .
En itrant le procd on trouve la formule de rcurrence :

xk+1 = xk

f (xk )
f 0 (xk )

(b)
f (x0 )
f 0 (x0 )

dans (b) quon notera

k = 0; 1; 2; :::

quon appelle : Formule de rcurrence de Newton-Raphson.


Gomtriquement :

tg( ) =

f (xk )
4xk

= f 0 (xk )

et donc 4xk =

f (xk )
f 0 (xk )

o 4xk = xk

= xk

xk+1

xk+1 ) xk+1 = xk

f (xk )
f 0 (xk )

Commentaire 2.1 Une mthode itrative ne prsente de lintrt que si elle est convergente
(vers les valeurs recherches), et cest dans ce sens que lon tudiera la convergence de la mthode
de Newton-Raphson de manire plus approfondie plus bas.
65

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES


Exemple 2.3 (Calcul itrative de la valeur inverse)
Soit a > 0 donn. On dsire calculer son inverse a1 :
On peut ramener le problme la rsolution de lquation f (x) =
de Newton-Raphson, nous avons :
xk+1 = xk

f (xk )
= 2xk
f 0 (xk )

1
x

a = 0: Selon la formule

a x2k

Remarquons que dans cette formule de rcurrence on ne fait pas de division.


Pour a = 7 et on partant de x0 = 0:2; le calcul donne :
x1 = 0:12; x2 = 0:1392; x3 = 0:14276352; x4 = 0:142857081; ::: et cette suite converge vers
1
= 0:142857142:::
7
Exemple 2.4 (Comparaison de direntes formules de rcurrence)
1
(1)
Soit rsoudre lquation
x = e x =exp( x1 )
Lquation (1) peut tre transforme de direntes manires an de se mettre sous la forme
f (x) = 0:
i) x = exp( x1 ) , x exp( x1 ) = f (x) = 0
La formule de Newton-Raphson donne :
xk+1 = xk
ii) Posons y = x1 :
Lquation (1) devient alors
Raphson donne encore :

1
y

xk

exp( x1k )

x2k

exp( x1k )

exp(y) , 1

yk+1 = yk +
iii) x = exp( x1 ) , log(x) =
donne enn :

x2k

1
x

,1

(i)

y exp(y) = f (y) = 0 et la formule de Newton-

exp( yk ) yk
1 + yk

(ii)

x log(x) = f (x) = 0 et la formule de Newton-Raphson

xk log(xk )
(iii)
1 + log(xk )
Nous disposons ainsi de trois formules rcurrentes direntes pour le mme problme, et on
constate que les formules (ii) et (iii) sont mieux adaptes au calcul que la formule (i)
xk+1 = xk +

En tudiant les variations de f , par exemple f (x) = x exp( x1 ); on constate quil nexiste
quune seule racine x de (1); et quelle se trouve au voisinage de x0 = 1:8 .
Et del :
1
Pour le (ii) : En partant de y0 = 0:6 ' 1:8
; nous obtenons :
y1 = 0:568007; y2 = 0:567144; y3 = 0:567143; etc::: et x ' y13 ' 1:763223
Pour le (iii) : En partant de x0 = 1:8 :
x1 = 1:763461; x2 = 1:763223; x3 = 1:763223; etc::: et x ' 1:763223 = x3
66

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

Critre darrt dans la mthode de Newton-Raphson


Soit x une racine isole de lquation f (x) = 0; x0 une approximation de x et (xk ) la suite des
approximations obtenue a laide de la formule de rcurence de Newton-Raphson. On suppose
que f est de classe C 1 au voisinage de x .
Le dveloppement de Taylor a lordre 1 donne, pour k 2 N :
f (xk ) = f (x ) + f 0 ( )(xk
donc

xk

Dautre part :

x =

f (xk )
;
f 0( )

xk+1 = xk

f (xk )
f 0 (xk )

f (xk )
f 0 (xk )

2 (xk ; x )

x );

2 (xk ; x )

=) xk+1

xk =

f (xk )
f 0 (xk )

et on fait lapproximation f 0 ( ) ' f 0 (xk ) pour obtenir enn : jxk x j ' jxk+1 xk j :
Ainsi, si on veut calculer une approximation de x avec n dcimales exactes, il su t daller
dans les itrations jusqua ce que k vrie :
jxk+1 xk j 0:5 10 n .

3.3.2

Mthode de Newton-Raphson pour deux inconnues

Soit rsoudre le systme dquations non linaires :


F (x; y) = 0
G(x; y) = 0
o F et G sont des fonctions donnes des variables indpendantes x et y:
Soit (x0; y0 ) une valeur approche dune solution exacte (x ; y ):
Posons :
x = x 0 + "0
y = y0 + 0

o "0 et

sont les erreurs absolues de x0 et y0 :

En faisant un dveloppement de Taylor lordre 1 des deux fonctions F et G au point (x0 ; y0 ),


on obtient :
0 = F (x ; y ) = F (x0 + "0 ; y0 +

0)

= F (x0 ; y0 ) +

@F
@F
(x0 ; y0 ):"0 +
(x0 ; y0 ):
@x
@x

o R0 = reste = termes dordres suprieurs 1 en "0 et


et
0 = G(x ; y ) = G(x0 + "0 ; y0 +

0)

= G(x0 ; y0 ) +
67

+ R0

+ R1

0:

@G
@G
(x0 ; y0 ):"0 +
(x0 ; y0 )
@x
@x

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

o R1 = reste = termes dordres superieurs 1 en "0 et


Ou bien sous forme matricielle :
0
0

F
G

"0

x
y

(x0 ;y0 )

x0
y0

"0

R0
R1

(x0 ;y0 )

, et donc :
@F
@x
@G
@x

@F
@y
@G
@y

@F
@y
@G
@y

@F
@x
@G
@x

On suppose lexistence de

@F
@x
@G
@x

0.

@F
@y
@G
@y

F
G

:
(x0 ;y0 )

+
(x0 ;y0 )

termes dordre suprieurs 1en "0 et 0 :

del :
x
y

@F
@x
@G
@x

x0
y0

@F
@y
@G
@y

:
(x0 ;y0 )

F
G

+
(x0 ;y0 )

termes dordre suprieurs


1 en "0 et 0 :

Et en ngligeante le reste qui est form des termes dordres suprieurs 1, la quantit :
x0
y0

@F
@y
@G
@y

@F
@x
@G
@x

:
(x0 ;y0 )

F
G

(x0 ;y0 )

devient une approximation (x1 ; y1 ) de la valeur exacte (x ; y ).


Ainsi :
1
@F
@F
x1
x0
F
@x
@y
=
:
@G
@G
y1
y0
G
@x
@y
(x0 ;y0 )

(x0 ;y0 )

et en itrant le procd, on trouve la formule de rcurrence de Newton-Raphson pour


deux inconnues :
xk+1
yk+1

x0
y0

@F
@x
@G
@x

@F
@y
@G
@y

:
(xk ;yk )

F
G

; k = 0; 1; 2; :::
(xk ;yk )

Exemples 2.5 Soit rsoudre lquation :


x = 2 sin x
(a)
me
1
mthode : On pose f (x) = x 2 sin x; et en utilisant la mthode rcurrente de NewtonRaphson pour une seule variable, an de rsoudre lquations f (x) = 2 sin x = 0, on aura :
xk+1 = xk

f (xk )
= xk
f 0 (xk )

xk 2 sin xk
; k = 0; 1; 2; :::
1 2 cos xk
68

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

2me mthode : On dcompose (a) en un systme de deux quations


y=x
()
y = 2 sin x

F (x; y) = y
G(x; y) = y

x=0
2 sin x = 0

et la formule de rcurrence de Newton-Raphson pour deux inconnues devient :


xk+1
yk+1

3.3.3

xk
yk

1
1
2 sin xk 1

yk
yk

xk
2 sin xk

; k = 0; 1; 2; :::

La mthode de Newton-Raphson et les polynme

On suppose que f est un polynme Pn de dgr n coe cients rels, nayant que des racines
distinctes :
f (x) = Pn (x) = a0 xn + a1 xn 1 + ::: + an 1 x + an ;
a0 6= 0

Question : Estimer les racines relles de lquation non linaire Pn (x) = 0.


Dnition 3.3.2 On appelle suite de sturm la suite dnie par :
8
S0 (x) = Pn (x)
>
>
> S (x) = P 0 (x)
>
1
>
n
>
>
>
S
Reste(S0 (x)=S1 (x))
2 (x) =
>
< .
..
>
>
Si (x) = Reste(Si 2 (x)=Si 1 (x))
>
>
>
>
.
>
> ..
>
:
Sn (x) = Reste(Sn 2 (x)=Sn 1 (x))

Thorme 3.3.1 (Thorme de Sturm : Nombres de racines relles)


Le nombre de solutions relles (qui sont supposes simples) de lquation Pn (x) = 0 est gale
N (a) N (b) ou N ( ) est le nombre de changement de signe de la suite fSi ( )g : Les relles a
et b tant les extrmits de lintervalle contenant les racines.
Thorme 3.3.2 (Localisation) Les racines relles de lquation Pn (x) = 0 sont contenues
1
max jai j .
dans lintervalle ] T; T [ avec T = 1 +
ja0 j i=1;n

Proprit 2.1 Si la suite Si est dordre p ie : Sp+1 (x) = 0; (p < n);


alors : les racines multiples de Pn (x) sont les racines simples de Sp (x).
Remarque 3.3.1 La divergence, dans le cas des polynmes, de la mthode de Newton-Raphson
est due deus raisons :
1- Soit au mauvais choix de x0 .
2- Soit quon na pas de racines relles.
69

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES


Exemples 2.6 Rsoudre par la mthode de Newton-Raphson, lquation :
x3

3x2 + x

3=0

Localisation des solutions :


1
max jai j = 4: Et donc les solution de lquation considre, si elles existent, se
T =1+
ja0 j i=1;n
trouvent contenues dans lintervalle ] 4; 4[ :
Nombre de racines :
Conciderons pour cel la suite de Sturm associe au polynme P3 (x) = x3 3x2 + x 3:
8
S0 (x) = P3 (x) = x3 3x2 + x 3
>
>
>
>
< S1 (x) = P30 (x) = 3x2 6x + 1
S2 (x) = Reste(S0 (x)=S1 (x)) = Reste(x3 3x2 + x 3=3x2 6x + 1)
>
>
= x + 2 ( un facteur multiplicatife canstant prs)
>
>
:
S3 (x) = Reste(S1 (x)=S2 (x)) = Reste(3x2 6x + 1=x + 2) = 25
Nous avons alors :

S0 (x) S1 (x) S2 (x) S3 (x) N ( )


+
2
+
+
+
1
Le nombre de racines relles de lquation concidre est donc 2 1 = 1:
Rsoudre par la mthode de Newton-Raphson :
Pour cela prcisons encore plus lintervalle contenant la racine cherche x :
Nous avons P3 (0) = 3 et P3 (4)
0; alors x 2 [0 ; 4] : Prenons par exemple x0 = 0: Nous
avons alors :
P3 (x1 )
P3 (x0 )
= 3, et x2 = x1
= x1 : De mme xk = 3 = x1:
x1 = x0
0
P3 (x0 )
P30 (x1 )
Ainsi, nous obtenons une suite stationnaire qui donne dans ce cas, non pas une racine approche
mais carrment la racine exacte gale 3.

3.3.4

Mthode de point xe

Dnition 3.3.3 Soit f : R ! R une application continue. On dit que x 2 R est un point
xe de f si f (x ) = x .
Commentaire 2.2 La rsolution dun problme laide dune formule de rcurrence xk+1 =
f (xk ); k 2 N peut etre considre comme dtemination dun point xe de la fonction f:
En eet : Soit (xk ) la suite dfnie par xk+1 = f (xk ), On suppose quelle converge vers une
valeur quon notera x . Par passage limite dans lexpression xk+1 = f (xk ), on obtient :
lim xk+1 = lim f (xk ) ()

k!1

k!1

lim xk+1 = f ( lim xk ) (par continuit de f )

k!1

k!1

70

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

() x = f (x ) (car lim xk = x )
k!1

et donc x est un point xe de f:


Thorme 3.3.3 (Thorme du point xe) Supposons que f est dnie sur lintervalle [a ,b]
et satisfait aux conditions suivantes :
i) f ([a ,b]) [a,b] ie : 8 x 2 [a,b], a f (x) b
ii) f est contractante ie :9L 2 R; 0 L < 1 tel que
8x; y 2 [a,b] : jf (x)

f (y)j

L jx

yj

Alors : f admet un point xe unique x 2 [a,b] : De plus, pour tout point x0 2 [a,b] ; la suite
(xk ) dnie par xk+1 = f (xk ) converge vers x :
Commentaire 2.3 La condition ii) entraine(xk ) :
1. La continuit de f dans [a,b]
2. En divisant lingalit par jx yj et en passant la limite quand y
0
tend vers x, on obtient : f (x)
L < 1; et ceci en supposant que f
est drivable au point x:
Dmonstration du thorme du point xe
Existence du point xe : Soient x0 un point initial dans [a,b] et (xk ) la suite associe f .
Pour montrer que la suite (xk ) converge, on va montrer quelle est de Cauchy.
Le point xe sera alors la limite de (xk ):
Soit k 2 N; alors
jxk+1 xk j = jf (xk ) f (xk 1 )j L jxk xk 1 j :
et par rcurrence, on dmontre que :
jxk+1

xk j

L jxk

Lk jx1

xk 1 j

x0 j

et pour n > k; en crivant :


xn

xk = (xn

xn 1 ) + (xn

xn

2)

+ (xk+1

xk );

+ jxk+1

xk j

nous aurons :
jxn

xk j

jxn

(Ln
Lk

xn 1 j + jxn

+ Ln

+ Lk ) jx1

Ln k
jx1
1 L

xn 2 j +

x0 j
71

x0 j

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

Lk

jx1 x0 j
1 L
et del on dduit que (xk ) est une suite de Cauchy, donc elle converge vers x 2 [a,b] :
Montrons que x est un point xe.
En eet : lgalit xk+1 = f (xk ) et la continuit de f entrainent que
x = f (x ):
Unicit de point xe : Supposons quil existe un autre point xe y avec
y 6= x .
Alors :
0 < jy
x j = jf (y ) f (x )j L jy
x j < jy
x j car L 1
ce qui est absurde x est donc unique.
Interpprtation gomtrique du thorme du point xe

72

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

Critre darrt n 1
Soit f : [a; b] ! R satisfaisant aux hypothses du thorme du point xe, et soit (xk ) la
suite des approximations dnie par xk+1 = f (xk ); k = 0; 1; 2; :::
Pour k; n 2 N, n > k :
jxk

xn j = jf (xk 1 )

f (xn 1 )j

L jxk

xn 1 j

et par rcurrence :
jxk

xn j

L jxk

L2 jxk

xn 1 j

Lk jx0

xn 2 j

xn k j

Lk jb

aj

En passant la limite sur n, on obtient : jxk x j Lk (b a).


Ainsi, si on dsire calculer une approximation xk de x avec n dcimales exactes, il su t darrter
les itrations k vriant :
n
log( 0;5b 10a )
k
log L
Critre darrt n 2
Soit k 2 N :
jxk+1 x j = jf (xk ) f (x )j L jxk x j L jxk xk+1 j+L jxk+1 x j
L jxk+1 x j
) jxk+1 x j (1 L) L jxk xk+1 j
) jxk+1 x j 1 LL jxk xk+1 j
et donc pour avoir n dcimales exactes, on arrte les itrations lorsque :
jxk

xk+1 j

L
L

0:5 10

L jxk

xk+1 j+

Remarque 3.3.2 Gnralement L est assez petit pour que 2L < 1, et del L < 1 L, et donc
1 < (1 L)=L. Consquence : au lieu du critre darrte ci dessus on impose la condition
jxk

xk+1 j

0:5 10

Exemple 2.7 (Rsolution itrative de lquation quadratique)


Soit rsoudre, laide de la mthode du point xe, lquation
(a)

'(x) = x2

100x + 1 = 0

On remarquera que (a) admet deux racines relles x1 et x2 , lune au voisinage de 10 2 et lautre
au voisinage de 102 .
Pour x1 : En tenant compte du fait que x1 ' 10 2 , lquation (a) peut se mettre sous la forme :
73

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES


1
(x2 + 1) et la formule de rcurrence est donne par :
x = f (x) = 100
1
2
xk+1 = f (xk ) = 100
(x2k + 1). Comme f 0 (x) = 100
x = 0:02x est petit, prenons lintervalle [10 2 ; 1]
comme voisinage de x1 .
Nous avons, en eet :
'(10 2 ) = 10 4 > 0
) x1 2 [10 2 ; 1]:
'(1) = 98 < 0

et on vrie aisement que :


i)- f ([10 2 ; 1]) = [f (10 2 ); f (1)] [10 2 ; 1]
ii)- Pour L = 0:02, f est contractante
Ainsi : 8x0 2 [10 2 ; 1], la suite (xk ) converge vers x1 2 [10 2 ; 1].
Prenons par exemple, x0 = 1. On calcule :
x1 = 0:02 ; x2 = 0:010004 ; x3 = 0:0100010008 ; x4 = 0:0100010020017 donc : x1 ' 0:010001002002
(11 c.s.e)
Pour x2 : En tenant compte du fait que x2 ' 102 , lquation (a) peut se mttre sous la forme :
x2 = 100x 1, puis en divisant par x en trouve la formule de rcurrence :
xk+1 = 100 x1k = f (xk ), o f (x) = 100 x1 . Comme f 0 (x) = x12 est petit pour x assez grand,
prenons lintervalle [10; 102 ] comme voisinage de x2 .
Nous avons, en eet :
'(10) = 990 < 0
) x2 2 [10; 102 ]:
'(102 ) = 1 > 0
et on vrie que :
i)- f ([10; 102 ]) = [f (10); f (102 )] [10; 102 ]
ii)- Pour L = 0:01, f est contractante
Ainsi : 8x0 2 [10; 102 ], la suite (xk ) converge vers x2 2 [10; 102 ].
Prenons par exemple, x0 = 10. On calcule : (avec 5 dcimales exactes)
x1 = 99:9 ; x2 = 99:989990 ; x3 = 99:989990 ; x4 = 99:989999
donc : x2 ' 99:99000 10 5

3.3.5

Acclration de la convergence

Lemme 3.3.1 On suppose que f 0 existe. Plus f 0 (x ) est petite, plus la convergence est rapide.

Preuve.
On pose E
x , et un dveloppement de Taylor de f nous donne :
k = xk
xk+1 = f (xk ) = f (x + Ek ) = f (x ) + Ek f 0 (x ) +

Ek2 00
f (x ) +
2!

En ngligeant les termes dordre suprieur 1 en Ek , il vient :


xk+1 f (x ) = xk+1 x ' f 0 (x ):Ek )= Ek+1 = xk+1 x ' f 0 (x ):Ek
74

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

Comme (Ek ) est une suite convergente vers zro (0), on voit que plus f 0 (x ) est petit, plus la
convergence est rapide.
Acclration
x + f (x)
.
1+
Comme f (x) = x , G(x) = x : alors, x est un point xe de f si et suelement si il lest pour
G.
+ f 0 (x)
+ f 0 (x )
On a G0 (x) =
; donc G0 (x ) =
. Il su t alors de prendre voisin de f 0 (x )
1+
1+
pourvu que f 0 (x ) soit petit. Et donc daprs le lemme 2.1, la convergence sera plus rapide que
celle donne par f (x) = x.
Soit

6=

1. posons G(x) =

Algorithme dacclration
1. Calculer x0 , x1 ,:::, xn par la mthode lente :
x0 2 [a; b]
xk+1 = f (xk ), k = 0,1,...,n

o n est choisi selon chaque cas


2. On pose = f 0 (xn )
3. On calcule les approximations suivantes par
xk+1 = G(xk ), k = n,n + 1,... o G(x) =

x + f (x)
1+

Exemple 2.8 Soit rsoudre lquation


(1)

x = e x:

Lquation (1) admet un point xe dans R.


On vrie mme quil est dans
lintervalle [0:5,0:6].

1- Posons x0 = 0:5. On a alors, x1 = f (x0 ) = e

0:5

75

= 0:6065306 ' 0:61 et x2 = f (x1 ) = e

0:61

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES


0:5433508 ' 0:54
On constate que les dirences jx0 x1 j et jx1 x2 j (etc..) sont assez importantes, alors on
arrte l la mthode est lente et :
2- n = 2 : f 0 (x2 ) = e 0:54 = 0:5827482 ' 0:58 =
x
et si on veut calculer x avec sept(07) dcimales exactes, on
3- Puis, on pose : G(x) = 0:58x+e
1:58
applique, par exemple, le critre darrt n 1, pour lalgorithme :
8
< x0 = 0:54 2 [0:5; 0:6]
0:58xk + e xk
: x
k+1 = G(xk ) =
1:58
0:5 10 7
)
0:6 0:5 ' 3:7 o 0:02
log 0:02

log(

alors k vdie k

max jG0 (x)j et donc, on prend k = 4.

[0:5;0:6]

Ainsi :
x1
x2
x3
x4

= G(x0 ) = 0:56705684
= G(x1 ) = 0:56714259
= G(x2 ) = 0:56714328
= G(x3 ) = 0:56714329

do x = 0:5671433 0:5 10 7
Question : Dterminer le nombre ditrations correspondant au cas de la mthode lente (Rponse : k = 30).

3.3.6

Convergence de la mthode de newton-Raphson

Reprenons la formule de Newton-Raphson :


xk+1 = xk

f (xk )
; k = 0; 1; 2; :::
f 0 (xk )

f (xk )
.
f 0 (xk )
(f 0 (x))2 f (x)f 00 (x)
f (x)f 00 (x)
Et comme g 0 (x) = 1
=
; alors pour
(f 0 (x))2
(f 0 (x))2
x = x , x tant une racine spare de lquation f (x) = 0, on a g 0 (x) = 0 (puisque f (x ) = 0)
et del jg 0 (x)j < 1 au "voisinage" de x . Consquence : les conditions i) et ii) du thorme du
point xe sont alors ralises, et par suite, on a convergence de la suite (xk ) vers x .
Et cest dans ce but quon choisit comme voisinage de x un intervalle [a; b] telle que :
1. x 2 [a; b]
2. f est de classe C 2 sur [a; b]
3. f 0 6= 0 sur [a; b]
Et on verera ci-aprs quavec une condition supplmentaire sur lintervalle [a; b], la suite (xk )
On a donc : xk+1 = g(xk ), o g(x) = xk

76

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE


converge vers x , 8x0 2 [a; b].
Commentaire 2.4
f tant de classe C 2 sur [a; b], f 00 est continue sur [a; b] et donc borne
sur [a; b] par une constante M > 0 de manire ce quon ait : 8x 2 [a; b],
jf 00 (x)j M
f 0 ne sannulant pas sur [a; b], il existe m > 0 tel que : 8 x 2 [a; b],
jf 0 (x)j m
Sous les hypothses 1), 2) et 3), faisons un developpement de taylor de f lordre 1 au voisinage
de xk . On obtien :
1
xk ) + f 00 ( k )(x
2

f (x) = f (xk ) + f 0 (xk )(x

xk )2 , o

2 (x; xk )

comme f (x) = 0 pour x = x , il sensuit :


0 = f (xk ) + f 0 (xk )(x

1
xk ) + f 00 ( k )(x
2

xk )2 , o

2 (x; xk )

en divisant par f 0 (xk ) 6= 0 et on translatant, on aura :


f (xk )
=x
f 0 (xk )
or :

f (xk )
)
f 0 (xk )

xk+1 = xk

Do, aprs simplication : xk+1


et comme jf 00 (x)j

M et jf 0 (x)j

xk +

f 00 ( k )(x
xk )2
2f 0 (xk )

f (xk )
= xk+1 xk
f 0 (xk )
f 00 ( k )(x
xk )2
x =
2f 0 (xk )
m > 0; on aboutit alors :

jxk+1

M jx
xk j2
2m

xj

( )

On constate que lerreur absolue de la (k + 1)eme approximation est proportionnelle au carr


de lerreur absolue de la k eme approximation. On dit que la mthode de Newton-Raphson est
une mthode itrative du deuxime ordre.
M
Posons C =
. Lingalit (*) entrane par induction :
2m
jxk+1
ou encore jxk
comme : jx0 x j
ou encore :

xj

C jxk

x j2

C 3 jxk

x j4

:::

C2

k+1

x j C 2 1 jx0 x j2
jb aj = b a, alors jxk
k

xj
77

C2

(b

a)2

jx0

x j2

k+1

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

jxk

xj

a)]2

[C(b
C

, k = 0; 1; 2; :::

M
Il y a donc convergence vers x si C(b a) =
(b
2m
2m
.
lon choisit [a; b] de longueur b a <
M

a) < 1, et cest pour cette raison que

Conclusion :
Si en plus des conditions 1), 2) et 3), on choisit [a; b] tel que b
lalgorithme de Newton-Raphson converge ( vers x ).

a<

2m
, alors : 8 x0 2 [a; b],
M

Remarque 3.3.3 (choix de lapproximation initiale x0 ) Le point x0 est gnralement choisi


de manire ce que f (x0 )f 00 (x0 ) > 0 (en particulier x0 = a ou x0 = b si cette condition est
satisfaite).

3.3.7

Mthode de la scante

Dans certaines circonstances (si f provient dun calcul exprimental par exemple), on ne peut
calculer f 0 . Lide est alors de remplacer f 0 par le taux daccroissement de f sur un petit
intervalle.
Supposons que x0 et x1 soient deux valeurs approches de la racine x de lquation
f (x) = 0 avec x0 < x < x1 .
Le taux daccroissement de f sur [x0 ; x1 ] est :
f (x1 ) f (x0 )
1 =
x1 x0
et lquation de la scante (en x0 et x1 ) est :
y = 1 (x x1 ) + f (x1 )
(1)
On obtient une nouvelle approximation x2 de x en calculant labscisse du point dintersection
de la scante avec laxe Ox :
x2 = x1

f (x1 )

(obtenu en posant y = 0 dans(1))

78

3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE


et, on itre ce procd pour obtenir :
k

f (xk )
xk

f (xk 1 )
xk 1

et xk+1 = xk

f (xk )
k

Lalgorithme correspondant est : Algorithme de la scante :


8
< x0 , x1 donns
f (xk )
(xk xk 1 ) , k 2 N
: xk+1 = xk
f (xk ) f (xk 1 )

Critre darrt
Cest le mme que celui correspondant la mthode de Newton-Raphson.

3.3.8

Mthode de dichotomie

Lide : Construction dune suite dintervalles de plus en plus petits contenant une racine isole
de lquation f (x) = 0.
Loutil utilis : Thorme des valeurs intermdiaires.
Thorme 3.3.4 (Thorme des valeurs intermdiaires) Soit f : [a; b] ! R continue,
avec f (a)f (b) < 0. Alors : il existe au moins x 2 ]a; b[ tel que : f (x ) = 0
Remarque 3.3.4 Si de plus f est injective, alors x est unique.
Algorithme
Supposons que a et b soient tels que : x 2 [a; b], avec f (a)f (b) < 0. On pose a = a0 . b = b0 et
[a; b] = [a0 ; b0 ] = I0 .
On divise lintervalle I0 = [a0 ; b0 ] en deux, et on construit lintervalle
I1 = [a1 ; b1 ] comme suit :
a0 + b0
(milieu du segment [a0 ; b0 ]) on fait le test suivant :
Pour x0 =
2
Si f (a0 )f (x0 ) < 0 alors [a0 ; x0 ] = [a1 ; b1 ] = I1
sinon [x0 ; b0 ] = [a1 ; b1 ] = I1
On itre le procd pour obtenir une suite dintervalles emboits :
Ik = [ak ; bk ], k = 1; 2; 3; :::
comme suit :
ak + b k
On pose : xk =
2
Si f (ak )f (xk ) < 0 alors [ak ; bk ] = [ak+1 ; bk+1 ] = Ik+1
sinon [xk ; bk ] = [ak+1 ; bk+1 ] = Ik+1 .
Et on prend comme approximation de x la valeur xk .
Critre darrt
Soit k 2 N. Nous avons :
79

CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

bk+1

ak+1 =

bk

ak
2

bk

ak

22

= ::: =

b 0 a0
2k+1

et si x est la racine de lquation f (x) = 0, nous aurons :


jx

xk j

bk+1

ak+1 =

bk

ak
2

b 0 a0
2k+1

Et donc, si on dsire calculer une approximation xk de x avec n dcimales exactes, il su t


b 0 a0
de poser k+1
0:5 10 n .
2
Ce qui revient ce quon aille dans les itrations jusqu ce que k vrie lingalit :
log
k

b 0 a0
0:5 10 n
log 2

80

1.

TRAVAUX DIRIGS 3

Travaux dirigs 3
Exercice 1 :
Parmi les fonctions suivantes lesquelles sont contractantes et sur quel intervalle si
celui-ci nest pas indique :
798;:<
(a) 
, >= ?= A@ ;


, D= ?=
;
(b) 
CB
B
<EGF
(c) 
(d)






IH

]
8

J

Exercice 2 :
Voir si chacune des fonctions suivantes admet zero, un ou plusieurs points fixes,
puis donner pour chacun un intervalle de separation :


 
0

LK

 Z ' #j  Q # &'




Exercice 3 :
Montrer que lequation RQ
Q
Q
;Q
IR, et S
WV
"V

: 7


8 .
TS

<EUF



NMPO
@

admet une unique racine dans lintervalle

=
B

Exercice 4 :
Determiner a` laide de la methode du point fixe les deux racines reelles de

avec une erreur  K =


. Utiliser pour lune de ces racines la

NX
methode iterative
, et pour lautre Y
 .

=#] s

  

 =(t

 P'

Exercice 5 :
eelles
Soit la fonction

 , on se propose de trouver les racines r
de F par la methode des approximations successives.
Montrer que F poss`ede une seule racine reelle Z
.
[
Etudier la convergence des trois methodes iteratives suivantes :
[
donne
et

 ;
(\ )

(] )
;
 

& ~

v

D= 
D=
 .
( ) D=
Si lune de ces methodes converge lutiliser pour determiner a` =
`

 

81

pr`es.

Exercice 6 :
b
Soit lequation Ya F
dans IR .
ca
F
Montrer que la methode iterative definie par 
gente (verifier les hypoth`eses du theor`eme du point fixe). Choisir
initiale de literation, dans lintervalle de convergence puis trouver
suite. Donner lordre de la methode.

+ & /



+ &/ est conver , condition


limite de la


 

  D=  D#
D= 
=

b

Exercice 7 :
a
F
On veut resoudre dans IR lequation Y
o`u, 
,
a) 1) Montrer quelle admet une seule racine Z , montrer que Z ed
.
f[
$
2) Montrer que la methode iterative :
diverge.
ih 

g
3) on consid`ere alors

, (remarquer que 
existe),

$

montrer que la methode iterative :


converge.
K
K
En posant
LZ montrer que
est de signe oppose a` K , quen concluton ?
7
j

Donner le bon test darret des iterations pour avoir Z a` S


pr`es, puis donner
cette racine approchee.
b)
Retrouver Z a` laide de la methode de Newton.
Remarquer que Newton est dordre 2.

D

82

jq

SUGGESTIONS ET CORRIGS

Suggestions et Corrigs
Exercice 1



(ac

<EUF 
IR.
(a) 
2

Montrons que est contractante sur IR, on a :




]

8':<





et


=

B

donc, dapr`es la proposition


1,  est contractante de rapport de contraction
7
inferieur ou e gal a` 2 .
(b) 
.

B
B

, montrons que 

=

. On a
Soient 

 m1N #jq
'& (jq

% /


% '

u

Bj

B
B
=

"
B

B
=

En effet, dune mani`ere generale, on peut montrer que


Supposons que

alors


'

dapr`es linegalite triangulaire

, do`u le resultat
.
 /
et le rapport de contraction est
  m & ]

 et 

donc, & |
 .
.
Ainsi, est contractante de rapport
(d) 
 .
est definie sur 8 mais ny est pas lipschitzienne.
On fait de meme si
B
B


=
Ainsi, 
B
B
 
(c) 
.

On a :

B
u

CB

x=

J

83

En effet,
telle que

est lipschitzienne sur d sil existe une constante reelle


,


,
, cest a` dire que le rapport

ed

=$
W

 / d 

Q
% / , pour N , est borne.

Q
. Ce rapport vaut
Posons

 + # Z





q

J

J





J

donc non bornable sur tout intervalle contenant  ; ainsi  ne peut e tre
lipschitzienne sur  .

avec
En fait, on montre que  est lipschitzienne sur tout intervalle

. Sur cet intervalle, 



H


=
J

H


proposition 1,  est lipschitzienne de constante J=


En outre,
pour

est contractante si

. Ainsi, grace a` la

J

z


, donc si

D 8

q

, cest a` dire

J

8 .

En conclusion,  est contractante sur

Exercice 2



(a) Points fixes de 


H

. Rappelons quun point fixe de  est un point

dabscisse Z verifiant 
. Par abus de langage, et dans tous les exercices qui suivent, on dira que est le point fixe de  (au lieu de labscisse
du point fixe de  ).
1
Ici  est definie sur
et on a




est clairement la seule solution sur


consequent le seul point fixe de  .
Demontrons le autrement :

de cette e quation et est par

P

Q et

Posons Q 8 ; est continue sur IR et derivable sur IR et


 , donc est strictement croissante sur . Dautre part,
Q/W=v et Q # , donc I/~+Q #v . Ainsi, dapr`es le theor`eme


84

SUGGESTIONS ET CORRIGS

{ C/# ~
/#

Q q

de la valeur intermediaire, il existe un et un seul reel


tel que


;
celui-ci
est
donc
le
seul
point
fixe
de
sur
.
Le
lecteur


1
pourra aisement demontrer que cela reste vrai sur tout
.


YK
(b) Points fixes de
.


K
Posons
. est continue et derivable sur IR, et


K
, donc est strictement decroissante. Dautre part,

et
. Dapr`es le theor`eme de la valeur intermediaire,
M
il existe un et un seul reel
tel que
. Ce reel est donc

lunique point fixe de sur
. De meme, on peut aisement demontrer
que cela reste vrai sur tout IR.
"
(c) Points fixes de 
.



J

Lv

+=
YJ


I

/j

Q q
/jq
  OQ #+
 
 #



Donc 2 est lunique point fixe de  sur IR ; ce point fixe est dit triple a` cause
de la puissance du terme " .


 Q #
 Q #

(d) Points fixes de 

"

 


 #


K



Appliquons le theor`eme de la valeur intermediaire a`

  ' #


K

u

est continue et derivable sur .

   #%



K



F .
, on a :

Montrons que
IR
Pour cela, on e tudie le signe de

 


K

RV

: v c L

1
a

a
PV

+
F  L

En consequence, est strictement croissante sur D a F PV , strictement


a
F V
croissante sur a F V 
et
. Ainsi,
IR
,
donc est strictement decroissante.
Dapr`es le theor`eme de la valeur intermediaire, il existe un et un seul reel
a
F PV
tel que
. Ce dernier est lunique point fixe de  .

t& q

85

Exercice 3

%Q

<EUF

 ,
Q

8 .

1& : V solution de lequation


 Q
/
B

Montrons quil existe un unique reel



On a
ainsi

eV

<EUF

8;:<

, car 8#

est monotone. Or,

Q '



Q
i
donc, Q
+Q ? , et dapr`es le theor`eme de la valeur intermediaire,
il existe un unique reel 1 : V tel que .
Q

WV

uV

"V

<EUF

"

<EGF

"

WV

V

WV

uV

)Z

Exercice 4

 v=(]J .
J
a) Posons 
=#
? .

Etudions
donc la methode iterative Dj
=#
Remarquons tout dabord que si cette methode converge, elle converge bien
vers une des racines de Q , si est la limite de la suite D# , alors
J donc =# Z? , cest a` dire que Q  .
=#
Localisons la racine de cette e quation. On a I et +~
donc
Qc+~ , et comme est derivable sur IR et  =#nK sur
C/qq alors, grace au theor`eme de la valeur intermediaire, il existe un unique reel
/jq solution de lequation  .

On a aI K et +~
. Comme est monotone sur IR

), on a donc cCjq C/qq .


(puisque  ] sur
? est contractante sur Cjq :
Demontrons que 
=#
a% / =#J j#J

j#
Q

=#
(
Soit lequation


)Z

t

"

86

SUGGESTIONS ET CORRIGS

 ] et #  ]
donc contractante de rapport ] .
Vc  converge vers , unique solution
Ainsi,  /j , Dj
de vj#] ? dans Cjq .
Calculons cette racine partant de  , on a

V q I# =# /j##/
qVc I/j##/~ /_/=#(/=## (##/
q I/j##/=(# (#(/~ W
q W
On aurait pu aussi la proposition 1, puisque 

t

 

Y

Y



Y



 
D= D

Si on cherche Z a` pr`es, on arretera les calculs a` literation o telle que


a`
pr`es.
=R . Ainsi la solution Z ici vaut
~ B
z
b) Lautre solution est obtenue grace a` la methode iterative
ee en exercice.
  . Cette question est laiss

t

=#

/_/=## j

Exercice 5



+~ Q #
Q~c (

] #
& #

D= D


Dd
donc  Q /
Par ailleurs,  ]
sur # . Par consequent, grace au theor`eme
des accroissements finis, il existe q compris entre D et Dj tel que
Djm% aDd # DjnD

Soit lequation
. Il est clair que est continue et

Y
derivable sur .
On a
, 
. Dautre part,
 , donc
P
sur  . Donc, dapr`es le theor`eme de la valeur intermediaire, il existe


une seule solution Z


telle que )Z
.


c . Tout

(a) Etudions la convergence de la suite
dabord, cette suite, si elle converge, conduit bien a` une racine de
car si Z est la limite de la suite
, alors
Z

Z



)Z

Z

IZ

"



Y

87

Donc

B

Djm% D



B

DjPD
DPD
B

..
.


VP
B

Ainsi, cette suite diverge et la methode est a` rejeter.




(b) Etudions
la convergence de

D= D# ~ . Cette methode, si


elle converge conduit vers la racine de Q dans # , car si est la limite de
la suite Dd , alors
donc  v /




)Z

Z

Z

Z

]
v~
D %J~
~ v=




P

P




3D

En consequence, on ne peut conclure sur la monotonie de  . Cependant on a

7 ~
3Z


Z

)Z

Z

or

le point fixe de

verifie


Qv

'

Z

7 

( : 
V %n
D=PD

Z

Z
Donc  )Z
, et comme  est continue, il existe un voisinage de Z tel



$ . Donc cette m
que
, et
ethode ne peut pas converger
B
B
dapr`es la proposition 3. En effet, grace au theor`eme des accroissements finis, on

a
.
B

Bj

88

SUGGESTIONS ET CORRIGS

D= D# D . Si elle converge,


cette methode conduit a` la racine de  dans # car si est la limite de
la suite Dd , alors
donc  et Q
 Qv

(c) Etudions
la convergence de

N



)Z

Z

Z

On a




contractante dapr`es la proposition 1. Dautre part, +~


est strictement

, # n , or est monotone, donc m # ~ # . Donc


dapr`es le theor`eme du point fixe, la suite

donc

P

H _



& (
D= D#
converge vers lunique racine N # de lequation
 .

Calcul numerique de cette racine a` = pr`es, a` partir de 

*



$

$

*

Donc

#
Z

Exercice 6



0
1
1 1.144

2
3
4
1.162 1.165 0.165

est solution de lequation a`

pr`es.

+ &M/

Soit lequation La F
dans .

Considerons la methode iterative definie par :

Dj D(
$

$a
F

&D#M /



Q  / &
 I
Q
Q /
Q~ ?/ &
I#c+~5
&O
/jq


Q
 & /

Montrons dabord lexistence dune solution pour cette e quation.



a
F

Soit

, on a
sur IR , donc

admet au plus une racine. Dautre part on a
et

lequation
a
F

3
, donc
; ainsi, dapr`es le theor`eme de la
valeur intermediaire, il existe une unique racine Z
solution de lequation
.
Ya
F
* .
Appliquons la Methode du point fixe pour 
89

HF U/jq

est contractante sur d

car

1 H   N (
Donc, si cCDFH
DFH , dapr`es le theor`eme du point fixe, il existe une
unique racine &DFH solution de lequation  .
Par exemple, on verifie que m/ F/ ]
C/ F ] . En effet, I/ #
/ /WD et I/ / /Wv .
Calcul numerique de cette racine a` = et j pr`es :


b

b

3



b3

3

0
1
0.7 0.730

2
0.748

3



3



3
0.758

4
5
6
0.764 0.767 0.769

Ainsi la racine cherchee est

a`

 

pr`es, et

7
0.770

8
9
0.771 0.771

/ a` =
Z



pr`es.

Exercice 7

  o`u  .
1. 1) Posons  P
  , 5 IR . Appliquons le
theor`eme de la valeur intermediaire a` sur CDj o`u  8 .
est continue sur Djq , 7QMjq . &Djq ,  d et i
, donc est strictement monotone sur CDjq .

Dautre part on a Q~ Q , et comme


 , alors il
existe QMjq tel que Iizv ; par consequent, +~+Q ,
et dapr`es le theor`eme de la valeur intermediaire, il existe un unique {
qq (dou 1M/qq ) tel que  , et donc tel que .
D# converge, elle conduit bien a` la racine de lequation car
2) Si Dj
 donc
cette derni`ere verifie
7 Z V

Mais, v8CDjd  , et  donc la methode Dj


D diverge pour tout &qd .
3)
existe car est continue et strictement croissante donc bijective.
Dd est convergente.
Montrons que D=
designe la reciproque de et non
Attention a` la notation utilisee :
.

.
est derivable et on a
, par consequent

En effet, dune mani`ere generale

 qq  .

Y

Soit lequation

EU

)Z

Y

)Z

La

Y

$

)Z

)Z

)Z

Y

bP*

#D

90

SUGGESTIONS ET CORRIGS

Or,

, donc

. On a bien alors 


.

, donc
Or, on a montre que Y CDjd ,  . Mais
 , car est decroissante. Puisque NK , alors
t , donc  ' et /
 .
Par consequent
D converge au voisinage de , dapr`es la
Ainsi la methode D=
proposition 2.
4) Posons D et 
. La methode D=
converge

(dailleurs, on a /
et /
, n ). Dautre
part, grace au theor`eme des accroissements finis on sait quau voisinage
de , il existe q compris entre D et tel que :
j Dj D#%  q(qD a

Ainsi, j / # . Or, /t& IR . Donc = et sont


de signes opposes, par consequent deux iterations successives donnent un
encadrement de .
j .
5) Un test darret des iterations est : j D=QD
Prenons qq avec W . On a bien / sur et

IZ

IK

 

IK

zK

Y B

)Z

IZ

=%

car :

+$d

/W= / W
+~
NK




/W(jq
j

LK

et
est monotone sur
Calcul numerique de la racine a`
pr`es. Soit donc la methode
 
K

et

0
1
2
3
4
5
6
7
8
1 0.367 0.692 0.500 0.606 0.545 0.579 0.560 0.571

Dj

D


9
10
11
12
13
14
15
0.564 0.568 0.566 0.567 0.566 0.567 0.567

Ainsi la racine cherchee est


2. Methode de Newton.
K

Soit



/
Z

b

a`

pr`es.

est clairement indefiniment derivable. La


91

methode de Newton secrit,

D# D D
Dj D


D#
v , donc +=cI
Dautre part on a I v et Q~
et la racine est situee dans C/qq , elle est unique puisque est strictem pour tout . On a aussi
net monotone, car 


O pour tout . Ainsi dapr`es le theor`eme de convergence globale de cette methode (voir theor`eme 3), pour tout  ?C/qq tel
que Qac a literation de Newton converge. Prenons alors, par
exemple,  , alors I+ 
, donc la methode
D= D D

convegera vers lunique racine de lequation.
 

 

 

 

92

Chapitre 4
Rsolution numrique des quations
direntielles ordinaires dordre 1
4.1

Introduction

Soit le problme de cauchy


y 0 = f (t; y)
y (t0 ) = y0

(1)

ou f : [t0; t0 + T ] R ! R, le thorme ci-aprs nous donne des conditions qui


assurent lexistence et lunicit de la solution (thorique) de ce problme :
Thorme 4.1.1 Si f est continue et sil existe une constante L strictement positive telle
L jy1 y2 j alors,
que pour toute t 2 [t0 ; t0 + T ] ;et tout y1; y2 2 R; on ait f (t; y1 ) f (t; y2)
le poblme de Cauchy admet une solution unique ,quelque soit y0 2 R: On dit alors que f est
L-lipchitzienne ,o L est la constante de Lipschitz.
REMARQUE 7.1
Nous nous placerons toujours dans les conditions du thorme7:1
Lobjectif de ce chapitre est de dcrire un certain nombre de mthodes permettant
de rsoudre numriquement le problme de Cauchy :
Etant donn une subdivition t0 < t1 < ::: < tN = t0 + T de [t0; t0 + T ] ; on cherche
dterminer des valeurs approches y0 ; y1; ; yN des valeurs y (tn ) prises par la solutionexacte y:
On notera les pas succssives
hn = tn+1 tn ;
et hmax = max (hn )

0 n N 1
le maximum des pas

On appelle mthode un pas une mthode permettant de calculer Yn+1 partir


de la seule valeur antrieure yn .Une mthode r pas est au contraire une mthode ou
le calcul de yn+1 ncessite la mmorisation des valeurs yn ; yn 1 ; ::::yn r+1 .
93

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1

4.2

Mthodes numriques un pas

Les mthodes un pas sont les mthodes de rsolution numrique qui peuvent scrire sous
la forme :
yn+1 = yn + hn '(tn; yn ; hn ); 0 n N
(1.1)
o ' : [t0 ; t0 + T ] R R ! R est une fonction que lon supposera continue .
Dans la pratique, la fonction '(tn; yn ; hn ) peut ntre dnie que sur une partie de la forme
[t0 ; t0 + T ] J [0; ] o J est un intervalle de R (de sorte en particulier que [t0 ; t0 + T ] J
soit contenu dans le domaine de dnition de lquation direntielle).
Dans toutes les mthodes numriques dveloppes par la suite, on subdivise lintervalle
[t0 ; t0 + T ] en N intervalles de longueur
h=

(t0 + T )
N

t0

T
N

limits par les points


tn = t0 + nh; 0

4.2.1

(1.2)

Mthode DEULER

En t0 on connait y0 ; donc aussi


y 0 (t0 ) = f (t0 ; y0 ):
Si y(t) est la solution exacte de (1). y(t) est approche sur lintervalle [t0 ; t1 ] par sa tangente
au point t0 .
Et ainsi, on a
y1 = y0 + hf (t0 ; y0 ):
Sur lintervalle [t1 ; t2 ] ; y(t) sera remplace par la tangente au point (t1 ; y1 ): On trouve
y2 = y1 + hf (t1; y1 ):
Ceci conduit lAlgorithme dEuler :

yn+1 = yn + hf (tn; yn ); 0 n
tn+1= tn + h;

Prcision de la mthode dEuler

94

4.2. MTHODES NUMRIQUES UN PAS


la mthode dEuler est une mthode du premier ordre , cest--dire que lerreur au point tn
sexprime par lingalit
jyn y(tn )j kh
(1.3)
o yn est la valeur approche dnie par lalgorithme dEuler, y(tn ) est la valeur exacte
de la soltion du problme de Cauchy au point
t = tn = t0 + nh
et k une constante indpendante de n et de h.
Application
Rsolution dune quation selon la mthode dEuler
Soit le peoblme de Cauchy
y0 = t + y
y (0) = 1

(1.4)

On veut approcher, 10 3 , la solution de (1.4) en t = 1 laide de la mthode dEuler, en


subdivisant lintervalle [0,1] en dix parties gales.
Selon lalgorithme dEuler :
yn+1 = yn + hf (tn + yn ) ;
tn+1 = tn + h

9 et h = 0:1

(1.5)
(1.6)

On calcule les valeurs du tableau :


n 0 1
2
3
4
5
6
7
8
9
10
tn 0 0:1 0:2 0:3
0:4
0:5
0:6
0:7
0:8
0:9
1:0
yn 1 1:1 1:22 1:362 1:5282 1:7210 1:9431 2:1974 2:4871 2:8158 3:1874
On trouve
y(1) ' 3:187
La solution exacte de lquation (1) est donne par y(t) = 2 exp(t)
y(1) = 3; 437.
Lapproximation calcule est donc trs grossire.

1, ce qui donne

Remarque 4.2.1 (1.1) Lerreur dans la mthode dEuler est relativement importante. Elle
peut tre amliore en choisissant plus petit le pas h, ce qui augmente considrablement le
volume des calculs eectuer, ou en approchant la solution du problme de Cauchy par des
mthodes permettant de rduire cette erreur .
Programme

En Matlab, on peut facilement programmer la mthode dEuler avec la fonction suivante :


*************************************************************************************
Programme dEuler
95

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1

********************************************************************************************
function [t,y] = Euler(f,tmin,tmax,Nint,y0) % Mthode dEuler
% Nint - nombre de sous intervalles N
% tmin - temps t 0
% tmax - temps t 0+ T
% f est une fonction avec comme arguments t et y(t) : f(t, y(t))
% y0 lentre est compos des valeurs des conditions limites y 0= y (t 0) (E)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % initialisation : y(1)=y(t 0) = y 0
for n = 2 : Nint+1
y(n) =y(n-1) + h*feval(f,t(n-1),y(n-1)) ; % Calcul dEuler
end % for n
end % fonction Euler
*********************************************************************************************
*********************************************************************************************

4.2.2

Mthode de Taylor (dordre2)

Supposons que f soit de classe C 1 Alors y(t) est de classe C 2 , et le devloppement de Taylor
dordre 2 implique :
y(tn+1 ) = y(tn + h) = y(tn ) + hy0(tn ) +

h2
y00(tn ) + o(h2 )
2!

(1.7)

et comme :
dune part,
y0(tn ) = f tn ; y(tn)

(1.8)

dautre part
y00(tn ) =
=(

@f dy
d
d
@f
(y0(t)) jt=tn = (f (t; y(t))) jt=tn = (
+
: ) jt=tn
dt
dt
@t
@y dt

@f
@f
@f
@f
+
:y0) jt=tn =
(tn ; y(tn )) +
(tn ; y(tn )):f (tn ; y(tn )):
@t
@y
@t
@y

Il vient :
y(tn+1 ) = y(tn ) + hf (tn ; y(tn )) +

h2 @f
@f
(tn ; y(tn )) +
(tn ; y(tn ))f (tn ; y(tn )) + o(h2 )
2 @t
@y

On est amen considrer lalgorithme suivant , appele : Algorithme de Taylor( dordre2) :


h
i
(
@f
h2 @f
y(tn+1 ) = y(tn ) + hf (tn ; yn ) + 2 @t (tn ; yn ) + @y (tn ; yn ):f (tn ; yn )
(T2 )
tn+1 = tn + h
96

4.2. MTHODES NUMRIQUES UN PAS


Remarque 4.2.2 (1.2) En fait, la mthode de Taylor consiste approcher la solution de
lquation (1) par des arcs de paraboles au lieu des segments de droits (des tangentes) utiliss dans la mthode dEuler.
Prcision de la mthode de Taylor
On montre que la mthode de Taylor (dordre 2) , est une mthode du second ordre.
Autrement dit, luerreur au point tn vrie :
jyn

kh2

y(tn )j

(1.9)

o yn est la valeur approche dnie par lalgorithme de Taylor (dordre 2), y(tn ) est la valeur
exacte de la solution du problme de Cauchy au point tn , et k une constante indpendante de
n et h.
Consquence
Lalgorithme de Taylor (dordre 2), est plus prcis que celui dEuler
Remarque 4.2.3 Si lon veut encore rduire la marge derreur, on tiendra compte dun plus
grand nombre de termes dans le dveloppement de Taylor cest--dire, on suppose f de class
C p , et donc y en sera en class C p+1 et sa drive k eme est
y (k) (t) = f [k

1]

(t; y(t))

avec
f [1] = ft0 + fy0 f:
Le dveloppement de Taylor dordre p permet daboutir lalgorithme de Taylor dordre p
8
p
P
< y
hk (k 1)
f
(tn yn )
n+1 = yn + hf (tn ; yn ) +
k
k=1
:
tn+1 = tn + h

qui est dordre p (au sens de la prcision )


Applications

Rsolution dune quation avec la mthode de Taylor


Soit lquation direntielle rgissant le mouvement du pendule :
ax + y sin x = 0

(1.10)

o a est la longueur du pendule, g la gravitation terrestre et x lcart du pendule avec la


verticale au sol.
En posant x = dx
= y(x);on a : x = y0x = y0y et (1.10) devient :
dt
ay0y + g sin x = 0
97

(1.11)

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1
qui scrit encore :
y0 =

g sin x
= f (x; y)
a
y

Lalgoritme de Taylor (dordre2) correspondant scrit :


h
(
yn+1 = xn+1 = yn h ag sinynxn + 12 h2
xn+1 = xn + h
0 n

(1.12)

g 2 sin2 xn
3
a 2 yn

g cos xn
a yn

(1.13)

Programme

La fonction Matlab suivante calcule les approximations solution de y = t - y faites avec


la srie de Taylor jusqu lordre 4.
*************************************************************************************
Programme de Taylor (dordre2)
*************************************************************************************
function Taylor(tmin,tmax,Nint,y0) % Approximations par srie de Taylor
% Nint - nombre de sous intervalles N
% tmin - temps t 0 ; tmax - temps t 0+ T
% On trait ici lquation y= t - y(t)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
yt = inline((y0+1)*exp(-t) + t - 1,t,y0) ; % solution exact (F)
texa = linspace(tmin,tmax,101) ; % discrtisation de t pour la ?chage de la solution exacte
yexact = yt(texa,y0) ;
(1)
y1 = inline(t - y,t,y) ; % y
(2)
y2 = inline(1 - t + y,t,y) ; % y
(3)
y3 = inline(-1 + t - y,t,y) ; % y
(4)
y4 = inline(1 - t + y,t,y) ; % y
yT1(1) = y0 ; % yT1 contient les solutions de y - Approximation dEuler
yT2(1) = y0 ; % yT2 contient les solutions de y Approximation de Taylor ordre 2
yT3(1) = y0 ; % yT3 contient les solutions de y Approximation de Taylor ordre 3
yT4(1) = y0 ; % yT4 contient les solutions de y Approximation de Taylor ordre 4
for n = 2 :Nint+1 % Calcul approximation dEuler
yT1(n) = yT1(n-1) + h*y1(t(n-1),yT1(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 2
yT2(n) = yT2(n-1) + h*y1(t(n-1),yT2(n-1)) + (h^2/2)*y2(t(n-1),yT2(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 3
98

4.2. MTHODES NUMRIQUES UN PAS

yT3(n) = yT3(n-1) + h*y1(t(n-1),yT3(n-1)) + ...


+(h^2/2)*y2(t(n-1),yT3(n-1))+(h^3/6)*y3(t(n-1),yT3(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 4
yT4(n) = yT4(n-1) + h*y1(t(n-1),yT4(n-1)) + ...
+(h^2/2)*y2(t(n-1),yT4(n-1))+(h^3/6)*y3(t(n-1),yT4(n-1)) + ...
+ (h^4/24)*y4(t(n-1),yT4(n-1)) ;
end % for n
% plot : crer un graphique avec les rsultats des 4 courbes
axes(FontSize,14) ;
plot(texa,yexact,t,yT1,t,yT2,t,yT3,t,yT4,+,LineWidth,2)
xlabel(t ,FontSize,16) ;
ylabel(y(t) ,FontSize,16) ;
legend(y(t) exacte,Euler (ordre 1),Taylor ordre 2,Taylor ordre 3,Taylor ordre 4) ;
tit = sprintf(Mthodes de Taylor y=t-y : N=%d, h=%.2f,Nint,h) ;
title(tit) ;
end
*************************************************************************************
*************************************************************************************

4.2.3

Mthode du point milieu

Lide est que la corde de la fonction y(t) sur [t; t + h] a une pente voisine de y 0 (t + h2 ); alors
que dans la mthode dEuler on approxime brutalement cette pente par y 0 (t).
On crit donc :
h
(1.14)
y(t + h) ' y(t) + hy 0 (t + )
2
On a par ailleurs
y
h
h
y 0 (t + ) = f (t + ; y 0 (t + )):
2
2
2
99

(1.15)

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1
Comme la valeur de y 0 (t + h2 ) nest pas connue , on lapproxime par :
h
h
h
y 0 (t + ) ' y(t) + hf (t + ; y(t) + f (t; y(t)):
2
2
2

(1.16)

Dou, on dnitife :
h
h
y(t + h) ' y(t) + hf (t + ; y(t) + f (t; y(t))
2
2
LAlgorithme du point milieu peut donc scrire :
8
yn+ 1 = yn + h2 f (tn ; h)
>
2
>
<
pn = f (tn + h2 ; yn+ 1 )
2
>
y
n+1 = yn + hpn
>
:
tn+1 = tn + h 0 n N

(1.17)

(1.18)
1

Prcision de la mthode du point milieu

Comme la mthode de Taylor dordre 2, la mthode du point milieu est dordre 2.

4.2.4

Mthode de Runge-Kutta

Soit de nouveau le problm de Cauchy


y 0 = f (t; y)
y(t0 ) = y0

(1.19)

On reprend lalgorithme de Taylor en crivant la seconde quation de la manire suivante :


h
h
@f
@f
yn+1 = yn + f (tn ; yn ) +
f (tn; yn ) + h (tn ; yn ) + h (tn ; yn ) f (tn ; yn )
2
2
@t
@y
Selon le dveloppement de Taylor on a, des termes en h prs,
f (tn ; yn ) + h

@f
@f
(tn ; yn ) + h (tn ; yn ) f (tn ; yn ) = f (tn + h; yn + hf (tn ; yn ))
@t
@y

Ainsi, on obtient LAlgorithme de Runge-kutta dordre 2 :


8
tn+1 = tn + h
0 n N 1
>
>
<
pn;1 = f (tn ; yn )
pn;2 = f (tn+1 ; yn + h2 pn;1 )
>
>
:
yn+1 = yn + h2 (pn;1 + hpn;2 )

(1.21)

(1.22)

La mthode de Rung-kutta la plus utilise est dordre 4(on nglige les drives du 4eme ordre
dans le dvlopement de Taylor ) ; Il sagit de lalgorithme suivant :
100

4.2. MTHODES NUMRIQUES UN PAS


Algorithme de Rung- Kutta dordre 4 :
8
tn+1 = tn + h
0 n N 1
>
>
>
>
pn;1 = f (tn ; yn )
>
>
<
pn;2 = (tn + h2 ; yn + h2 pn;1 )
pn;3 = (tn + h2 ; yn + h2 pn;2 )
>
>
>
>
pn;4 = f (tn+1 ; yn + hpn;3 )
>
>
:
yn+1 = yn + h6 (pn;1 + 2pn;2 + 2pn;3 + pn;4 )

(1.23)

Ainsi,la mthode de Runge-kutta dordre 4 consiste valuer 4 valeurs intermdiaires


pn;1 ; pn;2 ; pn;3 ;et pn;4 et faire la moyenne pondre .
Prcision de la mthode de Rung -kutta
La mthode de runge -kutta dordre 2 est une mthode du second ord, i.e.
jyn

y(tn )j

kh2

(1.24)

et la mthode de Runge-kutta 4 est une mthode du quatrime ordre, i.e.


jyn

y(tn )j

kh4

(1.25)

o k est une constante qui ne dpend pas du pas h.


Applications
Soit le problme de Cauchy
(1)

y 0 = y 2ty
y(0) = 1

(1.26)

On dsire approcher, en eectuant le calcul avec six (06) dcimales, la slution de (1) en
t = 0:2 laide des mthodes de Runge-kutta dordre 2 et dordre 4:
La solution exacte tant
p
(1.27)
y = 2x + 1;
on estimera alors les rsultats obtenus .
On considre donc, linetrvalle [t0 ; t1 ] avec
t0 = 0; t1 = t0 + h = 0:2
et
h = 0:2;
ie :
[t0 ; t1 ] = [0; 0:2]
1.Mthode de Rung-Kutta dordre 2 :
101

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1

Ainsi

En utilisant lalgorithme correspondant, on obtient :


8
t1 = t0 + h = 0:2
>
>
<
p0;1 = f (t0 ; y0 ) = f (0; 1) = 1
p
=
f
(t
>
0;2
1 ; y0 + hp0;1 ) = f (0:2; 1:2) = 0:866667
>
:
y1 = y0 + h2 (p0:1 + p0:2 ) = 1:186667

La valeur exacte tant

(1.28)

y(0:2) ' y1 = 1:186667


y(0:2) =

1:4 = 1:183216

Lerreur commise est :


jy(0:2)

y1 j = j1:186667

1:183216j = 0:003451 < 0:510

et donc
y(0:2) ' 1:19

ie :

0:01

y1 approche y(0:2) avec trois (03) c.s.e


2.Mthode de Runge-Kutta dordre 4 :
De lalgorithme correspondant, il vient :
8
t1 = t0 + h = 0:2
>
>
>
>
p
=
f (t0 ; y0 ) = f (o:1; 1:1) = 1
>
0;1
>
<
p0;2 = (t0 + h2 ; y0 + h2 p0;1 )
p0;3 = (t0 + h2 ; y0 + h2 p0;2 ) = f (0:1; 1:0918182) = 0:0908637
>
>
>
>
p0;4 = f (t1 ; y0 + hp0;3 ) = f (0:2; 1:181727) = 0:843239
>
>
:
y1 = y0 + h6 (p0;1 + 2p0;2 + 2p0;3 + p0;4 ) = 1:183229

(1.29)

Ainsi,

y(0:2) ' y1 = 1:183229

La valeur exacte, calcule plus haut, tant

y(0:2) =

1:4 = 1:183216

Lerreur est :
jy(0:2)

y1 j = j1:183216

1:183229j = 0:000013 < 0:510 4 ;

Donc,
ie :

y(0:2) ' 1:1832

0:0001

y1 approche y(0:2) avec cinq (05) c.s.e


Remarque Les mthodes un pas considres jusque l se programme facilement et en
cours du calcul elles saprtent sans problmes au changement de pas.
102

4.3. MTHODE NUMRIQUES PAS MULTIPLES


Programme

Une faon de programmer la mthode Runge Kutta dordre 2 est la suivante :


*************************************************************************************
Programme Runge Kutta dordre 2
*************************************************************************************
function [t,y] = RK2(f,tmin,tmax,Nint,y0) % Mthode de Runge Kutta dordre 2
% Nint - nombre de sous intervalles
% tmin - temps t0
% tmax - temps t0 + T
% f est une fonction avec comme arguments t et y : f(t,y(t))
% y0 contient les valeurs des conditions limites
h = (tmax-tmin)/Nint ; % valeur du pas (G)
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % y contient les solutions de y(tn)n = 1, ...,Nint + 1
for n = 2 :Nint+1
k1 = h*feval(f,t(n-1),y(n-1)) ;
k2 = h*feval(f,t(n-1)+h/2,y(n-1)+k1/2) ;
y(n) = y(n-1) + k2 ;
end % for n
end
*********************************************************************************
*********************************************************************************
Comme la mthode dEuler, les mthodes de Runge Kutta peuvent tre appliques une
fonction arbitraire.

4.3

Mthode numriques pas multiples

Les mthodes pas multiples sont les mthodes de rsolution numrique o pour valuer
yn+1 en utilisant plusieurs yn k , k = 0; 1; :::; r: Au dpart on doit alors calculer un premier
ensemble de valeurs y1 ; :::yn avec une autre mthode et puis commencer itrer partir de
yr+1 en utilisant les valeurs prcdantes. On suppose ici que le pas hn = h est constant. Les
calculs alors eectus suivant le schma suivant :
( )

yn+1 =

r
X

i yi

+h

i 1 f (tn+1; yn+1 )

i=0

+h

r
X

i f (tn i ; yn i )

(2.1)

i=0

o les i ; i sont des constantes relles .


Si 1 = 0, le schma est dit explicite ( ou bien forme ouverte ) : yn+1 est oubtenu directement par lapplication de la formule .
Si 1 6= 0; le schma estimpicite car il faut rsoudre une quation de la forme
yn+1 = g(yn+1 )
103

(2.2)

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1
pour obtenir yn+1 : Dans ce cas la formule est appele ferme ou encore formule de prdiction ,
trouve antrieurement .
La suprorit des mthode pas multiples sur les mthodes pas constant rside dans le
fait qu elle ne ncessite pas dvaluation de f en des points intermdiaires (sauf au dmarage ).
Par rapport une mthode de Runge-kutta du mme ordre, le temps de calcul est donc rduit
dans une proportion importante .
Remarque
Comme il a t montionn plus haut, le point initial (t0 ; y0 ) tant donn,
lalgorithme ne peut dmarrer que si les valeurs (y1 ; f (t1; y1 )); :::; (yr ; f (yr ; f (tr ; yr )) ont dja
calcules.
Le calcul ne peut tre fait que par une mthode un pas pour (y1 ; f (y1 ; t1 )); au plus
deux pas pour (y2 ; f (y2; t2 )) , ... au plus r pas pour (yr ; f (tr ; yr )):
Linitiation de des r premires valeurs (yi ; f (yi ; ti )); 1 i r; sera gnralement faite l
aide dune mthode de Rung- kutta dordre suprieur ou gal celui de la mthode ( ); ou
la rigueur un de moins.

4.3.1

Mthode dAdams-Bashforth

1er Cas : r=1


Si y(t) est une solution exacte associe au problme de Cauchy (1), on crit :
tZn+1

y(tn+1 ) = y(tn ) +

f (t; y(t))dt

(2.3)

tn

Supposons quon ait dja calcul les points y(tn 1 ) et y(t) et les pentes fn 1 = f (tn 1; y(tn 1 ))
et fn = f (tn ; y(tn )): La mthode dAdams-Bashforth consiste approximer la fonction f (t; y(t));
en tant que fonction de t, par son polynme dinterpolation aux points tn 1 et tn .Soit P (t) ce
polynme, P (t) est la fonction a ne dnie par :
P (t) = fn +

fn
tn

fn
tn

tn )

(2.4)

f (t; y(t))dt

(2.5)

(t

On crit alors ,
y(tn+1 ) = y(tn ) +

tZn+1

tn

' y(tn ) +

tZn+1

(2.6)

p(t)dt

tn

3
= y(tn ) + h( fn
2

1
fn 1 )
2
104

(aprs calcul)

(2.7)

4.3. MTHODE NUMRIQUES PAS MULTIPLES


Lalgorithme d Adams-bashforth 2 pas va donc scrire :
8
y0 ; y1 donns
>
>
<
yn+1 = yn + h( 23 fn 12 fn 1 )
tn+1 = tn + h
>
>
:
fn+1 = f (tn ; yn )

(2.8)

Prcision :

La mthode dAdams-Bashforth 2 pas est ordre 2 , ie lerreur au point tn est donne par :
jy(tn )

y(t)j

kh2

(2.9)

o k est indpendant de n et de h.
Initialisation : pour calculer yi il est prfrable dutilser une mthode de mme ordre (par
exemple la mthode de Runge -Kutta dordre 2).
Remarque 4.3.1 On peut augmenter la prcision de la mthode dAdams-Bashforth en considrant le cas r = 2.
2 me cas : r = 2
Un raisonnement analogue au cas o r = 1, nous amne lAlgorthme dAdamsBashforth 3 pas qui scrit :
8
y0 ; y1; y2 donns
>
>
<
4
5
yn+1 = yn + h( 23
f
f
+ 12
fn 2 )
12 n
3 n 1
(2.10)
tn+1 = tn + h
>
>
:
fn+1 = f (tn ; yn )
Prcision de la mthode dAdams-Bashforth

La mthode dAdams-Bashforth 3 pas est dordre 3.

4.3.2

Mthode dAdams-Moulton

Soit y(t) une solution exacte .Le dveloppement de Taylor de y(t) scrirait :
y(t) = y(tn+1
= y(tn+1 )

h) = y(tn+1 )

hy 0 (tn+1 ) + o(h2 )

hf (tn+1; y(tn+1) ) + o(h2 )

(2.11)
(2.12)

En ngligeant les termes en h2 ; lAlgorithme dAdams -Moulton dordre 2 sen dduit


alors :
8
y0 donne
<
yn+1 = yn + hf (tn+1 + yn+1 )
(2.13)
:
tn+1 = tn + h
105

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1
La premire quaton de lalgorithme (2.13) scrit aussi :
yn+1

hf (tn+1 + yn+1 ) = yn

(2.14)

Remarque 4.3.2 On augmente la prcision de la mthode dAdams-moulton en ngligeant les


termes en h3 dans le developement de Taylor. On aboutit alors :
Algorithme de la mthode dAdams-moulton dordre 3, dite aussi mthode des trapzes
(ou mthode de Crank-Nicolson ) :
8
<
:

yn+1

y0 donne
= yn + h2 (fn+1 + fn )
tn+1 = tn + h

(2.15)

fn+1 = f (tn+1 ; yn+1 )


et
fn = f (tn ; yn )
La premire quation de lalgorithme (2.15) peut scrire encore
yn+1

h
h
f (tn+1 + yn+1 ) = yn + fn
2
2

On fait de mme pour obtenir lAlgorithme dAdams -Moulton dordre 4 :


8
<
o

yn+1

y0 ; y1 donne
8
5
= yn + h( 12
fn+1 + 12
fn
tn+1 = tn + h

1
f )
12 n 1

fn+1 = f (tn+1 ; yn+1 ); fn = f (tn ; yn )

(2.16)

(2.17)

et
fn

= f (tn 1 ; yn 1 ):

(2.18)

Initialisation :Comme pour la mthode dAdams-Bashforth, on initialise y1 laide dune


mthode de mme ordre (par exemple la mthode de Rnng-Kutta corresponante).
106

4.4. AUTRES MTHODES

4.3.3

Mthode de prdiction-correction

On ce donne une mthode dit de prdiction fournissant (explicitement ) une premire valeur
approche pyn+1 du point yn+1 atteindre :
pyn+1 = prdiction de yn+1
pfn+1 = f (tn+1; pyn+1 ) = prdiction de fn+1

(2.20)

En substituant la valeur pfn+1 ainsi trouve fn+1 dans la formule dAdams-Moulton, on


obtient alors une nouvelle valeur corrige yn+1 qui est retenue en vue des calculs ultrieurs .
La premire approximaiton pyn+1 de yn+1 est dite le prdicteur de yn+1; et la valeur corrige
yn+1 ; le correcteur. Dou le nom ( de cette mthode) : prdicteur -correcteur .
Application
Mthode de prdiction-correction dAdams-Moulton dordre 3 :
8
prdiction : pyn+1 = yn + hfn (mthode dEuler )
>
>
>
>
tn+1 = tn + h
<
Evaluation : pfn+1 = f (tn+1; pyn+1 )
(2.21)
>
1
1
>
Correction : yn+1 = yn + h( 2 pfn+1 + 2 fn )
>
>
:
Evaluation : fn+1 = f (tn+1; yn+1 )

4.4

Autres Mthodes

4.4.1

Mthode dAdams

Soit y(t) une solution exacte du problme de Cauchy (1.1). Supposons quon ait dj
calcul, par un procd quelconque, les trois valeurs suivantes de y(t) :
y1 = y(t1 ) = y(t0 + h)

(3.1)

y2 = y(t2 ) = y(t0 + 2h)

(3.2)

y3 = y(t1 ) = y(t0 + 3h)

(3.3)

Compte tenu de la condition initiale


y(t0 ) = y0

(3.4)

et laide des nombres :


t0 ; t1 ; t2 ; t3 et y0 ; y1; y2 ; y3
On calcule les grandeurs u0; u1; u2 ; u3 o
u0 = hf (t0 ; y0 )
107

(3.5)

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1

u1 = hf (t1 ; y1 )

(3.6)

u2 = hf (t2 ; y2 )

(3.7)

u3 = hf (t3 ; y3 )

(3.8)

et

En suite on forme le tableau des dirences nies des grandeurs yi et ui :


xi
yi
4yi
ui
4ui
42 ui
43 ui
t0
y0
u0
4y0
4u0
t1
y1
u1
42 u0
4y1
4u1
43 u0
2
t2
y2
u2
4 u1
4y2
4u2
43 u1
2
t3
y3
u3
4 u2
4y3
4u3
43 u2
t4
y4
u4
42 u3
.
.
4y4
.
4u4
.
43 u3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
tn 2 yn 2 .
un 2 .
.
.
4yn 2
4un 2 .
.43 un 3
tn 1 yn 1
un 1
42 un 2
4yn 1
4un 1
tn
yn
un
Au bas du tableau, la conaissance des nombres de larange oblique compose de
un 4un 1
42 un 2
4un 3
permet de trouver yn par la formule dAdams :
4yn = un +

1
4 un
2

qui scrit encore (car4yn = yn+1


formule dAdams,
yn+1 = yn + un +

5 2
4 un
12

3 3
4 un
8

(3.9)

yn ):
1
4 un
2

5 2
4 un
12

3 3
4 un
8

(A)

Pour n = 3 : On obtient ,
y 4 = y 3 + u3 +

1
5 2
3
4 u2 +
4 u1 + 43 u0:
2
12
8
108

(3.10)

4.4. AUTRES MTHODES


Si on connait y4 on peut calculer
(3.11)

u4 = hf (t4 ; y4 )
ce qui permet dcrire la range oblique suivante :
u4 = hf (t4 ; y4 ); 4u3 = u4

u3 ; 42 u2 = 4u3

4u2 ; 43 u1 = 42 u2

42 u1

(3.12)

La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeurs
de
y 5 = y 4 + u4 +

5 2
3
1
4 u3 +
4 u2 + 43 u1;
2
12
8

(3.13)

et ainsi de suite ....


Ainsi , la formule (A) rsou le problme pos. Lorsqu on a estim y(t) pour les valeurs
t1; :::; tn elle fournit lapproximation yn+1 de y(tn+1 ): On peut encore calculer
un+1 = hf (tn+1; yn+1 )

(3.14)

complter le tableau, et recommencer les mmes oprations en remplaant n par n + 1 .


Prcision : La mthode dAdams, reprsente par la formule (A), est dordre 5,cest--dire :
jyn

y(tn )j

kh5

(3.15)

o yn est la valeur calcule par la formule (A), y(tn ) la valeur exacte de la solution y(t) du
problme de Cauchy (1.1) au point tn et k une constante qui ne dpend pas de h.
Applications
An de calculer la valeur approche, au point t = 2, de la solution de lquation direntielle
t2 y 0 ty = 1; vriant la condition initiale y(1) = 0;appliquons la mthode dAdams, avec
h = 0:2.
Pour cela, soit
y0 = y(1) = 0
(3.16)
y1 = y(1:2) = 0:1834
y2 = y(1:4) = 0:3429
et
y3 = y(1:6) = 0:4898
(calculs pralablement dans notre cas par la mthode de Runnge-kutta dordre 4).
Lquation dierentielle associe au problme scrit encore :
t2 y 0

1
1
ty = 1 () y 0 = (y + ) = f (t; y)
y
t

Calculons alors u0; u1; u2 et u3 : Nous avons :


u0 = hf (t0; y0 ) = 0:2
109

(3.17)

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1

u1 = hf (t1; y1 ) = 0:1695
u2 = hf (t2; y2 ) = 0:1510
u3 = hf (t3; y3 ) = 0:1394
Et le tableau des dirences fnies des grandeurs yi et ui scrit :
xi yi
4yi
ui
4ui
42 ui
43 ui
1.0 0
0.2
0.1834
-0.0305
1.2 0.1834
0.1695
0.120
0.1595
-0.0105
-0.0051
1.4 0.3429
0.1510
0.0069
0.1469
-0.0116
1.6 0.4898
0.1394
Alors, daprs la formule dAdams (A), on obtient :
y 4 = y 3 + u3 +
= 0:4898 + 0:1394

1
5 2
3
4 u2 +
4 u1 + 43 u0
2
12
8
0:0058 + 0:0029

(3.18)

0:0019 = 0:6244

La solution exacte tant

1
t
:
2 2t
Estimons la valeur obtenue. Lerreur commise est gale :

(3.19)

y(t) =

y4

y(1:8) = 0:6244

0:6222 = 0:0022

0:510

Ainsi,
y4 = 0:6244 ' 0:62

10

Et comme on connnait y4 ; on peut calculer


(3.20)

u4 = h:f (t4 ; y) = 0:1311


Cela permet de complter le tableau par la diagonale infrieure suivantes :
u4 ; 4u3 ; 42 u2; 43 u1

(3.21)

O
4u3 = u4

42 u2 = 4u3

43 u1 = 42 u2

u3 = 0:1311
4u2 =

0:1394 =

0:0083

0:0083 + 0:0116 = 0:0033

42 u1 = 0:0033
110

0:0069 =

0:0036

4.4. AUTRES MTHODES


La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeur :
y 4 = y 4 + u4 +
= 0:6244 + 0:1311

5 2
3
1
4 u3 +
4 u2 + 43 u1
2
12
8
0:0042 + 0:0014

(3.22)

0:0014 = 0:7513

lerreur commise dans ce cas est gale :


y5

y(2) = 0:7513

0:7500 = 0:0013

0:510

Ainsi ,une valeur approche, au point t = 2, de la solution exacte du problme de Cauchy


ci-dessus est donne par :
y5 = 0:7513 ' 0:75 10 2 :

4.4.2

Mthode des approximations successives (Picard )

La mthode des approximaton successives de Picard est une mthode analytique qui permet
de trouver une solution approche du problme de Cauchy (1.1).Si y(t)
est la solution exacte de (1), elle scrirait :
Zt

y(t) = y0 +

(3.23)

f (s; y(s))ds

t0

En substituant y0 = y(t0 ) y(t) sous le signe intgrle (car la fonction y(t) est inconnue ),
on obtient la premire approximation :
y1 (t) = y0 +

Zt

(3.24)

f (s; y0 )ds

t0

La deuxime itration est obtenu en portant dans la formule (3.23) la valeur trouve y1 (t)
la place de la fonction inconnue y(t) :
y2 (t) = y0 +

Zt

(3.25)

f (s; y1 (s))ds

t0

et ainsi de suite ...


Lalgorithme de la mthode des approximations successives secrit alors :
y0 (t) = y0
yn (t) = y0 + t0 f (s; yn 1 (s))ds
Rt

n = 1; 2; :::

Les yn (t) sont appeles les approximations successives(de y(t); solution de (3.26)).
111

(3.26)

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1
Si
fy0 (t; y) > 0

(3.27)

f (t; y0 ) > 0

(3.28)

et
Les approximations de Picard forment une suite croissante de fonctions infrieures
(3.29)

y(t) : y0 < y1 < ::: < yn < y(t):


Par contre si f (t; y0 ) < 0; alors la suite des approximations est dcroissante :

(3.30)

y0 > y1 > ::: > yn > y(t):

Et ainsi lorsque fy0 (t; y) > 0; les approximations de Picard forment une suite dapproximations unilatrales.
Sify0 (t; y) < 0;les approximations forment une suite bilatrales.
Exemple 7.5 En appliquant la mthode des approximations successives la rsolution du
problme de Cauchy :
y0 = y + t
t 0
y(0) = 0
on trouve, en partant de y0 = y(0) = 0 :

yn+1 =

Zt

(s + yn (s))ds

n = 1; 2; :::

donc

8
>
>
>
>
>
>
<

y1 (t) = t2!
3
2
y2 (t) = t2! + t3!
2
3
y3 (t) = t2! + t3! +
..
.

>
>
>
>
>
>
: yn (t) =

t2
2!

t3
3!

t4
4!

t4
4!

tn+1
(n+1)!

Ici, f (t; y0 ) = t + y0
0 et fy0 (t; y) = 1i0. Par consquent la suite des approximations de
Picard(yn ), forme une suite de fonctions infrieurs (suite dcroissante).
La solution exacte du problme est obtenue par :
t2 t3 t4
tn+1
y(t) = lim ( + + +
+
)
n!+1 2!
3! 4!
(n + 1)!
t2 t3 t4
tn+1
= lim (1 + t + + + +
+
)
n!+1
2! 3! 4!
(n + 1)!
= et t 1
112

4.5. STABILIT DES SOLUTIONS

4.5

Stabilit des solutions

On se propose ici dtudier le comportement des solutions dune quation direntielle et


des lignes intgrales dun champ de vecteurs lorsque le temps t tend vers linni. On sintresse
essentiellement au cas des quations linaires ou voisines de telles quations. Dans ce cas, le
comportement des solutions est gouvern par lesigne de la partie relle des valeurs propres de
la matrice associe la partie linaire de lquation : une solution est dite stable si les solutions
associes des valeurs voisines de la donne initiale restent proches de la solution considre
jusqu linni.
Cette notion de stabilit (dite aussi stabilit au sens de Lyapunov) ne devra pas tre confondue avec la notion de stabilit dune mthode numrique, qui concerne la stabilit de lalgorithme sur un intervalle de temps x. On tudie nalement les direntes congurations possibles des lignes intgrales au voisinages des points singuliers non dgnrs dun champ de
vecteurs plan.
Dnition 4.5.1 Soit y(t; z) la solution maximale de (1) tel que y(t0; z) = z. On dira que la
solution y(t; z0 ) est stable sil existe une boule B(z0 ; r) et une constante C 0 telles que
(i) Pour tout z 2 B(z0 ; r), t ! y(t; z) est dnie sur [t0 ; +1[ ;
(ii) Pour tous z 2 B(z0 ; r) et t t0 on a ky(t; z) y(t; z0 )k C kz z0 k.
La solution y(t; z0 ) est dite asymptotiquement stable si elle est stable et si la condition (ii)
plus forte que (ii) est satisfaite :
(ii) Il existe une boule B(z0 ; r) et une fonction : [t0 ; +1[ ! R+ continue avec (t) = 0
telles que pour tous z 2 B(z0 ; r) et t t0 on ait
ky(t; z)

4.5.1

(t) kz

y(t; z0 )k

z0 k :

Cas dun systme linaire coe cients constants

Nous tudierons dabord le cas le plus simple, savoir le cas dun systme linaire sans
second membre
0
1
0
1
y1
a11
a1m
B
C
B
.. C
..
Y 0 = AY; Y = @ ... A ; A = @ ...
((E))
.
. A
ym
am1
amm

avec yj ; aij 2 C ; le cas rel peut bien entendu tre vu comme un cas particulier du cas
complexe. La solution du problme de Cauchy de condition initiale Y (t0 ) = Z est donne par
Y (t; Z) = e(t t0 )A Z. On a donc
Y (t; Z)

Y (t; Z0 ) = e(t

et la stabilit est lie au comportement de e(t


e(t t0 )A doit rester borne.

t0 )A

t0 )A

(Z

Z0 )

quand t tend vers +1, dont la norme

Thorme 4.5.1 Soient 1 ; :::; m les valeurs propres complexes de la matrice A.


Alors les solutions du systme linaire Y 0 = AY sont
113

CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES


ORDINAIRES DORDRE 1
asymptotiquement stables si et seulement si Re( j ) < 0 pour tout j = 1; :::; m.
stables si et seulement si pour tout j, ou bien Re( j ) < 0, ou bien Re( j ) = 0 et le bloc
correspondant est diagonalisable.

4.5.2

Ptite perturbation dun systme linaire

On considre dans |m = Rm ou Cm un systme de la forme


Y 0 = AY + g(t; Y )

(E)

o g : [t0 ; +1[ |m ! |m est une fonction continue. On se propose de montrer que si la


partie linaire est asymptotiquement stable et si la perturbation g est su samment petite, en
un sens prciser, alors les solutions de (E) sont encore asymptotiquement stables.
Thorme 4.5.2 On suppose que les valeurs propres complexes j de A sont de partie relle
Re j < 0.
(a) Sil existe une fonction k : [t0 ; +1[ ! R+ continue telle que lim k (t) = 0 et
t!1

8t 2 [t0 ; +1[; 8Y1 ; Y2 2 |m ;

kg(t; Y1 )

g(t; Y2 )k

k(t) kY1

Y2 k ;

alors toute solution de (E) est asymptotiquement stable.


(b) Si g(t; 0) = 0 et sil existe r0 > 0 et une fonction continue k : [0; r0 ] ! R+ telle que
lim k (r) = 0 et

r!1

8t 2 [t0 ; +1[; 8Y1 ; Y2 2 B(0; r);

kg(t; Y1 )

g(t; Y2 )k

k(r) kY1

Y2 k ;

pourr r0 , alors il existe une boule B(0; r1 ) B(0; r0 ) telle que toute solution Y (t; Z0 ) de
valeur initiale Z0 2 B(0; r1 ) soit asymptotiquement stable.

114

TRAVAUX DIRIGS 4

Travaux dirigs 4

Exercice 01 :
 2 h
T

.
H
H
Soit lequation differentielle a` condition initiale H
et

 a` laide de la methode dEuler
Approcher la solution de cette e quation en H
en subdivisant lintervalle de travail en 10 parties e gales. Comparer a` la solution
exacte.

x )<

Exercice 02 :
Approcher la solution de `
le4quation
differentielle ci-dessous en H
)<
sant RK2, avec un pas

<


` H

H
H

en utili-




Comparer a` la solution exacte.


Exercice 03 :
Soit le probl`eme de Cauchy
suivant
y(t)
y(0)

= t + y(t), H
=1

? 4 B
U V

1. Trouver la solution exacte de ce probl`eme.


2. Appliquer la methode dEuler a` ce probl`eme, avec
I)
# . Comparer a` la solution exacte.
solution en H

4)


, puis evaluer la

Exercice 04 :
En donnant les solutions de lequation differentielle ci-dessous avec la condition

/j
 puis
  , reel non nul, verifier quelle conduit a` des
initiale
schemas instables.

)
 

#/! H

#/ []

115

SUGGESTIONS ET CORRIGS

Suggestions et Corrigs

Exercice 01

 ;
 BS4

H
H
H
H
/


B
Lintervalle dintegration est U  V .
que e tant continue et lipshitzienne par rapport a`
Remarquons tout dabord

le probl`eme de Cauchy  admet une solution unique (theor`eme 9 de CauchyLipshitz).


Methode dEuler Elle secrit :

BS
  H


 H 


   "H

 3
4)
x I

 ,
[
x
e
e
e

<
p
s
#

 4) 4)<
)
4) p 4) s
#
)
)</< ) <
   
 #/!

On a aussi
Do`u le tableau,

`
e

4 ! )

et H

 )

4 )m

H  W

) 


x


)  p
# 


x ) p
#  .
 de H , est
Cest a` dire que lapproximation en H
e
Solution exacte de cette e quation Appliquons la methode de la variation de
la constante.
1e` re e tape : e quation sans second membre.


H n  `
H

H
0 
evidente.
est une solution
I>
>2
?  Les autres
< / solutions sont donnees par
avec
.
H . Do`u
nde
2 e tape : une solution particuli`ere On applique la methode de la varia>
@>
 R> 

do`u
tion de la constante
que lon reporte dans

>
>
> >
>k `


:
H [] .

H ainsi,

H [] H en integrant par parties on trouve

>
[] H
H [] 


H [] []  


#
[]  H  
116

?!

avec 
.
>
e` me
3 e tape : solution generale. On remplace donne par

#"


[]  H 

donc,

$

dans

<

H  

Finalement, grace a` la condition initiale




, on determine  , do`u

<
 G
  e&% 




<
 H  .
Ainsi, la solution exacte de  est
  
Estimation de lerreur. La solution exacte ci-dessus donne 
< )p
# #/!/! . Ainsi, lerreur(

{ { ) p
4)de
< s lapplication
commise
) p { lors
{ ' effectivement
# #/!/! # 
de la methode dEuler est
. Cherchons
lerreur theorique qui est donnee par :

 
D[  ~ <
`2/ 7 {   {
O`u ~
H et est la constante de Lipschitz de

par rapport

a` , qui se calcule aisement :

{ H BSt  H B { { K {
%

De meme, on a

  h
H
Ainsi ~

I<

  H 
<

  H   H 
<

. Donc,

{ w
{
('

 < [ x

x
x
[ e
 <

I

4

)

p
 
!#


Clairement, { { { { , donc la methode dEuler donne une bonne ap

.
proximation de la solution de ce probl`eme de Cauchy en H
117

SUGGESTIONS ET CORRIGS

Exercice 02


3  B%t


H
H
H
eH

Remarquons tout dabord que e tant continue et lipshitzienne par rapport a`

ce probl`eme de Cauchy admet une solution unique (theor`eme 9 de CauchyLipshitz).


4BS4)<
I)<
V et le pas dintegration est
Lintervalle dintegration est U
.
Methode de RK2 Elle secrit :

`
*B

\ x
 < ~ x  ~

soit

x 3

 < ~ x  ~
e

4

)


4)<DB )</
 4 )<B
4) <z








, avec ~ x
et ~
. Donc 
4)
!/!/! .
`4)<
Ainsi, lapproximation en H
de H , est
4 ) m)

    /! !/!
  < ~ x  ~
)
  !/!/!

x
x

Solution exacte de cette e quation

En multipliant  par
5 `
donc
do`u :

<
 3K H B

on a

 `D
0<

</
<

`
9 
x S `D
0<

H do`u

  ` 0<
H

H . On pose

'*)

Ce qui est une e quation differentielle lineaire du 1 ordre. On lint`egre par


la methode de la variation de la constante comme a` lexercice precedent.
 I<
2 `
2 `>
.
Lequation sans second membre est
de solution
ou
Une solution particuli`ere par la variation de la constante. On a

avec

 ? 

#  +   <,
</x   <
  p

H ce qui implique

H [ .
. Do`u, dans
118

Integrons

par parties :


p. 
< H
<
H [ 

<
 2 [
H 3

?-


[  < [ H0/

[ 1

 
T <

2/4 comme *5
2 ,
. La solution generale est donc
H 
5
DO <
H J <
H 62 . Ainsi,
H 32 . Comme
 75 . Finalement,


<

J
5 alors
2
H 82 .
</I J < 5 9 <

32

Estimation de lerreur. La solution exacte est *5 9
;: <
(' { 2 9 2 ;:< 2 2 9 2 ;<;<;< { 5=9>5;5 : p s
2 92
2 . Donc lerreur commise est { {
.
On peut comparer cette erreur effective a` lerreur theorique sur RK2, donnee
par : (le theor`eme du cours)

avec 

Exercice 03
Soit le probl`eme de Cauchy suivant

? ;
7 5 H

< G

H BS4
H
H
2
2

Remarquons tout dabord que e tant continue et lipshitzienne par rapport a`

le probl`eme de Cauchy 2 admet une solution unique (theor`eme 9 de CauchyLipshitz).


Methode dEuler. Elle secrit :

BS
  H

<
 H

<
2  "H
3
5
5=9

2 ,
2 H
W .
On a aussi 75
et H
x 5=9  e 5 95 <
e
Donc
, do`u le tableau,

<
:
2
5
<
:
5=9
5=9
H 5 5=/9 2 <
/< 5=9 p <
;
5=9
2
2 5=9
5 9 :

Cest a` dire que lapproximation en H
de H avec le pas
x 5=9 p <
2 .
119
e

5=9 2 , est

SUGGESTIONS ET CORRIGS

Solution exacte de cette e quation. En appliquant la methode de la variation


de la constante, comme au premier exercice, on trouve la solution generale,
< 0< :
 [] .
H
H
:j 5 9 <<
Estimation de lerreur. La solution exacte ci-dessus donne *5=9
.
Ainsi, lerreur effectivement commise lors de lapplication de la methode
(' {5=9 </< 5=9 p 2 { 5=95 2 
dEuler est { {
. Cherchons lerreur theorique
qui est donnee par :

\A@ [DC B 2 ~ <


`2/ 7 { ? ? {
H et est la constante de Lipschitz de
O`u ~
N
2

par rapport

a` , qui est ici clairement e gale a` . On a

Ainsi ~

E:

? ? D: 9
H
[]

. Donc,

 : 25 [ x
x
{ w
{ @ eGF [ e  B 2 < 2
5=9 2 s eGF 2 IH 5=95 s < p 9
'
{(
{ { { , donc la methode dEuler donne une: bonne ap5 9

Clairement,
proximation de la solution de ce probl`eme de Cauchy en H

Exercice 04

? ;
7 5 H

H : []
, puis 2

:;<
2

En appliquant la methode de la variation de la constante,


au premier


KJ
 comme

exercice, on trouve la solution generale, H
[ L XZ [] L XZ o`u 
est la constante dintegration.



5
2 , alors 
, donc la solution du probl`eme est H
[] .
*5 k

M T

2


2. Si
,
alors
,
donc
la
solution
du
probl`
e
me
est
H


[]  XZ .
 M

{
H
H
H
Conclusion
:
En
comparant
et
,
on
voit
que
la
diff
e
rence

M {
 N , les deux solutions
H
XZ . Meme si est tr`es petit, cet e cart tend vers O
1. Si * 5

divergent lune de lautre. Ce probl`eme est donc tr`es sensible aux Conditions Initiales.
120

Bibliographie
[1] K. ARBENTZ, A. WOHLHAUSER : Analyse Numrique. Suisse, 1980.
[2] J. BASTIEN : Introduction lanalyse numrique :Applications sous Matlab, Dunod, 2003.
[3] E. CANON : Analyse numrique, Cours et exercices corrigs - Licence 2 et 3 Mathmatiques, Dunod, 2012.
[4] P. DEUFLHARD, A. HOHMANN : Numerical Analysis in Modern Scientic Computing,
An Introduction, Springer-Verlag, 2003, 2e dition.
[5] M. FELLAH, N.H. ALLAL : Exercices corrigs en Analyse Numrique Elmentaire. O.P.U,
Alger, Rimpression 2005.
[6] F. FILBET : Analyse numrique, algorithme et tude mathmatique, Dunod, 2013.
[7] F. JEDRZEJEWSKI : Introduction aux Mthodes Numriques, Deuxime dition.
Springer-Verlag France, Paris 2005.
[8] R. HERBIN : Cours dAnalyse numrique, polycopi, Universit Aix Marseille, 2014.
[9] M. LAKRIB : Cours dAnalyse Numrique. O.P.U, Alger, 2005.
[10] A. QUARTERONI, R. SACCO ET F. SALERI : Mthodes Numriques, Algorithmes, Analyse et Applications, Springer, 2006.
[11] R. THEODOR : Initiation lanalyse numrique, CNAM, Masson, 1989.
[12] D. ZILL : Dierential Equations with Boundary Value Problems, PWSKent Pub, 1989.

121

S-ar putea să vă placă și