Documente Academic
Documente Profesional
Documente Cultură
Avr 2015
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
5
6
7
8
11
14
16
17
19
20
21
21
22
22
24
30
.
.
.
.
.
.
45
45
48
48
49
52
54
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
dordre
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
63
64
65
67
69
70
74
76
78
79
81
1
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
93
93
94
94
96
99
100
103
104
105
107
107
107
111
113
113
114
115
0.1
Introduction Gnrale
Daprs les historiens, le calcul numrique remonte au moins au troisime millnaire avant
notre re. Il est lorigine favoris par le besoin deectuer des mesures dans dirents domaines
de la vie courante, notamment en agriculture, commerce, architecture, gographie et navigation ainsi quen astronomie. Il semble que les Babyloniens (qui peuplaient lactuelle Syrie/Iraq)
sont parmi les premiers raliser des calculs algbriques et gomtriques alliant complexit
et haute prcision. Surtout, ils donnent une importance et un sens au placement relatif des
chires constituant un nombre, cest--dire introduire la notion de base de dnombrement, en
loccurrence, la base sexagsimale que nous avons ni par adopter dans certains domaines. Ils se
distinguent ainsi dautres civilisations, mme bien plus rcentes, qui dveloppent des mthodes
plus lourdes, en introduisant une plthore de symboles. Il y a environ 3500 ans, les populations
de la valle de lIndus (rgions de lInde et du Pakistan) introduisent les notions de zro et
emploient les nombres ngatifs. Il adapte galement le systme de comptage Babylonien au
systme dcimal qui est le ntre aujourdhui. Ces premiers outils de calcul sont largement dvelopps par la suite par les Grecs, puis transmis en Europe par lintermdiaire des civilisations
musulmanes peuplant le bassin mditerranen.
Le calcul numrique tel que nous le concevons pratiquement aujourdhui connat son premier
vritable essor partir du XVIIme sicle avec les progrs fulgurants des Mathmatiques et
de la Physique, plus ou moins lis aux observations et aux calculs astronomiques. Plusieurs
machines de calcul sont en eet construites, comme la nPascaline" invente par B. Pascal en
1643. Babbage en 1834 mais qui fonctionnait mal, ou encore le tabulateur de H. Hollerith
spcialement conu pour recenser la population amricaine, vers 1890. Il sagit bien-entendu de
machines mcaniques imposantes et dutilisation assez limite. Le manque de moyens de calcul
performants limite en fait lexpansion et la validation de certaines thories du dbut du XXme
sicle. Ce fut le cas en particulier de la thorie de la Relativit Gnrale due A. Einstein.
La Seconde Guerre Mondiale et les progrs technologiques quelle engendre va permettre au
calcul numrique damorcer un second envol. Les anglais mettent au point le premier ordinateur
en 1939, Colossus, dont la mission est de dcrypter les messages codes envoyes par lmetteur
ENIGMA de lAllemagne nazie. Cette machine introduit les concepts rvolutionnaires mis
par A. Turing dans les annes 1936 concernant lautomatisation des calculs. Les calculateurs
sont dsormais entirement lectroniques. Autre machine qui fait date dans lhistoire, le ENIAC
(nElectronic Numerical Integrator And Computer) construit en 1946. Malheureusement, ce type
de machine ne dispose pas de mmoire interne et doit tre en permanence reprogramme.
A la n des annes 1940, un certain J. von Neumann repense larchitecture des ordinateurs et introduit, entre autres, les mmoires permettant de sauvegarder les programmes, et les
concepts de hardware (matriel) et de software (logiciel). La premire machine de calcul incluant
les concepts de von Neumann (et ceux de Turing) est ainsi produite par la rme amricaine
IBM ; elle sappelle MARK I et pse 5 tonnes. Les premires applications concernent tous les
domaines sciatiques et techniques. Le FORTRAN I, un langage de programmation destine aux
scientiques, est conu ds 1954. . . mais il lui manque un vrai compilateur.
Vers la n des annes 1960, lapparition progressive des transistors et de leur assemblage
massif sur des surfaces de plus en plus rduites augmente considrablement les performances
1
des machines et permet des simulations numriques de ralisme croissant. Cet eort de miniaturisation est dailleurs impos par la course la conqute de lespace. Apparaissent ainsi en
1970 les fameux microprocesseurs mis au point par les rmes Intel et Motorola qui quipent
la majeure partie des sondes spatiales de lpoque. Le calcul numrique devient rapidement
une science part entire. Les annes 70 marquent aussi le tournant pour les langages de programmation : certains sont dnitivement produits des ns scientiques, alors que dautres
seront penss pour la gestion, comme le Cobol. Au dbut des annes 1980, lordinateur le plus
puissant du monde sappelle CRAY I. Sa forme est spcialement choisie pour optimiser la rapidit des calculs. Cest aussi le dbut de linformatique familiale avec la mise sur le march des
PERSONAL COMPUTERS DIBM
En une quinzaine dannes, la rapidit des calculateurs a t multiplie par plus de 10000.
La vitesse dexcution des oprations lmentaires se compte maintenant en dizaines de millions
de millions doprations la seconde (ou dizaines de Tra-ops, comparer la centaine de
mga -ops du CRAY I). Les capacits de stockage ont gagn 7 ordres de grandeur au moins.
Aujourdhui, toutes ces performances doublent tous les ans. Pour le monde scientique, celui de
la Recherche Fondamentale et de lIndustrie, les calculateurs et le dveloppement de techniques
de programmation spciques (comme la programmation parallle) sont devenus des outils
incontournables la connaissance et ouvrent de nouveaux horizons pour la modlisation et la
comprhension des phnomnes complexes et la mise au point de nouvelles technologies.
On regroupe sous le terme gnrique de "mthodes numriques", toutes les techniques de
calcul qui permettent de rsoudre de manire exacte ou, le plus souvent, de manire approche un problme donn. Le concept de calcul est assez vaste et doit tre pris au sens large.
Il peut sagir de dterminer linconnue dune quation, de calculer la valeur dune fonction en
un point ou sur un intervalle, dintgrer une fonction, dinverser une matrice, etc. Bien que la
mise en quation dun problme et sa rsolution passent naturellement par les Mathmatiques,
les problmatiques sous-jacentes concernent des disciplines aussi varies que la Physique, lAstrophysique, la Biologie, la Mdecine, lEconomie, etc. Il existe ainsi une grande varit de
problmes possibles avec pour chacun deux, des mthodes trs spciques. De fait, le nombre
total de mthodes numriques dont nous disposons lheure actuelle est vraisemblablement
gigantesque.
Une mthode numrique met en uvre une certaine procdure, une suite doprations, gnralement en tries grand nombre, que lon transcrira ensuite dans un langage de programmation.
Bien quune mthode numrique puisse seectuer mentalement (du moins avec
pun crayon et un
papier) comme inverser une matrice 2x2, rsoudre tan x 1 = 0, ou calculer 2, elle ncessite
dans la majorit des cas un ordinateur qui a lavantage de la rapidit (mais pas de la prcision).
Il convient ce niveau de bien direncier la partie mthode numrique, souvent indpendante
du calculateur et du langage, et la partie programmation qui met en uvre dune part lalgorithme et dautre part une suite dinstructions crites dans un langage de programmation. Bien
sr, une mthode numrique pourra dpendre de larchitecture dun ordinateur et du langage
utilis. Toutefois, lun des soucis majeurs de lutilisateur et du programmeur est dassurer
son programme une certaine portabilit, cest--dire de pouvoir lexcuter sur des machines
direntes sans avoir besoin dadaptations (trop) spciques.
Les mthodes numriques sont indispensables la ralisation de programmes de calculs ou
2
Chapitre 1
Rsolution des systmes linaires
On note MN (R) lensemble des matrices carres dordre N . Soit A 2 MN (R) une matrice
inversible, et b 2 Rn , on a comme objectif de rsoudre le systme linaire Ax = b, cest dire
de trouver x solution de :
x 2 RN
(P)
Ax = b
Comme A est inversible, il existe un unique vecteur x 2 RN solution de (P). Nous allons
tudier dans les deux chapitres suivants des mthodes de calcul de ce vecteur x : la premire
partie de ce chapitre sera consacre aux mthodes directes" et la deuxime aux mthodes itratives". Nous aborderons ensuite en troisime partie les mthodes de rsolution de problmes
aux valeurs propres.
Un des points essentiels dans le cacit des mthodes envisages concerne la taille des
systmes rsoudre. Entre 1980 et 2000, la taille de la mmoire des ordinateurs a augment
de faon drastique. La taille des systmes quon peut rsoudre sur ordinateur a donc galement
augment.
Le dveloppement des mthodes de rsolution de systmes linaires est lie lvolution des
machines informatiques. Un grand nombre de recherches sont dailleurs en cours pour proter
au mieux de larchitecture des machines (mthodes de dcomposition en sous domaines pour
proter des architectures parallles, par exemple).
Dans la suite de ce chapitre, nous verrons deux types de mthodes pour rsoudre les systmes
linaires : les mthodes directes et les mthodes itratives. Pour faciliter la comprhension de
leur tude, nous commenons par quelques rappels dalgbre linaire.
1.1
1.1.1
Dnition 1.1.1 (Norme matricielle, norme induite) On note MN (R) lespace vectoriel
(sur R) des matrices carres dordre N .
4
2. On considre MN (R) muni dune norme k:k. On appelle norme matricielle induite (ou
norme induite) sur MN (R) par la norme k:k, encore note k:k, la norme sur MN (R) dnie par :
kAk = sup fkAxk ; x 2 Rn ; kxk = 1g ; 8A 2 MN (R)
Proposition 1 Soit MN (R) muni dune norme induite k:k. Alors pour toute matrice A 2
MN (R), on a :
1. kAxk kAk kxk ; 8x 2 Rn ;
2. kAk = max fkAxk
; kxk = 1; xo2 Rn g ;
n
; x 2 Rn n f0g
3. kAk = max kAxk
kxk
4. k:k est une norme matricielle.
Proposition 2 Soit A = (ai; j )i; j2f1;:::;N g 2 MN (R)
1. On munit Rn de la norme k:k1 et MN (R) de la norme induite correspondante, note
aussi k:k1 . Alors
N
P
kAk1 = max
jai; j j
i2f1;:::;N g j=1
kAk2 =
1.1.2
1
2
Rayon spectral
Dnition 1.1.2 (Valeurs propres et rayon spectral) Soit A 2 MN (R) une matrice inversible. On appelle valeur propre de A tout 2 C tel quil existe x 2 CN ,x 6= 0 tel que
Ax = x. Llment x est appel vecteur propre de A associ . On appelle rayon spectral de
A la quantit (A) = max f ; 2 C, valeur propre de Ag.
Lemme 1.1.1 (Convergence et rayon spectral) On munit MN (R) dune norme, note k:k.
Soit A 2 MN (R).
Alors :
1. (A) < 1 si et seulement si Ak ! 0 quand k ! 1.
2. (A) < 1 ) lim supk!1 Ak
1
k
1
k
1.
< 1.
4. (A) = limk!1 Ak k :
5. On suppose de plus que k:k une norme matricielle (induite ou non). Alors
kAk :
(A)
Remarque 1.1.1 (Convergence des suites) Une consquence immdiate du lemme est que
si x(0) est donn et x(k) dni par x(k+1) = Ax(k) , alors la suite x(k) k2N converge vers 0 si et
seulement si (A) < 1.
Proposition 3 (Rayon spectral et norme induite) Soient A 2 MN (R) et " > 0. Il existe
une norme sur Rn (qui dpend de A et ") telle que la norme induite sur MN (R), note k:kA; "
vrie kAkA; "
(A) + ".
Lemme 1.1.2 (Triangularisation dune matrice) Soit A 2 MN (R) une matrice carre
quelconque, alors il existe une base (f1 ; :::; fN ) de C et une famille de complexes ( i; j )i=1;:::;N;j=1;:::;N;j<i
P
telles que Afi = i;i fi +
i;j fj De plus i;j est valeur propre de A pour tout i 2 f1; :::; N g.
j<i
On admettra ce lemme.
Nous donnons maintenant un thorme qui nous sera utile dans ltude du conditionnement,
ainsi que plus tard dans ltude des mthodes itratives.
Thorme 1.1.1 (Matrices de la forme Id + A) 1. Soit une norme matricielle induite, Id
la matrice identit de MN (R) et A 2 MN (R) telle que kAk < 1.
Alors la matrice Id + A est inversible et
(Id + A)
1
:
1 kAk
1.1.3
1 pour toute
Matrices diagonalisables
Dnition 1.1.3 (Matrice diagonalisable) Soit A une matrice relle carre dordre n. On
dit que A est diagonalisable dans R si il existe une base ( 1 ; :::; n ) et des rels 1 ; :::; n (pas
forcment distincts) tels que A i =
i pour i = 1; :::; n. Les rels 1 ; :::; n sont les valeurs
propres de A, et les vecteurs 1 ; :::; n sont les vecteurs propres associs.
Lemme 1.1.3 Soit A une matrice relle carre dordre n, diagonalisable dans R. Alors
A = P diag ( 1 ; :::;
n) P
o P est la matrice dont les vecteurs colonnes sont gaux aux vecteurs
6
1 ; :::;
n.
qui vrie :
E E ! R;
(x; y) ! < x; y >E
8x 2 E; < x; x >E
0 et < x; x >E = 0 , x = 0;
i;j 8i; j
2 f1:::N g;
1.2
Mthodes directes
On appelle mthode directe de rsolution de (P) une mthode qui donne exactement x (A
et b tant connus) solution de (P) aprs un nombre ni doprations lmentaires (+; ; ; =).
Parmi les mthodes de rsolution du systme (P) on citera :
- Mthode de Gauss(mthode du pivot)
- Mthode de Gauss-Jordan
- La mthode L:U
- Mthode de Cholesky
7
1.2.1
Mthode de Gauss
Soit Ax = b o A est une matrice (n n) ; non singulire (det (A) 6= 0 , A non singulire).
Principe :
? Transformation de la matrice A en une matrice triangulaire suprieure .
.
on construit A .. b et :
.
A .. b
.
transformation ! A0 .. b0 une matrice triangulaire suprieure .ie :
0
B
B
B
@
a11
a21
..
.
a12
a22
..
.
an1
an2
..
a1n
a2n
..
.
b1
b2
..
.
ann
bn
C
B
C
B
C !B
A
@
.
A .. b
0
a11
0
..
.
a12
0
a22
..
.
..
a1n
0
a2n
..
.
b1
0
b2
..
.
bn
ann
C
C
C
A
.
! A0 .. b0
Li
Li
(1)
..
(1)
an2
(1)
ai1
(2)
(2)
pour i = 2; n ;
(1)
a1n
(1)
a2n
..
.
b1
(1)
b2
..
.
(1)
ann
(1)
bn
(1)
a11
C
B
C
B
C !B
A
@
.
A(1) .. b(1)
o :
et
8
(1)
< a(2)
1j = a1j
:
(2)
aij
(2)
(2)
a11
0
..
.
a12
(2)
a22
..
.
(2)
..
.
! A(2) .. b(2)
j = 1; n
(1)
aij
(1)
ai1
(1)
a11
8
(1)
< b(2)
1 = b1
:
(1)
L1
(2)
(1)
b1 = bi
(1)
a1j , i = 2; n ; j = 1; n
(1)
ai1
(1)
a11
(1)
b1
, i = 2; n
a1n
(2)
a2n
..
.
(2)
ann
(2)
b1
(2)
b2
..
.
(2)
bn
1
C
C
C
A
(1)
(1)
? Si a11 = 0; on cherche une ligne Lp avec 2 p n telle que ap1 6= 0: Puis on permute
(1)
(1)
les lignes L1 et Lp pour obtenir
Ax = b () A(1) x = b(1) () P (1) A(1) x = P (1) b(1)
(1)
(1)
o P (1) est la matrice de permutation des lignes L1 et Lp :P (1) est elle meme la matrice
identit dans laquelle on permute la premire ligne et la P eme ligne.
(1)
Dans ce cas au lieu de la matrice A(1) on considre la matrice : A = P (1) A(1) dont on
(1)
notera encore les lments par aij et on lui applique des transformations analogues celles
(1)
correspondantes au cas a11 6= 0 ,tudi plus haut.
k eme tape :
(k)
? akk = 0 : On permute les lignes est une ligne dindice p avec k + 1 p n; telle que :
(k)
apk 6= 0: Et dela
A(k) x = b(k) () P (k) A(k) x = P (k) b(k)
(k)
(k)
o P k est la matrice de permutation des lignes Lk et Lp : P k est la matrice identit o on
permute la k eme et la P eme ligne.
(k)
(k)
(k+1)
(k)
aij
= aij
(k)
akk
8
(k)
< b(k+1)
= bi
i
:
(k+1)
bi
(k)
aik
(k)
akj ; i = k + 1; n ; j = 1; n
i = 1; k
(k)
= bi
(k)
aik
(k)
bk ; i = k + 1; n
(k)
akk
Rsolution de A0 x = b0 :
On pose
(k)
akk
B
B
.. 0
(n) .. (n)
A .b = A .b
=B
B
@
0
(n)
a11
0
..
.
0
9
(n)
a11
(n)
a11
..
.
..
.
(n)
..
a11
(n)
a11
..
.
(n)
a11
(n)
b1
(n)
b2
..
.
(n)
bn
1
C
C
C
C
A
Ax = b () A(1) x = b(1)
() A(2) x = b(2)
..
.
() A(n) x = b(n)
() A0 x = b0
( On dtermine xn , puis xn
an;n
a1;n xn )
1;2 xn )
permulations.
Exemples 1 Soit rsoudre le systme :
8
< 2x1 + 3x2 x3 = 5
4x2 + 4x2 3x3 = 3
(1)
:
2x1 + 3x2 x3 = 1
Le systme (1) scrit encore
0
2
3
4
A=@ 4
2 3
1ere tape :
(1)
? a11 = 2 6= 0
2
@ 4
: Ax = b avec
1
0 1
1
5
3 A ;b = @ 3 A
1
1
3
4
2 3
1
3
1
.
A(1) ..b(1)
1
0
2
5
A
@
0
!
3
0
1
.
! A(2) ..b(2)
10
1
x1
x = @ x2 A
x3
et
3
2
6
1
1
2
5
6
7 A
1
0
1 5
1
1
7 A !@ 0
0
2 6
2 3
@ 0
2
0 6
1
1
2 A
3
0 0
1 0
0 1
.
! A(3) ..b(3)
.
A(2) ..b(2)
Rsolution de A0 x = b0 :
.
Posons A0 .. b0 : On a alors :
1 0
1 0
2 3
1
x1
2
1 A @ x2 A = @
A0 x = b0 () @ 0
0 0
5
x3
8
< 2x1 + 3x2 x3 = 5
2x2 + x3 = 7
()
()
:
5x3 = 12
0
1.2.2
Mthode de Gauss-Jordan
7 A
15
8
< x1 = 1
x2 = 2
:
x3 = 3
a11
(2)
Li
On a alors :
0
B
B
B
@
(1)
(1)
ai1
(2)
Li
(1)
a11
(1)
a21
..
.
a12
(1)
a22
..
.
(1)
an1
(1)
an2
i = 2; n
(1)
..
(1)
a1n
(1)
a2n
..
.
b1
(1)
b2
..
.
(1)
ann
(1)
bn
C
B
C
B
C !B
A
@
.
A(1) ..b(1)
(2)
1
0
..
.
a12
(2)
a22
..
.
(2)
an2
.
! A(2) ..b(2)
11
(2)
..
a1n
(2)
a2n
..
.
(2)
ann
(2)
b1
(2)
b2
..
.
(2)
bn
1
C
C
C
A
8
(2)
>
>
< a1j =
>
>
:
et
(2)
(1)
a1j
(1)
a11
j = 1; n
(1)
(1)
(2)
aij = aij
ai1 a1j ; i = 2; n ; j = 2; n
(2)
aij = 0 , i = 2; n ; j = 1
8
< b(2) = b(1)
1
(1)
1
a11
(2)
(1)
:
b =b
i
1ere tape :
(1)
(2)
ai1
bi ;
i = 2; n
(2)
a22
(2)
Li
(3)
(2)
L2
ai2
i = 1; n avec
do :
0
B
B
B
@
(2)
(2)
(2)
1
0
..
.
a12
(2)
a22
..
.
a1n
(2)
a2n
..
.
b1
(2)
b2
..
.
(2)
an2
(2)
ann
(2)
bn
B
C
B
C
C !B
@
A
.
A(2) ..b(2)
avec :
8
(2)
>
>
< a1j =
>
>
:
et
(3)
0
1
..
.
a13
(3)
a23
..
.
(3)
an3
(1)
(k+1)
Li
(1)
(2)
(e)
ai2
(")
b2 ;
i = 1; n; i 6= 0
(k)
(k)
(k)
aik
(k+1)
Lk
i = 1; n avec
12
i 6= k
(3)
ann
ai1 a1j ; i = 2; n ; j = 2; n
= 2; n ; j = 1
Lk
Li
.
! A(3) ..b(3)
(k)
1
(k)
akk
..
j = 1; n
8
< b(2) = b(1)
1
(1)
1
a11
: b(3) = b(2)
i
? akk 6= 0 :
(1)
Lk
(3)
a1n
(3)
a2n
..
.
(1)
a1j
a11
(2)
(1)
aij = aij
(2)
aij = 0; i
k eme tape :
1
0
..
.
i 6= 2
(3)
a1
(3)
a2
..
.
(3)
an
1
C
C
C
A
(k)
1
0
..
.
0 a1k
(k)
0 a2k
0
0
..
.
1 ak 1;k
(k)
0 akk
0 ank
(k)
(k)
a1n
(k)
a2n
b1
(k)
b2
..
.
(k)
ak 1;n
(k)
a1k
(k)
bk 1
(k)
bk
..
.
(k)
ann
(k)
bn
et
: a(k+1) = a(k)
ij
ij
(k)
(k)
(k+1)
(k+1)
0 a1;k+1
(k+1)
0 a2;k+1
a1n
(k+1)
a2n
b1
(k+1)
b2
..
.
(k+1)
ak;n
(k+1)
ak+1;n
(k+1)
bk
(k+1)
bk+1
..
.
(k+1)
ann
(k+1)
bn
1 ak;k+1
(k+1)
0 ak+1;k+1
0 an;k+1
(k+1)
(k+1)
.
! A(k+1) .. b(k+1)
(k)
(k+1)
akj
(k)
aik
8
<
(k+1)
1
0
..
.
C
B
C
B
C
B
C
B
C
B
C
B
C !B 0
C
B
C
B 0
C
B
C
B ..
A
@ .
0
.
A(k) .. b(k)
avec
8
<
akj
(k)
akk
(k+1)
akj
(k+1)
bk
j = k; n
; i = 1; n; i 6= k; j = k + 1; n
(k)
: b(k+1) = b(k)
i
i
bk
(k)
akk
(k)
aik
(k+1)
bk
i = 1; n ; i 6= k
1ere tape :
(1)
? a11 = 2 6= 0
2
@ 4
3
4
2 3
1
3
1
1
0
1
5
3 A !@ 0
0
1
13
et
1
x1
x = @ x2 A
x3
3 2
2
6
1
1 2 5 2
1
7 A
2
6
1
C
C
C
C
C
C
C
C
C
C
C
A
.
A(1) ..b(1)
2eme tape :
(2)
? a22 = 2 6= 0
0
1 3 2
@ 0
2
0 6
3eme tape :
(3)
? a33 = 5 6= 0
1
0
1 2 5 2
1
1
7 A !@ 0
0
2
6
1
0
5 4
11 4
A
1 1 2
7 2
0
5
15
.
! A(3) ..b(3)
.
A(2) ..b(2)
1
0
1 0
5 4
11 4
1
A
@ 0 1 1 2
@
7 2
0
!
0
5
15
0 0
0
.
A(3) ..b(3)
0 0
1 0
0 1
.
! A(4) ..b(4)
1
1
2 A
3
Solution de A0 x = b0 :
Posons b0 = b(4) :On a alors : x = b0 = (1:2:3) :
1.2.3
0:0003 3
1
1
et
b=
2:0001
1
0:0003 3
2:0001
0
9999
6666
.
! A0 .. b0
14
a11 x1 + a12 x2 +
a22 x2 +
..
.
+ a1n xn = b1
+ a2n xn = b2
ann xn = bn
(k)
(k)
1
C
C
C
C
C
C
C
C
A
Parmi les coe cients akk ; ak+1;k ; : : : ; ank ; on choisit celui dont le module est le plus grand
ie : max
i=k;n
(k)
aik
1.2.4
A la k eme tape le pivot est choisit parmi les coe cients aij ; i = k; n
module soit le plus grand
ie :
max
i=k;n j=k;n
(k)
aij
(1)
1
.
A .. b = @ 2
3
k = 1 : max aij ; i = 1; 2; 3 j = 1; 2; 3
permutant les lignes 1 et 3 on obtient :
0
1
@ 2
3
3 3
2 5
2 6
7 A
12
3 3
2 5
2 6
7 A
12
6 2
3
@ 0 2
1 2
0 1 3
1 2
6
@ 0
0
1
2 3
12
A
2
1 2
8
0
5 12
5 3
1.2.5
La mthode L:U
B
B
B
=B
B
B
@
avec : Ax = b
()
On pose alors U = A0
(1)
a11
0
0
..
.
(1)
a12
(2)
a22
0
ann
(1)
a13
(2)
a23
(3)
a33
(1)
...
a1n
(2)
a1n
(3)
a1n
(n)
ann
A0 x = b 0
17
(1)
b1
(2)
b2
(3)
b3
..
.
(n)
bn
1
C
C
C
C
C
C
A
(n)
bn
ie :
B
B
B
=B
B
B
@
(1)
(1)
a11
0
0
..
.
0
et on montre que : A = L:U
0
1
B l21
B
B
L = B l31
B ..
@ .
ln1
Vrication : Pour
On a :
0 (1)
a11
B
B 0
U =B
@ 0
0
do
(1)
l21 =
l32 =
Ainsi
a21
(1)
a11
(2)
a32
(2)
a22
a21
a11
a11
B a
B 21
B
= B a31
B
@
a41
(1)
a13
(2)
a23
(3)
a33
..
(1)
a1n
(2)
a1n
(3)
a1n
b1
(2)
b2
(3)
b3
..
.
.
(n)
C
C
C
C
C
C
A
(n)
ann
bn
o
0
1
l32
0
0
0
..
.
1
...
ln2
ln;n
C
C
C
C
C
A
n=4
a14
(2)
a24
(3)
a34
(4)
a44
a13
(2)
a23
(3)
a33
0
(1)
l31 =
(1)
(1)
(1)
a12
(2)
a22
0
0
a31
(1)
a11
(2)
a42
(2)
a22
1
B l21
;L = B
@ l31
l41
C
C
C
A
l41 =
B
B
B
L:U = B
B
@
a12
(2)
+ a22
a21 aa21
11
B
B
B
L =B
B
@
a21
a11
a31
a11
a41
a11
0
1
(2)
a22
(2)
a42
(2)
a22
0
0
1
(3)
a43
(3)
a33
a13
(2)
a21 aa13
+ a23
11
a31 aa13
+a
11
(2)
a41 aa13
+a
11
+ a42
a41 aa12
11
0
0
(2)
a32
(2)
a22
(2)
a42
a41
a11
(2)
21
a31 aa11
+ a32
0
1
a21
a11
a31
a11
(2)
a32
(1)
a11
l43 =
0
a41
(3)
a43
(2)
a22
(3)
a33
1
0
0
a
C
0 C B 11
CB 0
B
0 C
C@ 0
A
0
1
(2)
(2) a23
32 a(2)
22
(2)
(2) a23
42 a(2)
22
(k)
avec lik =
0
1
l32
l42
(1)
a31
a11
l42 =
(1)
a12
(2)
a22
0
aik
1
0
0 C
C
0 A
1
0
0
1
l43
(n)
akk
(k)
lik =
aik
(n)
akk
a41
a11
(3)
a43
(3)
a33
1
0
0 C
C
C
0 C
C
A
1
a12
(2)
a22
0
0
a13
(2)
a23
(3)
a33
0
a14
(2)
a24
(3)
a34
(4)
a44
1
C
C
C
A
a14
(2)
a21 aa14
+ a24
11
+ a33
(3)
a31 aa14
+a
11
(3)
+a
a41 aa14
11
+ a43
18
(2)
(2) a24
(2)
32 a
22
(2)
(2) a24
(2)
42 a
22
(3)
+ a34
(3)
(3) a34
+ a43
(3)
a33
(4)
+ a44
C
C
C
C
C
A
a11
B a21
=B
@ a31
a41
1.2.6
a12
a22
a32
a42
1
a14
(k)
a
a24 C
C = A car a(k+1) = a(k) + a(k) kj
ij
ij
ik (k)
a34 A
akk
a44
a13
a23
a33
a43
Mthode de Cholesky
0:
41 = a11 ; 42 =
a11
a21
a12
a22
a11
a21
a31
42 =
a12
a22
a32
a13
a23
a33
; 4n = det (A)
;:::
19
p
l11 = v
a11
u
u
lij = taii
>
>
>
>
>
>
>
>
>
:
lij =
1
ljj
i 1
X
2
, i = 2; n
lik
k=1
j 1
aij
lik ljk
k=1
lij = 0 i;
; i
Rsolution du Ax = b
Rsoudre le systme Ax = b revient alors rsoudre :
Ly = b
L |{z}
LT x = b
()
LT x = y
y
do lon dduit :
et
8
>
>
>
<
8
>
>
>
<
y1 =
>
>
>
: yi =
>
>
>
: xi =
1
lii
1
lii
bi
i 1
X
b1
l11
lik yk
k=1
xn =
yi
n
X
; i = 2; n
yn
lnn
lki xk
k=i+1
; i = 1; n
1.3
Conditionnement
Dans ce paragraphe, nous allons dnir la notion de conditionnement dune matrice, qui
peut servir tablir une majoration des erreurs darrondi dues aux erreurs sur les donnes.
Malheureusement, nous verrons galement que cette majoration nest pas forcment trs utile
dans des cas pratiques, et nous nous eorcerons dy remdier. la notion de conditionnement est
galement utilise dans ltude des mthodes itratives que nous verrons plus loin.
20
1.3. CONDITIONNEMENT
1.3.1
(1.1)
b
1.3.2
est inversible, et
Dnition 1.3.1 (Conditionnement) Soit Rn muni dune norme k.k et Mn (R) muni de la
norme induite. Soit A 2 Mn (R) une matrice inversible. On appelle conditionnement de A par
rapport la norme k.k le nombre rel positif cond(A) dni par :
cond(A) = kAk A
2. Si de plus A une matrice symtrique dnie positive, alors cond2 (A) = n1 , o n [resp.
1 ] est la plus grande [resp. petite] valeur propre de A.
3. Si A et B sont deuxmatrices symtriques dnies positives, alors cond2 (A+B) max(cond2 (A); c
4. Soit A 2 Mn (R) une matrice inversible. Alors cond2 (A) = 1 si et seulement si A = Q
o 2 R et Q est une matrice orthogonale (cest--dire Qt = Q 1 ).
5. Soit A 2 Mn (R) une matrice inversible. On suppose que A = QR o Q est une matrice
orthogonale. Alors cond2 (A) = cond2 (R).
6. Soient A; B 2 Mn (R) deux matrices symtriques dnies positives. Montrer que cond2 (A+
B) maxfcond2 (A); cond2 (B)g.
Thorme 1.3.1 Soit A 2 Mn (R) une matrice inversible, et b 2 Rn , b 6= 0. On munit Rn
dune norme k.k, et Mn (R) de la norme induite. Soient A 2 Mn (R) et b 2 Rn . On suppose
que k A k < kA1 1 k . Alors la matrice (A + A ) est inversible et si x est solution de (P) et x + x
est solution de (1.1), alors
k xk
kxk
1.4
cond(A)
kA 1 k k
b
Ak
(1.2)
Mthodes itratives
Les mthodes directes que nous avons tudies dans le paragraphe prcdent sont trs e caces : elles donnent la solution exacte (aux erreurs darrondi prs) du systme linaire considr. Elles ont linconvnient de ncessiter une assez grande place mmoire car elles ncessitent
le stockage de toute la matrice en mmoire vive. Si la matrice est pleine, c..d. si la plupart
des coe cients de la matrice sont non nuls et quelle est trop grosse pour la mmoire vive de
lordinateur dont on dispose, il ne reste plus qu grer habilement le swapping" cestdire
lchange de donnes entre mmoire disque et mmoire vive pour pouvoir rsoudre le systme.
Cependant, si le systme a t obtenu partir de la discrtisation dquations aux drivs
partielles, il est en gnral creux", c..d. quun grand nombre des coe cients de la matrice du
systme sont nuls ; de plus la matrice a souvent une structure bande", i.e. les lments non
nuls de la matrice sont localiss sur certaines diagonales.
1.4.1
Dnition et proprits
c= b
cestdire
xn+1 = xn + (b
Axn ):
Le terme b Axn est appel rsidu et la mthode sappelle dans ce cas la mthode dextrapolation
de Richardson.
Thorme 1.4.1 (Convergence de la mthode de type I) Soit A 2 Mn (R) inversible,
b 2 Rn . On considre la mthode I avec B 2 Mn (R) et
c = (Id
B)A 1 b:
(1.3)
(1.4)
1.4.2
Par contre si A est dcompose en 2 2 blocs carrs (i.e. tels que ni = mj ; 8(i; j) 2 f1; 2g),
on a en gnral : det(A) 6= det(A1;1 ) det(A2;2 ) det(A1;2 ) det(A2;1 ).
Mthode de Jacobi
~
On a bien A = M
scrit :
6
6
6
6
6
F =6
6
6
6
4
0
0
..
.
A1;2
..
.
..
.
..
..
..
..
..
..
..
..
..
.
0
A1;S
..
.
..
.
AS
0
1;S
7
7
7
7
7
7:
7
7
7
5
x(0) 2 Rn
= (E + F ) x(k) + b
25
(1.6)
(k+1)
Ai;i xi
j<i
x(0) 2 Rn
P
(k)
(k)
Ai;j xj
Ai;j xj + bi i = 1; :::; S
(1.7)
j>i
Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul coe cient, et on
obtient la mthode de Jacobi par points (aussi appele mthode de Jacobi), qui scrit donc :
(
(k+1)
ai;i xi
j<i
x(0) 2 Rn
P
(k)
(k)
ai;j xj
ai;j xj + bi i = 1; :::; n
(1.8)
j>i
Mthode de Gauss-Seidel
Lide de la mthode de Gauss-Seidel est dutiliser le calcul des composantes de litr
(k+1)
du
(k + 1) ds quil est eectu. Par exemple, pour calculer la deuxime composante x2
(k+1)
(k+1)
quon vient de calculer plutt
vecteur x
, on pourrait employer la nouvelle" valeur x1
(k)
(k+1)
que la valeur x1 comme dans (1.5) ; de mme, dans le calcul de x3
, on pourrait employer
(k+1)
(k+1)
(k)
(k)
les nouvelles" valeurs x1
et x2
plutt que les valeurs x1 et x2 .
(k+1)
(k)
si j < i. On obtient donc
Cette ide nous suggre de remplacer dans (1.5) xj par xj
lalgorithme suivant :
(
(k+1)
Ai;i xi
j<i
x(0) 2 Rn
P
(k+1)
Ai;j xj
i<j
(k)
Ai;j xj + bi i = 1; :::; S
(1.9)
(k+1)
ai;i xi
j<i
x(0) 2 Rn
P
(k)
ai;j xj + bi i = 1; :::; n
(k)
ai;j xj
(1.10)
j>i
E) 1 F ;
j<i
On obtient donc
(D
!) Dx(k) :
~ =F+
E et N
D:
~ N
~.
Il est facile de vrier que A = M
Lalgorithme SOR scrit aussi comme une mthode I avec
D
!
B=
(F +
D):
D
!
(E +
{z
D
D)
!
!
}|
!
!
(F +
{z
D) :
}
D
!
(F +
!
!
D); ! 6= 0:
Alors :
1. Si (L! ) < 1 alors 0 < ! < 2.
2. Si on suppose de plus que A symtrique dnie positive, alors :
(L! ) < 1 si et seulement si 0 < ! < 2:
En particulier , si A est une matrice symtrique dnie positive, la mthode de GaussSeidel
converge.
Remarque 1.4.5 On a vu (thorme 1.35) que si A est une matrice symtrique dnie positive,
la mthode de GaussSeidel converge. Par contre, mme dans le cas o A est symtrique dnie
positive, il existe des cas o la mthode de Jacobi ne converge pas.
Remarquons que le rsultat de convergence des mthodes itratives donn par le thorme
prcdent nest que partiel, puisquil ne concerne que les matrices symtriques dnies positives
et que les mthodes Gauss-Seidel et SOR. On a aussi un rsultat de convergence de la mthode
de Jacobi pour les matrices diagonale dominante stricte, et un rsultat de comparaison des
mthodes pour les matrices tridiagonales par blocs, voir le thorme 1.3.5 donn ci-aprs. Dans
la pratique, il faudra souvent compter sur sa bonne toile. . .
Estimation du coe cient de relaxation optimal de SOR
La question est ici destimer le coe cient de relaxation, optimal dans la mthode SOR,
c..d. le coe cient, ! 0 2 ]0; 2[ (condition ncessaire pour que la mthode SOR converge, voir
thorme 1.3.4) tel que (L!0 ) < (L! ) 8! 2 ]0; 2[.
Daprs le paragraphe prcdent ce ! 0 donnera lameilleure convergence possible pour SOR.
On sait le faire dans le cas assez restrictif des matrices tridiagonales par blocs.
Thorme 1.4.5 (Coe cient optimal, matrice tridiagonale) On considre une matrice
A 2 Mn (R) qui admet une dcomposition par blocs dnie dans la dnition 1.3 ; on suppose
28
(L!0 ) = ! 0
1:
29
TRAVAUX DIRIGS 1
Travaux dirigs 1
Exercice 01 :
Soit le syst`eme lineaire suivant :
+=
&&
]V%
VM&
(V% ]
,
- .
"
J
o`u :
Factoriser la matrice
, et
Exercice 03
Exercice 04
Soit a IR et
a
A=
a
a
1
a
a
a
1
Montrer que A est symtrique dfinie positive si et seulement si 1/2 < a < 1
et que la mthode de Jacobi
converge si et seulement si 1/2 < a < 1/2.
30
Exercice 05
0
1
2 1
1. Soit A =
.
1 0
Calculer la dcomposition LDLt de A. Existe-t-il une dcomposition LLt de A ?
2. Montrer que toute matrice de MN (IR) symtrique dfinie positive admet une dcomposition LDLt .
1
0
0 1
t
3. Ecrire lalgorithme de dcomposition LDL . La matrice A =
admet-elle une dcomposition LDLt ?
1 0
Exercice 06
Soit N 1. Soit A = (ai,j )i,j=1,...,N MN (IR) une matrice symtrique. On note D la partie diagonale de A,
E la partie triangulaire infrieure de A et F la partie triangulaire suprieure de A, cest--dire :
D = (di,j )i,j=1,...,N , di,j = 0 si i %= j, di,i = ai,i ,
E = (ei,j )i,j=1,...,N , ei,j = 0 si i j, ei,j = ai,j si i > j,
F = (fi,j )i,j=1,...,N , fi,j = 0 si i j, fi,j = ai,j si i < j.
Noter que A = D E F . Soit b IR N . On cherche calculer x IR N t.q. Ax = b. On suppose que D est
dfinie positive (noter que A nest pas forcment inversible). On sintresse ici la mthode de Jacobi (par points),
Initialisation. x(0) IR N
Itrations. Pour n IN, Dx(n+1) = (E + F )x(n) + b.
On pose J = D1 (E + F ).
1. Montrer, en donnant un exemple avec N = 2, que J peut ne pas tre symtrique.
2. Montrer que J est diagonalisable dans IR et, plus prcisement, quil existe une base de IR N , note {f1 , . . . ,
fN }, et il existe {1 , . . . , N } IR t.q. Jfi = i fi pour tout i {1, . . . , N } et t.q. Dfi fj = i,j pour
tout i, j {1, . . . , N }.
En ordonnant les valeurs propres de J, on a donc 1 . . . N , on conserve cette notation dans la suite.
4. Montrer que la mthode de Jacobi (par points) converge (cest--dire x(n) x quand n ). [Utiliser un
thorme du cours.]
On se propose maintenant damliorer la convergence de la mthode par une technique de relaxation. Soit
> 0, on considre la mthode suivante :
Initialisation. x(0) IR N
Itrations. Pour n IN, D
x(n+1) = (E + F )x(n) + b, x(n+1) = x
(n+1) + (1 )x(n) .
5. Calculer les matrices M (inversible) et N telles que M x(n+1) = N x(n) + b pour tout n IN, en
fonction de , D et A. On note, dans la suite J = (M )1 N .
31
TRAVAUX DIRIGS 1
6. On suppose dans cette question que (2/)D A est symtrique dfinie positive. Montrer que la mthode
converge (cest--dire que x(n) x quand n .)
7. Montrer que (2/)D A est symtrique dfinie positive si et seulement si < 2/(1 1 ).
8. Calculer les valeurs propres de J en fonction de celles de J. En dduire, en fonction des i , la valeur
optimale" de , cest--dire la valeur de minimisant le rayon spectral de J .
Exercice 07
(1)
8
>
>
<
>
>
:
2x1 + x2 + x4 = 2
4x1 2x2 + 3x3 7x4 = 9
4x1 + x2 2x3 + 8x4 = 2
3x2 12x3 x4 = 2
32
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 01
]V%
VM&
(V% ]
,
&&
~
"
- .
Posons
, o`u
et
, on calcule
, o`u
J
do`u :
on calcule
m
Donc,
m
, o`u
n
n
n
n
n
n
Dautre part, on a m
, on en deduit donc que
m
m
m
m
m
n
33
Ainsi,
6m
, avec
Resoudre
revient a` resoudre
. On pose alors
, la
resolution du syst`eme initial revient a` resoudre successivement les deux syst`emes
triangulaires :
Finalement, on resout :
Exercice 02
, o`u
et
34
n
n
n
Posons m
, on calcule m
o`u :
SUGGESTIONS ET CORRIGS
do`u :
on calcule
, o`u
Donc,
3
nP
n
n
n
n
m
m
m
m
m
. On en deduit donc
Dautre part, on a m
Ainsi,
, avec
3
, cest a`
Resolvons le syst`eme
Finalement, on resout :
3
35
Exercice 03
On utilise le rsultat de conservation du profil de la matrice nonc dans le cours. Comme A est symtrique,
le nombre p de diagonales de la matrice A est forcment impair si A ; notons q = p1
2 le nombre de sous- et
sur-diagonales non nulles de la matrice A, alors la matrice L aura galement q sous-diagonales non nulles.
1. Cas dune matrice tridiagonale. Si on reprend lalgorithme de construction de la matrice L vu en cours, on
remarque que pour le calcul de la colonne n + 1, avec 1 n < n 1, on a le nombre doprations suivant :
n
X
Calcul de n+1,n+1 = (an+1,n+1
n+1,k n+1,k )1/2 > 0 :
k=1
ai,n+1
Pn
n
X
k=1
n
X
i,k n+1,k
k=1
1
n+1,n+1
est toujours infrieur 2q + 1, car la somme k=1 fait intervenir au plus q termes non nuls.
De plus, pour chaque colonne n + 1, il y a au plus q + 1 coefficients i,n+1 non nuls, donc au plus q + 1 coefficients
calculer. Donc le nombre doprations pour chaque colonne peut tre major par (2q + 1)(q + 1).
On peut donc majorer le nombre doprations zq pour les q premires colonnes et les q dernires par 2q(2q +
1)(q + 1), qui est indpendant de n (on rappelle quon cherche une estimation en fonction de n, et donc le nombre
zq est O(1) par rapport n.)
Calculons maintenant le nombre doprations xn ncessaires une colonne n = q + 1 n q 1. Dans (1.50) et
(1.51), les termes non nuls de la somme sont pour k = i q, . . . , n, et donc on a (n i + q + 1) multiplications
et additions, une division ou extraction de racine. On a donc
36
SUGGESTIONS ET CORRIGS
Exercice 04
Si a = 0, alors A = Id, donc A est s.d.p. et la mthode de Jacobi converge.
Si a %= 0, posons a = (1 ), et calculons le polynme caractristique de la matrice A en fonction de la
variable .
V
V
V
V
V 1 1 V
V a a
V
a
V
V
V
V
a a VV = a3 det VV 1 1 VV = a3 (3 3 + 2).
P () = det VV a
V 1 1 V
V a
a
a V
On a donc P () = a3 ( 1)2 ( + 2). Les valeurs propres de la matrice A sont donc obtenues pour = 1 et
= 2, cestdire : 1 = 1 a et 2 = 1 + 2a.
La matrice A est dfinie positive si 1 > 0 et 2 > 0, cestdire si 21 < a < 1.
La mthode de Jacobi scrit :
X (n+1) = D1 (D A)X (n) ,
2. 2. Reprenons en ladaptant la dmonstration du thorme 1.3. On raisonne donc par rcurrence sur la dimension.
1. Dans le cas N = 1, on a A = (a1,1 ). On peut donc dfinir L = ()1,1 ) o )1,1 = 1, D = (a1,1 ), d1,1 %= 0, et
on a bien A = LDLt .
2. On suppose que, pour 1 p N , la dcomposition A = LDLt sobtient pour A Mp (IR) symtrique
dfinie positive ou ngative, avec di,i %= 0 pour 1 i N et on va dmontrer que la proprit est encore
vraie pour A MN +1 (IR) symtrique dfinie positive ou ngative. Soit donc A MN +1 (IR) symtrique
dfinie positive ou ngative ; on peut crire A sous la forme :
B
a
A=
at
37
o B MN (IR) est symtrique dfinie positive ou ngative (calculer Axx avec x = (y, 0)t , avec y IR N
pour le vrifier), a IR N et IR.
Par hypothse de rcurrence, il existe une matrice M MN (IR) M = (mi,j )N
i,j=1 et une matrice diagonale
D = diag(d1,1 , d2,2 , . . . , dN,N ) dont les coefficients sont tous non nuls, telles que :
(a)
mi,j = 0 si j > i
(b)
mi,i = 1
t.
B = M DM
(c)
L=
bt
, D =
1
0
0
avec b IR N , IR tels que LDLt = A. Pour dterminer b et , calculons LDLt avec L et D de la forme
(1.8.75) et identifions avec A :
0 D
b
M Db
M
M DM
M
0
LDLt =
t
t
t
t
+
b
1
0
1
0
b DM
b Db
On cherche b IR N et IR tels que LDLt = A, et on veut donc que les galits suivantes soient
vrifies :
+ = .
= a et bt Db
M Db
;N
La matrice M est inversible (en effet, le dterminant de M scrit det(M ) = i=1 1 = 1). Par hypothse
est aussi inversible. La premire galit ci-dessus donne : b = D
1 M 1 a. On
de rcurrence, la matrice D
calcule alors = bt M 1 a. Remarquons quon a forcment %= 0, car si = 0,
t
M Db
M DM
A = LDLt =
bt DM
bt Db
qui nest pas inversible. En effet, si on cherche (x, y) IR N IR solution de
x
M DM
0
M Db
= ,
t
t
t
y
0
b DM
b Db
on se rend compte facilement que tous les couples de la forme (M t by, y)t , y IR, sont solutions. Le
noyau de la matrice nest donc pas rduit {0} et la matrice nest donc pas inversible. On a ainsi montr que
dN +1,N +1 %= 0 ce qui termine la rcurrence.
38
SUGGESTIONS ET CORRIGS
N
%
k=1
dn+1,n+1 = an+1,n+1
n
%
)2n+1,k dk,k .
k=1
n+1
%
k=1
n
%
k=1
et donc, comme on a montr dans la question 2 que les coefficients dk,k sont tous non nuls, on peut crire :
)i,n+1 =
<
ai,n+1
n
%
k=1
39
1
dn+1,n+1
Exercice 06
1. J = D1 (E + F ) peut ne pas tre symtrique, mme si A est symtrique :
1
0
2 1
.
En effet, prenons A =
1 1
Alors
10
1 0
1 0
0 1
0 12
0
0
0 1
1
2
=
%=
J = D (E + F ) =
1
0 1
1 0
1 0
2
1
0
i = 1, . . . , N, et (Dfi , fj ) = ij .
3. Par dfinition de J, tous les lments diagonaux de J sont nuls et donc sa trace galement. Or T rJ =
N
%
i .
i=1
4. La mthode de Jacobi converge si et seulement si (J) < 1 (thorme 1.27 page 28). Or, par la question
prcdente, (A) = max(1 , N ). Supposons que 1 1, alors 1 = , avec 1. On a alors
D1 (E +F )f1 = f1 ou encore (E +F )f1 = Df1 , ce qui scrit aussi (D +E +F )f1 = D(1)f1
cestdire (2D A)f1 = Df1 avec 0. On en dduit que ((2D A)f1 , f1 ) = 0, ce qui contredit
le fait que 2D A est dfinie positive. En consquence, on a bien 1 1.
Supposons maintenant que N = 1. On a alors D1 (E + F )f1 = fN , soit encore (E + F )fN =
DfN . On en dduit que AfN = (D E F )fN = D(1 )fN = DfN avec 0. On a
alors(AfN , fN ) 0, ce qui contredit le fait que A est dfinie positive.
6. La matrice ditration est donc maintenant J = M1 N qui est symtrique pour le produit scalaire
(, )M donc en reprenant le raisonnement de la question 2, il existe une base (f1 , . . . , fN ) (IR N )N
et (
1 , . . .
N ) IR N tels que
J fi = M
et
N fi = D
1
1
i fi , i = 1, . . . , N,
D A fi =
Dfi f = , i, = 1, . . . , N, j, = 1, . . . , N.
Supposons
1 1, alors
1 = , avec 1 et D1 ( 1 D A)f1 = f1 , ou encore 1 D Af1 =
1
2
1
Df1 . On a donc 2 D Af1 = (1 ) Df1 , ce qui entrane ( D A)f1 f1 0. Ceci contredit
2
lhypothse D A dfinie positive.
40
SUGGESTIONS ET CORRIGS
De mme, si
N 1, alors
N = avec 1. On a alors
1
1
( D A)fN = DfN ,
et donc AfN = (1) 1 DfN ce qui entrane en particulier que AfN fN 0 ; or ceci contredit lhypothse
A dfinie positive.
7. On cherche une condition ncessaire et suffisante pour que
0
1
2
D A x x > 0, x %= 0,
1
2
D A fi fi > 0, i = 1, . . . , N,
o les (fi )i=1,N sont les vecteurs propres de D1 (E + F ). En effet, la famille (fi )i=1,...,N est une base de
IR N , et
0
0
1
1
2
2
D A fi =
D D + (E + F ) fi
0
1
2
=
1 Dfi + i Dfi
1
0
2
1 + i Dfi .
=
(
'
On a donc en particulier 2 D A fi fj = 0 is i %= j, ce qui prouve que (1.8.86) est quivalent (1.8.87).
De (1.8.87), on dduit, grce au fait que (Dfi , fi ) = 1,
00
1 0
1
1
2
2
D A fi , fi =
1 + i .
On veut donc que 2 1 + 1 > 0 car 1 = inf i , cestdire : 2 < 1 1, ce qui est quivalent :
2
<
.
1 1
8. La matrice ditration J scrit :
J =
DA
1
= I , avec I = D1 ( D A).
On en dduit que
1
1
(D A)u +
1 Du = Du, soit encore
1
0
1
1
D (E + F )u = 1 + u.
41
1
0
1
()
1
1
est valeur
ce qui est vrai si i = 1 + , cestdire = i 1 . Donc i = i 1
On a
(1 1
et
1
)|
1
1
1
) (i 1 ) (N 1 ),
1
1
1
) (1 1 ) (i 1 ),
0
1
1
1
(J ) = max |(N 1 )|, | (1 1 |)
(N 1
donc
2
2 1 N
Exercice 07
1. Pour montrer lgalit, prendre x tel que xj = sign(ai0 ;j ) o i0 est tel que
P
j=1;:::;N jai;j j ; 8i = 1; :::; N , et sign(s) dsigne le signe de s.
j=1;:::;N
jai0 ;j j
2. Pour montrer lgalit, prendre x tel que xj0 = 1 et xj = 0 si j 6= j0, o j0 est tel que
P
P
j=1;:::;N jai;j0 j =
i=1;:::;N jai;j j :
3. Utiliser le fait que At A est une matrice symtrique positive pour montrer lingalit, et
pour lgalit, prendre pour x le vecteur propre associ la plus grande valeur propre de A.
Exercice 08
42
A.
SUGGESTIONS ET CORRIGS
Exercice 09
Le systme (1) scrit encore : Ax = b avec
0
0
2 3
B 4
A =B
@ 4
1
0
3
7 C
C ;
2 8 A
12
1
B
b=B
@
9 C
C
2 A
2
1
x1
B x2 C
C
et x = B
@ x3 A
x4
1ere tape :
(1)
? Le pivot a11 = 2 6= 0
0
0
2 3
B 4
B
@ 4
1
0
3
1
2 1
0
4
2
B
1
5 C
7
9 C
C
C ! B 0 0 3
@ 0
1
2 0
2 A
2 8
2 A
0
3
12
1 2
12
1 2
4
.
A(1) ..b(1)
.
! A(2) ..b(2)
2eme tape :
.
(2)
Dans A(2) ..b(2) on constate que le pivot a22 = 0. Do on fait une permutation des lignes
(2) . (2)
2 et 3 (par exemple) : Ce qui revient considerer A .. b
avec :
8
<
:
(2)
= P (2) A(2)
= P (2) b(2)
2 1
B 0
1
B
@ 0 0
0
3
1
B 0
=B
0
0
0
0
1
0
0
1
0
0
1
0
0 C
C
0
1
(2)
ou P (2)
(2)
0
2
3
12
(2)
(2)
a22 = a22 =
4
0
1
1
2 1
0
4
2
B
1
2 0
2 C
2 C
C
C !B 0
@ 0 0
3
1
5 A
5 A
0 0
6
1 8
2
(2) . (2)
A .. b
.
! A(3) .. b(3)
3eme tape :
(3)
? Le pivot a33 = 3 6= 0
43
2
B 0
B
@ 0
0
0
1
2
3
4
0
1
12
1
2 1
0
4
2
B
1
2 0
2 C
2 C
C !B 0
C
@ 0 0
3
1
5 A
5 A
0 0
6
1 8
2
.
A(3) .. b(3)
.
! A(4) .. b(4)
Rsolution de A0 x = b0 :
.
.
Posons A0 .. b0 = A(4) .. b(4) : On a alors
10
1 0
x1
2 1
0
4
B
B 0
C B
1
2 0 C
C B x2 C = B
A0 x = b0 () B
@ 0 0
3
1 A @ x3 A @
0 0
0
1
x4
8
8
2x
+
x
0x
+
4x
=
2
>
>
1
2
3
4
>
>
<
<
x2 2x3 + 0x4 = 2
()
()
3x3 + x4 = 5
>
>
>
>
:
:
x4 = 2
0
44
2 C
C
5 A
2
x1 = 3
x2 = 4
x3 = 1
x4 = 2
Chapitre 2
Calcul des valeurs et vecteurs propres
Les valeurs propres dune matrice sont un outil prcieux pour lingnieur. Comme application
principale, on notera le calcul des oscillations propres dun systme quil soit mcanique ou
lectrique. Les valeurs propres peuvent galement donner linformation contenue dans un grand
ensemble de donnes, telles les directions principales dun nuage de points, ou linformation
contenue dans un grand graphe. Et la liste ne sarrte videmment pas l. Rappelons tout
dabord la dnition mathmatique dune valeur propre et de son vecteur propre associ.
Dnition 2.0.1 Soit A 2 Rn n une matrice relle. La valeur 2 C est une valeur propre de
A sil existe v 2 Cn v 6= 0 (appel vecteur propre associ ) tel que Av = v.
La question du calcul des valeurs propres dune matrice est fondamentale. Il est cependant
peu pratique de devoir calculer les racines du polynme caractristique dune matrice det(A I)
an den connatre les valeurs propres.
Dans cette section, nous allons montrer comment on peut obtenir trs rapidement quelques
valeurs propres et leurs vecteurs propres associs en appliquant une mthode itrative, connue
sous le nom de mthode de la puissance. La question du calcul de toutes les valeurs propres
dune matrice, bien quimportante, dborde du cadre de ce cours.
2.1
Mthode de la puissance
Soit une matrice relle A 2 Rn n . Dans cette section, nous supposons que les valeurs propres
de A sont telles que
j 1 j > j 2 j j 3 j ::: j n j
et que chaque valeur propre i a un vecteur propre associ v (i) :La mthode de la puissance
est une mthode itrative qui sert a trouver une approximation de 1 . Notons limportance de
la condition de stricte ingalit j 1 j > j 2 j.
Nous supposons dabord que les vecteurs propres de A forment une base linaire de Cn .
Nous partons dun vecteur complexe arbitraire w(0) 2 Cn .
Celui-ci peut scrire comme une combinaison linaire des dirents vecteurs propres de A.
On a donc
w(0) = 1 v (1) + 2 v (2) + ::: + n v (n)
(01)
45
CHAPITRE 2.
avec i 2 C pour tout i : Supposons encore que 1 6= 0 : Nous procdons prsent aux
direntes itrations de la m ethode de la puissance. On calcule successivement
w(1) = Aw(0)
w(2) = Aw(1) = A2 w(0)
...
w(k) = Aw(k 1) = Ak w(0) :
Si on reprend (1), on peut egalement crire
w(k) = Ak w(0)
= Ak ( 1 v (1) + ::: + n v (n) )
= 1 k1 v (1) + ::: + n kn v (n)
en utilisant la proprit des vecteurs propres. Finalement, la dernire expression se recrit
w(k) =
k
1
1v
(1)
2(
2 k (2)
) v
+ ::: +
n(
n k (n)
) v
Comme j 1 j > j j j pour tout j 6= 1, tous les termes ( 1j )k tendent vers 0 quand k tend vers
linni. A linni, la quantit w(k) tend donc vers la
direction du vecteur propre dominant de A. En gnral videmment, soit si j 1 j > 1, la
quantit tend vers linni, soit si j 1 j < 1, la quantit tend vers 0, et il sera di cile de localiser
la vraie direction. Dans la pratique, on procde donc la normalisation des vecteurs aprs
chaque tape :
w(k)
(k)
z =
; w(k+1) = Az (k) :
(k)
kw k
Le processus converge alors vers le vecteur propre dominant. On peut obtenir la valeur
propre dominante en calculant chaque tape
T
1.
= z (k) w(k+1)
z (k) Az (k)
= (k)T (k)
z
z
En eet, on a
T
qui converge vers 1 si zk converge vers v (1) . Remarquons que le processus que nous venons
de dcrire converge vers le vecteur propre avec une vitesse dpendant du ratio j 2 j = j 1 j. Plus
ce quotient est petit, plus la convergence est rapide. Le processus ne convergera donc pas vite
pour des matrices pour lesquelles les deux valeurs propres dominantes sont proches. Une faon
dacclrer le processus est de travailler avec une matrice B = A mI. En eet toutes les valeurs
propres de B sont exactement i m : Si on connat une approximation des valeurs propres, il
peut tre possible damliorer le ratio j 2 mj = j 1 mj. En rgle gnrale, on na videmment
pas accs aux valeurs propres et il est donc di cile de trouver le m optimal. Remarquons quon
peut aussi se servir de cette astuce pour calculer une autre valeur propre. En eet, si on applique
la mthode de la puissance B := A mI, celle-ci va converger vers la valeur propre la plus
loigne de m.
46
1
1
On se donne le vecteur : V1 = @ 0 A
0
partir duquel on construit la suite de vecteurs AV1 ; A2 V1 ; :::, reporte dans le tableau
ci-dessous.
1
5
13=5 41=13 121=41 365=121 ::::::
1
1
1
1
1
1
1
4
14
40
122
364
0
2
v
::::::
5
13
41
121
365
0
0
0
0
0
0
0
Les composantes des vecteurs de ce tableau ont t divises par0la premire
composante.
1
1
Il est clair que la suite des vecteurs tend vers le vecteur : u1 = @ 1 A
0
et que la suite des valeurs de converge vers la valeur 1 = 3:
La matrice A considre tant symtrique, le vecteur propre de sa transpose, correspondant
la valeur propre
1 sera :
0 1
1
v 1 = u1 = @ 1 A
0
Construisons prsent la matrice A1 qui est telle que :
0
1
1=2 1=2
0
t
u1 v 1 @
1=2
1=2 0 A
=
A1 = A
1 t
v 1 u1
0
0
1
0
1
1
On se donne nouveau un vecteur V1 : V1 = @ 0 A
0
et on procde de la mme manire quavec la matrice A
1
2
1
0
0
1
1
1
0
13=5
1
1
0
41=13
::::::
0
1
1
On voit que cette suite de vecteurs converge vers le vecteur propre : u2 = @ 1 A
0
et que la valeur propre qui lui correspond est 2 = 1:
47
CHAPITRE 2.
On recommence le processus
en dnissant
une matrice A2 partir de A1 ; u1 et v2 = u2 :
0
1
0 0 0
u2 t v 2
@ 0 0 0 A
A2 = A1
1 t v 2 u2 =
0 0
1
Il 0
est clair
1 que la valeur propre de cette matrice est 3 = 1 et que le vecteur propre est :
0
u3 = @ 0 A
1
2.2
Il est galement possible de calculer la valeur propre de plus petit module ( condition
quelle soit non nulle) avec la mthode de la puissance. En eet,
si A est inversible, on peut voir que si est une valeur propre de A, alors on a
Ax = x , x = A
( x) , A 1 x =
Ds lors, si est une valeur propre de A, 1 est une valeur propre de A 1 . On en dduit aussi
que si est la valeur propre de plus petit module de A, 1 sera la valeur propre de plus grand
module deA 1 . On peut donc appliquer la mthode de la puissance de manire totalement
similaire avec A 1 et ecrire
z (k) =
w(k)
; w(k+1) = A 1 z (k) :
kw(k) k
Remarquons que dans la dernire expression, il nest pas ncessaire dectuer la coteuse
opration de linversion de la matrice A. On peut tout fait se contenter dune factorisation
LU de la matrice et rsoudre le systme Aw(k+1) = z (k) a chaque itration. Finalement, on
peut remarquer que lon peut se servir de la mthode inverse de la puissance, associe un
changement de matrice B = A mI pour trouver la valeur propre qui est la plus proche dun
scalaire m.
2.3
Supposons que lon ait trouv la valeur propre dominante 1 de A. On souhaite prsent
calculer la deuxime valeur propre de plus grand module, savoir 2 .
La mthode que nous dcrirons en premier lieu ne convient que pour une matrice A symtrique. Si 1 et v 1 sont respectivement la valeur propre et le vecteur propre dj- calculs, on
forme la matrice
1 1T
A=A
(02)
1v v
Comme la matrice A est symtrique, A1 lest aussi. On calcule que A1 v 1 = 0 et que A1 v j =
j
j v pour tout vecteur propre v associ une valeur propre j ; j = 2; 3; :::; n: Par consquent,
j
48
2.4. ALGORITHME QR
A1 a tous les vecteurs propres de A et toutes ses valeurs propres except 1 qui est remplace
par zro.
Lorsque 2 et v 2 ont t calculs a partir de A1 , le processus peut tre rpt en formant
2 2T
A 2 = A1
, et ainsi de suite pour la dtermination des valeurs propres et vecteurs
2v v
propres restant.
Une autre mthode de dation consiste trouver une matrice nonsingulire P telle que
1
P v = e1 o e1 est le vecteur canonique e1 = (1; 0:::0)T .
On obtient alors de Av 1 = 1 v 1 que
1
P AP
(P AP
P v1 =
1
)e1 =
=@ 0
0
1P v
1 e1 :
1
et la matrice dordre (n 1) occupant le coin infrieur droit de P AP 1 possde donc bien les
proprits recherches. Comme pour lautre mthode de dation, on peut rpter le processus
en calculant A2 a partir de A1 une fois 2 et v 2 calculs.
2.4
Algorithme QR
La mthode que nous allons tudier maintenant sest rvle dans la pratique comme lune
des plus e caces pour la recherche de toutes les valeurs propres dune matrice symtrique ou
non-symtrique.
Lalgorithme QR consiste a construire une suite de matrices A = A1 ; A2 ; A3 ; ::: au moyen
des relations
Ak = Qk Rk ; Ak+1 = Rk Qk ; :::
(03)
CHAPITRE 2.
i,
i = 1; 2; :::; n
nj
(04)
alors la matrice Ak dnie en (4) tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A, ranges dans lordre des modules dcroissants.
Preuve. Puisque les valeurs propres de A sont toutes direntes (et relles), il existe une
matrice non-singulire (et relle) X, telle que :
A = XDX
(05)
o
D := diag( 1 ;
2 ; :::;
n)
= LU:
(06)
(07)
(08)
Pk := Q1 Q2 :::Qk
(09)
Uk := Rk Rk 1 :::R1
(10)
o
Si lon pose alors
on calcule
Pk Uk = Q1 Q2 :::Qk
(Qk Rk ) Rk 1 :::R2 R1
= Pk 1 Ak Uk
= APk 1 Uk
1
1
(11)
o la dernire galit est obtenue grce (08). On obtient alors par rcurrence de (11)
Pk Uk = Ak
50
(12)
2.4. ALGORITHME QR
Cette dernire relation montre que Pk et Uk sont les facteurs de la d composition QR de
la matrice Ak .
Si on reprend a prsent (06), on a successivement daprs (08), (05) et (06)
Ak+1 = PkT APk
= PkT XDX
Pk
= PkT QRDR 1 QT Pk
(13)
1
= QRDk LU = QR Dk LD
Dk U
(14)
On constate que la matrice Dk LD k est une matrice triangulaire infrieure dont les lments
diagonaux sont gaux 1, tandis que llment (i; j) est gal lij ( i = j )k lorsque i > j; et nous
pouvons donc crire
Dk LD k = I + Ek o lim Ek = 0
k!1
= Q I + REk R
RDk U
= Q (I + Fk ) RDk U
o
lim Fk = 0
k!1
(I + Fk ) = Qk Rk
~
Ak =
Rk RDk U
QQk
(15)
Le premier des facteurs de (15) est orthogonal et le second est triangulaire suprieur : on a
donc bien obtenu une dcomposition QR de Ak . Mais cette dcomposition est unique puisque
~
Qk ! I.
51
CHAPITRE 2.
2.5
Mthode de Jacobi
Soit une matrice carre symtrique A dordre n dont on cherche dterminer les valeurs
propres. La mthode consiste en des transformations successives du type T 1 AT qui amnent
la matrice A sous la forme diagonale. Comme les transformations de ce type ne modient pas
les valeurs propres, ces dernires se trouvent, en n de calcul, sur la diagonale de la matrice
transforme. De plus, il est possible de calculer aussi les valeurs propres Vi , i = 1; :::; n de A
en multipliant les valeurs propres i de la matrice nale, qui ne sont autres que les colonnes de
la matrice identit, par le produit T1 T2 :::Tk des matrices de transformations successives, soit :
Vi = T1 T2 :::Tk
i = 1; :::; n
52
1
3 0
0
1 0 A
A1 = T12 AT12 = @ 0
0 0
1
qui est diagonale. Les valeurs propres de A1 ; et par consquent de A sont donc : x1 = 3 et
x2 = x3 = 1:
Quant aux vecteurs propres, puisque le calcul sest opr en une seule tape, ils sont donns
directement par les colonnes de la matrice T . On a donc :
0 1 0 1
0 1 0
1
0 1 0 1
1
1
0
1
0
0
@
A
@
A
@
A
@
A
@
A
@
0
0
1
1
0
0 A
V1 = T12
u
; V2 = T12
u
; V3 = T12
u
0
0
0
0
1
1
53
TRAVAUX DIRIGS 2
Travaux dirigs 2
Exercice 01
1. Soit A MN (IR) une matrice symtrique. Soit N IR valeur propre de A t.q. |N | = (A) et soit
x(0) IR N . On suppose que N nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A N Id). On dfinit la suite (x(n) )nIN par x(n+1) = Ax(n) pour n IN. Montrer que
(a)
x(n)
(N )n
(b)
)x(n+1) )
)x(n) )
x, quand n , avec x %= 0 et Ax = N x.
(A) quand n .
)x(n+1) x)
)x(n) x)
)x(n+1) x(n) )
)x(n) x(n1) )
Exercice 02
cos
Soit A =
sin
sin
0
x(k)
(n )n
(b)
kx(k+1) k
kx(k) k
x, quand k , avec x 6= 0 et Ax = n x.
(A) quand n .
Cette mthode de calcul de la plus grande valeur propre sappelle mthode de la puissance".
54
2. Soit A Mn (IR) une matrice inversible et b IR n . Pour calculer x t.q. Ax = b, on considre un mthode
itrative : on se donne un choix initial x(0) , et on construit la suite x(k) telle que x(k+1) = Bx(k) + c
avec c = (Id B)A1 b, et on suppose B symtrique. On rappelle que si (B) < 1, la suite tend vers x.
Montrer que, sauf cas particuliers prciser,
kx(k+1) xk
kx(k) xk
(a)
(b)
kx(k+1) x(k) k
kx(k x(k1) k
Exercice 04
Soient u et v deux vecteurs de IR n . On rappelle que la projection orthogonale proju (v) du vecteur v sur la droite
vectorielle engendre par u peut scrire de la manire suivante :
proju (v) =
vu
u,
uu
1. Soient (a1 , . . . , an ) une base de IR n . On rappelle qu partir de cette base, on peut obtenir une base orthogonale
(v1 , . . . , vn ) et une base orthonormale (q1 , . . . , qn ) par le procd de Gram-Schmidt qui scrit :
a1
ka1 k
v2
q2 =
kv2 k
v3
q3 =
kv3 k
v4
q4 =
kv4 k
..
.
v1 = a1 ,
q1 =
v2 = a2 projv1 (a2 ),
v3 = a3 projv1 (a3 ) projv2 (a3 ),
v4 = a4 projv1 (a4 ) projv2 (a4 ) projv3 (a4 ),
..
.
vk = ak
k1
X
projvj (ak ),
qk =
j=1
On a donc
vk = ak
k1
X
j=1
ak vj
vj ,
vj vj
qk =
vk
kvk k
vk
.
kvk k
1. Montrer par rcurrence que la famille (v1 , . . . , vn ) est une base orthogonale de IR n .
2. Soient A la matrice carre dordre n dont les colonnes sont les vecteurs aj et Q la matrice carre dordre N dont
les colonnes sont les vecteurs qj dfinis par le procd de Gram-Schmidt (1.132), ce quon note :
Q = q1 q2 . . . qn .
A = a1 a2 . . . an ,
55
TRAVAUX DIRIGS 2
Montrer que
ak = kvk kqk +
k1
X
j=1
ak vj
qj .
kvj k
En dduire que A = QR, o R est une matrice triangulaire suprieure dont les coefficients diagonaux sont positifs.
3. Montrer que pour toute matrice A Mn (IR) inversible, on peut construire une matrice orthogonale Q (c.. d.
telle que QQt = Id) et une matrice triangulaire suprieure R coefficients diagonaux positifs telles que A = QR.
1 4
.
4. Donner la dcomposition QR de A =
1 0
5. On considre maintenant lalgorithme suivant (o lon stocke la matrice Q orthogonale cherche dans la matrice
A de dpart (qui est donc crase)
Algorithme 1.63 (Gram-Schmidt modifi).
Pour k = 1, . . . , n,
Calcul de la norme de ak
Pn
1
rkk := ( i=1 a2ik ) 2
Normalisation
Pour = 1, . . . , n
ak := ak /rkk
Fin pour
Pour j = k + 1, . . . , n
Produit scalaire correspondant qk aj
Pn
rkj := i=1 aik aij
56
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 01
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fN ) (IR N )N une base
orthonorme de vecteurs propres de A associe aux valeurs propres (1 , . . . , N ) IR N . On dcompose
&N
&N
&N
x(0) sur (fi )i=1,...,N : x(0) = i=1 i fi . On a donc Ax(0) = i=1 i i fi et An x(0) = i=1 ni i fi .
On en dduit :
1n
N 0
%
x(n)
i
=
i fi .
nN
N
i=1
Comme N nest pas valeur propre,
lim (
n+
i n
) = 0 si i %= N .
N
"x
"=
N
%
n+1
i
i
i=1
(n)
et "x
"=
N
%
ni i
i=1
"
x(n+1)
"
n+1
"x"
N
= N lorsque n +.
N
"x"
x(n)
"
"
N
2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) % Ker(B N Id)
o N est la plus grande valeur propre de B, (avec |N | = (B)et N non valeur propre), alors
"y (n+1) "
(B) lorsque n +,
"y (n) "
cestdire
"x(n+1) x"
(B) lorsque n +.
"x(n) x"
57
Exercice 03
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fn ) (IR n )n une base
orthonorme de vecteurs propres
propres
(1 , . . . , n ) IR nP
. On dcompose
Pn de A associe aux valeurs
Pn
n
(0)
(0)
(0)
n (0)
x sur (fi )i=1,...,n : x = i=1 i fi . On a donc Ax = i=1 i i fi et A x = i=1 ni i fi .
On en dduit :
n
n
X
i
x(n)
i fi .
=
nn
n
i=1
Comme n nest pas valeur propre,
lim (
n+
i n
) = 0 si i 6= n .
n
kx
k=
n
X
n+1
i
i
i=1
(n)
et kx
k=
n
X
ni i
i=1
x(n+1)
k
kxk
n+1
n
= n lorsque n +.
n
kxk
x(n)
k
k
n
a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) 6 Ker(B n Id) o
n est la plus grande valeur propre de B, (avec |n | = (B)et n non valeur propre), alors
ky (n+1) k
(B) lorsque n +,
ky (n) k
cestdire
kx(n+1) xk
(B) lorsque n +.
kx(n) xk
58
SUGGESTIONS ET CORRIGS
Exercice 04
1. Par dfinition de la projection orthogonale, on a v1 v2 = a1 (a2 proja1 (a2 )) = 0.
Supposons la rcurrence vraie
au rang N 1 et montrons que vn est orthogonal tous les vi pour i = 1, . . . , N 1.
Pn1
a v
Par dfinition, vn = an j=1 vkj vjj vj , et donc
vn vi = an vi
n1
X
j=1
an vj
an vi
vj vi = an vi
vj vj
vi vi
par hypothse de rcurrence. On en dduit que vn vi = 0 et donc que la famille (v1 , . . . vn ) est une base orthogonale.
2.
k1
X
j=1
wk vj
vj ,
vj vj
qk =
k1
X
ak vj
qj .
kvj k
j=1
vk
,
kvk k
La k-ime colonne de A est donc une combinaison linaire de la k-me colonne de Q affecte du poids kvk k et
ak vj
. Ceci scrit sous forme matricielle A = QR o R est une matrice
des k 1 premires affectes des poids klv
jk
ak vj
carre dont les coefficients sont Rk,k = kvk k, Rj,k = kv
si j < k, et Rj,k = 0 si j > k. La matrice R est donc
jk
bien triangulaire suprieure et coefficients diagonaux positifs.
3. Si A est inversible, par le procd de Gram-Schmidt (1.132) on construit la matrice Q = q1 q2 . . . qn ,
et par la question 1.b, on sait construire une matrice R triangulaire suprieure coefficients diagonaux positifs
A = QR.
1
1 2
4. On a a1 =
et donc q1 = 2
1
2
2
4 4 1
2
4
a2 v1
1
1 2
2 .
=
. Donc q 2 = 2
2
, et Q = 2
Puis a2 =
et donc v2 = a2 v1 v1 v1 =
1
2
0
0
2
2 2
a2 v1
kv1 k kv1 k
2 22
2
2 .
Enfin, R =
, et Q = 21
=
0 2 2
2 2
0
kv1 k
59
Chapitre 3
Rsolution dquations et systmes non
linaires
3.1
Dnition 3.1.1 Soit f une fonction de R dans R dont le domaine de dnition est une partie
Df de R . On dit que 2 Df est une racine de lquation
f (x) = 0
(1)
f( ) = 0
(2)
, si
Rsoudre lquation (1) cest trouver tous les nombres rels tels que (2) soit vrie.
En dautres termes, on cherche dterminer lensemble
Z (f ) = fx 2 Df =f (x) = 0g, appel les de f . Z (f ) est donc lensemble des racinees de f (x) = 0:
Il nest pas toujours possible de rsoudre compltement ce problme pour toutes formes de fonctions f . Z (f ) peut en eet, avoir un grand nombre de structures possibles.
Exemples 2.1
1- Soit f (x) = ax2 + bx + c; a; b; c 2 R, avec Df = R: Alors ker f contient au plus deux lments
et peut aussi tre vide.
2- Soit f (x) = sin(x) et Df = R+ ; alors les racines de lquation f (x) = 0 sont en nombres
inni dnombrable et Z (f ) = fx 2 R+ =x = k ; k = 0; 1; 2; 3; :::g
3- Pour f dnie par
sin( x1 ) si x > 0
f (x) =
0
si x 0
Les racines de lquation f (x) = 0 sont dans ce cas la demi droite ngative R et les lments
de la suite S = k1 ; k = 1; 2; 3; ::: :
Ainsi Z (f ) = R [ x 2 R = x = k1 ; k = 1; 2; 3; :::
On peut remarquer quil existe (au moins) une racine dans S (dirente de 0) aussi prs que
lon veut de 0: On dit que 0 est un point daccumulation de la suite S:
60
3.2
Il ny a pas de mthode gnrale pour sparer les racines dune quation f (x) = 0.
Pratiquement, en dehors de ltude thorique directe de f si f est donne analytiquement, on
utilise deux types de mthodes : une mthode graphique et une mthode de balayage.
3.2.1
Mthode graphique
61
62
2- Soit lquation
( )
x log x = 1;
x>0
(D = R+ )
1
Cette quation scrit encore sous la forme : log x = x ; En posant f1 (x) = log x: f2 (x) = x1 et
f (x) = f1 (x) f2 (x) = log x x1 ; lquation ( ) devient quivalente f (x) = f1 (x) f2 (x) = 0:
Les variations des fonctions f1 et f2 sont donnes par les courbes ci-dessous :
Labscisse du point dintersection des deux courbes permet de localiser la solution de ( ) et
fournit mme une (premire) approximation de celle-ci (et ceci en utilisant, par exemple, du
papier millimtr ou encore en graduant les deux axes).
3.2.2
Mthode de balayage
On considre une suite croissante nie fxi g ; (i = 0; 1; :::; n) de valeurs de x rparties sur lintervale [a; b] contenu dans le domaine de dnition D de f . Si f est continue et si f (xi )f (xi+1 ) < 0
alors il existe entre xi et xi+1 au moins une racine de f (x) = 0 (cest le thorme classique des
valeurs intermdiaires).
La mthode consiste donc dterminer parmi les quantits f (xi )f (xi+1 ); (i = 0; 1; :::; n) celles
qui sont ngatives.
Remarque 2.3
1- La mthode de balayage ne permet de conclure qu lexistence d(au moins) une racine dans
un intervalle [xi ; xi+1 ] :
Si une racine est double (f ( ) = f 0 ( ) = 0 et f "( ) 6= 0); cette mthode ne permet pas de
la sparer.
63
De mme, si deux racines sont trs voisines, on risque de ne pas les sparer dans le processus
ci-dessus comme le montre la gure suivante :
2- Lintervalle de dpart [a; b] doit tre su samment grand an de contenir les racines ventuelles de lquation f (x) = 0; mais sauf dans des cas particulier, on ne peut pas estimer
correctement sa longueur.
3.3
k = 0; 1; 2; :::
(a)
dans lequel on part dune valeur (approche) x0 pour calculer x1 ; puis laide de x1 on calcule
x2 , etc...
La formule (a) est dite formule de rcurrence.
Le procd est dit convergent si la suite (xk ) est convergente.
Parmi les mthode numrique en gnral et les mthode itratives en particulier, les plus
puissantes permettant la rsolution approche des quations de la forme f (x) = 0 gure la
mthode suivante :
64
3.3.1
Mthode de Newton-Raphson
Notons par x une racine (exacte) recharche et par x0 une valeur approche de x .
On suppose que f est de classe C 1 au voisinage de x . Le dveloppement de Taylor dordre
deux de f nous donne :
f (x ) = f (x0 ) + f 0 (x0 )(x
x0 ) +
f "( )
(x
2
x0 )2
2 (x ; x0 )
f (x0 )
f 0 (x0 )
f "( )
(x
2f 0 (x0 )
x0 )2
)
et en ngligeant le reste R2 = 2ff "(
x0 )2 ; la quantit x0
0 (x ) (x
0
x1 , constitue alors une valeur approche amliore de x .
En itrant le procd on trouve la formule de rcurrence :
xk+1 = xk
f (xk )
f 0 (xk )
(b)
f (x0 )
f 0 (x0 )
k = 0; 1; 2; :::
tg( ) =
f (xk )
4xk
= f 0 (xk )
et donc 4xk =
f (xk )
f 0 (xk )
o 4xk = xk
= xk
xk+1
xk+1 ) xk+1 = xk
f (xk )
f 0 (xk )
Commentaire 2.1 Une mthode itrative ne prsente de lintrt que si elle est convergente
(vers les valeurs recherches), et cest dans ce sens que lon tudiera la convergence de la mthode
de Newton-Raphson de manire plus approfondie plus bas.
65
f (xk )
= 2xk
f 0 (xk )
1
x
a = 0: Selon la formule
a x2k
1
y
xk
exp( x1k )
x2k
exp( x1k )
exp(y) , 1
yk+1 = yk +
iii) x = exp( x1 ) , log(x) =
donne enn :
x2k
1
x
,1
(i)
exp( yk ) yk
1 + yk
(ii)
xk log(xk )
(iii)
1 + log(xk )
Nous disposons ainsi de trois formules rcurrentes direntes pour le mme problme, et on
constate que les formules (ii) et (iii) sont mieux adaptes au calcul que la formule (i)
xk+1 = xk +
En tudiant les variations de f , par exemple f (x) = x exp( x1 ); on constate quil nexiste
quune seule racine x de (1); et quelle se trouve au voisinage de x0 = 1:8 .
Et del :
1
Pour le (ii) : En partant de y0 = 0:6 ' 1:8
; nous obtenons :
y1 = 0:568007; y2 = 0:567144; y3 = 0:567143; etc::: et x ' y13 ' 1:763223
Pour le (iii) : En partant de x0 = 1:8 :
x1 = 1:763461; x2 = 1:763223; x3 = 1:763223; etc::: et x ' 1:763223 = x3
66
xk
Dautre part :
x =
f (xk )
;
f 0( )
xk+1 = xk
f (xk )
f 0 (xk )
f (xk )
f 0 (xk )
2 (xk ; x )
x );
2 (xk ; x )
=) xk+1
xk =
f (xk )
f 0 (xk )
et on fait lapproximation f 0 ( ) ' f 0 (xk ) pour obtenir enn : jxk x j ' jxk+1 xk j :
Ainsi, si on veut calculer une approximation de x avec n dcimales exactes, il su t daller
dans les itrations jusqua ce que k vrie :
jxk+1 xk j 0:5 10 n .
3.3.2
o "0 et
0)
= F (x0 ; y0 ) +
@F
@F
(x0 ; y0 ):"0 +
(x0 ; y0 ):
@x
@x
0)
= G(x0 ; y0 ) +
67
+ R0
+ R1
0:
@G
@G
(x0 ; y0 ):"0 +
(x0 ; y0 )
@x
@x
F
G
"0
x
y
(x0 ;y0 )
x0
y0
"0
R0
R1
(x0 ;y0 )
, et donc :
@F
@x
@G
@x
@F
@y
@G
@y
@F
@y
@G
@y
@F
@x
@G
@x
On suppose lexistence de
@F
@x
@G
@x
0.
@F
@y
@G
@y
F
G
:
(x0 ;y0 )
+
(x0 ;y0 )
del :
x
y
@F
@x
@G
@x
x0
y0
@F
@y
@G
@y
:
(x0 ;y0 )
F
G
+
(x0 ;y0 )
Et en ngligeante le reste qui est form des termes dordres suprieurs 1, la quantit :
x0
y0
@F
@y
@G
@y
@F
@x
@G
@x
:
(x0 ;y0 )
F
G
(x0 ;y0 )
(x0 ;y0 )
x0
y0
@F
@x
@G
@x
@F
@y
@G
@y
:
(xk ;yk )
F
G
; k = 0; 1; 2; :::
(xk ;yk )
f (xk )
= xk
f 0 (xk )
xk 2 sin xk
; k = 0; 1; 2; :::
1 2 cos xk
68
F (x; y) = y
G(x; y) = y
x=0
2 sin x = 0
3.3.3
xk
yk
1
1
2 sin xk 1
yk
yk
xk
2 sin xk
; k = 0; 1; 2; :::
On suppose que f est un polynme Pn de dgr n coe cients rels, nayant que des racines
distinctes :
f (x) = Pn (x) = a0 xn + a1 xn 1 + ::: + an 1 x + an ;
a0 6= 0
3x2 + x
3=0
3.3.4
Mthode de point xe
Dnition 3.3.3 Soit f : R ! R une application continue. On dit que x 2 R est un point
xe de f si f (x ) = x .
Commentaire 2.2 La rsolution dun problme laide dune formule de rcurrence xk+1 =
f (xk ); k 2 N peut etre considre comme dtemination dun point xe de la fonction f:
En eet : Soit (xk ) la suite dfnie par xk+1 = f (xk ), On suppose quelle converge vers une
valeur quon notera x . Par passage limite dans lexpression xk+1 = f (xk ), on obtient :
lim xk+1 = lim f (xk ) ()
k!1
k!1
k!1
k!1
70
() x = f (x ) (car lim xk = x )
k!1
f (y)j
L jx
yj
Alors : f admet un point xe unique x 2 [a,b] : De plus, pour tout point x0 2 [a,b] ; la suite
(xk ) dnie par xk+1 = f (xk ) converge vers x :
Commentaire 2.3 La condition ii) entraine(xk ) :
1. La continuit de f dans [a,b]
2. En divisant lingalit par jx yj et en passant la limite quand y
0
tend vers x, on obtient : f (x)
L < 1; et ceci en supposant que f
est drivable au point x:
Dmonstration du thorme du point xe
Existence du point xe : Soient x0 un point initial dans [a,b] et (xk ) la suite associe f .
Pour montrer que la suite (xk ) converge, on va montrer quelle est de Cauchy.
Le point xe sera alors la limite de (xk ):
Soit k 2 N; alors
jxk+1 xk j = jf (xk ) f (xk 1 )j L jxk xk 1 j :
et par rcurrence, on dmontre que :
jxk+1
xk j
L jxk
Lk jx1
xk 1 j
x0 j
xk = (xn
xn 1 ) + (xn
xn
2)
+ (xk+1
xk );
+ jxk+1
xk j
nous aurons :
jxn
xk j
jxn
(Ln
Lk
xn 1 j + jxn
+ Ln
+ Lk ) jx1
Ln k
jx1
1 L
xn 2 j +
x0 j
71
x0 j
Lk
jx1 x0 j
1 L
et del on dduit que (xk ) est une suite de Cauchy, donc elle converge vers x 2 [a,b] :
Montrons que x est un point xe.
En eet : lgalit xk+1 = f (xk ) et la continuit de f entrainent que
x = f (x ):
Unicit de point xe : Supposons quil existe un autre point xe y avec
y 6= x .
Alors :
0 < jy
x j = jf (y ) f (x )j L jy
x j < jy
x j car L 1
ce qui est absurde x est donc unique.
Interpprtation gomtrique du thorme du point xe
72
Critre darrt n 1
Soit f : [a; b] ! R satisfaisant aux hypothses du thorme du point xe, et soit (xk ) la
suite des approximations dnie par xk+1 = f (xk ); k = 0; 1; 2; :::
Pour k; n 2 N, n > k :
jxk
xn j = jf (xk 1 )
f (xn 1 )j
L jxk
xn 1 j
et par rcurrence :
jxk
xn j
L jxk
L2 jxk
xn 1 j
Lk jx0
xn 2 j
xn k j
Lk jb
aj
xk+1 j
L
L
0:5 10
L jxk
xk+1 j+
Remarque 3.3.2 Gnralement L est assez petit pour que 2L < 1, et del L < 1 L, et donc
1 < (1 L)=L. Consquence : au lieu du critre darrte ci dessus on impose la condition
jxk
xk+1 j
0:5 10
'(x) = x2
100x + 1 = 0
On remarquera que (a) admet deux racines relles x1 et x2 , lune au voisinage de 10 2 et lautre
au voisinage de 102 .
Pour x1 : En tenant compte du fait que x1 ' 10 2 , lquation (a) peut se mettre sous la forme :
73
3.3.5
Acclration de la convergence
Lemme 3.3.1 On suppose que f 0 existe. Plus f 0 (x ) est petite, plus la convergence est rapide.
Preuve.
On pose E
x , et un dveloppement de Taylor de f nous donne :
k = xk
xk+1 = f (xk ) = f (x + Ek ) = f (x ) + Ek f 0 (x ) +
Ek2 00
f (x ) +
2!
Comme (Ek ) est une suite convergente vers zro (0), on voit que plus f 0 (x ) est petit, plus la
convergence est rapide.
Acclration
x + f (x)
.
1+
Comme f (x) = x , G(x) = x : alors, x est un point xe de f si et suelement si il lest pour
G.
+ f 0 (x)
+ f 0 (x )
On a G0 (x) =
; donc G0 (x ) =
. Il su t alors de prendre voisin de f 0 (x )
1+
1+
pourvu que f 0 (x ) soit petit. Et donc daprs le lemme 2.1, la convergence sera plus rapide que
celle donne par f (x) = x.
Soit
6=
1. posons G(x) =
Algorithme dacclration
1. Calculer x0 , x1 ,:::, xn par la mthode lente :
x0 2 [a; b]
xk+1 = f (xk ), k = 0,1,...,n
x + f (x)
1+
x = e x:
0:5
75
0:61
log(
alors k vdie k
[0:5;0:6]
Ainsi :
x1
x2
x3
x4
= G(x0 ) = 0:56705684
= G(x1 ) = 0:56714259
= G(x2 ) = 0:56714328
= G(x3 ) = 0:56714329
do x = 0:5671433 0:5 10 7
Question : Dterminer le nombre ditrations correspondant au cas de la mthode lente (Rponse : k = 30).
3.3.6
f (xk )
; k = 0; 1; 2; :::
f 0 (xk )
f (xk )
.
f 0 (xk )
(f 0 (x))2 f (x)f 00 (x)
f (x)f 00 (x)
Et comme g 0 (x) = 1
=
; alors pour
(f 0 (x))2
(f 0 (x))2
x = x , x tant une racine spare de lquation f (x) = 0, on a g 0 (x) = 0 (puisque f (x ) = 0)
et del jg 0 (x)j < 1 au "voisinage" de x . Consquence : les conditions i) et ii) du thorme du
point xe sont alors ralises, et par suite, on a convergence de la suite (xk ) vers x .
Et cest dans ce but quon choisit comme voisinage de x un intervalle [a; b] telle que :
1. x 2 [a; b]
2. f est de classe C 2 sur [a; b]
3. f 0 6= 0 sur [a; b]
Et on verera ci-aprs quavec une condition supplmentaire sur lintervalle [a; b], la suite (xk )
On a donc : xk+1 = g(xk ), o g(x) = xk
76
xk )2 , o
2 (x; xk )
1
xk ) + f 00 ( k )(x
2
xk )2 , o
2 (x; xk )
f (xk )
)
f 0 (xk )
xk+1 = xk
M et jf 0 (x)j
xk +
f 00 ( k )(x
xk )2
2f 0 (xk )
f (xk )
= xk+1 xk
f 0 (xk )
f 00 ( k )(x
xk )2
x =
2f 0 (xk )
m > 0; on aboutit alors :
jxk+1
M jx
xk j2
2m
xj
( )
xj
C jxk
x j2
C 3 jxk
x j4
:::
C2
k+1
x j C 2 1 jx0 x j2
jb aj = b a, alors jxk
k
xj
77
C2
(b
a)2
jx0
x j2
k+1
jxk
xj
a)]2
[C(b
C
, k = 0; 1; 2; :::
M
Il y a donc convergence vers x si C(b a) =
(b
2m
2m
.
lon choisit [a; b] de longueur b a <
M
Conclusion :
Si en plus des conditions 1), 2) et 3), on choisit [a; b] tel que b
lalgorithme de Newton-Raphson converge ( vers x ).
a<
2m
, alors : 8 x0 2 [a; b],
M
3.3.7
Mthode de la scante
Dans certaines circonstances (si f provient dun calcul exprimental par exemple), on ne peut
calculer f 0 . Lide est alors de remplacer f 0 par le taux daccroissement de f sur un petit
intervalle.
Supposons que x0 et x1 soient deux valeurs approches de la racine x de lquation
f (x) = 0 avec x0 < x < x1 .
Le taux daccroissement de f sur [x0 ; x1 ] est :
f (x1 ) f (x0 )
1 =
x1 x0
et lquation de la scante (en x0 et x1 ) est :
y = 1 (x x1 ) + f (x1 )
(1)
On obtient une nouvelle approximation x2 de x en calculant labscisse du point dintersection
de la scante avec laxe Ox :
x2 = x1
f (x1 )
78
f (xk )
xk
f (xk 1 )
xk 1
et xk+1 = xk
f (xk )
k
Critre darrt
Cest le mme que celui correspondant la mthode de Newton-Raphson.
3.3.8
Mthode de dichotomie
Lide : Construction dune suite dintervalles de plus en plus petits contenant une racine isole
de lquation f (x) = 0.
Loutil utilis : Thorme des valeurs intermdiaires.
Thorme 3.3.4 (Thorme des valeurs intermdiaires) Soit f : [a; b] ! R continue,
avec f (a)f (b) < 0. Alors : il existe au moins x 2 ]a; b[ tel que : f (x ) = 0
Remarque 3.3.4 Si de plus f est injective, alors x est unique.
Algorithme
Supposons que a et b soient tels que : x 2 [a; b], avec f (a)f (b) < 0. On pose a = a0 . b = b0 et
[a; b] = [a0 ; b0 ] = I0 .
On divise lintervalle I0 = [a0 ; b0 ] en deux, et on construit lintervalle
I1 = [a1 ; b1 ] comme suit :
a0 + b0
(milieu du segment [a0 ; b0 ]) on fait le test suivant :
Pour x0 =
2
Si f (a0 )f (x0 ) < 0 alors [a0 ; x0 ] = [a1 ; b1 ] = I1
sinon [x0 ; b0 ] = [a1 ; b1 ] = I1
On itre le procd pour obtenir une suite dintervalles emboits :
Ik = [ak ; bk ], k = 1; 2; 3; :::
comme suit :
ak + b k
On pose : xk =
2
Si f (ak )f (xk ) < 0 alors [ak ; bk ] = [ak+1 ; bk+1 ] = Ik+1
sinon [xk ; bk ] = [ak+1 ; bk+1 ] = Ik+1 .
Et on prend comme approximation de x la valeur xk .
Critre darrt
Soit k 2 N. Nous avons :
79
bk+1
ak+1 =
bk
ak
2
bk
ak
22
= ::: =
b 0 a0
2k+1
xk j
bk+1
ak+1 =
bk
ak
2
b 0 a0
2k+1
b 0 a0
0:5 10 n
log 2
80
1.
TRAVAUX DIRIGS 3
Travaux dirigs 3
Exercice 1 :
Parmi les fonctions suivantes lesquelles sont contractantes et sur quel intervalle si
celui-ci nest pas indique :
798;:<
(a)
, >= ?= A@ ;
, D= ?=
;
(b)
CB
B
<EGF
(c)
(d)
IH
]
8
J
Exercice 2 :
Voir si chacune des fonctions suivantes admet zero, un ou plusieurs points fixes,
puis donner pour chacun un intervalle de separation :
0
LK
Z' #j Q # &'
Exercice 3 :
Montrer que lequation RQ
Q
Q
;Q
IR, et S
WV
"V
: 7
8 .
TS
<EUF
NMPO
@
=
B
Exercice 4 :
Determiner a` laide de la methode du point fixe les deux racines reelles de
=#] s
=(t
P'
Exercice 5 :
eelles
Soit la fonction
, on se propose de trouver les racines r
de F par la methode des approximations successives.
Montrer que F poss`ede une seule racine reelle Z
.
[
Etudier la convergence des trois methodes iteratives suivantes :
[
donne
et
;
(\ )
(] )
;
& ~
v
D=
D=
.
( ) D=
Si lune de ces methodes converge lutiliser pour determiner a` =
`
81
pr`es.
Exercice 6 :
b
Soit lequation Ya F
dans IR .
ca
F
Montrer que la methode iterative definie par
gente (verifier les hypoth`eses du theor`eme du point fixe). Choisir
initiale de literation, dans lintervalle de convergence puis trouver
suite. Donner lordre de la methode.
+ & /
D= D#
D=
=
b
Exercice 7 :
a
F
On veut resoudre dans IR lequation Y
o`u,
,
a) 1) Montrer quelle admet une seule racine Z , montrer que Z ed
.
f[
$
2) Montrer que la methode iterative :
diverge.
ih
g
3) on consid`ere alors
, (remarquer que
existe),
$
D
82
jq
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 1
(ac
<EUF
IR.
(a)
2
Montrons que est contractante sur IR, on a :
]
8':<
et
=
B
m1N #jq
'& (jq
% /
% '
u
Bj
B
B
=
"
B
B
=
'
, do`u le resultat
.
/
et le rapport de contraction est
m & ]
et
donc, & |
.
.
Ainsi, est contractante de rapport
(d)
.
est definie sur 8 mais ny est pas lipschitzienne.
On fait de meme si
B
B
=
Ainsi,
B
B
(c)
.
On a :
B
u
CB
x=
J
83
En effet,
telle que
/ d
Q
% / , pour N , est borne.
Q
. Ce rapport vaut
Posons
+ # Z
q
J
J
J
donc non bornable sur tout intervalle contenant ; ainsi ne peut e tre
lipschitzienne sur .
avec
En fait, on montre que est lipschitzienne sur tout intervalle
H
=
J
H
est contractante si
. Ainsi, grace a` la
J
z
, donc si
D 8
q
, cest a` dire
J
8 .
Exercice 2
H
dabscisse Z verifiant
. Par abus de langage, et dans tous les exercices qui suivent, on dira que est le point fixe de (au lieu de labscisse
du point fixe de ).
1
Ici est definie sur
et on a
P
Q et
84
SUGGESTIONS ET CORRIGS
{ C/# ~
/#
Q q
K
Posons
. est continue et derivable sur IR, et
K
, donc est strictement decroissante. Dautre part,
et
. Dapr`es le theor`eme de la valeur intermediaire,
M
il existe un et un seul reel
tel que
. Ce reel est donc
lunique point fixe de sur
. De meme, on peut aisement demontrer
que cela reste vrai sur tout IR.
"
(c) Points fixes de
.
J
Lv
+=
YJ
I
/j
Q q
/jq
OQ #+
#
Donc 2 est lunique point fixe de sur IR ; ce point fixe est dit triple a` cause
de la puissance du terme " .
Q #
Q #
"
#
K
' #
K
u
#%
K
F .
, on a :
Montrons que
IR
Pour cela, on e tudie le signe de
K
RV
: v c L
1
a
a
PV
+
F L
t& q
85
Exercice 3
%Q
<EUF
,
Q
8 .
On a
ainsi
eV
<EUF
8;:<
, car 8#
Q '
Q
i
donc, Q
+Q ? , et dapr`es le theor`eme de la valeur intermediaire,
il existe un unique reel 1 : V tel que .
Q
WV
uV
"V
<EUF
"
<EGF
"
WV
V
WV
uV
)Z
Exercice 4
v=(]J .
J
a) Posons
=#
? .
Etudions
donc la methode iterative Dj
=#
Remarquons tout dabord que si cette methode converge, elle converge bien
vers une des racines de Q , si est la limite de la suite D# , alors
J donc =# Z? , cest a` dire que Q .
=#
Localisons la racine de cette e quation. On a I et +~
donc
Qc+~ , et comme est derivable sur IR et =#nK sur
C/qq alors, grace au theor`eme de la valeur intermediaire, il existe un unique reel
/jq solution de lequation .
On a aI K et +~
. Comme est monotone sur IR
)Z
t
"
86
SUGGESTIONS ET CORRIGS
] et # ]
donc contractante de rapport ] .
Vc converge vers , unique solution
Ainsi, /j , Dj
de vj#] ? dans Cjq .
Calculons cette racine partant de , on a
V q I# =# /j##/
qVc I/j##/~ /_/=#(/=## (##/
q I/j##/=(# (#(/~ W
q W
On aurait pu aussi la proposition 1, puisque
t
Y
Y
Y
D= D
t
=#
/_/=## j
Exercice 5
+~ Q #
Q~c (
] #
& #
D= D
Dd
donc Q /
Par ailleurs, ]
sur # . Par consequent, grace au theor`eme
des accroissements finis, il existe q compris entre D et Dj tel que
Djm% aDd # DjnD
Soit lequation
. Il est clair que est continue et
Y
derivable sur .
On a
,
. Dautre part,
, donc
P
sur . Donc, dapr`es le theor`eme de la valeur intermediaire, il existe
Z
)Z
Z
IZ
"
Y
87
Donc
B
Djm% D
B
DjPD
DPD
B
..
.
VP
B
(b) Etudions
la convergence de
)Z
Z
Z
Z
]
v~
D %J~
~ v=
P
P
3D
7 ~
3Z
Z
)Z
Z
or
le point fixe de
verifie
Qv
'
Z
7
( :
V %n
D=PD
Z
Z
Donc )Z
, et comme est continue, il existe un voisinage de Z tel
$ . Donc cette m
que
, et
ethode ne peut pas converger
B
B
dapr`es la proposition 3. En effet, grace au theor`eme des accroissements finis, on
a
.
B
Bj
88
SUGGESTIONS ET CORRIGS
(c) Etudions
la convergence de
N
)Z
Z
Z
On a
P
H _
& (
D= D#
converge vers lunique racine N # de lequation
.
*
$
$
*
Donc
#
Z
Exercice 6
0
1
1 1.144
2
3
4
1.162 1.165 0.165
pr`es.
+ &M/
Soit lequation La F
dans .
Considerons la methode iterative definie par :
Dj D(
$
$a
F
&D#M /
Q / &
I
Q
Q /
Q~ ?/ &
I#c+~5
&O
/jq
Q
& /
Soit
, on a
sur IR , donc
admet au plus une racine. Dautre part on a
et
lequation
a
F
3
, donc
; ainsi, dapr`es le theor`eme de la
valeur intermediaire, il existe une unique racine Z
solution de lequation
.
Ya
F
* .
Appliquons la Methode du point fixe pour
89
HF U/jq
car
1 H N (
Donc, si cCDFH
DFH , dapr`es le theor`eme du point fixe, il existe une
unique racine &DFH solution de lequation .
Par exemple, on verifie que m/ F/ ]
C/ F ] . En effet, I/ #
/ /WD et I/ / /Wv .
Calcul numerique de cette racine a` = et j pr`es :
b
b
3
b3
3
0
1
0.7 0.730
2
0.748
3
3
3
0.758
4
5
6
0.764 0.767 0.769
a`
pr`es, et
7
0.770
8
9
0.771 0.771
/ a` =
Z
pr`es.
Exercice 7
o`u .
1. 1) Posons P
, 5 IR . Appliquons le
theor`eme de la valeur intermediaire a` sur CDj o`u 8 .
est continue sur Djq , 7QMjq . &Djq , d et i
, donc est strictement monotone sur CDjq .
qq .
Y
Soit lequation
EU
)Z
Y
)Z
La
Y
$
)Z
)Z
)Z
Y
bP*
#D
90
SUGGESTIONS ET CORRIGS
Or,
, donc
. On a bien alors
.
, donc
Or, on a montre que Y CDjd , . Mais
, car est decroissante. Puisque NK , alors
t , donc ' et /
.
Par consequent
D converge au voisinage de , dapr`es la
Ainsi la methode D=
proposition 2.
4) Posons D et
. La methode D=
converge
(dailleurs, on a /
et /
, n ). Dautre
part, grace au theor`eme des accroissements finis on sait quau voisinage
de , il existe q compris entre D et tel que :
j Dj D#% q(qD a
IZ
IK
IK
zK
Y B
)Z
IZ
=%
car :
+$d
/W= / W
+~
NK
/W(jq
j
LK
et
est monotone sur
Calcul numerique de la racine a`
pr`es. Soit donc la methode
K
et
0
1
2
3
4
5
6
7
8
1 0.367 0.692 0.500 0.606 0.545 0.579 0.560 0.571
Dj
D
9
10
11
12
13
14
15
0.564 0.568 0.566 0.567 0.566 0.567 0.567
Soit
/
Z
b
a`
pr`es.
D# D D
Dj D
D#
v , donc +=cI
Dautre part on a I v et Q~
et la racine est situee dans C/qq , elle est unique puisque est strictem pour tout . On a aussi
net monotone, car
O pour tout . Ainsi dapr`es le theor`eme de convergence globale de cette methode (voir theor`eme 3), pour tout ?C/qq tel
que Qac a literation de Newton converge. Prenons alors, par
exemple, , alors I+
, donc la methode
D= D D
convegera vers lunique racine de lequation.
92
Chapitre 4
Rsolution numrique des quations
direntielles ordinaires dordre 1
4.1
Introduction
(1)
0 n N 1
le maximum des pas
4.2
Les mthodes un pas sont les mthodes de rsolution numrique qui peuvent scrire sous
la forme :
yn+1 = yn + hn '(tn; yn ; hn ); 0 n N
(1.1)
o ' : [t0 ; t0 + T ] R R ! R est une fonction que lon supposera continue .
Dans la pratique, la fonction '(tn; yn ; hn ) peut ntre dnie que sur une partie de la forme
[t0 ; t0 + T ] J [0; ] o J est un intervalle de R (de sorte en particulier que [t0 ; t0 + T ] J
soit contenu dans le domaine de dnition de lquation direntielle).
Dans toutes les mthodes numriques dveloppes par la suite, on subdivise lintervalle
[t0 ; t0 + T ] en N intervalles de longueur
h=
(t0 + T )
N
t0
T
N
4.2.1
(1.2)
Mthode DEULER
yn+1 = yn + hf (tn; yn ); 0 n
tn+1= tn + h;
94
(1.4)
9 et h = 0:1
(1.5)
(1.6)
1, ce qui donne
Remarque 4.2.1 (1.1) Lerreur dans la mthode dEuler est relativement importante. Elle
peut tre amliore en choisissant plus petit le pas h, ce qui augmente considrablement le
volume des calculs eectuer, ou en approchant la solution du problme de Cauchy par des
mthodes permettant de rduire cette erreur .
Programme
********************************************************************************************
function [t,y] = Euler(f,tmin,tmax,Nint,y0) % Mthode dEuler
% Nint - nombre de sous intervalles N
% tmin - temps t 0
% tmax - temps t 0+ T
% f est une fonction avec comme arguments t et y(t) : f(t, y(t))
% y0 lentre est compos des valeurs des conditions limites y 0= y (t 0) (E)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % initialisation : y(1)=y(t 0) = y 0
for n = 2 : Nint+1
y(n) =y(n-1) + h*feval(f,t(n-1),y(n-1)) ; % Calcul dEuler
end % for n
end % fonction Euler
*********************************************************************************************
*********************************************************************************************
4.2.2
Supposons que f soit de classe C 1 Alors y(t) est de classe C 2 , et le devloppement de Taylor
dordre 2 implique :
y(tn+1 ) = y(tn + h) = y(tn ) + hy0(tn ) +
h2
y00(tn ) + o(h2 )
2!
(1.7)
et comme :
dune part,
y0(tn ) = f tn ; y(tn)
(1.8)
dautre part
y00(tn ) =
=(
@f dy
d
d
@f
(y0(t)) jt=tn = (f (t; y(t))) jt=tn = (
+
: ) jt=tn
dt
dt
@t
@y dt
@f
@f
@f
@f
+
:y0) jt=tn =
(tn ; y(tn )) +
(tn ; y(tn )):f (tn ; y(tn )):
@t
@y
@t
@y
Il vient :
y(tn+1 ) = y(tn ) + hf (tn ; y(tn )) +
h2 @f
@f
(tn ; y(tn )) +
(tn ; y(tn ))f (tn ; y(tn )) + o(h2 )
2 @t
@y
kh2
y(tn )j
(1.9)
o yn est la valeur approche dnie par lalgorithme de Taylor (dordre 2), y(tn ) est la valeur
exacte de la solution du problme de Cauchy au point tn , et k une constante indpendante de
n et h.
Consquence
Lalgorithme de Taylor (dordre 2), est plus prcis que celui dEuler
Remarque 4.2.3 Si lon veut encore rduire la marge derreur, on tiendra compte dun plus
grand nombre de termes dans le dveloppement de Taylor cest--dire, on suppose f de class
C p , et donc y en sera en class C p+1 et sa drive k eme est
y (k) (t) = f [k
1]
(t; y(t))
avec
f [1] = ft0 + fy0 f:
Le dveloppement de Taylor dordre p permet daboutir lalgorithme de Taylor dordre p
8
p
P
< y
hk (k 1)
f
(tn yn )
n+1 = yn + hf (tn ; yn ) +
k
k=1
:
tn+1 = tn + h
(1.10)
(1.11)
g sin x
= f (x; y)
a
y
(1.12)
g 2 sin2 xn
3
a 2 yn
g cos xn
a yn
(1.13)
Programme
4.2.3
Lide est que la corde de la fonction y(t) sur [t; t + h] a une pente voisine de y 0 (t + h2 ); alors
que dans la mthode dEuler on approxime brutalement cette pente par y 0 (t).
On crit donc :
h
(1.14)
y(t + h) ' y(t) + hy 0 (t + )
2
On a par ailleurs
y
h
h
y 0 (t + ) = f (t + ; y 0 (t + )):
2
2
2
99
(1.15)
(1.16)
Dou, on dnitife :
h
h
y(t + h) ' y(t) + hf (t + ; y(t) + f (t; y(t))
2
2
LAlgorithme du point milieu peut donc scrire :
8
yn+ 1 = yn + h2 f (tn ; h)
>
2
>
<
pn = f (tn + h2 ; yn+ 1 )
2
>
y
n+1 = yn + hpn
>
:
tn+1 = tn + h 0 n N
(1.17)
(1.18)
1
4.2.4
Mthode de Runge-Kutta
(1.19)
@f
@f
(tn ; yn ) + h (tn ; yn ) f (tn ; yn ) = f (tn + h; yn + hf (tn ; yn ))
@t
@y
(1.21)
(1.22)
La mthode de Rung-kutta la plus utilise est dordre 4(on nglige les drives du 4eme ordre
dans le dvlopement de Taylor ) ; Il sagit de lalgorithme suivant :
100
(1.23)
y(tn )j
kh2
(1.24)
y(tn )j
kh4
(1.25)
y 0 = y 2ty
y(0) = 1
(1.26)
On dsire approcher, en eectuant le calcul avec six (06) dcimales, la slution de (1) en
t = 0:2 laide des mthodes de Runge-kutta dordre 2 et dordre 4:
La solution exacte tant
p
(1.27)
y = 2x + 1;
on estimera alors les rsultats obtenus .
On considre donc, linetrvalle [t0 ; t1 ] avec
t0 = 0; t1 = t0 + h = 0:2
et
h = 0:2;
ie :
[t0 ; t1 ] = [0; 0:2]
1.Mthode de Rung-Kutta dordre 2 :
101
Ainsi
(1.28)
1:4 = 1:183216
y1 j = j1:186667
et donc
y(0:2) ' 1:19
ie :
0:01
(1.29)
Ainsi,
y(0:2) =
1:4 = 1:183216
Lerreur est :
jy(0:2)
y1 j = j1:183216
Donc,
ie :
0:0001
4.3
Les mthodes pas multiples sont les mthodes de rsolution numrique o pour valuer
yn+1 en utilisant plusieurs yn k , k = 0; 1; :::; r: Au dpart on doit alors calculer un premier
ensemble de valeurs y1 ; :::yn avec une autre mthode et puis commencer itrer partir de
yr+1 en utilisant les valeurs prcdantes. On suppose ici que le pas hn = h est constant. Les
calculs alors eectus suivant le schma suivant :
( )
yn+1 =
r
X
i yi
+h
i 1 f (tn+1; yn+1 )
i=0
+h
r
X
i f (tn i ; yn i )
(2.1)
i=0
(2.2)
4.3.1
Mthode dAdams-Bashforth
y(tn+1 ) = y(tn ) +
f (t; y(t))dt
(2.3)
tn
Supposons quon ait dja calcul les points y(tn 1 ) et y(t) et les pentes fn 1 = f (tn 1; y(tn 1 ))
et fn = f (tn ; y(tn )): La mthode dAdams-Bashforth consiste approximer la fonction f (t; y(t));
en tant que fonction de t, par son polynme dinterpolation aux points tn 1 et tn .Soit P (t) ce
polynme, P (t) est la fonction a ne dnie par :
P (t) = fn +
fn
tn
fn
tn
tn )
(2.4)
f (t; y(t))dt
(2.5)
(t
On crit alors ,
y(tn+1 ) = y(tn ) +
tZn+1
tn
' y(tn ) +
tZn+1
(2.6)
p(t)dt
tn
3
= y(tn ) + h( fn
2
1
fn 1 )
2
104
(aprs calcul)
(2.7)
(2.8)
Prcision :
La mthode dAdams-Bashforth 2 pas est ordre 2 , ie lerreur au point tn est donne par :
jy(tn )
y(t)j
kh2
(2.9)
o k est indpendant de n et de h.
Initialisation : pour calculer yi il est prfrable dutilser une mthode de mme ordre (par
exemple la mthode de Runge -Kutta dordre 2).
Remarque 4.3.1 On peut augmenter la prcision de la mthode dAdams-Bashforth en considrant le cas r = 2.
2 me cas : r = 2
Un raisonnement analogue au cas o r = 1, nous amne lAlgorthme dAdamsBashforth 3 pas qui scrit :
8
y0 ; y1; y2 donns
>
>
<
4
5
yn+1 = yn + h( 23
f
f
+ 12
fn 2 )
12 n
3 n 1
(2.10)
tn+1 = tn + h
>
>
:
fn+1 = f (tn ; yn )
Prcision de la mthode dAdams-Bashforth
4.3.2
Mthode dAdams-Moulton
Soit y(t) une solution exacte .Le dveloppement de Taylor de y(t) scrirait :
y(t) = y(tn+1
= y(tn+1 )
h) = y(tn+1 )
hy 0 (tn+1 ) + o(h2 )
(2.11)
(2.12)
hf (tn+1 + yn+1 ) = yn
(2.14)
yn+1
y0 donne
= yn + h2 (fn+1 + fn )
tn+1 = tn + h
(2.15)
h
h
f (tn+1 + yn+1 ) = yn + fn
2
2
yn+1
y0 ; y1 donne
8
5
= yn + h( 12
fn+1 + 12
fn
tn+1 = tn + h
1
f )
12 n 1
(2.16)
(2.17)
et
fn
= f (tn 1 ; yn 1 ):
(2.18)
4.3.3
Mthode de prdiction-correction
On ce donne une mthode dit de prdiction fournissant (explicitement ) une premire valeur
approche pyn+1 du point yn+1 atteindre :
pyn+1 = prdiction de yn+1
pfn+1 = f (tn+1; pyn+1 ) = prdiction de fn+1
(2.20)
4.4
Autres Mthodes
4.4.1
Mthode dAdams
Soit y(t) une solution exacte du problme de Cauchy (1.1). Supposons quon ait dj
calcul, par un procd quelconque, les trois valeurs suivantes de y(t) :
y1 = y(t1 ) = y(t0 + h)
(3.1)
(3.2)
(3.3)
(3.4)
(3.5)
u1 = hf (t1 ; y1 )
(3.6)
u2 = hf (t2 ; y2 )
(3.7)
u3 = hf (t3 ; y3 )
(3.8)
et
1
4 un
2
5 2
4 un
12
3 3
4 un
8
(3.9)
yn ):
1
4 un
2
5 2
4 un
12
3 3
4 un
8
(A)
Pour n = 3 : On obtient ,
y 4 = y 3 + u3 +
1
5 2
3
4 u2 +
4 u1 + 43 u0:
2
12
8
108
(3.10)
u4 = hf (t4 ; y4 )
ce qui permet dcrire la range oblique suivante :
u4 = hf (t4 ; y4 ); 4u3 = u4
u3 ; 42 u2 = 4u3
4u2 ; 43 u1 = 42 u2
42 u1
(3.12)
La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeurs
de
y 5 = y 4 + u4 +
5 2
3
1
4 u3 +
4 u2 + 43 u1;
2
12
8
(3.13)
(3.14)
y(tn )j
kh5
(3.15)
o yn est la valeur calcule par la formule (A), y(tn ) la valeur exacte de la solution y(t) du
problme de Cauchy (1.1) au point tn et k une constante qui ne dpend pas de h.
Applications
An de calculer la valeur approche, au point t = 2, de la solution de lquation direntielle
t2 y 0 ty = 1; vriant la condition initiale y(1) = 0;appliquons la mthode dAdams, avec
h = 0:2.
Pour cela, soit
y0 = y(1) = 0
(3.16)
y1 = y(1:2) = 0:1834
y2 = y(1:4) = 0:3429
et
y3 = y(1:6) = 0:4898
(calculs pralablement dans notre cas par la mthode de Runnge-kutta dordre 4).
Lquation dierentielle associe au problme scrit encore :
t2 y 0
1
1
ty = 1 () y 0 = (y + ) = f (t; y)
y
t
(3.17)
u1 = hf (t1; y1 ) = 0:1695
u2 = hf (t2; y2 ) = 0:1510
u3 = hf (t3; y3 ) = 0:1394
Et le tableau des dirences fnies des grandeurs yi et ui scrit :
xi yi
4yi
ui
4ui
42 ui
43 ui
1.0 0
0.2
0.1834
-0.0305
1.2 0.1834
0.1695
0.120
0.1595
-0.0105
-0.0051
1.4 0.3429
0.1510
0.0069
0.1469
-0.0116
1.6 0.4898
0.1394
Alors, daprs la formule dAdams (A), on obtient :
y 4 = y 3 + u3 +
= 0:4898 + 0:1394
1
5 2
3
4 u2 +
4 u1 + 43 u0
2
12
8
0:0058 + 0:0029
(3.18)
0:0019 = 0:6244
1
t
:
2 2t
Estimons la valeur obtenue. Lerreur commise est gale :
(3.19)
y(t) =
y4
y(1:8) = 0:6244
0:6222 = 0:0022
0:510
Ainsi,
y4 = 0:6244 ' 0:62
10
(3.21)
O
4u3 = u4
42 u2 = 4u3
43 u1 = 42 u2
u3 = 0:1311
4u2 =
0:1394 =
0:0083
42 u1 = 0:0033
110
0:0069 =
0:0036
5 2
3
1
4 u3 +
4 u2 + 43 u1
2
12
8
0:0042 + 0:0014
(3.22)
0:0014 = 0:7513
y(2) = 0:7513
0:7500 = 0:0013
0:510
4.4.2
La mthode des approximaton successives de Picard est une mthode analytique qui permet
de trouver une solution approche du problme de Cauchy (1.1).Si y(t)
est la solution exacte de (1), elle scrirait :
Zt
y(t) = y0 +
(3.23)
f (s; y(s))ds
t0
En substituant y0 = y(t0 ) y(t) sous le signe intgrle (car la fonction y(t) est inconnue ),
on obtient la premire approximation :
y1 (t) = y0 +
Zt
(3.24)
f (s; y0 )ds
t0
La deuxime itration est obtenu en portant dans la formule (3.23) la valeur trouve y1 (t)
la place de la fonction inconnue y(t) :
y2 (t) = y0 +
Zt
(3.25)
f (s; y1 (s))ds
t0
n = 1; 2; :::
Les yn (t) sont appeles les approximations successives(de y(t); solution de (3.26)).
111
(3.26)
(3.27)
f (t; y0 ) > 0
(3.28)
et
Les approximations de Picard forment une suite croissante de fonctions infrieures
(3.29)
(3.30)
Et ainsi lorsque fy0 (t; y) > 0; les approximations de Picard forment une suite dapproximations unilatrales.
Sify0 (t; y) < 0;les approximations forment une suite bilatrales.
Exemple 7.5 En appliquant la mthode des approximations successives la rsolution du
problme de Cauchy :
y0 = y + t
t 0
y(0) = 0
on trouve, en partant de y0 = y(0) = 0 :
yn+1 =
Zt
(s + yn (s))ds
n = 1; 2; :::
donc
8
>
>
>
>
>
>
<
y1 (t) = t2!
3
2
y2 (t) = t2! + t3!
2
3
y3 (t) = t2! + t3! +
..
.
>
>
>
>
>
>
: yn (t) =
t2
2!
t3
3!
t4
4!
t4
4!
tn+1
(n+1)!
Ici, f (t; y0 ) = t + y0
0 et fy0 (t; y) = 1i0. Par consquent la suite des approximations de
Picard(yn ), forme une suite de fonctions infrieurs (suite dcroissante).
La solution exacte du problme est obtenue par :
t2 t3 t4
tn+1
y(t) = lim ( + + +
+
)
n!+1 2!
3! 4!
(n + 1)!
t2 t3 t4
tn+1
= lim (1 + t + + + +
+
)
n!+1
2! 3! 4!
(n + 1)!
= et t 1
112
4.5
4.5.1
(t) kz
y(t; z0 )k
z0 k :
Nous tudierons dabord le cas le plus simple, savoir le cas dun systme linaire sans
second membre
0
1
0
1
y1
a11
a1m
B
C
B
.. C
..
Y 0 = AY; Y = @ ... A ; A = @ ...
((E))
.
. A
ym
am1
amm
avec yj ; aij 2 C ; le cas rel peut bien entendu tre vu comme un cas particulier du cas
complexe. La solution du problme de Cauchy de condition initiale Y (t0 ) = Z est donne par
Y (t; Z) = e(t t0 )A Z. On a donc
Y (t; Z)
Y (t; Z0 ) = e(t
t0 )A
t0 )A
(Z
Z0 )
4.5.2
(E)
kg(t; Y1 )
g(t; Y2 )k
k(t) kY1
Y2 k ;
r!1
kg(t; Y1 )
g(t; Y2 )k
k(r) kY1
Y2 k ;
pourr r0 , alors il existe une boule B(0; r1 ) B(0; r0 ) telle que toute solution Y (t; Z0 ) de
valeur initiale Z0 2 B(0; r1 ) soit asymptotiquement stable.
114
TRAVAUX DIRIGS 4
Travaux dirigs 4
Exercice 01 :
2 h
T
.
H
H
Soit lequation differentielle a` condition initiale H
et
a` laide de la methode dEuler
Approcher la solution de cette e quation en H
en subdivisant lintervalle de travail en 10 parties e gales. Comparer a` la solution
exacte.
x )<
Exercice 02 :
Approcher la solution de `
le4quation
differentielle ci-dessous en H
)<
sant RK2, avec un pas
<
` H
H
H
en utili-
= t + y(t), H
=1
? 4 B
U V
4)
, puis evaluer la
Exercice 04 :
En donnant les solutions de lequation differentielle ci-dessous avec la condition
/j
puis
, reel non nul, verifier quelle conduit a` des
initiale
schemas instables.
)
#/! H
#/ []
115
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 01
;
BS4
H
H
H
H
/
B
Lintervalle dintegration est U V .
que e tant continue et lipshitzienne par rapport a`
Remarquons tout dabord
BS
H
H
"H
3
4)
x I
,
[
x
e
e
e
<
p
s
#
4) 4)<
)
4) p 4) s
#
)
)</< ) <
#/!
On a aussi
Do`u le tableau,
`
e
4 ! )
et H
)
4 )m
H W
)
x
) p
#
x ) p
# .
de H , est
Cest a` dire que lapproximation en H
e
Solution exacte de cette e quation Appliquons la methode de la variation de
la constante.
1e` re e tape : e quation sans second membre.
H n `
H
H
0
evidente.
est une solution
I>
>2
? Les autres
< / solutions sont donnees par
avec
.
H . Do`u
nde
2 e tape : une solution particuli`ere On applique la methode de la varia>
@>
R>
do`u
tion de la constante
que lon reporte dans
>
>
> >
>k `
:
H [] .
H ainsi,
>
[] H
H []
H [] []
#
[] H
116
?!
avec
.
>
e` me
3 e tape : solution generale. On remplace donne par
#"
[] H
donc,
$
dans
<
H
, on determine , do`u
<
G
e&%
<
H .
Ainsi, la solution exacte de est
Estimation de lerreur. La solution exacte ci-dessus donne
< )p
# #/!/! . Ainsi, lerreur(
{ { ) p
4)de
< s lapplication
commise
) p { lors
{ ' effectivement
# #/!/! #
de la methode dEuler est
. Cherchons
lerreur theorique qui est donnee par :
D[ ~ <
`2/ 7 { {
O`u ~
H et est la constante de Lipschitz de
par rapport
{ H BSt H B { { K {
%
De meme, on a
h
H
Ainsi ~
I<
H
<
H H
<
. Donc,
{ w
{
('
< [ x
x
x
[ e
<
I
4
)
p
!#
.
proximation de la solution de ce probl`eme de Cauchy en H
117
SUGGESTIONS ET CORRIGS
Exercice 02
3 B%t
H
H
H
eH
`
*B
\ x
< ~ x ~
soit
x 3
< ~ x ~
e
4
)
4)<DB )</
4 )<B
4) <z
, avec ~ x
et ~
. Donc
4)
!/!/! .
`4)<
Ainsi, lapproximation en H
de H , est
4 ) m)
/! !/!
< ~ x ~
)
!/!/!
x
x
En multipliant par
5 `
donc
do`u :
<
3K H B
on a
`D
0<
</
<
`
9
x S `D
0<
H do`u
` 0<
H
H . On pose
'*)
avec
?
# + <,
</x
<
p
H ce qui implique
H [ .
. Do`u, dans
118
Integrons
par parties :
p.
< H
<
H [
<
2 [
H 3
?-
[ < [ H0/
[ 1
T <
2/4 comme *5
2 ,
. La solution generale est donc
H
5
DO <
H J <
H 62 . Ainsi,
H 32 . Comme
75 . Finalement,
<
J
5 alors
2
H 82 .
</I J < 59 <
32
Estimation de lerreur. La solution exacte est *59
;: <
(' { 2 9 2 ;:< 2 2 9 2 ;<;<;< { 5=9>5;5 : p s
2 92
2 . Donc lerreur commise est { {
.
On peut comparer cette erreur effective a` lerreur theorique sur RK2, donnee
par : (le theor`eme du cours)
avec
Exercice 03
Soit le probl`eme de Cauchy suivant
? ;
7 5 H
< G
H BS4
H
H
2
2
BS
H
<
H
<
2 "H
3
5
5=9
2 ,
2 H
W .
On a aussi 75
et H
x 5=9 e 595 <
e
Donc
, do`u le tableau,
<
:
2
5
<
:
5=9
5=9
H 5 5=/9 2 <
/< 5=9 p <
;
5=9
2
2 5=9
59 :
Cest a` dire que lapproximation en H
de H avec le pas
x 5=9 p <
2 .
119
e
5=9 2 , est
SUGGESTIONS ET CORRIGS
par rapport
Ainsi ~
E:
? ? D: 9
H
[]
. Donc,
: 25 [ x
x
{ w
{ @ eGF [ e B 2 < 2
5=9 2 s eGF 2 IH 5=95 s < p 9
'
{(
{ { { , donc la methode dEuler donne une: bonne ap59
Clairement,
proximation de la solution de ce probl`eme de Cauchy en H
Exercice 04
? ;
7 5 H
H : []
, puis 2
:;<
2
5
2 , alors
, donc la solution du probl`eme est H
[] .
*5 k
M T
2
2. Si
,
alors
,
donc
la
solution
du
probl`
e
me
est
H
[] XZ .
M
{
H
H
H
Conclusion
:
En
comparant
et
,
on
voit
que
la
diff
e
rence
M {
N , les deux solutions
H
XZ . Meme si est tr`es petit, cet e cart tend vers O
1. Si * 5
divergent lune de lautre. Ce probl`eme est donc tr`es sensible aux Conditions Initiales.
120
Bibliographie
[1] K. ARBENTZ, A. WOHLHAUSER : Analyse Numrique. Suisse, 1980.
[2] J. BASTIEN : Introduction lanalyse numrique :Applications sous Matlab, Dunod, 2003.
[3] E. CANON : Analyse numrique, Cours et exercices corrigs - Licence 2 et 3 Mathmatiques, Dunod, 2012.
[4] P. DEUFLHARD, A. HOHMANN : Numerical Analysis in Modern Scientic Computing,
An Introduction, Springer-Verlag, 2003, 2e dition.
[5] M. FELLAH, N.H. ALLAL : Exercices corrigs en Analyse Numrique Elmentaire. O.P.U,
Alger, Rimpression 2005.
[6] F. FILBET : Analyse numrique, algorithme et tude mathmatique, Dunod, 2013.
[7] F. JEDRZEJEWSKI : Introduction aux Mthodes Numriques, Deuxime dition.
Springer-Verlag France, Paris 2005.
[8] R. HERBIN : Cours dAnalyse numrique, polycopi, Universit Aix Marseille, 2014.
[9] M. LAKRIB : Cours dAnalyse Numrique. O.P.U, Alger, 2005.
[10] A. QUARTERONI, R. SACCO ET F. SALERI : Mthodes Numriques, Algorithmes, Analyse et Applications, Springer, 2006.
[11] R. THEODOR : Initiation lanalyse numrique, CNAM, Masson, 1989.
[12] D. ZILL : Dierential Equations with Boundary Value Problems, PWSKent Pub, 1989.
121