Documente Academic
Documente Profesional
Documente Cultură
numer1que
Algorithme
et tude mathmatique
2e dition +Cours
+ exercices corrigs
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
www.bibliomath.com
Francis Filbet
Analyse
, .
numer1que
Algorithme
et tude mathmatique
"Cl
0
c
::::i
0
(V)
2e dition
.-1
0
N
@
.
..c
Ol
;::
>-
a.
0
u
DU NOD
www.bibliomath.com
Tout le catalogue sur
www.dunod.com
DITEUR DE SAVOIRS
"Cl
0
c
::::i
0
(V)
Dunod, Paris, 2009, 2013
.-1
0 ISBN 978-2-10-060054-0
N
@
.
..c
Ol
;::
>-
a. Le Code de la proprit intellectuelle n'autorisant, aux termes de l'article
0 L. 122-5, 2 et 3 a), d'une part, que les copies ou reproductions strictement
u rserves l'usage priv du copiste et non destines une utilisation collective
el, d'autre pari, que les analyses et les courtes citations dans un but d'exemple et
d'illustration, toute reprsentation ou reproduction intgrale ou partielle faite
sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est
illicite (art. L. 122-4).
Cette reprsentation ou reproduction, par quelque procd que ce soit, constitue-
rait donc une contrefaon sanctionne par les articles L. 335-2 et suivants du
Code de la proprit intellectuelle.
www.bibliomath.com
TABLE DES MATI RES
Avant-propos ix
.~ Exercices 44
"O ~
0 'O
c c::
::J ::::1
0 _. Chapitre 2. Calcul numrique de valeurs propres 57
('\'")
"'
Q)
Q)
T"-f ~
0 .;a 2.1 Quelques exemples de problmes aux valeurs propres 57
N .....
_.
0
@ ::::1 2. 1. l Algorithme de Google 57
~
..c
Ol
"'c::
0 2. 1.2 Mouvement de ressorts 59
::::
c::
Q)
>-
a.
0
s..
0 2.2 Localisation des valeu rs propres 6
u (.)
B
0
2.2. l Approximat ion des valeurs propres 6
..c::
p..
2.2.2 Ce qu'i l ne faut pas faire! 63
"'
~
1
'O
0
2.3 Mthode de la puissance 64
c::
::::1 2.3.1 La mthode 64
0
@ 2.3.2 Un rsu ltat de convergence 65
www.bibliomath.com
Table des matires
Exercices 74
Exercices 109
Chapitre 4. Optimisation
'O
0
4.1 Introduction 1 19
c
::J
0 4.2 Optimisation sans contrainte l 21
('\"')
,..-! 4.2. 1 Rappe ls sur les fonctions convexes 12 l
0
N
4 .2.2 Rsultat d'existence et un icit 123
@
~ 4 .2.3 Mthodes d' optimisation sans contrainte 127
..c
Ol 4.2.4 Cas d'une fonctionnelle quadratique : la mthode du gradient
::::
>-
a. conjugu
0
u
4.3 Optimisation sous co ntraintes 135
4 .3. 1 Exi stence et unicit du problme sous contraintes 136
4.3.2 Conditions d'optimalit 1 37
4.3.3 Mthodes d'opt imisation sous contraintes 14 3
Exercices 146
vi
www.bibliomath.com
Table des matires
Exercices 190
vii
www.bibliomath.com
Table des matires
7.5 La mthode des volumes finis pour les quations de transport 288
7.5. l L'quation de transport 288
7.5.2 Les volumes finis 297
Bibliographie 307
Index
"O
0
c
::J
0
('\"')
,..-!
0
N
@
~
..c
Ol
::::
>-
a.
0
u
viii
www.bibliomath.com
AVANT-PROPOS
L'objet de cet ouvrage est de fournir au lecteur une prsentation et une analyse
des mthodes numriques les plus couramment utilises pour la rsolution de pro-
blmes de mathmatiques appliques. Chaque chapitre fait l'objet d'une introduction
et d' exemples puiss dans des applications divers domaines des mathmatiques. Il
s'agit ici d' illustrer l' utilisation d'outils mathmatiques pour des problmes actuels
(modles conomiques, physiques, algorithme de Google, etc).
Cet ouvrage s' adresse tout particulirement aux tudiants de Licence 3, Master
ou prparation l'agrgation ainsi qu'aux lves des coles d' Ingnieurs intresss
par des problmes issus de la physique, de la biologie ou encore de l'conomie, et
qui souhaitent avoir une ide des mthodes de bases utilises aujourd' hui et tre en
mesure de les mettre en uvre sur ordinateur.
Nous avons volontiers gliss plusieurs rappels thoriques qui devraient aider le
lecteur mieux apprhender les difficults mathmatiques de certaines dmonstra-
tions. Notons toutefois que certains rsultats sont prsents dans un cadre simplifi
de manire ne pas noyer le lecteur dans des difficults techniques.
L' ensemble des sujets abords ici dj largement t trait dans la littrature et
ce cours doit beaucoup d' autres ouvrages et cours dispenss en France, comme les
cours d'analyse numrique de Jean-Marie Thomas, Michel Pierre et Abderrahmane
Bendali.
"O
.~
~
Lors de la rdaction de cet ouvrage, de nombreux collgues et tudiants ont bien
'O
0
c c:: voulu me faire part de leurs avis, commentaires, suggestions. ce propos, je tiens
::J ::::1
_.
0
"'
Q)
tout particulirement exprimer ma reconnaissance Jean-Pierre Bourgade, Nicolas
('\'")
T"-f
Q)
~
Crouseilles, Thomas Lepautre, Cline Parzani, Miguel Rodrigues, qui m'ont fait part
0 .;a
N .....
_.
0
de leurs conseils clairs et pour certains ont bien voulu effectuer une relecture de ce
@ ::::1
document.
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a. s.. Je ddie ce liv re Raphal et Flavien.
0 0
u (.)
B
0
..c::
p..
"'
~
1
'O
0
c::
::::1
0
@
www.bibliomath.com
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
www.bibliomath.com
LES SYSTMES LINAIRES
La rsolution d'un systme linaire algbrique est au cur de la plupart des cal-
culs en analyse numrique. Il parat donc naturel de dbuter un cours de calcul
scientifique par l. Ici, nous dcrivons les algorithmes de rsolution les plus popu-
laires qui sont appliqus des systmes gnraux. Nous considrons le problme
suivant : trouver le vecteur x solution de
Ax = b,
"O
0
c
1.1 EXEMPLE D'UN SYSTME LINAIRE
::J
0 Commenons par prsenter un problme provenant de 1' conomie, o nous sommes
('\"')
,..-!
0
amens la rsolution d' un systme linaire.
N
@
~
..c
Exemple d'une analyse de l'offre et de la demande
Ol
::::
>- Imaginons que plusieurs artisans dcident de cooprer pour fabriquer diffrents pro-
a.
0 duits utiles chacun d'eux. Afin d'viter le cot du stockage des produits fabriqus,
u
nous recherchons une situation d'quilibre entre l'offre et la demande. Pour cela,
considrons n artisans, sachant que chacun fabrique un produit spcifique. Ces arti-
sans ont choisi de cooprer, c'est--dire qu'ils souhaitent adapter leur production,
d' une part, leurs propres besoins dtermins par la quantit de produit ncessaire
aux autres artisans pour qu'ils puissent fabriquer leur propre produit et, d' autre part,
aux besoins du march.
www.bibliomath.com
Chapitre 1 Les systmes linaires
ou encore
X = C X+ b,
o la matrice C est forme par les coefficients (c ,.i)I~i,j~n tandis que le vecteur b
correspond la demande du march b := (b 1, ... , b11 Y.
Par consquent, la produc-
tion totale x = (x 1 , ... , x 11 f est la solution du systme linaire A x = b, o la
matrice A est donne par A = / 11 - C et / 11 est la matrice identit compose de 1 sur
sa diagonale et de 0 ailleurs.
Cette modlisation pose plusieurs difficults mathmatiques. Tout d'abord nous
nous interrogeons sur les proprits de la matrice A permettant d'assurer que ce pro-
blme a bien une solution. Il vient ensuite la question du calcul de cette solution.
En pratique, lorsque le nombre d'artisans considrs devient grand, il n' est plus pos-
sible de calculer l'inverse de la matrice A, il faudra donc fournir des algorithmes qui
ne ncessitent pas l'inversion de cette matrice. C'est l'objectif de ce premier chapitre.
"O
Avant de s'intresser la rsolution numrique de systmes linaires, prsentons
0
c quelques rappels d'algbre linaire.
::J
0
('\"')
Par la suite, nous noterons Atm, 11 (0C) l'ensemble des matrices m lignes, n
T""f
0
colonnes et coefficient dans le corps des rels OC = ~ ou des complexes OC = C .
N
Pour un vecteur colonne u E 0C'1, la valeur ui avec 1 :( i :( n, dsigne la i-me
@
~ composante dans la base canonique de OC11 du vecteur u. Nous appelons adjoint du
..c
Ol
::::
vecteur colonne u, le vecteur ligne u * de OC11 tel que u * = (u 1, ... , u11 ) o ui dsigne
>-
a. le conjugu de u; et transpos de u est le vecteur ligne u T = (u 1, . . , u 11 ) .
0
u Rappelons galement le produit matrice-vecteur. Soient A une matrice m lignes
et n colonnes et u un vecteur de OC11 , nous dfinissons v = A u E ocm le vecteur
dont les composantes sont donnes par
Il
vi = Lai,j u j, i = 1, ... , m
j =I
www.bibliomath.com
1.2. Rappels sur les matrices
Il
Dfinition 1.1
Soit A E .4m, 11 (K), la matrice adjointe de A, note A*, n lignes et m colonnes,
est donne par A* = (at) 1 ~; ~" et at j = aj ,i, pour 1 ~ i ~n et 1 ~ j ~m .
' l ~ j ~/11 '
Dfinition 1.2
.~ Une matrice carre A E A/,1 , 11 (K) est dite inversible, ou rgulire, ou encore non
~
"O
0 'O singulire, s'il existe une matrice B E A/,1, 11 (0C) telle que AB = BA = I 11
c c::
0
::J ::::1
_. Dans ce cas, la matrice Best unique et s'appelle la matrice inverse de A, elle est
('\'")
"'
Q)
note A - 1 .
Q)
T"-f ~
0 .;a
N .....
_.
0
@ ::::1
~
..c "'c:: Dfinition 1.3
0
Ol
::::
c::
Q)
Soit A E A/,2, 11 (K), alors
>-
a. s..
0 0 A est une matrice normale si A* A = A A*.
u (.)
B
0
..c:: A est une matrice unitaire si A * A = A A* = I11 , o In dsigne la matrice
p..
identit. Dans le cas o K = ffi., nous parlons de matrice orthogonale et
"'
~
1 AT A= A A T = In, c'est--dire A T= A - 1 .
'O
0
c::
::::1
A est une matrice hermitienne si A* = A. Dans le cas o OC = ffi., nous parlons
0 de matrice symtrique et AT = A.
@
www.bibliomath.com
Chapitre 1 Les systmes linaires
Il est alors facile de faire le lien entre les matrices hermitiennes et normales.
Comme nous l'avons vu en dbut de chapitre, l'objectif de cette partie est de mettre
au point des algorithmes de rsolution numrique pour un systme de la forme
Ax = b (1.1)
'
o A E ..4;1 , 11 (IK) et b E IK11 sont donns et x E IK11 est l'inconnue. Nous donnons
d'abord une condition ncessaire et suffisante sur la matrice A pour que ce systme
admette une solution unique. Le systme linaire (1.1) a une solution unique ds que
la matrice A est inversible et cette solution est donne par x = A- 1 b. Il est alors
important de connatre quelques proprits des matrices inversibles [16].
Proposition 1.5
Soient A , B E ..4;1 11 (IK) inversibles, nous avons alors
'
pour tout a E Il{*, (a A)- 1 _!_ A- 1.
a
(AB)- 1 = B- 1 A- 1 .
(A*)-1 = (A-1)*.
nonons quelques proprits des matrices inversibles, qui sont autant d'outils
permettant de s'assurer que le problme ( 1.1) admet bien une solution [16].
"O
Thorme 1.6 Thorme des matrices inversibles
0
c
0
::J Soit A E ..4;1 , 11 (IK), les propositions suivantes sont quivalentes :
('\"')
T"-f A est inversible,
0
N
@
le dterminant de A est non nul,
~
..c le rang de A est gal n, c 'est--dire que les n vecteurs colonnes forment une
Ol
:::: famille libre,
>-
a.
0 le systme homogne A x = 0 a pour unique solution x = 0,
u
pour tout b dans ocn'
le systme linaire A X = b a exactement une solution.
Pour conclure cette partie, rappelons qu'une valeur propre de A est donne par
E Il{ telle que det(A - 111 ) = O. Ainsi, il existe au moins un vecteur v non nul,
dit vecteur propre, vrifiant Av = v. Dfinissons alors le spectre d'une matrice.
www.bibliomath.com
1.2. Rappel s sur les matrice s
partir de la dfinition d'une valeur propre, nous vrifions facilement qu' une
matrice est inversible si et seulement si 0 n'est pas valeur propre.
La consquence de ces proprits est que 1' ensemble des matrices carres inver-
sibles fonne un groupe, appel le groupe linaire et not habituellement Gl11 (0C). En
gnral, presque toutes les matrices sont inversibles. Sur le corps OC, cela peut
tre formul de faon plus prcise : l'ensemble des matrices non inversibles, consi-
dr comme sous-ensemble de .4,1, 11 (0C), est un ensemble ngligeable, c'est--dire
de mesure de Lebesgue nulle. Intuitivement, cela signifie que si vous choisissez au
hasard une matrice catTe coefficients rels, la probabilit pour qu' elle soit non
inversible est gale zro. La raison est que des matrices non inversibles peuvent tre
considres comme racines d ' une fonction polynme donne par le dterminant [16].
Par la suite, nous nous intresserons au calcul proprement dit de la solution de
(1.1 ). Proposons d'abord un premier algorithme naf qui permet de calculer la solu-
tion d ' un systme linaire ; cet algorithme est d Cramer 1 [23].
:
.
.c. c fastidieux, mme pour un ordinateur, c'est pourquoi nous avons recours des algo-
0) 0
;:: c rithmes de rsolution exacte d ' une complexit moindre (nous parlons alors d'une
~
>-
o.. a.
0
mthode directe), ou des mthodes itratives qui consistent construire une suite
0
u (.)
0 de solutions approches qui converge vers la solution exacte. Avant de prsenter de
0
..s::::
o.. tels algorithmes, nous introduirons des matrices dont la strncture particulire est bien
~
~ adapte la rsolution du systme linai re ( 1.1). Puis nous verrons comment se rame-
1
"O
0
ner ces cas particuliers.
c
:::i
Q
@ 1. En rtrence au mathmaticien suisse Gabriel Cramer (1704-1752).
www.bibliomath.com
Chapitre 1 Les systmes linaires
Dfinition 1.9
Soit A E Al,1 ,11 (IK),
la matrice A est une matrice triangulaire infrieure si A = (a;,j)l~i ,j~n avec
ai ,.i = 0, 1 ( i < j ( n.
A est une matrice triangulaire suprieure lorsque ai ,j = 0, 1 ( j < i ( n.
A est une matrice diagonale ds lors que ai , j = 0 pour i =J j.
Nous vrifions d'abord que 1' ensemble des matrices triangulaires supen eures
(resp. infrieures) est stable par la somme et le produit. En outre, nous avons le
rsultat suivant.
Proposition 1.1 0
Soit L E Al,1, 11 (IK) une matrice triangulaire infrieure inversible, ce qui signifie
que tous les lments diagonaux sont non nuls. Alors L - 1 est aussi une matrice
triangulaire infrieure.
Soit U une matrice triangulaire suprieure inversible. Alors u- 1 est aussi une
matrice triangulaire suprieure.
Les matrices triangulaires jouent un rle important en analyse numrique car elles
"O
sont facilement inversibles ou du moins, nous pouvons facilement trouver la solution
0
c x E 1[11 du systme linaire A x = b. En effet, considrons le cas d'une matrice tri-
::J
0 angulaire suprieure, alors la solution x se calcule par un algorithme dit de remonte.
('\"')
,..-! Nous observons d' abord qu'une matrice triangulaire inversible a tous ses lments
0
N diagonaux non nuls, c'est pourquoi nous pouvons crire x 11 = b11 / a11 ,11 puis pour tout
@
~
i = n - 1, n - 2, ... , 1, nous pouvons calculer Xi de la manire suivante :
..c
u
Ol
::::
>-
a.
0
1
a1 , 1. (
b; .t
.J =t+l
a;,} Xj )
Exemple
Soit A E AZ3,3(!R.) donne par
1 1
A= ( 0
0
2
0
2
3 )
6
www.bibliomath.com
1.2. Rappels sur les matrices
Nous allons voir par la suite qu'une mthode directe calcule la solution exacte de
(1.1) et consiste le plus souvent trouver un systme triangulaire quivalent.
C'est pourquoi nous nonons le Thorme de Shur [7] qui sera justement utile
pour rendre certaines matrices triangulaires par simple changement de base.
Matrices hermitiennes
Dans le cas des matrices hermitiennes, ce dernier rsultat peut tre sensiblement am-
lior.
Corollaire 1.12
Soit A E ..,4l,1, 11 (K) une matrice hermitienne. Alors il existe une matrice unitaire
V E ..,4l,1 , 11 (K) et une matrice diagonale D E ..,4l,1 , 11 (K) dont la diagonale est
compose par l'ensemble des valeurs propres de A, telles que D = V* A V.
Nous rappelons enfin quelques proprits de base des matrices hermitiennes, dfi-
nies positives. Nous introduisons d'abord la notion de sous-matrice principale.
.~
"O ~
0 'O
c c::
::::1
Dfinition l.13
::J
_.
0
"'
Q)
Soit A E ..,4l,1,n(K ) une matrice quelconque. Nous appelons sous-matrice princi-
('\'")
T"-f
Q)
~ pale d'ordre i (pour 1 ~ i ~ n) de A , la matrice A i E .4f ,i (K) obtenue en ne
0 .;a
N .....
_.
0 gardant que les i premires lignes et les i premires colonnes de A.
@ ::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a. s.. Dfinition l.14
0 0
u (.)
B Soit A E ..,4l,1, 11 (K), nous disons que A est positive si pour tout x E K 11 , elle
0
..c::
p..
vrifie x r A x ~ 0 et A est dfinie positive si pour tout x E K 11 \ { 0}, elle vrifie
"'
~
x r A x > 0 et x r A x = 0 implique x = O.
1
'O
0
c::
::::1
Nous avons alors les rsultats suivants dont la preuve est laisse en exercice.
0
@
www.bibliomath.com
Chapitre 1 Les systmes linaires
Proposition l. l 5
Soit A E Al,1 , 11 (IK) une matrice hermitienne dfinie positive. Alors elle vrifie
toute sous-matrice principale Ai, 1 ~ i ~ n est hermitienne dfinie positive ;
tous les coefficients diagonaux de A sont des rels strictement positifs ;
A est diagonalisable et ses valeurs propres sont strictement positives;
le dterminant de A est strictement positif, c 'est--dire que A est inversible;
il existe une constante a > 0, telle que x* A x ;;:::: allxll 2 , pour n'importe
qu'elle norme vectorielle 11li
Matrices de permutations
Par la suite, nous utiliserons souvent les matrices de permutations pour rordonner
les lignes ou les colonnes d'une matrice quelconque.
Dfinition 1.16
Une matrice de permutations est une matrice carre qui ne possde que des 0 et
des 1 comme coefficients, telle qu'il y ait un seul 1 par ligne et par colonne.
Proposition l. l 7
1
a t, ) . i , j = I , ... , n.
i+j - 1'
www.bibliomath.com
1.2. Rappels sur les matrices
1/~
1/ 2 1/ 3
1/ 3 1/ 4 1/
1/ 54 )
( 1/ 3 1/ 4 1/ 5 1/ 6 .
1/ 4 1/ 5 1/ 6 1/ 7
T (25 77 57 319)
b = 12 ' 60 ' 60 ' 420 '.:::= (2,08' 1, 28 ' 0, 95' 0, 76)'
Norme matricielle
Pour mesurer l'ampleur de cette instabilit, nous introduisons la notion de norme
matricielle. En effet, l'ensemble .4;1, 11 (K) peut tre considr comme tant un K-
espace vectoriel muni d'une norme 11- JI .
Dfinition 1.18
Nous appelons norme matricielle toute application 11-11 de .4;1, 11 (K) valeur dans
JR+ := [0, +oo[ qui vrifie les proprits suivantes :
pour toute matrice A E .4;1 ,n(K ), llAll = 0 *A = Ooc11x11,
"O
.~
~
pour toute matrice A E .4;1,11(K), et pour tout a E K, llaAIJ Jal IJAJI,
pour toutes matrices A et B E .4i1,11(K), l A + Bll ~ JIAIJ+ l BJI, c'est
0 'O
c c::
::J ::::1
_.
0
"'
Q)
l'ingalit triangulaire,
('\'")
B
0 cation seulement partir d' une norme vectorielle. titre d' exemple la norme de
..c::
p..
Froebenus JI.JIF donne par
"'
~
1
l/ 2
.t
'O
0
c::
::::1
0 la; ,jl2 (1.2)
@ ( )
t ,j= l
www.bibliomath.com
Chapitre 1 Les systmes linaires
est bien une norme matricielle. Les trois premires proprits sont connues puisque
11 2
li li F est une norme vectorielle de IK Il reste dmontrer que pour toutes matrices
A et B E .4,1 ,n(IK), llA B llF ~ llAllF llB llF En effet,
llABll} = llClli =
11
;~i c~.i =
n
;~i
( n
t ; a;,k bk,1
)2
En utilisant l'ingalit de Cauchy-Schwarz, nous avons
Pour construi re une norme matricielle partir d'une norme vectorielle quelconque,
nous introduisons la dfinition suivante :
Dfinition 1.19
Soit li li une norme vectorielle sur IK11 . Nous dfinissons la norme matricielle li li
subordonne la norme vectorielle 11 . 11 comme tant l'application donne par
Nous vrifions facilement que cette application dfinit bien une norme matricielle.
Par exemple pour 1 ~ p ~ oo, nous savons que l'application qui v E ocn fait
correspondre le rel positif
'O
0
c
::J
0
('\"')
T"-f
ou ll v lloo = max1 ~~n lv l pour p = oo, est une norme vectorielle sur IK11 . Posons
0
N
@
~
alors pour p E [l , +oo] et A E .4,1,11(IK)
..c
Ol
::::
>-
a.
0
u
qui est une norme matricielle subordonne la norme vectorielle 11 llp En gnral
nous ne pouvons pas calculer 11 A 11 P directement en fonction de (ai,j) 1:<;J , j ~n sauf
pour p = 1 et p = oo.
10
www.bibliomath.com
1.2. Rappel s sur les matrice s
et n
Il Il 11 n
D'o
D'autre part, nous montrons qu'il existe w E K11 tel que Ilw 1
11 = 1 et
Il
.<;::::
"Cl ~
0 "O
c c
::::>
Cl ....:::i En effet, cho.isissons j 0 E { 1, ... , n} tel que
(V)
"'
~
~
.-1
0
'V Il n
.~
N
@
.
....:::i""'
0
:
L
i=l
lai,Jo l max
/'/ 0 ~ l a1,.1'
l ":::::. ) ::::::,11
I
.c. c 1=1
0) 0
;:: c
>-
o..
0
~
a. puis prenons w E K 11 tel que w; = 0 pour i =f. .io et w Jo = 1. Alors
0
u (.)
0
0 n Il n
..s::::
~
o..
~ llAwll1 = L l(A w ); I m~x L. lai,JI
1~ ) ~ 11
1 i= I 1= 1
"O
0
c
Q
:::i Par un raisonnement analogue, nous montrons le rsultat pour la norme matricielle
@ 11 -lloo D
11
www.bibliomath.com
Chapitre 1 Les systmes linaires
llA-vll2
sup - -
EIK"
v;i!O
IlV 112 '
nous dmontrons le rsultat suivant.
v* A* Av
su p - - - -
vEIK" V* V
v;i!O
(A* A)* = A* (A * )* = A* A.
Ainsi, d'aprs le Corollaire 1.12 puisque la matrice A* A est hermitienne, elle est
diagonalisable et il existe U E .4t,1 , 11 (IK) unitaire telle que U A* A U = diag(k),
o diag(k) reprsente une matrice diagonale forme partir des valeurs k sur la
diagonale. Les scalaires (k ) I ~k ~n sont les valeurs propres de la matrice hermitienne
A* A. Notons que k ~ 0 puisque de la relation A* Apk = k Ph nous dduisons
"O
0
c
que (A Pk)* Apk = k Pt Pk> c'est--dire k = Il A Pk 11~ / llPkll~ ~ O. Il vient ensuite
::J
0
('\"') v* A* Av v* U* UA* AU* U v
,..-! sup - - - - sup - - - - - - - -
0
N vE IK"
v;i!O
V* V vE IK"
v;i!O
v* U* uV
@
~
..c
Ol Puis, comme U est inversible, nous avons par changement de variable w = U v
::::
>-
a.
u
0
w*UA*AU*w
llA l l ~ = sup - - - - -
wE IK11 w* w
w;i!O
12
www.bibliomath.com
1.2. Rappels sur les matrices
Dfinition 1.22
Nous appelons conditionnement de la matrice A relativement la norme matri-
cielle 11 lI subordonne la norme vectorielle 11 lI, le nombre
cond( A) = 11A1111 A - i 11 .
B un systme linaire est mal conditionn, si cond(A) est grand par rapport un.
0
..c::
p..
"'
~
1
Vrifions sur l'exemple prcdent la cohrence de cette dfinition. Nous avons
'O
0
c::
pour la norme ll ll1,cond1(A) = ll A ll1 llA- 1 ll1 ~ 28375 >> 1 oupourlanorme
0
::::1
ll ll2,cond2(A) = ll A ll2ll A- 1lh ,....., 15514 >> 1.Lesvaleurs duconditionnement
@ de la matrice A semblent tre assez leves indpendamment de la norme choisie.
13
www.bibliomath.com
Chapitre 1 Les systmes linaires
Pour conclure cette partie, nous donnons quelques proprits sur le conditionne-
ment.
Proposition l .24
Soient A E .4,1 ,11 (IK) une matrice carre inversible et 11 - 11 une norme matricielle
subordonne la norme vectorielle 11- 11- Alors nous avons
cond(A- 1) = cond(A).
Soit a E lK \ {O}, cond(a A)= cond(A).
cond(ln) = 1.
cond(A) ~ 1.
Proposition 1.2 5
Soit A une matrice hermitienne (A* = A). Alors llA 11 2 = p(A). De plus, si A
est une matrice hermitienne inversible et (A;) 1~i ~n ses valeurs propres. Alors,
_ max { 1; I, i = 1, ... , n}
cond2(A) - . . .
mm{ 1 I, z = 1, ... , n}
"O
0
DMONSTRATION. Appliquons la Proposition 1.21 et puisque A est hermitienne,
c
::J nous montrons que l lA ll~ = p(A)2.
0
('\"') Supposons ensuite que A est une matrice hermienne inversible. Pour calculer
T"-f
0 cond2 (A), il suffit de remarquer que 1/ Ai, o Ai -=/=- 0, est valeur propre de A - 1
N
@ et donc en appliquant le rsultat prcdent A - l (qui est galement une matrice
~
..c hermitienne), nous avons
Ol
::::
>-
a.
0
u
14
www.bibliomath.com
1.3. Mthodes directes
B
0
..c::
p..
"'
~ 1. Cette mthode fut nomme d'aprs Carl Friedrich Gauss, mathmaticien allemand (1777-1855) sur-
'O
1
nomm le prince des mathmaticiens. Cependant, si l'on se rfre au livre chinois Les neuf chapitres
0
c:: sur l'art du calcul sa naissance remonte la dynastie Han au premier sicle de notre re. Elle constitue
::::1
0 le huitime chapitre de ce livre sous le titre de la disposition rectangulaire et est prsente au moyen
@ de dix-huit exercices [6] .
15
www.bibliomath.com
Chapitre 1 Les systmes linaires
+ 7 X2 + 8x3 8. zCl)
3
A (1) = ( ~
3 7
; ; )
8
x = ( ~~ )
X3
~J
+ 2 x2 + 2x3 2, 1
0, zC2)
{ + X2 + X3 2
2, zC2)
+ X2 + 2x3 3
"O
0
0
c
::J
A (2) =
0n n 2
1
1
b (2) = (
('\"')
,..-! Remarquons que les oprations ralises sur les lignes du systme sont linaires et
0
N rversibles, comme nous le verrons par la suite. Par consquent, les systmes sont
@ bien quivalents.
~
..c
Ol Ensuite, nous conservons les deux premires lignes et modifions la troisime en
::::
>-
a. faisant apparatre un zro sur la deuxime colonne. Pour cela, il suffit de rempla-
0
u cer la troisime ligne par la diffrence entre la troisime et la deuxime ligne soit
t<3) f - t <2) t<3) f - t <2) et [(3) f - t <2) - z<2) .
1 1 > 2 2 3 3 2
zC3)
XJ + 2x2 + 2x3 2, 1
{ X2 +
+
X3
X3
0,
2,
z<3)
2
z<3)
3
16
www.bibliomath.com
1.3. Mthodes directes
A (3) = 0! n
Puisque la matrice A <3) est triangulaire, nous pouvons rsoudre facilement ce systme
et la solution est donne par x = (2 , - 2, 2l.
Le principe de la mthode consiste donc se ramener par des oprations simples
(combinaisons linaires) un systme triangulaire quivalent qui sera alors facile
rsoudre. Avant de dcrire prcisment l'algorithme, nous introduisons une forme de
matrice bien particulire et prsentons quelques-unes de ses proprits.
Lemme 1.26
Soit B (k) E A/,1,n(JK) une matrice de la forme
0 0 0 0 0
B (k) :=
0 0 0 0 0
0 0 b k+!
(k)
0 0
0 0 b (k) 0 0
/l.
<;::::
"Cl ~
0 "O DMONSTRATION. Il suffit d'effectuer le produit B (k) B (l) et montrer que ce pro-
c c
::::>
Cl
:::i
.... duit est nul lorsque 0 :::; k ~ l ~ n. Puis les proprits (i i) et (i i i ) se dduisent
"'
~
(V)
.-1 ~ facilement. D
'V
0 .~
N
0""'
....
@ :::i
Voyons maintenant comment tendre la mthode de Gauss-Jordan au cas d' un sys-
:
.
.c. c tme quelconque. Nous nous intressons au systme linaire A x = b, o A est une
0) 0
;:: c matrice carre inversible de taille n x n et b E IK11
~
>-
o.. a.
0 Posons A ( I ) A et b ( I ) = b, partir de ce changement de notation le systme
0
u (.)
0
s'crit
0 ( l) (l)
..s:::: + (J) b (J)
o.. a 1, 1 X 1 +al ,2X2 + a 1,n Xn
~ 1 '
~
1
( 1) (1) (1) b ( I)
"O
a 2, l X] + a2 ,2X2 + +a2,n Xn 2 '
0
c
:::i
Q
@ ( 1) (1) (1)
an , 1 X J + a 11 2 X2 + +an ,11 Xn b;ll).
'
17
www.bibliomath.com
Chapitre 1 Les systmes linaires
li - a~ ) l 1, ou encore
1
et appliquons la transformation li 1---+
(1)
ai , 1 x, (1)
+ a 1 2X2 +
'
(1)
+ a1 ,11 X11
b (l)
1 '
+ (a( t) - a (I ) a ( I) ) x 2 + ( 1) (1) (1) ) b (I) - ( 1) b (I)
O x1 2,2 2 1,2 +(a211 - )
a 2 al ,11 Xn 2 a2 1 '
Ox 1 + (a(t) -
n,2
a <J) a
11
0
1,2
x2 + ... +
( (1)
an n -
'
(1)
an
(1) )
al n Xn
. ,
b (l) -
Il
a (l) b (I)
Il l .
avec
a (l)
ai
(1) -
- Wi,l ' .
t = 2 , ... , n ,
a l ,l
2
a~1,1~ = a~1,11 ~ - a~1 1 ) a<1n,
,1
i = 2, ... , n , j = 2, ... , n ,
'O
0
c
::J
b1~2) = b~l) -
1
a~l) b (1l)
1 '
.
l = 2 , .. ,n,
0
n.
('\"')
,..-!
0 et la premire ligne est inchange, c'est--dire a~~j = a ~'.j pour tout 1 ~ j ~ D'un
N
@ point de vue matriciel, ceci revient rsoudre le systme quivalent A <2 ) x = b(2),
~
..c
o A <2) et b<2 ) sont obtenus par A <2) = L (l) AU), b(2) = L ( l ) bU) , o L (l) = In - n <J)
Ol
:::: et s<1) est donne par
>-
a.
0
u 0 0 0
B (l) :=
aO )
Il
0 0
18
www.bibliomath.com
1.3. Mthodes directe s
(k)
+ak,n Xn
(k) b,<lk) .
(k)
+ +an Il Xn
' an k Xk
,
L'tape suivante consiste faire apparatre des 0 sur la k -me colonne partir de la
(k + 1)-me ligne. Pour cela supposons que le coefficient ak~k aussi appel pivot, est
non nul. Alors les k premires lignes restent inchanges tandis que pour i ~ k + 1,
(k)
(k) -
ai -
ai,k
W' l =
k + 1, ... ,n,
ak,k
~k+I)
a t,) = a ~k) -
t,)
a~k) ak(k).
l ,J'
i
= k + 1' ... ' n ' j =k +l , ... ,n,
bi~k+l) = b~k) - = k+1
' a,~k) b k(k) ' .
l ' ... ,n.
nouveau d' un point de vue matriciel cela revient faire le produit
= L <k) A (k) et b(k+I) = L<k) b Ck), o L (k) = In - s <k) et B (k) est donne par
A <k+ l )
.~
"O ~
0 'O
c
::J
c::
::::1
0 0 0 0 0
_.
0
('\'")
"'
Q)
Q)
T"-f ~
0
N
.;a
..... B (k) :=
0 0 0 0 0
_.
0 (k)
@ ::::1 0 0 ak+ l 0 0
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
0 0 a <k)
n 0 0
u (.)
B
0
..c::
p..
et les (ajk))k+ l ~j~n sont donns par
"'
~
1
(k)
'O a (~) aj ,k
0
c:: } (k) '
k+1~ j ~ n.
::::1
0 ak k
@ '
19
www.bibliomath.com
Chapitre 1 Les systmes linaires
Cette tape permet de passer du systme A (k) x = b (k) A (k+I) x = b (k+ I ) et nces-
site
(n - k) divisions,
(n - k + 1) (n - k) = (n - k)2 + (n - k) multiplications,
(n - k + 1) (n - k) = (n - k)2 + (n - k) additions.
En itrant ce processus jusqu' la (n - 1)-me tape, nous obtenons finalement un
systme de la forme A (n) x = b (n>, c'est--dire
(1) (1) (1) b (I)
a 11, x1+ a 1,2 X2 + ,
+a111Xn 1 )
(2) (2) b (2)
a2 ,2 X2 + + a2 ,n Xn 2 )
(n)
an ,n Xn b~') .
Remarquons que A (n) est une matrice triangulaire suprieure. Pour conclure la
mthode d'limination de Gauss, il reste rsoudre le systme A (n) x = b (n) : nous
commenons par la dernire ligne x 11 = b~1 ) / a~1}1 Ensuite, connaissant x 11 nous
calculons x 11 _ 1 en utilisant la (n - 1)-me ligne '
1
Xn-1 = -
a(n --1) -
(b (n - 1)
11-I
(11 - l)
- a11-l ,11X11
)
n-1,n-1
-
Xk -
1
(k)
ak,k
(
bk
(k)
- L
n
1=k
(k)
ak,ixi
)
, k = n - 2, ... , 1.
20
www.bibliomath.com
1.3. Mthodes directe s
En conclusion la mthode est en 0 (2n 3 / 3), ce qui est nettement meilleur que le cot
de calcul en n ! de l'algorithme de Cramer.
Pour mieux comprendre et analyser la mthode d'limination de Gauss, nous
pouvons r-crire l'algorithme de manire plus abstraite en utilisant seulement
des produits matriciels. En effet, la mthode d' limination de Gauss prsente
plus haut consiste dcomposer la matrice A comme le produit d'une matrice
triangulaire infrieure L (comme Low , bas en anglais) et d'une matrice tri-
angulaire suprieure U (comme Up , haut en anglais). Plus prcisment,
A (n) = L (n- I ) A (n-I) = L (n- I ) . . . L ( I ) A et donc en appliquant le rsultat du
Lemme 1.26[(ii)], il vient
A ( L (n-1) . . . L (J))-1 A (n ) ,
Dmontrons alors un rsultat qui donne une condition suffisante pour 1' application
de la mthode d' limination de Gauss sans pivot.
.<;::::
Soit A E .4;1 , 11 (JK) une matrice inversible. Supposons que toutes les sous-
"Cl
0
~
"O
matrices principales d' ordre 1 n - 1 de A soient inversibles. Alors il existe
c c une unique matrice L triangulaire infrieure diagonale unit (ne comportant
::::>
Cl ....:::i
(V)
"'
~ que des 1 sur la diagonale) et une matrice U triangulaire suprieure inversible
~
.-1
0
'V
.~
telles que A = LV.
N
0""'
....
@ :::i
. :
.c. c
0) 0
c DMONSTRATION. tablissons d'abord le rsultat d' unicit. Soient (L a, U0 J et
;::
>-
o..
~
a. (Lf3 , Uf3 ) telles que L a Ua = A = L f3 Uf3, o L a et L f3 sont des matrices triangu-
0
0
u (.)
0
laires infrieures diagonale unit et donc inversibles. tant donn qu' U a et Uf3 sont
0
..s:::: des matrices triangulaires suprieures inversibles, nous pouvons crire
o..
~
~ 1
1 L / L a= Uf3 U;
"O
0
Q
c
:::i Or, L i 1 L a est une matrice triangulaire infrieure diagonale unit et Uf3 u; 1
@ est une matrice triangulaire suprieure, elle est donc diagonale et L i 1 L a = /11 et
21
www.bibliomath.com
Chapitre 1 Les systmes linaires
U13 u;' = ln. Ainsi, La = L13 et Va = U13, ce qui prouve que la dcomposition
est unique.
Dmontrons maintenant l'existence d' une telle dcomposition. Nous avons vu que
pour pouvoir appliquer la mthode d' limination de Gauss sans pivot, il suffit qu'
chaque tape le pivot aj~i soit non nul. Prouvons alors par rcurrence que lorsque la
matrice A a toutes ses sous-matrices principales inversibles,
, '
a?i
est bien diffrent de
zero.
Tout d' abord, puisque la premire sous-matrice est de dterminant non nul, nous
avons a 1, 1 f=. 0 et donc le premier pivot a~~{ = a 1, 1 est bien non nul et pouvons
effectuer la premire tape de l'limination de Gauss.
Supposons ensuite que pour tout k E { 1, ... , i - 1} le coefficient
'
aYk
est diffrent
de zro, dans ce cas en suivant la mthode d'limination de Gauss, nous avons
A= AO) = (LU-n . . . L<n)- 1 A<o.
Dveloppons alors le produit par blocs, il vient
( ~; ~ ) ( ~; ~ ) ( ~~;) ~ ) '
o Ai (respectivement Azi)) est la sous-matrice principale de A (respectivement AU))
tandis que Li E ~ ,i(JK) est une matrice tridiagonale infrieure avec uniquement des
1 sur la diagonale. Puisque Aji) est une matrice triangulaire suprieure, nous avons
Or, puisque toutes les sous-matrices principales sont inversibles det(A i) est diffrent
de zro et donc le produit ft=I ak~k est aussi non nul et en particulier aj~i f=. O. Nous
pouvons donc effectuer une nouvelle tape de la mthode d'limination de Gauss.
Au final, nous obtenons la dcomposition
A (L(l)) - 1 L C')A(I),
"O
c
0 (L(l))- 1 A(2),
::J
0
(V)
,--!
0
N (111 + B (l) ... + B (n-1)) A (n-1) .
@
~
..c Notons U la matrice triangulaire suprieure A (n - l) et L = (L(l))- 1 ... (LC11-l))- 1,
Ol
:::: alors A = LU D
>-
a.
0
u l'aide de ce rsultat, nous pouvons dmontrer le corollaire suivant qui est parti-
culirement important pour les applications.
Corollaire 1.28
Soit A E v#1,1, 11 (1K) une matrice dfinie positive. Alors A admet une dcomposi-
tion LU.
22
www.bibliomath.com
1.3. Mthodes directes
et chaque tape porte sur un systme triangulaire. Or, nous avons vu que les systmes
linaires avec des matrices triangulaires peuvent tre aisment rsolus en utilisant un
algorithme de descente puis de remonte.
Remarque
Notons que lorsque nous voulons rsoudre ce syst me pour diffrents b E IK" , il est
plus optimal de raliser la dcomposition LU une fois pour toutes et de rsoudre
les systmes linaires avec les matrices triangulaires pour les diffrents b plutt que
d'utili se r l'limination de Gauss-Jordan de multiples repri ses .
B
0
conditionn. Pour remdier ce problme, nous ajoutons une tape supplmentaire
..c::
p.. de permutation qui amliore la stabilit de l' algorithme.
"'
~
1
'O
0
Mthode de Gauss avec pivot
c::
0
::::1
Jusqu'ici nous avons suppos qu' chaque tape de la mthode d'limination de
@ Gauss, le pivot akkk
, f=. 0, l'inconvnient est que cette condition n'est pas assure
23
www.bibliomath.com
Chapitre 1 Les systmes linaires
pour une matrice inversible quelconque. D'autre part, mme lorsque cette condition
est satisfaite, le pivot peut prendre des valeurs lakkk proches de 0, ce qui conduit des
1
instabilits numriques. C' est pourquoi en gnral, ' nous avons recours une tape
supplmentaire de permutation de lignes pour remplacer un pivot ventuellement nul
par un autre pivot qui lui sera non nul coup sr. Cette tape permet galement de
stabiliser l'algorithme par rapport aux erreurs d' arrondi. En effet, considrons sim-
plement le systme deux inconnues. Soit e > 0 un petit paramtre,
.XJ + X2 = 1,
{ X1 + X2 = 2,
1)
1
2- -.
Par consquent,
et en supposant que l' erreur de calcul est de 1' ordre de e, nous obtenons une valeur
approche de x2 donne par x~PP = 1 et en utilisant la premire ligne, nous avons
ensuite x~PP = 0, ce qui est trs loin de la valeur exacte. Le rsultat approch obtenu
pour x 1 n' est pas correct. En revanche, si avant d' appliquer la mthode d'limination
de Gauss nous changeons les deux quations, nous avons alors le systme
"O
0
c
::J
2,
0 1.
('\"')
T"-f
0
N
@
Cette fois-ci, le pivot est gal un et la mthode d' limination de Gauss donne pour
~
..c
la deuxime quation ( 1 - e) x2 = 1 - 2 e et donc le systme est quivalent
Ol
::::
>-
a.
0
2,
u 1 - 2e .
24
www.bibliomath.com
1.3. Mthodes directes
En dfinitive, la mthode que nous avons applique ici est l'algorithme d' limi-
nation de Gauss avec pivot. C'est une mthode directe de rsolution de systme
li.na.ire qui permet de transformer un systme en un systme quivalent compos
d'une matrice triangulaire. L'algorithme est le mme que celui dcrit pour la mthode
d' limination de Gauss sans pivot mais avec une tape supplmentaire de permuta-
tion permettant d' obtenir le pivot le plus grand possible. Cela permet d'viter de
travailler avec un pivot proche de zro, ce qui peut introduire des erreurs numriques
grossires et au final donner une mauvaise approximation de la solution. Comme
pour la mthode d'limination de Gauss sans pivot aprs avoir obtenu un systme
triangulaire, nous rsolvons le systme l'aide d'un algorithme de remonte.
L' algmithme est directement inspir de l'algorithme sans pivot avec une tape sup-
plmentaire de permutation.
Algorithme 1.2. limination de Gauss avec pivot
Pour k= 1, .. .,n - 1
Pour i=k +1 , .. .,n:
- recherc her ko E {k, .. .,n} t el que
l a~~, kl = max{ l a(,~)k l , 7 E {k, .. ., n}}
et permuter l es l i gnes k et ko,
- ca l cu l er
(k)
(k) ai ,k
<X j = (k)
a k,k
Pour J = k+ 1, .. .,n
a(k+.1 ) = a(k). _ a <kl a(k).
1,J 1,J 1 k ,J'
Fin de la bouc l e sur j ,
- pu i s le second membre
b( k) (k) b (k)
b(k+l
1
) -
- 1 - a, k
Fin de la bouc l e s ur i
<;::::
Fi n de l a boucle sur k .
"Cl ~
0 "O
c
::::>
c Nous avons donc le rsultat suivant qui assure l'existence d'une dcomposition
Cl ....:::i LU pour n'importe quelle matrice inversible.
(V)
"'
~
~
.-1 'V
0 .~
N
@
0""'
.... Thorme 1.29 Dcomposition LU d 'une matrice inversible
:::i
. :
.c. c
0) 0
c
Soit A E .4l,1, 11 (K) une matrice inversible. Alors la matrice A admet une dcom-
;::
>- ~
a. position L U quelques permutations prs P A = L U ou A = PT L U, o P est
o..
0
u
0
(.)
0
une matrice de permutations (de mme pour P T), L est une matrice triangulaire
0
..s::::
infrieure ne contenant que des 1 sur sa diagonale et U une matrice triangulaire
o..
~ suprieure.
~
1
"O
0
c
Q
:::i
DMONSTRATION. Nous ne prsentons pas le dtail de la preuve qui est essentiel-
@ lement technique, nous renvoyons le lecteur au livre [7] pour plus de dtails. L'ide
25
www.bibliomath.com
Chapitre 1 Les systmes linaires
(k) (k)
an k an ,n
'
...
~:~: a:~~
( (k) (k) )
(1) (k- l)
al ' i ak-1 ,k - 1
a" ,k an,11
Puisque det( A) est non nul, le dterminant de la sous-matrice est aussi non nul et donc
il existe forcment un coefficient ai~2 qui est non nul. Nous pouvons donc appliquer
la stratgie de l' limination de Gauss en ayant au pralable effectu si ncessaire une
permutation des lignes.
Pour conclure la preuve, nous avons vu qu' la k-me tape, nous slectionnons un
'O
0
pivot la ligne Pk E { k , ... , n} et permutons ensuite les lignes k et Pk Nous obser-
c vons alors que la factorisation LU que nous obtenons est la mme que si nous per-
::J
0
('\"')
mutions les lignes de la matrice A, k ~ Pk. k = 1, ... , n - 1 avant d' effectuer la
,..-!
0 factorisation, ce qui con-espondrait une factorisation sans pivot de la matrice PA.
N
@ D
~
..c
Ol
::::
>-
1.3.3 Factorisation de Cholesky
a.
u
0
La factorisation de Cholesky 1 consiste pour une matrice hermitienne dfinie positive
A dterminer une matrice triangulaire suprieure R telle que : A = R* R. La
matrice Rest en quelque sorte la racine can-e de A. Cette dcomposition permet
1. Cette mthode a d'abord t mise au point par le mathmaticien et militaire franais Andr-Louis
Cholesky ( 187 5-1918), puis redcouverte seulement dans les annes 1940.
26
www.bibliomath.com
1.3. Mthodes directes
.-1
0
~
'V et nous avons bien
.~
N
0""'
.... A = LAA- 1 U = SR.
@ :::i
. :
.c. 0
c De plus, comme la matrice A est hermitienne, S R = R* S*, ou encore puisque la
0)
;::
~
c matrice R est inversible (R*) - 1 S = S* R- 1
>-
o.. a.
0 0 D'une part, la matrice de gauche est le produit de deux matrices triangulaires inf-
u (.)
0
0 rieures Set (R*) - 1. D ' aprs la Proposition 1.10, la matrice (R* ) - 1 S est donc tri-
..s::::
~
o.. angulaire infrieure. D'autre part, la matrice de droite S* R- 1 est pour des raisons
~
1
identiques, une matrice triangulaire suprieure. Cela signifie que S* R - 1 est tout
"O
0
c
simplement une matrice diagonale ne contenant que des 1 sur sa diagonale, c'est
Q
:::i
donc l'identit autrement dit S* = R. Ainsi, la matrice A se dcompose comme
@ A = R* R.
27
www.bibliomath.com
Chapitre 1 Les systmes linaires
r11 ,n
en imposant que tous les termes diagonaux soient strictement positifs . De l'galit
A = R* R , nous dduisons :
n min(i ,j)
puisque r p ,q = 0 si 1 ( q < p ( n .
La matrice A tant hermienne, il suffit que les relations ci-dessus soient vrifies
pour i (},c'est--dire
i
"O
[} = 2] a1 ,2 = r1,1 ri ,2
0
c
::J
0
('\"') a1 ,n
,..-!
0
[} = n] al ,n = r l , l r l ,n ::::} r1 ,n = - .
N r1 ,1
@
~
..c Raisonnons ensuite par rcurrence. Pour i ~ 1 fix, nous supposons que les coeffi-
Ol
::::
>-
cients (r; - i ,j)j=i- l , . .. ,11 sont connus et dterminons alors la i-me ligne de R. Pour
a. cela, crivons d'abord le produit par bloc pour le calcul de la sous-matrice principale
0
u
A; de A , il vient alors
A _ (
i -
A;-1
a* ) = ( ;r- 1 0
r.
1 ,1
) ( ~H
avec a = (a t ,i , ... , a;_ 1,il E Il{i - l et p = (r1 ,i , ... , r; -1 ,i ) T E Il{i - l lequel est dj
28
www.bibliomath.com
1.3. Mthodes directes
(1.3)
det(A) O
> .
det(A- 1)
Nous sommes alors en mesure de dterminer le seul rel positif vrifiant l'ga-
lit (1.3)
i-J
ai ,i - L lrk ,i 1
2
k= I
Ensuite, le calcul du terme ai ,J pour j > i permet de dfinir les autres composantes
Li = i + l] ai ,i+I = "f1 ,i r1 ,i+I + + ri ,i ri ,i+l
i- 1
[j = n] ai ,n = r 1,i ri ,n + . . . + r; ,i r i ,11
i- 1
ai ,n - 2= rk ,i rk ,n
.<;:::: k= l
"Cl ~
c
0 "O r.
1.,1 D
c
::::> :::i
Cl ....
(V)
"'
~ L' algorithme correspondant peut tre dcrit sous une forme compacte comme suit :
~
.-1 'V
0
N
.~ Algorithme 1.3. Factorisa tion de Cho/esky
0""'
....
@ :::i
:
Pour i = 1, ... , n
.
.c.
0) 0
c - ca l c ul e r
;:: c
~
i -1
>- a. a1,1
.. - "'
o..
0 0 L rk,1 2. 1 l
u (.)
0 k= 1
0
..s::::
o.. Pou r j = i + 1, . . . , n
~
- ~
~ 1
"O
1
r 1,J
= -r . ( a1,J L rk ,1 rk ,J) .
0 1,1 k=1
c
Q
:::i
Fin de la bo ucl e sur j,
@ Fi n de l a bo ucl e sur i.
29
www.bibliomath.com
Chapitre 1 Les systmes linaires
Exemple
Soit A E .#3,3(ffi.) donne par
1.3.4 Factorisation Q R
L'objectif de cette partie est de proposer une mthode de factorisation des matrices A
inversibles non ncessairement dfinies positives. Nous allons voir que toute matrice
inversible peut tre obtenue comme le produit de deux matrices Q et R. L'originalit
de cette factorisation rside dans le fait que nous ne cherchons pas Q triangulaire
mais pleine et orthogonale, c' est--dire Qr Q = ln, alors que la matrice R , pour sa
part, est triangulaire suprieure.
Remarquons que lorsqu' une telle dcomposition est connue, le systme linaire
de la forme A x = b se rsout facilement. En effet, cela revient trouver x E R 11
tel que Q R x = b. En multipliant alors par Qr , puisque Q est orthogonale, il
vient R x = QT b qui peut tre rsolu facilement puisque R est triangulaire sup-
rieure. Nous verrons galement au chapitre suivant que la dcomposition Q R permet
de dfinir un algorithme itratif pour la recherche de valeurs propres et de vecteurs
"O
0
c
propres d'une matrice. Cette dcomposition est donc trs utile dans la pratique bien
0
::J
qu'un peu plus coteuse en termes de complexit que la factorisation LU.
('\"')
T"-f Il existe plusieurs mthodes pour raliser cette dcomposition :
0
N
@ la mthode de Householder o Q est obtenue par produits successifs de matrices
~
..c orthogonales lmentaires ;
Ol
::::
>-
la mthode de Givens o Q est obtenue par produits successifs de matrices de
a. rotations planes ;
0
u
la mthode de Schmidt, base sur le procd de Gram-Schmidt (voir Exercice 1.5).
Nous avons choisi ici de prsenter la mthode de Householder qui mne la fac-
torisation Q R d'une matrice A inversible.
30
www.bibliomath.com
1.3. Mthodes directe s
Dfinition 1.31
~
11
Soit u E Nous appelons
matrice de Householder, la matrice u
Hu E .4:1 ,n(~) donne par
Proposition 1.32
~
11
Soit u E Alors,
(i) Hu est symtrique, c'est--dire Hu = H[,
(ii) Hu est inversible et Hu- l = Hu ,
(iii) Hu v = - v, pour tout v E ~n colinaire u et Hu v = v pour tout
v E ffi.11 orthogonal u ,
(i v) le dterminant de Hu est gal - 1 lorsque u est non nul et gal +1
lorsque u = O.
En dfinitive Hu est la matrice de la rflection d' hyperplan Vect{ u }T.
B
0
- llull2 + llull 2
..c::
p..
et donc Hu- I = Hu.
"'
~
'O
1
Ensuite pour dmontrer (iii), prenons d' une part v E ~ 11 tel que (v , u) = uT v = O.
0
c::
::::1
Alors
0 2 T
@ Huv = v - llull 2 u(u v) V.
31
www.bibliomath.com
Chapitre 1 Les systmes linaires
D'autre part, pour v E JR11 colinaire u, c'est--dire qu' il existe a E lR tel que
v = au, nous avons
2a T
Huv = au - ~(uu )u = au - 2au = -v.
- 1 0~11- I )
( JR11 -I l n- 1
Proposition l .33
Pour tout v E JRm, m ~ 1 tel que llv Il = 1, il existe u E JRm tel que Hu v = ei , o
e 1 = (1 , 0, ... , Of E JRm le vecteur de la base canonique dont seule la premire
composante est non nulle.
"O
0
c
DMONSTRATION. Tout d'abord si v est colinaire e 1, posons u = 0 et Hu = lm.
0
::J En revanche lorsque v n'est pas colinaire e 1, posons u = v - e 1 Un calcul direct
('\"')
,..-!
montre d'une part
0
N
@
~
..c
Ol
::::
>-
a.
0 D'autre part, puisque ef ei = 1 v T v et en utilisant la symtrie du produit sca-
u laire, nous avons
(v - e1l v - vT ei + 1
2(v - e1l v.
32
www.bibliomath.com
1.3. Mthodes directes
Maintenant que nous avons tudi les proprits des matrices de Householder, nous
pouvons effectuer la factorisation Q R.
Soit A E At,1, 11 (R) une matrice inversible. Alors il existe une matrice orthogonale
Q et une matrice triangulaire suprieure R telles que A = Q R.
011:/~l-l)l l
A (2)
12 )
A(2 )= H1AO) = JNo.
(2) .
( A 12
'
(k)
A (k) = ~1,1 A (k)
1,2 )
( A (k) '
2 ,2
.<;::::
~
avec A ~~~ E ~k- l ,k- I (R) une matrice triangulai re suprieure, A ~~~ une matrice rec-
"Cl
0 "O
c c
::::>
Cl .... tangulaire relle k - 1 lignes et n - k + 1 colonnes et Aik~ une matrice carre relle
:::i
"'
~
(V)
.-1 ~
'V
n - k + l 1ignes et colonnes. '
0 .~
N
0""'
.... La k-me tape consiste donc multiplier la matrice A ik~ par une matrice de Hou-
@ :::i
. : seholder pour faire apparatre des 0 sur la premire colonne. Pour cela, nous notons
.c. c
0)
;::
0
c akk) le vecteur de Rn-k+t form partir des (n - k + 1) composantes de la premire
~
a. co1onne de A (k), .- - ( ak(k) , ... , a (k) ) e t e (k) . -- (1 , 0, ... , 0) E lTl>n-k+I
>- 1e vect eur de
o.. ~
0 0 22 11 1
u (.)
0
0 la base canonique dont seule la premire composante est non nulle.
..s::::
o.. Nous appliquons la Proposition 1.33 au vecteur ak.k) E R 11 - k+I : il existe uk E Rn - k+I
~
~
"O
1 tel que Huk ak.k) llak.k)Il e~k)_ Nous construisons alors la matrice Hk E At,1 ,11 (R) de
0
c rflection
:::i
Q
@ Hk -- ( 0h - 1
33
www.bibliomath.com
Chapitre 1 Les systmes linaires
A (k) A (k)
1, 1 1,2 )
) (k) .
( 0 ,
A 22
et A l~~l) E vltk ,k(ffi.) une matrice triangulaire suprieure, A i~;l) E vltk ,n- k(ffi.) et
A (k+
22
l)
E
L/ (]]]))
Jn11.-k,11-k m..
'
Ainsi, aprs n itrations, nous obtenons une matrice A (n) qui est triangulaire sup-
rieure et telle que H11 _ 1 ... H1 A = A<11>. Puisque, d'aprs la Proposition 1.32
chaque matrice Hk est symtrique et vrifie Hk- I = Hk> la matrice Hk est orthogo-
nale. Ainsi, en posant Q = H 1 ... H,1 _ 1 et R = A <11 ), la matrice A s'crit sous
la forme A Q R avec Q une matrice orthogonale et R une matrice triangulaire
suprieure. D
Remarque
Une autre mthode pour dmontrer qu'une matrice invers ible A relle admet une
factorisation Q R, co nsiste cons idrer la matrice AT A qui est symtrique et dfinie
positive, elle admet donc une factorisation de Cholesky AT A = RT R. Il suffit donc de
vrifier que Q = ( A r )- 1 Rr est orthogonale. Nanmoin s, la mthode de Householder
'O
0 est const ru ctive tandis qu'ici le calcu l de Q n'est pas vident!
c
::J
0
(\"')
T'-f
0
N 1.4 MTHODES ITRATIVES
@
~
..c
Ol
Les mthodes directes sont certes intressantes puisqu' elles fournissent la solution
::::
>- exacte mais lorsque le systme devient de grande taille, les calculs deviennent trop
a.
0 fastidieux. titre d'exemple, Carl Friedrich Gauss s'tait rendu compte que sa
u
mthode n'tait pas adapte aux systmes de plus de vingt quations qu'il devait
rsoudre en cartographie (triangulation de Hannovre). D ' autre part, les calculs sur
ordinateur ne fournissent qu'une solution approche cause des en-eurs d'arrondi
et nous pouvons rencontrer des problmes d'instabilit (voir la partie Mthode de
Gauss sans pivot). Il peut donc s' avrer judicieux de ne pas rechercher la solution
exacte mais plutt une solution approche.
34
www.bibliomath.com
1.4. Mthodes itratives
C'est pourquoi dans cette partie, nous mettons en place un type de mthodes num-
riques tout fait diffrent. Il ne s'agit plus de rsoudre exactement un systme linaire
de grande taille mais plutt de construire une suite vectorielle convergeant vers la
solution du systme linaire (1.1). C' est ce que nous appelons une mthode itra-
tive. Dans un premier temps, nous donnons les grands principes de ces mthodes :
construction de la suite et critre de convergence. Ensuite, nous dtaillons deux
mthodes classiques : la mthode de Jacobi puis celle de Gauss-Seidel.
(1.5)
Si, par chance, la suite (x<k))kEN converge, alors sa limite x 00 doit satisfaire
x 00 F(x 00 ) car F est continue. Donc x 00 = M - 1 Nx 00 + M - 1 b soit
(M - N) x 00 = b, c'est--dire A x 00 = b. Nous disons alors que la solution
x 00 = A - 1 b E K 11 est un point fixe ou un point stationnaire de (1.5). Plusieurs
questions dcoulent de cette construction :
Pour quelle dcomposition de la matrice A obtenons-nous la convergence de la
mthode ? Bien sr, la dcomposition la plus simple serait M = /11 et N = In - A
.~ mais nous rencontrons gnralement des problmes de convergence pour cette
"O ~
0
c
'O
c::
mthode itrative (voir la mthode de Richardson de !'Exercice 1.7).
::J ::::1
_.
0
"'
Q)
Est-il possible d'amliorer la vitesse de convergence en fonction de la dcomposi-
tion ? Nous voyons bien que le choix de M = A et N = 0 permet la convergence
('\'")
Q)
T"-f ~
0 .;a
N .....
_.
0
de la mthode en une seule itration mais ce choix n'est en gnral pas intressant
@ ::::1
puisque nous ne connaissons pas M - 1 = A - 1 .
~
..c "'c::
Ol
::::
0
c:: Comment dterminer l'arrt des itrations? En effet, nous ne pouvons pas calculer
Q)
>-
a.
0
s..
0
l'cart exact entre x <k) et la solution x puisque nous ne connaissons pas la solution.
u (.)
B
0
..c:: La construction d' une mthode itrative revient chercher des rponses ces
p..
trois questions. Nous commenons par la notion de convergence de la mthode
"'
~
1 itrative. Ensuite, nous proposons plusieurs dcompositions possibles (mthode de
'O
0
c:: Jacobi, Gauss-Seidel) et tentons d'valuer la vitesse de convergence des diffrentes
::::1
0 mthodes.
@
35
www.bibliomath.com
Chapitre 1 Les systmes linaires
Rappelons que toutes les normes sont quivalentes sur IK11 et que la notion de
convergence ne dpend pas du choix de la norme.
Notons bien qu'ici le critre de convergence porte essentiellement sur les propri-
ts de la dcomposition de A = M - N, puisqu'aucune restriction n'est impose
sur le vecteur initial x<0) E IK11 et la donne b E IK11 Nous verrons au chapitre sui-
vant que les choses se compliquent lorsque nous nous intressons des systmes non
linaires, nous introduirons alors diffrentes notions de convergence.
Pour l'instant, essayons d'tablir un critre sur les matrices Met N pour assurer
la convergence de la mthode. Pour cela, introduisons l'erreur e<k) entre la solution
approche x<k) et la solution exacte x qui est donne par e<k) = x<k) - x .
Rappelons qu'a priori nous ne connaissons pas la solution exacte x, ce qui signifie
que dans la pratique nous ne pouvons pas calculer l' erreur e<k). Ici, notre objectif
est plutt de trouver un critre sur la dcomposition assurant que cette erreur e<k)
converge vers zro lorsque k tend vers l' infini.
En utilisant (1.5) et le fait que la solution x est une solution de
X= A- 1 b = M - 1 (N X - b) ,
nous sommes en mesure de calculer 1' erreur e<k+I) l' tape k + 1 en fonction de
l'erreur e<k) l'tape k: e<k+J ) = M- 1 N (x(k) - x) = M- 1 N e<k)_
"O
0
c
Posons alors B = M - 1 N, ce qui donne e<k+l) = B e<k) = B k+l e<O) _D'aprs la
0
::J
Dfinition 1.35, la mthode itrative va converger lorsque pour n'importe quel vec-
('\"')
,..-!
teur e<O) E 1K11 on a,
0
N lim B k e<O) = 0. (1.6)
@
k -.oo
~
..c Le thorme suivant tablit des critres sur la matrice B pour que la proprit (1.6)
Ol
:::: soit vrifie.
>-
a.
0
u Thorme 1.36 Critres de convergence
Soit B E .4,1 ,11 (IK), alors les quatre propositions suivantes sont quivalentes :
(i) Pour une norme matricielle subordonne quelconque, nous avons
limk-.oo Il B k Il = O.
(i i) Pour tout vecteur V E IK11 ' nous avons limk-.oo B k V = Ooc11 .
36
www.bibliomath.com
1.4. Mthodes itratives
(iii) Le rayon spectral de B vrifie p(B) < l.
(iv) Il existe une norme matricielle subordonne (dont le choix dpend de B)
telle que Il B Il < l.
D MONSTRATION. Nous allons montrer que (i) =? (ii) ... =? (iv) et enfin
(iv) =? (i).
Montrons d'abord que (i) =? (ii). Supposons que limk-oo li Bk li = 0, pour 11-11 une
norme quelconque. Vu qu' en dimension finie toutes les normes sont quivalentes,
ceci est en particulier vraie pour une norme subordonne. Soit u E JR11 , nous avons
pour une norme subordonne 0 :::;; Il Bk ull :::;; llBkll llu ll- Or, d'aprs (i), nous savons
que IlBk Il converge vers zro lorsque k tend vers l'infini et donc pour tout vecteur
u E lR11
lim li Bk u ll = 0,
k->oo
ce qui signifie bien que Bk u tend vers zro lorsque k tend vers l'infini.
Supposons maintenant que (ii) est vraie et montrons (iii). Pour cela, nous consid-
rons E Sp(B) et w un vecteur propre associ la valeur propre : B w = w,
nous avons alors
o w E JR11 ne dpend pas de k et est non nul puisque c'est un vecteur propre.
Nous avons alors lirnk->oo IAlk = 0, ce qui implique que II < 1. Ainsi, pour tout
.<;:::: E Sp(B), IAI < 1, c'est--dire p(B) < l.
"Cl ~
c
0 "O
c
Montrons ensuite que (iii) =? (iv). Supposons que pour tout E Sp(B), nous ayons
::::>
Cl ....:::i IAI < 1. En appliquant le thorme de Shur, il existe une matrice unitaire telle que
(V)
"'
~
~
.-1 'V
0 .~
N J t1 ,2 l1 ,n
0""'
....
@ :::i
:
.
.c. c T U* BU =
0) 0
;:: c n-1 ln- J ,n
~
>-
o.. a.
0
0 n
0
u (.)
0
0
..s::::
o..
et nous ayons 1i 1 < 1 pour tout i E { 1, ... , n}. En appliquant la Proposition 1.20,
~
~
nous pouvons alors calculer ll T ll 00 ou llTll1 qui est donne par
1
"O
0
c
:::i
Q
@
37
www.bibliomath.com
Chapitre 1 Les systmes linaires
Nous ne pouvons pas conclure directement! Introduisons alors pour 8 > 0, un petit
paramtre qui reste dterminer, la matrice diagonale D = diag( 1, o, ... , 011 - 1) et
D - 1 = d.mg (1 , us:- - 1 , ... , us:-1 - n ) . N ous ven
/ .fi ons a1ors
D- 1T D =
0
llAlls = 11 v - 1 U* Au Diii-
Nous vrifions aisment que 11 -1 18 , dpend de B par l' intermdiaire de U et D et est
une norme matricielle subordonne la norme vectorielle
Cette norme matricielle subordonne est telle que par construction Il B Il 8 < 1. Nous
avons donc construit une norme matricielle subordonne vrifiant 11 B11 B < 1, ce qui
dmontre (i v ).
Finalement, montrons que (i v) =? (i). Supposons que pour une norme subordonne
donne 11-lla, li Biia < 1. En utilisant le fait que toutes les normes sont quivalentes,
pour une norme quelconque 1 1-11, il existe C 1 > 0 telle que
"O
0
c Ce qui montre que Il Bk Il converge vers zro lorsque k tend vers l'infini. D
::J
0
('\"') Ce thorme donne dans le mme temps une indication sur la vitesse de conver-
gence. En effet, puisque lle(k)ll : : ; llBllklleC0)11 pour tout k ~ 0, la vitesse de conver-
T"-f
0
N
@ gence de l'algorithme dpend directement du nombre IlB Il < 1 et nous chercherons
~
..c rendre cette norme la plus petite possible, ce qui permettra d'amliorer la vitesse
Ol
:::: de convergence.
>-
a.
0
u Test d'arrt et nombre d'itrations
Nous venons de dfinir des critres de convergence mais dans la pratique il faudra
stopper le processus lorsque nous estimerons que la solution numrique est suffisam-
ment proche de la solution exacte. C'est pourquoi nous dfinissons un test d' arrt et
utilisons pour cela le vecteur rsidu r <k) = b - A x<k). En effet, le vecteur x est solu-
tion du problme A x = b pour lequel le rsidu r = b - A x est nul. Il est donc clair
38
www.bibliomath.com
1.4. Mthodes itratives
que nous serons d'autant plus proche de la solution que le rsidu sera petit. Ainsi,
pour une prcision donne e, nous poursuivons les itrations jusqu' ce que le rsidu
r <k) vrifie
Remarquons aussi que pour une mthode itrative dont nous connaissons pour
une norme donne la valeur Il B Il < 1, il est alors possible de calculer le nombre
d'itrations maximal en fonction de l' erreur souhaite. En effet, comme nous l' avons
dj dmontr lle(k)ll ~ llBllklle<0)11
D'autre part, nous savons aussi que
lle<0)11 ~ llx(O) - x< 1)ll + lle<J)ll ~ llx(O) - x<l)ll + llBll lle<0)11
et donc puisque IlB Il < 1, nous obtenons
39
www.bibliomath.com
Chapitre 1 Les systmes linaires
{
ai,ixi(k+ 1) -- - ""'"'
~ ai,J x
(k) ""'"' (k)
1 - ~ai,JXJ + bi, 1 :::::::::
/ i. :::::::::
/ n, k ~ O. (1.7)
j <i J>i
Cette mthode peut tre dcrite sous une forme compacte comme suit. Un petit
paramtre s > 0 tant fix et x 0 E JK11 donn,
Mthode de Jacobi
Poser x<0l = xo . e(0l= 2 e et k = O.
Tant que e (k) ~ e
- calcu l er
x<k+1>= 0- 1 ((E + F) x(k> + b) ,
- calculer un r sidu qui doit t r e proche de zro
lorsq ue x( k+1l approc he l a so l ut io n x = A- 1 b
e (k+ 1J = llA x (k+ 1J - bll.
- itrer k +--- k + 1.
Fi n de tant que .
Cette mthode n'est pas toujours bien dfinie. En effet, il suffit qu ' au moins un
lment diagonal soit nul pour que l'algorithme ne soit plus valide. Nanmoins,
lorsque la matrice A est une matrice dfinie positive, ses coefficients diagonaux sont
strictement positifs et nous pouvons donc appliquer cet algorithme. Aussi lorsque A
est diagonale strictement dominante, la mthode est correctement dfinie et nous
"O
sommes mme en mesure de prsenter un rsultat de convergence.
0
c
::J
0 Thorme l .3 7 Convergence de la mthode de Jacobi
('\"')
T"-f
0
N
Soit A E .,41,1,n(lK) une matrice diagonale strictement dominante, c'est--dire
@ telle que
~
..c
Ol
::::
lai,d > L
lai,J I, '/ i E {1, ... ,n}.
>- j~i
a.
u
0
Alors pour tout x<0) E JK11 , la suite (x<k)h EN, donne par la mthode de Jacobi
(1.7), est bien dfinie et converge vers la solution x du systme A x = b.
40
www.bibliomath.com
1.4. Mthodes itratives
D' autre part, d ' aprs le Thorme 1.36, il suffit de prouver qu' il existe une norme
matricielle subordonne 11 lI* telle que la matrice B = D - 1( E + F ) vrifie 11B 11* < 1.
Considrons par exemple la norme llBll 00 , nous savons d' aprs la Proposition 1.20
que cette norme peut tre calcule exactement partir des coefficients de B
n
Puisque A est diagonale strictement dominante, nous vrifions facilement que pour
tout i E { 1, ... , n}
et donc Il Blloo < 1. Ainsi, par application du Thorme 1.36, la mthode de Jacobi.
est convergente. D
L'inconvni.ent de cette mthode est que le critre de convergence est assez restric-
tif pour pouvoir traiter des systmes gnraux. Citons le cas d' une matrice symtrique
dfinie positive pour laquelle la mthode de Jacobi ne converge pas.
Exemple
Soit A E AZ3 , 3(~) donne par
"Cl
0
.<;::::
~
"O
A=(:! D
o a est un re l. Nous vou lons approcher la solution du systme Ax = b par la
c c
::::> :::i
.... mthode de Jacobi. Puisque les lments d iagonaux sont non nuls, la suite (x<k>)kEN
Cl
(V)
"'
~ est bien dfinie.
~
.-1
0
'V
.~
D'une part, nous vrifions que A est symtrique dfinie posit ive si et seulement si
N
@
0""'
.... a E] - 1/ 2, 1[. En effet, le polynme caractristique est donn par
:::i
:
P(A) = (1 - A) 3 - 3 a 2 (1 - A)+ 2a 3 = - ( - (1 - a)) 2 (A - (1 + 2 a))
.
.c. c
0) 0
;:: c
~
>-
o.. a.
0
et les valeurs propres de A sont A1 = A2 = 1 - a et 3 = 1 + 2 a.
0
u (.)
0 Lorsque - 1/ 2 < a < 1, les valeurs propres sont strictement positives ,
0
..s:::: ce qu i assure que A est dfi nie positive. En revanche, la mthode Jacobi
o..
~ converge seu lement lorsque a E] - 1/ 2 , 1/ 2[. En effet, la suite est donne par
~
1 x<k+ 1l = 0 - 1 (0 - A)x<kl +o- 1 b, avec ici O = /3 Les valeurs propres de 0 - A sont de
"O
0
c
la forme = 1 - A o A est une valeur propre de A et donc 1 = 2 = a et 3 = - 2 a.
Q
:::i
Nous en concl uons que la mthode de Jacobi converge pour - 1/ 2 < a < 1/ 2
@ puisqu'il est ncessaire que p(o- 1 (0 - A)) < 1 et ici 0 - 1(0 - A) = 13 - A.
41
www.bibliomath.com
Chapitre 1 Les systmes linaires
Cet exemple montre bien que la mthode de Jacobi n'est pas toujours la plus adap-
te pour traiter des applications concrtes, o les systmes linaires rsoudre font
intervenir des matrices dfinies positives. Une alternative possible est de recourir la
mthode de Gauss-Seidel.
Dans ce cas, D - E est une matrice triangulaire infrieure, elle est donc facilement
inversible en utilisant un algorithme de descente (nous calculons d'abord x 1, puis
x 2 , ... ). Nous avons cette fois-ci
X (0) E Il{'z
ai i x.
(k+l ) '_
- -
2= ai
(k+l)
x. - ~
~ai ,j x j(k) + bi , l. -- 1, ... , n , k ~ O.
{ ' 1 '1 J
j<i j>i
Notons bien qu' ici le terme de droite dpend de x<k+l), il faut donc utiliser une
mthode de descente chaque itration.
Cette mthode peut tre dcrite sous une forme compacte comme suit. Un petit
paramtre > tant fix et Xo E Il{n donn,
Mthode de Gauss-Seidel
Poser J.0l = xo. 8<0l= 28 et k=O .
Tant que e (k) ~ e
- pour k ~o. rso udre par un a l gorithme de descente
"O
x<k+ i> = (D - E)- 1 (r x (k) + b),
c
0 - ca l cu l er l e r sidu qu i do it tre proc he de zro
0
::J lorsque x< k+l) approc he l a so l utio n :
(V) 8 (k+ n = IlA x(k+n - bll .
T"-f
0
N
- i t re r k f- k + 1.
@ Fin de tan t que .
~
..c
Ol
::::
>- Nous pouvons dmontrer que la mthode de Gauss-Seidel converge dans le cas de
a.
0
u matrices symtriques dfinies positives. Avant cela, nonons un lemme qui se rvle
souvent utile pour dmontrer la convergence d' une mthode itrative.
1. En rfrence Carl Friedrich Gauss, qui mit au point cet algorithme pour Je calcul approch de la
solution d'un systme linaire. Cet algorithme fut ensuite redcouvert en 1847 par le mathmaticien
allemand Philipp Ludwig von Seidel (1821- 1896). L'algorithme de Gauss-Seidel est toujours utilis de
nos j ours pour la rsolution numrique de trs grands systmes.
42
www.bibliomath.com
1.4. Mthodes itratives
Lemme l.38
Soit A E .4,1 , 11 (1~) une matrice symtrique dfinie positive, dcompose sous la
forme A = M - N avec M inversible. Si MT + N est symtrique dfinie positive,
alors p(M-t N) < 1.
(M- 1 N xf A M - 1 N x
sup
Ce dernier terme est positif et donc pour dmontrer que l M- 1 Nii; < 1, il suffit de
prouver que
2 yT Ax - yT Ay
.<;::::
sup
xE!R" \ {O}
TA > o.
X X
"Cl ~ Ax = My
0 "O
c c
::::>
Cl ....:::i Puisque A x = M y, nous vrifions que
"'
~
(V)
.-1
0
~
'V
.~
2 YT A X - y 7 A y = 2 YT M y - y 7 A y.
N
0""'
....
@ :::i
:
Or, par symtrie du produit euclidien yT M y = yT M T y, nous obtenons
.
.c. c
0)
;::
0
c 2 y T A X - y T A y = y T M T y + y T ( M - A) y = y T (MT + N) y .
~
>-
o.. a.
0 0 Finalement, comme M T + N est dfinie positive, ce dernier terme est strictement
u (.)
0
0
..s::::
positif et puisque x est non nul, il vrifie galement x T A x > O. Ainsi,
o..
~
~
2 YT A X - YT A y YT (M T + N) y
1 sup sup rA > 0,
"O
0
xER"\{O} xT A X JE iR''\ {O} X X
c Ax= My Ax= My
:::i
Q
@ ce qui montre que llM- 1 Nii* < l ou encore p(M- 1 N) < 1. D
43
www.bibliomath.com
Chapitre 1 Les systmes linaires
Soit A E .$1,1,n(lR) une matrice symtrique dfinie positive. Alors pour tout
x <0> la mthode de Gauss-Seidel est bien dfinie et converge vers la solution x du
systme A x = b.
et puisque A est dfinie positive tous les termes diagonaux sont positifs, nous avons
alors det(M) > O.
Maintenant, pour prouver que la mthode de Gauss-Seidel converge, nous appliquons
le Lemme 1.38, il suffit donc de vrifier que la matrice MT+ N est symtrique dfinie
positive M T + N = (D - E)r + F = D - E T + F et puisque A est symtrique
ET = F et donc MT + N = D , qui est bien symtrique dfinie positive. Par
application du Lemme 1.38, nous obtenons p(M- 1 N ) < 1, ce qui implique que la
mthode de Gauss-Seidel est convergente. o
Exercices
(\"')
......
0
N l. l quivalence des conditionnements
@
...... L'objectif de cet exercice est de vrifier l'quivalence des normes fP de C11 et des
..c
Ol
::::
conditionnements associs.
u
>-
a.
0
Soit p ~ 1. Pour tout V = (v1, ... ' vnl E C 11
, posons l vllp = (
8 lvdP
1! ) l/p
et
l vlloo = m~x
1 ~ 1 ~11
{lviI}.
1. Montrer que pour tout V E
1
C 1, ll vlloo ~ llvllp ~ nl/pll vlloo et en dduire que
lim l vllP= llvlloo
p ->oo
44
www.bibliomath.com
Exercice s
2. Soient p et q E JR+ tels que 1 :::;; p :::;; q < +oo. Montrer que pour tout v E <C
11
,
cond2(A)
- - - :::;; cond1(A) :::;; ncond2(A),
n
cond00 (A)
- - - - :::;; cond2(A) :::;; n cond00 (A),
n
cond 1(A)
-- - :::;; condoo(A) :::;; n 2 cond 1(A).
n2
1. Montrer que l'ingalit (1.8) est quivalente dire que A est inversible et que
1/ llA- 1 li est le meilleur des minorants () > O.
2. Supposons que A est diagonale dominante stricte, c 'est--dire que
.~
Montrer que l'hypothse (1.8) est satisfaite et donner une valeur pour () lorsque la
"O ~ norme 11.1100 est utilise.
0 'O
c c
0
::J ;:s
.... 3 . Montrer que si A est inversible alors il existe > 0 tel que A + E est inversible
('\'")
"'
Q)
pour toute matrice E vrifiant Il E Il :::;; 8, o li li est une norme matricielle subordon-
Q)
T"-f ~
0
N
.:a..... ne.
@ ....0;:s 4. Soit A E Al,1, 11 (lR) inversible. Montrer que si B est singulire alors
~
..c
Ol
"'c
0
c
::::
>- Q) 1 ~ llA - B ll
a. a
u
0 0
(.) cond(A) ~ ll All '
....
0
0
..s::
o.. o li li est une norme matricielle subordonne.
~ "'1 5. Utiliser ce rsultat pour estimer le conditionnement des matrices suivantes :
'O
0
c
;:s
Q
@
45
www.bibliomath.com
Chapitre 1 Les systmes linaires
46
www.bibliomath.com
Exe rcices
Montrer que si pour tout A(A) E Sp(A), l1 - A(A) I < 1 alors la mthode est conver-
gente.
2. Cette dernire condition a peu de chance d 'tre vrifie en gnral. Pour remdier
ce problme, nous introduisons une dcomposition similaire A = M - N avec
1 1
M = - I 11 et N = - I 11 - A.
'}' '}'
Nous disons que x<kl - x(o) appart ient l'espace de Krylov K k(A , r( 0l) donn par
47
www.bibliomath.com
Chapitre 1 Les systmes linaires
arguments de la pa1tie 1.1 sur l'quation de la chaleur, montrer que vh E IR.11 est
solution de Ah vh = b, avec Ah = : 2 A,
2 - 1 0 0
- 1 2 - 1
A= 0 0 (1.11)
-1 2 -1
0 0 - 1 2
"O
0
c
::J
0
(\"')
......
0
N Notons que lorsque p = q = 2, c'est l'ingalit de Cauchy-Schwarz.
@
...... 1. Soient p ~ 1 et V E <C11 ,
..c
Ol
::::
>-
a. Il n
0
u
D'o, llvllP ~ n 11P llvlloo D'autre part, comme le max est atteint
48
www.bibliomath.com
Exercices
et
/ log(11)
Puisque n 1 P = e-P-, en passant la limite il vient,
llvlloo ( lim
p--.oo
llvllp ( lim
p--.oo
(e ~ ) llvlloo
Ainsi,
lim
p--;oo
llvllp = llvlloo
Observons la lumire de ce rsultat que la norme 1 1.11 00 est le prolongement par
continuit de la norme 1 1.llPlorsque p tend vers l'infini.
2. Soient p, q E JR+ tels que 1 ~ p ~ q < oo et w E <C11 Supposons que p soit
diffrent de q sinon le rsultat est vident et posons alors u i = 1wi 1P et vi = 1 pour
tout i = {1, .. . ,n}. Nous choisissons alors l = q/ p et m tel que 1/ m + I / l = 1,
c'est--dire m = l / (l - 1) = q / (q - p) et en appliquant l'ingalit de HOlder, nous
obtenons
Il
L lwi lP x 1 (
i= l
.~
"O ~
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)
Q)
B
0
..c::
p..
"'
~
1 D'o, llull2 ( llull1 ( n 1/ 2 llull2. D'une part en appliquant ce rsultat au vecteur
'O
0
c:: A v pour v E <C11 , il vient
::::1
0
@
llAvll2 ~ llA vll1 ~ n' 12 llA vll2
49
www.bibliomath.com
Chapitre 1 Les systmes linaires
D'autre part n 1/ 2 llvll 2 ;;?: llv lli ;;?: llvll2. Ainsi, en regroupant ces deux ingalits
2. Pour une matrice symtrique cond2(A) = 1Ai 1, avec A1 la plus grande valeur
'O
111 1
0 propre en module de A et 11 la plus petite en module. Montrons que si est valeur
propre de A alors A2 est valeur propre de A 2, ce qui dmontrera le rsultat. Soit
c
::J
0 11
(\"') E Sp(A), alors il existe v E IK non nul tel que Av = Av et donc en multipliant par
...... 2 2
0
N
A, ilvientA v = A A v= A vet A2 E Sp(A 2 ) .
@
......
..c
1.3 On donne dans cet exercice une estimation du conditionnement.
Ol
:::: 1. Nous procdons en deux tapes :
>-
a.
0 ( =?) Montrons que A x = 0 =? x = 0, ce qui est quivalent prouver que A est
u
inversible. Prenons x 0 E R 11 tel que A x 0 = O. En utilisant l'ingalit (1.8), nous
avons 0 = llA xo ll ;;?: B llxo Il ;;?: O. Or, comme 8 > 0, cela signifie que llxo Il = 0 et
donc xo = O.
({::::) Supposons que A est inversible. Pour tout x E R",
50
www.bibliomath.com
Exercice s
JI Il
j =l j =l
i # io dio
.~
"O ~
0 'O
c c::
::J ::::1
_.
0
"'
t
Q)
('\'")
Q)
T"-f ~
0
N
.;a
.....
_.
0
ce qui montre (1 .8) avec 8 = m.in
l~/.~ 11
( lai,i 1- .
lai, j 1) > O.
@ ::::1 1= 1
~
..c "'c:: j#i
Ol
::::
0
c:: 3. Supposons que A est inversible et cherchons une condition sur E pour que la
Q)
>-
a.
0
s..
0
matrice A + E soit inversible, ce qui quivaut (1.8). D' abord, nous avons
u (.)
B
0
..c::
p.. ll(A+E)xll ; ?: llAxll - llExll ; ?: ll Axll- llEll llxll
"'
~
1 Or, puisque A est inversible, elle vrifie (1.8) et donc
'O
0
c::
::::1
0
@
51
www.bibliomath.com
Chapitre 1 Les systmes linaires
En prenant llE ll < l / llA- 11, nous avons ll CA + E) xll ~ Cll A- 11 - - llE ll) llxll, ce
1 1 1
llA - B ll llEll 1 1
llAll llA ll ~ 1
ll A- 11 llAll cond(A)'
S. Posons
ce qui signifie d'aprs cette estimation que le systme est mal conditionn. en effet,
1 3
ll All1 = 4et llA- 111 = . _ 4 , d' ocondi(A) = 60000.
2 10
Pour le second exemple, posons
B = (4
6
2)
3. )
A = ( 3, 9 1,8 )
6, 2 2 , 7 '
"O
1.4 La mthode prsente ici est inspire de la dcomposition LU.
0
c
::J
l . Considrons A = L D L * avec D diagonale et Di,i > 0 pour tout 1 ~ i ~ n.
0 A est hermitienne A* = L DL* = A. Puis pour X E <C11 non nul,
(\"')
......
0
N x* LDL*x =y* Di,i y >0 avec y= L *x.
@
......
..c Il
Ol
::::
>-
a.
2 . det(B) = II Ri,i > 0 donc B est inversible et B- 1 est la matrice diagonale
0 i=l
u
dont les coefficients Bi,i sont donns par Bi,i = 1/ Ri,i D 'autre part, le produit
R* B - 1 donne une matrice triangulaire infrieure dont les coefficients diagonaux
1
sont (R* B- )i,i = Ri,i/ Ri,i = 1.
3. Posons L = R* B- 1 et D = 8 2 , il vient
L* = B - 1 R et A= R * R = R*B - 1 B 2 B - 1 R = LDL*.
52
www.bibliomath.com
Exercice s
L21 L 1D 1 D 2 L *2 (L -l 1)*
~
matrice triangulaire infrieure matrice triangulaire suprieure
La base {q 1 , . . . , q11 } ainsi constmite est une base orthonorme. Exprimons alors
a i = r1, 1 q 1, avec r1,1 = l a1 11puis pour j ~ 2
j-1
a 1 = r j,J qj + L rk ,J qk
k= I
B q1 , 1
0 r 1, 11 )
..c::
p.. A = : : = Q R.
"'
~
1
(
qn,l rn,11
'O
0
@
0
c::
::::1
3. Il est d'abord facile de vrifier que In E T s,~ n VII . Ensuite, pour M E T n U,I
montrons que forcment M = In. En effet, M est une matrice triangulaire suprieure
s:
53
www.bibliomath.com
Chapitre 1 Les systmes linaires
vrifiant M* A = ln. En effectuant le produit, nous prouvons que les termes extra-
diagonaux de M sont nuls et les termes diagonaux valent 1, d'o M = In.
Montrons l'unicit de la factorisation QR et supposons qu'il existe ( Q 1 , R 1) et
(Q2, R1) telles que Q 1 Ri = Q 1 R2. Il vient alors
(Q2)- 1 Q 1 = R1 (Ri)- 1.
D'une part, Q21 Q 1 est une matrice unitaire et d' autre part R2 R] 1 est une matrice
triangulaire suprieure dont tous les termes diagonaux sont strictement positifs, donc
(Q2) - 1 Q 1 et R1 (Ri)- 1 Un n T s:
et d'aprs la question qui prcde
c'est--dire
( ~ - E) x<' 1
> = ( l : w D+ F) x<k>+ b.
2 . Posons ensuite M = D / w - E et N = (1 - w) D / w + F , il suffit alors de
prouver que p(M - 1 N) < 1. Puisque la matrice A est symtrique dfinie positive,
nous appliquons le Lemme 1.38 en vrifiant au pralable que MT + N est symtrique
et dfinie positive
"O
0
c D 1- w 2-w
::J
0 M T +N = - - E T+ D+F = D,
(\"') { { {
......
0
N
Ainsi, la matrice M r + N est symtrique et puisque A est dfinie positive, ses termes
@
...... diagonaux sont strictement positifs et donc MT + N est dfinie positive ds lors que
..c 2
Ol
:::: - w > 0, c'est--dire 0 < w < 2. Par consquent, la mthode converge lorsque
>-
a. {
u
0 0 < { < 2.
54
www.bibliomath.com
Exercice s
2. En utilisant le mme critre pour l' tude de la convergence, la matrice d ' it-
ration B = M - 1 N est donne par B = l ,1 - y A et ses valeurs propres sont
A( B) = 1 - y A(A), o A(A) E Sp(A). Ce schma dfinit une mthode convergente
si et seulement si
Il - y (A) I < 1, \i (A) E Sp( A).
En choisissant 0 < y < 2/ p(A) , la mthode est bien convergente.
3. Par rcurrence nous dmontrons que
x(k+l ) x(k) + y r (k ),
x(k - 1) + y r(k - 1) + y r (k),
k
x(O) +y L r (l)_
l= O
k-1
x(k) = x (O) + y L r (l)
l= O
1.8 Voici une application qui dcoule sur la rsolution d ' un systme linaire.
1. l'aide d ' un dveloppement de Taylor de la solution u au point xi, nous avons
d ' une part
.~
"O ~
0 'O
c c
::J ;:s
0 ....
('\'")
"'
Q)
et d'autre part
Q)
T"-f ~
0
N
.:a.....
@ ....0;:s
~
..c
Ol
"'c
0
::::
c
Q)
>-
a. a
u
0 0
(.) En sommant ces deux galits et en divisant par h 2 , nous obtenons
....
0
0
..s::
o..
~ "'1
(1.13)
'O
0
c
Q
;:s
Pour i E {O, ... , n + 1 }, notons vi une approximation de la solution u de l' quation
@ de Laplace au point x; . Posons vh = ( v 1, ... , v 11 ) E IR" et A la matrice symtrique
55
www.bibliomath.com
Chapitre 1 Les systmes linaires
2 - 1 0 0
-1 2 - 1
A= 0 0
- 1 2 - 1
0 0 -1 2
En ngligeant les termes en s (h2 ) dans l'galit (l.13), le problme di scret s'crit
Ah vh = b avec Ah = ~ A, le vecteur b E ~n est donn par b = (f(x1 ), . . . , f(x,Jl
2
et nous adoptons la convention v0 = v11 + 1 = 0 pour approcher les conditions de bords
u(x = 0) = u(x = 1) = O.
2. La symtrie est vidente. M.ontrons que A est dfinie positive : pour tout vecteur
X = (x 1 , . , Xnl de ~n,
+ L (Xi+t - x) + x~.
2
xf
i= I
1 0 0 UJ - 1 0 0
"O
l2 0
0
c
::J
A 0 0
0
(\"')
...... 0 -1
0
N 0 0 ln 1 0 0 Un
@
.....
..c
Ol
o les valeurs des coefficients (lih~i~n et (ui)I ~i~n sont donnes par
::::
>-
a. i+1
u
0 U1 i=l , ... ,n,
i- 1
i = 2 , ... , n.
56
www.bibliomath.com
CALCUL NUMRIQUE
DE VALEURS PROPRES
Av = v,
o IK est un corps (lR ou <C). C'est un problme important rencontr dans le trai-
tement des quations d'volution, d'quations diffrentielles ordinaires ou par-
tielles et dans l'tude des proprits algbriques d'une matrice comme le calcul
du conditionnement. Les mthodes sont itratives car le calcul exact des valeurs
propres est en gnral impossible pour n ;?: 5. Nous tudierons deux types
de mthodes : les mthodes partielles fournissant seulement certaines valeurs
propres et les mthodes globales qui rendent compte de l'ensemble du spectre.
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
Les liens d'une page sur elle-mme ne sont pas pris en compte, c'est pourquoi nous
posons ci,i = O.
La Figure 2.1 illustre par exemple
les liens entre quatre pages Web, il
est possible de construire une matrice
0-------0
C E .44, 4 (IR) ne contenant que des 1 ou
des 0 correspondant ce graphe :
1
1
0
1
1 0 0
0 0 Figure 2.1
0 0 Exemple de liens entre
quatre pages Web.
58
www.bibliomath.com
2.1. Quelques exemples de problmes aux valeurs propres
1 1/ 2 1/ 4 )
G----------------------------0
0 1/ 2 1/ 4 Figure 2.2
0 0 1/ 4 . Exemple de liens entre
0 0 1/ 4 quatre pages Web et d'ajout
de liens artificiels.
Finalement, pour assurer que cette valeur propre est simple, nous posons
A = a P + (1 - a) te eT, o nous choisissons 0 < a < 1. Notons que
pour Google, a = 0, 85 est optimal! Nous sommes alors conduits recher-
cher le vecteur x E ]Rn tel que A x = x, c'est--dire le vecteur propre associ
la valeur propre 1 de la matrice A. En appliquant le thorme de Perron-
Froebenus, nous montrons que A admet 1 comme valeur propre simple et
p(A) = 1.
Ce systme n'est en gnral pas facile rsoudre pour n = 4, et encore moins
lorsqu'il s'agit de tenir compte de l'ensemble des pages Web et de l'ensemble des
requtes. Il faut donc rsoudre un problme aux valeurs propres avec un grand
nombre d'inconnues et pratiquement de manire instantane.
Dans la suite du chapitre, nous mettons en uvre une mthode numrique permet-
tant d'approcher la plus grande valeur propre d'une matrice (ici la valeur propre 1),
c'est ce que nous appelons une mthode partielle.
59
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
Pour cela, nous crivons d'abord les quations de Newton pour les deux billes :
masse x acclration = somme des forces extrieures, ce qui se traduit par
et donc
x~'(t) = - 2x1(t) + x2(t),
{ x~'(t) = x1(t) - 2x2(t).
A = ( +2 - 1 ) X1(t) )
- 1 +2 ' x(t) = ( X2(t) '
x~'(t) = - w2 a 1 cos(w t) ,
{ x~'(t) = - w2 0:2 cos(w t).
~~ ) ~~
"O
0 2
c
A ( = w ( ) .
(2.1)
::J
0
('\"')
T"-f
0 Le problme consiste donc chercher a 1, et a 2 tels que les deux quations ci-dessus
N
@ soient satisfaites.
~
..c Ainsi, la connaissance des valeurs propres et vecteurs propres de la matrice A ,
c'est--dire A1, A2 E ffi. et v 1, v2 E ffi.2 tels que A v 1 = A1 v 1 et A v2 = A2 v2
Ol
::::
>-
a.
0 permet de rsoudre compltement le systme diffrentiel. En effet, puisque A est
u symtrique dfinie positive, les valeurs propres A1 et A2 sont relles strictement posi-
tives, les grandeurs a 1 , a 2 et w solutions de (2.1) sont alors donnes par w = .JAi et
(0:1, a2l = vf ou w = Ji et (a 1 , 0:2) = vf. Dans le cas prsent, nous obtenons
l = 3 et V l = (1, - 1)f ou 2 = 1 et V2 = (1 , 1)T .
Nous avons considr un systme de deux billes et trois ressorts, ce qui conduit
la rsolution d'un problme de valeurs propres pour une matrice 2 x 2. Cependant,
60
www.bibliomath.com
2.2. Localisation des valeurs propres
Dfinition 2.1
Soit A E .4,1 ,n(K.), nous appelons lment propre le couple form d'une valeur
propre et d' un vecteur propre associ : (A, v) E K. x K.11 tel que Av = v.
.-1 ~
'V
Thorme 2.2 Thorme de Gershgorine
0 .~
N
0""'
....
@ :::i Soient A E .4,1 , 11 (K.) et E Sp(A) une valeur propre de A. Il existe un indice
. :
.c. c
0
i E { 1,. . . , n} tel que
IA- ai,d ~ L la;,j l,
0)
;:: c
~
>-
o.. a.
0
0 J# i
u (.)
0
0
..s::::
o.. c'est--dire que toutes les valeurs propres E Sp(A) se trouvent dans
~
~
D = u~ '== 1 V; avec
1
1
"O
Q
0
c
:::i 'D, - { E IC,
@
61
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
j= I
j=;fi
62
www.bibliomath.com
2.2. Localisation des val eurs propres
Or, (U - 1 A(e) U)i ,i = i + e eii, o i est une valeur propre de A. L'ingalit trian-
gulaire donne alors
s .2:: 1ei,j 1
.i = l
/1.
( s max
l ~ i ~ ll .
L lei j
,
1
j=l
1
ellU- C U lloo ( econdoo(U) ll C lloo ,
63
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
Les sept premires racines de P et P sont relativement proches les unes des autres
avec une erreur de l'ordre de io- 4 . En revanche, pour les racines suivantes, l'erreur
est de l'ordre de 1, ce qui est largement suprieur la perturbation des coefficients
qui est de l'ordre de 10- 8 .
En conclusion, il faut viter le calcul des coefficients du polynme caractristique
car un tel algorithme est numriquement instable.
Notons bien que d'un point de vue pratique la mthode de la puissance ne peut pas
tre implmente en l'tat car elle pourrait conduire un overflow , c' est--dire
que les valeurs llx (k+l) Il sont susceptibles de devenir de plus en plus grandes. Pour
64
www.bibliomath.com
2.3. Mthode de la puissance
remdier cela et pour fixer la norme du vecteur bmite de la suite (x(k))kEN, nous
ajoutons une tape de renormalisation de sorte qu' il existe } k+ 1 E { 1, . . . , n } tel que
c' est--dire que nous fixons la norme li1100 de chaque itr gale 1.
Plus prcisment, la mthode s'crit sous la forme suivante. Pour e > 0 un petit
paramtre fix et x 0 E R 11 ,
Mthode de la puissance
Poser J.0) = xo, k = 0 et e(o) = 2 e .
Tant qu e e (k) ~ e
- ca l c uler fk+ 1) tel que fk+ 1) = Ax(k) .
- normalise r l e r su l ta t x <k+ 1>=fk+ 1>/c k+1 o Ck+1 est
t el qu' i l ex i ste Jk+1 E {1 ,. . .,n} vrifi ant
x( k+1) = ll x(k+1>11 = 1
Jk+1 OO '
- calcu l er une approxima tio n de l a va l eur propre
a(k+1) = (A i k+1>) .
fJ J k+l
- ca l c uler un rs i du : e(k+1>= lf3(k+1>- f3(k} I ,
- itrer k+-k + 1.
Fin de t ant qu e
Cette mthode permet ains.i d' approcher la valeur propre de module maximal et
un vecteur propre associ de norme gale 1. Cependant, la convergence d' une telle
mthode n'est pas toujours assure.
65
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
Il
A xo = L a i i v i .
i =l
ce qui donne x)~ ) = llx(l)lloo = 1. En utilisant l' criture de xo dans la base forme
par les vecteurs propres ( vi) 1~i ~ 11 , nous obtenons
l
x( ) = -
Ct
1
A xo = -
1
CJ
L
.
Il
ai i v .
i
t= l
g Puis, en notant }k E {1 ... , n} le plus petit indice vrifiant l z}~)I = llz(k)ll 00 , nous
i5 construisons le vecteur x (k) ,
(V)
,..-!
0
r_j_ 0
N
@ avec ck -- (k)
zA
~
..c
Ol
::::
>-
a.
0
de sorte que x)~) = 1 = llx(k)lloo En factorisant par ~, il s'crit encore
u
X
(k ) -
- ---
~ ~
L.J a i ( i) i
- k
V . (2.4)
CJ ... Ck . t
t= I
Nous voulons dmontrer que ce vecteur tend vers un vecteur propre de A associ
1 Pour cela, notons d'abord qu' il n' existe pas de valeur propre la fois diffrente de
66
www.bibliomath.com
2.3. Mthode de la puissance
et puisque limk- oo (Ai/ A1 / =, pour tout i ~ p+ 1, ceci assure que 1 ~'.ck l llzlloo ( C ,ci
o C > 0 est une constante ne dpendant pas de k E N. Par consquent, pour tout
k
k ~ 0, la suite complexe ( -C 1 A. 1-Ck z)kEN est borne.
D'autre part en prenant la norme 1111 00 et en passant la limite dans (2.5), nous
obtenons, compte tenu de ce que nous venons de dmontrer,
Il
G:r
Ak
1= 1im llx(k)lloo lim 1
z + 2.:.:: ai vi
k -+oo k ->+00 C1 ... Ck
i= p+I
OO
Ak
1
lim
k ->+00 CJ ... Ck
llzlloo
Notons alors JE {1, ... ,n} le plus petit indice tel que lz;I = llzlloo et posons
x = z/ z ~ le vecteur colinaire z tel que llxlloo = 1 = x;. Puisque la suite vecto-
rielle (xd)hENest borne dans l 00 , il existe une sous-suite convergente. En crivant
simplement (2.5) pour la composante J E { 1, ... , n}, il vient alors pour une sous-
suite extraite convergente, toujours note (xC k)hEN,
.<;::::
"Cl ~
0 "O
c c
::::>
Cl ....:::i
(V)
"'
~
1 = x; = lim x\k) = lim At z; ,
~
.-1 'V
0 .~
k-+oo 1 k - +oo C J Ck
N
0""'
....
@ :::i
. : d 'o
.c. c
0) 0
c
1
;::
~
lim
>-
o.. a.
0
k- oo CJ ... Ck z ~
J
0
u (.)
0
Ceci signifie que toutes les sous-suites extraites convergentes ont la mme limite,
0
..s::::
o.. c'est donc toute la suite (x<k))kEN qui converge vers le vecteur x .
~
~
1
tant donn que les vecteurs (vi)J ~i ~ p sont des vecteurs propres associs la valeur
"O
0 propre A.1, nous vrifions facilement que A x = A1 x. Assurons-nous galement que
c
Q
:::i
x i= Ooc,, . En effet, puisque x 0 ~ Ker( A - A1/ ,i)1-, il existe donc 1 ( j 0 ( p tel que
@ aj0 i= O.
67
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
Enfin, montrons que la suite (/3(k))kE N converge bien vers la valeur propre A1 . Par
constmction, nous avons 13<k) = (Ax<k))jk' o } k est l' indice tel que xj~) = 1, ceci
montre bien que la suite (f3(k)hEN tend vers A1 puisque la suite (x<k))kEN converge
vers le vecteur propre x associ la valeur propre 1, elle vrifie, par continuit de
l'application norme, (A x <k) )jk --4 (A x)J = A1, lorsque k --4 oo. D
Des problmes de convergence peuvent survenir en utilisant la mthode de la puis-
sance lorsque la valeur propre de module maximal n'est pas unique.
Exemple
Lorsque IA1 1 = IA2 I avec A2 = - A1 ou A2 = X1 , la mthode ne converge pas for-
cment. Nous pouvons co nstater certaines de ces difficults en calcu lant la suite
(x<k> )kEN pour les exemple s suivants
~).
1 1 0
0
( 0
0
1
0
0
0
- 1
0
iJ
0 0 -1
A=(af3 {3.)
'}' '
p = ( cos(8) sin(8) )
- sin( 8) cos( 8)
68
www.bibliomath.com
2.4. Mthode de Jacobi
Nous dcidons de choisir e pour que la matrice PA pT soit diagonale. Pour cela,
notons A (O) = A et calculons
A (') = p A (0) p r = ( ;: ~: ) ,
il suffit donc de chercher pour quel angle 0 E [O, 21T] le coefficient /3' devient nul.
Vrifions alors que 0 donn par
COS 2e - SJ.n2 e a-y
cotan(20) =
2 cos e sine 2 /3
convient et implique /3' = 0, ce qui donne une matrice A (l) diagonale. En particulier,
puisque P est une rotation, c'est donc une matrice orthogonale et elle conserve la
norme de Froebenus (dfinie au Chapitre 1 par (1.2)), d'o
a'2 + 2 13 12 + y'2 = a 2 + 2 132 + y 2.
Ainsi, le fait d'annuler le coefficient /3' implique que cx'2 + y'2 ) a 2 + y 2 . En dfi-
nitive, la mthode de Jacobi va consister accrotre la somme des carrs des termes
diagonaux et diminuer la somme des carrs des termes extradiagonaux. En dimen-
sion deux, une seule tape suffit diagonaliser une matrice A symtrique, la matrice
A <n contient les valeurs propres de A et les vecteurs colonnes de P fournissent les
vecteurs propres de la matrice A.
Voyons maintenant comment tendre cette mthode aux dimensions suprieures.
"Cl
.<;::::
~
1, si i = j , avec j =I= p,j =I= q,
"O . . . . .
cos e,
0
c
::::>
c Sl l = .J = p OU l = .J = q ,
Cl ....:::i
(V)
..-1
"'
~
~
( P pq ) ; ,j sine, si i = p et j = q ,
'V
0
N
.~
0'""'
- sin 8, si i = q et j = p,
@ ....
:::i
. :
c
0, smon.
.c. 0
0)
;:: c Nous avons aussi
~
>-
o.. a.
0 0 l p-1 0 0 0
u (.)
0
0
..s:::: 0 cos 8 sine
o..
~
~
1
P pq = 0 0 l q-p-1 0
"O
0
c
0 - sine cos e 0
:::i
Q 0 0 0 J,,_q
@
69
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
La matrice Ppq E .A,1 , 11 (1~) ainsi construite satisfait les proprits suivantes.
Lemme 2.5
La matrice P pq vrifie les proprits suivantes.
Pour la norme de Froebenus donne par ll AIl F = J tr(A *A),
n
llPpqll} = L l(Ppq)i,.i l2 = n.
i,j = l
La matrice P pq est orthogonale, c'est--dire P pq P~~ = In.
si j = p avec i =J p , q ,
"O
al(k+l)
..
cai~~ + sai~~, si j = q avec i =J p, q,
,J
0
c c 2 a(k)
p,p + s2 a<k)
q,q - 2s c a<k)
p,q, si i = pet j = p,
::J
0
('\"')
T'-f
s 2 a<k) 2
p ,p + c a<k)
q,q + 2s c a<k)
p ,q, si i = q et j = q ,
0
N
@ (c2 - s2 )a<k)
p,q + cs(a<k)
p ,p - a<k)
q,q ) ' si(i ,j)=(p , q)ou(i , j) = (q ,p).
~
..c
.gi Observons que seuls les lments sur les lignes et colonnes p et q sont modifis.
~ L'ide consiste alors choisir l' angle de la rotation de faon annuler le terme a~~;I),
u ce qui conduit
(k) - (k)
cos2 fJ - s 2 aq ,q ap ,p
cotan(2 fJ) = (k)
2cs 2 a p ,q
70
www.bibliomath.com
2.4. Mthode de Jacobi
Nous rsumons les modifications induites par la rotation dans la proposition sui-
vante:
Proposition 2.6
Supposons que la matrice A (O) = A soit symtrique. Alors pour tout k ~ 0 nous
construisons la matrice A (k+t) = P pq T A (k) Ppq. laquelle est symtrique et vrifie
llA(k+l)llF = ll A(k) llF
D ' autre part, en notant s <k+I) la somme des carrs des termes diagonaux de A (k+l),
nous avons
Il
DMONSTRATION. D ' une part, nous rappelons que llA ll} = tr(A A *), ce qui signi-
fie en particulier pour toute matrice A , si U est orthogonale llAU llF = ll A llF D 'o
le rsultat pour A (k+t) et A (k), llA(k) llP = ll A(k+l)llP Ensuite, en calculant la somme
des lments extra-diagonaux au carr, il vient
~
L...t l a ~k:l)l 2
t ,}
~
L...t ( ~
L...t l a ~k~l 2 + (ca~k) - s a~k))2 +(ca~k) + sa~k))2)
l ,j t ,p 1,q t ,q i ,p
i,j= l i= I j= I
i=h i #p ,q j#i ,p,q
n
i ,j = I
i# j
Nous vrifions que la somme s<k) crot lorsque l'itration k augmente et est borne
.<;::::
par la somme des cairs de tous les termes, c' est--dire la norme de Froebenus de
"Cl
0
~
"O
Il A Il} . Ainsi, pour une matrice A E .,$1,1, 11 (lR) donne et un petit paramtre e > 0
c c fix, la mthode de Jacobi s'crit sous forme compacte:
::::>
Cl ....:::i
(V)
"'
~
Mthode de Jacobi pour le calcul de valeurs propres
~
.-1 'V
0
N
.~ Poser A<0l =A , k = O.
0""'
....
@ :::i Tant que max 1 aP(k)q 1 ....._
-;::::- s
. : P#q ,
.c. c - chercher Po , qo E { 1, ... , n} te l que Po :f= qo
0) 0
;:: c
>- ~
a. 1a~~,q0 1 = max{I a~lq l, p, q E {1,. .. , n}, p :f= q} .
o..
0 0 - constr uire l a mat ri ce orthogonale p( k} := Pp0 q0
u (.)
0
0 de ro t at i on d ' an gl e 8 te l que
..s:::: 2 . 2 (k} (k}
o..
~
cot an(2 8) = cos 8 - si n 8 = a qo,qo - a Po.Po '
~ 2 cos 8 sin() 2 a(k}
1 Po,qp_
"O
0
- const ru i re la matr ic e A(k+i)=(Pk)) T A(f.Jp(k>,
c
Q
:::i - itre r k~k + 1 .
@ Fin de t ant que .
71
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
En appliquant ce procd une matrice de dpart A E .4;1, 11 (IK), les itrs suc-
cessifs vont converger vers une matrice diagonale D ne contenant que les valeurs
propres de A sur sa diagonale.
La mthode de Jacobi fournit galement les vecteurs propres de A. En effet, pour
(, x) un lment propre de A, il vrifie A x = x . L'application de la mthode de
Jacobi donne
A (k+O = ( p <k)l A (k) p <k),
o p (k) est une matrice de rotation et donc par rcurrence en notant Q(k) la matrice
orthogonale dfinie par Q (k) := TI~=O p U>, il vient A<k+I) = (Q(k)f A Q(k). En
notant y<k+l) = (Q(k)f x, nous avons A (k+l) y<k+I) = y<k+I), ce qui signifie que y<k+I)
est vecteur propre de A (k+l). Puisque A (k+l) converge vers une matrice diagonale D
dont les vecteurs propres sont les vecteurs de la base canonique, le vecteur propre
x de A est donn par x = limk--.oo Q (k) ei o ei est le vecteur de la base canonique
associ la valeur propre , c' est--dire D i ,i = .
En dfinitive la mthode de Jacobi pour l'approximation d'lments propres est
une mthode itrative, c'est--dire que la convergence est asymptotique lorsque k
tend vers l'infini. Nous montrons alors le rsultat gnral suivant [7].
72
www.bibliomath.com
2.5. La mthode QR pour le calcul des valeurs propres
La matrice A (k) est alors cense converger vers une matrice diagonale ne com-
prenant que les valeurs propres de A. Plus prcisment, nous avons le rsultat sui-
vant [25]
Si de plus A est symtrique, alors la suite (A (k)) converge vers une matrice dia-
gonale.
Nous prsentons dans la Figure 2.5 une illustration de ce que donne cet algo-
rithme de factorisation Q R pour une matrice symtrique alatoire. En quelques itra-
tions l'algorithme converge vers une matrice diagonale contenant les valeurs propres
approches et les coefficients extradiagonaux sont en dessous d' un seuil e > 0
fix.
40~~~~~~~~~~~~ 40
~
35 18 35
16
nr
30 14 30
12
~-i
25 10 25
8
20 6 20
4
15 15
10 10
5 5
"Cl
0 5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40
c
::::i
0 40 40
(V)
~ ~
35 12 35 12
.-1
0 10 10
N 30 8 30 8
@ 6 6
25 4 25 4
.
..c 2 2
Ol 20 0 20 0
;:: -2 -2
>-
a. 15 15
0
u 10 10
5 5
5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40
Figure 2.5
Illustration d es itrations success ives obtenues par la mthode Q R pour une
matrice A symtrique alatoire.
73
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
En partant d'une matrice pleine alatoire A E M40 ,40 (ffi.), les images de la
Figure 2.5 reprsentent diffrentes itrations. Aprs seulement 6 itrations, la matrice
A (6) contient un fort pourcentage de coefficients extradiagonaux en dessous du seuil
fixs = 10- 4 mais pour obtenir que l'ensemble des coefficients extradiagonaux soit
en dessous de e, cela ncessite environ 200 itrations.
Exercices
~
O'I
::: que lmA = IRn ou non.
>-
a.
0
u
3. Montrer, en prenant par exemple n = 1 et p = 2, que peut tre une valeur
propre de B A sans tre valeur propre de A B.
4. Supposons que n = p, en dduire que l'ensemble des valeurs propres de A B est
gal l'ensemble des valeurs propres de la matrice BA.
74
www.bibliomath.com
Exercices
n n
~ Vj
~ ~ai ,j -l
v I I - a/.,/.1
j= I j = I 1
j -::1-i # i
75
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
dfinition un oprateur diffrenti.el en dimension infinie. Cela permet d' tudier des
solutions particulires (dites oscillantes en temps) d'un problme d' volution et de
construire des mthodes de rsolution. Plus prcisment, nous recherchons une fonc-
tion u et une valeur propre E lR telles que le couple (u , ) satisfait l'quation de
Laplace suivante
- u"(x ) = u(x) , x E]O, 1[, (2.6)
Observons qu'ici la rsolution est explicite en utilisant les sries de Fourier coef-
ficients rels et les fonctions de bases x !--' sin(k1T x). Nous trouvons alors
2 2
k =k 1T ' 'Pk(x) = sin(k 1T x).
o Ah = : 2
A E .fi,z,11 (.IR) o A est donne par
2 - 1 0 0
- 1 2 - 1
-0
0
c
::J
A= 0 0 (2.7)
0
(V)
...--1
-1 2 -1
0
N 0 0 - 1 2
@
.
~ 2. Montrer que la matrice Ah E .fi,1 , 11 (.IR) est symtrique d:fini.e positive et ses
:::
>-
a.
valeurs propres sont donnes par
0
u
(k) - 4 . 2 ( k 1T )
h - h2 sm (n+l) , k E{ l , ... , n},
2
(k) - (k) (k) (k) - . ( j k 1T )
vh - (v 1 , . , v11 ) , avec vj - sm (n + l) .
76
www.bibliomath.com
Exercices
Appliquer le Thorme de Gershgorine pour montrer que si E Sp(A) alors E [O, 4].
Puis, crire A = 2 - 2 cos(e) avec e E]O, 1T[.
3 . Supposons que l' lment propre (vh,J, h,i) est connu, o h , I est la plus grande
valeur propre en module de Ah calcule partir de la mthode de la puissance avec
la donne initiale x 0 E IR.11 Posons x (O) = x 0 - (x0, vh ,I) vh,J, o(. ,.) dsigne le
produit scalaire euclidien.
Construisons ensuite z<l) = Ax (O) - (Ax(O), vh,I) vh , I et procdons l'tape de
normalisation vi',~ = zO) /llz(I) 112.
Montrer que vi ~ est orthogonal vh , 1 et en dduire un schma numrique pour le
1
1- 2
det 0 1- ; ] =-A3 +3A2 +2A+8.
[ 2 1 1-
.<;::::
"Cl ~
0 "O
c c Les racines sont alors donns par
::::i
0 ....:::i
"'
~
1
1 1
-21 V?i .
(V)
~
+ - V?i
.-1 'V
0 .~ 1=4, 2 = -- 2 = - - -
N
0""'
.... 2 2 ' 2
@ :::i
. :
..c c 2.2 Soient A et B deux matrices semblales, il existe alors une matrice P inversible
Ol 0
;:: c
>-
G)
s... telle que B = PA p - l et le calcul du polynme caractristique donne alors
a. 0
0
u (.)
0 1
0 det(B - Al) det(P A p - - Al)
..c:
o.. 1
~ det ( P (A - Al) p - )
~
"O
1
det(P) det(A - AJ)det(P- 1)
0
c
Q
:::i det(A - Al).
@
77
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
BA =o n
Les valeurs propres de BA sont alors 0 et 1. En choisissant b2 1 et
b 1 = a 1 = 0, la matrice AB est rduite au scalaire 1.
4. Il suffit d'inverser le rle de n et p.
2.4 Il s'agit ici d'avoir une localisation des valeurs propres en fonction des coeffi-
cients de la matrice.
"O
l . Soient v E IK11 \ { 0} un vecteur propre de A et i E { 1, ... , n} l'indice tel que
1vi 1 ~ 1v j 1 pour tout j E { 1, ... , n}.
0
c
::J
0 n
(\"')
...... La ligne i de l' quation A v = v donne L ai ,j vj vi ou encore
0
N j=l
@
...... Il
..c
Ol
::::
>-
L:ai,j Vj =(A - ai ,i)V
a. J= I
0 J =;i
u
2. En divisant par lv I, qui est non nul et en appliquant l' ingalit triangulaire, nous
obtenons
IA - ai, d-
78
www.bibliomath.com
Exercices
{ E C, I - 1 - ci , 1 ~
1 """"" Id + c I = """"" le I} .
-...;:: ~
j =fii
l ,j l ,j ~
.i=Pi
l ,j
B
0
..c::
normalis e r l e rs ul t at x<k+1>=z<k+1>;11z(k+1>112.
p..
- calculer une approximat i on de la va l eur pr opre
"'
~
1
= (x<k+1>/ A x(k+1),
f3(k+1)
'O
0
- calc uler l e rs id u : e<k+1>= lf3(k+ll _ f3(k>1.
c::
0
::::1 - it rer k+-k + 1 .
@ Fi n de t ant que
79
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
zCl) = A- 1 x 0
z(k) -- A- 1
z(k- 1) -
- "'A.
L...t (A)k w,
.
1
i= I
lim ( 11
. .) k = 0, pour i # n,
k_,,oo .i
.k
. z(k) z
1lm X
(k)
= lim Il
80
www.bibliomath.com
Exercices
Puis, en sommant et en ngligeant les terme d'ordre suprieur, il vient alors pour vi
une approximation de u(xi) :
norme gale 1, nous imposons I: vf = 1 et donc (vh , Ah) E ffi.11 x ffi. est solution
i =I
del' quation algbrique
Ah Vh = .h Vh '
{ llvh 112 = l.
avec Ah = : 2
A et A donne par (2.7).
2. Nous avons dj vu dans l'Exercice 1.8 que A est symtrique dfinie positive,
ce qui assure que Ah l'est aussi. Il reste dterminer les valeurs propres et vecteurs
propres de la matrice Ah. Remarquons bien qu ' il suffit de trouver les lments propres
(A, v) de A et (A/ h 2 , v) sera alors un lment propre de Ah.
Soit . une valeur propre de A et v le vecteur propre associ, en appliquant le Tho-
rme de Gershgorine (Thorme 2.2), il vient . E [O, 4]. D'o, il existe 8 E ]O, 1T[ tel
que = 2 - 2 cos( 8) et pour le vecteur propre associ
avec vo = v 11 +1 = O.
Recherchons alors la solution sous la forme vi = r i , o r est la solution de
(1 - 2 cos 8 r + r 2 ) ri - I = O. Puisque la matrice A est inversible, r = 0 n'est pas
solution, nous trouvons donc deux solutions r 1 = ei 8 et r 2 = e-ie et le vecteur
. a1ors vi = a r i + /3 r i , avec z. = 1 , ... , n .
propres ,,ecnt 1 2
.~
"O ~ En utilisant les conditions aux limites vo = Vn+i = 0, nous obtenons d' une part
0
c
'O
c:: a+ /3 = vo = 0 et donc a = - /3. D'autre part a (ei(n+ l)e - e- i(n+l)B) = 0, ce qui
::J ::::1
_.
0
('\'")
"'
Q)
Q)
implique que sin ((n + 1) 8) = 0 ou encore que 8(k) = k 1T , pour 0 <k < n + 1.
T"-f
0
~
.;a
n+l
N .....
_.
0
Finalement, nous obtenons pour k = 1, . . . , n
@
2- 2 4 2(:: 1))
::::1
~
..c
Ol
"'c::
0 (k) = cos( e<>) = sin
2
(
::::
c::
Q)
>-
a.
0
s..
0
et
u (.)
(
v. k) = sm ( ik1T
-)
B - i = 1, ... , n.
0
..c::
p..
1 n+1 '
"'
~
1
3. Puisque Ah est une matrice symtrique dfinie positive, nous pouvons appliquer
'O
0
c::
la mthode de la puissance pour calculer une approximation de la plus grande valeur
0
::::1
propre. D'autre part, nous savons qu 'il existe une base orthonorme de vecteurs
@ propres de la matrice Ah. Nous allons utiliser cette proprit pour mettre au point
81
www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres
une mthode numrique permettant de calculer une approximation de l' ensemble des
valeurs propres de Ah :
Il
o (vh , i)t~i~n dsigne l'ensemble des vecteurs propres de Ah. Un simple calcul
donne
Il
1 ~ (l)
ITT, ~ (z , vh,1) ,
4000
n = 020 + Il
n = 030 X
3500
n = 040 ~
n = 080
*
~ *
D
"O 3000 n = 100
0
c
::J
Spectre exact 0 ~ * X
0 2500 i!i )!( X
(\"') l!i * X
......
0
2000 i * X
N
1500
! *X
X
+ + + +
@
......
..c
t + + +
Ol
1000 ' + +
::::
- .. '
>-
a. 500 ' +
Ill
0
u -
0
0 5 10 15 20
Figure 2.6
Ap prox imatio n des 20 premires valeurs p ropres l'aide d e la mthode d e
Lanczs.
82
www.bibliomath.com
Exercices
La mthode est alors donne pour x 0 E JR" et s > 0 un petit paramtre fix.
Calcul approch de l'ensemble des valeurs propres
Pour i = 1, ... ,n
- ca l cu l er
i- 1
v~!; = Xo - L( Xo , vh, 1) v h, 1 .
7=1
et poser k = 0, i 0l = v~!i , s'0
l = 2e.
Tant que e<kl ;:;:: e
- calc ul er z (k+1l = Ahz<kl ,
i -1
- ca 1cu l er z(k+ 1l = z (k+ 1l - ' ' (z(k+l)
L , vh,7 ) vh,7
7=1
_( k+1)
. (k+1) L'
pu1 s vh,; = 11z<k+1>11i
et A(k+1) = (A h v( k+1) v<k+1) )
h, 1 h, 1 ' h, 1 '
"Cl
0
c
::::>
Cl
(V)
.-1
0
N
@
.
.c.
0)
;::
>-
0..
0
u
83
www.bibliomath.com
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
www.bibliomath.com
LES SYSTMES NON
LINAIRES
www.bibliomath.com
Chapitre 3 Les systmes non linaires
0 2=ai,j cj ci
j =I
1 i-l OO
-2 "'""'b
~ 1- 1,1 Ct + Lhi,j Ci+j
j =l j=l
La suite (Ci ) iEN* est donc solution d'un systme infini d'quations non linaires
dont il est pratiquement impossible de calculer la solution exacte. Il est donc indis-
pensable d'avoir recours des algorithmes numriques qui rduisent ce problme en
un systme fini d' quations couples ; ds lors une mthode numrique permet d'en
calculer une solution approche.
"O
0
c
::J
0
('\"')
T"-f
0
N
@
~
..c
Ol
::::
>-
a.
0
u
Figure 3.1
Exemple de l'volution de la densit de particules (C;); EN* obtenue en rsolvant
le modle non linaire de coagulation-fragmentation au temps t = 0 et t = 1.
86
www.bibliomath.com
3.1. Int roduction au x problmes non linaires
trouver i E K ,
(3.3)
{ tel que f (i ) = OF
.<;::::
"Cl
0
~
"O
La notion de vitesse de convergence est videmment essentielle en analyse num-
c c rique. Afin de diminuer le temps de calcul, nous choisissons souvent d ' utiliser .l'al-
::::>
Cl ....:::i
(V)
"'
~ gorithme qui converge le plus rapidement, c' est--dire d' ordre le plus lev. En effet,
~
.-1
0
'V
.~
lorsque x (k) est suffisamment proche de i pour la distance d , l'itr suivant sera de
N
0""'
.... l'ordre de d(x Ck+I), i) ( C 2 d (x<k) , i )P qui est d' autant plus petit que p est grand.
@ :::i
:
.
.c. c Une autre notion importante est la distinction entre la convergence locale et la
0) 0
;:: c convergence globale.
~
>-
o.. a.
0
0
u (.)
0
Dfi nition 3.2
0
..s::::
~
o.. Soient E un espace mtrique et (xCk))kEN c E une suite d ' approximation de la
~
1
solution i de (3.3) telle que x CO) = x 0 .
"O
0
c
:::i
Q 1. La distance d est une application de E x E valeurs dans fi.+ telle que pour tout x, y et z E E,
@ d(x , y )= d(y, x), d(x , y) = 0 :;;;} x =y et d(x, z) ~ d(x , y ) + d(y, z).
87
www.bibliomath.com
Chapitre 3 Les systmes non linaires
Dans la pratique, nous prfrons souvent des mthodes qui donnent la convergence
globale de la solution moins bien sr d'avoir une ide a priori de la localisation de
la solution.
Dans une premjre partie, nous prsentons une mthode gnrale et simple, pour
laquelle la recherche d'un zro d'une fonction f : K c E 1---+ E est remplace
par la recherche d' un point fixe d'une nouvelle fonction <P. Ensuite, nous proposons
plusieurs algorithmes pour la rsolution numrique de problmes non linaires dans
le cas de fonctions valeurs dans IR. Puis, nous traitons le cas E = F = IR", en
proposant la mthode de Newton-Raphson pour les systmes non linfilres.
1. En rfrence Hron d'Alexandrie qui vcut au premier sicle aprs J.-C. et fu t un des grands
mcaniciens del' Antiquit. L' algorithme de calcul des racines carres lui est attribu bien qu 'il semble
que cet algorithme ft dj connu des Babyloniens.
88
www.bibliomath.com
3.2. Mthode de point fixe
B
0
dans E. Nous constrnisons une fonction cf) telle que la solution ide (3.3) soit aussi
..c::
p.. un point fixe de cf). Puis, pour xo E K C E
"'
~
1 X(O) = Xo
~(x(k)), (3 .5)
'O
0
c::
::::1
{ x <k+I) = k ~ 0,
0
@ o cf) est dfinie de K dans K.
89
www.bibliomath.com
Chapitre 3 Les systmes non linaires
La mthode de point fixe gnral pour le problme (3.4) est alors donn, pour
s > 0 un petit paramtre et x 0 E K , par
Il reste dterminer des critres sur la fonction <P pour que la mthode de point
fixe soit effectivement convergente.
Rappelons d'abord la dfinition d'une suite de Cauchy
Dfinition 3.3
Soient E un espace mtrique et (x Ck)hEN une suite de E . Nous disons que
(x<k)hEN est une suite de Cauchy lorsqu'elle vrifie : pour tout s > 0, il existe
Ne > 0 tel que pour tout k, l ~ Ne, d(x (k) , xCl)) ~ s.
90
www.bibliomath.com
3.2. Mthode de point fixe
+ d(x<k+l),x (k))
( (Lk+m - 1 + ... + L k) d (xCl>,x<O))
Lk d (x<') x<O)) .
1- L '
Puisque L k converge vers zro, lorsque k tend vers l'infini, nous avons prouv
que (xCk)h EN est une suite de Cauchy et donc puisque E est complet, le sous-
ensemble ferm K l'est aussi et la suite (x Ck))kE N est convergente vers un point
i E K. Signalons que la fonction <I> tant contractante, elle est continue donc en
passant la limite dans le schma itratif, nous obtenons i = <l>(i ). Puis, enfin
d (<I>(xCk) ), <l>(i)) = d (x<k+L),i) ( Ld (xCk),i).
Pour terminer la dmonstration nous vrifions que le point fixe de l'application <I> est
unique. En effet, soient i et y deux points fixes de <I> alors
91
Chapitre 3 Les systmes non linaires
L'avantage de cette mthode est qu'elle est trs gnrale lorsque la fonction va de
E dans E et fonctionne en dimension quelconque sans faire intervenir aucune drive
de la fonction cl>. Cependant, cette mthode n'est souvent pas trs efficace puisque
la convergence est seulement linaire. Nous construisons par la suite des mthodes
d'ordre plus lev.
Par la suite, nous donnons d'autres thormes de point fixe sous des hypothses
plus faibles.
Rappelons d' abord la notion de convexit qui joue un rle important dans la rso-
lution de problme non linaire et d' optimisation.
Dfinition 3.6
Une partie K de E est dite convexe si, pour tout x, y E K et tout E IR vrifiant
0 :( :( 1, le point x + (1 - ) y E K. Gomtriquement, cela signifie que
le segment de droite joignant deux points x et y de K est entirement contenu
dans K.
Dfinition 3.7
Nous disons qu'une partie K d'un espace vectoriel norm E est compacte si
toute suite de K possde une suite extraite convergente.
Nous nonons alors le thorme de Brouwer lorsque E est l'espace euclidien IR11
Thorme 3.8
1. Ici cela revient supposer que K est ferm, born et convexe dans E.
92
3.3. Ve rs la mthode de Newton-Raphson
93
Chapitre 3 Les systmes non linaires
sino n
a(k+ll = m et d k+l) = d kl,
- ca l cu l er e (k+l} = d k+l} - a(k+ 1l et k- k + 1.
Fi n de ta nt que
Observons bien qu' chaque itration l'intervalle encadrant la solution i telle que
f (i) = 0 est divis par deux, soit par rcurrence (b(k) - a (k) ) = (b(O) - a <0)) / 2k. Il
en rsulte que la mthode de dichotomie converge puisque b (k) - a Ck) tend vers zro
lorsque k tend vers l'infini. Nous pouvons donc choisir le temps d' ant N tel que
o y(x) est la fonction affine telle que y(aCO)) = f(a C0>) et y(bC0>) = f (b(O)).
L'avantage est que pour une fonction affine y, l' quation y (x) = 0 peut tre rsolue
exactement, pour tout x E [aCO), b(O) ]. En
"O effet, nous vrifions que y (xO>) = 0 avec
0 f(x) Itrations successives
c
::J - fo11ctmf(x)
0 x (l) = aCO) - f (a(O)) __b_co_)_-_a_co_>_
('\"')
,..-!
0
f (b(O) ) - f (a CO)) .
N
@ Gomtriquement, ceci revient remplacer
la courbe y = f(x) par la droite passant
~
..c
Ol
::::
>-
par les points (a<O) , f (aC0) )) et (b(O), f (b(O)))
a.
0 tandis que xU> est simplement l'intersec-
u
tion del' axe des abscisses avec cette droite.
Pour trouver une meilleure approximation
que x CI), il suffit de rpter le procd
soit sur l'intervalle [aCO), xU>] ou [xCl), b(O) ] Figure 3.2
Illustration de la mthode de la scante
selon le signe de f (aC0)) f (x<l)) comme pour approcher la solution de f{X) = O.
pour la mthode de dichotomie.
94
3.3. Vers la mthode de Newton-Raphson
Cette mthode peut se rvler plus effi cace puisqu' chaque tape nous rduisons
la taille de l'intervalle bien plus vite que pour la mthode de dichotomieen fonction
des variations de f .
Finalement, pour une fonction f : [a , b] r-+ R vrifiant f(a) f(b) < 0 et pour
un petit paramtres > O.
Mthode de la scante
Pose r a<0l = a , b(o) = b , k = O et s<0l = d0l - a<0l .
Tant qu e s(kl ~ e
(k) . (k) (k) a(k) - b (k)
- calc ul er x .=a - f(a )f(a<k)) - f(b{k))
s i f(a(k)) f(x<k)) < o. alors
k+1> = a<k> et b (k+1> = x( k>
sinon '
a(k+1> = x<k) et b(k+1) = H k> .
- calculer le rs idu s<k+1)=Hk+1l - a<k+1) et k f-- k +1.
Fin de ta nt que.
95
Chapitre 3 Les systmes non linaires
(3.8)
k ~ O.
Thorme 3.12
Convergence locale de la mthode de Newton-Raphson
Soient f E <ef'2([a, b], JR) et i E [a , b] une solution de (3.7) telle que f ' (i ) soit
"O non nul. Alors il existe 8 > 0 tel que pour tout x 0 E [i - , i + ] la suite (x (k)) kEN
0
c
::J
donne par (3 .8) est bien dfinie et converge vers i E [a , b]. En outre, il existe
0 une constante C > 0 telle que lx (k+l) - i 1 ( C lx (k) - i 12 . Nous disons que la
('\"')
T"-f
0
mthode de Newton-Raphson est au moins d' ordre deux.
N
@
~
..c
Ol
D MONSTRATION. Comme f
est de classe <rf2 ([a, b], JR) et f '(i ) est diffrent de
::::
>- zro, il existe 8 > 0, L > 0 et M > 0 tels que pour tout x E [i - 8, i + 8] , les valeurs
a.
u
0 f '(x ) sont diffrentes de zro et
1 1
( L' IJ"(x)I ( M.
lf'(x)I
En effet, en utilisant la continuit de f ' au point i, pour tout s > 0, il existe 8 > 0,
tel que pour tout x E [i - , i + ], IJ ' (x) - f '(i )I ( s, alors en notant a = f '(i )
96
3.3. Vers la mthode de Newton-Raph son
X
- - -21 ff "(''(x(O))
., c -
Yl(O))
X X
(0)) 2
.
Ainsi, en utilisant une majoration de l! "I et une mjnoration de l!'I, nous avons fi na-
lement
~ M lx<O) - xl2 ~ M 82 ~ 8.
lx(t) - xi "' 2L "' 2L "'
Nous procdons ensuite par rcurrence. Supposons que lx (k) - i 1 ( 8, par un calcul
analogue au prcdent, il vient
(3 .9)
.~
"O ~ Ainsi, en posant
0 'O
c
::J
c::
::::1
_.
e(k) = M lx(k) - il
0
('\'")
"'
Q)
2L '
Q)
T"-f
0
~
.;a nous obtenons en utilisant (3.9) que
N .....
_.
0
@ ::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0 Or, en ayant choisi au pralable x<
0 ) tel que e<0) = lx(O
)- M 8 / 2 L < 1, nous i 1 (
u (.)
"'
~
1
Remarque
'O
0
c::
Observons que cette mthode donne la conve rgence locale de la suite (x<k>)kEN vers
0
::::1
la solution x E [a,b] . Il faut donc partir d'u n point x<0) suffisamment proche de x, ce la
@ ncessite la co nnaissance a priori de la solution .x , ce qu i n'est pas toujours possible !
97
Chapitre 3 Les systmes non linaires
Nous venons de voir que sous certaines hypothses, la suite (x(k))kEN converge
vers la solution i E [a, b]. Nanmoins dans la pratique un critre d' arrt est
ncessaire pour stopper les itrations. Par exemple, le critre d'arrt peut tre
lx<k+J) - x <k) I < e, o e > 0 est un petit paramtre fix. Toutefois cela n' assure pas
chaque fois la convergence vers la solution i . En effet, considrons par exemple la
suite x <k) = E7=l l / l nous avons
mais x <k) tend vers l'infini. Remarquons qu'un autre choi x possible est le critre
IJcx<k>) I < e.
Exemple
2 2
Prenon s f(x) = x e- x , nous avons alors f ' (x) = (1 - 2x2 ) e- x . L'algorithme de la
mthode de Newton-Raphson s'crit x(k+ll = x(kl - x<k> / (1 - 2 lx<kll 2 ).
D'une part, en prenant x( 0> = 0, 3, nous
obtenons : 0 .5 ~------------~
f(x) - -
0.4 x0=0.3 +
k x<k> f(x<k X0=0.5 X
0 .3 x0=1.0 *
0 .2
0 0, 3 0, 274
0 .1
1 - 6 610- 02 - 6 610 - 02 0
' '
2 +5 , s 10- 04 +5 s 10- 04 -0. 1
' -0.2
3 - 3 s 10- 10 - 3 s 10- 10 -0.3
' '
4 +1 110- 28 +1 110- 28 -0.4
' ' -0.5
5 - 2 s 10- 84 X -2 1 0 2 3
' X
98
3.4. Mthode de Newton-Raphson dans JR11
Si de plus V7 f est continue par rapport x, nous disons que f est continment
diffrentiable, ou de faon quivalente que f est de classe <ef' 1(E , F).
f Uf---tF
-: f
xi x f---t x; (x)
pour i E { 1, ... , p}. Par linarit de V7 f (x ), nous vrifions que pour tout h E JRP,
h = (h1 , ... , h p)1" ,
p f
V7 f (x ) h = 2:
h; x (x) .
1
i= I
"O
0
c
::J
Pour tout i E { 1, . .. , p}, l' application h E E 1--4 h; E lR est une forme linaire
0 continue, c'est--dire un lment de ,C(JRP, JR). Nous la notons dxi. Ainsi, la diffren-
tielle de f au point x s'crit
('\"')
,..-!
0
N
@
~
..c
Ol
::::
>-
a.
u
0
Notons bien quel' existence de drives partielles n'est pas suffisante en gnral pour
qu'une fonction soit diffrentiable. En revanche,
Thorme 3. 1 5
100
3.4. Mthode de Newton-Raphson dans JR11
\7 f(x) = E Atq,p(lR).
fq (x) fq (x)
XJ Xp
b) Cas gnral
Supposons maintenant que E et F sont des espaces de Banach. Dfinissons alors les
fonctions lipschitziennes de la faon suivante:
Remarque
La dmonstration donne en fait l'ingalit plus fine
B ment si
0
..c::
p..
la fonction f est une bijection,
"'
~
1 la fonction f est de classe Ceff 1(U , V), c'est--dire continment diffrentiable
'O
0
c:: sur U,
::::1
0 la fonction inverse f- 1 est de classe <tf 1(V , U).
@
101
Chapitre 3 Les systmes non linaires
Parmi les consquences fondamentales du thorme d ' inversion locale, nous trou-
vons un rsultat tout aussi important, connu sous le nom de thorme des fonctions
implicites. Il concerne le problme qui nous occupe dans ce chapitre, c'est--dire la
rsolution d'quations non linaires.
Considrons trois espaces de Banach E , F et G et f : E x F r--+ G et recherchons
les solutions (x, y ) E E x F de l'quation f(x, y) = OF. Sous des hypothses que
nous allons prciser, nous pouvons en tirer y comme fonction de x : nous disons alors
que f (x, y)= 0 dfinit implicitement y, ou encore y comme fonction implicite de x .
Plus prcisment, nous avons :
f :
u r--+ G
(x, y) r--+ f (x,y),
une fonction de classe <&' 1( U , G) et notons \7 f = (\7x f, \7 y f ) le gradient de la
fonction f par rapport x E E et y E F . Supposons qu ' il existe (a , b) E U
tel que f (a, b) = 00 et \7 y f (a, b) E .C( F, G) est un isomorphisme de F sur G.
Alors il existe un voisinage ouve1t U(a , b) de (a , b) dans U , un voisinage ouvert
Wa de a dans E et une fonction <p E f 1(Wa, F ) tels que
"O
0 (x,y) E U(a, b), et f( x,y ) = Oa {::} y= q;(x).
c
::J
0
('\"')
T"-f
0 c) Drives d'ordre suprieur et dveloppements de Taylor
N
@ Commenons par dfinir une fonction deux fois diffrentiable puis enchanons sur
~
..c
Ol
les dveloppements de Taylor l'ordre suprieur.
::::
>-
a.
0 Dfinition 3.20
u
Une fonction f dfinie sur un ouvert (non vide) U d ' un JR-espace de Banach
E et valeurs dans un JR-espace de Banach F est dite deux fois diffrentiable
en x E U si elle est diffrentiable dans un voisinage ouvert Ux de x et si sa
diffrentielle \7 f: Ux r--+ .C(E , F) est diffrentiable en x . Nous disons que f est
deux fois diffrentiable dans U si elle est deux fois diffrentiable en tout point
de U.
102
3.4. Mthode de Newton-Raphson dans JR11
Prsentons galement une autre version de la formule de Taylor, valable sous des
hypothses encore moins fortes, et qui pour cette raison donne un rsultat local seule-
ment.
Thorme 3.22
Soient E , F deux espaces de Banach, U un ouvert de E et f U ~ F une
fonction n fois diffrentiable en x E U. Alors
11
o o(llhll") signifie qu'il existe une fonction E(h) telle que E(h)/ llhll" ~ 0
.<;::::
"Cl ~ lorsque h tend vers O.
0 "O
c c
::::>
Cl ....:::i
(V)
"'
~
3.4.2 Mthode de Newton-Raphson
~
.-1 'V
0 .~
N
0""'
.... Soient U un ouvert de R 11 et f E ~ 0 (U, R 11 ). Supposons dans cette partie qu'il existe
@
.
:::i
: i E U solution de f (i) = O. Nous souhaitons mettre au point une mthode num-
.c. c
0)
;::
0
c rique pour approcher cette solution. Pour cela, nous procdons de manire analogue
~
>-
o.. a. ce que nous avons fait pour des fonctions valeurs relles.
0 0
u (.)
0 Tout d'abord, nous choisissons une premire approximation xo E U dei et rem-
0
..s::::
o.. plaons ensuite la fonction f par son dveloppement de Taylor l'ordre un au point
~
~
x 0 , puis en itrant ce procd nous obtenons une suite (x(k))kEN donne par
1
"O
0
c
X (O) = xo E u'
:::i
Q (3.11 )
@ {
f (x<k>) + \7 f (x<k>) (x<k+J) - x<k>) = JR", k ~ O.
103
Chapitre 3 Les systmes non linaires
Pour chaque k E N, nous devons donc rsoudre le problme (3.11). Il nous faut
donc:
calculer la matrice jacobienne A = V7 f (x(k)),
s'assurer que cette matrice A E .4,1 , 11 (Il~) est bien inversible,
rsoudre le systme A x<k+ I) = - f (x (k) ) +A x<k) E ~n,
s'assurer que l' itr suivant x<k+ L) appartient bien V pour pouvoir continuer les
interactions suivantes.
Lorsque n = 1, nous avons facilement montr que la mthode de Newton-Raphson
est convergente et d' ordre deux. Nous allons voir que ce rsultat est toujours vrai en
dimension n ~ 1.
Thorme 3.23
Convergence locale de la mthode de Newton-Raphson dans ffi.11
Considrons f : V C ffi.11 1------7 ffi.11 une fonction deux fois diffrentiable et
dont la diffrentielle d'ordre deux est continue, c'est--di re que f est de classe
<ef'2 (V ' ffi.11 ).
Soit i E V tel que f (i) = 0 et la matrice \:7/ (i) est inversible. Alors :
il existe 8 > 0 tel que pour tout x 0 E B(i , 8), la suite (x(k))kEN donne par
(3.11) est bien dfinie et x (k) E B(i , o), pour tout k E N;
la suite (xCk))kEN donne par (3.11) converge vers la solution i E V;
il existe une constante C > 0 telle que llx (k+l) - i Il ~ C llx(k) - i 1
12 .
Ici B(i , o) reprsente la boule de ffi.11 de centre i et de rayon 8.
Un - B)-l = L Bk, ~
1
1-11s11
k ~O
104
3.4. Mthode de Newton-Raphson dans JR11
Lemme 3.25
Soient f : U c ffi.11 i-----+ ffi. 11 une fonction de classe <f/2 (U, ffi. 11 ) et i E U
tel que f (i) = 0 et \7 f(i) est inversible. Alors il existe L > 0, M > 0 et
un paramtre 8 > 0 vrifiant M 8/ L < 1, tels que pour tout x E B(i, 8),
Il [\7 f(x)]- 1 Il ~ 1/ L et de plus ll'Vf(x) - \7 f(y)ll ~ M llx - Yll -
"Cl
.<;::::
~ DMONSTRATION. Puisque f E <f/2 (U' ffi. 11 ), pour tout X E u le terme ll\72 f (x)ll
0 "O
c c est born sur tout sous-ensemble born de U et d'aprs le Thorme 3.16, pour un
::::>
Cl ....:::i rayon r > 0 fix, il existe M (r) > 0 tel que pour tout x, y E B(i , r) c U,
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
.... ll'V f(x) - \7 f(y)ll ~ M(r) llx - Yll-
@ :::i
. :
.c. c
0)
;::
0
c Remarquons bien que r est fix et quelconque; il reste donc montrer qu'il existe
>-
o..
~
a. 8 > 0 et L > 0 tels que pour tout x E B(i , 8), la matrice \7 f(x) est inversible et
0 0
u (.)
0
vrifie
0
..s::::
o..
~
~ Pour cela, nous crivons
1
"O
0
c
Q
:::i \7 f(x) \7 f(i) - \7 f(i) + \7.f (x),
@ \7 f(i) [In - ['Vf(i)]- 1 (\7 f(i) - \7 f(x))]
105
Chapitre 3 Les systmes non linaires
1
et posons B = [\7 /(i)] - (\7 f(i) - \7 /(x)), ce qui s'crit alors
Ainsi, puisque \7 f (i) est inversible, la matrice \7 f (x) est inversible ds que [/11 - B]
est elle-mme inversible. En vue d 'appliquer le Lemme 3.24, il nous suffit de montrer
qu'il existe 80 > 0 tel que pour tout x E B(i, 8 0 ), nous avons ll B ll < 1. Or d'aprs
ce qui prcde nous avons
et en prenant 8 0 > 0 suffisamment petit tel que M(r) Il [\7 f (i)] - 1 li 80 < 1, nous
avons pour tout x E B(i, 80), Il B Il < 1, ce qui signifie que pour tout x E B(i, 80), la
matrice \7 f (x) est inversible et
~
1 1
Il [\7 f (x)]- Il Il [\7 f (i)]- li llU11 - B)- 1 li,
1 1 1
~ Il [\7 f(i)]- 11 1 - llB ll - L
Nous choisissons finalement M := M(r) et 8 E]O, 8 0 [ tel que M(r) 8/ L < 1, ce qui
conclut la dmonstration. D
Enfin, le troisime lemme assure l' existence de la suite (x<k)h EN obtenue l'aide
de la mthode de Newton-Raphson.
Lemme 3.26
Soient w un ouvert de ffi.n et f : w f---+ ffi.n une fonction telle que f E tf 1(w , ffi. 11 ),
\7 f (x) est inversible pour tout x E w et il existe L > 0 et M > 0 vrifiant
106
3.4. Mthode de Newton-Raph son dans JR11
D'autre part, l ' aide de la formule de Taylor-Young avec reste intgral, nous avons
aussi
nous avons
D'o,
Il f (x<k))ll
~ sup (llV' f(x <k- 1) + t (x(k) - x<k-1))) - \7 f(x<k-1))1
1) llx(k) - x<k-1)11,
tE]0, 1[
~ sup (Mt llx(k) - x<k-1 ) Il) llx(k) - x<k-1 ) Il'
t E]O, I[
107
Chapitre 3 Les systmes non linaires
Puis,
llx<k+J) - i ll llY' f(x(k))- 1 Y' f(x(k)) (x<k+l) - i) ll
( ll Y' f (x(k))- 1 li llY' f (x(k)) (x(k+l) - i)ll
Or, en ayant choisi au pralable x<O) tel que e<0) = M lx<O) - i 1/ L ( M / L < 1,
nous montrons que la mthode de Newton-Raphson est bien localement convergente.
D
Ce thorme montre la convergence locale de la mthode de Newton-Raphson,
c'est--dire que si x 0 est suffisamment proche d'une solution f (i) = 0, alors la suite
(x(k))kEN converge vers i. Concernant la convergence globale, nous en savons trs
peu et nous ne pouvons analyser que que.l ques cas de fonctions simples.
"Cl Un exemple classique de convergence 15
c
0
::::i
globale est f (z) = 0, o E C, avec z 10
0
3
(V)
.-1
f(z) = z - 1, zEC 5
0
N
ou encore 0 -~mi~..:-.....~
@
. 3 2
- 3x y 1 )
..c
Ol
;::
.f.(x, y ) = ( x
3x2 y - y3
-
'
-5 -
>-
a.
0
u avec z = x + i y et pour lequel l'itration
devient
-10 -
-15
l
-15 -10 -5 0 5 10 15
Figure 3.4
Donnes initiales convergeant vers la solu-
tion z = 1 (noir), z = - (1 - ./3)/2 (gris) et
z = (- 1 - ./3)/2 (blanc).
31 (
2z
(k) 1
+ (z<k))2
)
.
108
Exercices
Exercices
=~
.~
"O ~ x(k+ I) ( x(k) + _.!!.__)
0
c
'O
c:: 2 x (k )
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
1. Montrer que cela correspond au choix de la mthode de Newton-Raphson avec
0
N
.;a
..... f(x) = x 2 - a.
_.
0
@ ::::1
2. Considrons maintenant le problme du calcul de J2. Cela revient trouver le
~
..c
Ol
"'c::
0 zro positif a = J2 de la fonction f(x) = x 2 - 2.
::::
c::
Posons <f>(x) = - x 2 / 4+x+ 1/ 2. Vrifi er que a = J2 est un point fixe de la fonction
Q)
>-
a.
0
s..
0
u et montrer que <f>([l, 2]) c [l , 2]. En dduire que pour tout x< 0 ) E [l , 2], il existe une
(.)
B
constante C > 0 telle que lx(k) - a l :( ck lx(O) - a l pour tout k ~ O .
0
..c::
p..
"'
~
1
3. Quel est le comportement de la suite (x(k)hE N lorsque k ~ +oo?
'O
0 4. Combien d'itrations de la mthode de point fixe sont ncessaires pour trouver
c::
0
::::1
une valeur approche de J2 qui soit exacte jusqu 'au huitime chiffre aprs la vir-
@ gule?
109
Chapitre 3 Les systmes non linaires
a le(k) la ( le(k+l) 1,
2 -x 3
cp(x) = 3 x2 + x.
110
Exercices
- 5 xi + 2 sin(x 1) + 2 cos(x2) = 0,
{ 2 cos(x1) + 2 sin(x2) - 5 x2 (3.16)
= 0,
Notons i = (i 1, i 2) une solution de ce systme.
l . Mthode du point fixe
Montrer que ce systme peut s'crire sous la forme ef>(i) = i o</> est strictement
contractante pour la norme 11-11 1
Vrifier que la solution i est unique.
partir de la fonction </>, construire une suite (x(k)h EN qui converge vers i et
estimer la vitesse de convergence.
2. Mthode de Newton
crire une mthode de Newton pour le systme (3.16).
La solution est-elle toujours bien dfinie?
.~
"O ~ 3.7 Calcul d'lments propres
0 'O
c
::J
c::
::::1 Considrons A E .4;1 , 11 (1R) une matrice symtrique et E lR une valeur propre
_.
0
('\'")
"'
Q) simple de A et v E JR11 un vecteur propre associ tel que llv112 = 1.
Q)
T"-f
0
~
.;a l . crire le systme sous la forme F(x, A) = 0 o F est une fonction de JR1z+ 1 dans
N .....
@
_.
0
::::1
JR'i+ 1. En dduire la mthode de Newton-Raphson associe ce problme .
~
..c
Ol
"'c::
0
2. Calculer \7 F et montrer que la solution est bien dfinie et que la suite converge
c::
:::: Q) localement.
>-
a.
0
s..
0
u (.)
111
Chapitre 3 Les systmes non linaires
1
lc/J(x) - </>(a)I ~ 2 lx - a l, '/ x E [l , 2],
lx(k) - al ~ 2 2 k lx (O) - a l.
1 lx (k- 1) - a l ~ . . . ~ (l) (3.17)
3. Le terme (l / 2)k tend vers zro lorsque k ~ +oo. Nous montrons alors, en passant
la lime dans (3.17), que la suite (x(k))kEN converge vers a lorsque k tend vers
l 'infini.
4. Nous souhaitons calculer pour quel entier ko E .N, nous sommes assurs que
o-
lx(ko) - a 1 ~ 1 8 . Il suffit pour cela que
"O
0
lx (k+l) - i l
c
::J
0
(\"')
......
0
N
@
......
..c
En factorisant par e(k) e(k-l) et en insrant le terme (x(k) - x(k-l))/ (x(k) - x (k - l \
Ol
:::: nous avons
>-
a.
u
0 x(k) _ x (k- 1)
le(k+l) I = f (x(k))f (x(k- 1)) x(k) _ x (k - 1)
112
Exercice s
D'autre part,
1 ('-.J _ _
Ainsi,
D'o a L+L / ac- 1 '.:::: le(k) l l-a+l / a, ce qui signifie que 1 - a+ 1/ a = 0 autrement dit
a = o + VS)/2.
I 2 4
<P (x) = - - + - 3
3 3x
.~
"O ~
0
c
'O
c:: et donc l</>'(x) I ~ 2/ 3, ce qui signifie que
::J ::::1
_.
0
('\'")
"'
Q)
2
T"-f
0
N
Q)
~
.;a
.....
lc/J(x) - </>(y)I ~ 3 lx - YI, V x, y E [1, 2]
_.
0
@ ::::1
~
..c
Ol
"'c::
0
et </>([1, 2]) c [1, 2]. Ainsi, la mthode itrative x<k+l) = efJ(x(k)) est convergente pour
c::
:::: Q) tout x<O) E [1, 2].
>-
a. s..
u
0 0
(.) 2. Il suffit d'observer que c/J'() = 0, un dveloppement de Taylor donne alors
B
0
..c::
~ ) cp
p.. 2
"'
~
1
efJ(x) = </>()+(x - )</>'()+ (x 11
(17), avec 1J E [1 , 2].
'O
0
c::
0
::::1
cela donne lx<k+l ) - a l ~ C lx (k) - l2 et la mthode est d'ordre deux.
@
113
Chapitre 3 Les systmes non linaires
En agpliquant le Thorme 3.12, nous montrons que la suite (x(k)hE N est convergente
si xC ) appartient un voisinage de la solution i E R.
Ici, il est possible de montrer que la convergence est globale. En effet, supposons par
exemple que x(O) ( i puisque la fonction f est croissante f (x(k)) ( f (i ) = 0 et
la suite est donc croissante et borne, elle est donc convergente vers son point sta-
tionnaire i E R. Par un raisonnement analogue, nous montrons que lorsque x(O) ~ i,
la suite converge vers i E R .
L'estimation du Thorme 3 .12 donne
114
Exercices
Ainsi, en utilisant la stricte positivit de p' et p" pour tout x > x 1, nous dmontrons
que x 1 < x< 1> < x(O).
Par rcurrence, nous tablissons que la suite (x(k))kE N est strictement dcroissante et
minore x 1 < x(k+l) < x(k). La suite (x(k>)k~O est donc convergente. Notons par
x sa limite et montrons que x = x 1 . Par passage la limite dans la mthode de
Newton-Raphson, il vient .X = .X - p(i)/ p'(x), ou encore
p(i) = 0
p'(i) '
comme .X ~ x 1 , nous savons que p'(x) > 0 donc .X est la plus grande racine de p,
c'est--dire .X = x 1.
3. D'autre pait, puisque pour tout x ~ x 1 , p"'(x) ~ 0, il vient p"(x(k)) ~ p"(x(O))
et p'(x(k)) > p'(x 1), donc
"( (0))1
x(k+I ) - X 1 ~ 1p X lx (k) - X 12
l
' " 2 lp'(xi)I i ,
1 15
Chapitre 3 Les systmes non linaires
"O
0
La mthode de Newton est bien dfinie pour toute donne initiale lorsque la matrice
c
::J \7 f(x 1 , x 2 ) est inversible en tout pointx = (x 1,x2 )7" E IR2. Vrifions alors
0
(\"')
......
0
N
det(\7 f(x)) = 25 - 10 (cos(x2) + cos(x 1)) + 4 cos(x 1 + x2 ) ~ 1,
@
......
..c ce qui signifie que \7 f (x 1, x2 ) est inversible et la suite (x(k))kEN est donc donne,
Ol
:::: pour x<0 ) E IR2, par
>-
a.
0
u
ou encore
116
Exercices
Pour que cette suite soit bien dfinie, il suffit que V' F soit inversible en (v , ) E ffi.11+1.
2. Le calcul du jacobien V' F donne alors
\7 F(v , ,) ( ~) Ont""
Ax - x - v = 0 (3.18)
et
2vT x = O. (3.19)
En multipliant (3 .18) par v et en utilisant le fait que A est symtrique, nous obtenons
.~
"O ~
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)
et comme A v = v et vT v = 1, ceci entrane forcment que = O.
Q)
T"-f ~
0 .;a Ensuite en prenant = 0 dans (3.18), il vient A x - x = 0, c 'est--dire que
N .....
_.
0
@ ::::1 x E Ker( A - ln) = ffi. v car est une valeur propre simple. Or d'aprs (3.19), nous
~
..c
Ol
"'c::
0 savons que vT x = 0, ce qui signifie que x est la fois colinaire v et orthogonal
c::
::::
>- Q)
s.. v, donc x = O.
a. 0
0
u (.) D'aprs le Thorme 3.23, la mthode de Newton-Raphson pour la recherche d' une
B
0
..c:: valeur propre simple d'une matrice symtrique est donc localement convergente.
p..
"'
~
1
'O
0
c::
::::1
0
@
117
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
OPTIMISATION
L'optimisation est un sujet vaste dont l'objectif est d'agir sur un systme afin
d'en amliorer les performances et de rechercher la solution qui offre le meilleur
rendement. Les applications concernent autant l'conomie que la gestion des
ressources ou encore la conception optimale. D 'un point de vue mathmatique,
l' optimisation revient rechercher le minimum ou le maximum d'une fonction
sachant que l'inconnue satisfait des contraintes qui dpendent du problme phy-
sique.
4.1 INTRODUCTION
Commenons par donner un exemple pratique de problmes d'optimisation.
1. C'est au XVII e sicle que Gaspard Monge (1746- 18 18) se propose dans un mmoire intitul Sur
la thorie des dblais et des remblais, d'tudier comment dplacer au mieux un tas de sable en lui
appliquant une mthode rigoureuse dite optimale . De nos jours, ce type de problme de recherche
oprationnelle dsigne l'ensemble des mthodes permettant de traiter de manire systmatique et
efficace des problmes de combinatoires.
Chapitre 4 Optimisation
Il faut donc chercher une solution optimale parmi tous les arrangements possibles,
c'est--dire parmi toutes les bijections des indices {1 , 2,3 , 4} vers eux-mmes. Le
nombre d'arrangements possibles des n premiers entiers s'appelle la factorielle n, ici
nous avons donc 4! = 24 possibilits. Trouver la solution optimale revient minimi-
ser un cot, que 1' on choisira ici comme la distance euclidienne entre les points de
dpart et les points d' arrive. Une solution naturelle consiste donc explorer les 24
possibilits et ne retenir qu' une solution parmi celles dont le cot est le moins lev.
Cette mthode est beaucoup trop coteuse lorsque le nombre de points devient trop
lev, il s'agit alors de mettre au point des algorithmes numriques rapides qui slec-
tionnent la bonne solution. Pour cela, il est indispensable de proposer une formula-
tion mathmatique adapte puis d'tudier les particularits de la solution de manire
diminuer le cot de calcul.
Lorsqu'il ne s' agit plus seulement de dplacer des particules mais un volume
0 0 c Rd vers un autre volume 0 1 c Rd, tels que mes(flo) = mes(fi 1), o mes(.)
dsigne la mesure au sens de Lebesgue (voir [32]), le problme de transport optimal
consiste rechercher un 1&7 1-diffomorphisme T : 0 0 i---+ 0 1 o T est un oprateur
de transport prservant le volume, c'est--dire pour tout volume A c 0 0
/ llx - T(x)ll 2 dx ,
Jno
lequel peut tre identifi au carr d'une distance.
Le problme s'crit alors: trouver T vrifiant (4.1) tel que
'O
{ llx - T(x)ll 2 dx
} ['
= ajn { llx - T(x)ll 2 dx.
T venfiant } ['
0 HO (4. l) HO
c
::J
0
('\"')
,..-!
Plus gnralement, dans ce chapitre nous considrons E un R-espace vectoriel,
0
N une fonction f : K i---+ R, o K est un sous-ensemble de E et nous nous intressons
@ la recherche des minima i tel que
~
..c
Ol
::::
>-
a.
i E K tel que :
u
0
{ f(i) = min
.. f(x).
xEK
Par la suite, nous tudions des problmes d'optimisation sans contrainte, c'est--
dire lorsque K recouvre tout l'espace E et donnons alors des conditions pour l' exis-
tence et l' unicit de solutions et mettons en uvre quelques algorithmes de rsolu-
tion. Enfin, nous traitons le cas gnral de problmes d'optimisation sous contraintes.
120
4.2. Optimisation sans contrainte
ou un minimum local, c'est--dire un point i E E pour lequel il existe a > 0, tel que
Dfinition 4.1
Soient E un JR-espace vectoriel, K C E un ensemble convexe et f :K ---+ JR.
f est une fonction convexe si elle vrifie f (tx +(1 - t)y) ~ tf (x)+(l - t)f (y),
pour tout x, y E K ett E [0, 1],
f est une fonction strictement convexe si f (tx+(l - t)y) < tf (x)+(l - t) f (y),
pour tout x , y E K tel que x =J. y et t E ]0, l[.
Prsentons alors des proprits permettant de caractriser la convexit d' une fonc-
tion .
.~
"O ~
'O
Proposition 4.2 Caractrisation de la convexit
0
c c::
0
::J ::::1
_. Soient E un JR-espace vectoriel norm, K c E un ensemble convexe et
"'
('\'")
T"-f
Q)
Q)
~
f : K 1---+ lR une fonction diffrentiable sur K. Alors la fonction f est convexe
0
N
.;a
..... si et seulement si pour tout x, y E K , f(y) ~ f(x) + \7 f(x)(y - x). Elle est
_.
0
@ ::::1 strictement convexe si l'ingalit est stricte pour x =J. y.
~
..c
Ol
"'c::
0 En supposant de plus que f est deux fois diffrentiable, f est convexe si et seule-
c::
::::
>- Q)
s.. ment si pour tout x, y E K , (y - x)T\72 f(x) (y - x) ~ O. Elle est strictement
a.
u
0 0
(.) convexe si l' ingalit est stricte pour x =J. y.
B
0
..c::
p..
"'
~
1
DMONSTRATION. Supposons que f est une fonction convexe. Pour x , y E K et
'O
0 t E [0, l], par dfinition de la convexit nous avons
c::
::::1
0
@ f(t y + (1 - t)x) ~ t f(y) + (1 - t) f(x) (4.4)
121
Chapitre 4 Opt imi sati on
ou encore
f (x + t (y - x)) - f (x) ~ f(y) _ f (x).
t
Puisque la fonction f est diffrentiable, en faisant tendre t vers 0, nous obtenons
alors f (y) ~ \7 f (x) (y - x) + f (x).
Lorsque f est strictement convexe, l'ingalit est stricte pour x =!= y et t E]O, 1[
mais elle devient large par passage la limite. Pour dmontrer qu'effectivement
\7 f (x) (y - x) < f (y) - f (x), observons que pour touts > 0,
s- t t
X + t (y - X) - - x + - (x + s(y-x)),
s s
d'o pour 0 < t < s < 1,
f (x + t (y - x)) - f (x) f(x + s (y - x)) - f (x) f ) f )
< < (y - (x .
t s
Nous obtenons l'ingalit stricte souhaite en gardant s fix et en faisant tendre t
vers O.
Montrons maintenant la rciproque. Prenons x , y E K , et t E]O, 1 [ puisque pour
t = 0 et t = 1 nous n'avons rien dmontrer. Nous avons d'une part
et d'autre part
1)]~ l
@
~
..c
Ol
::::
(cp'(t)(t - - cp"(t)(t - l)dt ,
>-
a.
0
u
l
c'est--dire,
/(y,) - f(x) = cp'(O) + cp"(t)(l - t)dt.
12 2
4.2. Optimisation sans contrainte
T"-f
0
Q)
~
.;a
DMONSTRATION. Supposons d'abord que f est convexe et admet un minimum
N ..... local .X E K. Pour tout t E]O, l], nous avons par convexit de f, pour tout x E K
_.
0
@ ::::1
f(x + t(x - i )) - f (.X) ~ t(f (x)- f(x)) et puisque le membre de gauche est positif
~
..c "'c::
Ol
::::
0
c:: ou nul pour t > 0, cela signifie que f (x) - f (.X) ~ 0 pour tout x E K , .X est donc
un minimum global. Ensuite, lorsque f est strictement convexe, nous raisonnons de
Q)
>-
a. s..
0
u
0 (.)
B manire analogue mais l'ingalit est stricte f(x) - f(i) > 0 pour x E K. D
0
..c::
p..
"'
~ 4.2.2 Rsultat d'existence et unicit
1
'O
0
c::
Commenons par donner des conditions ncessaires et suffisantes pour qu'un pro-
0
::::1
blme de minimisation sans contrainte possde au moins une solution. Tout d'abord,
@ prsentons une condition ncessaire simple.
123
Chapitre 4 Optimisation
\7 f (i) Z + Ez(t) ~ 0.
Donnons par la suite quelques rsultats d' existence lorsque E est un espace de
"O dimension finie ou infinie. Avant d 'noncer ces rsultats, dfinissons l'application
0
c
::J
produit scalaire hermitien sur E , un IK-espace vectoriel E , par
0
('\"')
,..-!
0 Dfinition 4.5
N
@
Un produit scalaire hermitien ( , ) est une application de E x E valeur dans
~
..c
IK = ffi. ou <C telle que pour tout x E E, \x , x) E ffi.+ et
Ol
::::
>- pour tout x, y E E, (x, y) = \y, x),
a.
u
0 pour tout x, y et z E E et E IK, (x + Az, y) \x, y) + (z, y),
\x, y) = 0 pour tout y E E {::::::::} x = OE.
llxll=~.
124
4.2. Optimisation sans contrai nte
Dfinition 4.6
L'espace vectoriel (E, 1111) est un espace de Hilbert lorsque E est un espace
vectoriel munj d'un produit scalaire(. , .) et de la nonne li.li et que cet espace est
complet pour la topologie induite par (., .) .
Exemple
L'espace !Rm muni du produit scalaire euclidien est bien sr un espace de Hilbert
de dimension finie.
.-1
0
~
'V Lorsque E est un espace de Hilbert de dimension infinie, nous pouvons gale-
.~
N
0""'
.... ment tablir l'existence d'un minimum mme si la boule ferme BR n'est en gnral
@
.
:::i
: pas compacte : il faut alors ajouter une hypothse de convexit sur la fonction f
.c. c
0)
;::
0
c minimiser [2][Thorme 9.2.7].
~
>-
o.. a.
0
0
u (.)
0
0
..s::::
~
o.. Soient E un espace de Hilbert ventuellement de dimension infinie et f une
~ fonction convexe continue et telle que
1
"O
0
c
li m f (x) = +oo. (4.5)
:::i llxlJ --Hoo
Q
@ Alors il existe i E E solution de (4.2).
12 5
Chapitre 4 Optimisation
Notons enfin que l'hypothse (4.5) de la Proposition 4.8 peut tre remplace par
l'hypothse suivante : il existe b E E et R > 0 tels que pour tout llxll ~ R,
f(x) ~ f(b).
Concernant l' unicit d'un minimum, observons que les hypothses de la Propo-
sition 4.7 ne permettent pas de conclure. Pour s'en convaincre, prenons simplement
E = lR et f (x) = x 2 (x - l)(x + 1) qui a plusieurs extrema. Pour obtenir l'unicit de
la solution i, nous avons besoin de la notion de convexit.
1 1 ) 1
f ( 2.x + 2.Y < 2 (f(i) + f(y)) = ~~ f(z) ,
"O
Thorme 4.1 0 Existence et unicit
0
c
0
::J Soient E un espace de Hilbert et f une fonction de E --+ JR. Supposons que :
(i) la fonction f est continue,
('\"')
T"-f
0
N
@
(ii) la fonction f vrifie f(x)--+ +oo quand llxll --+ +oo,
~
..c (i i i) la fonction f est strictement convexe.
Ol
::::
>-
a.
Alors il existe un unique .X E E solution de (4.2).
0
u
f(x) = 1 x r Ax - b r x.
2
126
4.2. Optimisation sans contrainte
Alors f E '6'00 (Irr , ~). Le ca lcul du gradient de f donne 'V f(x) = (Ax + Ar x)/ 2 - b .
Donc, si A est symtrique 'V f(x) = Ax - b tandis que le calcul de la hess ienne de
f donne
Mthodes de descente
Soit f E ~0 (ffi.m , ffi.). Supposons qu'il existe i E ffi.m solution de (4.2) ou (4.3).
Nous allons maintenant dvelopper des mthodes itratives permettant d'approcher
ce point i E ffi.m. Pour cela, la premire tape consiste construire des algorithmes
de descente o nous recherchons des directions permettant de rendre les valeurs de la
fonction f de plus en plus petite chaque itration.
Prcisons d' abord ce que signifie la notion de direction de descente .
.~
"O ~
0 'O
c c::
0
::J ::::1
_. Dfinition 4.1 l
('\'")
"'
Q)
Soient f E ~(ffi.m, ffi.) et x E ffi.m.
Q)
T"-f ~
0 .;a
N .....
_.
0 le vecteur w E ffi.m \ {O} est une direction de descente en x s'il existe p 0 > 0
@
tel que f (x + p w) ~ f (x), pour tout p E [O, Po],
::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
le vecteur w E ffi.m \ {O} est une direction de descente stricte en x s'il existe
>-
a.
0
s..
0 Po > 0 tel que f (x + p w) < f (x), pour tout p E ]0, Pol
u (.)
B
0
..c::
p..
Ainsi, une mthode de descente pour la recherche de i E ffi.m solution de (4.2) ou
"'
~
1 (4.3) consiste construire deux suites (x (k)h EN et (w Ck)h EN telles que w Ck) soit une
'O
0
c:: direction de descente stricte en x(k) vrifiant x(k+I) = x (k) + P k w Ck), avec P k > 0
::::1
0 bien choisi.
@
127
Chapitre 4 Optimisation
Pour mettre en place cette mthode nous avons donc besoin de fournir une indica-
tion pour bien choisir la direction de descente stricte w (k) au point x(k) et le scalaire
Pk > O. Pour cela, dmontrons le rsultat suivant.
DMONSTRATION. Pour x , w E ffi.m , dfinissons la fonction 'P : ffi. f--7 ffi. par:
<p(p) = f (x + p w ) . Nous avons alors 'P E 1&7 1(ffi. , ffi.) et <p'(p) = wT \7 f (x + p w ) .
D'une part, considrons w E ffi.m \ {O} une di rection de descente au point x, il
existe alors p0 > 0 tel que f (x + p w ) < f (w), pour tout p E]O, p 0 ] ou encore
<p(p) ~ <p(O), pour tout p E]O, Pol
Ainsi, pour tout p E]O, Po]
'P(P) - <p(O)
~ O.
p- 0
En passant la limite lorsque p ---? 0, nous en dduisons que <p1(0) ~ 0, ce qui signifie
que wT \7 f (x ) ~ 0, ce qui montre le premier rsultat.
D'autre part, choisissons w = - \7 f (x) # 0 et obtenons alors
"O
Puisque <p 1 est continue, il existe Po > 0 tel que pour tout p E [0, po], <p1(p) < O.
0
c Ainsi, pour tout p E]O, p 0 ], il vient
::J
0
('\"')
,..-!
0
f (x +pw) - f(x ) <p(p) - <p(O) ,
N
@
~
foP<p' (s )ds < 0,
..c
Ol
::::
>-
a.
0 ce qui prouve que w est une di rection de descente stricte en x . D
u
Nous en dduisons alors la premire mthode du gradient pas fixe.
128
4.2. Optimisation sans contrainte
D MONSTRATION. Soit 'P : IR r--+ IR dfinie par <p(t) = f(x + t (y - x)). Nous
avons
.~
/(y) - f(x) = <p(l) - <p() = l (y - x)' \7 f(x + t (y - x)) dt .
"O
0
~
'O
Puis en retranchant (y - x l \7 f (x) et en utilisant la premire hypothse, il vient
c c:: alors pour x -=f. y
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
f (y) - f (x) - (y - x/\7 f (x)
0 .;a
N .....
@
_.
0
[1 t (y - xl [\7 f(x + t (y - x)) - \7 f(x)] dt,
~
::::1
"'c:: Jo t
;: , al
..c 0
Ol c::
::::
>-
a.
0
Q)
s..
0
t ll Y- xll 2 dt,
u (.)
B
0
a 2
..c::
p.. 11y - x ll > 0,
2
"'
~
1 ce qui montre que f est strictement convexe. En outre, en prenant x = 0 dans l'in-
'O
0
c:: galit prcdente, il vient
::::1
0
@ f(y) ~ f(O) + YT \7 f(O) + ~ llYll 2
129
Chapitre 4 Optimisation
Puisque IYT V7 f(O)I ~ l V7 f(O)ll llYll, nous avons YT V7 f(O) ; ;: : - llV7 f(O)ll llY ll et
f(y) ;;;::: f(O) - llV7 f(O)ll llYll + ~ llYll 2 --7 +oo,
lorsque llYll --7 +oo. Puisque la fonction f est galement continue, par application
du Thorme 4.10, il existe un unique minimum de f.
Posons ensuite <l>(x ) = x - p\;7 f(x). La mthode du gradient pas fixe est une
mthode de point fixe pour <I>, dfini par x<k+ t) = x (k) - p\;7 f (x (k) ) = <l>(x(k)).
Nous vrifions facilement que <I> est strictement contractante lorsque 0 < p < 2{ et
donc par application du Thorme 3.4, la suite (x(k)hEN converge donc vers l'unique
point fixe de <I>. D
- itrer k~ k + 1.
"O Fin de t a nt que.
0
c
::J
0 Nous obtenons un rsultat analogue celui du Thorme 4.13. Cependant, il n' est
('\"')
T'-f
pas toujours vident de calculer le pas optimal P k E JR+ qui est solution d'un pro-
0
N blme de minimisation en dimension un. Dans la suite, nous tudions un cas parti-
@ culier important o la fonction f est une fonctionnelle quadratique qui prsente un
~
..c
Ol
intrt spcifique pour la rsolution de systmes linaires et pour lequel le pas optimal
:::: peut tre calcul chaque tape.
>-
a.
0
u
4.2.4 Cas d'une fonctionnelle quadratique : la mthode
du gradient conjugu
La mthode du gradient conjugu consiste minimiser la fonctionnelle quadratique
f (x) de la forme
130
4.2. Optimisation sans contrainte
Dfinition 4.14
Soit A E .4i"m,m(R) une matrice symtrique dfinie positive. Nous disons que
deux vecteurs non nuls v et w de Rm sont A-conjugus lorsque wTA v = vTAw = O.
De plus, la famille {w (l), ... , wCP)} de Rm, compose de vecteurs non nuls, est
dite A-conjugue si (w (i))T A w <n = 0 pour tout couple (i, j) E {l , . . . , p } 2 tel
que i # j.
Nous avons alors le rsultat suivant qui dcoule du fait que la matrice A dfinit un
produit scalaire.
Proposition 4.1 5
Soient A E .4i"m,m(R) une matrice symtrique dfinie positive et { w(l), ... , wCP) }
une famille de Rm .
Si la famille { w(l), ... , wCP)} est A-conjugue alors elle forme une famille
libre.
Dans le cas o p = m si la famille { w<l), ... , w<m) } est A-conj ugue alors elle
forme une base de Rm.
B
0
..c::
p..
L ak ( w (k) l A w (io) = 0
k= l
"'
~
1
'O
0
et puisque la famille est A-conjugue, nous en dduisons que aio w Uo)T A wUo) = O.
c::
::::1 Or, wUo)T A w Uo) > 0 car wUo) est non nul et A est dfinie positive, ce qui signifie
0
@ que aio = 0 pour tout io E { 1, . . . , p}. La famille (w< 1), ... , w<P)) est donc libre. D
131
Chapitre 4 Optimisation
Puis en multipliant par (w<i)f A , nous obtenons alors l' expression du coefficient /3i
pouri E {1, ... , m}
br w<i)
/3 i = ( w <i))T A w <i)
Nous avons donc une mthode de rsolution du systme linaire ncessitant seule-
ment m tapes. La principale difficult est de construire une famille de m vecteurs
A-conjugus. Nous pouvons facilement vrifier que l'ensemble des vecteurs propres
de la matrice A constitue une famille A-conjugue. Cependant, cette mthode se
rvle en dfinitive trop onreuse.
Mettons au point une mthode plus simple : la mthode du gradient conjugu.
Elle consiste construire une suite ( w<k))k de directions A-conjugues et une suite de
solutions approches (x<k)h bases sur la mthode du gradient pas optimal.
Pour x<O) E Rm, construisons d'abord une direction de descente en x(O) en uti-
lisant la Proposition 4.12, ce qui donne w< 0) = -\7 f(x<0)). Notons bien que si
\7 f (x<0) ) 0, l' algorithme est termin puisque x<O) = .X. Nous avons alors pour
kE N
(4.6)
o d'une part w<k) est une direction de descente en x(k) et Pk E R+ est donn par la
mthode du gradient pas optimal, c'est--dire que f (x(k) + Pk w <k) ) ~ f (x(k)+pw <k) ),
pour tout p E R+.
Ce problme de minimisation admet bien une seule solution x(k), w(k) E Rm fixs.
"O
0 En effet, considrons la fonction <p : R+ ~ R donne par <p(p) := f (x <k) + pw(k) ),
c
0
::J continue, strictement convexe et telle que <p(p) --? +oo lorsque p --? +oo. Ainsi, en
('\"')
,..-!
appliquant le Thorme 4.10, <p admet un unique minimum Pk E R+ et puisque <p est
0
N
drivable, il vient <p1(pk) = 0, c'est--dire (w(k))T \7 f (x (k) + Pk w<k) ) = 0, ou encore
@ en utilisant que \7 f (x) = A x - b,
~
..c
Ol
:::: ( w<k)f (A x<k) - b)
>-
a. Pk = (4.7)
0 (w(k) )T A w(k)
u
Choisissons ensuite une direction de descente en x<k+t) de s01te que la famille
(w<i))O~.i~k+I soit A-conjugue. Pour cela, en nous inspirant de la Proposition 4.12
et en assurant que w<k+L) et w<k) sont A-conjugus, nous posons
(4.8)
132
4.2. Optimisation sans contrai nte
o ak E Rest calcule de sorte que les vecteurs w<k+I) et w <k) soient A-conjugus
V7 f (x <k+l)l A w<k)
(4.9)
( w <k))T A w<k)
premire vue cette condition, reliant w<k+t) x<k) et w<k), permet simplement de
construire une direction de descente en x <k) qui est A-conjugue la direction w<k).
Pourtant, elle suffit assurer que toute la fam ille (w<i))o~i :k+ 1 est A-conjugue.
Proposition 4.16
Supposons que pour tout k E {O, . . . , m - 1}, le vecteur V7f (x(k)) # O. Alors la
famille (w<O)o~i~m- J construite par (4.6)-(4.9) est A-conjugue et de plus vrifie
(V7f(x <l)))T V7f(x(k)) = 0, \fk # l, (4.10)
( w <l)) T V7 f(x (k) ) = 0 , Vk # l. (4.11)
133
Chapitre 4 Optimisation
Alors l' algorithme du gradient conjugu dfinit une suite (x(k))o~k~p avec p :::;; n
telle que x(P) = i avec A i = b.
134
4.3. Opti mi sation sous co ntraintes
135
Chapitre 4 Optimisation
Par la suite, nous tudions les deux situations de contraintes d' galits et d' inga-
lits.
Exemple
D'une part, lorsque l'ensemble des contraintes K c ffi.m est linaire, les fonctions
g; sont des fonctions affines, c'est--dire qu'il existe a; E ffi.m et b; E ffi. pour tout
1 ::::; i ::::; n tels que g;(x) = aT x + b;. Si de plus f est aussi linaire , c'est--dire
qu'il existe c E ffi.m tel que f(x) = cr x, alors le problme de minimisation est
simplement un problme de programmation linaire.
D'autre part, lorsque l'ensemble des contraintes K est linaire et f est une fonc-
tionnelle quadratique, c'est--dire que f est de la forme
Lorsque E est un espace de Hilbert de dimension infinie, nous avons aussi le rsul-
tat suivant [2].
136
4.3. Optimisation sous contraintes
Pour obtenir l'unicit il faut comme dans la cas de 1' optimjsation sans contrainte
ajouter l'hypothse de stricte convexit.
B avons :
0
..c::
p.. f (i + t(x - i)) = f (tx + (1 - t)i) ~ f (i),
"'
~
1 pour tout t E]O, l], par convexit de K . Nous en dduisons que
'O
0
c::
::::1
0 f (i + t(x - i)) - f (i)
@ ---------~ 0'
t
137
Chapitre 4 Optimisation
pour tout t E]O, l]. En passant la limite lorsque t tend vers 0 dans cette dernire
ingalit, nous obtenons alors '\If (i )(x - i) ~ O. D
Contraintes d'galits
Par la suite, supposons que E = JR.m, f E '&'0 (JR111 , JR) et pour tout i E { 1, ... , n },
considrons gi E '&' 1(1Rm, JR). Ainsi, le domaine K est dfini par
K = {x E lRm, g(x ) = O} ,
avec g = (g 1 , ... , g,JT E '&' 1(lRm, JR.11 ) et n ~ m.
Comme nous l'avons dj fait pour le problme de programmation linaire, nous
introduisons le lagrangien [, : lRm x JR.11 ~ R tel que C(x, q) = f (x) + q T g(x ) ,
o nous avons ajout les contraintes la fonction f que nous cherchons minimiser.
Dfini ssons alors un point selle pour le lagrangien C(x, q).
Dfinition 4.22
Soit [, : JR.mx JR.n i---+ 1R. une fonction
continue. Nous disons que le point
(i , q) E JR.m x JR.n est un point selle
de[, s'il vrifie
Nous allons voir par la suite que le lagrangien permet de reformuler le problme
d'optimisation avec contraintes. C'est le thorme des multiplicateurs de Lagrange.
Dmontrons le rsultat suivant qui donne une condition ncessaire d'optimalit.
"Cl
0
c Thorme 4.2 3
::::i
0
(V)
.-1 Soient f E '&'0 (JRm, JR) et i E K une solution du problme de minimisation sous
0
N contraintes d' galits (4.1 3). Supposons que f est diffrentiable en i et que le
@
.
rang de'\! g(i ) est gal n ~ m. Alors il existe q = (q 1, , li.nl E JR.11 tel que
..c 11
Ol
;::
>-
a.
0
u i= I
o le vecteur q E R est appel le mu.ltipli.cateur de Lagrange.
11
138
4.3. Optimisation sous contraintes
K = {X E JRm , A X = b},
i E K,
f (i) = min f (x). (4.15)
{
xEK
Dans ce cas le thorme des multiplicateurs de Lagrange dit que lorsque rang( A ) = n,
alors .il existe q E 1R11 tel que
Nous voulons nous ramener l'tude plus simple d'un problme de minimisa-
tion sans contrainte. Pour cela, nous allons exprimer diffremment l'espace des
contraintes K et recherchons pour cela n colonnes de la matrice A qui soient
linairement indpendantes. Notons par B E .41,1,n(IR) la matrice carre forme
de ces n colonnes, P E .$1,11 ,m(IR) une matrice de permutation ( P T P = lm) et
N E .$/,1,m _ 11 (1R) telles que A P = ( B 1 N). Nous pouvons partitionner n' importe
quel vecteur x E K en
p T X= c~).
Les contraintes s' crivent alors x 8 = B- 1 (b - N xN), ce qui signifie que x 8 ne
dpend que de xN et des donnes. Considrons alors la fonction g : Rm- n 1---7 R
donne par
.<;::::
g(xN) = f (p ( ~:l(b - N XN) ) )
"Cl ~
0 "O
c c
::::>
....:::i et le problme de minimisation (4.15) s'crit alors
Cl
(V)
"'
~
~
.-1 'V
0
N
.~ g(iN) = min g(xN ) ,
0""'
.... ,:N EIR"'-"
@ :::i
. :
.c.
0) 0
c avec
;:: c
~
>-
o.. a.
0
0
u (.)
0
0
..s:::: Puisque g est diffrentiable, elle vrifie \7xN g(iN) = 0 ou encore
o..
~
~
"O
0
1
-B N
- l )T p T \lf(i) = O.
c (
:::i l11-m
Q
@
139
Chapitre 4 Optimisation
Y7 sf(i ) + BT q = 0
140
4.3. Opti mi sation sous co ntraintes
O. (4.17)
. : Nous avons alors le rsultat suivant qui fait le lien entre une solution du problme
.c. c de minimisation sous contraintes d'galits (4.13) ou d'ingalits (4.14) et un point
0) 0
;:: c
>-
o.. a. selle de /:,(x, q) :
0
~
0
u (.)
0
0
..s:::: Proposition 4.24
o..
~
~
1
Supposons que f E 1&' 1(Rm, R) et g E <(fi (R11Z, JR11 ) et (i, q) E K x JR11
"O
0
un point selle de .C(x , q ). Alors i est solution du problme de mmnm-
c
Q
:::i sation sous contraintes d' galits (4.13) ou d'ingalits (4.14) et de plus
@ '\Jx.C(i ,q) = '\J f(i) + qT g(i) = 0.
14 1
Chapitre 4 Optimisation
Dfinition 4.25
Soit g : IRm 1---+ IR11 avec 0 < n :::;; m. Pour 1 :( i :( n une contrainte d' ingalit
gi(x) :( 0 est dite active en i E IRm si gi(i) = 0 et inactive en i E IRm si
gi(i) < O.
Un point capital pour la suite est que les contraintes inactives peuvent simplement
tre ignores, cela ne change pas la valeur o la fonction f atteint son minimum [3].
Proposition 4.26
Considrons le problme de minimisation sous contraintes d'ingalits (4.14) et
i E IRm tel que g(i) :( O. Notons A(i) c {1, . . . , n} l' ensemble des indices des
contraintes actives, c'est--dire
"O
0
A(i) = {i E {1 , ... , n} , gi(i ) = O}
c
::J
0
('\"')
et considrons le problme suivant
T"-f
0
N
@
min f (x). (4.19)
{g; (x)= O, i EA(,t)}
~
..c
Ol
::::
>- Alors i E JRm est un minimum local de (4.14) si et seulement si i E IRm est un
a.
0 minimum local de (4.19).
u
nonons alors le Thorme de Karush, Kuhn et Tucker (KKT) qui affirme que
dans le cas de contraintes d'ingalits, nous pouvons nous ramener une situation
analogue au cas de contraintes d' galits.
142
4.3. Optimisation sous contraintes
Introduction la dualit
partir du Thorme 4.23, gnralisons la thorie de dualit introduite pour les pro-
blmes de programmation linaire. Pour une solution i E K de (4.13), le thorme
des multiplicateurs de Lagrange indique d'une part qu'il existe q E ffi.n vrifiant
\lxL(i, q) = 0 et d'autre part, puisque les contraintes sont vrifies au point i E K ,
\lqL(i , q) = O. Introduisons alors la fonction duale
Dfinissons alors
P = {q E ffi.
11
, Q(q) > - OO},
il s'agit maintenant de rechercher q E ffi.11 de sorte que la valeur de (q) soit la plus
proche possible de la valeur optimale f(i). C'est ce que nous appelons le problme
dual.
Dfinition 4.28
.~
Soient le problme de minimisation (4.13) et la fonction duale g donne par
"O
0
~
'O
(4.20). Le problme dual de (4.13) est donn par
c c::
::J ::::1
_.
0
('\'")
T"-f
"'
Q)
Q)
qE P,
~
0 .;a (4.21)
N
@
.....
_.
0 { (q) = max(q).
qEP
::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
u (.)
143
Chapitre 4 Optimisation
Thorme 4.29
Soient E un espace de Hilbert muni f
'*:
\
du produit scalaire (., .) , K une partie
convexe, ferme de E et f E E. Alors
il existe un unique i E K tel que p(j)
K
144
4.3. Optimisation sous contraintes
Nous en dduisons alors la mthode du gradient pas fixe avec projection sur K ,
qui s' crit tout simplement pour e > 0 un petit paramtre fix:
Mthode du gradient pas fixe avec projection
Pour Xo E K donn , poser x<0l = Xo , e<0l= 2e et k= O.
Tant que e (k) ~ e
- c a l c ul e r w(kl = - \J f ( x<kl) ,
pose r x <k+1l = PK (x(kl +pw(kl) et ca l c ul er l e r s idu
e(k+1) = Il x (k+1 ) - x <kl lL
- it r er k +-- k + 1.
Fin de ta nt que .
Comme dans le cas de l' optimisation sans contrainte, nous pouvons adapter la
dmonstration du Thorme 4.13 pour obtenir le rsultat qui suit.
Mthode d'Uzawa
.~
Ce dernier thorme semble indiquer que l'algorithme de gradient est une mthode
"O ~
0 'O effi cace pour l'approximation numrique d'un problme de mi nimisation sous
c c::
::J ::::1
_. contraintes. Cependant, il n'est pas toujours vident de calculer l'oprateur de pro-
0
('\'")
"'
Q)
jection pK sur un ensemble convexe K . C' est pourquoi, nous proposons la mthode
Q)
T"-f ~
0
N
.;a
.....
d' Uzawa qui utilise la formulation duale du problme. En effet, cette mthode
_.
0
consiste rechercher un point selle du lagrangien correspondant au problme de
@ ::::1
~
..c
Ol
"'c::
0
minimisation sous contraintes d' ingalits. Ce lagrangien est donn par:
::::
c::
Q)
>-
a.
0
s..
0 .C(x , q) = f (x)+ q Tg(x) , x E IR.111 , q E IR.11 , q;;?: O.
u (.)
B
0
..c::
p..
Par dfi nition, le point selle (i , q ) vrifie (q - q )T g (i) ;;:: 0, pour tout q E IR.11 vri-
"'
~
1
fiant q ;;?: O. Ainsi, pour tout > 0, nous obtenons (q - q l (ij - (ij + g(i))) ~ 0,
'O
0 pour tout q E IR.11 avec q ;;?: 0, ce qui montre d' aprs le Thorme 4.29 que
c::
::::1
0
@ ij = PIR~' (ij + g(i)) , \:/ > 0.
145
Chapitre 4 Opt imisation
Nous en dduisons alors la mthode suivante, pour e > 0 un petit paramtre fix.
Mthode d'Uzawa
Po ur q 0 E Rn don n , pose r q(Ol = q0 , e(o) =2 e et k= O.
Tant qu e e (k) ~ e
- calcu l er x<kl EJR.m so l ut i on de
i:,(x(kl, p (k) ) = min i:,(x, q( k) ),
XE !Rm
- poser q(k+1l =PR~ ( efkl + g(x<kl)) et calcu l er l e r sid u
~/ k+ 1 ) = Il q (k+ 1) _ q(k) ll,
- itre r k - k +1.
Fi n de t ant que.
Exercices
4.1 Soient A E .4,1,m(IR) avec n < m telle que AT A soit inversible et b E !Rn un
vecteur fix. Considrons f: IRm f-7 IR dfinie par f(x) = llAx - bll2 .
l . Dterminer le gradient et la hessienne de la fonction f.
2. Montrer que les points minimum i E IRm solutions de
i E IRm
f(i) = min .f(x) (4.23)
{ xEJRm
146
Exercices
f(x) = ~xT A x - xT b,
o A E v#lm,mOR) est une matrice symtrique dfi.rue positive et b E IRm . Soit g une
fonction de la forme g(x) = dT x - c, o d E IRm etc E IR avec di= O. Posons
K = { x E IRm , g(x) = 0}
l . Montrer que l'ensemble K est non vide, ferm et convexe. En dduire que le
problme de minimisation sous contraintes admet une unique solution.
2 . Soit i E K la solution du problme de minimisation. Montrer qu'il existe 1 E IR
tel que y = (i, Xl soit l'unique solution du systme
[~ l
4.4 Mthode du gradient pas variable
Soient E un espace de Hilbert rel et f : E ~ IR une fonctionnelle de classe
"O
.~
~
Yf' 1(E, IR). Supposons que f satisfait une condition d'ellipticit, c'est--dire il existe
0
c
'O
c:: a > 0 telle que pour tout x, y E E,
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
(\7 f(x) - \7 f(y), x - Y) > a llx - Yll 2
0 .;a
N .....
_.
0
@ ::::1 et une condition lipschitzienne sur \7 f, il existe M > 0 telle que
~
..c
Ol
"'c::
0
::::
c::
>-
a.
Q)
s.. ll\7 f(x) - \7 f(y) ll ~ M llx - Yll
0 0
u (.)
B
0
..c:: Considrons alors le problme de minimisation
p..
"'
~
1 trouver i E E,
'O
0
c::
::::1
{ f (i) = min
xEE
f (x),
0
@
147
Chapitre 4 Optimisation
o le paramtre Pk est ajust au cours des itrations selon des critres particuliers.
1 . Montrer que le problme de minimisation admet une solution unique. Comment
est-elle caractrise?
2. Montrer que pour tout k EN, llx(k+L) - xll2 ~ r(pk) llx(k) - xll 2 , o r(p) est un
polynme du second degr.
3. En dduire que s'il existe deux nombres a et b tels que pour tout k E N,
0 < a ~ Pk ~ b < 2a / M 2 , la mthode du gradient pas variable converge et la
convergence est gomtrique: il existe /3 E]O, 1[, llx(k) - xll ~ /3k llxo - xll
4. Les conditions sont-elles vrifies pour une fonctionnelle quadratique elliptique
!
f : x E Rm ~ x T Ax - bT x avec A symtrique et dfinie positive. Que reprsentent
alors a et M?
148
Exercices
V7 f(x) + Ag(x) = 0,
avec la contrainte x 1 + x 2 = 1.
Or, V7 f (x) = (- x 1 , - x 2 l et V7 g(x) = (1 , 1)T, le systme prcdent s'crit donc
-X2 + = 0- Xt + = 0, X1 + X2 = 1.
B ~ f (i) + g(i) = 0,
0
..c::
p..
"'
~
1
c'est--direAx - b + Ad = O.
'O
0 Le couple (i, 1) E JRm+ I est donc solution du problme suivant:
c::
::::1
0
@ Ai-b+d = O, dTi=c,
149
Chapitre 4 Optimisation
"O
et donc
0
c P~ Il V7 f (x(k)) ll2 ~ P~ M 2 llx (k) - i 11 2 .
::J
0
(\"')
D'autre part, la condition d'ellipticit surf donne
......
0
N
@
......
..c
Ol
::::
ce qui donne en dfinitive
>-
a.
0
u
avec r(p) := M 2 p2 - 2a p + 1 ~ O.
3. Supposons que a ~ p ~ b < 2a / M 2 , il vient alors
2a 2a
p - - S: b - - < 0
M 2"' M2
150
Exercices
et donc
0 <( r (p) <( M a
2
(b- ~ ) + 1 < 1.
A1llxll
2
:::;; xT A x = Lixf
i= I
11Axll 2
= (A xl A x = L;xf:::;; A~ l lxll 2 .
i= l
1 51
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
LES POLYNMES
5.1 INTRODUCTION
5.1.1 Un exemple en analyse
Commenons par un exemple o l'analyse numrique vient complter un rsultat
d'analyse. Le Thorme de Weierstrass permet d'approcher une fonction continue
par une suite de polynmes. Plus prcisment,
0.6
o
G)
0.4
n!
= i!(n - i)! 0.2
154
5. 1. Introduction
Proposition 5.5
Soit P E P (JK),
si le polynme P est non nul, alors il a un nombre fini de racines distinctes,
infrieur ou gal son degr,
si le polynme P s'annule en un nombre infini de points, alors il est nul,
si le polynme Pest de degr n et s'annule en (n + 1) points, alors il est nul.
.~
Nous terminons avec la formule de Taylor.
"O ~
0 'O
c
::J
c::
::::1
Dfinition 5.6
_.
0 Le polynme driv du polynme P (x )
('\'")
T"-f
0
N
"'
Q)
Q)
~
.;a
.....
"'Il .
P ' (x ) -- L..Ji = I t aix i - 1 .
_.
0
@ ::::1
~
..c
Ol
"'c::
0 Proposition 5.7
::::
c::
u
>-
a.
0
Q)
s..
0
(.)
Soit P(x ) = "'Il
L..Ji = O ai .
x 1 , alors
B
0
..c::
p..
nous avons
n (i)
"'
~ P(X=
) ""'"'
~
P . (xo) (X - Xo
)i ,
1
l.1
'O i= O
0
c::
0
::::1
o p U) dsigne la drive i-me de P. Ainsi, un polynme de degr n est
@ entirement dtermin par la connaissance de P (xo ) , . . . , p C11 >(xo).
15 5
Chapitre 5 Les polynmes
x 0 est une racine d' ordre k de P si P(x 0 ) 0 et
p (k)(xo) #- O.
0 ~ i ~ n. (5.1)
'O
0
c
::J Appelons ce polynme un polynme d'interpolation de la fonction f aux points
0
('\"') (xi )o~ i ~n
T""f
0
N
@ 5.2.1 Construction et convergence de l'interpolation de Lagrange
~
..c Montrons d'abord l'existence et l' unicit d'un tel polynme .
Ol
::::
>-
a.
u
0 Thorme 5.8 Existence et unicit
Il existe un unique polynme, de degr infrieur ou gal n, solution de (5.1).
Ce polynme s'crit alors
n
P11(x) - L f(xi) L i(x) , (5.2)
i= O
156
5.2. Interpolation de Lagrange et de Hermite
avec
(5.3)
Il
L f(xj)Lj(xi ).
J=O
~
sii = j,
8; ,j = {
si i =J j .
15 7
Chapitre 5 Les polynmes
n i- 1
158
5.2. Interpolation de Lagrange et de Hermite
Le coefficient a11 est donc tel que P11 (x,i) = f (x11 ) et il reste dterminer sa valeur.
Pour ce faire, considrons le polynme Q(x ) crit sous la forme
X - Xo Xn - X
Q(x) = - - - Q11- 1(x) + - - - Pn- 1(x),
Xn - xo Xn - xo
o
Il i -1
ce qui donne
1 1
a" = - - - f [x , , ... ,x,i]-
Xn -Xo X11 -Xo
f[xo, ... ,x,1- 1] = f[xo, . .. ,x,i].
D
Proposons alors un algorithme simple pour le calcul du polynme d'interpolation
P, 1 de degr n aux points {xo, ... , x,i} .
Algorithme des diffrences divises
Initialisation : f[xd = f(xk) pour O~ k~ n .
Pour j = 1, .. .,n
- Calcu l er l 'ensemb l e des di ffrences div ises d'ordre i+1
.<;::::
- Pour k = 0, ... , n - i
"Cl ~ ] _ f(Xk+1, ... , Xk+;] - f(X k, ... , X k+i - d
0 "O f[ Xk, . .. ,Xk+1 - - - - - - - - - - - - - -
c c X k+i - X k
::::>
Cl ....:::i - Fin de pour
(V)
"'
~
Fin de pou r
~
.-1 'V
0 .~
N
@
0""'
....
:::i
pattir de cette formulation, tablissons un rsultat d'erreur entre la fonction f et
:
.
.c. c son polynme d'interpolation.
0) 0
;:: c
~
>-
o.. a.
0
Thorme 5.1 0 Erreur d'interpolation
0
u (.)
0
0
..s:::: Soit f une fonction dfinie de l'intervalle [a , b] valeurs dans R . Supposons que
o..
~
~ f est (n + 1) fois continment diffrentiable et P11 est le polynme de Lagrange
"O
1 dfini aux points distincts (xdo~i ~n de [a , b]. Alors
0
c
:::i
Q M 11+1 I I
@ 1 P11 (x) - f(x) 1 ~ (n + l)! 1T11(x) , (5.5)
159
Chapitre 5 Les polynmes
o M 11+ 1 max
a ~X. ~b J<n+I)(x) I et
1
Il
Lemme 5.11
Soit f une fonction dfinie de l' intervalle [a, b] valeur dans JR. Supposons
que f est p fois continment diffrentiable. Alors il existe g E [a, b] tel que
f[xo, ... ,xp ] = J<P )(g) / p!.
160
5.2. Interpolation de Lagrange et de Hermite
Cependant, nous verrons un peu plus tard qu'il est possible de calculer l'ensemble
des points d'interpolation de manire rendre l' erreur l 7T11 lloo la plus petite possible
(grce aux polynmes de Tchebychev) mais ceci n'vite pas ncessairement le ph-
nomne de Runge. En dfinitive, pour remdier ce problme, nous proposons une
autre stratgie qui est souvent utilise dans la pratique: c' est l'interpolation compo-
se.
"'c::
tervalle [a, b] en n + 1 points (voir
Figure 5.3)
a3
..c 0
Ol c::
::::
>- Q)
s.. Figure 5.3
a.
0 0
a = ao < . . . < a11 = b. (5.6) Exe mple d'une r partitio n de po ints
u (.)
"'
~ 1. Carl David Tolm Runge (1856-1927) fut un mathmaticien et physicien allemand. En 1901, il
'O
1
dcouvrit que le procd d' interpolation peut diverger pour certaines fonctions rgulires. En outre,
0
c:: ses travaux portrent essentiellement sur la rsolution numrique d'quations diffrentielles (voir Cha-
::::1
0 pitre 6). Nous verrons qu'il est galement l'auteur de la mthode de Runge-Kutta pour la discrtisation
@ des quations diffrentielles.
16 1
Chapitre 5 Les polynmes
162
5.2. Interpolation de Lagrange et de Hermite
I = 1b f(x)dx.
l(f) = L wi f (xi).
i=O
Le choix du nombre de points (n + 1), des poids (wi)o~u:;;n et des points (xi)O~i~n
dpend de la mthode employe. Il conviendra aussi de s'intresser la prcision
des formules employes. Ces mthodes utilisent la technique de l'interpolation des
fonctions intgrer. Gnralement, la fonction est d'abord interpole par un poly-
nme puisqu'il est trs facile d 'en connatre la primitive. Il s'agit alors de fournir des
valeurs pour les points (xi)O~i~n et les poids (wi)O~i~n et d 'valuer l 'erreur entre la
valeur exacte et la valeur numrique de 1' intgrale l.
Dans un premier temps, donnons quelques formules de quadrature classiques et le
calcul de l'erreur. Ensuite, prsentons la formule de Newton-Cotes base sur l'inter-
polation compose.
Formule des rectangles
C'est la mthode la plus simple qui consiste interpoler la fonction f intgrer par
une fonction constante (polynme de degr 0).
Soit g le point d'interpolation; la for-
mule devient alors :
"O
.~
~
/(f) = (b - a) f (g). (5.8)
0 'O
c c::
0
::J ::::1
_. Ici, nous considrons le cas g a ou
('\'")
"'
Q)
g = b, ce qui correspond l'aire du rec-
Q)
T"-f ~
0
N
.;a
..... tangle de largeur (b - a) et de longueur
_.
0
@ ::::1 If (a)I ou If (b)I.
~
..c
Ol
"'c::
0 Aussi, cela revient approcher la fonc- a b
c::
::::
>- Q)
s.. tion f sur l'intervalle [a , b] par le poly-
a. Figure 5.5
u
0 0
(.) nme d'interpolation de Lagrange de degr
B
0 zro construit partir de a ou de b. Ainsi, Formule des rectangles.
..c::
p..
le rsultat du Thorme 5.10 fournit une estimation de l'erreur
"'
~
~ (b ~ a)
1
2
'O
0 II(f) - Il sup lf'(y)I.
c:: yE[a,b]
::::1
0
@ Cette formule de quadrature s'appelle la mthode des rectangles.
163
Chapitre 5 Les polynmes
Notons que l' erreur est nulle pour tout polynme de degr infrieur ou gal un.
Formule de Simpson
En utilisant un polynme de Lagrange de
degr deux, nous obtenons la formule de
Simpson suivante
+ 2 (b ; a) f (a; b) ,
"O
0
c
a a+b b
::J qui utilise trois points a, (a+ b)/ 2 et b. 2
0
('\"')
,..-!
Plus gnralement, nous pouvons fabri- Figure 5.7
0
N
quer une formule de quadrature pour n'im- Formule de Simpson.
@ porte quel entier n ): 0 par
~
..c
Ol Il
1c1) = 2= l j 1cxi)
::::
>-
a.
0
u i=O
I:l j = b - a.
i= O
164
5.2. Interpolation de Lagrange et de Hermite
Formule de Newton-Cotes
Les formules de Newton-Cotes permettent de gnraliser ces rsultats sur des inter-
valles constants, o la fonction f est interpole par des polynmes de degr lev.
Cependant, pour des questions de stabilit numrique lie au comportement oscil-
latoire des polynmes de degr lev (voir phnomne de Runge), il est prfrable
de limiter le degr du polynme d'interpolation en subdivisant l'intervalle [a, b] en
sous-intervalles, pour lesquels une interpolation linaire est suffisante. C'est exacte-
ment le mme procd que celui dcrit pour l'interpolation compose. Comme nous
l'avons montr pour chacune des mthodes prcdentes, le terme d'erreur dpend
de b - a. Ainsi, lorsque cette amplitude est trop leve, nous rduisons simplement
l'erreur en dcoupant l'intervalle [a , b] en n sous-intervalles, sur lesquels nous cal-
culons la valeur approche de l'intgrale. Nous parlons alors de formule composite.
La valeur sur l'intervalle [a , b] sera la somme de la valeur sur chaque sous-intervalle.
Plus prcisment, nous divisons l'intervalle [a, b] en n sous-intervalles de lon-
gueur h = (b - a)/ n, et posons Xk = a + k h, pour k E {O, ... , n }. En appli-
quant par exemple la mthode des trapzes sur chaque intervalle [xki Xk+d, pour
k E {O, ... , n - 1}, la formule devient
/(f) =
2
.
h f(a) + j(b) + h
L.t
f(xk)
.
''
11 -J
k=l
B
0
L'objectif est de constrnire un polynme d'interpolation d'une fonction f en utilisant
..c::
p.. des valeurs de f et de sa drive f' aux points (xi)O~i~n d'un intervalle [a , b]. C'est
"'
~
1
l'interpolation de Hermite'.
'O
0
c::
::::1
0 1. En rfrence Charles Hermite, mathmaticien franais ( 1822-1901) dont les travaux portrent sur-
@ tout sur la thorie des nombres, l'tude des polynmes orthogonaux et les quations diffrentielles.
165
Chapitre 5 Les polynmes
(5.9)
"O
Thorme 5.1 3 Existence du polynme d'interpolation de Hermite
0
c
0
::J Le polynme P11 est de degr 2n + 1 et s'crit
('\"')
T"-f I! 11
0
N
@
~
i= O i=O
..c
Ol
::::
>-
avec Hi(x) = (1 - 2 L~(xi)(x -xi)) L f(x) et El(x) (x -xi ) L f (x). En outre,
a.
0 lorsque f E ~2(n+ I ) ([a , b], ffi.)
u
11 / (2(11+1))1100 JI
l/(x) - Pn(x ) I ~ ( n + )!
2 2
Il(x - 2
X) . (5.10)
1= 0
166
5.3. Mthode des moindres carrs
i=O i= O
nous prouvons qu'il existe bien un polynme de degr 2n + 1 vrifiant les conditions
requises (5.9). Nous vrifions que ce polynme est forcment unique.
Pour dmontrer l'estimation de l' erreur, nous la vrifions d'abord en chaque point x;,
pour 0 ~ i ~ n. Puis, prenons x E [a, b] o x est diffrent des points (xi)O:i :n. et
posons
n
1T~ (x) = II (x - X)
2
i= O
et pour y E [a , b]
. f(x) - Pn(X) 2
F (y) = j (y) - P11 (y) - 2( ) 1TIl (y).
1Tn X
Nous vrifions aisment que x est une racine de F , et xi est racine double de F .
Ainsi, en appliquant le thorme de Rolle la fonction F, nous montrons qu'il existe
()o:::;;:::;;11 , distincts des po.ints xi, pour tout 0 ~ i ~ n, et de x vrifiant F'(;) = 0
pour tout 0 ~ i ~ n.
Or, nous avons aussi F' (x;) = 0 pour tout 0 ~ i ~ n, ce qui signifie que F' admet
2(n+ 1) racines distinctes. En appliquant de manire successive le Thorme de Rolle,
nous prouvons qu'il existe 1Jx E [a , b] tel que p<211+2)(1Jx) = O.
En drivant 2(n + 1) fois la fonction F(y) et en nous plaant au point 1Jx E [a , b],
"Cl
.<;::::
~
nous obtenons directement
0 "O
c c
::::>
Cl ....:::i (2n + 2 )! /(x) ~ Pn(X) J(2(n+ I )) ( 1Jx ),
"'
~
(V)
.-1 ~
'V
7T11(x)
0 .~
N
0""'
....
@ :::i
:
ce qui conduit facilement au rsultat final. D
.
.c. c
0) 0
;:: c
~
>- a.
o..
0
u
0
(.)
0
5.3 MTHODE DES MOINDRES CARRS
0
..s::::
o.. Jusqu'ici nous avons toujours considr l'approximation d'une fonction par un pro-
~
~
1
cd d'interpolation l'aide des valeurs de la fonction f en des points (x)o:::;;:::;; 11 ,
"O
0
ce qui suppose que ces valeurs soient connues exactement. Or, dans la plupart des
c
Q
:::i situations, ce n'est pas le cas. En particulier lorsque les valeurs de f proviennent de
@ mesures exprimentales.
167
Chapitre 5 Les polynmes
car ce problme peut tre rsolu plus facilement. C'est la mthode des moindres
carrs.
"O
0
c
5.3.1 Rappel du thorme d'approximation
::J
0 Avant de passer la description de la mthode des moindres carrs, dmontrons un
('\"')
,..-! rsultat d'existence de solutions qui s'applique la fois aux problmes (5.11) et
0
N (5.12) mais ne donne pas l'unicit de la solution, ce qui est un inconvnient d ' un
@
~
point de vue de la mise en uvre de l'algorithme.
..c
Ol
::::
>-
a.
Thorme 5.14 Thorme d'approximation
0
u
Soient (E , lili E) un espace vectoriel norm et P11 un sous-espace vectoriel de
E de dimension n ) 1. Alors pour tout lment f E E, il existe au moins un
lment P* E P11 , dfinie comme tant la meilleure approximation de f dans P11 ,
c'est--dire
llf - P*llE = min llf - PllE
P E P ,.
168
5.3. Mthode des moindres carrs
"O
1 llf - p* lloo = inf
P EP 1
llf - Plloo,
0
c
Q
:::i
c'est--dire un polynme de degr un qui minimise la norme sup lllloc de
@ <!f0 ([a, b ), IR).
169
Chapitre 5 Les polynmes
"O
Dmontrons alors un rsultat d'existence et d'unicit de la solution et proposons
0
c par la mme occasion un algorithme de construction.
::J
0
('\"')
T"-f Thorme 5.1 5
0
N
@ Soit (</> J )o~J~m une famille libre de polynmes. Alors il existe une unique
~
..c fonction </>* E U solution de (5.14). En outre, </>*(x) = ~7=o u J </>1 (x) o le
Ol
::::
>- vecteur u = (u0 , ... , um) E JRm+t est l'unique solution du systme linaire
a.
0 B r Bu = B r y, avec B E .4i1+1 ,m+1(1R) donne par
u
170
5.3. Mthode des moindres carrs
En dfinitive l'ide de la mthode des moindres carrs repose sur la recherche d'un
vecteur u* minimisant la norme euclidienne de R11 +1
</>o(xo) . . . </>m(xo) )
B =
(
~o(x,1) </>m(Xn)
.<;::::
llv* - Yll = min llv
vEF
- Yll,
"Cl ~
0 "O
c
::::>
c o 11 . 11 dsigne cette fois-ci la norme euclidienne de R'i+ 1.
Cl ....:::i
(V)
"'
~ Ainsi, en appliquant le Thorme 4.29, nous dmontrons qu'il existe un unique
~
.-1
0
N
'V
.~ v * E F ralisant le minimum de 11 y - v 11 Cette solution est caractrise par v * E F,
0""'
@ ....
:::i
vrifiant (y - v*, v) R"+ ' = 0, pour tout v E F.
. :
.c.
0) 0
c Puisque v* E F, il existe u* E Rm+J tel que v* = Bu*, nous avons donc
;:: c
~ ( Bu* - y, B u) R11+1 = 0, pour tout u E JRm+I ou de manire quivalente
>-
o.. a.
0
0
u (.)
0
0
..s::::
o..
~
~ et donc Br Bu* = BT y .
1
"O
0 Pour autant, ceci n'assure pas l'unicit. En effet, nous savons que v* est unique
c
Q
:::i
d'aprs le thorme de la projec tion mais il peut exister plusieurs u* tel que
@ Bu* = v* . L'unicit est lie au caractre injectif de B. En effet, puisque la
171
Chapitre 5 Les polynmes
famille de polynmes { <f> o, ... , <f>m} est libre, la matrice B est bien de rang m + 1,
c'est--dire dim(Im(B)) = dimF = m + 1. Or, pour B E .4,z+t ,m+i (lR), nous
avons dim(Im(B)) + dim(Ker(B)) = dim(JRm+l) = m + 1, ce qui signifie que
Ker(B) = {O} et donc B est injective. Nous en dduisons que BT B est symtrique
et dfinie positive, elle est inversible. Il existe donc une unique solution u* E JRm+l
de (5.14). D
Par la suite, gnralisons la mthode des moindres carrs des problmes continus,
ce qui permettra de constrnire des polynmes particuliers : les polynmes orthogo-
naux.
Dfinition 5.16
Soit E un K -espace de Hilbert. La famille (en )nE I CE avec I C N est orthogonale
par rapport au produit scalaire (., .) lorsque (en, e p) = 0, pour tout p i= n.
En outre, la famille (e,JnEI C E est orthonormale par rapport au produit scalaire
(. , .) lorsque (e 11 , e11 ) = 0, pour tout p i= n et (e 11 , e11 ) = 1, pour n E / .
Toute famille orthogonale constitue de vecteurs non nuls est libre, il suffit d 'ef-
fectuer le produit scalaire pour le vrifier. Nous avons alors les proprits suivantes
[18].
Proposition 5.1 7
Soit (e11 ) 11 E 1 une famille orthogonale de E muni d'un produit scalaire (E est
appel espace pr-hilbertien). Alors pour tout lment x E E , l'ingalit de Bes-
"O
0
c
sel est donne par L:nEI 1(x, en) 12 ~ llx 112 .
0
::J
En outre, si (en)iz EI forme une base de E , l'galit
('\"')
T"-f
0
N
I: l(x, en) l 2
= llxll 2 ,
@ nEl
~
..c est connue sous le nom d' galit de Parseval, de plus la srie l:nE I (x, en) en
Ol
:::: converge vers x .
>-
a.
0
u
5.4.1 Construction de polynmes orthogonaux
Soit w une fonction strictement positive sur [a, b], appele poids. Notons
172
5.4. Polynmes orthogonaux
o l'intgrale est prendre au sens de Lebesgue [18]. Par la suite, utilisons les nota-
tions suivantes :
pour w(x) une fonction strictement positive sur [a, b], (., .) w dsigne le produit
scalaire pondr par le poids w : pour toute fonction f, g rgulires
(f,g)w =lb a
f(x)g(x)w(x)dx;
l'espace L~ (]a , b[) est l'espace de Hilbe1t des fonctions de carr sommable sur
[a , b] par rapport au poids w. C 'est un espace vectoriel norm (dont chaque l-
ment est une fonction) complet, muni d'un produit scalaire;
la norme associe au produit scalaire est donne par 1' application
Dfinition 5.18
Soit (Pn)n EN C P(R). La suite de polynmes (P11 )nEN est une suite de poly-
"O
.~
~
nmes orthogonaux par rapport au produit scalai re (., .)w, si les polynmes Pn
0
c
'O
c:: sont orthogonaux dans L~ (]a , b[).
::J ::::1
_.
0
('\'")
"'
Q)
T"-f
Q)
~
Par la sui te, supposons que
0 .;a
N .....
@
~
..c
Ol
::::
_.
0
0
::::1
"'c::
c::
Q)
lb lxl" w(x )dx < oo, \:fn) 0,
>-
a. s..
0
ce qui assure que tous les polynmes sont contenus dans l' espace L~(]a, b[).
0
u (.)
B
0
..c::
p..
"'
~
Thorme 5.19 Construction de polynme orthogonaux
1
'O
0
c::
Soit w une fonction strictement positive sur l'intervalle [a, b] vrifiant ( *). Alors
0
::::1
il existe une unique suite de polynmes (P11 ) 11 E N c P(R) orthogonaux par rapport
@ au produit scalaire (., .) w et tel que Pn est de degr n et dont le coefficient devant
173
Chapitre 5 Les polynmes
le terme x 11 vaut un. Plus prcisment, l' ensemble (Pn)nEN vrifie la relation de
rcurrence suivante
Po(x) = 1,
P1(x) = x - ao , (5.16)
1
2
Il P11 llL2
lb x Pn(x) P,1 w(x)dx , (5.17)
"'
ao =
J: b
x w(x)dx
=Il ,
1
Po112L2w
lb x Po(x) Po(x)w(x)dx .
Ja w(x) dx a
lb
la P ?(x) w(x)dx = lb P1(x) (x - a o) Po(x )w(x )dx
lb x P1(x)Po(x)w(x)dx. (5.18)
"O
0
c
Posons ensuite P2 (x ) = (x - a 1) P 1(x) - A1 P0 (x). Puis, des conditions
::J
0
('\"')
,..-!
0
N
@ nous dduisons simplement que
~
..c
Ol
::::
>- a1 = _l_ fab x Pi(x) Pi(x)w(x)dx ,
u
a.
0 llP1lli2 J~
w
1 =
1
l Polli2
lbx Pi (x ) Po(x) w(x ) dx,
"'
ce qui dmontre le rsultat pour n = 1.
174
5.4. Polynmes orthogon aux
Procdons ensuite par rcurrence et supposons que (5.17) est vraie au rang n, c'est-
-dire qu'il existe une famille de polynmes orthogonaux { P0 , ... , Pn+ I }.
Posons alors P11+2(x) = (x - n+1) P11+1 (x) - n+J Pn(x).
D'une part, dmontrons que pour tout i E {O, ... , n - 1}, le polynme P11 +2 est
orthogonal au polynme Pi construit prcdemment. Pour cela, rappelons que x Pi (x)
est un polynme de degr i + 1 et d'aprs la Proposition 5.2, (Pk )o~k~i+l forme une
base de l'ensemble des polynmes de degr i + 1 et donc x Pi(x ) = L:~:!o Ck Pk(x).
Il vient alors d' aprs l'hypothse de rcurrence
i+l
LCk ( P11+L, Pk)w - 11+l ( P11+L, Pi)w - n+l ( Pn, P;)w
k=O
O.
D'autre part, en imposant les conditions ( P,1+2, P,z+1)w = (P,1+2, P11 )w = 0, nous en
dduisons les valeurs de a 11 +1 et n+ 1
n+l = Il
1
ll 2
1b x lP11+1(x)l2 w(x)dx
Pn+I L2w a
et
1
11+l = 2
llP11llL2
rb Pn(x) Pn+1 (x ) w(x)dx .
la
X
La valeur de .A11 +1 n'est pas exactement celle propose. Montrons alors que
En effet, puisque l'ensemble {Po, . . . , P11 +i} constitue une famille orthogonale dans
L~(]a , b[); il forme une base de l'espace vectoriel des polynmes de degr n + 1. En
.~
"O ~
'O
crivant x P11 (x) dans cette base et en utilisant le fait que le coefficient devant le terme
de degr n + 1 du polynme x P11 vaut 1, nous avons x P,1 (x) = Pn+ 1(x )+ L:;= 0 ci Pi (x)
0 1
c c::
::J ::::1
_.
0 et dduisons que
('\'")
"'
Q)
Q)
T"-f
0
~
.;a b
N
@
~
..c
Ol
.....
_.
0
::::1
"'c::
0 ce qui donne le rsultat.
l a
x P11 (x) Pn+l (x) w(x) dx
D
::::
c::
Q)
>-
a. s..
0 0 nonons ici deux rsultats classiques sur les racines des polynmes orthogonaux.
u (.)
B
0
..c::
p..
Proposition 5.20 Racines de polynmes othogonaux
"'
~
1
'O Pour tout n ~ 1, nous avons
0
c::
0
::::1
le polynme P11 possde exactement n racines simples contenues dans l'inter-
@ valle ]a , b[,
17 5
Chapitre 5 Les polynmes
les racines (x;1) 1 ~i~n de P11 sparent les racines (x;i+ 1 ) 1 ~i~n+l de Pn+i, c'est--
dire
a < xt < x~1 < x~+ < ... < x;:+i < x;: < x;:: t < b.
1 2
Hn(X} = (- 1tex
2 2
/ dn
dxn
(e-x2 12)
2
sont orthogonaux dans L~(IR} pour le produit scalaire associ au poids w(x} = e -x 12 ,
pour x E lR.
Nous pouvons dmontrer que les polynmes de Hermite sont donns par la
relation de rcurrence suivante : pour tout x E ~ . Ho(x} = 1, H1 (x} = x et
Hn+1(x} = X Hn(X} - n Hn- 1(x}.
Polynme de Legendre
Les polynmes de Legendre Pn sont dfinis pour x E [-1 , 1) par la rcurrence
suivanteP0 (x} = 1,P, (x} = xet(n+1}Pn+1(x} = (2n+1}xPn(x} - nPn-1 (x}.
Cette suite de polynmes forme une famille orthogonale dans L~ (] - 1, 1[} pour le
produit scalaire associ au poids w = 1.
0
::J
sur l'ensemble des polynmes de degr infrieur ou gal n, not P11 (JR). Pour la
('\"')
T"-f
constmction d'une telle approximation, nous utilisons des polynmes orthogonaux
0
N par rapport au produit scalaire associ l'espace L~ .
@ Pour tout n ~ 1, choisissons (Pk )o~k ~ n une suite de polynmes orthogonaux par
~
..c
Ol rapport au produit scalaire (., .) w' o w reprsente la fonction poids et notons P11 (a, b),
::::
>- l' ensemble des polynmes de degr infrieur ou gal n restreints l' intervalle [a , b].
a.
u
0 Observons que puisque la famille (Pk)O~k~n est libre, nous avons
P 11 (a , b) = Vect{ Po, ... , P,i} .
Pour une fonction f dfinie de l'intervalle [a , b] C lR valeurs dans lR telle que
f E L~ (]a , b[), nous recherchons un polynme P * E P11 (a , b) solution du problme
Il! - P*lli2
"'
= inf
P E P11(a ,b)
Il! - Pllu'" (5.19)
176
5.4. Polynmes orthogonaux
j~ 1 ltf -
1
<;:::: 2
"Cl ~ P(x) l dx .
0 "O
c c
::::> Utilisons pour ce la la base de polynmes de Leg endre Lo(x) = 1, L1 (x) = x et
Cl ....:::i
"'
~
2 _1 x - S x e dx = - 5 e + 37 j e.
@ (f , L3)1 5 ; ( 3 3 ) X
177
Chapitre 5 Les polynmes
Par ailleurs, nous montron s que (Ln, Ln)1 = 2/ (2n + 1) et dduisons alors l'expres-
sion du polynme de degr infri eur ou gal trois qui est la meilleure approxi -
mation au sens des moindres ca rrs de ex
1 = 1 f(x)dx
Thorme 5.22
En outre, il est impossible de trouver des nombres (xi )o~i ~n et des poids
(l;)o~;~ 11 tels que (5.21) soit aussi vrifie pour tout polynme P E P211+2(a , b).
178
5.4. Polynmes ort hogonaux
D MONSTRATION. Supposons d'abord que w = (wo, ... , w11 )T est solution du sys-
tme (5.20) qui s'crit aussi AT w =f avec
et f est donn par le second membre de (5.20). Observons que puisque les poly-
nmes (Pk)o~k~n sont orthogonaux, ils fo1ment une famille libre et d'aprs la
Proposition 5 .20, les points (x; )o ~; ~ 11 sont distincts, ce qui signifie que la matrice
A est inversible et ce systme admet bien une unique solution. Ensuite considrons
P E P2n+1(a, b) que nous dcomposons P(x) = Q(x) Pn+i (x ) + R(x), pour
x E [a , b] avec Q et R E P 11 (a , b). En exprimant Q et R dans la base orthogonale
{Po , ... , Pn} Il vient alors Q(x) = 2:,~=oakPk(x) et R(x) = ;:.:=of3kPk(x).
D'une part, tant donn que Po 1 et que la famille ( Pk)o~k~n est orthogonale, nous
obtenons
l a
b P(x )w(x)dx = ( P11+1 , Q)lJ.1 + ( Q , Po)w = /3o(Po,Po)w.
D'autre part, comme (x;)o~;~ 11 c fi!. constitue l'ensemble des racines distinctes de
P11+1, nous avons Pn+I (x;) = 0 pour tout i E {O, ... , n} et donc
n
Au final, puisque w est solution de (5.20), nous obtenons L P(x;)w; = f3 0 ( P0 , Po)w,
i=O
.<;::::
ce qui montre le rsultat
"Cl
c
0
::::>
Cl
(V)
~
"O
c
....:::i
"'
~
~
t
i=O
P (x; ) w; = /30 ( Po, Po)w = 1 P(x) w(x) dx.
.-1
0
N
'V
.~ Pour montrer que Wj > 0 pour tout j E {O, .. . , n }, il suffit de choisir le polynme
0""'
....
@ :::i
:
de P E P2n(a, b)
. Il
.c.
0)
;::
>-
0
~
c
c
a.
P (x) II(x -
k= O
2
xk) ,
o..
0 0 k#j
u (.)
0
0
..s:::: lequel vrifie
o..
~
~
"O
0
c
1 0 <lb a
P(x) w(x)dx L
11
i= O
P(x;) w; UJj
Il
II
k=O
(Xj - Xk)2'
:::i k#j
Q
@ ce qui prouve bien que w j > O.
179
Chapitre 5 Les polynmes
Il reste dmontrer que l'galit (5.21) ne peut pas tre vrifie pour tout polynme
Il
etL::;1
= 0 P(xi) {J); = O. Il ne peut donc pas y avoir galit, ce qui prouve le rsultat.
Examinons maintenant la rciproque. Supposons que pour tout i E {O, ... , n }, les
poids {JJ; > 0 et les points x;, deux deux distincts, satisfont (5.21). Pour dmontrer
que ({J);)o~ i ~n est solution de (5.20), il suffit de rappeler que Po _ 1 et que les
polynmes ( Pk )O~k ~n sont orthogonaux pour le produit scalaire (., .) w. ce qui donne
pour tout k E { 0, ... , n}
Enfin, il reste dmontrer que (xi )O~ i ~n constitue l'ensemble des racines de
P,z+ 1 . En effet, pour tout k E {O, ... , n }, nous prenons dans (5.21) le polynme
P(x ) = P11 + 1(x) Pk(x ), nous obtenons alors par orthogonalit des polynmes,
11
autrement dit le vecteur c = (P11 (xo){JJ0, ... , P11 (x 11 ){J) 11 l est solution de AT c = 0
avec A inversible, ce qui signifie que c = 0 et comme les poids sont strictement
positifs, cela impose ncessairement que pour tout i E {O, ... , n }, P11 + 1(xi) = O. o
"O
Ce thorme va permettre de construire des formules de quadrature plus prcises
0
c que celles prsentes au Paragraphe 5.2.3. En effet, en choisissant pour les points
::J
0 (x; )o~i ~n les racines de P11 +1 et pour les poids ({J)i )O~i ~n la solution de (5.20), la
('\"')
T"-f formule l'ordre n donne par (5.21) est exacte pour l'ensemble des polynmes de
0
N degr 2n + 1. Cette mthode d'intgration numrique dsormais classique est due
@
~
Gauss et Legendre.
..c
Ol
:::: Exemple : formule du point milieu
>-
u
a.
0 Considrons le cas le plus simple o w =
1 sur l'intervalle [ - 1 , 1], les polynmes
orthogonaux correspondants sont les polynmes de Legendre : pour x E [- 1, 1],
Po(x) = 1, P1 (x) = x et
180
5.4. Polynmes orthogonaux
/(f) = (b - a) (a; b) .
f
a b
Exemple
Lorsque n = 1 nous avons P2 (x) = 3x2 / 2 - 1/ 2, d'o x 0 = - x1 = VJ/3 et (w 0 , w1) est
solution du systme
WQ + W1 = 2,
{ V: ( wo - w1) = 0,
u
Ol
::::
>-
a.
0
0
c::
Q)
s..
0
(.)
lb a
w(x) f(x)dx - t
i= O
w; f(x;)
f (211+2) ( g)
(2n + 2)! ( 7Tn+I , 7T11+1)w (5.22)
B
0
..c::
p..
"'
~
1
'O
0 D MONS TRATION. Considrons le polynme d'interpolation de Hermite Hn
c::
0
::::1
construit partir des points d' interpolations H11 (xi ) = f (xi) et H,~(xi) = f'(xi),
@ pour tout i = 0, . . . , n.
181
Chapitre 5 Les polynmes
Puisque le degr de H11 est strictement infrieur 2(n + 1), nous avons
J.bf(x) w(x ) dx t
i=O
w; H.(x; ) = ti =O
w;f(x;).
1
(2n + 2)!
lb
a
n
f2(n+l) (>.: ) IJ (x - xi )2 w(x) dx
1=0
f2(11+l)()
( )'
J.bIJ(x - Il 2
xi ) w(x)dx
2n + 2. a
i =O
f2(11+l)()
(2n+2)! \1Tn,1Tn)w D
'O
0
c En dfinitive la mthode de Gauss est trs efficace en termes de cot de calcul et de
::J
0 prcision mais il n'est pas toujours facile de l'appliquer l'ordre lev car le terme
('\"')
,..-!
0 d'erreur droite de (5.22) n'est pas toujours contrlable lorsque la fonction f est
N
@
peu rgulire. Nanmoins les mthodes du point milieu et deux points sont souvent
~
..c
utilises dans la pratique ; d'autres comme l'extrapolation peuvent tre envisages
Ol
::::
[27].
>-
a.
0
u 5.4.4 Transforme de Fourier rapide
Dans cette partie, nous souhaitons approcher des fonctions priodiques par des
sommes partielles de sries de Fourier.
Soit f : lR f--7 lR une application priodique de priode T. Supposons que
f 1 lf(x) l dx converge sur un intervalle I = [7, 7 + T] de longueur T , pour tout
7 E JR. Notons alors 'II' un intervalle quelconque de longueur T.
182
5.4. Polynmes orthogonaux
de degr max(lk11 , lk2 I), ses coefficients de Fourier sont nuls pour n /. {k1, ... , k1},
et Cn = an pour n E { k i , ... , k1}.
partir des coefficients de Fourier d'une fonction T -priodique, nous dfinissons
la srie de Fourier.
Dfinition 5.24
Nous appelons srie de Fourier associe f, la srie trigonomtrique L Cneiwnx,
nEZ
o w = 27T /T et Cn est le coefficient de Fourier (5.23).
.~ Bien entendu, cette srie n'est pas ncessairement convergente. Il faut faire
"O ~
0
c
'O
c::
quelques hypothses supplmentaires sur la fonction f (voir le Thorme 5.26).
0
::J ::::1
_. C' est pourquoi il est plus pmdent de considrer dans un premier temps les sommes
"'
paitielles de la srie de Fourier de f : S11 (f)(x) = ~~= -n ck ei wkx
Q)
('\'")
Q)
T"-f ~
0 .;a
N .....
@
_.
0 Remarque
::::1
~
..c "'c:: D'aprs l'exemple v u ci-dessus, lorsq ue f est un polynme trigonomtrique, il existe
0
Ol
::::
c:: no tel que pour tout n ~no, S,,(f) = f.
Q)
>-
a. s..
0
u
0 (.) Pour p E N, non nul, notons L P(1f) l'espace des fonctions T -priodiques et de
B
0
..c:: puissance p-ime intgrable sur [0, T], que nous munissons de la norme naturelle
(J,. f
p..
"'
~
1
Il f llu('ll') = 11' 1 (x ) IP dx
)l/p.
'O
0
c::
::::1
0
@ 1. Joseph Fourier ( 1768-1830), mathmaticien franais.
183
Chapitre 5 Les polynmes
Par ailleurs, vrifions que L 2 (11') est un espace de Hilbert pour le produit scalaire
hermitien
(!, g) = i
f(x) g(x) dx
o
f(x + 0) = lim f(x + e) , f(x - 0) = lim f(x - e).
e~O e~ O
184
5.4. Polynmes orthogonaux
Ainsi aux points de discontinuit, l'approximation d'une fonction par les sommes
partielles de sa srie de Fourier n'est pas trs bonne : c'est ce que nous appelons le
phnomne de Gibbs.
Soit
C := 11 0
sin(1Tx) dx
1TX
~ 0, 59.
Si f E L 1('TI') admet une drive gauche et une drive droite en tout point,
alors pour tout x
1
lim ( S11(/) -
n -++oo
!) lx+-1 211+ 1
(C - 2)(/(x + 0) - f(x - 0)) ,
1
lim ( S11(/) -
11-++oo
!) lx- - 1
~1
- (C - 2) (/(x + 0) - f(x - 0)).
B
0
..c::
valeurs approches de (ck)lkl ~n Cet algorithme s'appelle la transforme de Fourier
p..
rapide (Fast Fourier Transform). C'est en 1965 que James Cooley et John Tukey
"'
~
1
publient cette mthode [8] mais il semblerait que l' algorithme avait dj t propos
'O
0
c::
par Carl Friedrich Gauss [19] en 1805 et adapt plusieurs reprises sous des formes
0
::::1
diffrentes. Notre objectif est de fournir des algorithmes efficaces pour le calcul d'un
@ polynme trigonomtrique ou pour une srie de Fourier.
185
Chapitre 5 Les polynmes
ck
m
= -1 "'"""'
L Jl.(.'. e - i W k XJ = -1 "'"""'
L Jl.(.'. e - i l1T
m
kl
. (5.25)
m m
l=O l=O
Remarquons d'abord que cette formule produit au plus m nombres complexes dis-
tincts. En effet,
m-l
L 1"le -
211
m
Ck+m -
1 "'"""' m
i (k+m ) l
m
l=O
m- 1
L 1ze -
1 "'"""' 2 1T
m
ikl
m
J=O
Ceci signifie que si nous connaissons seulement m valeurs distinctes de f aux points
(xz)o~z~m - 1 , nous obtenons seulement m valeurs distinctes pour les coefficients de
Fourier. Or, le calcul de S11 (f) ncessite le calcul de 2n + 1 coefficients de Fourier, le
meilleur choix consiste donc prendre m = 2n + 1.
Nous proposons un algorithme simple et rapide permettant d'effectuer le cal-
cul des coefficients de Fourier approchs (c'k)o~k~m-l Pour cela, dfinissons la
transformation de Fourier discrte m comme l'oprateur linaire qui associe
f := (fo, . . . ) fm-1 )T E ccm' le vecteur c := (co , ... 'Cm-Il E ccm donn par
(5.25), nous avons donc c = m f.
"O
Notons ensuite m l' oprateur approchant la transforme de Fourier inverse
0
c f = m c obtenu en appliquant la formule de quadrature des rectangles (5.24)
::J
0
('\"')
,..-! m-1
2
-1 "'"""'
0
N Lezei Ill
1T kl
' k = 0, ... ,m - 1.
@ m
~
l=O
..c
Ol
::::
>-
a. Dmontrons alors un rsultat liant m et m :
0
u
Lemme 5.28
186
5.4. Polynmes ort hogonaux
fil 1
= -
"'~ck
""' m em"ikl '
2
O~l~m-1.
m
k=O
L L e- ~:;
m - 1 ( m- 1
il (k- P)
)
c;.
p= O l= O
~
~e
_1.z!. u (k - p)
= { m si m divise k - p
111
0 smon.
l= O
l= O
187
Chapitre 5 Les polynmes
p- l q- l
_!_
m
LL +
JrsW
, m
(s p+r)k
r=O s =O
p-1(qL:-11
_!_2= r s UJ s.k
) (5.26)
m , q
r= O s= O
Maintenant, il suffit d' observer que la somme entre parenthses est une fonction
priodique en la variable k de priode q puisqu'elle vrifie w~ (k+q) = w~ k w~ q = w~ k .
Ainsi, en dcomposant k comme k = u q + v avec 0 ( u < pet 0 ( v < q,
il suffit de calculer la somme entre parenthses seulement pour 0 ( v < q . En effet,
{J)~ k = {J)~ (u q + v) - {J)~ V . Nous en dduisons pour k = u q + V
Cm
k
= _!_ ~
~
~
p-1
~ Jr ,s
(q-1
+ . UJs v
q
) UJ,. (u q + v)
m
m
r=O s=O
188
5.4. Polynmes orthogonaux
::::
c:: 0.01
Q) -200
>-
a.
0
s..
0 -300 0.001
u (.)
B
0
-400
..c:: 0.0001 "----'-----'---'---'-----'---'---'------"
p.. 0 2 3 4 5 6 -4000 -3000 -2000 -1 000 0 1000 2000 3000 4000
"'
~
1 Figure 5.10
'O
0
c:: Les deux figures reprsentent les donnes d'un signal (!1 )1 et sa transforme de
::::1
0 Fourier discrt e (ck)k
@
189
Chapitre 5 Les polynmes
o ~ ......~ 0.1
1 00
0.01
-200
300 0.001
400
0.0001 "---~-~
0 2 3 4 5 6 -4000 3000 -2000 1000 0 1000 2000 3000 4000
Figure 5.11
Les deux figures reprsentent ce mme signal o nous avons tronqu les coeffi-
cients de Fourier 5 % de la valeur maximale.
400 r--~---i===========::i;-i
si nal Iron ue a 10% - - modes de Fourier Iron ues a 10% - -
300
10
200
100
o r.~~MI
0.1
-1 00
0.01
200
-300 0.001
400
0.0001 "-----'---'-----'-
0 2 3 4 5 6 -4000 3000 -2000 1000 0 1000 2000 3000 4000
Figure 5.12
Les deux figures reprsentent ce mme signal o nous avons tronqu les coeffi-
cients de Fourier 10 % de la valeur maximale.
('\"')
......
0
N 5.1 Interpolation de Hermite
@ Commenons par une application simple de l' interpolation .
......
..c
Ol l . Trouver le polynme P de sorte que
::::
>-
a.
0
u P(O) = 0, P (l) = 1, P ' (l / 2) = 2
190
Exercices
2. En dduire que la diffrence divise f [xo , x 1 , ... , Xn ] est une fonction sym-
trique, c'est--dire pour tout permutation u ,
B
0
..c:: 5.5 Sur les polynmes de Legendre
p..
"'
~
Les polynmes de Legendre sont dfinis par l'expression
1
'O
0
c:: Po= 1,
0
::::1
n! d11 ( 2 )n
@ { Pn(x) = (2n)! dxn X - I .
191
Chapitre 5 Les polynmes
1 1
-l
d'i (x2 - 1)" dm (x2 -
dxn dxm
l) mdx = (- 1)1111 d"+m (x2 -
-l
dx i+m 1
l) m(x2 - 1)" dx.
En dduire que
0, sin i= m,
( n')2
{ ( - 1)/1. _ 111 smon,
(2n)! '
avec In = 1 1
-1
(x 2 - 1)11 dx.
3. Relation de rcurrence
2n
Montrer que 111 = - ( ) 111-l
2n + 1
11 - l
Enj ustifiantquex Pn- i(x) = Pn(x)+ L ai P(x),avecaj E ffi., etO ~ j ~ n-1,
i=O
calculer
1
j_ 1
x P,,(x) P,, _ 1(x)dx
en fonction de n et 111
En crivant P11 +1(x) = (x - a 11 ) Pn(x) - 11 P11 -1(x), montrer par rcurrence que
P11 a la mme parit que n et vrifie
Po(x) = 1, P 1(x) = x,
"O
0 n2
c { P11 +1(x) = x P11(x) - -( -n- --) (- -n-+_l_) P11-1(x).
::J
0 2 1 2
(\"')
......
0
N 4 . Application. Calculer la meilleure approximation au sens des moindres carrs
@
......
de la fonction f (x) = x 4 dans l'espace Vect{ 1, x, x 2 } muni de la norme usuelle de
..c
Ol
L 2 (] - 1, l[) .
::::
>-
a.
0 5.6 Polynmes de Tchebychev
u
Soit n ;?: 0 un entier. Dfinissons le polynme de Tchebychev 1 de prerrure espce
parT,1(x) = cos(n arccos(x)),pourtoutx E [-1 , 1].
1. En rfrence au mathmaticien russe Tchebychev (1821-1894). ll s'illustra pour ses travaux en pro-
babilits et statistiques.
192
Exercice s
Montrer ensuite que les polynmes T,1 (x ) sont orthogonaux pour le produit scalaire
de L~ (] - 1, l[) avec w(x ) = (1 - x 2 ) - 1/ 2 , c' est--dire
sin= m = 0
dx {
sin= m # 0,'
I 'TT
J_- 1
T,1 (x) T,n(X) l/
(1 - X 2 ) 2
= 'TT
0
/2
sin# m.
2 . Montrer que T,1 (x) est un polynme de degr n dont le coefficient de x 11 est 211 - 1 .
3 . Posons Yk = cos (k 'TT /n), k = 0, ... , n. Calculer T,1 (yk) et les racines de T,1
4 . Soit P11 (x) un polynme de degr n considr sur l'intervalle [- 1, 1] et dont le
coefficient de xn est 211 - 1 Montrer que
1
o T, 1 est le polynme de Tchebychev dont le coefficient devant le terme x 11 est 211 -
....
0 S(x ) = f (xi) 0 ~ i ~ n +1
0
{ S'(a) = f'(a) , (5.27)
..s::
o.. S'(b) = f'(b) .
~ "'
'O
1
3. En prenant pour i E { 0, ... , n + 1} la fonction spline Si telle que
0
c
;:s
Q 0 si j # z
@ Si(X1) ={ 1 SI. .
J = z,
193
Chapitre 5 Les polynmes
s; s;
et (a) = (b) = O. Puis les splines Sa et Sb telle que Sc/Xi) = 0 pour a E {a, b}
et S~(a) = S~(b) = 1 et S~(a) = S~(a) = 0, montrer qu'une fonction spline S,
interpolant f sur [a, b] s'crit
11+1
S(x) L fj Sj(x) + L f~ S(x) .
j =O aE{a ,b}
P(x) =a +bx + cx 2 ,
5.2 Dans cet exercice, nous gnralisons la dfinition du cours pour les polynmes
"O
de Hermite.
0
c
::J
l . Le nombre de conditions est m + 1 avec
0
(\"')
...... m + 1 = ko + . . . + kn .
0
N
@
...... 2. Puisque nous recherchons un polynme de degr m, nous avons m + 1 inconnues
..c
Ol
:::: correspondant aux coefficients du polynme. D'autre part, il y am + 1 conditions, ce
>-
a.
0
qui signifie que la recherche des coefficients se rsume la rsolution d'un systme
u linaire caiT de taille m + 1. L'existence et l'unicit est donc la consquence du fait
que la matrice A en question est inversible. Pour dela il suffit de montrer que Au = 0
implique u = O.
En d'autres termes, nous recherchons un polynme P de degr m tel que
194
Exercice s
qui est de degr m + 1 alors que Pest de degr m, nous avons alors forcment P O.
5.3 Nous tudions les proprits des diffrences divises qui sont utilises pour
l'interpolation de Lagrange.
1. crivons le polynme d' interpolation de Lagrange Pn sous la forme
Pn(x) = ao + . . . +an x 11
et
l! (n+ l)(17)I 1 1
~ -----
(n + l)! 2 117 - al11+1
et donc Il
If (x) - L n(x) I = ~
2
IT x - Xi
17 - a
i=O
1 ( 2 ) n+ l
lim llf(x) - Ln(x)ll oo ~ - lim = O.
n -+oo 2 ll -+ 00 a - 17
2. a) Considrons a tj. [- 1, 1], ainsi la fonction f est bien dfinie sur [- 1, 1], sur
l 'intervalle [xi, Xi+ I]
1 (x - Xj) ( 1 1 )
fn(x) x/. - a + h x1+ 1 - a - x/. - a
1 1
- - - (x - x-)
1
-------
Xi - a (xi+I - a)(xi - a)
b) Sur chaque intervalle [x;, X;+ il, appliquons l'estimation d' erreur
"O
0
c
::J
0 Or la fonction (x - xi)(xi+I - x) atteint son maximum en (xi+ Xi+i) / 2 et donc
(V)
......
0
N
@
......
..c
Ol
::::
>- avec h = 2/ n. Ainsi cette nouvelle approximation est bien meilleure que celle obte-
a.
0 nue dans la question prcdente !
u
5.5 Nous proposons ici une application des polynmes 01thogonaux.
l . Le polynme P11 correspond la drive n-me d' un polynme de degr 2n, c'est
donc un polynme de degr n. Le coefficient devant le terme x 211 de (x 2 - 1/1 vaut l
et donc en drivant n fois, il vient (2n) !/ n !. Ainsi, le coefficient devant le terme x 11
de P11 est gal 1.
196
Exercice s
=O
Ensuite, le polynme x Pn_ 1(x) est un polynme de degr exactement gal n tout
comme P11 En crivant x Pn- 1(x) dans la base {Po, ... , Pn}, il vient
n-1
x P11- 1(x) = Pn + L ai Pi(x ).
i=O
Par orthogonalit
/_J (n 1)2
.~
j I
-l
X Pn(x) Pn- 1(x) dx =
-l
1 P11(x)l2 dx = (-1)"-(
) ln.
2n !
"O ~
0 'O
c c En procdant par rcurrence (ou en appliquant le Thorme 5.19), nous obtenons
::J ;:s
0 ....
('\'")
"'
Q)
Q)
T"-f
0
~
.:a..... (n!)2 (2(n - l))! In n2
N -- --
@ ....0;:s (2n)! ((n - 1)!)2 J11 _1 (2n - 1) (2n + 1)
~
..c
Ol
"'c
0
::::
c
>- a
Q)
4. En appliquant la mthode des moindres carrs continue et le rsultat prcdant,
a.
u
0 0
(.) nous obtenons le polynme
....
0
1 6( 31) .
0
..s::
o..
~ "' Q(x ) = S+7 X
2
-
1
'O
0
c
;:s
Q 5.6 Nous proposons ici une application des polynmes orthogonaux pour le calcul
@ des points d'interpolation de Lagrange.
197
Chapitre 5 Les polynmes
et
T,1 _ 1(x) = cos((n - 1)0) = cos(nO) cosO+sin(nO) sin O.
Ainsi en ajoutant ces deux galits, il vient
/_
l
- 1
T,1(x) Tm(x) V
d
x
1 - x2
l" cos(nO) cos(mO) dO
0, sim # n
1T, si m = n = 0
{ 1T /2, si m = n > O.
Les polynmes de Tchebychev forment bien une famille de polynmes orthogonaux
pour le produit scalaire L ~ (] - 1, 1[).
2. Montrons ensuite que T, 1 est bien un polynme de degr n. Pour cela, procdons
par rcurrence : To est un polynme de degr zro et T1 est bien un polynme de
degr un. Supposons alors que pour 1 ~ k ~ n, Tk est un polynme de degr k et
le coefficient devant le terme de plus haut degr de Tk est donn par 2k- 1 ; alors en
utilisant la formule de rcmTence T,z+ 1(x) = 2x T,1 (x) - T,1 _ 1(x), nous obtenons bien
que T,z+ 1 est un polynme de degr n + 1 et le coefficient devant le terme de plus haut
degr est donn par 2 x 211 - 1 = 211
3 . Un simple calcul montre que le polynme T,1 vrifie
"O
T,, (cos Cn1T)) = (- l i, k = 0, 1, ... ,n
0
c
0
::J D'autre part les racines de t 11 correspondent aux racines de T, 1 , c' est--dire
(\"')
......
0
N T,1 ( cos (
(2 k +n 1) 1T)) -- 0 , k = 0, . . . , n - 1.
@ 2
......
..c
Ol
::::
4 . Supposons par l'absurde que
>-
a.
u
0 max IPu(x) I ~ max IT,,(x) I.
xE[ - 1,1) xE[ - 1, 1)
198
Exercices
Alors d(x) possde n zros dans [- 1, l]. Notons bien que si une racine a E [ - 1, l]
est l' extrmit de l'intervalle (5.28), elle doit tre compte deux fois car en un tel
point T,;(a) = 0 et P,~(a) = O. D'autre part, tant donn que le coefficient de x 11 est
le mme pour Pn et T,i, d est un polynme de degr n - 1, il possde donc au plus
n - 1 racines, ce qui montre que P11 T,1 Par consquent, si P11 f:. T, 1 alors
points quidistants.
0.8 0.8
0.6 ~ ~ 0.6
.~ ~~ i*
"O ~ 0.4 : 0.4
0 'O
c c::
::J ::::1
_. 0.2
0 0.2 :
('\'")
"'
Q)
Q)
0 . "' ~l
T"-f ~
0 .;a 0
N ..... : ,h.
_.
0 : '/.
@ ::::1
0.2 ~i -0.2
~
..c "'c::
0
Ol
::::
c::
1 0.5 0 0.5 -1 -0.5 0 0.5
Q)
>-
a. s..
u
0 0
(.) (a) (b)
B
0
..c::
p.. Figure 5.13
"'
~ Interpolation de la fonction f(x) = l / ( l + 25 x 2 ) sur l'intervalle [-1 , l ] en utilisant
1 (a) des points quidistants et (b) les racines du polynme de Tchebychev.
'O
0
c::
::::1
0
@
199
Chapitre 5 Les polynmes
5.7 Voici une autre mthode d ' interplation : les splines cubiques.
l . Soient [a, /3] un intervalle de IR et P un polynme de degr trois. En le drivant
deux fois, nous obtenons un polynme de degr un qui vrifie donc
P "(x ) = P"(
. a+) P"(/3) - P"(a) (x-a ) .
/3- a
Puisque P(a) et P(/3) sont connus nous obtenons la valeur manquante P'(a.) en
remplaant x par /3 :
ce qui conclut l' existence et l' unicit de ce polynme P dfini partir des valeurs
P(a) , P(/3), P"(a) et P"(/3).
Nous avons dj vrifi que
"O
0
c
::J
P'(a) = P(/3) - P(a )
0 /3 - a
(\"')
......
~ et d'autre part, un simple calcul donne
@
......
..c P'(a) + P"(a) (/3 - a) + P"(/3) - P"(a) (/3 - a)
Ol
::::
P' (/3)
>- 2
a.
u
0 P(/3) - P(a) + ( P" (a) + 2 P" (/3)) /3 - a.
{3 - a 6
200
Exe rcice s
D'autre part sur l'intervalle [x; , X;+iJ, notons Q le polynme de degr trois tel que
pour tout x E [xi, Xi+I ], Snx; ,x;+il (x ) = Q(x ). crivons la valeur de Q ' au point x i en
appliquant le rsultat prcdent avec a = x; et f3 = X;+ 1,
Ainsi, par continuit des drives premire et seconde de la fonction spline S, nous
avons pour i = 1, . . . , n
ou encore pour i = 1, . . . , n
.<;::::
"Cl ~
0 "O
c c
::::>
....:::i X;+] - Xi Xi - Xi-1
Cl
(V)
"'
~
(Xi+l - X;- i )f [x;-1,x;,X;+ d , (5.29)
~
.-1 'V
0 .~
N
0""'
@ ....
:::i
o f [x;- 1 , x;, x;+ d reprsente la diffrence divise d'ordre trois (5.4).
:
En outre, pour i = 0, nous connai.ssons S' (x0 ) = f' (a) et en calculant le polynme
.
.c. c
0) 0
;:: c
~ de degr trois sur [x0 , x 1] , puis sa drive au point x 0 , nous obtenons
>-
o.. a.
0
0
u (.)
0
0
..s::::
f' (a) = S' (xo) = f (x1 ) - f (xo) - (2 S" (xo) + S" (x1)) x 1 - xo
o.. X] - XQ 6
~
~
"O
1
ou encore
0
c
:::i
Q
2 S" (xo) + S" (x 1) )
X1 - Xo f (x1 ) - f(xo) _ f '(a). (5.30)
@ (
6 XJ - Xo
201
Chapitre 5 Les polynmes
J' (b) = S' (x11 +1) = _f_(x_,_i+_I_) _- _ _f (x_n_) + ( S" (xn) + 2 S" (Xn+l))
X11+I - Xn 6
c'est--dire
Posons alors le vecteur S" = (S~ , ... , s:i~ 1 ) o S{' = S"(xi) pour i = 0, ... , n. En
rassemblant les galits (5.29), (5.30) et (5.31), nous vrifions que le vecteur S" est
solution d' un systme matriciel linaire n + 2 quations. Ce systme admet bien une
solution unique puisque la matrice construite est diagonale strictement dominante.
Pour conclure, nous avons dmontr que pour tout intervalle [xi, Xi+ J] avec
z. = 0 , ... , n, nous d,.etermmons
. d es valeurs pour S"x; et S" (Xi + I ) d e mamere
. ' umque
.
en fonction des donnes sur la fonction f.
3. partir de n + 4 conditions, nous avons construit une fonction spline S. Par
exemple, en prenant pour i = 0, ... 'n + 1 la fonction si telle que
0 si j =f. i
Sj(Xj)
.
= { 1 . .
SI ] = z,
.
s;
et (a) = s;
(b) = 0, nous pouvons en utilisant la mme dmarche que prcdem-
ment construire une fonction spline Si qui vrifie les hypothses (5.27). De la mme
manire, nous construisons Sa et Sb.
Ol
::::
spline S qui interpole la fonction f sur l'inter-
>-
a. valle [a , b]
0
u Figure 5.14
n+ I Illustration de l'interpola-
S(x) L fj S.i(x) + L f~ Sa(x). tion par spline cubique
j=O aE{a,b}
202
LES QUATIONS
Dl FFRENTI ELLES
Z(t) -
'.. . y(t) .......
4
3
N\JWWVWVVVNvvvwvvit./\J\!Nv\NN.f~
2
y(t)
-2 ~-~-~-~--~~
(a) (b)
Figure 6.1
tude du mouvement d'une coupe transverse du pont l'aide d'une quation
diffrentielle ordinaire. (a) Nous considrons les variations au cours du temps
de la hauteur du pont par rapport la position d'quilibre y(t) et de l'angle de
rotation Z(t). (b) Rsultats de simulations numriques de la solution (y (t) , Z(t)).
De la mme manire, l'extension du cble de gauche est donne par (y+ l sin(Z))+.
Finalement, en prenant en compte la force du vent sin(wt) d'une amplitude faible
> 0 et de frquence w/ 27T, une force d'amortissement d' amplitude 8 > 0 et la
gravit g, la loi de la mcanique de Newton permet d'crire un systme diffrentiel
'O
pour y et Z:
0
c
::J
0 3
('\'") Z" (t) K cos(Z(t)) [(y(t) - l sin(Z(t)))+ - (y+ l sin(Z(t)))+]
,..-!
0
ml
N
@ + sin(w t) - 0 z' (t),
~
..c
Ol
::::
>-
a. y"(t) = - K [(y(t) - l sin(Z(t))t - (y+ l sin(Z(t))t] + g - oy'(t),
u
0 m
o l est la longueur des cbles au repos et m la masse du pont.
Cette quation n' est pas sous une forme trs convenable pour la discrtisation et
pour l'tude thorique, nous prfrons l'crire sous la forme :
204
6.1. Introduction et rappels thoriques
U1 = Z, U2 Z' ' U3
y'
f (t , u)
Cette quation diffrentielle ne peut pas tre rsolue exactement, c'est pourquoi
il est indispensable de recourir la simulation numrique sur ordinateur pour ten-
ter d' approcher la solution et recomposer ainsi les dernires minutes correspondant
aux mouvements du pont suspendu avant son effondrement. Un exemple de solution
approche est prsent sur la Figure 6.1 : le dplacement vertical y(t) est ici amorti
tandis que les variations de l'angle Z(t) ne s' amo1tissent pas, ce qui conduit l' ef-
fondrement du pont.
,
Q)
T"-f ~
0
N
.;a
.....
_.
0
u<n)(t) = f (t, u, u' , ... , u<11 - 1
(6.1)
@ ::::1
~
..c
Ol
"'c::
0 o f est une application dfinie sur 1 x U x U 1 U,1 _ 1 1---+ E, 1 est un intervalle
::::
c::
>-
a.
Q)
s.. de JR, U, U1, ... , U11 _ 1 sont des ouverts d' un espace de Banach E. Une solution de
0 0
u (.)
B
l'quation diffrentielle ( 6.1) est une application u de classe <.ef'11 (1 , E) vrifiant
0
..c::
p..
(6.1).
"'
~
1
'O
0 Remarque
c::
0
::::1
Lorsque E = R l'quation diffrentielle est dite scalaire tandis que lorsque f est
@ indpendante de t, l'quation diffrentielle est dite autonome.
205
Chapitre 6 Les quations diffrentielles
Thorme 6.2
Soit f E ~0 (1 x U , E) et supposons qu'il existe un voisinage de (0, u 0 ) dans
1 x U et L > 0 tels que pour tout t E I , x et y dans ce voisinage
llf(t ,x) - f(t ,y)ll ~ Lllx - Yll-
Alors
il existe T > 0 et u E ~ 1 ([0 , T], U) solution du problme de Cauchy (6.2);
si v est une autre solution, elle concide avec u sur l'intervalle [0, T];
"O
0
c
si de plus f est de classe ~r (1 x U , E) avec r ~ 1, alors u est de classe
::J ~,.+1 (/ , U).
0
('\"')
T"-f
0
N
@ La dmonstration de ce thorme repose sur le thorme de point fixe contrac-
.:t:Ol tant que nous avons dmontr au Chapitre 3 [Thorme 3.4]. Nous proposons une
~ dmonstration de ce thorme dans la section 6.2.2 en prouvant la convergence du
- schma d'Euler explicite par une mthode de compacit.
u
1. En rfrence Augustin Louis Cauchy, mathmaticien franais (1789-1957) qui fut l'un des plus
prolifiques. Ses travaux portrent sur l'analyse (fonctions holomorphes, critres de convergence sur les
sries entires) mais aussi en optique sur la propagation d'ondes lectromagntiques.
2. En rfrence Rudolph Otto S. Lipschitz (1832-1903), mathmaticien allemand, qui travailla sur la
thorie des nombres, les quations diffrentielles compltant les travaux de Cauchy.
206
6.1. Introduction et rappels thoriques
Dfinition 6.3
Nous appelons trajectoire ou orbite partant de u 0 l'ensemble dfini par
Corollaire 6.4
Soient u 0 et v0 E V deux donnes initiales distinctes. Alors les trajectoires Tu 0
et Tv0 sont disjointes.
Thorme 6.5
Soient f E ~0 (1 x V , Rd ), supposons de plus que f est localement lipschit-
zienne en la deuxime variable et u la solution de (6.2) dfinie pour 0 ~ t < T.
Si la solution u est uniformment borne sur [O, T] alors T = +oo.
207
Chapitre 6 Les quations diffrentielles
c'est--dire que si nous partons d'une donne initiale proche de l'tat stationnaire
ii, la solution u(t) de (6.3) reste proche del' tat stationnaire pour tout t E ffi.+.
En outre, si la solution u vrifie
lim
f---+OO
llu(t) - ll = 0,
alors nous disons que le point d'quilibre est asymptotiquement stable, c'est--
dire que la solution converge vers l'tat stationnaire.
u'(t ) = A u(t) ,
{ u(O) = (6.4)
uo
et la solution est donne par u(t) = e A' u 0 avec
tll
eAt = "\""""' -A11 .
L.J n!
nE N
La solution de (6.4) est bien dfinie pour tout temps et ce systme admet un point
d'quilibre ii = 0 dont la stabilit est lie au spectre de la matrice A [11].
Re(A) < O.
"O
0
c
En outre, le point 0 est stable si et seulement si pour tout E Sp( A)
::J
0 soit Re() < 0,
('\"')
T"-f
0
ou bien Re(A) = 0 et n'est pas dfective, c'est--dire
N
@
~
dim(Ker(A - l ,i)) = p,
..c
Ol
::::
>- o p reprsente la multiplicit de .
a.
0
u
Dans le cas non linaire la situation est bien plus complexe. Commenons, comme
souvent, par transformer le problme pour se ramener une situation connue. En
linarisant l'quation diffrentielle (6.3), introduisons o = u - ii, qui vrifie
208
6.1. Introduction et rappels th orique s
o o(o) signifie qu' il existe une fonction e(o) telle que lle(o)ll/ 1
1811---+ 0 lorsque
o---+ O.
Ainsi, lorsque o est initialement petit, les termes en o(o) sont ngligeables et la
stabilit du point stationnaire E U C E se ramne l'tude de stabilit du problme
linaire suivant au point 0
o' = V uf() o.
Nous pourrions esprer un rsultat analogue au cas linaire mais ce n' est hlas pas
toujours le cas (11].
Observons que lorsqu' une valeur propre est de paitie reile nulle, nous ne pouvons
pas conclure sur la stabilit du point d'quilibre en utilisant la thorie linaire. Il faut
alors faire appel la thorie de Lyapunov 1.
Dfinition 6. l 0
Soit E U un point d'quilibre de (6.3). Nous appelons fonction de Lyapunov
une fonction .C : U i---+ lR continue et diffrentiable sur U vrifiant
.C() < .C(u), '/ u E U \ { }
{ \7.C(u) f(u) ~ 0, '/ u E U .
<;::::
"Cl ~
"O
Notons que les hypothses sur .C permettent d' assurer que
0
c c
::::>
....:::i d
Cl
"'
~
- .C(u) = \7.C(u) u' = \7.C(u ) f (u ) ~ O.
(V)
.-1 ~ dt
'V
0
N
.~
0""'
L' existence d' une telle fonction .C permet alors de conclure sur le comportement de
@ ....
.
:::i
: la solution proche de l'quilibre (11].
.c. c
0) 0
;:: c
~ Thorme 6. 11 Thorme de Lyapunov
>-
o.. a.
0
0
u (.)
0 Soient E un espace de Banach de dimension finie et E U un point d'quilibre
0
..s::::
o.. de (6.3). S' il existe une fonction de Lyapunov .C associe l'quilibre E U ,
~
~ alors l'quilibre est stable.
1
"O
0
c
:::i
Q 1. En rfrence Alexander Lyapunov mathmaticien russe ( 1857-1918) qui travailla sur les systmes
@ dynamiques.
209
Chapitre 6 Les quations diffrentielles
m = min .C(u)
llu- ll =e
pour t ~ 0 et donc u(t) <f. B(u, s). Par suite u(t) reste dans le voisinage compact
~ 0 et mme dans le voisinage Ve , donc u est bien stable. o
B(u , e) de u pour tout t
Par la suite, nous prsentons plusieurs schmas explicites classiques (schmas
d'Euler, de Runge et de Runge-Kutta), puis proposons une analyse de convergence
de la solution numrique vers la solution exacte du systme diffrentiel en intro-
duisant les notions de consistance et de stabilit. Nous tudions ensuite un schma
d'Euler implicite pour les quations diffrentielles raides qui jouent un rle important
dans les applications la chimie. Enfin la dernire partie est consacre aux systmes
hamiltoniens.
"O
Intressons-nous maintenant la discrtisation des quations diffrentielles ordi-
0
c naires et supposons que E = ]Rd avec d ~ 1. Pour approcher la solution de (6.2)
0
::J
sur l' intervalle [O, T], dcomposons cet intervalle en N sous-intervalles [t 11 , 111 + 1]
('\"')
,..-! avec t 11 = n 11t, n E {O, . . . , N} et 11t = T / N. Par la suite, la solution num-
0
N rique est note v 11 et dsigne une approximation de la solution u aux points t 11 , pour
@ n = O, . . . ,N.
~
..c
Ol L'objectif de l'analyse numrique des quations diffrentielles ordinaires est
::::
>-
a. de construire des schmas numriques en discrtisant l'quation (6.2). Ensuite, il
0
u s' agit de dmontrer que la solution approche converge, en un sens prciser, vers
la solution exacte. Pour cela, nous cherchons valuer l'erreur de discrtisation
e11 = u(t11 ) - vn, et plus prcisment, obtenir des estimations d' erreur de la forme
210
6.2. Schmas un pas expl icite s
o C ne dpend que de la solution exacte, du temps final T mais surtout pas du pas de
temps 11t tandis que a > 0 donne l'ordre de convergence de la mthode numrique.
f( s, u(s ))ds .
1. , 11+ 1
avec
</>(t 11 , V 11 , ..t) = f (t 11
, V
11
)
.<;::::
"Cl
0
~
"O
Nous tudierons prcisment la convergence de ce schma et dmontrerons par la
c
::::>
c mme occasion le Thorme de Cauchy-Lipschitz (Thorme 6.2) pour l'existence
Cl ....:::i
(V)
"'
~
de solutions .
~
.-1
0
'V
.~
Le schma de Ronge. Une autre approximation consiste utiliser la formule du
N
0""'
.... point mil ieu tudie au Chapitre 5 [section 5.4.3]
@ :::i
. :
.c. c
(1"+ ~) ~f
:::i
Q
@ u '' u(t" ) + (t'', u(t" )) .
211
Chapitre 6 Les quations diffrentielles
Dfinition 6.12
Une mthode de Runge-Kutta s tages est donne par
k1 = f (t 1, v
1 11
),
(6.6)
ks = f (t 11
+Cs t:J.t , Vil + t:J.t (as,l k1 + . . . + as ,s-1 ks-1)),
vll+I = vil + 6.t (b1 k1 + b2 k1 + ... + bs ks),
o ci, a; ,j et b j sont des coefficients. Nous les reprsentons habituellement par le
schma
C1 0
C2 a2,1
(6.7)
"O
Cs as ,l as ,s-1 0
0
c b1 bs-1 bs
::J
0
('\"')
T'-f
0 Exemple : mthode d'Euler et de Runge
N
@ Les mthodes d'Euler et de Runge peuvent donc tre reprsentes par les tableaux
~
..c suivants :
Ol
:::: 0
>-
a.
0 l /2 l /2
u
0
212
6.2. Schmas un pas explicites
0
~
.;a 15 -15
N ..... Sur la Figure 6.2, l'axe des abs- Q) ...
@
_.
0
cis ses correspond au log(Llt) c;; *
::::1 Q
~
..c
Ol
"'c::
0
et l'axe des ordonnes repr- -20
::::
c:: sente log (maxn ~ o len(LH)I). Ain si,
Q)
>-
a. s..
0
la pente correspond l'ordre de Euler explicite -+--
0 -25 Runge d'ordre 2 ---X---
u (.)
la mthode.
B
0
..c:: Nous constatons sur cet exemple
Run e-Kutta d'ordre 4 *. .
p..
que le schma d'Euler explicite -5 -4.5 -4 -3.5 -3 -2.5
"'
~
1 est d'ordre un, le schma de log(dt)
'O
0
c::
Runge est d'ordre deux tand is Figure 6.2
::::1
que le schma de Runge-Kutta Comparaison des schmas d'Euler, de
0 Runge et Runge-Kutta 4.
@ quatre tages est d'ordre quatre!
213
Chapitre 6 Les quations diffrentielles
"O
Cependant, en traant l' volution des composantes x(t) et z(t), nous observons
0
c que pour t ~ 15, les simulations numriques mettent en vidence un comportement
::J
0 chaotique de la solution numrique pour diffrents pas de temps (voir Figure 6.4).
('\"')
,..-! C 'est pourquoi, il est important d' tudier le plus prcisment possible le com-
0
N portement de la solution numrique lorsque le paramtre 6.t tend vers zro. Par la
@
~
suite, nous tudierons les mthodes de discrtisation des quations diffrentielles
..c
Ol dites schma un pas .
::::
>-
a. L'ensemble de ces mthodes numriques peut tre dcrit comme un schma un
0
u pas explicite, autrement dit le schma s'crit sous la forme
v0 = u(O)
{ v'z+l = vn + 6.t <f>(t 11 , vn, 6.t) , (6.8)
n = 0, ... , N - 1,
o </> : JR+ x ]Rd x JR+ ~ ]Rd dfinit compltement la mthode numrique. Bien sr,
la mthode est dite un pas car v 11 + 1 ne dpend que de l'tape prcdente v 11
214
6.2. Schmas un pas explicites
30
dt= 2.E-4 --+-- dt= 2.E-4 --+--
dt= 2.E5 --------- 50 dt= 2.E5 ---------
dt = 2.E6 dt = 2.E6
20
.1 40
i
10
l: ~
!
::'
; :;
I .
!1 ;
1
~
' .,
. ..
;\i! i~
..
.... 30
x....
~ ~
';;
1-1
:: 'N
'1Jl :~ ,'
0 1
20
10 10
20 0
0 5 10 15 20 25 30 0 5 10 15 20 25 30
Figure 6.4
volution des composantes x" et z11 en fonction de n pour un schma d'Euler
explicite et diffrents pas de temps t:i.1 = 2. 10-4, 2. 10-5 et 2. 10- 6
Ainsi l'algorithme est satisfaisant ds lors que l'erreur e11 = llv 11 - u(t11 )ll converge
vers 0 pour tout n E {O, ... , N} lorsque le pas de temps tl.t tend vers zro.
tudions d'abord le schma le plus simple, c'est--dire le schma d'Euler expli-
cite, pour lequel nous proposons une dmonstration de convergence qui ne repose pas
sur un rsultat d'existence de solutions pour (6.2): la convergence du schma num-
rique constitue donc une preuve du Thorme de Cauchy-Lipschitz (Thorme 6.2).
Ensuite, nous proposons une tude gnrale des schmas un pas et donnons des
conditions suffisantes sur la fonction efJ pour dmontrer la convergence et calculer
l'ordre du schma.
"O
.~
~
6.2.2 Convergence du schma d'Euler explicite
0 'O
c c:: Soit u(t) la solution exacte de l'quation diffrentielle (6.2) et v 11 la solution appro-
::J ::::1
_.
0 che donne par le schma un pas (6.8). Dfinissons l'erreur globale au temps t 11
('\'")
"'
Q)
Q)
T"-f
0
~
.;a
par la diffrence entre les solutions exacte et approche :
N .....
_.
0
@ ::::1
e 11 (tl.t) = u(t 11) d 1, n E N.
~
..c
Ol
"'c::
0
-
::::
c::
Q)
>-
a.
0
s..
0
u (.)
Dfinition 6.13
B
0
..c::
p..
Considrons l'quation diffrentielle ordinaire (6.2). Nous disons que le schma
(6.8) est convergent sur l'i ntervalle [0, T] lorsque pour tl.t = T / N
"'
~
1
'O
0
c::
::::1
lim
D.t-.O n=O, .. . ,N
max lle''(tl.t)ll = O.
0
@
215
Chapitre 6 Les quations diffrentielles
En outre le schma est convergent d' ordre p s'il existe une constante C > 0 ne
dpendant que de f, T , u 0 et surtout pas de fl. t telle que
Notons alors V fit la fonction affine par morceaux de [0, T] valeurs dans E , dfinie
par
Nous souhaitons dmontrer que la fonction Vfir converge vers une solution de (6.2).
D' une part, puisque f est continue elle est borne sur tout compact. La drive
de VLif est alors borne sur un intervalle inclus dans [0, T] indpendamment de fl. t .
L'ensemble (vtit h t>O forme ainsi une famille de fonctions quicontinues dont une
sous-suite converge uniformment grce au Thorme d' Arzel-Ascoli.
Soit (vm)mEN une suite de fonction s telles que {Vm : [0, T] f--4 JR, m E N} est
quicontinue sur [O, T ] avec 0 < T < +oo, c 'est--dire que pour toute > 0, il
existe 8 > 0 indpendant de m E N tel que pour tout lt - si ~ 8 ,
Alors il existe au moins une solution au problme de Cauchy (6.2) dfinie sur
l' intervalle [0, T0 ] avec T0 = min(T , 8 / M) et il existe une sous-suite de la solu-
tion numrique donne par le schma d'Euler qui converge vers cette solution.
216
6.2. Schmas un pas explicite s
D MONSTRATION. Soient > 0 et T > 0 tels que B(uo, ) C U , alors par dfi-
nition de M la solution numrique w,, (t) E B(u0 , ) pour tout t E [0, T0 ] avec
T0 = min(T , / M) et de plus
llv,(t) - v,(s) ll ( M lt - si.
Ainsi, d'aprs le Thorme d'A.rzel-Ascoli, il existe une sous-suite (v 1; m)m EN" qui
converge uniformment vers une fonction u. Il reste dmontrer que u est solution
de (6.2), c' est--dire que pour tout t E [O, To]
2::::
11 = 0
1.
l"
, 11+ 1
1 1
llf(s, vr(s)) - f (t", v11 )ll + llf (s, VM(s)) - f (t "+ , v"+ ) llds
N- 1
( 2 2= (llt) llt = 2 T (llt ).
n= O
En crivant cette ingalit pour une sous-suite convergente et en passant la limite
llt tend vers zro, nous obtenons le rsultat. o
Nous montrons facilement que lorsque la fonction f est lipschitzienne par rapport
.<;::::
la seconde variable, la suite dfinie par le schma d'Euler converge uniformment.
"Cl ~
0 "O
c c
::::>
....:::i 6.2.3 Consistance et stabi lit des schmas un pas
Cl
(V)
"'
~
.-1 ~
'V tablissons maintenant des critres gnraux sur l'ensemble des schmas numriques
0 .~
N
0""'
....
un pas, crits sous la forme (6.8), ce qui permettra de dmontrer facilement la
@
.
:::i
: convergence de la solution approche vers la solution exacte. Pour cela, dfi nissons
.c. c
0) 0
c deux notions importantes : la consistance qui renseigne sur la cohrence de la dis-
;::
>-
o..
~
a. crtisation et la stabilit qui signifie le contrle de l'accumulation des erreurs.
0 0
u (.)
0 Pour n E N, l' erreur de consistance du schma (6.8) au temps t, pour u une solu-
0
..s:::: tion de (6.2) et un pas de temps llt, est obtenue en appliquant le schma de discrti-
o..
~
~
sation la solution exacte, c'est--dire
1
"O u(t + llt) - u(t)
0
c
:::i
R(t, u , llt ) = llt - </J(t, u(t ), llt ), (6.9)
Q
@ ce qui permet alors de dfinir la consistance.
217
Chapitre 6 Les quations diffrentielles
Dfinition 6.16
Considrons le schma un pas (6.8) associ l'quation diffrentielle (6.2).
Nous disons que le schma est consistant lorsque pour tout t E [0, T] et toute
solution u E <&'([O, T], JR.d) de (6.2)
De plus, pour p E N, le schma est consistant d'ordre p s'il existe une constante
C > 0 ne dpendant que de f , T et u 0 mais surtout pas de dt telle que
Ainsi, la consistance donne une indication sur la cohrence de l' approximation </>
de la fonction f. En effet, elle signifie que lorsque le paramtre de discrtisation dt
tend vers zro, la fonction ef>(t , u(t), dt) converge vers f (t , u(t)). tablissons alors
une condition suffisante sur cf> pour que le schma (6.8) soit consistant.
DMONSTRATION. Prenons u E <&' 1([0, T], JR.d ) la solution exacte de (6.2), nous
'O
pouvons crire pour t E [O, T - dt]
0
c
0
::J t+Llt J t+M
u(t +Llt)-u(t) = t u'(s)ds = r f(s , u(s))ds .
('\"')
T"'f
0
N
J
@ Nous en dduisons alors que
~
..c
Ol
:::: A ) u(t +dt) - u(t) A.( ) A )
>-
a. R(t , u , ut = dt - 'f t , u(t , ut ,
0
u
1
dt
Jt+
r
Llt [f(s , u(s)) - ef>(t , u(t) , dt)] ds.
218
6.2. Schmas un pas explicite s
e l
llR(t , u , 11t)ll ~ 2 + .t
j t+M llf(s,u(s)) - f(t,u (t)) llds.
1
D'autre part, la fonctions ~ f(s , u(s)) est continue sur [0, T], elle est donc unifor-
mment continue, il existe donc 172 > 0 tel que pour tout lt - s 1 ~ .t ~ 172 ,
1 J'+M llf(s,u(s))-f(t,u(t)) ll ds ~ e
.t t
2.
Ainsi, lorsque 11t ~ 17 = min(7J 1, 7]2), l'erreur de consistance satisfait
llR(t , u,.t)ll ~ e,
f(o)(t, w) = f(t , w)
"Cl
<;::::
~
{ .f(m+I)(t,w) = a~~m)(t,w) + 'Vw.f(m)(t, w)f(t , w) , m ~ O.
0 "O
c c
::::>
Cl ....:::i Par rcurrence, la solution de (6.2) vrifie pour tout m E {O, ... , p}
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
.... u<m+l\t) = f(m)(t, u(t)), t E [0, T].
@ :::i
. :
.c. c
0)
;::
0
c partir de cette dernire galit et d'un dveloppement de Taylor de la solution de
~
>-
o.. a. (6.2) l'ordre p, il vient
0
0
u (.)
0
0
..s:::: p f1t m f1 tP+I
o..
~ u(t + .t) u(t) + ~ - u(m)(t ) + u <p+J)('T])
~ ~ m! (p+ 1) ! '
1 m= I
"O
0
c /1 m
p- 1 .tp+I
Q
@
:::i
u(t) + .t
m=O
L
(m ~ l) ! .f(m)(t, u(t)) +
(p + l)!
u(p+I)(7]).
219
Chapitre 6 Les quations diffrentielles
p- l /1t m
</>(t ,v, 11t) = L f(m) (t , v)(m+l)! ' (6.10)
m=O
,.,-,( A
/'\., f , U , u.f
) = u(t + !1t)
A
- u(t ) - ,./-.( ()
<p f l U f , U.f
= A )
U
(p+l) (
1J
) f1t P
) .
u.t (p + 1 !
Compte tenu que u<P+I) est continue, elle est borne sur [0, T] et l'erreur de consis-
tance est bien d' ordre p. Nous pouvons alors facilement dmontrer l' aide de (6.10)
la Proposition suivante
C 'est alors un exercice trivial que de vrifier que le schma de Runge est effecti-
vement d'ordre deux et le schma de Runge-Kutta quatre tages est d'ordre quatre.
Ces critres donnent une information sur la prcision d'une tape de discrtisation
mais ils n' assurent pas que l'accumulation des erreurs ne converge pas vers l'infini
lorsque le nombre d'tapes ou d'itrations crot. Pour exprimer cela, introduisons la
notion de stabilit.
'O
0
c
::J Dfinition 6.19
0
('\"')
T'-f
Le schma (6.8) est stable s' il existe ~t* > 0 et R > 0 pouvant dpendre de la
0
N
donne initiale u0 et du temps final T = N !1t tels que pour tout !1t E [O, !1t* [
@
~
..c v il E B(O, R), Vn = 0,, ... , N ,
Ol
::::
>-
a.
0 o B(O, R) dsigne la boule de centre 0 et de rayon R. Autrement dit la solution
u numrique v il est borne indpendamment de n et ~t .
En outre, le schma est inconditionnellement stable lorsque 11t* = oo.
220
6.2. Schmas un pas expl icite s
trop faib1e pour permettre une analyse de convergence d'un schma numrique un
pas. C' est pourquoi, nous introduisons une notion de stabilit plus contraignante,
c' est Ja stabi1it par
. rapport
- . .
aux erreurs.
-
Dfinition 6.20
Le schma (6.8) est stable par rapport aux erreurs s'il existe dt* > 0 et C > 0
dpendant de u 0 , f et T tels que pour 0 ( d t ( d t* ,
v 11 +1 := v 11 + d t </>(t 11 , v 11 , d t) ,
et
w n+I := w 11 + dt </>(t 11 , w 11 , d t ) + B11 ,
pour n = 0, . . . , N - 1 et (s" )nEN c ~d est donne, alors
Cette dfinition signifie que pour qu' un schma soit stable il faut et il suffit que
l' accumulation des erreurs soit du mme ordre que la somme des erreurs commises
chaque tape. Nous proposons une condition suffisante de stabilit pour un schma
un pas de la forme (6.8)
"Cl
.<;::::
~
11</>(t, u , d t) - </>(t , v , dt)ll ( r l u - vll (6.11 )
0 "O
c c
::::>
Cl ....:::i pour tout t ~ 0 et dt > O. Alors la solution numrique donne par (6.8) est stable
"'
~
(V)
.-1 ~
'V
par rapport aux erreurs.
0 .~
N
0""'
....
@ :::i
:
.
.c. c D MONSTR ATION. Soient (v 11 ) 11 et (w 11 ) 11 telles que
0) 0
;:: c
~
>-
o.. a.
0
v11+ 1 := v" + d t </>(t 11 , v" , d t),
0
u (.)
0
0
..s::::
o.. et
~
~
w 11 + 1 := w 11 + d t </>(t 11 , W 11 , d t) + 8
11
1
"O
0 En faisant la diffrence et en utilisant la condition (6.11), .il vient pour e11 vn-wn
c
:::i
Q
lle + 1 11 ( (1 + r d t ) lie" li + lls 11 .
11 11
@
221
Chapitre 6 Les quations diffrentielles
k=O
C = err > O. D
partir de la notion de consistance et de stabilit, nous pouvons dmontrer la
convergence de la solution numrique vers la solution exacte de (6.2). C'est un rsul-
tat classique en analyse numrique et plus gnralement en analyse : nous verrons
plus tard que cette notion revient lors de l'analyse de schmas numriques pour les
quations aux drives paitielles.
"O
0 DMONSTRATION. Puisque le schma est consistant, la solution exacte u vrifie
c
::J
0
('\"') u(tn+l ) = u(t 11 ) + Llt cp(t 11 , u(t 11 ) , Llt) + Llt R(t 11 , u , Llt) ,
,....f
0
N
@
avec la condition suivante sur R(t 11 , u , Llt) : pour tout t E [0, T] et u solution exacte
~
..c
de (6.2)
Ol
:::: lim llR(t, u , Llt)ll = 0,
>- 6.1~0
a.
0
u et puisque le schma est d'ordre p
222
6.3. Les quations diffrentielles raides
En faisant la diffrence entre les deux galits, le terme d'erreur en(lit) = vn - u(t 11 )
satisfait la relation de rcurrence
e11 + 1(Lit) = e11 (Lit ) +Lit [ c/>(t'Z, v 11 , Lit) - </>(t 11 , u(tn) , Lit)]
- Lit R(t11 , u(tn) , Lit ).
le terme de droite tend bien vers zro lorsque Lit converge vers zro, puisque pour
tout i E {O, ... ,n}
223
Chapitre 6 Les quations diffrentielles
De la mme manire
et
_ Cb Cb d Cb Cc d Cb Cc d
dec - 2 t + t - t.
28 28 28
En passant formellement la limite dt ---+ 0, nous obtenons un systme d'qua-
tions diffrentielles raides, c'est--dire contenant des chelles d'ordre diffrent e,
1/ 8 et 1/ 8 2
'() = _ C ()
C at Bat+ Cb(t) Cc(t) ,
2e
C~(t) = +8 Ca(t) - c;8~) Cb(t;~c(t)
C'( ) = C't(t)
c t 2e2 .
Cette raction dcrit la production de ractants c partir de la substance a tandis
que b sert de catalyseur. Observons en effet que Cc = 1, Ca = Cb = 0 est un
quilibre vers lequel la solution est suppose converger. Pour un tel systme, l' utili-
sation d'une mthode de Runge-Kutta explicite est pratiquement impossible car nous
serions obligs de prendre un pas de temps f!..t trs petit pour obtenir une approxi-
mation raisonnable, sans quoi la solution numrique devient instable. En effet, une
caractristique de cette quation diffrentielle est la prsence de diffrentes chelles
(lente, trs rapide et rapide), pour que le schma explicite reste prcis, il faut que le
"O
0 pas de temps soit du mme ordre que la frquence la plus rapide, c'est--dire ici de
c
0
::J l'ordre de 8 2 .
('\"')
,..-!
Pour mieux comprendre ce phnomne, considrons un problme bien plus simple
0
N pour lequel tous les calculs sont explicites et qui possde les mmes caractristiques
@
~
..c
Ol eu' (t) = -u(t) + cos(t), 0 < e << 1. (6.12)
::::
>-
a.
0
u Cette quation diffrentielle est linaire inhomogne et la solution exacte est donne
par
1 .) - t / e cos(t) 8 sin(t)
u ( t ) = ( uo - 1 + 82 e + 1 + 82 + 1 + 82 .
Cette solution est la somme d'une fonction oscillant une priode de 27T et d' une
fonction qui tend vers zro la vitesse de 1/ 8.
224
6.3. Les quations diff rentiell es raid es
Observons maintenant ce qu' il se passe lorsque nous appliquons la mthode d' Eu-
ler explicite une telle quation pour un pas de temps fit constant. La solution num-
rique au temps !11 = n fit est alors donne par
Comme pour 1' quation diffrentielle, recherchons une solution sous la forme
v 11 =
fit ) Il
(v 0 + a cos(t 11 ) + f3 sin(t 11 ).
( 1 - -;- - a)
En injectant cet ansatz dans le schma numrique, nous obtenons deux quations
linaires pour a et /3 dont la solution est de la fonne
a = 1 + O(s fit) , /3 = s + O(sfit 2 ) ,
ce qui donne finalement
fit) Il (v0
v 11 = ( 1 - -;- - 1) + cos(t 11 ) + s sin(t 11 ) + O(s fit).
l 1 - fit / B 1 < 1,
c'est--dire lorsque fit < e, ce qui est trop contraignant dans la pratique lorsque
s est trs petit. En dfinitive, tous les schmas explicites un pas doivent satisfaire
une condition similaire pour que la solution numrique soit stable, ce qui les rend
inutilisables pour ce type de problme plusieurs chelles. Il faut donc construire
des schmas diffrents pour les systmes diffrentiels raides.
.<;::::
Envisageons alors l' utilisation d' une mthode implicite directement inspire du
"Cl ~ schma d' Euler. En reprenant la dmarche utilise prcdemment sur l'intervalle
0 "O
c c
::::>
....:::i [t 11 ' t 11 +fit],
Cl
(V)
.-1
0
N
"'
~
~
'V
.~
0""'
....
u(t'" 1
) - u(t" ) = 1. ,11 +1
f (s, u(s )) ds ,
@
.
:::i
: le schma d'Euler implicite consiste appliquer la mthode des rectangles en utilisant
c
.c.
0) 0
c
la valeur droite f (t 11+ 1 , u(tn+1) ) , il vient alors
;::
~
>-
o.. a.
0
0
u / "' f (s , u(s )) d s f (t"+', u(t"' ' )).
(.)
0
0
"' /'J.t
..s::::
o..
~
~
1
Le schm a d'Euler im plicite s'obtient alors en remplaant u(t 11+ 1) par son approxi-
"O
0 mation v11+ 1
c
:::i
Q vo = u(O) (6.1 3)
@ { v11 +1 = v 11 + fit f (t z+I, v z+ 1) ,
1 1
pour n = 0, . . . , N - l.
22 5
Chapitre 6 Les quations diffrentielles
11
vn = ( 1 + --f
a )- (v0 - 1) + cos(t") + e sin(tn) + O(t:..t e).
Cette fois-ci nous n' avons pas de restriction sur la longueur du pas, car
1
< 1,
1+ t:..t
pour tout t > O. Dans ce cas, le schma implicite donne une bonne approximation
mme si t:..t est trs grand. Il y a donc bon espoir que des schmas implicites soient
mieux adapts la rsolution numrique de problmes raides.
2
0.5
0
"O 0
0
c -2
::J
0 -0.5
('\"')
,..-!
0 -1'----~----"'........~-~--~---"'~
N
0 2 4 6 8 10 0 2 4 6 8 10
@
~
..c (a) (b)
Ol
:::: Figure 6.5
>-
a. volution de la solution numrique obtenue par un schma d'Euler (a) explicite
u
0
et (b) implicite pour l'quation (6.12) avec e = 10- 1 et D.t = 0, 2.
Par la suite, nous tudions la convergence du schma d'Euler implicite l' aide
de la mthodologie dveloppe pour les schmas un pas. Puis, nous introduisons
une nouvelle notion de stabilit pour la comprhension des phnomnes plusieurs
chelles (A-stabilit) et proposons d' autres schmas implicites d'ordre plus lev.
226
6.3. Les quations diffrentielles raides
et appliquons les rsultats de la section 6.2. Ici la fonction </> est seulement dfinie de
manire implicite puisqu'elle vrifie
Alors il existe une unique solution v 11 + 1 fournie par le schma (6.1 3) ds lors que
le pas de temps vrifie 6.t < 1/ L. De plus, le schma est consistant d' ordre un et
stable par rapport aux eneurs, il est donc convergent.
.<;::::
"Cl ~ Ce schma entre donc bien dans le cadre des schmas un pas (6.8) tudis dans la
0 "O
c c
::::>
....:::i partie prcdente. Nanmoins, comme nous l'avons constat sur l'exemple prcdent,
Cl
(V)
"'
~ ce schma satisfait une proprit supplmentaire dite de stabilit inconditionnelle.
~
.-1 'V
0 .~
N
0""'
....
@ :::i 6.3.2 Stabilit des schmas implicites
. :
.c. c
0) 0
c
L' tude de l' quation diffrentielle linaire non homogne (6.12) rvle que ce n'est
;::
>-
o..
~
a. pas le terme non homogne qui pose des difficults la mthode explicite, mais c'est
0
u
0
(.)
0
plutt l'approximation de la solution de l'quation homogne eu' = -u. Consid-
0
..s:::: rons donc le problme linaire homogne
o..
~
~
1 u' = u, (6.14)
"O
0
c
Q
:::i
dont la solution exacte est u(t) = C eA 1 laquelle est uniformment borne pour tout
@ t ) 0 ds lors que Re(.A) ~ O. La solution numrique d'une mthode de Runge-Kutta
227
Chapitre 6 Les quations diffrentielles
applique avec un pas de temps tit constant au problme actuel, ne dpend que du
produit tit. Il est alors intressant d' tudier pour quelle valeur de tit la solution
numrique reste borne uniformment par rapport aux itrations n E N.
Dfinition 6.24
Considrons une solution numrique approchant (6.14) qui est une fonction de
z = tit. Alors l'ensemble :
S := {z E C, (v11 )11 EN est borne}
S = {z, ll +z l ~ l} ,
S ={z, l z -1 1 ~ 1} ,
c'est l' extrieur du disque de rayon 1 et de centre +1. Seule, la mthode implicite est
A-stable.
Pour une mthode de Runge-Kutta, la solution numrique est de la forme
S = {z E C, IR(z)I ~ 1}.
"O
0
c
0
::J Nous pouvons vrifier que la fonction R(z) est en fait un polynme, l'ensemble S
('\"') est born et la condition de stabilit tit E S impose une restriction svre au pas
T""f
0
N
de temps tit . Ces mthodes ne sont donc pas recommandes pour la rsolution des
@ quations diffrentielles raides. Bien sr, nous pouvons appliquer le schma d'Euler
~
..c implicite mais celui-ci est seulement d 'ordre un ; nous proposons alors des mthodes
Ol
:::: de Runge-Kutta implicites.
>-
a.
0 Il suffit pour cela d'utiliser la mme mthode que pour les schmas de Runge-
u
Kutta explicites (6.6)-(6.7) s tages mais avec une matrice (ai ,j )J ~.i,j ~s pleine. Par
exemple, pour une mthode implicite 3 tages nous partons de la formule intgre
de l' quation diffrentielle comme pour l'obtention des mthodes de Runge-Kutta
explicites
11
u(t + tit) = u(t
11
) + J.
t"
r" + 6.r
f(s , u(s))ds.
228
6.3. Les quations diffrentiell es raides
1. ,11+1
+ O(Llt 4 ) .
Il reste approcher la valeur u(t11 + ~') : en intgrant (6.2) de t 11 t 11 + ~' et en
appliquant une formule de quadrature qui utilise cette fois-ci les valeurs en t 11 + Llt / 3
et t 11 + Llt , il vient alors
229
Chapitre 6 Les quations diffrentielles
.t k1 = ZV
11
+ }~ (5 .t k[ - flt k2),
{
flt k2 = ZV
11
+ ~ (3 .t k[ + flt k2)
Ce systme linaire pour 6.t (k 1, k2 ), peut tre rsolu et nous introduisons la solu-
tion de ce systme dans l'expression de la troisime formule de (6.15). Ceci donne
v 11 + 1 = R(z) v 11 avec comme fonction de stabilit R(z)
R(z) = P(z) 1 + z/ 3
Q(z) 1 - 2z/ 3 + z2 / 6
Sur 1' axe imaginaire, nous avons
2
IQ(iy)l - IP(iy)l =
2
(1 ~r +~y2-(1+~) ~: ~ o
Ceci implique IQ(i y)I ~ IP(i y)I et aussi IR(i y) I :( 1. Les singularits de R(z),
qui correspondent aux zros de Q(z), sont Z = 2 i J2 dans le demi-plan droit.
Ce qui signifie que la fonction variable complexe R(z) est analytique dans le demi-
plan gauche [18] et par le principe du maximum [18], la fonction R(z) est majore
par 1 pour Re(z) :( O. D
Cette construction peut tre gnralise pour obtenir des mthodes de Runge-Kutta
implicites qui sont A-stables et d'ordre quelconque.
"O
6.4 LES SYSTMES HAMILTONIENS
0
c
::J Le modle de base de la mcanique est la loi de Newton. C' est une quation diffren-
0
('\"') tielle du second ordre indiquant que l'acclration d'un point matriel est quivalente
,..-!
0
N
la rsultante des forces exerces sur ce point :
@ d2x
~
..c m dt 2 = F(x ). (6.16)
Ol
::::
>-
a. Cette quation n'est pas exactement sous la forme habituelle d'une quation diff-
0
u rentielle du premier ordre, elle le devient en faisant intervenir la vitesse du point
v = ~~, le systme devient un systme diffrentiel du premier ordre autonome
dx
dt = v,
dv F(x)
dt m
230
6.4. Les systmes hamiltoniens
nous supposerons que F reprsente une force et drive d' un potentiel, c'est--dire
que F(x) = - \7 x V(x) , la quantit V(x) s'interprte comme l'nergie potentielle du
point x. En multipliant l'quation (6.16) par v et en intgrant par rapport au temps,
nous constatons que l'nergie totale :
est conserve au cours du temps. Nous disons que le champ de force est conservatif,
Application l'astronomie.
L'tude du mouvement d'un satellite autour d'une plante est un problme deux
corps.
Pour un satellite de masse m attire par une Trajectoire de la Lune autour de la Terre
plante de masse M, la loi de la gravitation uni-
verselle fournit un potentiel
gMm
V(x) = - llxll
et un champ de force central donn par
X
F(x) = - g Mm llxll3'
B Dans la pratique, le trac d'un portrait de phase comprend les lieux des change-
0
..c::
p.. ments de signe des composantes du champ de vecteurs f (u), l'orientation du champ
"'
~ de vecteurs dans les zones dlimites par ces lieux et quelques orbites remarquables
comme les points stationnaires f (u) = 0 qui sont seulement des orbites rduites
1
'O
0
c:: un point.
::::1
0
@
231
Chapitre 6 Les quations diffrentielles
l'ensemble E dsigne l'espace des phases. En dfinitive, le portrait de phase est une
manire de compresser l'information sur l'volution du systme puisque l'informa-
tion sur la variable temps est absente. Cependant, les fl ches indiquent la direction de
l' volution sans spcifier la valeur de t et les tangentes une trajectoire dans l' espace
des phases reprsentent les directions des vitesses u' (t ) pour tout t ~ O.
Exemple
Considrons un systme diffrentiel mod-
lisant un systme lectrique.
1.2
08
/1,----------
1--.-------
-----
---/
_-_-_-_/,.,..,, \
.___....__....__
{
u; (t) = - u 1 (t) - u 2 (t) + 1, 0.2
0
-------/.//
--- - - - - /
- -- ---- /
/
--..---....~_....~--"'*"__..,
--..--... ~ _......__..~_....,,
_..,,., /
_.....,,
I
/
/
I
I
/
/
U~ (t) = U1(t) . l - - - - ' - -'--_......_ _....,,__,,,,_....::?:..~.....a::..~
Il n'est pas ncessaire de rsoudre explicitement l' quation diff rentielle pour en
tracer le portrait de phase. Les intgrales premires, lorsqu' il y en a, fournissent une
aide prcieuse pour prciser le portrait de phase.
Dfinition 6.27
Soit E un espace de Banach et U un ouvert de E. Une intgrale premire de
l'quation diffrentielle u' = f (u) est une application g E ~ 1 (U , E) telle que
"O
0 tff(u(t)) est constante le long de toute solution. De faon quivalente,
c
::J
0
('\"') \ltff(u) f(u) = 0, u E U.
T"-f
0
N
@
~
..c
Il n'est pas vident de trouver une intgrale premire d ' une quation diffrentielle
Ol
:::: quelconque, il n'en n' existe d ' ailleurs pas toujours . Le plus souvent cette application
>-
a. correspond une quantit physique qui est conserve au cours du temps, comme
0
u l 'nergie.
Considrons par exemple le problme du mouvement d ' un pendule de masse m ,
suspendu au point 0 par un fil non pesant de longueur l. Pour cela, nous tudions
l 'volution au cours du temps t ~ 0 de l' angle 8(t ) autour du point 0 et tablissons
une quation diffrentielle ordinaire pour 8 en utilisant les lois fondamentales de la
dynamique.
232
6.4. Les systmes hamiltoniens
80 = 7T j3, 8'(0) = 0.
-m g
ce que nous savons dj grce la conservation de l'nergie totale et que nous pou-
vons retrouver par sparation des variables.
La Figure 6.9 reprsente le portrait
de phase de l'quation du pendule
pour w = 1 c'est--dire qu'en chaque
point du plan (8 , 8') E [- TT , TT] x 1R
correspond le vecteur normalis
( 8' , - sin( 8)) E JR2 . Cela permet de
se faire une ide des trajectoires,
des points stationnaires (ici (0, 0) et
( TT , 0)) et de leur stabilit.
<;::::
"Cl ~ Par dfinition , les courbes int-
0 "O -5 -4 -3 -2 -1 0 2 3 4
c c
::::i :::i
.... grales sont incluses dans les
0 - Portrait de phase du pendule
(V)
"'
~ ensembles de niveau des intgrales
~
.-1
0
'V
.~
premires. En particulier, pour un Figure 6.9
N Portrait de phase pour l'quation du
@ ....:::i""' systme de deux quations diffren-
0
: pendule.
.
..c c tielles dont nous connaissons une
Ol 0
;:: G)
c .intgrale premire, tracer le portrait de phase revient, aprs avoir plac les points
>-
a. s...
0
fixes, tracer les courbes de niveau de cette intgrale premire. Le portrait de phase
0
u (.)
0 du pendule simple peut aussi tre trac la main, grce l'intgrale premire
0
..c:
o..
~ 1
~ E(x, v) = v 2 - cosx .
"O
0
1
2
c
Q
:::i
L'allure des ensembles de niveau {(x, v), E (x , v) = a} dpend de la valeur du para-
@ mtre a.
233
Chapitre 6 Les quations diffrentielles
~~
0
c
::::i
0
= \lpH(q ' p) ,
(V)
.-1 { dp
0
N
dt = -'VqH(q , p).
@
. Les systmes hamiltoniens, c'est--dire de la forme ci-dessus, constituent une classe
..c
Ol
;:: trs importante d' quations diffrentielles, dont le hamiltonien H est toujours une
>-
a. intgrale premire, c'est--dire une constante le long des solutions. Par la suite nous
0
u mettons au point des mthodes spcifiques pour la discrtisation de systmes hamil-
toniens. crivons le hamiltonien sous la forme H (q, p) = T (p) +V (q) et le systme
diffrentiel s'crit alors
~~ \!T(p),
{ dp
dt
- \!U(q).
(6.17)
234
6.4. Les systmes hamiltoniens
d dq dp
dt H(q(t) , p(t)) = \!T(p(t)) dt+ \!U(q(t)) dt = 0;
.~
DMONSTRATION. Dmontrons que J'Pi (A) = 1 en vrifiant que J <p,(A) est constant
"O
0
~
'O au cours du temps et vaut J<p,(A) = J'Po(A) = 1. En effet, d'une part,
c c::
::J ::::1
_.
0
('\'")
"'
Q)
8q' (t) = \1 2 T(p(t)) 8 p(t)' 8p'(t)
Q)
T"-f ~
0
N
.;a
..... 8qo 8qo 8qo
_.
0
@ ::::1
~
..c "'c:: et d'autre part
Ol 0
::::
c::
Q)
>-
a.
0
s..
0
8q'(t) v2T(p(t)) p(t) , a 8p'(t)
u (.)
B 8po 8 Po 8qo
0
..c::
p..
"'
~
Ainsi,
1
d = :!:_ ()q(t) 8p(t) - 8q(t) 8p(t) ) = 0
'O
0 1
c::
::::1
dt 'Pi (A) dt 8qo 8qo 8po 8qo '
0
@ ce qui montre bien que le systme hamiltonien prserve l' aire au cours du temps. D
235
Chapitre 6 Les quations diffrentielles
Lors d'une simulation numrique d'un systme hamiltonien, il est souhaitable que
les proprits gomtriques du flot exact soient prserves aussi bien que possible au
cours des itrations. Hlas, pour un schma classique de type Euler explicite, l' ner-
gie discrte de la solution numrique va crotre au cours du temps tandis que l'aire
d'un ensemble n'est pas conserve. Pour une mthode d'Euler implicite, c'est l'in-
verse. Ce phnomne peut tre observ sur le cas trs simple H(q, p) = q 2 / 2+ p 2 / 2.
En dfinitive, aucune des deux mthodes n'est acceptable, nous proposons alors
d'tudier une mthode d'Euler symplectique.
ou alors l'inverse
q11+I = qn + f1t \i'T(pn+I ),
{ p 11 +1 = p 11 - 11t \i'U(q 11 ).
Notons que les deux mthodes sont parfaitement explicites! Pour la premire, il suffit
de calculer d'abord qn+I puis pn+I tandis que pour la seconde, c'est l'ordre inverse.
Ce schma possde une proprit d'invariance de l'aire.
"O
0 o (q", pn) est obtenu par l'un des schmas ci-dessus. Alors l'application
c
::J A C ffi. 2 r--+ <p11 (A) C ffi.2 prserve l'aire, c'est--dire
0
('\"')
T"-f
0
N
Aire(<pn(A)) = Aire(A);
@
~
..c nous disons que cette mthode est symplectique.
Ol
::::
>-
a.
0
u DMONSTRATION. Nous dcomposons le membre droit du systme hamiltonien
comme suit
dq = 0 dq
dt '
dt = \i'T(p) ,
et
{ dp { dp = O.
dt = -\i'U(q) ,
dt
236
6.4. Les systmes hamilton ien s
Les deux systmes peuvent tre rsolus de manire exacte et tous les deux pro-
viennent d'un hamiltonien, ils prservent donc l'aire. En revanche, remarquons que
cette dcomposition modifie l' nergie car elle n' est plus dfinie de .la mme manire
pour les deux systmes.
Le schma symplectique n'est donc que la composition des solutions exactes des
deux systmes ci-dessus. Il prserve donc l' aire. o
Une autre possibili t est de prendre la moyenne arithmtique des schmas d'Euler
explicite et implicite
pour laquelle cette fois-ci un problme non linaire doit tre rsolu chaque itration,
ce qui peut tre relativement coteux. Nanmoins dans la pratique ce schma est
assez prcis pour les systmes hamiltoniens et est d' ordre deux. Pour le vrifier, il
suffit de l'crire comme un schma un pas explicite-implicite et d' appliquer la
Proposition 6.18. Nous vrifions son efficacit sur l'exemple suivant pour le trac
d' un cercle.
Exemple : construction d'un cercle
Considrons le systme diffrentie l suivant
.<;::::
x' (t) = - y(t), y ' (t) = x(t),
"Cl ~
(6.19)
0 "O { x(O) = 1 y(O) = 0,
c c
::::>
Cl ....:::i
(V)
"'
~
dont les t raject oires dcrivent le ce rcle de centre O et de rayon un. En appliquant
~
.-1 'V
0 .~ le schma d'Euler explicite (6.5), ce la condu it calculer les points (x'1, y n) de coor-
N
0""'
.... donnes
@ :::i
. : 1 - !lt ]
.c. c avec A = [ D.t (6.20)
0) 0
c 1
;::
~
>-
o.. a.
0 En effectuant le produit scalaire de ce systme algbrique avec le vecteur (xn , y n},
0
u (.)
0 nous obtenons
0
..s::::
o..
~
~
1 En appliquant alors le schma d'Euler implicite (6.13), ceci cond uit calcu ler les
"O
0
c points (xn, y n) dont les coordon nes v ri fient lxnl 2 + 1Ynl2 = 1/ (1+!lt2 )n. En revanche,
:::i
Q en appliquant le schma numrique (6. 18), la solution v rifie lxn1 2 + 1Yn l2 = 1, c'est-
@ -d ire que les points demeurent sur le cercle de centre O et de rayon un.
237
Chapitre 6 Les quations diffrentielles
150
Euler Explicite - Euler Implicite -
100
50 0 .5
0
0
-50
-0 .5
-100
-150 -1 ~~~~~~~~~~~
-150 -100 -50 0 50 100 150 -1 -0 .8 -0.6 -0.4 -0 .2 0 0.2 0.4 0 .6 0.8 1
(a) (b)
Figure 6.11
volut io n d e la solution (xn , yn) en fonctio n d e n po ur (a) un schma d 'Eul er
ex plicite et (b) un schma d'Euler impl icit e.
u(t 11 1
+ ) - u(t 11
) = 1,11 + 1
t"
f(s,u(s))ds.
Il s'agit ensuite de remplacer la fonction f (s , u(s)) par un polynme p(s) qui sera
facile intgrer. Pour cela, nous construisons un polynme d' interpolation de la fonc-
tions ~ f (s , u(s)) aux points t i, pour j = n - k + 1, ... , n. Nous obtenons alors
1
u(t"+ ) - u(t") "' l 111+1
p(s) ds .
Prenons par exemple !'interpol des ~ f(s, u(s)) aux points tn - l et tll sur l'inter-
valle [t 11 , t 11 + 1), il vient alors
"O
c
0 f( tn u(t11)) - f(tn-1 u(tn-1))
::J P1(t)=f(t11-l , u(t11-l ))+(t - tn-l) ' 11t '
0
(V)
T'-f
0
et donc en remplaant u(t 11 ) par son approximation v 11 , nous obtenons le schma
N d'ordre deux d' Adams-Bashforth
@
11t
v1z+ l = vn + - (3 f (tll' vn) - f (tn- 1' vll-1)) .
~
..c
Ol
:::: 2
>-
a.
0
u Bien sr rien n'empche d' utiliser galement le point t 1z+ 1 ce qui permet de
construire des schmas d' Adams-Bashforth implicites. Par exemple l'ordre deux
11t
v'z+J = vil + 2 (f (t n' vil) + f (t'i+l' v'z+l )) '
qui con-espond au schma (6.18) qui a dj t mis au point pour les systmes hamil-
toniens.
238
Exercice s
Exercices
u' = u2f 3
{ u(O) = 0
l . Justifier que cette quation admet au moins une solution sur un intervalle se temps
[O, t0 ] avec t0 suffisament petit.
2. Calculer deux solutions particulires.
6.2 Systme d'ordre deux
Considrons le systme
1
(x") + teY +y' X - X
{ y' y" - cos(xy) + sin(tx'y) X. '
"O
.~
~
u' (t) ~ a(t) u(t) + b(t),
0 'O
c c::
::J ::::1
_.
0
"' Montrer que
fo' ef;
Q)
l
Q)
>-
a.
0
s..
0
u (.)
"'
~
l
1 Montrer que
'O
0
c::
::::1 u(t) ( b(t) + a(s) efJ a(>)d' b(s )ds.
0
@
239
Chapitre 6 Les quations diffrentielles
montrer que
vn+l :::;; ear" vo + LIl
bkear" - k.
k=O
6.4 Considrons le problme de Cauchy suivant : trouver u E 1&7 1([0, l], IR) telle
que
u'(t) = - 150u(t)+ 30
{ u(O) = 1
y' + k y 2 = 0, y(O) = 1.
240
Exercice s
zn+I _ Zn (zn+l + Zn ) 2 o.
at +k 2
1. Quelles valeurs des coefficients b 1, b2 , a etc faut-il choisir pour avoir un schma
d'ordre un et deux?
2 . Le schma d'Euler modifi (6.21) entre-t-il dans ce cadre?
B
0
..c::
p..
1
V z+I = V
11
+ at </>(t 11 , V 11 , at)
"'
~
241
Chapitre 6 Les quations diffrentielles
avec t i = i !it.
2. A l'aide d'un dveloppement de Taylor en t = 0, montrer que
avec
do= 2=:=0
Gj
d1 = l::=o iai - bi
3. Montrer que la mthode multi-pas est d' ordre m ds que di 0, pour tout
0 ( i ( m et d m+l -/:- O.
Solutions des exercices
6. 1 Nous proposons ici un exemple de non unicit de solution.
1. La fonction f (u) = u 213 est continue, le problme de Cauchy admet donc une
"O
0
solution locale sur un intervalle de temps [0, t0 ].
2 . D 'une part u = 0 est une solution triviale et d'autre part en utilisant une mthode
c
::J
0
(\"') de sparation des variables, on montre aussi que u(t) = t 3 / 27 est solution.
......
0
N
@ 6.2 Nous traitons ici un systme diffrentiel d'ordre deux.
...... 1. Nous crivons simplement x 1 = x, x2 = x', x 3 =y et x 4 =y', il vient alors
..c
Ol
::::
>-
a.
0
x'1 X2,
u x'2 (x2 - X1 - X4 - tex3 ) 1/ 2 ,
x'3 X4,
x'4 (x1 - sin(t x2x3) + cos(x1 x3 )) /x4 .
242
Exercices
et on en dduit que
d ( e- 11o a(s)ds
dt . u(t) ) :( e- J~ a(s)ds b(t).
et donc
u(t) ( u(O) el; a(s)ds + fo' el: a(r)dr b(s )ds.
2 . On pose
v(t) = l a(s)u(s)ds
et l' on a v'(t) = a(t)u(t). Puis d'aprs l'hypothse et puisque a(t) est positive, il
vient
v' (t) ~ a(t)(b(t) + v(t)).
Nous appliquons alors l'ingalit prcdente pour conclure.
3. On a d'abord
VII+ 1 :( e allt) VII + bn.
T"-f
Q)
~ Ainsi en majorant le terme w 11 par rcurrence, il vient le rsultat.
0 .;a
N .....
_.
0
@ ::::1 6.4 Nous traitons ici la rsolution numrique d'un systme diffrentiel raide.
~
..c
Ol
"'c::
0 l . La solution exacte est donne par u(t) = (u(O) - 1/ 5) e- 15or + 1/ 5. Observons
::::
c::
que u(t) ~ 1/ 5 lorsque t ~ +oo.
Q)
>-
a.
0
s..
0
u (.)
243
Chapitre 6 Les quations diffrentielles
-D
et donc
v" = (v 0
(1 - 150 Lit)" + ~
4. Prenons d t = 1/ 50 et v 0 = 1, il vient v11 = ~ ( -2) 11 + 1/ 5 la suite (v"),zEN est
trs loin de dcrire le comportement de la solution exacte u(t). Il faut plutt prendre
un pas de temps dt < 1/ 150 pour obtenir des rsultats convenables.
5. Pour un schma d'Euler implicite, la suite est donne par
v 11 = (v 0 - 1/ 5) (1+150 d t)- + 1/ 5. 11
244
Exercices
Puisque L 11t < 1, la fonction cf> est lipschitzienne par rapport u, le schma est
donc stable. Par application du Thorme 6.22, le schma tant consistant et stable,
il est convergent.
2. crivons ce schma sous la forme d'un schma explicite un pas, il vient
v 11 + 1 = vn + 11t <f>(tn, v" , 11t) avec
f (I)
cf>
811
/t , u , 0) = l1 ( 8t
f
+
f)
f(t,u) u (t,u) = T(t ,u).
c' est--dire z'z+ 1 = 2( vil + 2 k 11t zn - (1 + k 11t zn / 2)) j (k 11t) ~ 0 pour tout
0 < 11t < 4/ (k z" ).
6.6 Nous tudions ensuite des schma plus gnraux d' aordre deux.
l . Le schma s'crit v 11 + 1 = v 11 + 11t <fa(t'1, v 11 , 11t ) avec
Pour que le schma soit d' ordre un, il suffit que <P soit continue ce qui est assur
lorsque f est continue et que
ce qui signifie b2 c = 1/ 2 et a = 1/ 2.
2 . Le schma (6.21) correspond en effet c = 1/ 2, b1 = 0, b 2 = 1 et a 1/ 2,
il entre donc dans ce cadre.
et
</>2(t 11 , v 11 , 11t) = \1T(p 11
- 11t \1U(q 11 )).
"O
0
Le schma est bien explicite et un pas.
c
0
::J 2 . Pour la consistance, vrifions d'abord que <P est continue. En effet, U et T sont
(\"') au moins de classe <i;f 1 et donc </> 1 et <fa2 sont continues. Il reste vrifier que pour
......
0
N
u = (p , q), </> 1(t ,u, 0) = - \lU(q) et <fa2(t , u, 0) = \lT(p - 0 x \lU(q )) = \lT(p).
@ Le schma est donc consistant.
......
..c
Ol
Concernant la stabilit, vrifions que <P est lipschitzienne par rapport u. Pour
::::
>- u = (p , q) et v = (r , s)
a.
0
u
ll </> 1(t , u, 11t) - </> 1(t, v , 11t)ll = Il - \lU(q) + \!U(s) ll ~ f 1 ll q - sil ~ f 1 llu - vll,
ll </>2(t, u , 11t ) - <fa2(t, v, /1t) ll ll \!T(p - 11t \1U(q )) - \lT(r - 11t \1U(s)) ll
~ f 2 ll P - 11t \1U(q) - r + 11t \1U(s) ll,
246
Exercices
et l'on obtient le rsultat. 2. Il suffit de montrer que cette condition signifie que
Lu = O (arm+t ).
"O
0
c
::J
0
('\"')
,..-!
0
N
@
~
..c
Ol
::::
>-
a.
0
u
247
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
APPROXIMATION
NUMRIQUE
DES QUATIONS
, ,
DERIVEES PARTIELLES
'
,'
1
', I
/ ' ,,'
, , I
/ ' ,,'
I , I I , J / , 1
gauche droite, le flux de chaleur se I I /
Q = s r x+x f(s)ds .
l x - x
Q(x + x) + Q(x - x) + Q = 0,
ou encore
"O
0
c
K u'(x + 8x) - K u'(x - 8x) = - 1~+:: /(y) dy.
::J
0
('\"')
En divisant cette dernire galit par 2x et en faisant tendre x vers 0 nous obtenons
,..-!
0 formellement l'quation de Laplace
N
@
~ - Ku"(x) = f(x) , Vx E ]a , b[.
..c
Ol
::::
>-
a.
La temprature de la barre est par exemple fixe aux deux extrmits, nous ajoutons
u
0 alors cette quation les conditions aux limites u(a) = a et u(b) = {3.
Dans ce cas nous obtenons un problme aux limites, compos d' une quation dif-
frentielle du second ordre sur un intervalle ]a , b[ et d'une condition aux extrmits
x =a et x = b, que nous crivons alors
- Ku"(x) = f(x), a< x < b, (7.1)
{ u(a) = a, u(b) = {3.
250
7.1. Modlisation de la rpartition de chaleur
avec des conditions aux limites sur la frontire r = on et une donne initiale au
temps t = O. Dans ce cas, cette quation est appele quation linaire parabolique o
:t dsigne un oprateur d'volution et 6. un oprateur linaire elliptique
82 u 82 u
6.u = ox2 + oy2 .
Remarque
.~
"O ~
'O
Observons que le problme (7. l) est diffrent de ce lui tudi dans le chapitre prc-
0
c
::J
c::
::::1
dent bien qu'il s'agis se dans les deux cas d'un problme diffrentiel uni-d imensionnel.
_.
0
"'
Q)
Pour une q uation diffrentielle ordinaire la solution est connue en un point initial t 0
('\'")
T"-f
Q)
~
tandis qu'ici la solution est dtermine aux deux extrmits x = a et b. En outre,
0
N
.;a
..... l'quation de Pois son peut s'crire sur une ouvert n c JRd avec d ~ 1.
_.
0
@ ::::1
~
..c "'c::
0
Concernant l'existence, l'unicit et la rgularit des solutions, le rsultat dpend
bien sr de la fonction f donne. Lorsque f est continue, il suffit d' intgrer deux
Ol c::
:::: Q)
>-
a.
0
s..
0 fois l'quation (7 .1 ), ce qui donne une expression de la solution
u (.)
B
0
..c::
p..
u(x) = C1 + C2x - -11x 1 y f(z)d z dy , (7.2)
"'
~
1
K a a
'O
0
c::
o C 1 et C2 sont dtermines partir des conditions aux limites en x = a et
0
::::1
x = b. Dans ce cas, nous dmontrons facilement que la solution est unique et
@ u E ~2 ([a , b], IR).
251
Chapitre 7 Approximation numrique des quations drives partielles
. .. dcentr gauche
- u(x + Lix) - u(x) - - - dcentr droit
D Di.u(x ) - Lix , --.. centr
252
7.2. La mthode aux diffrences finies
, x2 ,,
u(x + Llx) = u(x) + Llx u (x) + 2 u (17x),
Ainsi pour une fonction u E 'ef2 (R, R ), l' en-eur d'approximation de la premire
formule est proportionnelle x . Une analyse similaire peut tre ralise pour la
deuxime formule d'approximation.
En ce qui concerne la formule centre, la situation est lgrement diffrente : nous
supposons que u E <&73 (R, R) et ralisons un dveloppement de Taylor au point x +Llx
u(x + x)
et au point x - x
2 3
A A t LlX fi X
u(x - u x) = u(x) - u x u (x) + T u (x) - u<3)(17; ),
6
o 17; E [x, x + Llx ] et 17; E [x - Llx, x ]. Ainsi, en soustrayant les deux galits, il
vient
u(x + x) - u(x - x)
.<;::::
"Cl ~
ou encore
0 "O
c c
::::> 2
Cl ....:::i , ) _ u(x + x) - u(x - Llx) _ x [ ( 3)( +) (3) ( _ )]
(V)
"'
~ u (x - 2Llx 12 u 17x + u 17x .
~
.-1 'V
0 .~
N
0""'
....
@ :::i
:
Cette fois-ci, l'erreur est proportionnelle Llx 2 , ce qui confirme bien que la fo1mule
.
.c.
0)
c
0
centre est plus prcise que les deux premires condition que la fonction u soit
;:: c
~ rguli.re.
>-
o.. a.
0
u
0
(.)
0
Enfin pour justifier la validit de la dernire formule, il suffit une nouvelle fois de
0
..s::::
raliser un dveloppement de Taylor en x + 2x et x + Llx, il vient alors
o..
~
~ 2
1 '( ) = -u(x + 2Llx) + 4u(x + Llx) - 3u(x) _ Llx [ (3)( 1) _ . (3) ( 2)]
2 U 17X
"O
0 U X 2LlX 3 U 17X
c
:::i
Q
@ L' en-eur est alors proportionnelle Llx 2 lorsque la fonction u E 't'\R, R).
2 53
Chapitre 7 Approximation numrique des quations drives partielles
Ce systme d' quations comporte nx quations pour n x+2 inconnues; il faut liminer
des inconnues ou rajouter des quations. Pour cela, il suffit d' interprter numrique-
ment les conditions aux limites. Ici, comme ce sont des conditions de Dirichlet, nous
254
7.2. La mthode aux diffrences finies
- K Vnx - .1 + 2 K V11 x
Ce systme linaire s'crit matriciellement
K Av= ~x 2 F,
o A est une matrice carre de taille n x x nx
2 - 1 0 0
- 1 2 -1
A= 0 0
- 1
0 0 - 1 2
et v E JR11 x est le vecteur des inconnues et F la donne
.<;:::: v= F=
"Cl ~
"O
c
0
c K /3
::::>
Cl ....:::i f(xnJ + ~x 2
(V)
"'
~
~
.-1
0
N
'V
.~ Nous avons dj rencontr .l a matrice A E Jlt11x,nx (R), elle est symtrique, dfinie
0""'
....
@ :::i
positive et donc inversible. En outre, elle possde une structure particulire tridiago-
:
.
.c. 0
c nale dont les seuls coefficients non nuls sont :
0)
;:: c
~
>-
o.. a. a; ,i= 2, l :(i:(nx,
0
{ (7.6)
0
u (.)
0 a; ,i+I = a;+t ,i = - 1, 1 :( i :( nx - 1.
0
..s::::
o.. C 'est pourquoi, la rsolution numrique de ce systme ne pose pas de problme.
~
~
1
En revanche, il faut maintenant justifier rigoureusement la validit de la discrtisa-
"O
0
c
tion par le schma aux diffrences finies. L'tude prcdente montre la cohrence
Q
:::i
du schma lorsque la solution u E ?f4([a , b] , R), mais il reste dmontrer que la
@ solution numrique est galement stable.
2 55
Chapitre 7 Approximation numrique des quations drives partielles
En outre puisque f E ~ 2 ([a , b], ffi.) , la solution u de (7.1) vrifie u E ~4([a ,b], ffi.).
Par consquent la formule de Newton-Cotes du Chapitre 5 assure que
lorsque ~x ~ O.
L' analyse de convergence consiste donc valuer la quantit e; (~x ) := v; - u(x),
pourtouti E {O, ... ,nx+ l}.Comme vo = u(a )et v11x+I = u(b), il suffitdecalculer
llx
L ~x l ei(~x)l . 2
i= l
Comme nous l'avons fait pour les schmas numriques pour la discrtisation
d'EDO, dfinissons la notion de consistance qui renseigne sur la cohrence de la
discrtisation et de stabilit qui signifie le contrle de la solution numrique. Tout
d' abord, l' en-eur de consistance du schma est obtenue en appliquant le schma
numrique la solution exacte. Plus prcisment, nous avons la dfinition suivante.
256
7.2. La mthode aux diffrences finies
Supposons que f E <rf2 ([a, b] , R), alors le schma (7.4) correspondant au pro-
blme aux limites (7 .1) est consistant d' ordre deux.
montre que la solution u E <rf4 ([a , b] ,R). C' est pourquoi, le dveloppement (7.3)
peut tre justifi rigoureusement et fournit l' estimation :
D'o
Puis en multipliant par IJ..x et en sommant il existe une constante C > 0 telle que
D
Toutefois, la consistance ne suffit pas dmontrer la convergence de la solution
numrique vers la solution exacte de (7.1). Il faut galement montrer que l' approxi-
mation est borne. Pour ce faire, dmontrons un lemme connu sous le nom d'ingalit
.<;::::
de Poincar discrte puisqu'il s' agit d' une version discrte de (7 .17) que nous verrons
"Cl
0
~
"O
un peu plus tard.
c c
::::>
Cl ....:::i
(V)
"'
~ Pro osition 7.3
~
.-1 'V
0
N
.~
Soient IJ..x = (b - a)/(nx + 1), alors pour tout vecteur w 2
E Rnx+ tel que
0""'
....
@
.
:::i
: Wo = Wnx+I = 0
.c. c
0) 0
;:: c /lx
~
>-
o.. a.
0 LIJ..x lw l2
0
u (.)
0
i=I
0
..s::::
o..
~
~
1
"O
0
c
D MONSTRATION. Nous procdons comme dans le cas continu. Puisque wo = 0, il
Q
:::i
vient
@ Wj = (w; - Wi-1) + (Wi-1 - Wi-2) + ... + Wo,
257
Chapitre 7 Approximation numrique des quations drives partielles
ou encore
llx
L~x lwd2 ~
i= I
(b - a)2
2 D
Nous sommes alors en mesure de prouver le rsultat de convergence suivant
e(~x) = v - Ufi,
L ~x 1 ei (~x)1 2
---+ 0, lorsque ~x ---+ O.
i= I
"O
0
c De plus, il existe une constante C > 0, dpendant de la drive quatrime de u et
::J
0 pas de ~x , telle que
('\"')
T"-f
0 llx
N
@
~
L ~x lvi - u(xi)l
2
~ C ~x 2 . (7.8)
..c i= I
Ol
::::
>-
a.
0
u
DMONSTR ATION. D' abord signalons que puisque f E 1f2 ([a , b] , IR), la solution
4 11
u de (7.1) vrifie u E 1f ([a , b] ,IR). Soient Ufi E IR x le vecteur dont les compo-
santes sont donnes par Ufi,i = u(x; ) pour 1 ~ i ~ nx et le vecteur de 1' erreur de
consistance R(u , ~x) E IR11 x donn par
258
7.2. La mthode aux diffrences finies
~ lei+1(x) - ei(x)l2
4< L x
i=O
x 1eT(x) R(u , x ) 1,
.<;::::
"Cl ~
0 "O Finalement, en appliquant la Proposition 7 .3 nous obtenons une minoration du terme
c c
::::>
....:::i de gauche, il vient alors
Cl
(V)
"'
~
.-1 ~ 1 2
'V
(b
0
N
@
.~
0""'
....
:::i
:
(
nx
t;iix je;(iix) l2
) /
( ;Ka )2 ( ll x
t;iix IR(x;,u, iix) l2
) 1/ 2
.
.c. c
0) 0
;:: c Puis, l'estimation de l'erreur de consistance de la Proposition 7.2 donne l' existence
~
>-
o.. a.
0 d'une nouvelle constante C > 0 telle que
0
u (.)
0
0
..s:::: l/ 2
~ iix le;(iix)l
Il )
o.. 2
~
~
(
1
"O
0
c
Q
:::i ce qui dmontre (7.8). En passant la limite x ----+ 0, nous prouvons alors que v
@ converge vers la solution u de (7.1) pour la norme de L 2 (]a , b[). o
2 59
Chapitre 7 Approximation numrique des quations drives partielles
Nous souhaitons discrtiser (7 .9) par la mthode aux diffrences finies , et pour cela
nous procdons comme dans la partie prcdente. La seule diffrence se situe dans le
traitement de la condition de bords u'(a ) = a. En notant vi une approximation de la
solution u de (7 .9) au point xi = a + i ~x , nous avons
K Vo - K VI - dx Ka ,
- K VO + 2 K V1 - K V2 ~x 2 f (x1 ) ,
"O
0
c
::J
0
('\"')
- K Vnx-1 +2 K V11.x ~x 2 f(x ,1J + K /3 ,
,..-!
0
N ou encore
@
~
K Am V = ~x 2 F ,
..c
Ol
:::: avec la matrice Am E .4,1x+I ,n,+ 1(JR) dfinie par
>-
a.
0
u 1 - 1 0 0
- 1 2 - 1
Am= 0 0
- 1 2 - 1
0 0 -1 1
260
7.2. La mthode aux diffrences finies
f (x J + K {3 / llx 2
11
u(xi - 1) - 2u(xi)
- K -----------
+ u(xi+J)
/lx2
~:
2
et vrifi e
- Ku"(a) = f(a)
de sorte que l 'erreur de consistance R(x 0 , u , !lx ) est de l'ordre de f (a)/ 2, qui ne tend
.<;:::: pas vers zro lorsque !lx tend vers zro. Le schma n'est donc pas consistant!
"Cl ~
c
0 "O
c Pour remdier ce problme, proposons une discrtisation diffrente de la condi-
::::>
Cl ....:::i tion aux limites u'(a) = a. Supposons que la solution use prolonge sur ]a - !lx, b]
"'
et discrtisons le problme - Ku" (a) = f (a), .il vient alors naturellement
~
(V)
~
.-1 'V
0 .~
N
0""'
....
@ :::i K (V- 1 - 2 VO + V 1)
. : = f(a). (7.11)
.c. c
0) 0
;:: c
~
>-
o.. a.
0
Cette discrtisation de la drive seconde au point a introduit une inconnue suppl-
0
u (.)
0 mentaire v _ 1 qui reprsente une approximation de u(a - !lx). Elle est virtuelle et
0
..s::::
o..
nous l'appelons quelquefois l'inconnue fantme v_ 1, car nous allons l'liminer
~
~
immdiatement. Pour cela, interprtons la condition aux limites u'(a) = a en nous
"O
1
inspirant de la formule centre
0
c
:::i
Q u(x + !lx) - u(x - !lx) Lix 2 (3) )
@ u'(x) ____2_Li_x____ + -3-u ( 1Jx ' 1Jx E [x- llx,x +Lix ]. (7.12)
26 1
Chapitre 7 Approximation numrique des quations drives partielles
La formule (7.10) est d'ordre un tandis que celle-ci est d'ordre deux. Nous pouvons
alors poser :
= a.
Cette quation nous fournit une valeur v_ 1 = v 1 - 2~x a , que nous reportons dans
l'quation (7 .11 ), pour obtenir un nouveau schma
Vo - V1 f (a) a
= -- - K - .
K ~X2 2 ~X
Supposons toujours que f E 1&72 ([a , b], JR) et galement K E 1&73 ([a , b], JR) et telle
qu' il existe 'T/ > 0 vrifiant pour tout x E [a, b] ,
Des hypothses moins restrictives sont possibles mais la seule qui soit indispen-
sable est que la fonction K(.) ne s' annule pas. Notons en particulier, que pour les
"O
0
c
applications la fonction K(.) dcrivant les htrognits d'un milieu est constante
0
::J par morceaux. Pour simplifier l' tude, nous considrons seulement des conditions
('\"')
,..-!
aux limites de Dirichlet.
0
N
@ Approximation directe
~
..c
Ol
Lorsque la fonction K(x ) est connue en tout point x E [a , b], la rgle de drivation
:::: d'un produit de fonctions permet d'crire
>-
a.
0
u 1
-(K(x ) u (x ))
1
= -K1 (x ) u' (x ) - K(x ) u"(x ).
Aussi, lorsque la fonction K(x ) est donne par une formule mathmatique explicite,
nous proposons le schma suivant pour 1 ~ i ~ n x
Vi - 1 - 2 Vj + Vi + l '( ) Vi+l - Vi - 1
- K(X;)-
------ K X; A (7.14)
~X2 2ux
262
7.2. La mthode aux diffrences finies
Notons qu' une formule centre d'ordre deux est mise en uvre pour la discrtisation
du terme u'(xi), de manire conserver globalement une formule d' ordre deux.
En revanche, lorsque nous ne connaissons pas la fonction K(.), nous ne pouvons
videmment pas utiliser (7 .14). Puisque nous ne connaissons pas les valeurs exactes
de K1 , il faut les remplacer par des formules aux diffrences finies. En utilisant la
formule centre d 'ordre deux pour crire le schma de discrtisation au point xi,
nous obtenons en notant Ki = K(x;)
Approximations successives
Notons W;+1; 2 une approximation de K(x;+Llx / 2) u'(xi+Llx / 2), vi une approximation
de u(x;) pour i E {l, ... , nx}
Une premire tape de la discrtisation
X
de (7.13) s'crit, au point xi: X
(7.15) Xi-2 X
Xi-1 X
Xi
Xi+l
Xi+2
i-312 t-l/2 Xi+v2 Xi+3!2
B
0
..c::
p..
o K+i ; 2 = K(xi + ~x /2). Il faut disposer des valeurs de la fonction K(.) aux points
"'
~
xi ~x/2. Lorsque nous n'en disposons pas, il faudra remplacer les expressions
'O
1
Ki i ; 2 par des expressions interpoles. Nous remplaons par exemple Kit/ 2 par
0
c::
::::1 Kj + Kil et ven / "fions que 1e sch ema
/ reste d' ordre deux. C omme prece/ /demment
lors~ue K et f
0
@ sont suffisamment rgulires, ce schma est d'ordre deux.
263
Chapitre 7 Approximation numrique des quations drives partielles
avec
Pour appliquer une mthode aux diffrences finies, il suffit de se donner une grille
82
dans ]Rd recouvrant l'espace .n. et d'approcher chaque drive partielle en un u.
8 Xi
point de la grille l'aide d'une formule unidimensionnelle utilisant les points voisins.
Exemple
En dimension deux, considrons n = ]0, 1[ x ]O, 1[ et les points quidistants d'une
grille (x; ,yj ) = (i h,j h), avec h = 1/ (n + 1). En crivant un dveloppement de Taylor
en x, il vient
et en y
"O
0 Pour finalement obtenir
c
::J
0 - 4 u(x;, yj ) + U(X;- 1,Yj ) + U(X;+1, Yj) + u(x; ,Yj - 1) + u(x;,Yj+1)
-K ~U =
('\"')
T"-f h2
0
N
@
~
..c o e(h 2 ) est telle que ls(h 2 )1::;; C h 2 En notant V;J l'inconnue approchant u la solution
Ol
:::: de l'quation de Poisson aux points (x;,yj), nous obtenons le systme suivant de
>-
a.
0 n2 quations en ng ligeant le s termes d'ordre suprieur trois, c'est--d ire le s
u termes e(h 2 ),
ce qui aboutit la rsolution numrique d'un systme linaire dont la matrice est
creuse, symtrique et dfinie positive.
264
7.3. La mthode des lments finis
l b
a
Tv(x) <p(x) dx = - lba
v(x) <p1 (x )dx , '!<p E ~ ([a , b]).
00
Remarquons que cette galit est bien dfinie ds que v E L 2(]a, b[) et
Tv E L 1(]a , b[). On note alors Tu = v'.
Nous observons que lorsque v' est une drive classique alors elle est aussi une
drive faible.
Considrons par exemple le problme de Dirichlet (7 .1) homogne (a = f3 = 0)
et choisissons une fonction quelconque v E fc00 ([a , b] , IR) c'est--dire une fonction
indffojment drivable et support compact. En multipliant (7 .1) par v et en intgrant
"Cl
.<;::::
~
sur le segment [a, b] , une simple intgration par partie donne: pour toute fonction
c
0 "O
c v E ~? ((a , b] , IR),
::::>
Cl ....:::i
(V)
.-1
0
N
@
"'
~
~
'V
.~
0""'
....
:::i
K lbu'(x)v'(x)dx =lb f(x)v(x)dx.
. :
.c. c
0) 0
c
Pour que cette dernire galit ait un sens, il suffit que les fonctions u' et
;:: 2 2
>-
o.. a. v' E L (]a , b [) et v E L (]a , b[). Introduisons 1' espace de Hilbert
~
0
0
u (.)
0 1
0
..s::::
H (]a , b[) := { v E L 2 (]a , b[) , v' E L 2 (]a , b[)} ,
o..
~
~
"O
1 muni de la norme llllH1 donne par: u E H 1(]a, b[)
0
c
:::i
Q
@
265
Chapitre 7 Approximation numrique des quations drives partielles
b 1b
K
la u'(x) v'(x)dx = a f(x) v(x)dx , Vv E H6(]a , b[).
"O
0 a(u , v) = l(v) , '/v E V ,
c
::J
0
('\"')
admet une solution unique.
T"-f
0
N
@
~
Nous renvoyons le lecteur [5] pour plus de dtail sur l'analyse fonctionnelle des
..c
Ol espaces H6(]a , b[). Dans une premire partie nous prsentons la mthode de Galer-
::::
>-
a.
kin1 puis nous nous concentrons sur la mthode des lments fini s unidimensionnels
u
0
pour la construction du systme linaire rsoudre.
266
7.3. La mthode des lments fin is
(7.19)
.<;::::
Supposons que Vh est de dimension n , nous pouvons alors trouver une base
"Cl ~ { o 1 , . . ,o11 } de Vh. Ensuite, en crivant le vecteur solution u h dans cette base, nous
0 "O
c c
::::>
....:::i sommes amens rechercher (u 1 , , un) E Rn tel que
Cl
(V)
"'
~
~ Il
L uiq:ii(x ) .
.-1 'V
0 .~
N
0""'
.... uh(x ) =
@ :::i
. : i =l
.c. c
0) 0
;:: c
~ Ainsi, en prenant successivement vh = oi pour i = 1, ... , n il vient
>-
o.. a.
0
0
u (.)
Il
L Uj a (o j, oi) =
0
0
..s::::
o..
l (oi).
~
~
j= I
1
"O
0
c La formulation variationnelle conduit donc rsoudre le systme linaire
:::i
Q
@ Au = F (7.20)
'
26 7
Chapitre 7 Approximation numrique des quations drives partielles
a(u , v ) = l(v) , V v E V,
et d'autre part
268
7.3. La mthode des lments fin is
Xi - Xi-1
X - Xi+l
Xj - Xi+l
0 , sinon.
:
0 = L i <f>i(x) , \::/ x E [a , b].
.c. c i=l
0) 0
;:: c
>-
o..
~
a. Alors en particulier au point Xi pour n'importe quel point i E { 1, ldot s , n} et donc
i = O. Il en rsulte que ('Pi) 1 ~ i ~ 11 forment une famille libre et gnratrice de Vh,
0 0
u (.)
0
0
..s:::: c'est donc une base et dim(Vh) = n .
o..
~
~
Il reste dmontrer que Vh est un sous-espace vectoriel de H J ( ]a , b[). Nous vrifions
"O
1
facilement que pour tout vh E Vh,
0
c
~
:::i
Q 2
@ r b lvh(x) l dx (b - a) max lvh (x ) l2 < oo,
Ja xE [a,b]
26 9
Chapitre 7 Approximation numrique des quations drives partielles
d'o vh E L\ ]a , b[). Vrifions ensuite que v~(x ) appartient l' espace L\ ]a , b[). En
effet, la fonction vh est linaire par morceau et n' est pas drivable aux points Xi pour
tout 0 :::;; i :::;; n + 1 ; il faut donc calculer v~ au sens des distributions : pour toute
fonction 'P E C 00 ([a, b], lR) support compact
Ainsi Vh E H 1( ]a , b[).
Enfin, puisque vh(a) = vh(b) = 0, nous avons donc le rsultat vh E HJ (]a , b[) . o
Nous dmontrons finalement la convergence de la mthode des lments fini s. Pour
cela, introduisons l'oprateur de projection de HJ(]a, b[) sur l'espace Vh : pour tout
v E HJ(]a, b[)
Il
"O
0
c
::J
0 En appliquant le Lemme de Ca (Lemme 7 .8), nous obtenons
('\"')
T'-f
0
N
@
~
..c
Il suffit donc d'estimer Ilu - IIhu Il H '. Pour x E
Ol
::::
>-
[xi, Xi+ il, nous avons donc
a.
0
u
u(x;) <p(x) + u(xi+J) 'Pi+1(x) ,
X - Xi + l ( ) X - Xi
U ( Xi ) + U Xi+l
X; - X;+I X;+I - Xi
270
7.3. La mthode des lments finis
et donc
(u - IIhu)(x)
pms
.<;::::
"Cl ~
0 "O
c c
::::>
....:::i et en sommant pour i = 0, . . . , Nx
Cl
(V)
"'
~
~
2 71
Chapitre 7 Approximation numrique des quations drives partielles
u 2 u
t (t ,x ) - K x 2 (t,x) = f(x). (7.22)
Dsormais nous possdons tous les ingrdients en main pour le calcul de valeurs
approches de la solution en appliquant une mthode en ligne : une discrtisation en
la variable d'espace est effectue comme pour un problme stationnaire, ensuite un
schma discret permet d'approcher le systme diffrentiel qui en dcoule.
Avant de prsenter plusieurs exemples, nous proposons une tude abstraite per-
mettant de dmontrer la convergence de schmas numriques pour des quations
d' volution. Comme nous l'avons fait pour l'tude des schmas un pas pour les
quations diffrentielles, nous dmontrons la consistance et la stabilit des solutions
numriques, ce qui permettra par la suite de prouver la convergence.
On s'intresse des quations aux drives partielles d'volution, c'est--dire
dpendant du temps t E [0, T], o T reprsente le temps final. Nous considrons
l'quation d'volution suivante pour u : [O, T] i---+ H avec H un espace fonctionnel,
u .
8 +LU = j ' (7.23)
{ u(~ = 0) = uo .
Nous disons que ce problme est bien pos dans V c H lorsque
(7.24)
"O
0
c
0
::J c'est--dire que la solution dpend continment de la donne initiale.
('\"')
,....f
0
L'nergie pour l'quation de la chaleur
N
@ Prenons V = L2 (JR), une fonction f E V donne et un oprateur diffrentiel linaire
~
..c
Ol
::::
>-
a.
0
u
En multipliant l'quation paru et en intgrant su r lR sachant que u(t, x)--+ 0 lorsque
lxl --+ +oo, nous obtenons l'estimation d'nergie suivante
272
7.4. Les quations d'volution
!
11
= nflt , n = o,...
,nr,
{ X = a + i flx, i = 0, . .. , n x + 1,
avec flt = T / nr et flx = (b - a)/ (nx + 1). Puis en notant pour i E {O, ... , nx + 1},
v~ une approximation de u(t 1, xi) solution de (7.23), un schma numrique s'crit
1 1
tandis que v0et v;:x+l sont calcules partir des conditions aux limites.
Notons alors u1i(t 11 ) la projection de la solution exacte u(tn) E V sur R11x et li ll1i, v
une norme d.iscrte de Rnx telle que pour tout u 11 E R"x, projection d' un lment
u E V,
Exemple
Soient V = L2(]a , b[) et x; = a + i ~. avec .x = (b - a)/ (nx + 1). Introduisons
w a = (wa,1, ... , w a,n)r E lRn" la projection de w E L2(]a, b[) telle que Wa,; = w(x;)
pour 1 ~ i ~ nx. La norme discrte associe ll.llA,L2 est donne par
.<;::::
"Cl ~
0 "O Par passage la limite, nous avons
c c
::::> :::i
Cl ....
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
....
@ :::i
. :
.c. c
0)
;::
0
c Nous souhaitons tablir des conditions sur la solution numrique pour assurer la
~
>-
o.. a. convergence vers la solution de (7 .23).
0
0
u (.)
0
0
..s:::: Dfinition 7.1 l Convergence
o..
~
~ Considrons l'quation d' volution (7.23), le schma numrique est convergent
"O
1
lorsque pour fl t = T / nr
0
c
:::i
Q
@
273
Chapitre 7 Approximation numrique des quations drives partielles
o u!l (t 11 ) est la projection de la solution exacte u(t 11 ) E V sur ffi. 11 x et 11 ll.,v est
une norme discrte associe V .
D' autre part, pour p , q E N, le schma est dit convergent d'ordre p en temps et q
en espace s'il existe une constante C > 0 ne dpendant pas de d t et d x telle que
Dfinition 7. 12 Consistance
Le schma (7 .25) est dit consistant lorsque 1' erreur de troncature R(t , u , dt , d x)
tend vers zro, lorsque d t et d x convergent vers zro.
De plus, nous disons que le schma est consistant d'ordre p en temps et q en
espace o p , q E N lorsqu'il existe une constante C > 0 telle que
'O
0
o li li.,V est une norme discrte associe l'espace V.
c
::J
0 La condition (7.24) assurant que la solution u est borne dans un sous-espace V
('\"')
T'-f
0
de H est ncessaire pour dmontrer que le problme (7 .23) est bien pos. La stabilit
N
numrique consiste fournir un quivalent discret de cette condition pour la solution
@
~ numrique v . Ainsi, en s' inspirant de la dfinition de stabilit pour un schma discret
..c
Ol
::::
en temps, nous donnons la dfinition suivante.
>-
a.
0
u Dfinition 7.13 Stabilit
Le schma numrique (7.25) est stable pour la norme discrte 1 1.ll.,v associe
l'espace V , si pour tout T > 0, il existe une constante KT > 0 telle que
274
7.4. Les quations d'volution
Nous souhaitons calculer une solution approche de (7 .26). Tout d ' abord, intressons-
nous aux conditions aux limites, nous posons
D'autre part en appliquant un schma aux diffrences finies pour la drive partielle
seconde en x , le vecteur v (t ) = (v 1, , v11 J E R"x est solution du systme diffren-
tiel
d v (t) K
- - + A 2 A v(t) = F , t > 0,
dt ux (7 .28)
{
v(O) = vo ,
"O
0
1
uo(x ) = 1sin(7T x)I, x E [O, l] ,
c
:::i
Q
@ un terme source nul f (x ) = 0 et nous choisissons n x = 100, T = 0 , 25.
2 75
Chapitre 7 Approxi mation numrique des quations drives partielles
La mthode de Richardson
Le premier schma numrique pour rsoudre l'quation de la chaleur (7.26) a t
celui de Richardson (1910). Il s'agit d'un schma centr en espace et en temps. Le
schma de Richardson est donc donn par
vn + l _ vn-1 K
11
+ A F
2 IJ.t f1x 2 V
2 K fl.t
vn+I = vn - 1 - fl.x 2 A V11 + 2 tl.t F . (7.29)
Il est donc ncessaire de connatre deux itrs successifs pour appliquer ce schma
puisque v 11 + 1 dpend la fois de v 11 - 1 et v 11 , c'est un schma multipas. Hlas, la solu-
tion numrique produite par ce schma n'est pas borne et les calculs ne convergent
pas vers la solution de l'quation de la chaleur (7.26). Ce schma est instable num-
riquement et les valeurs de la solution numrique explosent.
vn+I. = (
r - --
ll x
K fl.t A )
fl.x2
V 11 + 11t F. (7.30)
1e+225
IM24 1 1
1et?2~ ~224 0.9 1 0.9
"Cl
0
~?2
il
2et 4
'1+224
2e+224
0
d
0.7
0.8
0.7
0.6
~:~
0.7
0.8
0.7
0.6
R~ ~]
c 0.5 0.5
t~~j
2et2'24 0.4 0.4
::::i 4&12'24
0 -6et?24 0.4 0.3 0.4 0.3
~:.1~ ~j.1
-8&1?24 0.2 02
(V)
-8!+2'24 1et2'25 0.1 0.1
..-1 0 0
0 1et2'25 0 0
N
@ 0.2
.
..c 0.4
Ol
;:: 0.6
>-
a. OB
0 o.
u o. 51
276
7.4. Les quations d'volution
Observons alors les rsultats d' une simulation numrique pour un pas de temps
= 0, 001 sur la Figure 7.4 (a), la solution numrique oscille fortement en prenant
f::..t
des valeurs de plus en plus grandes. En revanche en prenant D..t = l.E - 4 (voir
la Figure 7.4 (b)), la solution converge vers un tat d'quilibre et les valeurs sont
stables en choisissant des valeurs de plus en plus petites pour D..t et D..x . Ainsi, il
semble que la solution numrique ne soit pas toujours stable au cours des itrations.
Ce problme est en effet raide et la mthode explicite n' est valide que pour un pas de
temps trs petit. Vrifions d'abord que la mthode est bien consistante au sens de la
Dfinition 7.12, l' erreur de consistance est simplement donne par
u(t + f::..t) - u(t) K
R(t , u, D..t, f::..x) = f::..t + f::..x 2 A u(t) - F (7 .31)
et nous avons
277
Chapitre 7 Approximation numrique des quations drives partielles
nous obtenons
n+ J ( 2 K Llt) 11 K Llt ( n n ) A
vi = 1- L'.lx2 vi + L'.lx2 vi+I + vi - 1 + ut f(x)
il vient
"O
0
c
lv;' 11~ (1 - 2:X~t) IV:' 1+ ~~: (lv:',d + lv:'-1 I) + M 1/(x;)I.
::J
0 Puis en prenant le maximum f!laX 1v? I, nous obtenons que pour tout i E { 1, . . . , Nx}
O~t~Jix+I
('\"')
,..-!
0
N
@ l v~z+l l ( f!laX
0~1~11x +l
lvj l +dt llf lli 00 -
~
..c
Ol
::::
D' o, le rsultat par rcurrence
>-
a.
u
0 llv +1 lloo ( Ilv0 lloo
11
+ tn+l Il f IlL 00
D
Ainsi, la mthode d'Euler explicite est seulement stable pour un pas de temps de
l' ordre de Llx 2 , ce qui peut tre contraignant lorsque la pas d'espace devient petit.
1. En rfrence Richard Courant, Kurt Friedrichs et Hans Lewy qui ont dcouvert cette condition
dans un article publi en 1928.
278
7.4. Les quations d'volution
o .A est donn par le nombre CFL (7.32). Ceci permet de passer en Fourier et d'ob-
tenir,
11+ 1(k) = 11 (k) b(k),
{ b(k) = 1 _ ( 2 _ (eik11x + e - ikl1x ) ) .
Elle permet d'noncer le rsultat suivant qui se dduit directement de l' galit des
normes llv llu et Il llu-
11 11
.~
"O ~
0 'O
c c::
::J ::::1
_.
0
"'
Q)
Proposition 7.1 7
('\'")
Q)
T"-f ~
0
N
.;a
..... Avec les notations ci-dessus, nous avons l'estimation
_.
0
@ ::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
u (.)
B
0 En outre, le schma d' Euler explicite (7 .30) est donc stable L 2 lorsque le nombre
..c::
p..
CFL .A vrifie 0 ~ .A ~ 1/ 2.
"'
~
1
'O
0
c::
::::1 Nous en dduisons alors le rsultat de convergence sous une condition de stabilit.
0
@
2 79
Chapitre 7 Approximation numrique des quations drives partielles
DMONSTRATION. Pour tout 1 ~ i ~ nxa solution numrique v~i+ 1 est donne par
tandis que la solution exacte de (7.26) vrifie u E ~ 2 ([0 , T], ~4 ([a , b])) et pour tout
1 ~ i ~ nx
o R i(t11 , u , D..t , D..x) reprsente lai -me composante du vecteur dfinissant l'erreur
de consistance (7 .31) tel que
n+ 1 ( 2 K D..t ) Il K D..t ( n
ei + D..x 2 ei+I +ei - J - ut '"Jt , u , u t, u x).
Il ) A ,.,-, Il A A
"O
0
c
ei = 1- D..x 2
::J
0
('\"')
T'-f
L'analyse de stabilit montre alors que sous la condition CFL (7 .32), on a
0
N
@
~
..c
Ol
::::
>-
a.
o llelloo = max
l ~i~llx
lei I D'o par rcurrence, l' erreur lle ll 11
00 est donn par
0
u
n-1
lle lloo ~ lle lloo
11 0
+ D..t 2= llR(t\u, D..t, D..x)lloo,
k=O
~ lle lloo
0
+ Ct 11
(D..x 2 + D..t).
280
7.4. Les quations d'volution
Dans ce cas, nous observons la stabilit de la mthode pour n' importe quelle valeur
de llt > O.
Intressons-nous maintenant l'analyse de convergence de cette mthode et vri-
fions thoriquement les observations des expriences numriques. D'une part, l 'er-
reur de consistance vaut
.~
et comme pour le schma d 'Euler explicite, nous montrons que le schma d'Euler
~
"O
0 'O implicite est consistant d' ordre un en temps et deux en espace.
c c::
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
Proposition 7.19 Consistance du schma d'Euler implicite
0 .;a
N .....
@
_.
0
::::1
Supposons que fonction f est borne dans L 00 et que la solution u de (7 .26)
~
..c "'c:: vrifie u E 'ef'2 ([0, T], <ef'4 ([a, b])). Alors le schma d'Euler implicite (7.33) est
Ol 0
::::
c:: consistant d'ordre un en temps et d'ordre deux en espace : il existe une constante
Q)
>-
a.
0
s..
0 C > 0, ne dpendant que de u , telle que
u (.)
B
0
..c::
~ C (ilx 2 + d t) .
p..
llR(t, u , dt , ilx)ll
"'
~
1
00
'O
0
c::
::::1 Ensuite, vrifions que la solution numrique est stable pour n' importe quelle valeur
0
@ de llt.
281
Chapitre 7 Approximation numrique des quations drives partielles
K.t
- - . I + v~z+ I ) + ( 1 + -
- (v~z+ 2Kf:.t
- ) v~z+ I = v~i + D.t f(x )
f:.xZ 1+1 1-1 f:.xZ 1 , 1
ou encore
2 K.t)
1+ - - v~z+I = v~'
K.t
+ D.t f (x1 ) + - - (v~i+I + v~z+I)
( f:.x2 1 1 f:.xZ 1+ 1 1- 1
. 2 K.t .
Or, pmsque 1 + f:.xZ > 0 et en prenant la valeur absolue et le maximum sur
sur ( v in+ l ) l~i~vx, 11 vient
(v i11) l~)~Nx pms
Remarque
Pour un schma d'Euler implicite l'tude de la stabilit au sens de Von Neumann,
montre que le coefficient d'amplification b(k) donn par la Dfinition 7.16 vrifie
'O
0 1
c b(k) -
::J - 2(kt..x)'
1 + 4 ,\ srn - 2-
0
(V)
,..-!
0 ce qui signifie que le schma d'Euler implicite est inconditionnellement stable au sens
N
@
de Von Neumann.
~
..c Pour conclure puisque le schma d'Euler implicite est consistant et stable, en
Ol
::::
>-
a.
adaptant la dmonstration du Thorme 7 .18, nous montrons que le schma est
0
u convergent.
282
7.4. Les quations d'volution
r:-az;; a u
T"-f ~
0
N
@
.;a
.....
_.
0
a 2
p(x) y + fi;. t (t ,x) = x (T(t ,x) sin(8(t,x))) + f(t ,x ).
l (7.35)
::::1
2
~
..c
Ol
"'c::
0
::::
c:: En observant simplement la Figure 7 .5, nous sommes en mesure de lier les inconnues
Q)
>-
a.
0
s..
0 (}et u
u (.)
B u
0 tan((}(t ,x)) = lim u x (t ,x),
..c::
p.. x--+O X
"'
~
1
ce qui implique
'O
0 u
c:: 1
::::1 sin(8) = 8X cos((}) = ---;:::===
0
@ J + ( g~)2'
1 J1+ ( g~)2
283
Chapitre 7 Approximation numrique des quations drives partielles
et
8 = tan
_1 (u)
x ,
88
x 1 + (u)2 .
x
En supposant de plus que les vibrations de la corde sont trs petites, c'est--dire
l8(t, x) I << 1 pour tout t et x, nous avons alors tan(8(t , x )) << 1 et
u)
1 + (x
2
u
u 2 (t,x) = c x(t,x) E ffi..
284
7.4. Les quations d'volution
E(t ,x) = ~ [ u 2 + c2 u 2]
2 8t 8x '
21 [ lu1 I2 + lu2I2]
Retrouvons cela en tenues du systme (7.36). En multipliant la premire quation par
u 1, la seconde par u 2 , nous obtenons en additionnant
18 2 2 8u1 U2
- - [u 1 + lu2I ] - c = O.
2 8t 8X
En intgrant l'quation ci-dessus et en utilisant une intgration par partie, nous obte-
nons pour les solutions qui tendent vers 0 lorsque lx1tend vers l' infini (en fait L 2
suffit),
1 2
[u j(t) + lu2(t) l l dx = 1 2
[uf(O) + lu2(0) l Jdx , t ;;;, 0,
8u 0
u2(0) = c Bx .
Pour les systmes du premier ordre non linaires une telle loi de conservation sup-
plmentaire est appele entropie. Ce concept joue un rle important dans la thorie
<;:::: et pour les mthodes numriques .
"Cl ~
0 "O
c c
::::>
Cl ....:::i Discrtisation de l'quation des ondes
(V)
"'
~
~
.-1
0
'V Comme la corde est fixe ses deux extrmits, nous pouvons facilement donner des
.~
N
0""'
.... conditions aux limites pour accompagner l'quation des ondes. En outre, nous fixons
@
une position initiale u(O, x) et une vitesse initiale ~; (0, x) . Ainsi, le problme aux
:::i
. :
.c. c
0) 0
;:: c
>- ~
a. limites s'crit
o..
0
0
u (.)
0 82 u 2
2 8 u
0
..s::::
t 2 (t,x) - c Bx 2 (t ,x ) = 0, (t,x) E IR+x ]a,b[,
o..
~
~
"O
1 u(t, a) u(t , b) = 0, t EIR+, (7.37)
0
c
:::i
Q
@ u(O,x) u 0 (x), ui(x) , x E ]a , b[.
285
Chapitre 7 Approximation numrique des quations drives partielles
d 2 v(t) c2
dt 2 + ~x 2 A v(t) = 0, t > 0,
(7.38)
dv(O)
v(O) = uo, ----;ft = u 1,
t ~ X(t) = ( x1(t) ) .
x2(t)
nx
X'(t) = c2
( --A
~x2
Yn1 + ~t Yn2'
n c 2 ~t A n
Y2 - ~x 2 Y1
286
7.4. Les quations d'volution
{ yn+l
c2 ~t
= Y11 _ _ _ A yn+I
2 2 ~x 2 l
Il est donc ncessaire de rsoudre un systme de taille 2nx x 2nx dont les inconnues
sont y]'+1 et y~+ 1
y]!+] - ~t y~+] = y]',
2
~t
{
Y2n+l + c__ A yn+ l = Yn
~x2 1 2
Pour mettre en uvre ce schma, utilisons cette forme matricielle en procdant une
limination de Gauss par blocs. Il s'agit de s'inspirer de ce que nous ferions pour un
systme de deux quations linaires deux inconnues. Cela consiste tout simplement
multiplier le premier bloc d' quations par -c2 ~t A et ajouter ce nouveau premier
bloc au second, pour liminer le vecteur inconnu y)i+ 1 du second bloc d' quations.
Nous rsolvons alors en cascade:
C 2 ut
A 2 ) n+ 1 /1 C 2A
ut n
( lnx + ~x2 A Y2 = Y2 - ~x2 A Y1,
{
Yt 1
=y)'+ ~tyt ' .
Cela fournit un schma inconditionnellement stable. Cependant, un autre problme
survient. Il s'agit d' un amortissement de l'onde : cet amortissement est purement
numrique, car l'quation des ondes ne conduit pas cet amortissement puisqu'elle
est conservative (conservation de l'nergie). Bien sr si nous observons le mouve-
ment d'une corde vibrante, il finit par s'amortir cause des frottements de l'air, mais
.~
"O ~ ceux-ci ne sont pas pris en compte dans ce modle simplifi. Il est important que la
0 'O
c
::J
c::
::::1
solution numrique se comporte de manire similaire la solution exacte du modle
_.
0
('\'")
"'
Q)
qui permet d'isoler l'ensemble des phnomnes physiques.
Q)
T"-f ~
0 .;a
N .....
_.
0
Une m thode inconditionnellem ent stable sans am ortissem ent
@ ::::1
~
..c "'c:: Pour discrtiser l'quation des ondes, nous pouvons appliquer le schma qui suit.
~:~ au point xi et l'instant t
Ol 0
::::
c:: 11
>- Q)
s.. Tout d'abord le terme est approch par
a. 0
0
u (.)
B
0
..c:: v~z+I - 2 v~'/. + v~i-1
p.. /. l
~t2
"'
~
1
'O
Ensuite, pour discrtiser le terme c2 ~:~ au point xi l' un des instants qui appa-
0
c::
::::1
0
@ raissent ci-dessus, nous appliquons le schma d' Adams-Bashforth vu au chapitre
287
Chapitre 7 Approximation numrique des quations drives partielles
Sa mise en uvre dans les conditions prcdentes fournit le rsultat illustr par la
Figure 7.6(c). En utilisant la notation matricielle, nous rsolvons les systmes:
u f(x,u) _
0
t + x - '
288
7. 5. La m thode des volumes fini s pour les quatio ns d e transport
8e+212
6e+212 1
4e+212 0.8
2e+212 0.6
t!! 0
0.4
!
0.2
2e+212 1 0
.;:! -4e+212 0.2
:~~ 6e+212
8e+212 i 0.4
0.6
0.8
1
0
0
(a) (b)
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
"Cl
0
c
::::i
0
(V)
.-1
0
0
N
@
.
.c
Ol
;:
>-
a.
0
u
(c)
Figure 7.6
Simulat ion s numr iques po ur l'quatio n d es o ndes l'aide du schma d 'Euler (a)
explicite (b) implicite et (c) d'Adam sBashforth pour un pas d e te mps tJ.t = 0, Ol.
289
Chapitre 7 Approximation numrique des quations drives partielles
aaut + divx(a
.
u) = 0,
avec l 'oprateur divergence divx qui agit sur une fonction valeur vectorielle
v := (v1, . . . , vd) valeurs dans JRd,
d
d. "'""" avi
IVxV = 6 8x
1
i= l
au
Bt = -a 'Vxuo(x - at) = - divx [a uo(x - a t) ] - divx [a u(t, x)].
290
7.5. La mthode des volumes finis pour les quations de transport
En outre, il est clair que u(t, x) n' est pas une solution classique puisque u n'est
pas continue, et que ses drives partielles ne sont pas dfinies au sens habituel. Nous
verrons par la suite comment donner une formulation correcte pour ces solutions.
Notons que les systmes d' quations hyperboliques sont trs importants en mca-
nique des fluides; les quations d'Euler, par exemple, sont utilises pour modliser
l'coulement de l'air autour d'une aile d' avion [24].
Cette quation peut sembler trs simple mais pose des difficults numriques
considrables, elle est d' ailleurs toujours l'objet de recherches actuellement. Essen-
tiellement il s'agit de savoir calculer une solution approche sur des temps trs
grands sans que cela n'affecte trop la prcision. Les quations de transport sont
souvent utilises pour construire des modles plus intressants que les quations
paraboliques (comme l'quation de la chaleur) ayant un sens physique intuitif.
Modle de dmographie/renouvellement cellulaire.
Ici u(t,x) reprsente la densit d'individus d'ge x l'in stant t. Le taux de mortalit
est not d(x) et les individus peuvent donner naissance des nouveau-ns d'ge
x = O avec un taux de fcondit b(x)
u u
t (t, x) + x (t ,~) + d(x)u(t,x) = 0,
{ u(t,x = O) = 1 b(x) u(t,x)dx.
Dans le cas de la mitose ce llulaire, il est naturel de choisir d(x) = f {x> xo} modlisant
la disparition des ce llules qui se divisent, et b(x) = 2/{x>xo} reprsentant la mitose
qui donne naissance deux cellules identiques.
Dfinition 7.22
"O
.~
~ Soient f et g E L 1(JR) deux fonctions, alors pour presque tout x E JR, les
'O
applications y ~ f (x - y) g(y) et y ~ g(x - y) .f (y) sont dans L 1(1R) et
0
c c::
::J ::::1
_.
0
('\'")
"'
Q)
Q)
T"-f
0
~
.;a L f(x - y) g(y)dy = L g(x - y) .f(y )dy.
N .....
_.
0
@ ::::1
~
..c
Ol
"'c::
0
Nous appelons produit de convolution de f et g, l' application, note f *g, dfinie
c::
:::: Q) sur lR pour presque tout x,
>-
a.
0
s..
0
u (.)
B
0
..c:: f*g(x)= Lf(x - y)g(y)dy
p..
"'
~
1
'O
0
c:: Le produit de convolution vrifie alors les proprits suivantes.
::::1
0
@
291
Chapitre 7 Approximation numrique des quations drives partielles
Dfinition 7.24
Nous disons que (pj)iEN est une suite rgularisante dans ffi. si pour tout j E N,
p j E 'ef'00 (ffi.) et
292
7.5. La mthode des volumes finis pour les quations de transport
dX
ds (s , t,x) = a(s,dX(s , t,x)),
(7.42)
{
X (t, t, y) = x E R .
est un diffomorphisme de classe 1&' 1 lorsque la fonction a E 1&' 1(R+ x Rd, Rd). En
effet, la premire hypothse de (7.41) assure l'existence locale d' une solution pour
le systme diffrentiel (7.42) tandis que la seconde hypothse de (7.41) assure que
la vitesse crot au plus linairement vers l'infini lorsque llxll --+ +oo, ce qui assure
l'existence globale en temps [4].
293
Chapitre 7 Approximation numrique des quations drives partielles
il vient alors
tant donn que pour deux matrices carres tr(A B) = tr(B A), il vient
a1
- = tr(Y'xa(s , X(s , t ,x))V'xX(s , t , x )I(\7xX(s , t ,x))).
8s
Puis, en utilisant que pour une matrice carre B , nous avons l' galit
294
7.5. La mthode des volumes finis pour les quations de transport
X
t (s ,t,x) + a(t , x) Y'xX(s , t ,x)) = O. D
Ces dernires proprits permettent alors de dmontrer le rsultat suivant d' exis-
tence et unicit d' une solution classique ou forte [4].
avec
J(s, 0, x) = det('V x X(s , 0, x)) = exp (fo' div, a(a, X(a , 0, x))da) .
<;::::
"Cl ~
0 "O
c c
::::>
Cl ....:::i
(V)
"'
~
Lorsque la donne initiale n' est pas drivable, l'quation (7.40) n'est plus vri-
~
.-1 'V
0
N
.~ fie de manire classique et la notion de solution forte n'est plus valide. Nanmoins
0""'
....
@ :::i comme nous l'avons vu dans l' exemple du transport de polluant, le modle math-
. :
.c.
0) 0
c matique reste valide, il suffit donc de gnraliser la notion de solution. Pour ce faire,
c
;::
~
introduisons la dfinition d'une solution faible.
>-
o.. a.
0
0
u (.)
0
0 Dfinition 7.29 Solution faible
..s::::
o.. Une solution faible del' quation (7.40) est une fonction u(t, x) E LJ0 c(IR+ x IRd )
~
~
1 telle que, pour toute fonction test <p E 7fc00 (1R+ x IRd ),
"O
!..
0
c
Q
@
:::i
295
Chapitre 7 Approximation numrique des quations drives partielles
L' intrt principal de la forme de l'quation de transport (7.45), crite sous forme
conservative, apparat surtout dans une proprit que nous nonons maintenant.
296
7.5. La mthode des volumes fini s pour les quations de transport
La mthode des volumes finis a pour objectif de garder au niveau discret les prin-
cipales proprits thoriques de l'quation (7.46) tout en permettant des extensions
aux cas non linaires. D' aprs le Thorme 7 .30, nous cherchons en particulier ce
que la solution numrique vrifie les proprits de positivit et de conservation, et
d'utiliser au plus ~:
(t) E L 1 mais pas d'information de ce type sur ~:~car ce
serait incompatible avec des discontinuits. Les difficults principales proviennent
alors du manque de contrle des drives, ce qui peut provoquer des oscillations ;
nous verrons que la solution est le dcentrage suivant le signe de la vitesse et le suivi
des courbes caractristiques. Il est aussi difficile de combiner stabilit et ordre lev,
cela est mme impossible en gardant la linarit. Enfin, nous voulons capturer des
discontinuits (propagation de fronts ou formation de chocs pour les quations non
linaires).
Par la suite, notons (xi+i ; 2) iEZ les nuds du maillage, ~xi = xi+i ; 2 - xi -i / 2 et
~x = max ~xi . D' autre part, pour la discrtisation en temps, ~t dsigne le pas de
.<;:::: iEZ
"Cl
0
~
"O temps, t 11 = n ~t. Dfinissons
c c
::::>
....:::i
Cl
"'
~ 1 1 Xi+l/2
(V)
.-1 ~
'V
u'.1
!
= -
A
u(t 11 x )dx
' '
(7.47)
0 .~
N U Xi Xt-1 /2
0""'
....
@ :::i
:
.
.c.
0) 0
c o u reprsente la solution exacte de (7.46) tandis que la valeur v;1 dsigne la solution
c
;::
~
approche par une mthode numrique de u~ 1
>-
o.. a.
0
0
u (.)
0
Dfinition 7.3 1
0
..s::::
~
o.. Nous appelons nombre CFL pour l'quation (7.46), le nombre E JR+ donn par
~
1
"O
0
c (7.48)
:::i
Q
@
297
Chapitre 7 Approximation numrique des quations drives partielles
En gnral nous utilisons des pas de temps assez petits pour que < 1. Ceci n'est
pas trs restrictif, contrairement aux quations de diffusion (quation de la chaleur)
qui mnent des pas de temps beaucoup plus petits car la condition est alors dfinie
par K Llt ~ L'.lxf.
Dfinition 7.32
Un maillage de IR. est faiblement rgulier s'il existe une constante positive >0
telle que
(7.49)
Le principe de la mthode des volumes finis consiste crire que la solution exacte
vrifie une forme conservative discrte. Aprs intgration de l'quation (7.46) sur
[ t Il , t 11 + l ] x [xi-I / 2 , xi+l / 2 ] , nous o b tenons
(7.50)
seulement l'aide des valeurs (u)).i EZ Pour ce faire, dfinissons des mthodes num-
riques grce une formule imitant (7.50) mais o la valeur v~z+l est directement cal-
culable partir des valeurs (v'j)jEZ autrement dit l'aide d'un schma explicite
"O
0
c n+I
vi -
n
vi
Llt (OZ'
+ ~ <-Ti+ l / 2 -
OZ'
vz -1 / 2
) -
-
0,
::J
0 u x t
('\"')
T'-f
0
N avec ffi +l/ 2 une approximation de F i+l / 2 obtenue seulement en fonction de (v'j)jEZ
@ Les choix spcifiques de ces quantits ffi+t / 2 sont appels flux numriques.
~
..c
Ol
::::
>- Le fiux centr
a.
0
u Le choix le plus naturel consiste faire une moyenne centre pour estimer le flux.
Nous arrivons alors
6l: ( )
v~
1
+ v ~'
i.+l
d'"j+ J/ 2 = a Xi +l / 2
1
2 .
298
7.5. La mthode des volumes finis pour les quations de transport
pour a(xi+1; 2) ~ 0 ,
(7.51)
pour a(xi+1; 2) :( O.
Proposition 7.33
Le schma dcentr amont (7 .51) vrifie, sous la condition CFL suivante :
.~
"O ~
0 'O
c c::
::J ::::1
_.
0
"'
Q)
En utilisant successivement la positivit de v?i puis la condition de CFL, nous abou-
('\'")
T"-f
Q)
~
tissons au rsultat. D
0 .;a
N .....
_.
0
@ ::::1 Un point remarquable est qu'aucune rgularit des vitesses a n'est ncessaire ici
~
..c
Ol
"'c::
0
hormis la borne L 00 En outre, la dmonstration montre que la condition ( 1/ 2 est
c::
:::: Q) pessimiste car si les deux valeurs positives et ngatives sont prsentes, cela signifie
>-
a.
0
s..
0 que a s'annule entre xi+i; 2 et xi _ 11 2 , et donc ces valeurs sont plutt petites et ont peu
u (.)
B
0 de chance d' tre atteintes dans le max dfinissant la CFL.
..c::
p..
Nous pouvons galement tudier la stabilit au sens de Von Neumann dj rencon-
"'
~
1 tre pour la discrtisation de l'quation de la chaleur dans la Dfinition 7 .16. Prenons
'O
0
c:: dans (7.51), a+ =a, a - = 0, c'est--dire que a > O. Nous trouvons alors
::::1
0
@ b(k) = 1 - (1 - eiktlx)
299
Chapitre 7 Approximation numrique des quations drives partielles
et
2
lb(k) l2 = [l - + Acos(kilx)] + A2 [sin(kLlx)] 2 = 1+2A(l - A)[cos2 (kilx) - l],
donc
Nous retrouvons donc la condition CFL habituelle :::;; 1 obtenue lors de la stabilit
Loo .
et plaons-nous aussi dans le cas a > 0 constant, ce qui simplifie la prsentation des
preuves sans en modifier les grandes lignes. Dans ce cas, cette mthode gnralise la
mthode aux diffrences finies pour des solutions non rgulires.
a [ /1 11 ]
i E Z,
Llt + Llx u i - u i -1 '
300
7.5. La mthode des volumes finis pour les quations de transport
L llx Ri (t
i EZ
1
11
, u, 6.t , 6.x) 1 ~ ~ 6.x (1 - ) J.
IR
~:~ (tn , x) dx ,
2ilx(l - A)
!. [J2u
x2 (0,x) dx,
iEZ iEZ IR
a rt::.r
6.t Jo u(tn +s , xi+I j2)ds - au~'),
a rt::.r . a rt::.x 11
6.t Jo u(t" , xi+l / 2 - as)ds - 6.x Jo u(t , xi+t /2 - y)dy,
.~
:x [l~x u(t", X;+ 1; 2 - Ay)dy - 11lx u(t", X;+ 1; 2 - y )dy]
"O ~
0 'O
0
c
::J
('\'")
T"-f
c::
::::1
_.
"'
Q)
Q)
~
AQX [ r!::.x
Ll } y =O
1y z=Ay
U (t"' Xi+l /2 - z)dzdyl .
X
0 .;a
N .....
_.
0
@ ::::1 paitir de ce rsultat, nous obtenons une estimation de l'erreur de consistance et
~
..c
Ol
"'c::
0
trouvons donc
::::
c::
Q) Il Il
>-
a.
0
s..
0
8 i+l / 2 - 8 i- l/2
u (.)
B 6.x
1: ~:U",
0
~:U", x,
..c::
"'
~
p..
1
/1,.: 2 [ 111x x,. 1; 2 - z) - -1 ; 2 - z)dzd y]
lllx J.J:: ~' ~~
'O
0
c::
::::1
0
@ /1,.: 2 [ i' ( t", x - z )dx dz dy]
301
Chapitre 7 Approximation numrique des quations drives partielles
a
LLlx IRi(t",u,Llt , Llx) I ~ Llx
16.x1Y[L 1x;+1/2 [J2u 11 ]
x 2(t ,x - z) dx dzdy ,
i EZ 0 Ay i EZ X; - 1;2
= Llx
a
Jo
f!Lr [Y
}Ay
[!. R
a2u
x2(t",x - z) dx] dzdy,
= a
2Llx(l - A) !. R
2
x2u (tn, x) dx
En effet, ~:~ vrifie la mme quation et nous pouvons donc utiliser la deuxime
proprit de la Proposition 7.30.
Par linarit, nous savons que e~ (Ll) = u~ - v~ satisfait la mme galit que u~ dans
1 1 1 1
la dfinition de la consistance :
aLlt
e~1+ 1 (il)-e~ 1 (Ll) + Llx [e?(il) - e;1_ 1(il)] = Llt'R.Jt11 , u , Llt , Llx) ,
ou encore
302
7.5. La mthode des volumes finis pour les quations de transport
En outre, nous proposons un rsultat de convergence vers des solutions peu rgu-
lires en supposant simplement que u 0 E L 1 n L 00 (R) et ~:o 1
E L (R). Montrons
alors le rsultat de convergence suivant.
:= allt / /lx ( 1,
L
i EZ
/lx lu;' - v;' I ( L
iEZ
/lx lu? - v?I + C )t11 a llx( l - ) J. 1~:
lR
(0, x)ldx.
le'.1(11)1
1 ( lu'.'1 - u 110,1 I + le''0,1.(/l)I (7.53)
.<;::::
avec e8,Jll) := u8,i - v?. Le rsultat prcdent donne pour e8,i(/l)
"Cl ~
0 "O
c c
::::>
Cl ....:::i
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
....
@
.
:::i
: D' une part, en appliquant l'ingalit triangulaire au premier terme de droite et
.c. c
les propri.ts de drivation du produit de convolution, nous obtenons puisque
0)
;::
>-
0
c
~
a.
au .
o.. ax (O, x) E L1(R)
0 0
u (.)
0
0
..s::::
o..
au
~
~
"O
1
L flx le8,i('1)1 ( c0 ax (0, .)
L'
0 iEZ iEZ
c
Q
:::i
a[ 11
au /
@ + 2 /lx (1 - ) ax (0, .) *Po
L'
303
Chapitre 7 Approximation numrique des quations drives partielles
~
~
Llx lun.
8,1
- u~i1 l ~ Cl lu(t 11 , x)-u(t 11 , x) l dx ,
iEZ
u
+ C 8 x (0, .)
L1 LI
"O
0
c
0
::J
o C > 0 est une constante. Puisque cette ingalit reste vraie pour toute valeur de
(V)
T"-f
0
o > 0, il reste choisir le paramtre o > 0 de faon optimale. Pour cela, il suffit de
N minimiser la fonction
@
~
..c
Ol
::::
>- qui atteint son minimum au point o0 > 0 vrifiant </>' ( o0 ) = O. Nous trouvons alors
a.
0
u 8 0 = J t n aLlx(l - ), ce qui conclut la dmonstration. D
Ce rsultat est nettement plus intressant que le Thorme 7 .35 car il s'applique
aux solutions u discontinues. Nous pouvons dmontrer qu' il est optimal et que la
convergence en Llx 112 ne peut tre amliore pour ce schma. Il met aussi en vi-
dence comment une absence de rgularit suffisante pour que l'erreur de consistance
converge peut tre compense par une perte sur le taux de convergence.
304
7.5. La mthode des volumes finis pour les quations de transport
Le schma de Lax-Wendroff
Nous avons vu que le schma centr est assez instable pour l' approximation des qua-
tions de transport (7.46). Pourtant, c' est un schma bien plus prcis que le schma
dcentr qui est seulement d'ordre un, tandis que le schma centr est d'ordre deux
en la variable d' espace. L' ide du schma de Lax-Wendroff consiste stabiliser le
schma centr en augmentant l' ordre de la discrtisation en temps et en choisissant
aussi une approximation centr en temps. Il apparat que l' ordre deux en temps ajoute
de la diffusion numrique et diminue donc les oscillations tout en augmentant la pr-
cision. Pour tablir cette mthode, supposons que la vitesse a est constante et stricte-
ment positive dans (7.46). Effectuons alors un dveloppement limit de la solution u
de l'quation de transport (7.46), il vient
u 11 6.t 2 2 u
11
u(t + x )1
= u(tn x ) + 6.t - (t x ) + - - (tn x ) + (6.t 3 )
' ' 8t ' 2 8t 2 ' '
avec IE(6.t 3 )1~ C d t 3 lorsque la solution u est rgulire. Nous obtenons alors
u u(t 11 +l x ) - u(t 11 x ) d t 82 u
- (tn , x ) = ' ' _ - ;::i u.t 2) .
( t 11 , X ) + (A
8t 6.t 2 ut 2
Or, puisque u est solution de (7.46), elle vrifie
305
Chapitre 7 Approximation numrique des quations drives partielles
1 _ 2 + [~ _ ~] eikAx + [ ~ + ~] e - ikAx
1 - A2 (1 - cos(kilx)) - i sin(kilx).
11 - A2 c1 - u)l2 + A2 (1 - u 2 )
1 + 4 + A2 u 2 - 2A2 + 2A2 u + A2 - A2 u 2
'
1 - A2 (1 - A2 ) + 2A2 (1 - A2 )u - A2 u 2 (1 - A2 ) ,
1 - A2 (1 - A2 )[1 - u] 2 .
"O
0
c
::J
0
('\"')
,..-!
0
N
@
~
..c
Ol
::::
>-
a.
0
u
306
BIBLIOGRAPHIE
[1] G. Allaire et S.M. Kaber, Algbre linaire numrique. Cours et exercices, Ellipses,
(2002).
[5] H. Brzis, Analyse fonctionelle, thorie et applications, Dunod, Sciences sup, (2005).
[9] M. Crouzeix et A.L. Mignot, Analyse numrique des quations diffrentielles, Masson,
(1984) .
.~
"O ~
0 'O
c c:: [10] TA. Davis, Direct methods for sparse linear systems. Fundamentals of Algorithms, 2,
::J ::::1
_. Society for lndustrial and Applied Mathematics (SIAM), Philadelphia, PA, (2006).
0
('\'")
"'
Q)
Q)
T"-f ~
0 .;a [11] J.-P. Demailly, Analyse numrique et quations diffrentielles, PUG Grenoble, (1996).
N .....
_.
0
@ ::::1
~
..c
Ol
"'c::
0
[12] J. E. Dennis et R. B. Schnabel, Numerical Methods for Unconstrained Optimization
::::
c:: and Nonlinear Equations, Prentice-HalJ, (1983).
Q)
>-
a.
0
s..
0
u (.)
B [13] l.S. Duff, A.M. Erisman et J.K. Reid, Direct methods for sparse matrices. Fundamen-
0
..c::
p.. tals of Algorithms, 2, Oxford Univ. Press, (1989) .
"'
~
1 [14] L. Dumas, Modlisation l'oral de l'agrgation. Calcul scientifique, Ellipses, (1999).
'O
0
c::
::::1
0 [15] P. S. Dwyer, The square root method and its use in correlation and regression, J. Amer.
@ Statist. Assoc. 40, (1945). 493- 503.
Bibliographie
[16] J.-P. Escofier, Mathmatiques pour la licence, Tome 5: Toute l'algbre de la licence,
Dunod, (2011).
[18] J.-P. FeITier, Mathmatiques pour la licence, variable complexe, calcul diffrentiel et
tensoriel, espaces norms et calcul intgral, analyse de Fourier, Masson, (1984).
[19] C. F. Gauss, Nachlass Theoria inte1polationis methodo nova tractata , Werke band
3, pp. 265- 327 (Konigliche Gesellschaft der Wissenschaften, Gottingen), (1866). Voir
aussi M. T. Heideman, D. H. Johnson, et C. S. Burrus, Gauss and the history of the fast
Fourier transfo1m, IEEE ASSP Magazine 1, pp. 14-21 (1984).
[20] E. Hairer, S.P. Norsett et G. Wanner, Solving ordinary differential equations !. Nonstiff
problems, Springer Series in Comput. Math. vol. 8 2nd edition (1993).
[21] E. Hairer et G. Wanner, Solving ordinary differential equations li. Stiff and differential
algebraic problems, Springer Series in Comput. Math., vol. 14, 2nd edition (1996).
[24] R.J. LeVeque, Numerical methodsfor conservation laws, Second edition, Lectures in
Mathernatics ETH Zfich, Birk.hauser Verlag, Basel, (1992).
[26] Y. Saad, lterative Methods for Sparse Linear Systems, Second edition. Society for
Industrial and Applied Mathernatics, Philadelphia, PA, (2003).
"Cl
c
0 [27] M. Schatzman, Analyse numrique, Dunod, Paris, (2004).
::::>
Cl
(V) [28] M. Srnoluchowski, Drei vortrage ber diffusion, brownsche molekularbewegung und
.-1
0
N
koagulation von Kolloidteilchen, Phys Z, 7 (1916) 557-571 and 585-599.
@
.
.c.
[29] G.W. Stewart, Introduction to matrix computations, Acadernic Press (1973) .
0)
;::
>- [30] A.M. Stuart et A.R. Humphries, Dynamical systems and numerical analysis, Cam-
0..
0
u bridge Univ. Press, (1996).
[31] J. Stoer and R. Bulirsch, Introduction to numerical analysis, Traduit de .l'allemand par
R. Bartels, W. Gautschi et C. Witzgall. Springer-Verlag, New York-Heidelberg, (1980).
308
INDEX
A quation, de Lanczs, 77
de la chaleur, 275 Q R pour le calcul des_
Algorithme,
de Poisson, 254 valeurs propres, 72
de Cramer, 5
de transport, 288 Matrice,
de Gauss avec pivot, 23 des ondes, 283 a, diacronale strictement
de Gauss sans Espace, __ _
0 -
dominante, 40
changement pivot, de Banach, 91, 92, 99 adjoint~ 3
56 de Hilbert, 125, 144, carre, 3
de Gauss sans pivot, 15 173,266 conditionnement, 8
du ocrradie
_ nt conjugu, des polynmes dterminant, 5
134 trigonomtriques,
de Householder, 31
185
de rotation (de Givens),
B 69
F
Bessel, __ diagonalisabl~, _2.2
ingalit de -, 172, 184 Formule de quadrature, hermitienne, 3, 7
de Gauss-Legendre, 180 inversible, 4
de Simpson, 16._ normale, 3
c des rectangles, 181 norme, 104
Compact, des trapzes, 164 _ norme d'une ~ 9, TI, 12
du point milieux, 181 orthogonale~_3
ensemble -, 92
Formule, symtrique,]
Convergence, 82._
de Newton, 158
- globale, 87 transpose, 3
Fourier,
- locale, 88, 96 triangula.!!"e, 6, 7
coefficient de-, 183
- uniforme, 173 unitaire, 3
srie de-, 183, 185
des mthodes itratives, valeur propre, 6_1_
transforme de -, 187
.~ vecteur propre, 6 1
"O ~
36
0 'O
c c:: ordre de-, 87, 96 1
::J ::::1
0 _. Convexe, 0
"'
Q)
Ingal it,
('\'")
T"-f
Q) ensemble-, 92
~
0 .;a fonction-, 121 de Poincar, 266 Orthogonalit, 172
N .....
_.
0 Interpolation,
@ ::::1
de Hermite, 165
~
..c
Ol
"'c::
0 D par splines cubiques, 193
p
::::
c::
Q)
>-
a. s.. Dveloppement de Taylor, 107 Parabolique,
u
0 0
(.)
Dualit, 143 M quation aux drives
B
0
..c:: Mthode, partielles-, 25 1
p..
de Gauss-Seidel, 42 Parseval, __
"'
~
1
E
de Jacobi, 39 galit de -, 172 , 184
'O
0
c:: Elliptique, de Jacobi pour les Phnomne,
::::1
0 quation aux drives valeurs pro~s, 68 de Gibbs, 185
@ partielles-, 25 1 de la puissance, 64 de Runge, 161
Index
Polynmes, T de convergence du
caractristiques, 63 gradient conjugu,
Thorme,
d'interpolation, 156 134
d' Arzel-Ascoli, 216
d'interpolation ~ d'existence d'un
de Gershgorine, 61
Lagrange, 156 minimum, 123, de Karush, Kuhn et
de Bernstein, 154 126, 136, 137_ Tucker, 143
de Hermite, 176 _ d'inversion locale, 101, de la factorisation LU,
de Legendre, 176, 180, 102 21, 25
191 de co~gence, 258~ de la factorisation QR,
de Tchebychev, 192, 197 270, 280, 282, 301, 33
orthogonaux, 172 303 de la factorisation de
recherche des racines de convergence de Cholesky, 22._
de-, 111 Gauss-Seidel, 44 de la projection, 144
trigo~triques, 183, de convergence de de Lax-Milgram, 266
185 Jacobi, 40 de point fixe de Banach,
Portrait de phase, 231 de convergence de Jacobi 90
Problme, (valeurs propres), de point fixe de Brouwer,
- dual, 143 72 92
de Cauchy, 206 de convergence de la de point fixe de_
Produit de convolution, 291 mthode QR Schauder, 92
Produit, - - - (valeurs propres), de Shur, 7
- scalaire, 172, 173, 176 73 de stabilit des valeurs
scalaire hermitien, 124 de convergence de la propres, 62
mthode de la de Weierstrass, 153
R puissance, 65 des fonctions implicites,
Rayonspectral,5,37 de convergence de la 101, 102
mthode de la des ~trices inversibles,
scante, 95
s de convergence de
4
des multiplicateurs de
Schma, Newton-Raphson, Lagrange, 138
d'Euler explicite, 211, 96, 104 des valeurs
216 de convergence des intermdiaires, 93
de Runge, 211 mthodes itratives,
de Runge-Kutta, 212 36
V
des lments finis, 265 de convergence du
des volumes finis, 288, ~dient pas fixe, Valeurs propres,
297 129, 145 recherche de -, 111
310