Documente Academic
Documente Profesional
Documente Cultură
1 Introduction 1
5 Interpolation polynomiale 35
5.1 Rappels sur les racines d'un polynme . . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Polynmes de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3 polynmes de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.4 Erreur d'interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
i
ii TABLE DES MATIRES
1
2 CHAPITRE 1. INTRODUCTION
milliards d'oprations la seconde), il faudrait quand mme environ 1050 ans pour faire
ce calcul.
3. le plus stable possible, ie le moins sensible aux erreurs d'arrondi,
4. le plus prcis possible : la solution qu'on obtient est une solution approche, on veut savoir
si on est prs ou loin de la solution exacte. C'est ce qu'on appelle l'estimation d'erreur.
.
Chapitre 2
Les systmes linaires
2.1 Objectifs
On note Mn (IR) l'ensemble des matrices carres d'ordre n. Soit A Mn (IR) une matrice
inversible et b IRn , notre objectif dans ce chapitre est de rsoudre le systme linaire Ax = b,
c'est dire trouver une solution de :
Comme A est inversible, il existe un unique vecteur x IRn solution de l'equation (2.1).
Nous allons tudier des mthodes de calcul de ce vecteur x : une premire partie sera consacre
aux mthodes directes et la deuxime aux mthodes itratives. Un des points essentiels dans
l'ecacit des mthodes envisages concerne la taille des systmes rsoudre. Entre 1980 et
2000, la taille de la mmoire des ordinateurs a augment de faon considrable. La taille des
systmes qu'on peut rsoudre sur ordinateur a donc galement augment selon l'ordre de gran-
deur suivant :
1980 : matrice pleine (tous les termes sont non nuls) n = 102
matrice creuse n = 106
2000 : matrice pleine n = 106
matrice creuse n = 108
Parmi les mthodes directes, on peut citer la mthode de substitution qui consiste liminer
les quations une une par substitution. Malheureusement, c'est une mthode qui est adapte
uniquement aux systmes de trs petite taille. Pour les systmes de grande taille, il est dicile
de transcrire cette faon de faire sous forme d'algorithme. Il est donc prfrable de recourir
d'autres mthodes pour simplier le systme.
On peut d'abord se demander quels types de systmes linaires sont faciles rsoudre, et
ce mme s'ils sont de grande taille. Le cas le plus simple est sans doute celui des systmes
diagonaux ou mme encore les systmes triangulaires infrieurs ou suprieurs. Donc ce type de
systmes est primordial pour la rsolution des systmes linaires. Nous abordons essentiellement
deux mthodes directes : la mthode d'limination de Gauss et la mthode de dcomposition
LU . Elles consistent ramener un systme linaire quelconque un ou plusieurs systmes
3
4 CHAPITRE 2. LES SYSTMES LINAIRES
triangulaires.
La question qui se pose maintenant : Quelles sont les types d'oprations permis sur les lignes
du systme (2.1) pour le ramener un systme triangulaire ?
Opration 1
L'opration (li li ) revient multiplier le systme par une matrice W diagonale inversible
dont tous les lments diagonaux sont 1 sauf wii = .
Exemple 2.2.2
3 1 2 x1 6
6 4 1 x2 = 11
5 4 1 x3 10
on veut faire le changement (l2 3l2 ) on multiplie par
1 0 0
W = 0 3 0
0 0 1
on obtient
3 1 2 x1 6
18 12 3 x2 = 33
5 4 1 x3 10
Opration 2
L'opration (li lj ) est quivalente multiplier le systme par une matrice W inversible
qui contient des 1 sur la diagonale sauf la ligne i o le 1 est dans la colonne j et la ligne j o
le 1 est dans la colonne i, tous les autres termes sont nuls.
Exemple 2.2.3 On veut intervertir les lignes 2 et 3 de notre systme
1 0 0
W = 0 0 1
0 1 0
alors
3 1 2 x1 6
W Ax = W b 5 4 1 x2 = 10 .
6 4 1 x3 11
Remarque 2.2.1 La matrice W est inversible et son inverse c'est la matrice qui intervertie
les lignes (lj li ) donc c'est la matrice W elle mme.
Opration 3
L'opration (li li + lj ) est quivalente multiplier le systme de dpart par une matrice
inversible W qui vaut 1 sur toute la diagonale et 0 partout ailleurs sauf aij qui vaut .
Exemple 2.2.4 On veut faire la transformation (l2 l2 2l1 ), donc
1 0 0
W = 2 1 0
0 0 1
alors
3 1 2 x1 6
W Ax = W b 0 2 3 x2 = 1
5 4 1 x3 110
Remarque 2.2.2 L encore, la matrice W est inversible puisque pour revenir au systme
initial, il sut de retrancher la ligne lj donc on aura faire l'opration inverse (li li lj ).
6 CHAPITRE 2. LES SYSTMES LINAIRES
n
n
2(i 1) + n = 2 i + n = n(n 1) + n n2 oprations
1 1
Une fois la matrice A(n) (triangulaire suprieure ) et le vecteur b(n) calculs, il sera facile de
rsoudre le systme
A(n) x = b(n) .
Donnons les dtails des tapes de calcul.
Etape de factorisation
Pour passer da la matrice A(i) la matrice A(i+1) , on va eectuer des combinaisons linaires
entre lignes qui permettront d'annuler les coecients de la ime colonne situe en dessous de
la ligne i (dans le but de se rapprocher d'une matrice triangulaire suprieure). Evidemment, il
faut modier le second membre b galement. Cette tape de factorisation s'crit :
1. Pour k i et pour j = 1, ..., n, on pose
(i+1) (i)
ak,j = ak,j et bi+1
k = bik
(i)
2. Pour k > i si ai,i = 0, on pose
(i)
(i+1) (i) ak,i (i)
ak,j = ak,j (i)
ai,j pour k = j, ..., n,
ai,i
et
(i)
(i+1) (i) ak,i (i)
bk = bk b
(i) i
pour k = j, ..., n.
ai,i
(i)
Si la condition ai,i = 0 est vrie pour i = 1, ..., n, on obtient par le procd de calcul ci-
dessus un systme linaire A(n) x = b(n) quivalent au systme de dpart, avec une matrice A(n)
triangulaire suprieure facile inverser. On verra un peu plus loin les techniques de pivot qui
(i)
permettent de rgler le cas o la condition ai,i = 0 n'est pas vrie.
Etape de la remante
Il reste rsoudre le systme A(n) x = b(n) . Ceci est une tape facile. Comme A(n) est
(i)
une matrice inversible, on a ai,i = 0 pour tout i = 1, ..., n, et comme A(n) est une matrice
triangulaire suprieure, on peut donc caculer les composantes de x en remontant, c'est dire
de la composante xn la composante x1 :
(n)
bn
xn = (n)
an,n
( )
1 (i)
n
(n)
xi = (n)
bi ai,j xj , i = n 1, ..., 1.
ai,i j=i+1
x3 = 1
x2 = 2
x1 = 3
Stratgie de pivot
(i)
Dans la prsentation de la mthode de Gauss, on suppose que la condition ai,i = 0 est
vrie chaque tape. Or il peut s'avrer que ce ne soit pas le cas, ou que, mme si la condition
(i)
est vrie, le pivot ai,i soit trs petit, ce qui peut entraner des erreurs d'arrondi importantes
dans les calculs. Un exemple d'erreurs d'arrondi est le suivant :
Soit rsoudre le systme : ( )( ) ( )
1 x1 1
=
1 1 x2 2
1 1 2
La solution est donne par x1 = et x2 = , ce qui donne pour = 0, x1 = x2 = 1.
1 1
Or en rsolvant ce systme par la mthode de Gauss avec = 109 o 109 est la prcision de
la machine, on obtient sur la machine :
( 9 )( ) ( )
10 1 x1 1
=
0 1 109 x2 2 109
or 1 109 109 et 2 109 109 d'o la solution x2 = 1 et x1 = 0 qui n'est pas la
solution !
Par contre si on permute les lignes 1 et 2, on obtient :
( )( ) ( )
1 109 x1 2
=
0 1 109 x2 1 2 109
donc x1 = x2 = 1
On peut rsoudre ce type de problmes en utilisant les techniques de pivot partiel ou pivot
total, qui reviennent choisir une matrice de permutation P qui n'est pas forcment gale la
matrice identit.
10 CHAPITRE 2. LES SYSTMES LINAIRES
En eet, plaons nous l'itration i de la mthode de Gauss. Comme la matrice A(i) est forcment
non singulire, on a :
(i) (i)
ai,i ai,n
.. = 0
det(A(i )) = a1,1 a2,2 ...ai1,i1 det ... ..
(i) (i) (i)
. .
(i) (i)
an,i an,n
et donc en particulier
(i) (i)
ai,i ai,n
.. =
det ... ..
. . 0
(i) (i)
an,i an,n
Pivot partiel
(i)
On dduit qu'il existe i0 {i, ..., n} telle que ai0 ,i = 0. On choisit alors i0 {i, ..., n} tel que
(i) (i)
|ai0 ,i | = max |ak,i |
k=i,...,n
Pivot total
On change alors les lignes i et i0 dans la matrice A et le second membre b, les colonnes j et j0
de A et les inconnues xj et xj0 . L'intert de ces stratgies de pivot est qu'on aboutit toujours
la rsolution du systme. La stratgie du pivot total permet une moins grande sensibilit aux
erreurs d'arrondi. L'inconvnient majeur est qu'on change la structure de la matrice A.
Remarque 2.2.3En ce qui concerne la place mmoire, on peut trs bien stocker les itrs A(i)
dans la matrice A de dpart.
Dcomposition de Crout
Pour obtenir cette dcompostion (ou factorisation), nous considrons une matrice 4 4, le
cas gnral tant similaire.
l 0 0 0
1 u1,2 u1,3 u1,4
a1,1 a1,4 1,1
.. = 2,1 2,2 0 0 1 u2,3 u2,4
A = LU ...
l l 0
. l 0 0 0
3,1 l3,2 l3,3 1 u3,4
a4,1 a4,4 l4,1 l4,2 l4,3 l4,4 0 0 0 1
d'o
a1,2 a1,3 a1,4
u1,2 = , u1,3 = , u1,4 = .
l1,1 l1,1 l1,1
o encore
l2,2 = a2,2 l2,1 u1,2
l3,2 = a3,2 l3,1 u1,2
l4,2 = a4,2 l4,1 u1,2
on a alors la deuxime colonne de L.
4me tape : Produit de la deuxime ligne de L par la troisime colonne de U , on aura
{
l2,1 u1,3 + l2,2 u2,3 = a2,3
l2,1 u1,4 + l2,2 u2,4 = a2,4
a2,3 l2,1 u1,3
u2,3 =
l2,2
a l2,1 u1,4
u2,4 =
2,4
l2,2
Pour j = i + 1, ..., n :
Calcul de la ime colonne de L :
i1
lj,i = aj,i lj,k uk,i
k=1
Ack = ek , 1 k n,
o ek est le vecteur colonne ayant tous les lments nuls sauf celui sur la ligne k qui est 1 :
0 ligne 1
.
. ..
. .
ek = 1 ligne k .
. ..
.. .
0 ligne n
Une fois la dcomposition LU est connue, il sut de rsoudre les n sous systmes
Ack = ek , 1 k n
pour avoir les dierentes colonnes de la matrice A1 .
14 CHAPITRE 2. LES SYSTMES LINAIRES
De plus, 2x2 + 3y 2 = 0 x = 0 et y = 0.
Alors A est dnie positive.
Dans toute la suite, x.y designe le produit scalaire des deux vecteurs x et y de IRn .
On rappelle que si A est symtrique dnie positive elle est en particulier inversible.
Thoreme 2.2.1 Une matrice A symtrique est dnie positive si tous ses dterminants sont
positifs
Thoreme 2.2.2 Si les valeurs propres d'une matrice A symtrique sont toutes strictement
positives alors A est dnie positive. De mme si A est dnie positive alors toutes ses valeurs
propres sont strictement positives.
Thoreme 2.2.3 Soit A une matrice symtrique inversible, alors A est dnie positive si et
seulement s'il existe une matrice L tels que A = LLt , de plus si li,i > 0 pour i = 1, 2, ..., n alors
la factorisation est unique.
1
l2,1 y1 + l2,2 y2 = b2 , donc y2 = (b2 l2,1 y1 )
l2,2
..
.
i
1 i1
li,j yj = bi , donc yi = (bi li,j yj )
j=1
li,i j=1
..
.
n
1
n1
ln,j yj = bn , donc yn = (bn ln,j yj ).
j=1
ln,n j=1
On calcule ainsi y1 , , yn .
2. tape 2 :
On calcule maintenant x solution de Lt x = y.
l1,1 l2,1 ln,1 x1 y1
.. .. .. ..
0 . . . .
Ly = . . .. .. .. = .. .
.. .. . . . .
0 0 ln,n xn yn
on a donc :
yn
ln,n xn = yn , donc xn =
ln,n
1
ln1,n1 xn1 + ln,n1 xn = yn1 , donc xn1 = (yn1 ln,n1 xn )
ln1,n1
..
.
n
1
n
ln,j xj = y1 , donc x1 = (y1 lj,1 xj ).
j=1
l1,1 j=2
On calcule ainsi x1 , , xn .
Calcul de la matrice L
On a A = LLt donc
n
n
ai,j = t
li,k lk,j = li,k lj,k (i, j) {1, , n}2
k=1 k=1
: EE IR
telle que
1. x, y, z E, , IR, (x + y, z) = (x, z) + (y, z),
x, y, z E, , IR, (z, x + y) = (z, x) + (z, y),
2. x, y E, (x, y) = (y, x),
3. x E, (x, x) 0 et (x, x) = 0 x = 0.
. : IRn IR+
telle que
1. x = 0 x = 0,
2. IR, x IRn , x = ||x,
3. x, y IRn , x + y x + y(ingalit triangulaire).
Exemples Pour 1 p < , on dnit la norme p par :
n
1
x IR 7 xp = (
n
|xi |p ) p
i=1
m
A = sup |aij |.
1in
1
Ax2
A2 = sup = (AT A).
x=0 x2
2.3.4 Conditionnement
On considre le systme Ax = b o A est inversible. Dans la pratique, b peut tre entach
d'erreurs (erreur de mesures, erreurs d'arrondi . . . ) et le systme rsoudre devient :
Ay = b + b avec y = x + x
x
Le but est de mesurer l'erreur relative commise sur x, i.e x
en fonction des donnes du
b
problme : b
.
A(x + x) = b + b
Ax + Ax = b + b or Ax = b
Ax = b
x = A1 b
x = A1 b A1 b
x b
A1
x x
Comme Ax = b, b Ax, on obtient :
x b b
AA1 = Cond(A)
x b b
avec conditionnement de A, not Cond(A), est la valeur AA1 qui donne une estimation
de l'amplication de l'erreur commise sur x par rapport l'erreur sur les donnes b.
Si Cond(A) est petit, on dit que la matrice est bien conditionne et l'erreur commise sur x est
du mme ordre de grandeur que celle commise sur les donnes b. Inversement, si Cond(A) est
grand, on dit que la matrice est mal conditionne et l'erreur commise sur x est plus grande que
l'erreur commise sur les donnes b.
18 CHAPITRE 2. LES SYSTMES LINAIRES
AA1 = I = 1.
Dfinition 2.4.1 On appelle mthode itrative de rsolution du systme linaire (2.1) une
mthode qui construit une suite (xn )nIN o l'itr xn est calcul partir des itrs x0 , ..., xn1 .
Cette suite est cense converger vers x solution de (2.1).
L'intrt des mthodes itratives, compares aux mthodes directes, est d'tre simples program-
mer et de ncessiter moins de place mmoire. En revanche, le temps de calcul est souvent plus
long.
Dfinition 2.4.2 On dit qu'une mthode itrative est convergente si pour tout choix initial
x IR , on a :
0 n
lim xn = x .
n+
xk+1 = T xk + V
o
T = M 1 N et V = M 1 b.
Nous ne pouvons pas savoir si le vecteur estim se dirige vers la solution x du systme si un
critre de convergence n'est pas dnie. Pour cela, le vecteur d'erreur est tablie par la relation :
ek = xk x
2.4. MTHODES ITRATIVES 19
donc
ek = T ek1
Autrement dit la converge existe si l'erreur tend vers 0 lorsqu'on se rapproche de la solution
optimale :
xk x si ek 0
Nous rcrirons la matrice sous la forme suivante :
A=DLU
Dxk+1 = (L + U )xk + b
ou
xk+1 = D1 (L + U )xk + D1 b
20 CHAPITRE 2. LES SYSTMES LINAIRES
( )
1
n
xk+1
2 = b2 a2j xkj
a22 j=1,j=2
( )
1
n
xk+1
3 = b3 a3j xkj
a33 j=1,j=3
.. ..
. .
( )
1
n1
xk+1
n = bn anj xkj
ann j=1
Il est inutile de rappeler que les pivots doivent tre non nuls, dans le cas contraire il sut
d'intervertir les lignes pour remplir la condition ncessaire.
Exemple 2.4.1 Soit le systme :
3x1 + x2 x3 = 2
x1 + 5x2 + 2x3 = 17
2x1 x2 6x3 = 18
La mthode de Jacobi s'crit dans ce cas :
1( )
xk+1
1 = 2 xk2 + xk3
3
1( )
xk+1
2 = 17 xk1 2xk3
5
1( )
xk+1
3 = 18 2xk1 + xk2
6
La mthode de Gauss-Seidel est une variante amliore de la mthode de Jacobi. Pour com-
prendre le principe de cette mthode, il sut de reconsidrer la mthode de Jacobi et de voir
2.4. MTHODES ITRATIVES 21
Il sut de constater que le calcul de xk+1 i ncessite l'utilisation de xk1 , , xki1 , , xkn , or au
moment du calcul de xk+1 i , on possde dj une meilleure approximation de x1 , , xi1 que
x1 , , xi1 savoir x1 , , xk+1
k k k+1
i1 , donc pour le calcul de xi
k+1
, on peut utiliser ces valeurs
qui viennent d'tre calcules. On crit alors :
( )
1
i1 n
xk+1
i = bi aij xk+1
j aij xkj
aii j=1 j=i+1
(D L)xk+1 = U xk + b
ou
xk+1 = (D L)1 U xk + (D L)1 b
L encore, on rappelle que les pivots doivent tre non nuls, dans le cas contraire il sut d'inter-
vertir les lignes pour remplir la condition ncessaire.
Exemple 2.4.2 Soit le systme :
3x1 + x2 x3 = 2
x1 + 5x2 + 2x3 = 17
2x1 x2 6x3 = 18
La mthode de Gauss-Seidel s'crit dans ce cas :
1( )
xk+1
1 = 2 xk2 + xk3
3
1( )
xk+1
2 = 17 xk+1
1 2xk3
5
1( )
xk+1
3 = 18 2xk+1
1 + xk+1
2
6
Dfinition 2.4.4 Les racines du polynme caractristique de T sont appeles valeurs propres
de T .
Remarque 2.4.1 Si est une valeur propre, la matrice T I est singulire (puisque son
dterminant est nul) et le systme
(T I)x = 0
possde des solutions non nulles.
Dfinition 2.4.5 Une solution non nulle du systme (T I)x = 0 est appele vecteur propre
de T associ la valeur propre .
(T ) = max |i |
1in
lim T n = 0
n
Etude de la convergence
xk+1 = T xk + V.
ek = x xk
Thoreme 2.4.2 Si la matrice A est diagonale strictement dominante, alors les mthodes
de Jacobi et de Gauss Seidel convergent.
Preuve
Pour la mthode de Jacobi, Soit x la solution du systme, on a
1
xni xi = aik (xkn1 xk )
aii k=i
donc
1
max |xni xi | |aik | max |xn1 xk |
i |aii | k=i k
k
On pose
1
k= |aik |
|aii | k=i
Donc
xn x kxn1 x
alors
xn x k n x0 x
or d'aprs le thorme, k < 1 donc la mthode de Jacobi converge.
Condition d'arrt
Ils existent plusieurs conditions pour arrter l'itration. Elles sont toutes bases sur le vecteur
d'erreur qui doit atteindre un critre prdni et tendant vers une valeur proche de zro. On
note r un vecteur rsidu tel que :
rk = b Axk
de sorte que le critre d'arrt soit :
rk
, avec choisi petit.
b
Une autre technique consiste utiliser un autre test d'arrt bas sur :
xk+1 xk
.
xk
Mais lorsque la solution exacte est voisine de 0, on se contante alors du critre d'arrt suivant :
xk+1 xk .
24 CHAPITRE 2. LES SYSTMES LINAIRES
Chapitre 3
Les quations non linaires
Nous nous restreignons, par souci de simplicit, la recherche de racines relles, zro de
fonctions relles continues.
L'existence et une premire localisation des solutions utilisent le thorme des valeurs interm-
diaires.
Thoreme 3.0.3 (thorme des valeurs intermdiaires) Si f est une fonction continue
sur [a, b], et si f (a)f (b) 0, alos il existe au moins un point c [a, b] tel que f (c) = 0.
Si de plus f est strictement monotone sur [a,b], la racine est unique dans [a, b].
a+b
1. On pose x(0) = ,
2
2. si f (x(0) ) = 0 alors x(0) est le zro cherch.
3. si f (x(0) ) = 0:
(a) soit f (x(0) )f (a) > 0 et alors le zro [x(0) , b] et on pose a = x(0) et
a+b
x(1) = pour ce nouveau a.
2
(b) soit f (x(0) )f (a) < 0 et alors le zro [a, x(0) ] et on pose b = x(0) et
a+b
x(1) = pour ce nouveau b.
2
Par des divisions de ce type, on construit la suite x(0) , x(1) , , x(m) qui vrie pour tout
m:
ba
|x(m) | m+1 .
2
Donc la mthode de dichotomie garantit la convergence vers un zro lorsque la fonction est
continue. Sa progression dans la recherche est lente mais sure.
25
26 CHAPITRE 3. LES QUATIONS NON LINAIRES
avec l'espoir que la suite (xn ) converge vers la solution du problme. Cette mthode est dite
itrative (par opposition aux mthodes dites directes). Son interprtation gomtrique est de
chercher l tel que f (l) = 0 revient chercher l'intersection du graphe de f avec l'axe des
abscisses. Chercher l tel que g(l) = l revient chercher l'intersection du graphe de g avec la
droite y = x c'est--dire trouver le point xe de g , d'o le nom de la mthode.
Exemples :
f (x)
On peut remplacer l'quation f (x) = 0 par l'quation x = xf (x) = g(x) ou par x = x =
g(x), = 0.
Questions :
1. La suite (xn ) converge-t-elle ?
2. Si oui, converge-t-elle vers l solution du problme ?
3. Question d'analyse numrique : s'il y a convergence vers l, quelle vitesse converge-ton ?
Peut-on estimer l'erreur commise sur l'approximation de l ?
Donc tudions de plus prs cette mthode itratives. On suppose que g est une fonction continue,
que l [a, b] et que l = g(l) f (l) = 0.
Remarque 3.2.1 Les notions de contraction et le thorme de convergence des itrations as-
socis peuvent s'crire et se dmontrer dans le cadre gnral des espaces vectoriels norms.
Cette possibilit de gnralisation trs large est un des principaux interts des mthodes de point
xe.
preuve
Si x0 [a, b], alors par l'hypothse (2), x1 = g(x0 ) [a, b], x2 = g(x1 ) [a, b], ...
Donc xn [a, b] et si la suite converge, elle converge vers l = lim xn [a, b] solution de l = g(l).
Si la suite (xn ) converge, alors l est unique. En eet, soient l1 et l2 , limites de (xn )
or L < 1 , donc
|l1 l2 |(1 L) 0,
soit l1 = l2 .
|xn+1 l|
l avec 0 l < +
|xn l|p
si p = 1 on dit que la convergence est linaire, si p = 2, on dit que la convergence est quadratique.
(x s)2
g(x) = g(s) + (x s)g (s) + g (c)
2!
1
= s + (x s)2 g (c), c ]s, x[
2
d'o
1
|g(x) s| M |x s|2
2
et pour x = xn , on aura
1
|xn+1 s| M |xn s|2
2
La convergence est alors dans ce cas quadratique. Le point xe s est appel dans ce cas point
xe superattractif.
|g (s)| > 1.
Il existe alors un voisinage ]s h, s + h[ tel que
On a alors divergence, on dit dans ce cas que s est un point xe rpulsif.
|g (s)| = 1.
On a ici un cas douteux et on ne peut pas conclure si la mthode est convergente ou pas.
f (x) = 0
A partir d'une valeur initiale x0 de la solution, on cherche une correction x telle que :
f (x0 + x) = 0
f (x0 )(x)2
f (x0 + x) = 0 = f (x0 ) + f (x0 )x + +
2!
3.3. MTHODE DE NEWTON 29
il sut maintenant de ngliger les termes d'ordre suprieur ou gal 2 en x pour obtenir
0 f (x0 ) + f (x0 )x
x1 = x0 + x
- crire la solution x
n+1
- arrt.
- arrt
7. retour l'tape 4.
- crire la solution x
n+1
- arrt.
- arrt
7. retour l'tape 4.
Les phnomnes non linaires sont extrmement courants en pratique. Ils sont sans doute
plus frquents que les phnomnes linaires. Dans ce chapitre, nous examinons les systmes
non linaires et nous montrons comment les rsoudre l'aide d'une suite de problmes linaires,
auxquels on peut appliquer diverses techniques de rsolution comme la dcomposition LU .
Le problme consiste trouver le ou les vecteurs x = (x1 , x2 , , xn )T vriant les n quations
non linaires suivantes :
f1 (x1 , x2 , , xn ) = 0
f2 (x1 , x2 , , xn ) = 0
f3 (x1 , x2 , , xn ) = 0
.. ..
. .
fn (x1 , x2 , , xn ) = 0
o les fi sont des fonctions de n variables que nous supposons direntiables. Contrairement
aux systmes linaires, il n'y a pas de condition simple associe aux systmes non linaires qui
permette d'assuurer l'existence et l'unicit de la solution. Le plus souvent, il existe plusieurs
solutions possibles et seul le contexte indique laquelle est la bonne.
Les mthodes de rsolution des systmes non linaires sont nombreuses. Notamment, presque
toutes les mthodes des quations non linaires peuvent se gnraliser aux systmes non li-
naires. Pour viter de surcharger ce chapitre, nous ne prsentons que les mthodes les plus
importantes et les plus utilises en pratique, savoir la mthode des point xes et celle de
Newton.
31
32 CHAPITRE 4. LES SYSTMES NON LINAIRES
Bien que prsentant des similitudes avec le cas unidimentionel, l'analyse de convergence des
mthodes de point xe en dimension n est cependant beaucoup plus dlicate. Nous prfrons
donc procder par analogie avec le cas unidimentionnel. Nous avons vu que la convergence vers
une racine s de l'algorithme des points xes est assujettie la condition :
|g (s)| < 1
et la norme de J(
s ) est infrieure 1 est quivalente la condition
(J(
s )) < 1
f2 (x1 , x2 ) = 0.
Soit (x01 , x02 ) une approximation initiale de la solution de ce systme. Cette approximation ini-
tiale est cruciale et doit toujours tre choisie avec soin. Le but de ce qui suit est de dterminer
une correction x1 , x2 ) (x01 , x02 ) de telle sorte que :
f1 (x01 + x1 , x02 + x2 ) = 0
f2 (x01 + x1 , x02 + x2 ) = 0.
f1 0 0 f1 0 0
0 = f1 (x01 , x02 ) + (x1 , x2 )x1 + (x , x )x2 +
x1 x2 1 2
f2 0 0 f2 0 0
0 = f2 (x01 , x02 ) + (x1 , x2 )x1 + (x , x )x2 +
x1 x2 1 2
4.2. MTHODE DE NEWTON 33
Pour dterminer (x1 , x2 ), il sut de ngliger les termes d'ordre suprieur et d'crire :
f1 0 0 f1 0 0
(x1 , x2 )x1 + (x , x )x2 = f1 (x01 , x02 )
x1 x2 1 2
f2 0 0 f2 0 0
(x1 , x2 )x1 + (x , x )x2 = f2 (x01 , x02 )
x1 x2 1 2
ou encore sous forme matricielle :
f1 0 0 f1 0 0
(x , x ) (x , x ) x1 f2 (x01 , x02 )
x1 1 2 x2 1 2
=
f f2 0 0
2
(x01 , x02 ) (x , x ) x2 f2 (x01 , x02 )
x1 x2 1 2
Ce systme linaire s'crit galement sous une forme plus compacte :
J(x01 , x02 )x = F (x01 , x02 )
o J(x01 , x02 ) dsigne la matrice des drives partielles ou matrice Jacobienne value au point
(x01 , x02 ), x est le vecteur des corrections relatives chaque variable.
Le dterminant de la matrice jacobienne est appel le jacobien. Le jacobien doit tre dirent de
0 pour que la matrice jacobienne soit inversible. On pose ensuite
x11 = x01 + x1
x12 = x02 + x2
qui est la nouvelle approximation de la solution du systme non linaire. On cherchera par la
suite corriger (x11 , x12 ) d'une nouvelle quantit x, et ce jusqu' la convergence.
De manire plus gnrale, on pose :
f1 f1 f1
x1 x x2 x xn x
f2 f2 f2
x x x
x1 x2 xn
J(
x)=
. . .
.. .. ..
fn fn fn
x x x
x1 x2 xn
De plus, on pose :
x1 f1 ( x)
x2
f2 ( x )
x = .. et F (
x)= ..
. .
xn f (
n
x)
pour en arriver l'algorithme gnral suivant :
1. Etant donn un test d'arrt
34 CHAPITRE 4. LES SYSTMES NON LINAIRES
et poser :
xi+1 = xi + x
x
5. Si < et F ( xi )
xi+1
convergence atteinte
crire la solution xi+1
arrt
6. Si le nombre maximal d'itrations N est atteint :
convergence non atteinte en N itrations
arrt
7. Retour l'tape 4.
Chapitre 5
Interpolation polynomiale
Il existe de trs nombreux cas, o on ne connait une fonction que par ses valeurs en un
certain nombre de points. Par exemple, lorsqu'on eectue une srie de mesures, on obtient les
valeurs de la grandeur mesure yi en fonction du paramtre exprimental xi que l'on fait varier.
On n'a en rgle gnrale pas accs la fonction f qui relie ce paramtre la valeur mesure,
mais il peut tre intressant de pouvoir prdire une valeur approche de f (x) pour des valeurs
de x que l'on n'a pas mesur. On cherche alors approcher la fonction f par des polynmes,
c'est ce que l'on appelle l'interpolation polynomiale .
Le dveloppement de Taylor au voisinage d'un point x0 l'ordre n d'une fonction f est une
interpolation polynomiale locale de f :
(x x0 )n (n)
f (x) = f (x0 ) + (x x0 )f (x0 ) + + f (x0 ).
n!
Cette approximation polynomiale de f n'a de sens que si f est drivable l'ordre n + 1. Nous
n'tudierons pas cette approximation polynomiale suppose connue.
Un autre type de dveloppement polynomial est donn losqu'on cherche approximer (interpo-
ler) une fonction f : IR IR dont on connat les n + 1 valeurs yi = f (xi ) en n + 1 points xi
distincts par un polynme pn (d'interpolation) de degr n qui passe par ces points, i.e. tel que
pn (xi ) = yi , 0 i n.
Dfinition 5.0.1 Les points xi en lesquels le polynme pn d'interpolation vrie pn (xi ) = f (xi )
sont appels points de collocation. Le polynme obtenu est appel polynme d'interpolation.
Les polynme pn cherchs peuvent tre dcomposs sur la base (1, x, x1 , . . . , xn ) i.e. mis sous la
forme
pn (x) = a0 + a1 x + + an xn
et les inconnues sont alors les n + 1 composantes ai qui sont solutions du systme form des
n + 1 quations p(xi ) = f (xi ). Ici on prfrera dvelopper des polynmes de degr n sur la base :
x xj
1. donne par Lagrange : Li (x) = j=i ,1 i n
xi xj
2. donne par Newton : (1, (x x0 ), (x x0 )(x x1 ), , (x x0 ) (x xn ))
35
36 CHAPITRE 5. INTERPOLATION POLYNOMIALE
Exemple 5.2.1 On cherche, en utilisant les polynmes de Lagrange, le polynme de degr 3 qui
interpole la fonction f aux points (0, 1), (1, 2), (2, 9) et (3, 28).
On a
(x xj )
Li (x) = pour i = 0, , 3
j=i
(xi xj )
donc
(x 1)(x 2)(x 3) (x 1)(x 2)(x 3)
L0 (x) = =
(0 1)(0 2)(0 3) 6
= x3 + 1
p0 (x) = a0
p1 (x) = p0 (x) + a1 (x x0 ) = a0 + a1 (x x0 )
y1 y0
y2 = y0 + (x1 x0 ) + a2 (x2 x0 )(x2 x1 )
x1 x0
soit
( )
(y2 y0 )(x1 x0 ) (y1 y0 )(x2 x0 ) 1 (y2 y1 ) (y1 y0 )
a2 = = .
(x1 x0 )(x2 x1 )(x2 x0 ) (x2 x0 ) (x2 x1 ) (x1 x0 )
et donc pk pk1 est le polynme de degr k qui s'annule aux k points x0 , , xk1 et qui vaut
yk au point xk , ce qui dtermine ak .
Dfinition 5.3.1 Pour une fonction f dnie en deux points a et b distincts, on appelle pre-
mire drence divise de f la valeur :
f (b) f (a)
f [a, b] =
ba
f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] =
x2 x0
Proposition 5.3.1 tant donns n + 1 points (xi , f (xi )), i = 0, , n l'unique polynme de
degr n qui passe par ces points est donn par :
1
Preuve Dmonstration par rcurrence. L'hypothse est vraie pour p1 .
Etant donns n points, (xi , yi = f (xi )), i = 0, , n 1, Supposons que l'hypothse soit vraie
pour le polynme pn1 de Newton, Alors :
On a alors aussi, pour les points (xi , f (xi )), i = 1, , n, le polynme qn1 de Newton donn
par :
qn1 (x) = f (x1 ) + f [x1 , x2 ](x x1 ) + f [x1 , , xn ](x x1 ) (x xn1 )
De plus,
pn1 (xi ) = qn1 (xi ) = yi = f (xi )
D'o, en posant :
(xn x)pn1 (x) + (x x0 )qn1 (x)
pn (x) =
(xn x0 )
on aura
pn (xi ) = f (xi ) pour tout i = 0, , n 1.
Mais posons
(x x0 )
s( x) = pn (x) pn1 (x) = (qn1 (x) pn1 (x)),
(xn x0 )
le polynme sn de degr n s'annule en les n points xi , 0 i n 1, donc sn est de la forme
sn (x) = (x x0 ) (x xn1 ) pour un scalaire donn. Et il reste montrer que =
f [x0 , , xn ]Mais, partir de l'expression de pn , le coecient de xn est donn par :
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ]
x0 f (x0 )
f [x0 , x1 ]
x1 f (x1 ) f [x0 , x1 , x2 ]
f [x1 , x2 ] f [x0 , x1 , x2 , x3 ]
x2 f (x2 ) f [x1 , x2 , x3 ]
f [x2 , x3 ]
x3 f (x3 )
La construction de cette table est simple, nous nous sommes arrts aux troisimes dirences
divises, mais les autres s'obtiendraient de la mme faon.
40 CHAPITRE 5. INTERPOLATION POLYNOMIALE
Exemple 5.3.1 La table des dirences divises pour les points (0, 1), (1, 2), (2, 9) et (3, 28)
est :
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ]
0 1
1
1 2 3
7 1
2 9 6
19
3 28
D'o le polynme d'interpolation est
Si on rajoute un quatrime point d'interpolation (5, 54) pour obtenir un polynme de degr 4, il
sut de compter la table des dirences divises dj utilise :
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 , xi+4 ]
0 1
1
1 2 3
7 1
2 9 6 -3/5
19 -2
3 28 -2
13
5 54
ou encore
En (x) = f (x) pn (x).
On constate immdiatement que
En (xi ) = 0, i = 0, 1, , n
et donc que l'erreur d'interpolation est nulle aux points de collocations puisque le polynme passe
exactement par ces points.
5.4. ERREUR D'INTERPOLATION 41
Remarque 5.4.1 On suppose que les donnes des points (xi , f (xi )) sont exactes, ce qui n'est
pas toujours le cas. En eet, si ces donnes proviennent de mesures exprimentales, elles peuvent
tre entaches d'une erreur de mesure. Nous supposons, dans la suite, que cette erreur est nulle.
f (n+1) ((x))
En (x) = (x x0 ) (x xn ).
(n + 1)!
Preuve
Soit le polynme d'interpolation de degr n passant par x0 , , xn .
1. Pour tout x [a, b], Si x = xi pour un indice 0 i n la formule est vrie car f (xi ) = pn (xi ).
2. Fixons maintenant un x [a, b] qui soit dirent des xi et montrons la formule pour ce x. On
considre le polynme pn+1 qui interpole la fonction f aux points x0 , , xn et x.
Par dnition
pn+1 (x) = pn (x) + f [x0 , xn , x](x x0 ) (x xn )
et notons
R(x) = f (x) pn+1 (x),
R est alors une fonction drivable l'ordre n + 1. Par dnition de R, la dirence f (x)
pn+1 (x) s'annule en n + 2 points distincts x0 , , xn , x. Comme R est drivable , on peut
appliquer n + 1 fois le thorme de Rolle et on en dduit que R admet n + 1 zros distincts dans
[min(xi ), max(xi )]. De la mme faon, R admet n zros distincts dans [min(xi ), max(xi )].
et nalement encore R(n+1) admet un zro dans [min(xi ), max(xi )]. Notons ce zro de R(n+1)
par . Alors, on a
(n+1)
R(n+1) () = 0 = f (n+1) () p(n+1) ())
Alors
(n+1)
f (n+1) () = p(n+1) () = (n + 1)!f [x0 , xn , x]
car p(n+1) est un polynme de degr n + 1, donc
f (n+1) ()
f [x0 , xn , x] =
(n + 1)!
(n+1)
et puisque p(n+1) (x) = f (x) alors
f (n+1) ()
f (x) p(n) (x) = (x x0 ) (x xn ).
(n + 1)!
42 CHAPITRE 5. INTERPOLATION POLYNOMIALE
Remarque 5.4.2 Des commentaires sont ncessaires pour bien comprendre ce rsultat :
1. L'erreur d'interpolation est nulle aux points de collocation.
2. La fonction a priori inconnue f apparat par l'intermise de sa drive d'ordre n + 1 value au
point ) galement inconnu.
3. Il existe une similarit entre l'erreur d'interpolation et l'erreur lie au dveloppement de Taylor :
dans les deux cas, on montre l'existence d'un point qu'on ne peut gnralement pas dterminer.
4. Le terme d'erreur en un point x fait intervenir des coecients de la forme (x xi ) donc on
a intrt choisir des points xi qui sont situs le plus prs possible de x. Ce choix est utile
lorsqu'on a un grand nombre de points de collocation.
Exemple
Prenons l'exemple de la fonction f (x) = x, on veut avoir une approximation de 8 qui est
gale 2, 828427125. On suppose qu'on a les points d'interpolations suivants : (1; 1),(3; 1, 732051),
(7, 5; 2, 738613),(9, 1; 3, 016620) et (12; 3, 464102). On construit le tableau des dirences divi-
ses.
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 , xi+4 ]
7, 5 2, 738613
0, 173755
9, 1 3, 016621 0, 00432247
0, 154304 0, 0004291
12 3, 464102 0, 00625344 0, 0001149
0, 192450 0, 0011761
3 1, 732051 0, 01577954
0, 366025
1 1
On remarque que les abscisses xi ont t ordonnes en fonction de leur distance par rapport
x = 8 cela nous permet d'eectuer d'abord l'interpolation avec les valeurs les plus proches de
8 pour minimiser l'erreur d'interpolation. On a le tableau des rsultats suivant :
degr n pn (8) |pn (8) 8|
1 2,825490 0,29102
2 2,827868 0,55103
3 2,828812 0,38103
4 2,827547 0,88103
Supposons que les abscisses xi ont t ordonnes par ordre croissant, on aurait le tableau sui-
vant :
degr n pn (8) |pn (8) 8|
1 3,562178 0,73100
2 2,795705 0,32101
3 2,825335 0,30102
4 2,827547 0,88103
5.4. ERREUR D'INTERPOLATION 43
En plus
1. S(x) interpole les nuds xi donnant n + 1 conditions.
2. s(x) est continu aux nuds internes donnant n 1 conditions.
3. s (x) et s (x) sont continuent aux nuds internes donnant 2(n 1) conditions.
Bilan : 4n inconnues et 4n 2 quations, le systme est sous dtermin. il manque alors deux
quation pour que le systme admette une solution. On peut donc dnir direntes splines
cubiques, en fonction des 2 conditions supplmentaires choisies. Il est plus simple d'ajouter
les conditions supplmentaires S (x0 ) = 0 et S (xn ) = 0 c'est ce que l'on appelle les splines
naturelles.
E(f ) = I I(f )
Si x0 = a ou b, l'erreur est
(b a)2
E(f ) = f (), [a, b].
2
C'est la mthode du rectangle ;
b+a
SI x0 = alors l'erreur devient
2
(b a)3
E(f ) = f (), [a, b].
24
Il s'agit de la mthode du point milieu. On remarque que le choix du point milieu amliore
l'ordre de la mthode.
Pour la dmonstration, il sut d'utiliser le thorme suivant
46 CHAPITRE 5. INTERPOLATION POLYNOMIALE
Thoreme 5.6.1 Soit f1 une fonction continue dans l'intervalle [a, b] et f2 une fonction in-
tgrable qui ne change pas de signe dans l'intervalle [a, b]. Il existe alors [a, b] tel que
b b
f1 (x)f2 (x)dx = f1 () f2 (x)dx.
a a
La mthode du rectangle est exacte (c'est--dire E(f ) = 0) pour les fonctions constantes et
celle du point milieu est exacte pour les polynmes de degr infrieur ou gal 1. Ceci s'explique
par le fait que pour l'intgration de x, la mthode du point milieu donne lieu deux erreurs
d'valuation, gales en valeur absolue et opposes en signe.
(x2 x0 ) ( )
= f (x0 ) + 4f (x1 ) + f (x2 )
6
(b a) ( )
= f (a) + 4f (m) + f (b) .
6
Pour l'tude de l'erreur, il sut de remarquer que si on rajoute un quatrime point (x3 , f (x3 )),
le polynme de degr 3 correspondant sera
ou encore
f (x3 ) p2 (x3 )
p3 (x) = p2 (x) + (x x0 )(x x1 )(x x2 )
(x3 x0 )(x3 x1 )(x3 x2 )
ba
Or on faisant un changement de variables x = x0 + sh avec h = :
2
x2 2
(x x0 )(x x1 )(x x2 )dx = s(s 1)(s 2)h4 ds = 0
x0 0
d'o x2 x2
p2 (x)dx = p3 (x)dx
x0 x0
et par suite
x2 x2
f (4) ((x))
E(f ) = E3 (x)dx = (x x0 )(x x1 )(x x2 )(x x3 )dx
x0 x0 4!
or le choix de x3 est arbitraire, on prends alors x3 = x1 , le terme d'erreur devient dans ce cas
x2 (4) 2 (4)
f ((x)) f ((s))
E(f ) = (x x0 )(x x1 ) (x x2 )dx =
2
s(s 1)2 (s 2)h5 ds.
x0 4! 0 4!
On remarque que s(s 1)2 (s 2) ne change pas de signe dans [0, 2], donc il sut d'appliquer
le second thorme de la moyenne et on aura :
f 4 () 5
E(f ) = h
90
ba
avec h = et [a, b]. Cette expression du terme d'erreur signie que la mthode de
2
Simpson est exacte (c'est--dire que le terme d'erreur s'annulle) pour tout polynme de degr
infrieur ou gal 3.
48 CHAPITRE 5. INTERPOLATION POLYNOMIALE
Il est possible de construire une formule de Newton-Cotes de degr quelconque. Toutefois, une
telle formule n'est pas inconditionnellement stable. C'est pourquoi, on se cantonnera aux plus bas
degrs : n = 0 mthode des rectangle ou la mthode du point milieu o la valeur est value en
milieu d'intervalle) ; n = 1 mthode des trapzes ; n = 2 mthode de Simpson dite 1/3, i.e. celle
prsente avant ; n = 3 mthode de Simpson 3/8 (il sut de faire le calcul) ; n = 4 mthode de
Boole. Lorsque le degr augmente, des instabilits apparaissent, dues au phnomne de Runge.
En eet, avec certaines fonctions (mme inniment drivables), l'augmentation du nombre n
de points d'interpolation ne constitue pas ncessairement une bonne stratgie d'approximation.
Carle Runge a montr qu'il existe des congurations o l'cart maximal entre la fonction et son
interpolation augmente indniment avec n. Pour remdier cela on peut utiliser les mthodes
composites qui consistent amliorer la prcision sans augmenter les degrs des polynmes
interpolants
(b a)
n1
I(f ) = f (mi )
n i=1
o mi est le milieu du i-ime sous-intervalle. Puisque les n sous-intervalles sont identiques, ils
sont de la forme [a + ih, a + (i + 1)h], avec h = (b a)/n et i = 0, 1, 2, ..., n 1. Ceci entrane
nalement que mi = a + ih + h/2. Le terme d'erreur s'crit
(b a)
E(f ) = h2 f (), [a, b].
24
Pour la mthode des trapzes, elle devient :
n1
f (xi+1 ) + f (xi )
I(f ) = (xi+1 xi )
i=0
2
b a f (xi+1 ) + f (xi )
n1
=
n i=0 2
ba( )
= f (x0 ) + 2(f (x1 ) + f (x2 ) + ... + f (xn1 ) + f (xn )
2n
n1
h
(f (x2i ) + 4f (x2i+1 ) + f (x2i+2 ))
i=0
3
h
= (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) +
3
Exemple avec deux point d'interpolation, les mthodes de Newton-Cotes nous donne la m-
thode des trapze qui est exacte l'ordre 1 on peut voir que la Formule de Gauss deux points
(t1 = 13 , t2 = 13 ) s'crit
( ) ( )
I(f ) = f 1/ 3 + f 1/ 3 .
qui est une mthode exacte l'ordre 3.
Pour montrer ce rsultat, dans un premier temps, on travaille sur l'intervalle [1, 1], o on fait
tout le dveloppement.
Pour un intervalle quelconque, il sura d'eectuer le changement de variable
(b a)t + (a + b) (b a)
x= et donc dx = dt
2 2
Ce changement de variable qui permet d'envoyer l'intervalle [1, 1] sur un intervalle quelconque
[a, b]. En eet, ce changement de variable permet d'crire
b 1 ( )
(b a)t + (a + b) (b a) (b a) 1
f (x)dx = f dt = g(t)dt
a 1 2 2 2 1
o ( )
(b a)t + (a + b)
g(t) = f .
2
1
n
De manire gnrale, on cherche des expressions de a forme g(t)dt = wi g(ti ).
1 i=1