Sunteți pe pagina 1din 53

Universit Ibn Zohr

Ecole Nationale de Sciences Appliques


Premire anne du cycle ingnieur
option B.T.P

Cours dAnalyse Numerique


Mme M. El Kyal

Anne universitaire : 2015-2016


2
Table des matires

1 Introduction 1

2 Les systmes linaires 3


2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Les mthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.1 Oprations lmentaires sur les lignes d'une matrice . . . . . . . . . . . . 4
2.2.2 Cas des matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.3 Mthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.4 Mthode de dcomposition LU . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.5 Mthode de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Normes matricielles et conditionnement . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Rappel sur le produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Rappel sur les normes vectorielles . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.4 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Dnitions et proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 principe des mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.3 Mthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.4 Mthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.5 Etude de la convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Les quations non linaires 25


3.1 Mthode de Dichotomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Mthodes de point xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Mthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.1 Etude de la convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Mthode de la scante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5 Mthode de la corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4 Les systmes non linaires 31


4.1 Mthode des points xes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Mthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

5 Interpolation polynomiale 35
5.1 Rappels sur les racines d'un polynme . . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Polynmes de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3 polynmes de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.4 Erreur d'interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

i
ii TABLE DES MATIRES

5.4.1 Etude de l'erreur d'interpolation . . . . . . . . . . . . . . . . . . . . . . . 40


5.4.2 Test darrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.4.3 Ordre de l'erreur d'interpolation . . . . . . . . . . . . . . . . . . . . . . . 44
5.5 Autre type d'interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.5.1 Interpolation de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.5.2 Interpolation par splines cubiques . . . . . . . . . . . . . . . . . . . . . . 45
5.6 Mthodes de Newton Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.6.1 Mthodes du rectangle et du point milieu . . . . . . . . . . . . . . . . . 45
5.6.2 Mthode des trapzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.6.3 Mthode de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.7 Mthodes composites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.8 Mthodes de quadrature de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Chapitre 1
Introduction

Qu'est-ce que l'analyse numrique ?


Il y a un sicle, les mathmaticiens travaillaient trouver des solutions analytiques aux qua-
tions proposes par les physiciens et les mcaniciens. Parfois, la complexit de ces quations
tait telle, qu'ils mirent beaucoup d'nergie simplier ces modles an d'en obtenir des plus
simples pour lesquels les outils disponibles, en particulier l'analyse complexe, pouvait fonction-
ner. Ces apports considrables ont constitus le fond de roulement de l'ingnieur de bureau
d'tude. Cependant ils se sont vite rvls insusants et ce n'est qu'avec l'apparition des pre-
miers calculateurs au milieu du XXme sicle, qu'une autre voie beaucoup plus prometteuse et
complmentaire, a vu le jour : c'est l'analyse numrique.
Les premiers problmes furent obtenus par discrtisation d'quations aux drives partielles en
utilisant la clbre mthode des dirences nies. Cela permit de se ramener la rsolution
d'un systme matriciel. Trs vite, les limites de cette mthode sont apparues principalement en
raison des gomtries complexes, des milieux htrognes et des conditions aux limites varies
que l'ingnieur souhaitait introduire dans ses modles.
L'arrive de la mthode des lments nis a alors apport une solution ecace et agrable
tous ces problmes et a transform tous les modles d'quations aux drives partielles de la
physique en systmes matriciels (linaires ou non). Donc l'analyse numrique est l'tude d'al-
gorithmes qui permettront de simuler des problmes physiques sur un ordinateur. Un problme
modle est le problme suivant :
On se donne une corde de tension T > 0 attache ses deux extrmies et sur laquelle on tire
avec une force f vers le haut. On cherche calculer le dplacement vertical u de la corde. Les
physiciens nous donnent l'quation que vrie u :

T u (x) = f (x)x ]0, 1[


u(0) = 0.u(1) = 0.
A nous de la rsoudre !
Mais qu'est-ce qu'un bon algorithme ?
An de choisir le meilleur algorithme possible, il faut pouvoir les comparer. Un bon algorithme
est alors un algorithme :
1. le moins couteux possible en place mmoire,
2. le moins couteux possible en temps de calcul : c'est dire qui minimise le nombre d'opra-
tions ncessaires. C'est ce qu'on appelle un problme de complexit. Un exemple : Calcul
d'un dterminant d'une matrice N N . La mthode mathmatique de Cramer ncessite
N N ! oprations lmentaires N ! additions et (N 1)N ! multiplications. Prenons N = 50
sachant que 5050! = 15.1055, et qu'un ordinateur peut faire environ 20 GFlops (ie 20

1
2 CHAPITRE 1. INTRODUCTION

milliards d'oprations la seconde), il faudrait quand mme environ 1050 ans pour faire
ce calcul.
3. le plus stable possible, ie le moins sensible aux erreurs d'arrondi,
4. le plus prcis possible : la solution qu'on obtient est une solution approche, on veut savoir
si on est prs ou loin de la solution exacte. C'est ce qu'on appelle l'estimation d'erreur.
.
Chapitre 2
Les systmes linaires

2.1 Objectifs
On note Mn (IR) l'ensemble des matrices carres d'ordre n. Soit A Mn (IR) une matrice
inversible et b IRn , notre objectif dans ce chapitre est de rsoudre le systme linaire Ax = b,
c'est dire trouver une solution de :

Ax = b tel que x IRn (2.1)

Comme A est inversible, il existe un unique vecteur x IRn solution de l'equation (2.1).
Nous allons tudier des mthodes de calcul de ce vecteur x : une premire partie sera consacre
aux mthodes directes et la deuxime aux mthodes itratives. Un des points essentiels dans
l'ecacit des mthodes envisages concerne la taille des systmes rsoudre. Entre 1980 et
2000, la taille de la mmoire des ordinateurs a augment de faon considrable. La taille des
systmes qu'on peut rsoudre sur ordinateur a donc galement augment selon l'ordre de gran-
deur suivant :
1980 : matrice pleine (tous les termes sont non nuls) n = 102
matrice creuse n = 106
2000 : matrice pleine n = 106
matrice creuse n = 108

2.2 Les mthodes directes


Dfinition 2.2.1 On appelle mthode directe de rsolution de (2.1) une mthode qui donne
exactement x ( A et b tant connus) solution de (2.1) aprs un nombre ni d'oprations l-
mentaires (+, , /, ).

Parmi les mthodes directes, on peut citer la mthode de substitution qui consiste liminer
les quations une une par substitution. Malheureusement, c'est une mthode qui est adapte
uniquement aux systmes de trs petite taille. Pour les systmes de grande taille, il est dicile
de transcrire cette faon de faire sous forme d'algorithme. Il est donc prfrable de recourir
d'autres mthodes pour simplier le systme.
On peut d'abord se demander quels types de systmes linaires sont faciles rsoudre, et
ce mme s'ils sont de grande taille. Le cas le plus simple est sans doute celui des systmes
diagonaux ou mme encore les systmes triangulaires infrieurs ou suprieurs. Donc ce type de
systmes est primordial pour la rsolution des systmes linaires. Nous abordons essentiellement
deux mthodes directes : la mthode d'limination de Gauss et la mthode de dcomposition
LU . Elles consistent ramener un systme linaire quelconque un ou plusieurs systmes

3
4 CHAPITRE 2. LES SYSTMES LINAIRES

triangulaires.
La question qui se pose maintenant : Quelles sont les types d'oprations permis sur les lignes
du systme (2.1) pour le ramener un systme triangulaire ?

2.2.1 Oprations lmentaires sur les lignes d'une matrice


Etant donn le systme
Ax = b,
on peut multiplier, gauche de chaque cot, par une matrice inversible W , on aura
W Ax = W b
la solution du problme n'est pas modie puisque l'on peut remultiplier par W 1 pour revenir
au systme initial.
Exemple 2.2.1 Etant donn le systme

3 0 0 x1 9
1 2 0 x2 = 7
3 2 1 x3 14
de solution
(3, 2, 1)t .
Si on multiplie ce systme par la matrice inversible

1 0 0
W = 1 2 0
1 2 3
on obtient le systme
3 0 0 x1 9
5 4 0 x2 = 23
14 10 3 x3 65
dont la solution est toujours (3, 2, 1)t . Mais si on multiplie par une matrice W non inversible,
exemple
1 0 0
W = 1 2 0
1 2 0
on obtient le systme
3 0 0 x1 9
5 4 0 x2 = 23
5 4 0 x3 23
qui possde une innit de solutions.
pour transformer notre systme en un systme triangulaire, il sut d'utiliser trois oprations
lmentaires sur les lignes de la matrice. Ces trois oprations lmentaires correspondent trois
types de matrices W et sont :
1. Opration (li li ) remplacer la ligne li de la matrice A par un multiple d'elle mme ;
2. Opration (li lj ) intervertir la ligne li et la ligne li de la matrice A ;
3. Opration (li li + lj ) remplacer la ligne li de la matrice A par la ligne li plus un
multipe de la ligne lj .
2.2. LES MTHODES DIRECTES 5

Opration 1

L'opration (li li ) revient multiplier le systme par une matrice W diagonale inversible
dont tous les lments diagonaux sont 1 sauf wii = .
Exemple 2.2.2
3 1 2 x1 6
6 4 1 x2 = 11
5 4 1 x3 10
on veut faire le changement (l2 3l2 ) on multiplie par

1 0 0
W = 0 3 0
0 0 1
on obtient
3 1 2 x1 6
18 12 3 x2 = 33
5 4 1 x3 10

Opration 2

L'opration (li lj ) est quivalente multiplier le systme par une matrice W inversible
qui contient des 1 sur la diagonale sauf la ligne i o le 1 est dans la colonne j et la ligne j o
le 1 est dans la colonne i, tous les autres termes sont nuls.
Exemple 2.2.3 On veut intervertir les lignes 2 et 3 de notre systme

1 0 0
W = 0 0 1
0 1 0
alors
3 1 2 x1 6
W Ax = W b 5 4 1 x2 = 10 .
6 4 1 x3 11
Remarque 2.2.1 La matrice W est inversible et son inverse c'est la matrice qui intervertie
les lignes (lj li ) donc c'est la matrice W elle mme.

Opration 3

L'opration (li li + lj ) est quivalente multiplier le systme de dpart par une matrice
inversible W qui vaut 1 sur toute la diagonale et 0 partout ailleurs sauf aij qui vaut .
Exemple 2.2.4 On veut faire la transformation (l2 l2 2l1 ), donc

1 0 0
W = 2 1 0
0 0 1
alors
3 1 2 x1 6
W Ax = W b 0 2 3 x2 = 1
5 4 1 x3 110
Remarque 2.2.2 L encore, la matrice W est inversible puisque pour revenir au systme
initial, il sut de retrancher la ligne lj donc on aura faire l'opration inverse (li li lj ).
6 CHAPITRE 2. LES SYSTMES LINAIRES

2.2.2 Cas des matrices triangulaires


Soit le systme suivant rsoudre :


a1,1 x1 = b1

a2,1 x1 + a2,2 x2 = b2
..

.

a x + a x
n,1 1 n,2 2 an,n xn = bn

Ce systme quivaut trouver x vecteur de IRn tel que Ax = b avec :



a1,1 x1 b1
a2,1 a2,2 x2 b2

Ax = .. . . .. ..
. . . .
an,1 an,n xn bn
n
Comme la matrice est triangulaire infrieure, detA = 1 aii , cette matrice est inversible si et
seulement si aii = 0, i = 1, 2, ..., n. Le vecteur x s'obtient facilement par une descente :


x1 =
b1



a11

(b2 a21 x1 )


x2 =



a22

..

.
i1

(bi j=1 aij xj )

x =


i
aii
.


.

. n1



(b n j=1 anj xj )
xn =
ann

Comptons
le nombre d'oprations ncessaires une descente : pour le calcul de xi : (i1) , (i
2) + 1 et 1/, donc au total


n
n
2(i 1) + n = 2 i + n = n(n 1) + n n2 oprations
1 1

Soit maintenant le systme suivant rsoudre :




a1,1 x1 + a1,2 x2 + + a1,n = b1

a2,2 x2 + a2,n = b2



an,n xn = bn

Ce systme quivaut trouver x vecteur de IRn tel que Ax = b avec :



a1,1 a1,2 a1,n x1 b1
a2,1 a2,2 a2,n
x2 b2
Ax = .. .. . .
. . .. ..
an,n xn bn
2.2. LES MTHODES DIRECTES 7

Comme la matrice est triangulaire suprieure, detA = n1 aii , cette matrice est inversible si et
seulement si aii = 0, i = 1, 2, ..., n. Le vecteur x s'obtient facilement par une remonte :


bn

xn =

ann
..


.




(bi nj=i+1 aij xj )

xi =

aii

.

.
.

n

(b j=2 a1j xj )

x1 =
1
a11
Comptons le nombre
d'oprations
ncessaires une remonte : pour le calcul de xi : n (i +
1) + 1 = (n i) , (n i) et 1/, donc au total

n
n
2(n i) + n = 2 i + n = 2n2 n(n 1) + n n2 oprations
1 1

2.2.3 Mthode de Gauss


Soit A Mn une matrice inversible et b IRn . On cherche calculer x IRn tel que
Ax = b. Comme les systmes triangulaires sont faciles et conomiques rsoudre, lobjectif de
la mthode de Gauss est de transformer tout systme linaire en systme triangulaire quivalent
par des oprations simples (oprations sur les lignes de la matrice A cites ci-dessus).
On pose
A(1) = A et b(1) = b
et pour i = 1, ..., n 1, on cherche calculer A(i+1) et bi+1 tels que les systmes A(i) (x) = b(i)
et A(i+1) (x) = b(i+1) soient quivalents, o A(i) est une matrice de la forme suivante
(1) (1)

a1,1 a1,n
..
0 ... .

(i) ..
0 a .
i,i
. .
(i)
A = (i) . . .
.
ai+1,i
.. .. ..
. . .

.. .. ..
. . .
(i) (i)
0 0 an,i an,n

et A(n) est la matrice de la forme suivante


(n) (n)

a1,1 a1,n
.. ..
0 . .

.. .. .. ..
. . . .
. .. .. ..
A(n) = .. . . .

. .. .. ..
.. . . .

.. .. .. ..
. . . .
(n)
0 0 an,n
8 CHAPITRE 2. LES SYSTMES LINAIRES

Une fois la matrice A(n) (triangulaire suprieure ) et le vecteur b(n) calculs, il sera facile de
rsoudre le systme
A(n) x = b(n) .
Donnons les dtails des tapes de calcul.

Etape de factorisation

Pour passer da la matrice A(i) la matrice A(i+1) , on va eectuer des combinaisons linaires
entre lignes qui permettront d'annuler les coecients de la ime colonne situe en dessous de
la ligne i (dans le but de se rapprocher d'une matrice triangulaire suprieure). Evidemment, il
faut modier le second membre b galement. Cette tape de factorisation s'crit :
1. Pour k i et pour j = 1, ..., n, on pose
(i+1) (i)
ak,j = ak,j et bi+1
k = bik

(i)
2. Pour k > i si ai,i = 0, on pose

(i)
(i+1) (i) ak,i (i)
ak,j = ak,j (i)
ai,j pour k = j, ..., n,
ai,i

et
(i)
(i+1) (i) ak,i (i)
bk = bk b
(i) i
pour k = j, ..., n.
ai,i
(i)
Si la condition ai,i = 0 est vrie pour i = 1, ..., n, on obtient par le procd de calcul ci-
dessus un systme linaire A(n) x = b(n) quivalent au systme de dpart, avec une matrice A(n)
triangulaire suprieure facile inverser. On verra un peu plus loin les techniques de pivot qui
(i)
permettent de rgler le cas o la condition ai,i = 0 n'est pas vrie.

Etape de la remante

Il reste rsoudre le systme A(n) x = b(n) . Ceci est une tape facile. Comme A(n) est
(i)
une matrice inversible, on a ai,i = 0 pour tout i = 1, ..., n, et comme A(n) est une matrice
triangulaire suprieure, on peut donc caculer les composantes de x en remontant, c'est dire
de la composante xn la composante x1 :
(n)
bn
xn = (n)
an,n
( )
1 (i)

n
(n)
xi = (n)
bi ai,j xj , i = n 1, ..., 1.
ai,i j=i+1

Exemple 2.2.5 On a rsoudre le systme suivant :



2 1 2 x1 10
6 4 10 x2 = 26
8 5 1 x3 35
2.2. LES MTHODES DIRECTES 9

on considre la matrice augmente :



2 1 2 10
6 4 0 26 l2 6 l1
2
8 5 1 35 l3 82 l1

2 est appel pivot de la mthode, on obtient :



2 1 2 10
0 1 6 4
0 1 7 5 l3 11 l2

Le pivot dans cette deuxme tape est 1. On obtient



2 1 2 10
0 1 6 4
0 0 1 1

Il reste ensuite faire la remonte triangulaire pour obtenir la solution :

x3 = 1
x2 = 2
x1 = 3

Stratgie de pivot

(i)
Dans la prsentation de la mthode de Gauss, on suppose que la condition ai,i = 0 est
vrie chaque tape. Or il peut s'avrer que ce ne soit pas le cas, ou que, mme si la condition
(i)
est vrie, le pivot ai,i soit trs petit, ce qui peut entraner des erreurs d'arrondi importantes
dans les calculs. Un exemple d'erreurs d'arrondi est le suivant :
Soit rsoudre le systme : ( )( ) ( )
1 x1 1
=
1 1 x2 2
1 1 2
La solution est donne par x1 = et x2 = , ce qui donne pour = 0, x1 = x2 = 1.
1 1
Or en rsolvant ce systme par la mthode de Gauss avec = 109 o 109 est la prcision de
la machine, on obtient sur la machine :
( 9 )( ) ( )
10 1 x1 1
=
0 1 109 x2 2 109
or 1 109 109 et 2 109 109 d'o la solution x2 = 1 et x1 = 0 qui n'est pas la
solution !
Par contre si on permute les lignes 1 et 2, on obtient :
( )( ) ( )
1 109 x1 2
=
0 1 109 x2 1 2 109
donc x1 = x2 = 1
On peut rsoudre ce type de problmes en utilisant les techniques de pivot partiel ou pivot
total, qui reviennent choisir une matrice de permutation P qui n'est pas forcment gale la
matrice identit.
10 CHAPITRE 2. LES SYSTMES LINAIRES

En eet, plaons nous l'itration i de la mthode de Gauss. Comme la matrice A(i) est forcment
non singulire, on a :
(i) (i)

ai,i ai,n
.. = 0
det(A(i )) = a1,1 a2,2 ...ai1,i1 det ... ..
(i) (i) (i)
. .
(i) (i)
an,i an,n
et donc en particulier
(i) (i)
ai,i ai,n
.. =
det ... ..
. . 0
(i) (i)
an,i an,n

Pivot partiel

(i)
On dduit qu'il existe i0 {i, ..., n} telle que ai0 ,i = 0. On choisit alors i0 {i, ..., n} tel que
(i) (i)
|ai0 ,i | = max |ak,i |
k=i,...,n

On change alors les lignes i et i0 dans la matrice A et le second membre b. On continue la


procdure de Gauss.
Exemple 2.2.6 Etant donn le systme suivant :
x1 x2 + 2x3 x4 = 8
2x1 2x2 + 3x3 3x4 = 20
x1 + x2 + x3 = 2
x1 x2 + 4x3 3x4 = 4
on considre la matrice augmente :

1 1 2 1 8
2 2 3 3 20
l2 11 l1
2

1 1 1 0 2 l3 1 l1
1 1 4 3 4 l4 11 l1
on obtient :
1 1 2 1 8
0 0 1 1 4

0 2 1 1 6
0 0 2 4 12
et puisqu'on a un pivot nul, il sut d'intervetir les lignes 2 et 3, on aura

1 1 2 1 8
0 2 1 1 6

0 0 1 1 4
0 0 2 4 12 l4 1
2
l3
on obtient
1 1 2 1 8
0 2 1 1 6

0 0 1 1 4
0 0 0 2 4
Et la remonte triangulaire nous donne :
x = (7, 3, 2, 2)t
2.2. LES MTHODES DIRECTES 11

Pivot total

On choisit maintenant i0 et j0 {i, ..., n} tels que


(i) (i)
ai0 ,j0 = max |ak,j |
k=i,...,nj=i,...,n

On change alors les lignes i et i0 dans la matrice A et le second membre b, les colonnes j et j0
de A et les inconnues xj et xj0 . L'intert de ces stratgies de pivot est qu'on aboutit toujours
la rsolution du systme. La stratgie du pivot total permet une moins grande sensibilit aux
erreurs d'arrondi. L'inconvnient majeur est qu'on change la structure de la matrice A.

Remarque 2.2.3En ce qui concerne la place mmoire, on peut trs bien stocker les itrs A(i)
dans la matrice A de dpart.

2.2.4 Mthode de dcomposition LU


Si le systme Ax = b doit tre rsolu pour plusieurs seconds membres b, il est vident qu'on
a intrt ne faire l'tape de factorisation qu'une seule fois, alors que l'tape de remonte sera
faite pour chaque vecteur b. l'tape de factorisation peut se faire en dcomposant la matrice
A sous la forme LU o la matrice L est triangulaire infrieure et la matrice U est triangulaire
suprieure. Il faut tout de mme souligner que cette dcomposition n'est pas unique, donc il
sut de faire ,au pralable, des choix sur ces deux matrices. Le choix le plus populaire est la
dcomposition de Crout qui consiste imposer que la matrice U ait des 1 sur la diagonale.

Dcomposition de Crout

Pour obtenir cette dcompostion (ou factorisation), nous considrons une matrice 4 4, le
cas gnral tant similaire.
l 0 0 0

1 u1,2 u1,3 u1,4

a1,1 a1,4 1,1

.. = 2,1 2,2 0 0 1 u2,3 u2,4
A = LU ...
l l 0
. l 0 0 0
3,1 l3,2 l3,3 1 u3,4
a4,1 a4,4 l4,1 l4,2 l4,3 l4,4 0 0 0 1

On procde par identication :


1re tape : Produit des lignes de L par la premire colonne de U , on obtient

l1,1 = a1,1 , l2,1 = a2,1 , l3,1 = a3,1 et l4,1 = a4,1 .

2me tape : Produit de la premire ligne de L par les colonnes de U , on obtient

l1,1 u1,2 = a1,2 , l1,1 u1,3 = a1,3 , l1,1 u1,4 = a1,4 .

d'o
a1,2 a1,3 a1,4
u1,2 = , u1,3 = , u1,4 = .
l1,1 l1,1 l1,1

3me tape Produit des lignes de L par la premre colonne de U , on obtient



l2,1 u1,2 + l2,2 = a2,2
l3,1 u1,2 + l3,2 = a3,2

l4,1 u1,2 + l4,2 = a4,2
12 CHAPITRE 2. LES SYSTMES LINAIRES

o encore
l2,2 = a2,2 l2,1 u1,2
l3,2 = a3,2 l3,1 u1,2

l4,2 = a4,2 l4,1 u1,2
on a alors la deuxime colonne de L.
4me tape : Produit de la deuxime ligne de L par la troisime colonne de U , on aura
{
l2,1 u1,3 + l2,2 u2,3 = a2,3
l2,1 u1,4 + l2,2 u2,4 = a2,4


a2,3 l2,1 u1,3
u2,3 =
l2,2
a l2,1 u1,4

u2,4 =
2,4
l2,2

5me tape : Produit des lignes de L par la troisime colonne de U


{
l3,1 u1,3 + l3,2 u2,3 + l3,3 = a3,3
l4,1 u1,3 + l4,2 u2,3 +l4,3 = a4,3
{
l3,3 = a3,3 l3,1 u1,3 l3,2 u2,3
l4,3 = a4,3 l4,1 u1,3 l4,2 u2,3

6me tape : Produit de la troisime ligne de L par la quatrime colonne de U

l3,1 u1,4 + l3,2 u2,4 + l3,3 u3,4 = a3,4

ce qui permet d'obtenir


a3,4 l3,1 u1,4 l3,2 u2,4
u3,4 =
l3,3

7me tape : Produit de la quatrime ligne de L par la quatrime colonne de U

l4,1 u1,4 + l4,2 u2,4 + l4,3 u3,4 + l4,4 = a4,4

ce qui permet d'obtenir

l4,4 = a4,4 l4,1 u1,4 l4,2 u2,4 l4,3 u3,4

Donc de faon gnrale, l'algorithme s'crit


1. Dcomposition de Crout :
 1re colonne de L :
li,1 = ai,1 , i = 1, ..., n
 1re ligne de U :
a1,i
u1,i = , i = 2, ..., n
l1,1
 Pour i = 2, ..., n 1 :
 Calcul du pivot

i1
li,i = ai,i li,k uk,i
k=1
2.2. LES MTHODES DIRECTES 13

 Pour j = i + 1, ..., n :
 Calcul de la ime colonne de L :

i1
lj,i = aj,i lj,k uk,i
k=1

 Calcul de la ime ligne de U :



i1
ai,j li,k uk,j
k=1
ui,j =
li,i
 Calcul de ln,n :

n1
ln,n = an,n ln,k uk,n
k=1
2. Descente et remonte triangulaires :
 Descente triangulaire pour rsoudre Ly = b
b1
 y1 =
l1,1
 Pour i = 2, ..., n :

i1
bi li,k yk
k=1
yi =
li,i
 Remonte triangulaire pour rsoudre U x = y
 x n = yn
 Pour i = n 1, ..., 1 :
n
xi = yi ui,k xk .
k=i+1

Recherche de l'inverse d'une matrice

Si A est une matrice inversible, notons c1 , , cn les colonnes de sa matrice inverse A1 ,


c'est dire A1 = (c1 , , cn ).
La relation AA1 = I se traduit par les n systmes suivants :

Ack = ek , 1 k n,
o ek est le vecteur colonne ayant tous les lments nuls sauf celui sur la ligne k qui est 1 :

0 ligne 1
.
. ..
. .

ek = 1 ligne k .
. ..
.. .
0 ligne n
Une fois la dcomposition LU est connue, il sut de rsoudre les n sous systmes

Ack = ek , 1 k n
pour avoir les dierentes colonnes de la matrice A1 .
14 CHAPITRE 2. LES SYSTMES LINAIRES

2.2.5 Mthode de Cholesky


On va maintenant tudier la mthode de Cholesky, qui est une mthode directe adapte au
cas o la matrice A est symtrique dnie positive. On rappelle qu'une matrice A Mn (IR)
de coecients (ai,j )i=1,...,n;j=1,...,n est symtrique si A = At o At dsigne la transpose de A
dnie par les coecients (aj,i )i=1,...,n;j=1,...,n et que A est dnie positive si Ax.x > 0 pour tout
x IRn tel que x = 0.

Exemple 2.2.7 pour la matrice :


( )
2 0
A=
0 3
( )( ) ( )
2 0 x x
. = 2x2 + 3y 2 0
0 3 y y

De plus, 2x2 + 3y 2 = 0 x = 0 et y = 0.
Alors A est dnie positive.

Dans toute la suite, x.y designe le produit scalaire des deux vecteurs x et y de IRn .
On rappelle que si A est symtrique dnie positive elle est en particulier inversible.

Thoreme 2.2.1 Une matrice A symtrique est dnie positive si tous ses dterminants sont
positifs

Thoreme 2.2.2 Si les valeurs propres d'une matrice A symtrique sont toutes strictement
positives alors A est dnie positive. De mme si A est dnie positive alors toutes ses valeurs
propres sont strictement positives.

Thoreme 2.2.3 Soit A une matrice symtrique inversible, alors A est dnie positive si et
seulement s'il existe une matrice L tels que A = LLt , de plus si li,i > 0 pour i = 1, 2, ..., n alors
la factorisation est unique.

description de la mthode de Cholesky

La mthode de Cholesky consiste trouver une dcomposition de A de la forme LLt , o


L est triangulaire infrieure de coecients diagonaux strictement positifs. On rsoud alors le
systme Ax = b en rsolvant d'abord Ly = b puis le systme Lt x = y . Une fois la matrice A
factorise, c'est dire la dcomposition LLt obtenue, on eectue les tapes de descente et de
remonte :
1. tape 1 :
le systme Ly = b s'crit :

l1,1 0 0 y1 b1
.. .. .. .. .. ..
. . . . . .
Ly = .. .. .. = .. .
. . 0 . .
ln,1 ln,n yn bn
2.2. LES MTHODES DIRECTES 15

Ce systme s'crit composante par composante en partant de i = 1.


b1
l1,1 y1 = b1 , donc y1 =
l1,1

1
l2,1 y1 + l2,2 y2 = b2 , donc y2 = (b2 l2,1 y1 )
l2,2
..
.
i
1 i1
li,j yj = bi , donc yi = (bi li,j yj )
j=1
li,i j=1
..
.
n
1
n1
ln,j yj = bn , donc yn = (bn ln,j yj ).
j=1
ln,n j=1

On calcule ainsi y1 , , yn .
2. tape 2 :
On calcule maintenant x solution de Lt x = y.

l1,1 l2,1 ln,1 x1 y1
.. .. .. ..
0 . . . .
Ly = . . .. .. .. = .. .
.. .. . . . .
0 0 ln,n xn yn

on a donc :
yn
ln,n xn = yn , donc xn =
ln,n

1
ln1,n1 xn1 + ln,n1 xn = yn1 , donc xn1 = (yn1 ln,n1 xn )
ln1,n1
..
.
n
1
n
ln,j xj = y1 , donc x1 = (y1 lj,1 xj ).
j=1
l1,1 j=2

On calcule ainsi x1 , , xn .

Calcul de la matrice L
On a A = LLt donc

n
n
ai,j = t
li,k lk,j = li,k lj,k (i, j) {1, , n}2
k=1 k=1

1. Calcul de la 1re colonne de L ; pour j = 1, on a :



a1,1 = l1,1 l1,1 donc l1,1 = a1,1 ( a1,1 > 0 car l1,1 existe),
a2,1
a2,1 = l2,1 l1,1 donc l2,1 = l1,1
ai,1
ai,1 = li,1 l1,1 donc li,1 = l1,1 i {2, , n}.
16 CHAPITRE 2. LES SYSTMES LINAIRES

2. Calcul du reste de la matrice :


v
u
u
j1
ljj = t ajj 2
ljk
k=1

j1
aij lik ljk
k=1
lij = .
ljj

2.3 Normes matricielles et conditionnement


2.3.1 Rappel sur le produit scalaire
Soit E un espace vectoriel sur IR. On appelle produit scalaire sur E toute forme bilinaire
symtrique, dnie positive c'est dire

: EE IR

telle que
1. x, y, z E, , IR, (x + y, z) = (x, z) + (y, z),
x, y, z E, , IR, (z, x + y) = (z, x) + (z, y),
2. x, y E, (x, y) = (y, x),
3. x E, (x, x) 0 et (x, x) = 0 x = 0.

2.3.2 Rappel sur les normes vectorielles


une norme vectorielle est une application

. : IRn IR+

telle que
1. x = 0 x = 0,
2. IR, x IRn , x = ||x,
3. x, y IRn , x + y x + y(ingalit triangulaire).
Exemples Pour 1 p < , on dnit la norme p par :


n
1
x IR 7 xp = (
n
|xi |p ) p
i=1

. On retrouve la norme euclidienne pour p = 2.

2.3.3 Normes matricielles


Une norme matricielle est une application, qui une matrice A associe un nombre rel
positif ou nul, telle que :
1. A = 0 A = 0,
2. IR, A IRn , A = ||A,
2.3. NORMES MATRICIELLES ET CONDITIONNEMENT 17

3. A, B IRn , A + B A + B(ingalit triangulaire),


4. A, B IRn , AB AB.
Une norme matricielle et une norme vectorielle sont dites compatibles si et seulement si :

A IRnn , x IRn , AxV AM xV .


A partir de toute norme vectorielle V , on peut dnir une norme matricielle M compatible,
dite la norme matricielle subordonne la norme vectorielle par
AxV
AM = sup .
xIRn \0 xV

Exemples de normes subordonnes aux normes vectorielles :



n
A1 = sup |aij |.
1jm
1


m
A = sup |aij |.
1in
1

Ax2
A2 = sup = (AT A).
x=0 x2

2.3.4 Conditionnement
On considre le systme Ax = b o A est inversible. Dans la pratique, b peut tre entach
d'erreurs (erreur de mesures, erreurs d'arrondi . . . ) et le systme rsoudre devient :

Ay = b + b avec y = x + x
x
Le but est de mesurer l'erreur relative commise sur x, i.e x
en fonction des donnes du
b
problme : b
.
A(x + x) = b + b
Ax + Ax = b + b or Ax = b
Ax = b
x = A1 b
x = A1 b A1 b
x b
A1
x x
Comme Ax = b, b Ax, on obtient :
x b b
AA1 = Cond(A)
x b b
avec conditionnement de A, not Cond(A), est la valeur AA1 qui donne une estimation
de l'amplication de l'erreur commise sur x par rapport l'erreur sur les donnes b.
Si Cond(A) est petit, on dit que la matrice est bien conditionne et l'erreur commise sur x est
du mme ordre de grandeur que celle commise sur les donnes b. Inversement, si Cond(A) est
grand, on dit que la matrice est mal conditionne et l'erreur commise sur x est plus grande que
l'erreur commise sur les donnes b.
18 CHAPITRE 2. LES SYSTMES LINAIRES

Remarques 2.3.1 1. Cond(A) = Cond(A1 ),


2. Cond(A) = Cond(A) IR ,
3. 1 = I = AA1 AA1 = Con(A),
4. La matrice identit est la matrice la mieux conditionne :

AA1 = I = 1.

2.4 Mthodes itratives


2.4.1 Dnitions et proprits
La rsolution de systmes linaires par les mthodes directes dpend en particulier de la ca-
pacit du calculateur. Au del d'un certain nombre d'quation un certain nombre d'inconnues,
les mthodes directes deviennent inappropries au processus en cours (dpassement de capacit
mmoire, temps de rsolution lev...). Nous avons alors recours aux mthodes itratives.

Dfinition 2.4.1 On appelle mthode itrative de rsolution du systme linaire (2.1) une
mthode qui construit une suite (xn )nIN o l'itr xn est calcul partir des itrs x0 , ..., xn1 .
Cette suite est cense converger vers x solution de (2.1).

L'intrt des mthodes itratives, compares aux mthodes directes, est d'tre simples program-
mer et de ncessiter moins de place mmoire. En revanche, le temps de calcul est souvent plus
long.

Dfinition 2.4.2 On dit qu'une mthode itrative est convergente si pour tout choix initial
x IR , on a :
0 n

lim xn = x .
n+

2.4.2 principe des mthodes itratives


Le principe des mthodes itratives pour la rsolution des systmes linaires est bas sur la
dcomposition de la matrice A, le systme peut s'crire sous une autre forme identique (M
N )x = b ou encore M x = N x + b. Donc partir d'un vecteur initiale x(0) , on gnre une suite
de la faon suivante :

x1 = M 1 N x0 + M 1 b

x2 = M 1 N x1 + M 1 b
..

.

xk+1 = M 1 N xk + M 1 b

Cette suite est reprsente par la relation itrative suivante :

xk+1 = T xk + V

o
T = M 1 N et V = M 1 b.
Nous ne pouvons pas savoir si le vecteur estim se dirige vers la solution x du systme si un
critre de convergence n'est pas dnie. Pour cela, le vecteur d'erreur est tablie par la relation :

ek = xk x
2.4. MTHODES ITRATIVES 19

donc
ek = T ek1
Autrement dit la converge existe si l'erreur tend vers 0 lorsqu'on se rapproche de la solution
optimale :
xk x si ek 0
Nous rcrirons la matrice sous la forme suivante :

A=DLU

o les trois matrices D, L et U sont dnies par :


D est une matrice diagonale :

a1,1 0 0
.. .. ..
0 . . 0 .
. . .
..
.. .. ai,i . .
.

. ... ...
.. 0 0
0 0 an,n

L est une matrice infrieure :



0 0 0
... ... ..
a2,1 0 .
. .. .. ..
.. . 0 . .

. .. ..
.. 0 . . 0
an,1 an,n1 0

U est une matrice suprieure :



0 a1,2 a1,n
.. .. ..
0 . . 0 .
.. . . .. ..
. . . .
0
.. .. ..
. 0 . . an1,n
0 0 0

De l, dcoulent deux grandes mthodes itratives de rsolution de systmes linaires, la mthode


de Jacobi et la mthode de Gauss-Seidel.

2.4.3 Mthode de Jacobi


Principe

La mthode de Jacobi crit le systme (2.1) sous la forme itrative suivante :

Dxk+1 = (L + U )xk + b

ou
xk+1 = D1 (L + U )xk + D1 b
20 CHAPITRE 2. LES SYSTMES LINAIRES

Autrement dit : Le systme de dpart s'crit :


a11 x1 + a12 x2 + a13 x3 + + a1n xn = b1
a21 x1 + a22 x2 + a23 x3 + + a12n xn = b2
.. .
. = ..
an1 x1 + an2 x2 + an3 x3 + + ann xn = bn
Comme dans toute mthode itrative, nous partons d'une approximation initiale de la solution
que nous noterons x0 et nous considrons ensuite l'algorithme :
( )
1 n
xk+1
1 = b1 a1j xkj
a11 j=2

( )
1
n
xk+1
2 = b2 a2j xkj
a22 j=1,j=2

( )
1
n
xk+1
3 = b3 a3j xkj
a33 j=1,j=3

.. ..
. .
( )
1
n1
xk+1
n = bn anj xkj
ann j=1

Il est inutile de rappeler que les pivots doivent tre non nuls, dans le cas contraire il sut
d'intervertir les lignes pour remplir la condition ncessaire.
Exemple 2.4.1 Soit le systme :
3x1 + x2 x3 = 2
x1 + 5x2 + 2x3 = 17
2x1 x2 6x3 = 18
La mthode de Jacobi s'crit dans ce cas :
1( )
xk+1
1 = 2 xk2 + xk3
3
1( )
xk+1
2 = 17 xk1 2xk3
5
1( )
xk+1
3 = 18 2xk1 + xk2
6

2.4.4 Mthode de Gauss-Seidel


Principe

La mthode de Gauss-Seidel est une variante amliore de la mthode de Jacobi. Pour com-
prendre le principe de cette mthode, il sut de reconsidrer la mthode de Jacobi et de voir
2.4. MTHODES ITRATIVES 21

comment on pourrait l'amliorer. La mthode de Jacobi s'crit :


( )
1 n
xk+1
i = bi aij xkj
aii j=1,j=i

qui peut aussi s'crire :


( )
1
i1
n
xk+1
i = bi aij xkj aij xkj
aii j=1 j=i+1

Il sut de constater que le calcul de xk+1 i ncessite l'utilisation de xk1 , , xki1 , , xkn , or au
moment du calcul de xk+1 i , on possde dj une meilleure approximation de x1 , , xi1 que
x1 , , xi1 savoir x1 , , xk+1
k k k+1
i1 , donc pour le calcul de xi
k+1
, on peut utiliser ces valeurs
qui viennent d'tre calcules. On crit alors :
( )
1
i1 n
xk+1
i = bi aij xk+1
j aij xkj
aii j=1 j=i+1

qui peut s'crire matriciellement sous la forme itrative suivante :

(D L)xk+1 = U xk + b

ou
xk+1 = (D L)1 U xk + (D L)1 b
L encore, on rappelle que les pivots doivent tre non nuls, dans le cas contraire il sut d'inter-
vertir les lignes pour remplir la condition ncessaire.
Exemple 2.4.2 Soit le systme :
3x1 + x2 x3 = 2
x1 + 5x2 + 2x3 = 17
2x1 x2 6x3 = 18
La mthode de Gauss-Seidel s'crit dans ce cas :
1( )
xk+1
1 = 2 xk2 + xk3
3
1( )
xk+1
2 = 17 xk+1
1 2xk3
5
1( )
xk+1
3 = 18 2xk+1
1 + xk+1
2
6

2.4.5 Etude de la convergence


Rappels sur les valeurs propres

Dfinition 2.4.3 Si T est une matrice de Mn , on dnit le polynme caractristique de T


par :
p() = dt(T I)
o I est la matrice identit.
22 CHAPITRE 2. LES SYSTMES LINAIRES

Dfinition 2.4.4 Les racines du polynme caractristique de T sont appeles valeurs propres
de T .

Remarque 2.4.1 Si est une valeur propre, la matrice T I est singulire (puisque son
dterminant est nul) et le systme
(T I)x = 0
possde des solutions non nulles.

Dfinition 2.4.5 Une solution non nulle du systme (T I)x = 0 est appele vecteur propre
de T associ la valeur propre .

Dfinition 2.4.6 Le rayon spectral d'une matrice T est dni par :

(T ) = max |i |
1in

o |i | est le module de la valeur propre i de T .

Dfinition 2.4.7 Une matrice T est dite convergente si :

lim T n = 0
n

Thoreme 2.4.1 Les quatres assertions suivantes sont quivalentes :


1. La matrice T est convergente.
2. Pour toute norme matricielle :
lim T n = 0
n

3. Pour toute vecteur x :


lim T n x = 0
n

4. Le rayon spectral de T est strictement infrieur 1 ((T ) < 1)

Etude de la convergence

Etant donne la mthode itrative de dpart :

xk+1 = T xk + V.

En dnissant l'erreur au pas k comme

ek = x xk

on obtient la relation de rcurrence


ek = T ek1
et donc
ek = T k e0 , k = 0, 1,
Notre mthode itrative sera alors convergente lorsque l'erreur ek tend vers 0, ce qui revient
montrer que la matrice T est convergente ou encore que (T ) < 1 (voir thorme prcdent).
2.4. MTHODES ITRATIVES 23

Dfinition 2.4.8 Une matrice A est dite diagonale strictement dominante si



n
|aii | > |aij |, i
j=1,j=i

Thoreme 2.4.2 Si la matrice A est diagonale strictement dominante, alors les mthodes
de Jacobi et de Gauss Seidel convergent.

Preuve
Pour la mthode de Jacobi, Soit x la solution du systme, on a
1
xni xi = aik (xkn1 xk )
aii k=i

donc
1
max |xni xi | |aik | max |xn1 xk |
i |aii | k=i k
k

On pose
1
k= |aik |
|aii | k=i

Donc
xn x kxn1 x
alors
xn x k n x0 x
or d'aprs le thorme, k < 1 donc la mthode de Jacobi converge.

Condition d'arrt

Ils existent plusieurs conditions pour arrter l'itration. Elles sont toutes bases sur le vecteur
d'erreur qui doit atteindre un critre prdni et tendant vers une valeur proche de zro. On
note r un vecteur rsidu tel que :
rk = b Axk
de sorte que le critre d'arrt soit :

rk
, avec choisi petit.
b

Une autre technique consiste utiliser un autre test d'arrt bas sur :

xk+1 xk
.
xk

Mais lorsque la solution exacte est voisine de 0, on se contante alors du critre d'arrt suivant :

xk+1 xk .
24 CHAPITRE 2. LES SYSTMES LINAIRES
Chapitre 3
Les quations non linaires

Nous nous restreignons, par souci de simplicit, la recherche de racines relles, zro de
fonctions relles continues.
L'existence et une premire localisation des solutions utilisent le thorme des valeurs interm-
diaires.
Thoreme 3.0.3 (thorme des valeurs intermdiaires) Si f est une fonction continue
sur [a, b], et si f (a)f (b) 0, alos il existe au moins un point c [a, b] tel que f (c) = 0.
Si de plus f est strictement monotone sur [a,b], la racine est unique dans [a, b].

3.1 Mthode de Dichotomie


La mthode de dichotomie est un procd systmatique de ranement de la location d'une
racine. Le mot dichotomie (dicho=deux, tomie=coupe) exprime clairement le principe de la
mthode.
S'il existe a et b dans IR tels que f (a)f (b) < 0, on sait alors qu'il existe au moins un zro de
f dans l'intervalle [a, b], On calcule alors f ( a+b
2
) et on dtermine le nouvel intervalle contenant
la racine soit [a, a+b
2
] soit [ a+b
2
, b] en regardant le signe des produits f ( a+b
2
)f (a) et f ( a+b
2
)f (b)
et on dtermine le nouvel intervalle contenant la racine. On recommence alors le processus sur
l'intervalle deux fois plus petit et ainsi de suite. on a alors l'algorithme de dichotomie qui s'crit :

a+b
1. On pose x(0) = ,
2
2. si f (x(0) ) = 0 alors x(0) est le zro cherch.
3. si f (x(0) ) = 0:
(a) soit f (x(0) )f (a) > 0 et alors le zro [x(0) , b] et on pose a = x(0) et
a+b
x(1) = pour ce nouveau a.
2
(b) soit f (x(0) )f (a) < 0 et alors le zro [a, x(0) ] et on pose b = x(0) et
a+b
x(1) = pour ce nouveau b.
2
Par des divisions de ce type, on construit la suite x(0) , x(1) , , x(m) qui vrie pour tout
m:
ba
|x(m) | m+1 .
2
Donc la mthode de dichotomie garantit la convergence vers un zro lorsque la fonction est
continue. Sa progression dans la recherche est lente mais sure.

25
26 CHAPITRE 3. LES QUATIONS NON LINAIRES

3.2 Mthodes de point xe


Mis part quelques cas simples comme les quations du second degr, il est parfois impossible
d'exprimer directement les solutions de f (x) = 0. Le principe de la mthode des points xes
dite galement mthode des approximations successives est de remplacer l'quation f (x) = 0 par
une quation quivalente x = g(x) et on construit la suite rcurrente dnie par
{
x0 donne dans [a, b] : initialisation
xn+1 = g(xn )

avec l'espoir que la suite (xn ) converge vers la solution du problme. Cette mthode est dite
itrative (par opposition aux mthodes dites directes). Son interprtation gomtrique est de
chercher l tel que f (l) = 0 revient chercher l'intersection du graphe de f avec l'axe des
abscisses. Chercher l tel que g(l) = l revient chercher l'intersection du graphe de g avec la
droite y = x c'est--dire trouver le point xe de g , d'o le nom de la mthode.
Exemples :
f (x)
On peut remplacer l'quation f (x) = 0 par l'quation x = xf (x) = g(x) ou par x = x =

g(x), = 0.
Questions :
1. La suite (xn ) converge-t-elle ?
2. Si oui, converge-t-elle vers l solution du problme ?
3. Question d'analyse numrique : s'il y a convergence vers l, quelle vitesse converge-ton ?
Peut-on estimer l'erreur commise sur l'approximation de l ?
Donc tudions de plus prs cette mthode itratives. On suppose que g est une fonction continue,
que l [a, b] et que l = g(l) f (l) = 0.

Dfinition 3.2.1 (application contractante) On dit qu'une application dnie de [a, b]


dans [a, b] est contractante, ou que c'est une contraction, s'il existe un nombre rel 0 L < 1
tel que, pour tout couple de points (x, y) de [a, b] , on ait :

|g(x) g(y)| L|x y|

k est le facteur de contraction.


Dans le cas o g est drivable, la condition de contraction se ramne la condition suivante
sur la drive :
|g (x)| L < 1 x [a, b]

Remarque 3.2.1 Les notions de contraction et le thorme de convergence des itrations as-
socis peuvent s'crire et se dmontrer dans le cadre gnral des espaces vectoriels norms.
Cette possibilit de gnralisation trs large est un des principaux interts des mthodes de point
xe.

Thoreme 3.2.1 (Condition susante de convergence) Si


1. g est contractante
2. x [a, b] g(x) [a, b]
Alors quel que soit x0 [a, b], la suite (xn ) converge vers l'unique solution de l'quation l = g(l)
dans [a, b].
3.2. MTHODES DE POINT FIXE 27

preuve
Si x0 [a, b], alors par l'hypothse (2), x1 = g(x0 ) [a, b], x2 = g(x1 ) [a, b], ...
Donc xn [a, b] et si la suite converge, elle converge vers l = lim xn [a, b] solution de l = g(l).
Si la suite (xn ) converge, alors l est unique. En eet, soient l1 et l2 , limites de (xn )

|l1 l2 | = |g(l1 ) g(l2 )| L|l1 l2 |

or L < 1 , donc
|l1 l2 |(1 L) 0,
soit l1 = l2 .

Montrons que la suite converge :

|xn+1 xn | = |g(xn ) g(xn1 )|


L|xn xn1 |
L2 |xn1 xn2 |
...
Ln |x1 x0 |
Donc en particulier :

|xn+p xn | = |xn+p xn+p1 + xn+p1 xn+p2 + ... + xn+1 xn |


|xn+p xn+p1 | + |xn+p1 xn+p2 | + ... + |xn+1 xn |
(Ln+p1 + Ln+p2 + ... + Ln )|x1 x0 |
1 Lp
Ln
1L
or 0 < 1 Lp 1 donc
Ln
|xn+p xn |
|x1 x0 |
1L
Comme 0 L < 1, lim Ln = 0 et lim|xn+p xn | = 0 . La suite (xn ) vrie le critre de Cauchy
donc converge.

Remarques 3.2.1 1. Contractante implique continue.


2. Dans la pratique, il faut d'abord dterminer l'intervalle sur lequel la fonction g est contrac-
tante (si elle l'est !) puis ventuellement le rduire pour que g([a, b]) [a, b].
3. Faisons tendre p vers l'inni dans l'ingalit de la preuve prcdente :
Ln
|xn+p xn | |x1 x0 |,
1L
n n
on obtient que |l xn | 1L
L
|x1 x0 |, et que 1L
L
est une estimation de l'erreur entre la
solution l et le n-ime itr de la suite xn . Donc plus L est proche de 0, plus l est proche
de xn .
4. Lorsque g est drivable sur [a, b]. Si g vrie max[a,b] |g (x)| = L < 1, alors g est contrac-
tante.
28 CHAPITRE 3. LES QUATIONS NON LINAIRES

Dfinition 3.2.2 Une mthode de point xe est d'ordre p si et seulement si

|xn+1 l|
l avec 0 l < +
|xn l|p

si p = 1 on dit que la convergence est linaire, si p = 2, on dit que la convergence est quadratique.

Cas particulier : |g (s)| = 0.


Supposons de plus que g C 2 et que |g | M sur [a, b]. Avec la formule de Taylor, on aura

(x s)2
g(x) = g(s) + (x s)g (s) + g (c)
2!
1
= s + (x s)2 g (c), c ]s, x[
2
d'o
1
|g(x) s| M |x s|2
2
et pour x = xn , on aura
1
|xn+1 s| M |xn s|2
2
La convergence est alors dans ce cas quadratique. Le point xe s est appel dans ce cas point
xe superattractif.
|g (s)| > 1.
Il existe alors un voisinage ]s h, s + h[ tel que

x ]s h, s + h[\s, |g(x) s| > |x s|.

On a alors divergence, on dit dans ce cas que s est un point xe rpulsif.
|g (s)| = 1.
On a ici un cas douteux et on ne peut pas conclure si la mthode est convergente ou pas.

3.3 Mthode de Newton


La mthode de Newton, appele aussi mthode de Newton-Raphson en dimension > 1, est
l'une des mthodes les plus utilises pour la rsolution des quations non linaires. Cette m-
thode possde galement une belle interpretation gomtrique. Nous commenons par donner une
premre faon d'en obtenir l'algorithme, base sur l'utilisation du dveloppement de Taylor. Cette
approche est galement valable pour les systmes d'quations non linaires.
Soit une quation rsoudre de la forme :

f (x) = 0

A partir d'une valeur initiale x0 de la solution, on cherche une correction x telle que :

f (x0 + x) = 0

En faisant un dveloppement de Taylor autour de x0 , on trouve

f (x0 )(x)2
f (x0 + x) = 0 = f (x0 ) + f (x0 )x + +
2!
3.3. MTHODE DE NEWTON 29

il sut maintenant de ngliger les termes d'ordre suprieur ou gal 2 en x pour obtenir

0 f (x0 ) + f (x0 )x

On peut alors isoler la correction recherche :


f (x0 )
x =
f (x0 )
La correction x est en principe la quantit que l'on doit ajouter x0 pour annuler f (x). Puisque
nous avons nglig les termes d'ordre suprieur ou gal 2 dans le dveloppement de Tylor,
cette correction n'est pas parfaite et on pose

x1 = x0 + x

On recommence le processus en cherchant corriger x1 d'une nouvelle quantit x. On a alors


l'algorithme suivant :
1. Etant donn un critre d'arrt,
2. Etant donn N , le nombre maximal d'itrations,
3. Etant donn x0 , une valeur initiale de la solution.
f (xn )
4. Effectuer:xn+1 = xn n
f (x )
|xn+1 xn |
5. Si < :
|xn+1 |
- convergence atteinte

- crire la solution x
n+1

- arrt.

6. Si le nombre maximal d'itrations N est atteint:


- convergence non atteinte en N itrations

- arrt

7. retour l'tape 4.

Remarque 3.3.1 L'algorithme de la mthode de Newton est un cas particulier de celui de la


mthode des points xes o :
f (x)
g(x) = x
f (x)

3.3.1 Etude de la convergence


La mthode de Newton est un cas particulier de celui de la mthode des points xes o :
f (x)
g(x) = x
f (x)
il n'est donc pas ncessaire de reprendre l'analyse de convergence zro. En eet on sait que
la convergence dpend de g (s) et on a dans ce cas prcis :
(f (x))2 f (x)f (x) f (x)f (x)
g (x) = 1 =
(f (x))2 (f (x))2
puisque f (s) = 0 alors g (s) = 0 donc une convergence au moins quadratique.
30 CHAPITRE 3. LES QUATIONS NON LINAIRES

3.4 Mthode de la scante


Dans certaines situations, la drive de f est trs complique ou mme impossible explici-
ter. On ne peut alors utiliser la mthode de la scante. Lide est de remplacer f par le taux
d'accroissement de f sur un petit intervalle :
xn xn1
xn+1 = xn f (xn ) , n 0.
f (xn ) f (xn1 )
On notera que l'algorithme itratif ne peut dmarrer que si on dispose dj de deux valeurs
approches x0 et x1 , d'o l'algorithme de cette mthode est le suivant :
1. Etant donn un critre d'arrt,
2. Etant donn N , le nombre maximal d'itrations,
3. Etant donn x0 et x1 , deux valeurs initiales de la solution.
f (xn )(xn xn1 )
4. Effectuer:xn+1 = xn
f (xn ) f (xn1 )
|xn+1 xn |
5. Si < :
|xn+1 |
- convergence atteinte

- crire la solution x
n+1

- arrt.

6. Si le nombre maximal d'itrations N est atteint:


- convergence non atteinte en N itrations

- arrt

7. retour l'tape 4.

3.5 Mthode de la corde


Cette mthode consiste remplacer f (x) dans la mthode de Newton par une valeur xe
:
f (xn )
xn+1 = xn f (xn ) , n 0.

f (b) f (a)
On peut prendre par exemple = f (x0 ) ou encore dans le cas o on cherche le
ba
zro dans [a, b].
1. Contractante implique continue.
2. Dans la pratique, il faut d'abord dterminer l'intervalle sur lequel la fonction g est contractante
(si elle l'est !) puis ventuellement le rduire pour que g([a, b]) [a, b].
3. Faisons tendre p vers l'inni dans l'ingalit de la preuve prcdente :
Ln
|xn+p xn | |x1 x0 |,
1L
n n
on obtient que |l xn | 1L
L
|x1 x0 |, et que 1L
L
est une estimation de l'erreur entre la solution
l et le n-ime itr de la suite xn . Donc plus L est proche de 0, plus l est proche de xn .
4. Lorsque g est drivable sur [a, b]. Si g vrie max[a,b] |g (x)| = L < 1, alors g est contractante.
Chapitre 4
Les systmes non linaires

Les phnomnes non linaires sont extrmement courants en pratique. Ils sont sans doute
plus frquents que les phnomnes linaires. Dans ce chapitre, nous examinons les systmes
non linaires et nous montrons comment les rsoudre l'aide d'une suite de problmes linaires,
auxquels on peut appliquer diverses techniques de rsolution comme la dcomposition LU .
Le problme consiste trouver le ou les vecteurs x = (x1 , x2 , , xn )T vriant les n quations
non linaires suivantes :
f1 (x1 , x2 , , xn ) = 0
f2 (x1 , x2 , , xn ) = 0
f3 (x1 , x2 , , xn ) = 0
.. ..
. .
fn (x1 , x2 , , xn ) = 0
o les fi sont des fonctions de n variables que nous supposons direntiables. Contrairement
aux systmes linaires, il n'y a pas de condition simple associe aux systmes non linaires qui
permette d'assuurer l'existence et l'unicit de la solution. Le plus souvent, il existe plusieurs
solutions possibles et seul le contexte indique laquelle est la bonne.
Les mthodes de rsolution des systmes non linaires sont nombreuses. Notamment, presque
toutes les mthodes des quations non linaires peuvent se gnraliser aux systmes non li-
naires. Pour viter de surcharger ce chapitre, nous ne prsentons que les mthodes les plus
importantes et les plus utilises en pratique, savoir la mthode des point xes et celle de
Newton.

4.1 Mthode des points xes


Il est facile de ramener notre problme initial un problme de point xe :

g (

x)=
x
ou encore
g1 (x1 , x2 , , xn ) = x1
g2 (x1 , x2 , , xn ) = x2
g3 (x1 , x2 , , xn ) = x3
.. ..
. .
gn (x1 , x2 , , xn ) = xn
L'algorithme de base des mthodes des points xes en dimension n reste le mme :

0
x donn

i+1


x = g ( xi )

31
32 CHAPITRE 4. LES SYSTMES NON LINAIRES

Bien que prsentant des similitudes avec le cas unidimentionel, l'analyse de convergence des
mthodes de point xe en dimension n est cependant beaucoup plus dlicate. Nous prfrons
donc procder par analogie avec le cas unidimentionnel. Nous avons vu que la convergence vers
une racine s de l'algorithme des points xes est assujettie la condition :

|g (s)| < 1

Le rle de cette drive en dimension n est jou par la matrice Jacobienne :



g1 g1 g1

x1 s x2 s s
xn


g2 g2 g2

s s s

x x xn
J( s ) =
1 2

.. .. ..
. . .

gn gn gn

s
x1 s x2 s xn

et la norme de J(

s ) est infrieure 1 est quivalente la condition

(J(

s )) < 1

4.2 Mthode de Newton


L'application de cette mthode un systme de deux quations est susante pour illustrer
le cas gnral.
Considrons donc le systme :
f1 (x1 , x2 ) = 0

f2 (x1 , x2 ) = 0.

Soit (x01 , x02 ) une approximation initiale de la solution de ce systme. Cette approximation ini-
tiale est cruciale et doit toujours tre choisie avec soin. Le but de ce qui suit est de dterminer
une correction x1 , x2 ) (x01 , x02 ) de telle sorte que :

f1 (x01 + x1 , x02 + x2 ) = 0

f2 (x01 + x1 , x02 + x2 ) = 0.

Pour dterminer (x1 , x2 ), il sut maintenant de faire un dveloppement de Taylor en deux


variables pour chacune des deux fonctions :

f1 0 0 f1 0 0
0 = f1 (x01 , x02 ) + (x1 , x2 )x1 + (x , x )x2 +
x1 x2 1 2

f2 0 0 f2 0 0
0 = f2 (x01 , x02 ) + (x1 , x2 )x1 + (x , x )x2 +
x1 x2 1 2
4.2. MTHODE DE NEWTON 33

Pour dterminer (x1 , x2 ), il sut de ngliger les termes d'ordre suprieur et d'crire :

f1 0 0 f1 0 0
(x1 , x2 )x1 + (x , x )x2 = f1 (x01 , x02 )
x1 x2 1 2

f2 0 0 f2 0 0
(x1 , x2 )x1 + (x , x )x2 = f2 (x01 , x02 )
x1 x2 1 2
ou encore sous forme matricielle :

f1 0 0 f1 0 0
(x , x ) (x , x ) x1 f2 (x01 , x02 )
x1 1 2 x2 1 2
=

f f2 0 0
2
(x01 , x02 ) (x , x ) x2 f2 (x01 , x02 )
x1 x2 1 2
Ce systme linaire s'crit galement sous une forme plus compacte :



J(x01 , x02 )x = F (x01 , x02 )

o J(x01 , x02 ) dsigne la matrice des drives partielles ou matrice Jacobienne value au point


(x01 , x02 ), x est le vecteur des corrections relatives chaque variable.
Le dterminant de la matrice jacobienne est appel le jacobien. Le jacobien doit tre dirent de
0 pour que la matrice jacobienne soit inversible. On pose ensuite

x11 = x01 + x1

x12 = x02 + x2

qui est la nouvelle approximation de la solution du systme non linaire. On cherchera par la


suite corriger (x11 , x12 ) d'une nouvelle quantit x, et ce jusqu' la convergence.
De manire plus gnrale, on pose :

f1 f1 f1

x1 x x2 x xn x



f2 f2 f2

x x x
x1 x2 xn
J(
x)=


. . .
.. .. ..

fn fn fn

x x x
x1 x2 xn

De plus, on pose :
x1 f1 ( x)



x2


f2 ( x )

x = .. et F (

x)= ..
. .
xn f (
n
x)
pour en arriver l'algorithme gnral suivant :
1. Etant donn un test d'arrt
34 CHAPITRE 4. LES SYSTMES NON LINAIRES

2. Etant donn N , le nombre maximal d'itrations




3. Etant donn x0 = (x11 , x02 , , x0n )T , une approximation initiale de la solution du systme
4. Rsoudre le systme Linaire :



J( xi )x = F ( xi )

et poser :

xi+1 = xi + x


x

5. Si < et F ( xi )
xi+1
 convergence atteinte

 crire la solution xi+1
 arrt
6. Si le nombre maximal d'itrations N est atteint :
 convergence non atteinte en N itrations
 arrt
7. Retour l'tape 4.
Chapitre 5
Interpolation polynomiale

Il existe de trs nombreux cas, o on ne connait une fonction que par ses valeurs en un
certain nombre de points. Par exemple, lorsqu'on eectue une srie de mesures, on obtient les
valeurs de la grandeur mesure yi en fonction du paramtre exprimental xi que l'on fait varier.
On n'a en rgle gnrale pas accs la fonction f qui relie ce paramtre la valeur mesure,
mais il peut tre intressant de pouvoir prdire une valeur approche de f (x) pour des valeurs
de x que l'on n'a pas mesur. On cherche alors approcher la fonction f par des polynmes,
c'est ce que l'on appelle l'interpolation polynomiale .
Le dveloppement de Taylor au voisinage d'un point x0 l'ordre n d'une fonction f est une
interpolation polynomiale locale de f :

f (x) = pn (x) + o((x x0 )n )

o pn est le polynme de degr n donn par :

(x x0 )n (n)
f (x) = f (x0 ) + (x x0 )f (x0 ) + + f (x0 ).
n!
Cette approximation polynomiale de f n'a de sens que si f est drivable l'ordre n + 1. Nous
n'tudierons pas cette approximation polynomiale suppose connue.
Un autre type de dveloppement polynomial est donn losqu'on cherche approximer (interpo-
ler) une fonction f : IR IR dont on connat les n + 1 valeurs yi = f (xi ) en n + 1 points xi
distincts par un polynme pn (d'interpolation) de degr n qui passe par ces points, i.e. tel que
pn (xi ) = yi , 0 i n.

Dfinition 5.0.1 Les points xi en lesquels le polynme pn d'interpolation vrie pn (xi ) = f (xi )
sont appels points de collocation. Le polynme obtenu est appel polynme d'interpolation.

Les polynme pn cherchs peuvent tre dcomposs sur la base (1, x, x1 , . . . , xn ) i.e. mis sous la
forme
pn (x) = a0 + a1 x + + an xn
et les inconnues sont alors les n + 1 composantes ai qui sont solutions du systme form des
n + 1 quations p(xi ) = f (xi ). Ici on prfrera dvelopper des polynmes de degr n sur la base :
x xj
1. donne par Lagrange : Li (x) = j=i ,1 i n
xi xj
2. donne par Newton : (1, (x x0 ), (x x0 )(x x1 ), , (x x0 ) (x xn ))

35
36 CHAPITRE 5. INTERPOLATION POLYNOMIALE

5.1 Rappels sur les racines d'un polynme


On se donne n + 1 rels x0 , , xn distincts et n + 1 valeurs y0 , , yn qui correspondront
yi = f (xi ) pour une fonction f donne.
On note Pn l'ensemble des polynmes de degr au plus n.
Dfinition 5.1.1 On dit que x0 est racine d'un polynme p si et ssi
p(x0 ) = 0.
x0 est racine simple si et ssi
p(x0 ) = 0 et p (x0 ) = 0.
x0 est racine multiple d'ordre m si et ssi
p(x0 ) = 0, p (x0 ) = 0, , p(m1) (x0 ) = 0 et p(m) (x0 ) = 0.
Proposition 5.1.1 Soit p un polynme de degr n.
1. Si x0 est une racine de p, alors il existe un polynme q de degr n 1 tel que p(x) = (x x0 )q(x).

2. Si p a n racines simples (xi )1in , il est de la forme C ni=0 (x xi ) o C est une constante.
3. Si x0 est racine multiple d'ordre m, alors il existe un polynme q de degr n m tel que p(x) =
(x x0 )m q(x).
4. Un polynme p de degr n qui a n + 1 racines est le polynme nul.
5. Il existe un unique polynme p de degr n qui en n + 1 points distincts xi prend n + 1 valeurs
yi = p(xi ).

5.2 Polynmes de Lagrange


On se donne n+1 points de collocation (xi )1in distincts et n+1 rels (yi )1in . On cherche
un polynme p de degr n tel que p(xi ) = yi pour tout i.
l'ide est d'avoir une base (L0 , , Ln ) de Pn telle que pour tout 0 i, j n :
{
1 si i = j
Li (xj ) = ij =
0 si i = j
Les Li polynmes cherchs ont pour racine les n points xj pour j = i, ils sont donc de la forme

Li (x) = C (x xj )
j=i

de plus, Li (xi ) = 1 donc


1
C=
(xi xj )
j=i

Donc de manre gnrale,


(x xj )
Li (x) = .
j=i
(xi xj )
Finalement le polynme d'interpolation cherc s'crit :

n
pn (x) = yi Li (x).
i=0
5.3. POLYNMES DE NEWTON 37

Exemple 5.2.1 On cherche, en utilisant les polynmes de Lagrange, le polynme de degr 3 qui
interpole la fonction f aux points (0, 1), (1, 2), (2, 9) et (3, 28).
On a
(x xj )
Li (x) = pour i = 0, , 3
j=i
(xi xj )

donc
(x 1)(x 2)(x 3) (x 1)(x 2)(x 3)
L0 (x) = =
(0 1)(0 2)(0 3) 6

(x 0)(x 2)(x 3) (x 0)(x 2)(x 3)


L1 (x) = =
(1 0)(1 2)(1 3) 2

(x 1)(x 2)(x 3) (x 1)(x 2)(x 3)


L2 (x) = =
(2 0)(2 1)(2 3) 2

(x 0)(x 1)(x 2) (x 0)(x 1)(x 2)


L3 (x) = =
(3 0)(3 1)(3 2) 6
D'o le polynme d'interpolation est

(x 1)(x 2)(x 3) (x 0)(x 2)(x 3)


p3 (x) = 1 +2
6 2

(x 0)(x 1)(x 3) (x 0)(x 1)(x 2)


+9 + 28
2 6

= x3 + 1

5.3 polynmes de Newton


L'interpolation de Lagrange prsente un problme majeur : elle n'est pas rcursive. En eet,
supposons qu'on a cherch un polynme d'interpolation de degr n, si on dispose d'un point
supplmentaire (xn+1 , yn+1 ) en plus des n+1 points prcdents (xi , yi ), i = 0, , n, le polynme
d'interpolation pn+1 obtenu ne peut pas se dduire du polynme pn . Il faut recommencer par
donner tous les polynmes Li , i = 0, , n + 1.
L'ide des polynmes de Newton est d'crire les polynmes de manire dirente : on commence
par un polynme constant p0 (de degr 0)

p0 (x) = a0

ce qui revient se donner un point x0 et la valeur y0 = a0 , on ajoute un point (x1 , y1 ) pour


obtenir un polynme de degr 1 sous la forme

p1 (x) = p0 (x) + a1 (x x0 ) = a0 + a1 (x x0 )

vriant p1 (x0 ) = a0 et p1 (x1 ) = y1 . On a ainsi ajouter le polynme a1 (x x0 ) de degr 1 qui


s'annule en x0 , la valeur de x0 est donc inchange.
Comme ce polynme doit vrier p1 (x1 ) = y1 , on aura
y1 y0
a1 = .
x1 x0
38 CHAPITRE 5. INTERPOLATION POLYNOMIALE

Puis on poursuit le processus : on ajoute un point (x2 , y2 ) pour obtenir :

p2 (x) = p1 (x) + a2 (x x0 )(x x1 ) = a0 + a1 (x x0 ) + a2 (x x0 )(x x1 ),

o on a ajout p1 un polynme de degr 2 qui s'annule en x0 et x1 : la valeur en x0 et x1 est


donc inchange. Comme on doit avoir p2 (x2 ) = y2 , il vient

y1 y0
y2 = y0 + (x1 x0 ) + a2 (x2 x0 )(x2 x1 )
x1 x0
soit
( )
(y2 y0 )(x1 x0 ) (y1 y0 )(x2 x0 ) 1 (y2 y1 ) (y1 y0 )
a2 = = .
(x1 x0 )(x2 x1 )(x2 x0 ) (x2 x0 ) (x2 x1 ) (x1 x0 )

On poursuit le processus : disposant des points (xi , yi ) pour i = 0, , k 1, on ajoute un point


(xk , yk ) et le polynme obtenu s'crit :

pk (x) = pk1 (x) + ak (x x0 )(x x1 ) (x xk1 ),

et donc pk pk1 est le polynme de degr k qui s'annule aux k points x0 , , xk1 et qui vaut
yk au point xk , ce qui dtermine ak .

Dfinition 5.3.1 Pour une fonction f dnie en deux points a et b distincts, on appelle pre-
mire drence divise de f la valeur :

f (b) f (a)
f [a, b] =
ba

(pente moyenne entre a et b.) Si f est dnie en 3 points distincts x0 , x1 et x2 , on appelle


deuxime dirence divise de f la valeur :

f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] =
x2 x0

Et de manire gnrale, on dnit la nime dirence divise en n + 1 points distincts par :

f [x1 , , xn ] f [x0 , , xn1 ]


f [x0 , xn ] =
xn x0

A partir de cette dnition, le polynme de Newton de degr 1 sera not

p1 (x) = f (x0 ) + f [x0 , x1 ](x x0 )

et le polynme de Newton p2 sera not

p2 (x) = f (x0 ) + f [x0 , x1 ](x x0 ) + f [x0 , x1 , x2 ](x x0 )(x x1 )

Proposition 5.3.1 tant donns n + 1 points (xi , f (xi )), i = 0, , n l'unique polynme de
degr n qui passe par ces points est donn par :

pn (x) = f (x0 ) + f [x0 , x1 ](x x0 ) + + f [x0 , , xn ](x x0 ) (x xn1 )


5.3. POLYNMES DE NEWTON 39

1
Preuve Dmonstration par rcurrence. L'hypothse est vraie pour p1 .
Etant donns n points, (xi , yi = f (xi )), i = 0, , n 1, Supposons que l'hypothse soit vraie
pour le polynme pn1 de Newton, Alors :

pn1 (x) = f (x0 ) + f [x0 , x1 ](x x0 ) + f [x0 , , xn1 ](x x0 ) (x xn2 )

On a alors aussi, pour les points (xi , f (xi )), i = 1, , n, le polynme qn1 de Newton donn
par :
qn1 (x) = f (x1 ) + f [x1 , x2 ](x x1 ) + f [x1 , , xn ](x x1 ) (x xn1 )

De plus,
pn1 (xi ) = qn1 (xi ) = yi = f (xi )

D'o, en posant :
(xn x)pn1 (x) + (x x0 )qn1 (x)
pn (x) =
(xn x0 )
on aura
pn (xi ) = f (xi ) pour tout i = 0, , n 1.

Donc pn est le polynme cherch. Il reste montrer que

pn (x) pn1 (x) = f [x0 , , xn ](x x0 ) (x xn1 )

Mais posons
(x x0 )
s( x) = pn (x) pn1 (x) = (qn1 (x) pn1 (x)),
(xn x0 )
le polynme sn de degr n s'annule en les n points xi , 0 i n 1, donc sn est de la forme
sn (x) = (x x0 ) (x xn1 ) pour un scalaire donn. Et il reste montrer que =
f [x0 , , xn ]Mais, partir de l'expression de pn , le coecient de xn est donn par :

f [x0 , , xn1 ] + f [x1 , , xn ]


donc = f [x0 , , xn ].
(xn x0 )

Il reste maintenant calculer ecacement la valeur de ce polynme. La manire la plus simple


consiste construire une table dite table de dirences divises de la faon suivante :

xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ]
x0 f (x0 )
f [x0 , x1 ]
x1 f (x1 ) f [x0 , x1 , x2 ]
f [x1 , x2 ] f [x0 , x1 , x2 , x3 ]
x2 f (x2 ) f [x1 , x2 , x3 ]
f [x2 , x3 ]
x3 f (x3 )

La construction de cette table est simple, nous nous sommes arrts aux troisimes dirences
divises, mais les autres s'obtiendraient de la mme faon.
40 CHAPITRE 5. INTERPOLATION POLYNOMIALE

Exemple 5.3.1 La table des dirences divises pour les points (0, 1), (1, 2), (2, 9) et (3, 28)
est :
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ]
0 1
1
1 2 3
7 1
2 9 6
19
3 28
D'o le polynme d'interpolation est

p3 (x) = 1 + 1(x 0) + 3(x 0)(x 1) + 1(x 0)(x 1)(x 2) = x3 + 1

Si on rajoute un quatrime point d'interpolation (5, 54) pour obtenir un polynme de degr 4, il
sut de compter la table des dirences divises dj utilise :

xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 , xi+4 ]
0 1
1
1 2 3
7 1
2 9 6 -3/5
19 -2
3 28 -2
13
5 54

et alors le polynme d'interpolation de degr 4 est

p4 (x) = p3 (x) + (3/5)(x 0)(x 1)(x 2)(x 3).

5.4 Erreur d'interpolation


5.4.1 Etude de l'erreur d'interpolation
L'interpolation permet, partir d'un certain nombre de donnes sur les valeurs d'une fonc-
tion, de faire l'approximation de f (x) en tout point x. Toute fois, cette opration entraine une
erreur d'interpolation qu'il convient d'tudier en dtail.
On peut exprimer l'erreur d'interpolation de la faon suivante :

f (x) = pn (x) + En (x)

ou encore
En (x) = f (x) pn (x).
On constate immdiatement que

En (xi ) = 0, i = 0, 1, , n

et donc que l'erreur d'interpolation est nulle aux points de collocations puisque le polynme passe
exactement par ces points.
5.4. ERREUR D'INTERPOLATION 41

Remarque 5.4.1 On suppose que les donnes des points (xi , f (xi )) sont exactes, ce qui n'est
pas toujours le cas. En eet, si ces donnes proviennent de mesures exprimentales, elles peuvent
tre entaches d'une erreur de mesure. Nous supposons, dans la suite, que cette erreur est nulle.

Thoreme 5.4.1 (Expression analytique de l'erreur d'interpolation) Soit x0 < x1 <


< xn , des points de collocation. On suppose que la fonction f est dnie dans un in-
tervalle [a, b] et qu'elle est n + 1 fois drivable sur cet intervalle. Alors pour tout x dans
[min(xi ), max(xi )], il existe (x) dans [min(xi ), max(xi )] tel que

f (n+1) ((x))
En (x) = (x x0 ) (x xn ).
(n + 1)!

Preuve
Soit le polynme d'interpolation de degr n passant par x0 , , xn .
1. Pour tout x [a, b], Si x = xi pour un indice 0 i n la formule est vrie car f (xi ) = pn (xi ).
2. Fixons maintenant un x [a, b] qui soit dirent des xi et montrons la formule pour ce x. On
considre le polynme pn+1 qui interpole la fonction f aux points x0 , , xn et x.
Par dnition
pn+1 (x) = pn (x) + f [x0 , xn , x](x x0 ) (x xn )
et notons
R(x) = f (x) pn+1 (x),
R est alors une fonction drivable l'ordre n + 1. Par dnition de R, la dirence f (x)
pn+1 (x) s'annule en n + 2 points distincts x0 , , xn , x. Comme R est drivable , on peut
appliquer n + 1 fois le thorme de Rolle et on en dduit que R admet n + 1 zros distincts dans
[min(xi ), max(xi )]. De la mme faon, R admet n zros distincts dans [min(xi ), max(xi )].
et nalement encore R(n+1) admet un zro dans [min(xi ), max(xi )]. Notons ce zro de R(n+1)
par . Alors, on a
(n+1)
R(n+1) () = 0 = f (n+1) () p(n+1) ())
Alors

(n+1)
f (n+1) () = p(n+1) () = (n + 1)!f [x0 , xn , x]
car p(n+1) est un polynme de degr n + 1, donc

f (n+1) ()
f [x0 , xn , x] =
(n + 1)!
(n+1)
et puisque p(n+1) (x) = f (x) alors

f (x) p(n) (x) = p(n+1) (x) p(n) (x)


= f [x0 , xn , x](x x0 ) (x xn )
f (n+1) ()
= (x x0 ) (x xn ).
(n + 1)!
x tant un lment de [min(xi ), max(xi )].
Alors x [min(xi ), max(xi )], on a

f (n+1) ()
f (x) p(n) (x) = (x x0 ) (x xn ).
(n + 1)!
42 CHAPITRE 5. INTERPOLATION POLYNOMIALE

Remarque 5.4.2 Des commentaires sont ncessaires pour bien comprendre ce rsultat :
1. L'erreur d'interpolation est nulle aux points de collocation.
2. La fonction a priori inconnue f apparat par l'intermise de sa drive d'ordre n + 1 value au
point ) galement inconnu.
3. Il existe une similarit entre l'erreur d'interpolation et l'erreur lie au dveloppement de Taylor :
dans les deux cas, on montre l'existence d'un point qu'on ne peut gnralement pas dterminer.
4. Le terme d'erreur en un point x fait intervenir des coecients de la forme (x xi ) donc on
a intrt choisir des points xi qui sont situs le plus prs possible de x. Ce choix est utile
lorsqu'on a un grand nombre de points de collocation.

Exemple

Prenons l'exemple de la fonction f (x) = x, on veut avoir une approximation de 8 qui est
gale 2, 828427125. On suppose qu'on a les points d'interpolations suivants : (1; 1),(3; 1, 732051),
(7, 5; 2, 738613),(9, 1; 3, 016620) et (12; 3, 464102). On construit le tableau des dirences divi-
ses.

xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 , xi+4 ]
7, 5 2, 738613
0, 173755
9, 1 3, 016621 0, 00432247
0, 154304 0, 0004291
12 3, 464102 0, 00625344 0, 0001149
0, 192450 0, 0011761
3 1, 732051 0, 01577954
0, 366025
1 1

On remarque que les abscisses xi ont t ordonnes en fonction de leur distance par rapport
x = 8 cela nous permet d'eectuer d'abord l'interpolation avec les valeurs les plus proches de
8 pour minimiser l'erreur d'interpolation. On a le tableau des rsultats suivant :

degr n pn (8) |pn (8) 8|
1 2,825490 0,29102
2 2,827868 0,55103
3 2,828812 0,38103
4 2,827547 0,88103

Supposons que les abscisses xi ont t ordonnes par ordre croissant, on aurait le tableau sui-
vant :

degr n pn (8) |pn (8) 8|
1 3,562178 0,73100
2 2,795705 0,32101
3 2,825335 0,30102
4 2,827547 0,88103
5.4. ERREUR D'INTERPOLATION 43

5.4.2 Test darrt


L'expression analytique de l'erreur d'interpolation ne permet pas d'valuer la prcision de
l'approximation. Il est cependant souhaitable de pouvoir valuer cette erreur, mme de faon
grossire. Cela est possible avec la formule de Newton. En eet, l'expression de l'erreur fait
intervenir la drive d'ordre n + 1 de la fonction f en . C'est ce terme qu'il est ncessaire
d'estimer, puisque c'est le seul qui ne puisse tre valu exactement.Or d'aprs la dmontration
de l'expression analytique de l'erreur, on a remarqu que pour tout x [min(xi ), max(xi )]
f (n+1) ()
f [x0 , , xn , x] =
(n + 1)!
On peut ainsi estimer l'erreur d'interpolation En (x) par :
En (x) f [x0 , , xn+1 ](x x0 ) (x xn )
avec xn+1 un point d'interpolation.
Remarque 5.4.31. Finalement, l'approximation de l'erreur d'interpolation n'est rien d'autre
que le terme necessaire au calcul du polynme de degr (n + 1) dans la formule de Newton.
2. Cette approximation n'est pas toujours d'une grande prcision, mais c'est gnralement la seule
disponible.
3. Cette approximation nous amne suggrer le critre d'arrt suivant : on considre que l'ap-
proximation pn (x) est susamment prcise si :
|pn+1 (x) pn (x)|
<
|pn+1 (x)|
o est une valeur de tolrence xe l'avance. Il est gnralement recommand de xer
galement la degr maximal N des polynmes utiliss.
Exemple
Reprenons l'exemple de la fonction x pour laquelle on va comparer l'erreur exacte d'interpo-
lation au point 8 avec l'approximation de l'erreur.
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 , xi+4 ]
7 2, 645751
0, 177124
9 3 0, 00470299
0, 158321 0, 000206783
11 3, 316625 0, 00346229 0, 9692 105
0, 144463 0, 000129248
13 3, 605551 0, 00268680
0, 133716
15 3, 872983
On a le tableau des rsultats suivant :

degr n pn (8) |pn (8) 8| |pn+1 (8) pn (8)|
1 2,8222875 0,55102 0,47102
2 2,827577990 0,84103 0,62103
3 2,828198339 0,22103 0,145103
4 2,827547 0,88103
On constate que l'erreur approximative est assez prs de l'erreur exacte.
44 CHAPITRE 5. INTERPOLATION POLYNOMIALE

5.4.3 Ordre de l'erreur d'interpolation


Nous dterminons ici l'ordre de convergence de l'approximation polynomiale.
Si on retient le cas o les abscisses sont galement distantes, il sut de poser :
x x0
s= ou encore (x x0 ) = sh
h
On remarque alors que :
x xi = x (x0 + ih) = (x x0 ) ih = sh ih = (s i)h
Il sut maintenant de remplacer x xi par (s i)h dans l'expression analytique de l'erreur
d'interpolation pour obtenir le rsultat suivant :
Thoreme 5.4.2 Dans le cas o les points de collocations xi sont quidistants, l'expression
analytique de l'erreur d'interpolation s'crit :
f (n+1) ()
s(s 1)(s 2) (s n)hn+1
(n + 1)!
pour un certain dans l'intervalle [x0 , xn ]
On peut alors conclure que le polynme d'interpolation pn est une approximation d'ordre n + 1
de la fonction f . De plus, si on prend des points de collocation situs une distance h/2 les
uns des autres, l'erreur d'interpolation est diminue d'un facteur de 2n+1 .

5.5 Autre type d'interpolation


On peut faire une interpolation par morceaux. On construit des interpolations en utilisant
des groupes de points. On s'assure d'interpoler tous les points en garantissant que tous les
nuds sont utiliss. L'exemple classique est la droite  brise  : une interpolation linaire par
morceaux. Mais on pourrait faire la mme chose avec des quadratiques par morceaux, des cubiques
par morceaux L'inconvnient est que Les polynmes par morceaux ne sont gnralement pas 
lisses  aux points d'intersection : mme si on a continuit de l'interpolation, leurs drives
seront gnralement discontinues. Dans certaines applications, ce manque de rgularit n'est
pas acceptable.
Pour ce qui est d'imposer une collocation sur la drives, c'est ce que l'on appelle l'interpo-
lation d'Hermite

5.5.1 Interpolation de Hermite


On cherche un polynme qui interpole la fonction f ainsi que sa drive aux points ((x0 , f (x0 ), f (x0 ))
donns. prcisment, soient les (n + 1) triplets ((xi , f (xi ), f (xi )), on cherche un polynme p tel
que : {
p(xi ) = f (xi ) i = 0, ...n
.
p (xi ) = f (xi ) i = 0, ...n)
Mais pour ce qui est d'imposer une collocation sur la drive cela implique une connaissance
a priori de la fonction et de ces drives car les interpolations d'Hermite ont besoin de f (x)
et f (x), elles sont appropries pour interpoler des fonctions dont l'expression est connue. Une
solution consiste mlanger  ces deux approches : on introduit des conditions supplmentaires
de continuit sur les drives pour des polynmes par morceaux, C'est ce que l'on appelle les
Splines cubiques
5.6. MTHODES DE NEWTON COTES 45

5.5.2 Interpolation par splines cubiques


Pour les points de collocations (xi , f (xi )), i = 0, , n on construit une interpolation cubique
sur les n sous intervalles en imposant la continuit de la drive premire et deuxime sur les
points internes : xi , i = 1, ...n 1. On aura alors le polynme d'interpolation S(x) dni par :


p0 (x) si x [x0 , x1 ]

p1 (x) si x [x1 , x2 ]
s(x) = .. .. ..

. . .

p (x) si x [x , x ]
n n1 n

En plus
1. S(x) interpole les nuds xi donnant n + 1 conditions.
2. s(x) est continu aux nuds internes donnant n 1 conditions.
3. s (x) et s (x) sont continuent aux nuds internes donnant 2(n 1) conditions.
Bilan : 4n inconnues et 4n 2 quations, le systme est sous dtermin. il manque alors deux
quation pour que le systme admette une solution. On peut donc dnir direntes splines
cubiques, en fonction des 2 conditions supplmentaires choisies. Il est plus simple d'ajouter
les conditions supplmentaires S (x0 ) = 0 et S (xn ) = 0 c'est ce que l'on appelle les splines
naturelles.

5.6 Mthodes de Newton Cotes


5.6.1 Mthodes du rectangle et du point milieu
C'est la mthode la plus simple qui consiste interpoler la fonction f intgrer par une
fonction constante (polynme de degr 0). Soit (x0 , f (x0 ) le point d'interpolation, la formule
devient alors :
I(f ) = (b a)f (x0 )
Le choix du point (x0 , f (x0 ) a de l'importance pour la dtermination du terme d'erreur

E(f ) = I I(f )

 Si x0 = a ou b, l'erreur est

(b a)2
E(f ) = f (), [a, b].
2
C'est la mthode du rectangle ;
b+a
 SI x0 = alors l'erreur devient
2
(b a)3
E(f ) = f (), [a, b].
24
Il s'agit de la mthode du point milieu. On remarque que le choix du point milieu amliore
l'ordre de la mthode.
Pour la dmonstration, il sut d'utiliser le thorme suivant
46 CHAPITRE 5. INTERPOLATION POLYNOMIALE

Thoreme 5.6.1 Soit f1 une fonction continue dans l'intervalle [a, b] et f2 une fonction in-
tgrable qui ne change pas de signe dans l'intervalle [a, b]. Il existe alors [a, b] tel que
b b
f1 (x)f2 (x)dx = f1 () f2 (x)dx.
a a

La mthode du rectangle est exacte (c'est--dire E(f ) = 0) pour les fonctions constantes et
celle du point milieu est exacte pour les polynmes de degr infrieur ou gal 1. Ceci s'explique
par le fait que pour l'intgration de x, la mthode du point milieu donne lieu deux erreurs
d'valuation, gales en valeur absolue et opposes en signe.

5.6.2 Mthode des trapzes


Le principe de la mthode des trapzes est d'approcher la rgion sous la courbe reprsentative
de la fonction f par un trapze et d'en calculer l'aire. En eet, si on interpole f par un polynme
de degr un, on a besoin de deux points d'interpolation, savoir (a, f (a)) et (b, f (b)). L'intgrale
est alors approche par l'aire du polynme d'interpolation, en l'occurrence un trapze. Ceci justie
le nom de mthode des trapzes :
f (b) + f (a)
I(f ) = (b a)
2
et l'erreur commise est
(b a)3
E(f ) = f (), [a, b].
12
b
f (2) ((x))
En eet, E(f ) = (xa)(xb)dx, on fait le changement de variables x = a+s(ba)
a 2!
d'o dx = (b a)ds
et le terme d'erreur devient alors
b 1
f ((x)) f ((s))
(x a)(x b)dx = s(s 1)(b a)3 ds
a 2! 0 2!
comme la fonction s(s1) ne change pas de signe dans [0, 1], on peut utiliser le second thorme
de la moyenne et on aura
1 1
f ((s)) f () f ()
s(s 1)(b a) ds =
3
(b a)3
s(s 1)ds = (b a)3
0 2! 2! 0 12
L'erreur s'annule pour tout polynme de degr infrieur ou gal un. Selon ce critre, la mthode
des trapzes est donc moins performante que celle du point milieu, tant donn que les degrs
d'exactitude sont les mmes et que le nombre d'valuations est plus grand pour la mthode des
trapzes que pour celle du point milieu.

5.6.3 Mthode de Simpson


La fonction f est maintenant remplace par une parabole, qui ncessite trois points d'inter-
polation. Les extrmits a, b, et leur milieu m sont choisis. La mthode de Simpson consiste
alors remplacer l'intgrale par
(b a) ( )
I(f ) = f (a) + 4f (m) + f (b) .
6
5.6. MTHODES DE NEWTON COTES 47

En eet, en posant x0 = a, x1 = m et x2 = b la fonction est approche dans ce cas par le


polynme
p2 (x) = f (x0 ) + f [x0 , x1 ](x x0 ) + f [x0 , x1 , x2 ](x x0 )(x x1 )
d'o x2
I(f ) = p2 (x)dx
x0
x2
= f (x0 ) + f [x0 , x1 ](x x0 ) + f [x0 , x1 , x2 ](x x0 )(x x1 )dx
x0

(x2 x0 ) ( )
= f (x0 ) + 4f (x1 ) + f (x2 )
6
(b a) ( )
= f (a) + 4f (m) + f (b) .
6
Pour l'tude de l'erreur, il sut de remarquer que si on rajoute un quatrime point (x3 , f (x3 )),
le polynme de degr 3 correspondant sera

p3 (x) = p2 (x) + f [x0 , x1 , x2 , x3 ](x x0 )(x x1 )(x x2 )

ou encore
f (x3 ) p2 (x3 )
p3 (x) = p2 (x) + (x x0 )(x x1 )(x x2 )
(x3 x0 )(x3 x1 )(x3 x2 )
ba
Or on faisant un changement de variables x = x0 + sh avec h = :
2
x2 2
(x x0 )(x x1 )(x x2 )dx = s(s 1)(s 2)h4 ds = 0
x0 0

d'o x2 x2
p2 (x)dx = p3 (x)dx
x0 x0
et par suite
x2 x2
f (4) ((x))
E(f ) = E3 (x)dx = (x x0 )(x x1 )(x x2 )(x x3 )dx
x0 x0 4!
or le choix de x3 est arbitraire, on prends alors x3 = x1 , le terme d'erreur devient dans ce cas
x2 (4) 2 (4)
f ((x)) f ((s))
E(f ) = (x x0 )(x x1 ) (x x2 )dx =
2
s(s 1)2 (s 2)h5 ds.
x0 4! 0 4!

On remarque que s(s 1)2 (s 2) ne change pas de signe dans [0, 2], donc il sut d'appliquer
le second thorme de la moyenne et on aura :
f 4 () 5
E(f ) = h
90
ba
avec h = et [a, b]. Cette expression du terme d'erreur signie que la mthode de
2
Simpson est exacte (c'est--dire que le terme d'erreur s'annulle) pour tout polynme de degr
infrieur ou gal 3.
48 CHAPITRE 5. INTERPOLATION POLYNOMIALE

Il est possible de construire une formule de Newton-Cotes de degr quelconque. Toutefois, une
telle formule n'est pas inconditionnellement stable. C'est pourquoi, on se cantonnera aux plus bas
degrs : n = 0 mthode des rectangle ou la mthode du point milieu o la valeur est value en
milieu d'intervalle) ; n = 1 mthode des trapzes ; n = 2 mthode de Simpson dite 1/3, i.e. celle
prsente avant ; n = 3 mthode de Simpson 3/8 (il sut de faire le calcul) ; n = 4 mthode de
Boole. Lorsque le degr augmente, des instabilits apparaissent, dues au phnomne de Runge.
En eet, avec certaines fonctions (mme inniment drivables), l'augmentation du nombre n
de points d'interpolation ne constitue pas ncessairement une bonne stratgie d'approximation.
Carle Runge a montr qu'il existe des congurations o l'cart maximal entre la fonction et son
interpolation augmente indniment avec n. Pour remdier cela on peut utiliser les mthodes
composites qui consistent amliorer la prcision sans augmenter les degrs des polynmes
interpolants

5.7 Mthodes composites


Pour chacune des mthodes prcdentes, le terme d'erreur dpend de ba. Si cette amplitude
est trop leve, on peut rduire simplement l'erreur en dcoupant l'intervalle [a, b] en n sous-
intervalles, sur lesquels on calculera la valeur approche de l'intgrale. On parle alors de mthode
composite. La valeur sur l'intervalle [a, b] sera la somme des valeurs sur chaque sous-intervalle.
Pour la mthode du point milieu, la formule devient

(b a)
n1
I(f ) = f (mi )
n i=1

o mi est le milieu du i-ime sous-intervalle. Puisque les n sous-intervalles sont identiques, ils
sont de la forme [a + ih, a + (i + 1)h], avec h = (b a)/n et i = 0, 1, 2, ..., n 1. Ceci entrane
nalement que mi = a + ih + h/2. Le terme d'erreur s'crit

(b a)
E(f ) = h2 f (), [a, b].
24
Pour la mthode des trapzes, elle devient :


n1
f (xi+1 ) + f (xi )
I(f ) = (xi+1 xi )
i=0
2

b a f (xi+1 ) + f (xi )
n1
=
n i=0 2

ba( )
= f (x0 ) + 2(f (x1 ) + f (x2 ) + ... + f (xn1 ) + f (xn )
2n

et l'erreur commise est


h3 (b a)
E(f ) = n f () = n f ()h2 , [a, b].
12 12
Pour la mthode de Simpson, puisque lamthode simple necessite deux intervalles, il est prf-
rable de subdiviser l'intervalle [a, b] en 2n sous intervalleset d'utiliser la mthode de Simpson
5.8. MTHODES DE QUADRATURE DE GAUSS 49

simple dans chaque paire de sous intervalles. On aura


b n1 x2i+2

f (x)dx = f (x)dx
a i=0 x2i


n1
h
(f (x2i ) + 4f (x2i+1 ) + f (x2i+2 ))
i=0
3

h
= (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) +
3

+4f (x2n3 ) + 2f (x2n2 ) + 4f (x2n1 ) + f (x2n ))


ba
avec h = .
2n
Le terme d'erreur s'crit ( )
f 4 () 5 ba 4
n h = f ()h4
90 180
avec [a, b].

5.8 Mthodes de quadrature de Gauss


Les quadratures de Gauss reposent sur un raisonnement dirent de celui de Newton-Cotes.
L'ide est de placer au mieux les points f (xi ) de manire ce que la formule de quadrature soit
exacte pour les polynmes de degr aussi grand que possible. On dit que la formule de quadrature
de Gauss M points est exacte pour les polynmes de degr 2M 1.

Exemple avec deux point d'interpolation, les mthodes de Newton-Cotes nous donne la m-
thode des trapze qui est exacte l'ordre 1 on peut voir que la Formule de Gauss deux points
(t1 = 13 , t2 = 13 ) s'crit
( ) ( )
I(f ) = f 1/ 3 + f 1/ 3 .
qui est une mthode exacte l'ordre 3.
Pour montrer ce rsultat, dans un premier temps, on travaille sur l'intervalle [1, 1], o on fait
tout le dveloppement.
Pour un intervalle quelconque, il sura d'eectuer le changement de variable
(b a)t + (a + b) (b a)
x= et donc dx = dt
2 2
Ce changement de variable qui permet d'envoyer l'intervalle [1, 1] sur un intervalle quelconque
[a, b]. En eet, ce changement de variable permet d'crire
b 1 ( )
(b a)t + (a + b) (b a) (b a) 1
f (x)dx = f dt = g(t)dt
a 1 2 2 2 1
o ( )
(b a)t + (a + b)
g(t) = f .
2
1
n
De manire gnrale, on cherche des expressions de a forme g(t)dt = wi g(ti ).
1 i=1

S-ar putea să vă placă și