Documente Academic
Documente Profesional
Documente Cultură
Lcole dingnieurs de
lInstitut Galile
ANALYSE NUMERIQUE I
L. Halpern
1 Introduction 9
3 Gnralits 15
8 Formules de quadrature 89
3
4
Table des matires
1 Introduction 9
3 Gnralits 15
3.1 Rappels sur les matrices . . . . . . . . . . . . . . . . . . . . . 15
3.1.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.2 Cas particulier de matrices . . . . . . . . . . . . . . . . 16
3.1.3 Dterminants . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.4 Produit de matrices par blocs . . . . . . . . . . . . . . 18
3.2 Rduction des matrices . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Algorithme, complexit . . . . . . . . . . . . . . . . . . . . . . 19
3.4 Systmes linaires, dfinitions . . . . . . . . . . . . . . . . . . 20
3.5 Norme de vecteurs et de matrices . . . . . . . . . . . . . . . . 23
3.6 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.6.1 Erreur darrondi . . . . . . . . . . . . . . . . . . . . . . 27
3.6.2 Conditionnement dun problme . . . . . . . . . . . . . 27
3.6.3 Conditionnement dune matrice . . . . . . . . . . . . . 28
3.7 Notion de prconditionnement . . . . . . . . . . . . . . . . . . 30
5
5 Rsolution numrique de systmes linaires par mthode it-
rative 47
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2 Norme de vecteurs et de matrices . . . . . . . . . . . . . . . . 50
5.3 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.4 Suite de vecteurs et de matrices . . . . . . . . . . . . . . . . . 56
5.5 Rsultats gnraux de convergence . . . . . . . . . . . . . . . 57
5.5.1 Cas des M-matrices . . . . . . . . . . . . . . . . . . . . 57
5.5.2 Cas des matrices hermitiennes . . . . . . . . . . . . . . 58
5.6 Mthodes classiques . . . . . . . . . . . . . . . . . . . . . . . . 58
5.7 Cas des matrices tridiagonales, comparaison des mthodes . . 61
5.8 Mthode de Richardson . . . . . . . . . . . . . . . . . . . . . . 62
5.9 La matrice du laplacien en dimension 1 . . . . . . . . . . . . . 62
5.10 Complexit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.11 Mthodes par blocs . . . . . . . . . . . . . . . . . . . . . . . . 63
8 Formules de quadrature 89
8.1 Formules de quadrature lmentaires . . . . . . . . . . . . . . 91
8.2 Mthode composite . . . . . . . . . . . . . . . . . . . . . . . . 94
6
8.3 Mthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 98
Introduction
9
1. (1.4) ait une solution unique,
2. yn x(tn ), cest la consistance,
3. une erreur petite sur les donnes initiales y0 et y1 produise une erreur
faible sur yn : cest la stabilit.
Ce sont les 3 notions de base en Calcul Scientifique. Lquation (1.4) peut
aussi se mettre sous forme condense, F (Y ) = b, cest alors un systme non
linaire dont il faut trouver une solution.
Lapproximation par diffrences finies de (1.2) scrit
yn+1 2yn + yn1 g
+ yn = 0. (1.5)
t2 l
Elle peut se mettre sous forme dun systme linaire, cest--dire AY = b, o
1 0 y0
0 1 0 y0 y1
.
A = 0 1 1 , Y = .. , b = 0 ,
.. .. .. .
..
. . . 1 yN
0 1 0
g
avec = 2 + t2 . De manire gnrale, toute quation issue de la modlisa-
l
tion est ensuite discrtise puis mise sous la forme dun systme, diffrentiel
ou non, linaire ou non. Tout commence par la rsolution des systmes li-
naires, puis des quations non linaires, puis des quations diffrentielles.
Nous verrons en deuxime anne les modles dquations aux drives par-
tielles.
10
Bibliographie
11
12
Chapitre 2
13
14
Chapitre 3
Gnralits
A(x) = 0 x = 0
15
Dfinition 3.3 Lapplication linaire A est bijective si elle est la fois in-
jective et surjective.
16
5. Matrices triangulaires suprieures : elles vrifient aij = 0 pour j < i,
i.e. elles ont la forme
0
A= 0 0 ..
.
0 0 0
0 0 0
3.1.3 Dterminants
Le dterminant dune matrice carre A se note det A, ou
17
3.1.4 Produit de matrices par blocs
On dcompose la matrice carre A de la faon suivante :
a11 a1J a1J+1 a1n
.. .. .. ..
. . . .
aI1 aIJ aIJ+1 aIn
A11
(I,J) A21
(I,nJ)
A= =
A12 22
(nI,J) A(nI,nJ)
aI+11 aI+1J aI+1J+1 aI+1n
. .. .. ..
.. . . .
an1 anJ anJ+1 ann
a11 a1J
.. ..
La matrice A11
(I,J) = . . est de dimension(I, J),
aI1 aIJ
a1J+1 a1n
.. .. est de dimension(I, n J),
A21
(I,nJ) = . .
aIJ+1 aIn
aI+11 aI+1J
.. ..
A12
(nI,J) = . . est de dimension(n I, J),
a anJ
n1
aI+1J+1 aI+1n
.. ..
A21
(nI,nJ) = . . est de dimension(n I, n J).
anJ+1 ann
Si lon prend une matrice B partitionne de la faon suivante :
11 21
B(J,K) B(J,nK)
B= 12 22 ,
B(nJ,K) B(nJ,nK)
alors on peut faire le produit AB comme si lon avait affaire des matrices
22 :
11 11
A B + A12 B 21 A11 B 12 + A12 B 22
AB = ,
A21 B 11 + A22 B 21 A21 B 12 + A22 B 22
18
associ la valeur propre . Les valeurs propres sont les zros du polynme
caractristique p(x) = det(A xI). Lespace propre assoc la valeur propre
est E = Ker(A I). On appelle multiplicit de la valeur propre sa
multiplicit en tant que zro de p.
On dit que A est diagonalisable si il existe une base (f1 , , fn ) de Rn
constitue de vecteurs propres de A associs au valeurs propres 1 , , n
(comptes sans la multiplicit). On a alors pour tout i Afi = i fi . On pourra
crire matriciellement A = P P 1 o est la matrice diagonale des valeurs
propres de A, et P la matrice des vecteurs propres.
Thorme 3.1 La matrice A est diagonalisable sur R (resp. sur C) si et
seulement si
1. ses valeurs propres sont dans R (resp. sur C),
2. pour chaque valeur propre la dimension du sous-espace propre est gale
la multiplicit.
Corollaire 3.1 Une matrice dont toutes les valeurs propres sont simples est
diagonalisable.
19
d1 = da; d2 = db ;
si d1 < d2 , p1 = b & p2 = a ;
sinon p1 = a & p2 = b ;
tant que p2 6= 0,
p1 = q p2 + r
si r = 0, pgcd = p2
sinon p1 = p2 ; p2 = r
et on normalise.
20
Les donnes sont les coefficients aij , 1 i n, 1 j m et bj , 1 j n.
On appelle systme homogne associ le systme obtenu pour b = (0, , 0).
Il est quivalent de se donner la matrice A des coefficients aij et le vecteur b
des bj :
a11 a12 a1m b1
a21 a22 a2m b2
A = .. .. . . .. , b = ..
. . . . .
an1 an2 anm bn
et de chercher un vecteur
x1
x2
x= ..
.
xm
tel que
Ax = b
Il sera souvent utile dcrire (3.1) sous la forme
a11 a12 a1m b1
a21
a22
a2m
b2
x1 .. + x2 .. + + xm .. = .. (3.2)
. . . .
an1 an2 anm bn
a1j
a2j
Soit, en notant a(j) le j-me vecteur colonne de A, a(j) = .. ,
.
anj
x1 a1 + x2 a2 + xm am = b
21
Thorme 3.4 Supposons m = n. Alors les proprits suivantes sont
quivalentes :
(i) A est inversible,
(ii) det(A) 6= 0,
(iii) pour tout b dans Rn , le systme (3.1) admet une solution et une
seule,
(iv) le systme homogne associ nadmet que la solution triviale x =
(0, , 0).
Remarquons que si A nest pas inversible, son noyau est de dimension
n r daprs le thorme du rang. Soit b est dans ImA, il existe une
solution X, et toutes les solutions sont obtenues en ajoutant X un
lment de KerA. Si b nest pas dans ImA, lensemble des solutions est
vide. Remarquons quil nest pas forcment vident de savoir si A est
inversible, cela vient en gnral avec ltude de la mthode numrique
dont le systme est issu.
2. Supposons maintenant que r = n < m. Il y a plus dinconnues que
dquations : le systme est sous-dtermin. Supposons, par un chan-
gement de numrotation, que le dterminant
a11 a12 a1n
a21 a22 a2r
.. .. . . ..
. . . .
an1 an2 ann
22
maintenant sur les vecteurs lignes. Notons l(i) les vecteurs lignes de A.
Le systme se rcrit
(1)
l x = b1
l(2) x
= b2
. .
.. . . . ..
l(r) x = br
(r+1)
l x = br+1
. .
.. . . . ..
(n)
l x = bn
Si lon fait une combinaison linaire des r premires lignes avec les
coefficients jk , on obtient
l(j) x = j1 b1 + jr br
bj = j1 b1 + jr br , r + 1 j n (3.4)
23
kvk = 0 v = 0,
kvk = || kvk, K, v V,
ku + vk kuk + kvk , (u, v) V 2 (ingalit triangulaire)
Une norme sur V est galement appele norme vectorielle . On appelle
espace vectoriel norm un espace vectoriel muni dune norme.
Les trois normes suivantes sont les plus couramment utilises sur Cn :
n
X
kvk1 = |vi |
i=1
n
!1/2
X
kvk2 = |vi |2
i=1
kvk = max |vi | .
i
Thorme 3.6 Soit V un espace de dimension finie. Pour tout nombre rel
p 1, lapplication v 7 kvkp dfinie par
n
!1/p
X
kvkp = |vi |p
i=1
n n
!1/p n
!1/q
X X p
X q
kuvk1 = |ui vi | |ui | |vi | = kukp kvkq
i=1 i=1 i=1
Rappel 3.2 Sur un espace vectoriel de dimension finie toutes les normes
sont quivalentes.
24
Dfinition 3.6 Soit Mn lanneau des matrices dordre n, lments dans
le corps K. Une norme matricielle est une application kk : Mn R+
vrifiant
1. kAk = 0 A = 0,
2. kAk = || kAk, K, A Mn ,
3. kA+Bk kAk + kBk , (A, B) M2n (ingalit triangulaire)
4. kABk kAk kBk , (A, B) M2n
kAvk
kAk = sup = sup kAvk = sup kAvk ,
vKn kvk vKn vKn
v6=0 kvk1 kvk=1
kIk = 1
df. kAvk1 X
kAk1 = sup = max |aij |
vCn kvk1 j
i
v6=0
df. kAvk2 p p
kAk2 = sup = (A A) = (AA ) = kA k2
vCn kvk2
v6=0
df. kAvk X
kAk = sup = max |aij |
vCn kvk i
j
v6=0
25
La norme kk2 est invariante par transformation unitaire :
AA = A A = kAk2 = (A) .
(A) kAk .
kAk (A) + .
pour toute matrice A = (aij ) dordre n, est une norme matricielle non subor-
donne (pour n 2), invariante par transformation unitaire :
et qui vrifie
kAk2 kAkE n kAk2 , A Mn .
De plus kIkE = n.
26
3.6 Conditionnement
3.6.1 Erreur darrondi
Un nombre rel scrit de faon unique x = a10b , o a est la mantisse,
b lexposant, entier. a est un nombre rel tel que 0.1 a < 1. Larrondi de
x termes est not arr (x) = x et est gal a10b, avec a . par
= 0. |{z}
exemple = 3.141592653 scrit = 0. 31415926
| {z } 53 10 , et avec = 8,
1
8
on a | {z } 10 .
= 0. 31415927 1
Dfinition 3.7 La prcision de lordinateur est le plus petit eps tel que
arr (1 + eps) > 1.
0} 49 101 ,
x = 0. |10 {z arr (x) = 1,
0} 50 101 ,
x = 0. |10 {z 0} 1 101 > 1,
arr (x) = 1. |10 {z
(x1 , x2 ) 7 x1 x2 .
Si K est grand, le problme est mal conditionn, si K nest pas trop grand,
le problme est bien conditionn.
27
Exemple 3.1 : produit de 2 nombres. Soient xi = (1+i )xi , et = max(|i |).
x1 x2 x1 x2
= (1 + 1 )(1 + 2 ) 1 = 1 + 2 + 1 2 ,
x1 x2
do
x1 x2 x1 x2
2 + 2
x1 x2
Comme 2 est ngligeable devant , on a K 2.
Axx = b,
(A + A) y = (bb + bb) .
7 5 9 10 31
10 7 8, 1 7, 2 32, 01
7, 08 5, 04 6 5 , b + b = 22, 99 ,
A + A = 8 5, 98 9, 89 9 33, 01
6, 99 4, 99 9 9, 98 30, 99
0 0 0, 1 0, 2 0, 01
0, 08 0, 04 0 0 , b = 0, 01 .
A = 0 0, 02 0, 11 0 0, 01
0, 01 0, 01 0 0, 02 0, 01
1
1
Axx = b x = 1 ,
1
1, 82 0, 82
0, 36
, = x = u x = 1, 36
u = b + b u =
Au 1, 35 0, 35
0, 79 0, 21
28
81 82
137 136
34 , = x = v x = 35
(A + A) v = b v =
22 21
Dfinition 3.9 Soit k.k une norme matricielle subordonne, le conditionne-
ment dune matrice rgulire A, associ cette norme, est le nombre
cond(A) = kAk
A1
.
Nous noterons condp (A) = kAkp kA1 kp .
Thorme 3.10 Soit A une matrice inversible. Soient x et x + x les so-
lutions respectives de
x = b et A (x
Ax x + x
x) = b + b
b.
Supposons b 6= 0 , alors lingalit
x
kx
xk b
kb
bk
cond(A)
xk
kx kbbk
est satisfaite, et cest la meilleure possible : pour une matrice A donne, on
peut trouver des vecteurs b 6= 0 et b 6= 0 tels quelle devienne une galit.
Dmonstration Il suffit de soustraire les 2 quations. x est solution du
systme linaire
x = b
Ax
do
b
kb
bk
b
kb
bk
xk
A1
x
kx kbbk
A1
kAk kx
xk
kbbk kbbk
29
Thorme 3.12 1. Pour toute une matrice inversible A,
cond(A) 1,
cond(A) = cond(A1 ),
cond(A) = cond(A), pour tout scalaire 6= 0
max |i (A)|
i
cond2 (A) =
min |i (A)|
i
Rappel 3.4 Les valeurs singulires dune matrice rectangulaire A sont les
racines carres positives des valeurs propres de A A.
30
Chapitre 4
Si a11 6= 0, x1 = b1 /a11
puis on reporte la valeur de x1 ainsi determine dans la deuxime quation
et on calcule x2 , etc. A ltape i on a :
31
Si aii 6= 0, xi = (bi ai1 x1 ai2 x2 aii1 xi1 )/aii .
ce qui ncessite 3 instructions pour limplmentation. Regardons la com-
plexit de lalgorithme, cest-a-dire le nombre doprations lmentaires pour
la rsolution du systme. Une opration lmentaire est une des 4 oprations
addition(+), soustraction(), multiplication() et division (/). En gnral
on les groupe en addition/soustraction et multiplication/division. On appelle
N + et N les nombres doprations correspondants.
On peut tablir le tableau suivant
ligne N+ N
1 0 1
.. .. ..
. . .
i i1 i
.. .. ..
. . .
n n1 n
Do le nombre total doprations en sommant sur i :
X n(n 1)
N+ = (i 1) =
i=1,n
2
X n(n + 1)
N = (i) =
i=1,n
2
La dmarche est la mme pour un systme triangulaire suprieur, i.e.
a11 x1 + a12 x2 + + a1n xn = b1
+ a22 x2 + a2n xn = b2
. .. ..
.
ann xn = bn
On le rsout en remontant :
Si ann 6= 0, xn = bn /ann
32
4.1.2 Dcomposition LU : un rsultat thorique
Le principe de la mthode est de se ramener deux systmes triangulaires.
1) On dcompose la matrice A en le produit de deux matrices
A = LU
LUx = b,
Ly = b
dinconnue y,
3) On rsout le systme triangulaire
Ux = y
dinconnue x.
Reste maintenant savoir comment faire cette dcomposition LU.
Commenons par un rsultat thorique
Thorme 4.1 Soit A une matrice inversible dordre n dont les mineurs
principaux sont non nuls. Alors il existe une unique matrice L triangulaire
infrieure avec des 1 sur la diagonale, et une unique
Q matrice U triangulaire
suprieure telles que A = LU. De plus det (A) = ni=1 uii .
33
o A(n1) est la matrice (n 1) (n 1) des (n 1) premires lignes et
colonnes de A, c et b sont des vecteurs colonnes donns par
a1n an1
c = ... ..
, b = .
an1n ann1
34
4.1.3 Dcomposition LU : mthode de Gauss
ai1
On note mi1 = a11
pour 1 i n. On obtient alors le nouveau systme
ou encore
a11 a12 a1n x1 b1
0 a22 m21 a12 a2n m21 a1n x2 b2 m21 b1
.. .. .. ..
..
..
. . . . . .
=
0 ai2 mi1 a12 ain mi1 a1n xi bi mi1 b1
.. .. .. .. .. ..
. . . . . .
0 an2 mn1 a12 ann mn1 a1n xn bn mn1 b1
35
La matrice du nouveau systme est
a11 a12 a1n
0 a22 m21 a12 a2n m21 a1n
.. .. .. ..
. . . .
A(2)
=
0 ai2 mi1 a12 ain mi1 a1n
.. .. .. ..
. . . .
0 an2 mn1 a12 ann mn1 a1n
b1
b2 m21 b1
..
.
b(2)
=
bi mi1 b1
..
.
bn mn1 b1
A(2) x = b(2)
Il est facile de voir que A(2) = M (1) A et b(2) = M (1) b :les manipulations
sur les lignes reviennent multiplier la matrice et le second membre
du systme par la matrice M (1) . La matrice A(2) contient maintenant
uniquement des zeros sous la diagonale dans la premire colonne. Cest ce
processus que nous allons continuer : a ltape k nous avons la matriceA(k)
36
qui a la forme suivante
(k) (k) (k)
a11 a12 a1n
(k) (k)
0 a22 a2n
. ..
.. .
(k) (k) (k) (k1)
A = 0 0 ak1k1 ak1k akn
. .. ..
.. . 0 .
.. .. .. .. ..
. . . . .
(k) (k)
0 0 0 ank ann
et le systme associ scrit
Il faut maintenant faire les manipulations sur les lignes adaptes. Suppo-
(k) (k)
sons que le k-me pivot akk est non nul, et notons Li la i-me ligne du
systme.
37
1 0 0
0 1 0
..
. 0
M (k)
= 0 0 1 1 0
.. ..
. . 0 mk+1k 1
.. .. .. .. ..
. . . . 0 .
..
0 0 0 mnk . 1
Alors les manipulations sur les lignes reviennent multiplier la matrice
et le second membre du systme par la matrice M (k) . On obtient donc le
systme A(k+1) x = b(k+1) , avec A(k+1) = M (k) A(k) et b(k+1) = M (k) b(k) , et lon
a gagn une nouvelle colonne de zros. A ltape n, on obtient une matrice
A(n) qui est triangulaire suprieure, et le systme
A(n) x = b(n)
avec A(n) = M (n) M (1) A et b(n) = M (n) M (1) b.
Posons maintenant U = A(n) et L = (M (n) M (1) )1 , alors A = LU,
U est triangulaire suprieure et il est facile de voir que L est triangulaire
infrieure avec des 1 sur la diagonale. Ses coefficients sont les mik . Nous
avons ainsi obtenu pratiquement la dcomposition LU.
1 0 0 u11 u12 u1n
m21 1 0 0 0. u22
LU = mi1 mi2 1 0
.. 0 u33
.. .. .. ..
. .. .. .. ..
. . . 1 . .. . . . .
..
mn1 mn2 . mnn1 1 0 0 0 0 0 unn
Ecrivons lgalit des coefficients ligne par ligne
Ligne 1
Pour j = 1, , n, a1j = u1j , ce qui permet de calculer
j = 1, , n, u1j = a1j
Ligne 2
38
Colonne 1 a21 = l21 u11 , et puisque u11 est maintenant connu, on en
dduit
a21
l21 =
u11
Colonne j, pour j 2, a2j = l21 u1j + u2j , et donc
j = 2, , n, u2j = a2j l21 u1j
Ligne i : supposons que nous avons t capable de calculer
colonne
j<i j1 j
ji i1 i1
+
total Ni Ni
39
Pi1 Pi1 i(i1)
On a donc Ni = j=1 (j) + j=1 (i 1) = 2
+ (i 1)(n i + 1) et
P n(n2 1)
N = ni=1 (Ni ) = 3
. On fait le mme calcul pour N + et on a
Ce calcul est surtout important lorsque lon rsout des gros systmes.
On a en rsum pour la rsolution dun systme linaire par la mthode de
Crout.
3
Dcomposition LU : 2n3 oprations lmentaires, Rsolution des 2 sys-
tmes triangulaires : 2n2 oprations lmentaires.
D
Comparons avec lutilisation des formules de Cramer : On crit xj = D0j o
chaque D reprsente un dterminant n n. Or le dterminant dune matrice
n n est calcul par
X n
Y
det = () ai,(i)
permutation de {1, ,n} i=1
40
104 x + y = 1
x + y =2
et appliquons la mthode de Gauss avec comme pivot 104 . On obtient for-
mellement
(1 1/104 )y = 2 104
Ceci, calcul en virgule flottante avec 3 chiffres significatifs, (cf fichier MAPLE
joint) donne y = 1, puis x = 0, ce qui est notoirement faux.
Echangeons maintenant les deux lignes
x + y =2
104 x + y = 1
(1 104 )y = 1 2 104 .
41
> restart;
> Digits:=3;
> a1:=1-1/(10^(-4));
> a2:=2-1/(10^(-4));
> y:=evalf(a2/a1);
Digits := 3
a1 := -9999
a2 := -9998
y := 1.000
> x:=(1-y)/(10^(-4));
x := 0
>
> restart;
> Digits:=4;
> a1:=1-1/(10^(-4));
> a2:=2-1/(10^(-4));
> y:=evalf(a2/a1);
> x:=(1-y)/(10^(-4));
Digits := 4
a1 := -9999
a2 := -9998
y := .9999
x := 1.
>
Page 1
42
Donc si A est inversible, au moins un des lments de la premire colonne de
cette dernire matrice est non nul.
Soit i0 lindice du nombre le plus grand en module :
(k) (k)
|ai0 k | = max |aik |.
kin
k (k) = i0 ,
k (i0 ) = k,
k (i) = i si i 6= k et i 6= i0 .
La matrice correspondante est dfinie par ses vecteurs colonnes
Pk (ej ) = ek (j) ,
ou encore par ses lments (Pk )ij = ik (j) .
On peut dfinir plus gnralement la matrice de permutation associe
une permutation de {1, . . . , n} par
P (ej ) = e(j) ,
ou encore par ses lments (P )ij = i(j) .
43
Dmonstration Il suffit de remarquer que pour toute permutation de
1, , n, pour toute matrice M, la matrice M = P 1 MP est obtenue en
effectuant la permuation sur les lignes et les colonnes de M. Si M est de
type M (k) et de type j avec j k, alors M a la mme forme que M. On
peut alors crire
U =M (n1) M
(1) P P A.
n1 1
Posons = n1 , alors
(n1) M
U =M (1) P A,
(n1) M
et lon conclut comme prcdemment avec L = (M (1) )1 .
Thorme 4.3 Soit A une matrice symtrique dfinie positive. Alors il existe
une unique matrice L triangulaire infrieure diagonale unit, et une unique
matrice diagonale D coefficients strictement positifs, telles que
A = LD tL
Thorme 4.4 Soit A une matrice symtrique dfinie positive. Alors il existe
une unique dcomposition de Cholewski de A sous la forme A = B tB, o B
est une matrice triangulaire infrieure coefficients diagonaux strictement
positifs.
44
Dmonstration Daprs le thorme prcdent, A scrit sous la forme
LD tL. Puisque D est diagonale lments strictement positifs, on peut d-
finir la matrice
racine carre de D commela matrice dont les lments dia-
gonaux sont dii . On dfinit alors B = L D. Lunicit se dmontre comme
pour la dcomposition LU.
45
46
Chapitre 5
5.1 Introduction
t u u = f dans ; u = xx u + yy u +
Equilibre : u(x, y)
u = f dans .
47
On choisit des pas despace
a b
x = , y =
m+1 m+1
Loprateur de Laplace en deux dimensions est discrtis avec des diff-
rences finies
1 1
(ui1,j + 2ui,j ui+1,j ) + (ui,j1 + 2, ui,j ui,j+1) = f (xi , yj )
x2 y 2
48
pour j = 1, , n. On multiplie lquation par y 2 , et on obtient
uj u j+1 = u0,je 1 + f j y 2
uj1 + Tu
u
2(1 + ) 0
2(1 + )
T = .. .. ..
matrice m m
. . .
2(1 + )
0 2(1 + )
On introduit maintenant le vecteur de toutes les inconnues
u1
..
U = .
un
On obtient un large systme de m n quations m n inconnues,
U =F
AU
avec
T I 0
I T I 0
A= .. .. ..
. . .
0 I T I
0 I T
La matrice A est CREUSE, TRIDIAGONALE PAR BLOCS. Dans chaque
bloc-ligne de A, seuls 3 blocs sur les n sont non-identiquement nuls, avec
dans chaque ligne de ces blocs au plus 3 lments non-nuls. Ca fait dans
chaque ligne de A 5 lment non nuls sur m n (faire m = 100, n = 50). La
dcomposition de Gauss risque de remplir la matrice. Les mthodes itratives
nont pas besoin de construire la matrice, mais plutt de savoir faire le produit
matrice-vecteur.
Pour construire une mthode itrative on crit
u = b Mu
A = M N; Au u Nu
u=b
u = M 1 (Nu
u + b)
On utilise le point fixe
uk+1 = Nu
Mu uk + b
Compromis entre
M est une bonne approximation de A (le meilleur M est A)
le systme rsoudre chaque itration est simple et peu onreux.
49
5.2 Norme de vecteurs et de matrices
Dfinition 5.1 Une norme sur un espace vectoriel V est une application
k k : V R+ qui vrifie les proprits suivantes
kvv k = 0 v = 0,
kvv k = || kvv k K, vv V ,
kuu + vvk ku u, vv) V 2 (ingalit triangulaire)
uk + kvv k (u,
Une norme sur V est galement appele norme vectorielle . On appelle
espace vectoriel norm un espace vectoriel muni dune norme.
Les trois normes suivantes sont les plus couramment utilises sur Cn :
n
X
kvv k1 = |vi |
i=1
n
!1/2
X
2
kvv k2 = |vi |
i=1
kvv k = max |vi |.
1in
u, v )2 = i=1 ui vi .
scalaire (u
Thorme 5.1 Soit V un espace de dimension finie. Pour tout nombre rel
p 1, lapplication v 7 kvkp dfinie par
n
!1/p
X
kvv kp = |vi |p
i=1
n n
!1/p n
!1/q
X X p
X q
uv
kuv
uvk1 = |ui vi | |ui | |vi | ukp kvv kq
= ku
i=1 i=1 i=1
50
Rappel 5.2 Sur un espace vectoriel de dimension finie toutes les normes
sont quivalentes.
kAvv k
kAk = sup = sup kAvv k = sup kAvv k,
v Kn kvv k v Kn v Kn
v 6=0 v k1
kv v k=1
kv
u 6= 0 et kAu
uk = kAkku
uk.
kIk = 1
51
Dfinition 5.4 Soit A = (aij ) une matrice carre. Alors
kAvv k1
kAk1 = sup
v Cn kvv k1
v 6=0
kAvv k2
kAk2 = sup
v Cn kvv k2
v 6=0
kAvv k
kAk = sup
v Cn kvv k
v 6=0
kAk2 = (A) .
(A) kAk.
kAk (A) + .
52
Thorme 5.4 Lapplication k kE : Mn R+ dfinie par
!1/2
X p
kAkE = |aij |2 = tr (A A),
i,j
pour toute matrice A = (aij ) dordre n, est une norme matricielle non su-
bordonne (pour n 2), invariante par transformation unitaire :
et qui vrifie
kAk2 kAkE nkAk2 , A Mn .
De plus kIkE = n.
5.3 Conditionnement
On veut estimer x yy , o x est solution du systme linaire, et y solution
du systme perturb
Axx = b,
(A + A) y = (bb + bb) .
7 5 9 10 31
10 7 8, 1 7, 2 32, 01
7, 08 5, 04 6 5 , b + b = 22, 99 ,
A + A = 8 5, 98 9, 89 9 33, 01
6, 99 4, 99 9 9, 98 30, 99
0 0 0, 1 0, 2 0, 01
0, 08 0, 04 0 0 , b = 0, 01 .
A = 0 0, 02 0, 11 0 0, 01
0, 01 0, 01 0 0, 02 0, 01
1
1
Axx = b x = 1 ,
53
1, 82 0, 82
0, 36 1, 36
Auu = b + b u =
1, 35 , = x = u x = 0, 35
0, 79 0, 21
81 82
137
, = x = v x = 136
(A + A) v = b v =
34 35
22 21
x = b et A (x
Ax x + x
x) = b + b
b.
x
kx
xk b
kb
bk
cond(A)
xk
kx kbbk
x = b et (A + A) (x
Ax x + x
x) = b .
54
Supposons b 6= 0 , alors lingalit
x
kx
xk kAk
cond(A) .
x + x
kx xk kAk
est satisfaite, et cest la meilleure possible : pour une matrice A donne, on
peut trouver un vecteur b 6= 0 et une matrice A 6= 0 tels quelle devienne
une galit.
cond(A) 1,
cond(A) = cond(A1 ),
cond(A) = cond(A), pour tout scalaire 6= 0
Rappel 5.3 Les valeurs singulires dune matrice rectangulaire A sont les
racines carres positives des valeurs propres de A A.
55
5.4 Suite de vecteurs et de matrices
Dfinition 5.6 Soit V un espace vectoriel muni dune norme k.k, on dit
quune suite (vv k ) dlments de V converge vers un lment v V , si
lim kvv k v k = 0
k
et on crit
v = lim v k .
k
Remarque 5.1 Sur un espace vectoriel de dimension finie, toutes les normes
sont quivalentes. Donc v k tend vers v si et seulement si kvv k v k tend vers
0 pour une norme.
kBk 1
Thorme 5.9 Soit B une matrice carre. Les conditions suivantes sont
quivalentes :
1. limk B k = 0,
2. limk B k v = 0 pour tout vecteur v,
3. (B) < 1,
4. kBk < 1 pour au moins une norme matricielle subordonne k.k.
Thorme 5.10 Soit B une matrice carre, et k.k une norme matricielle
quelconque. Alors
limk kB k k1/k = (B).
56
Soit donc une suite v k dfinie par v k+1 = Bvv k . On a v k = B kv 0 .
kvv k k
kB k k
kvv 0 k
uk+1 = Nu
Mu uk + b (5.1)
57
Thorme 5.13 (Perron-Frobenius) Soit A Mn (R) une matrice non-
ngative. Alors A a une valeur propre non-ngative gale au rayon spectral
de A, et un vecteur propre correspondant qui est aussi non-ngatif.
58
et F la matrice triangulaire suprieure vrifiant
fij = 0, ij
fij = aij i > j
On a alors
..
. F
A= D =DEF
..
E .
Mthode de Jacobi
On choisit M = D, N = E + F , et une tape de lalgorithme scrit
u k+1 = (E + F )u
Du uk + b .
Pour i=1:N
S:=B(i)
Pour j=1:I-1
S=S-A(i,j)*X(j)
Pour j=i+1:N
S=S-A(i,j)*X(j)
Y(i)=S/A(i,i)
Pour i=1:N
X(i):=Y(i)
Test darrt : tant que krr k k > eps, on continue.
59
Mthode de Gauss-Seidel
Elle correspond la dcomposition M = D E, N = F .
uk+1 = Fu
(D E)u uk + b.
Mthode de relaxation
Elle est apppele aussi mthode S.O.R. (successive over relaxation). Elle
correspond la dcomposition M = 1 D E, N = 1
D + F , ce qui scrit
1 1
uk+1 = (
( D E)u uk + b .
D + F )u
De nouveau, une tape de lalgorithme ncessite la rsolution dun systme
triangulaire. La mthode de Gauss-Seidel correspond = 1.
Tableau rsum
Jacobi M =D N =E+F
Gauss-Seidel M =DE N =F
1 1
SOR M= DE N= D+F
Il est dusage daffecter les noms suivants aux matrices des mthodes
prcdentes
Jacobi J = D 1 (E + F )
1 1
SOR L = ( D E)1 ( D + F)
60
La preuve repose sur le lemme suivant, et le thorme 5.12.
Thorme 5.22 Soit A une matrice tridiagonale telles que les valeurs propres
de J soient relles. Alors les mthodes de Jacobi et de relaxation convergent
ou divergent simultanment pour ]0, 2[ . Si elles convergent, la fonction
2
7 (L ) a lallure suivante : avec = p . Le facteur de
1 + 1 ((J))2
|(L )|
1
1 2
61
5.8 Mthode de Richardson
On rcrit litration sous la forme
u k+1 = u k + M 1r k .
uk + bb.
u k+1 = (I A)u
Si A est une matrice symtrique et dfinie positive, ses valeurs propres i (A)
sont strictement positives, nous les ordonnons de faon croissante.
(A) 1
(I opt ) = .
(A) + 1
On a
2 4 2
(J) = 1 + O(n ), (L 1 ) = 1 + O(n4 ),
2n2 n2
2
= 2(1 + O(n2 )), (L ) = 1 == 1 + O(n2 ).
n n
Pour n=100, pour obtenir une erreur de = 101 , on doit faire
9342 itrations de lalgorithme de Jacobi,
4671 itrations de lalgorithme de Gauss-Seidel,
75 itrations de lalgorithme de lalgorithme de relaxation optimale.
62
5.10 Complexit
Supposons la matrice A pleine. La complexit dune itration est denviron
2n2 . Si lon fait au moins n itrations, on a donc une complexit totale de
2n3 , comparer aux 2n3 /3 de la mthode de Gauss.
Pour rsoudre un systme linaire, on prfrera les mthodes directes dans
le cas des matrices pleines, et les mthodes itratives dans le cas des matrices
creuses.
63
64
Chapitre 6
Interpolation polynmiale et
extrapolation
i, 0 i n, pn (xi ) = fi . (6.1)
65
2) Il scrit sous la forme
n
X Y x xj
pn (x) = fi i (x), avec i (x) = . (6.2)
i=0 j6=i
xi xj
n
X
Dmonstration 1)Notons pn (x) = ak xk , x R. Rsoudre (6.1)
k=0
est quivalent rsoudre un systme linaire dont les inconnues sont les
coefficients ak :
Ay = b avec
1 x0 xn0 a0 f0
A = ... ... .. .. ,
.. ..
. . y = . , b = . ,
1 xn xnn an fn
A est une matrice de Vandermonde. Elle est inversible ce qui conclut la partie
1).
2) i est un polynme de Pn , et vrifie i (xj ) = ij . On vrifie que ce
polynme convient.
Lorsque les f i sont les valeurs dune certaine fonction f aux points xi , on
parle de pn comme de linterpolant de f et on la note n f .
66
Figure 6.2 interpolant
67
et nous rcrivons
n
! n
!
X Y Y X i
pn (x) = i (x xj )fi = (x xj ) fi
i=0 j6=i j i=0
x xi
Puisque la formule est exacte pour les polynmes de degr 0, on peut crire
pour f 1 :
n
!
Y X i
1= (x xj )
j i=0
x xi
et donc
Y 1
(x xj ) = n
j
X i
i=0
x xi
n
X i
fi
i=0
x xi
pn (x) = n
X i
i=0
x xi
68
n
X i
fi
i=0
x xi
pn (x) = n
X i
i=0
x xi
Pour lutiliser nous calculons dabord les i en O(n2 ) oprations,
function [lambda] = coeffbary(x)
% COEFFBARY computes the coefficients for the barycentric
% representation of the interpolating polynomial through
% the points (x_i, y_i)
n = length(x); x=x(:);
for k = 1:n,
lambda(k) = 1 / prod(x(k) - x([1:k-1,k+1:n]));
end;
Pn
i i fi
Puis pour chaque x nous calculons les poids i = et pn (x) = Pi=0
n
x xi i=0 i
en seulement O(n) oprations.
function [yy] = intbary(x, y,lambda, xx)
%% INTBARY evaluates the interpolating polynomial
%% through (x_i, y_i) for the values xx: yy = P_n(xx)
x=x(:); y=y(:); xx = xx(:);
nn = length(xx);
for i = 1:nn,
z = (xx(i)-x) + 1e-30; % prevents a division by zero
mue=lambda./z;
yy(i)=mue*y/sum(mue);
end;
69
Dmonstration
Table de calcul
70
Voici lalgorithme matlab
function [d,D] = coeffnewton(x, y)
% COEFFNEWTON computes the divided differences needed for
% constructing the interpolating polynomial through (x_i,y_i)
n = length(x)-1; % degree of interpolating polynomial
The Interpolation Polynomial 335
% divided differences
for i=1:n+1
D(i,1) = y(i);
for j = 1:i-1
D(i,j+1) = (D(i,j)-D(i-1,j))/(x(i)-x(i-j));
end
end
d = diag(D);
Une fois les di calculs, pour les utiliser nous couplons avec lalgorithme
de Hrner, en rcrivant le polynme pn sous la forme
pn (x) = d0 + (x x0 )(d1 + (x x1 )(d2 + + (x xn2 )(dn1 + (x xn1 )dn )))
function y = intnewton(x,d,z)
% INTNEWTON evaluates the Newton interpolating polynomial
% at the new points z: y = P_n(z) using the Horner form
% and the diagonal d of the divided difference scheme.
n = length(x)-1;
y = d(n+1)
for i= n:-1:1
y = y.*(z-x(i))+d(i);
end;
En Matlab, on utilise la fonction polyfit pour linterpolation polynomiale.
Cette fonction utilise une interpolation au sens des moindres carrs discrets
(voir partie 3).
71
n
Y
o n+1 (x) = (x xi ).
i=0
72
Polynmes de Chebyshev
Minimiser lerreur est donc minimiser la norme infinie dun polynme unitaire
sur (1, 1], et
n+1
Y
T ba
inf kn+1 k = k (x xi )k = 2
{xi } 4
Admis, cf Demailly, analyse numrique et quations diffrentielles.
73
5
10
points de Chebyshev
0 points quidistants
10
5
10
10
10
15
10
20
10
25
10
30
10
35
10
0 20 40 60 80 100
0.8
fn = 1
n
n = 23
n==6
0.6
0.4
0.2
0.2
0.4
0.6
0.8
1.2
0 1 2 3 4 5 6
74
8
f
7 n=2
n=4
6 n = 14
5
1
1 0.5 0 0.5 1
Bien que la fonction soit tout fait rgulire, on voit que lerreur en 1
tend vers linfini.
Thorme 6.6 si f C n+1 ([a, b]), x [a, b], x appartenant au plus petit
intervalle ouvert contenant x, x0 , , xk , tel que
1
f (x) pn (x) = F n+1 (x )n+1 (x) (6.9)
(n + 1)!
k
Y
o n+1 (x) = (x xi )2 .
i=0
75
o les polynmes qi et ri sont dfinis par
qi (xj ) = ij , ri (xj ) = 0,
q (xj ) = 0,
r (xj ) = ij . (6.11)
i i
H
1 f (x) = f (aj ) + f [aj , aj+1 ](x aj ), x Ij
H
1 f f
a H b
76
Dmonstration Il suffit dappliquer lestimation derreur (6.6).
que les drives secondes soient aussi continues ? La rponse est oui, ce sont
les vrais splines cubiques historiques.
77
78
Chapitre 7
z M, (g PM g, z) = 0
Dmonstration Vu en L2.
79
Thorme 7.3 (Thorme de Weierstrass) Si (a, b] est compact, toute
fonction continue sur (a, b] peut tre approche uniformment par des poly-
nmes, ou encore lespace des polynmes est dense dans C 0 ((a, b]) pour la
norme de L .
80
Leur norme est gale 2/(2n + 1).
Soit maintenant f une fonction de L2 (a, b). Par le thorme de projection,
il existe un unique Pn dans Pn , projection de f sur Pn . Dcomposons le sur
la base des polynmes orthogonaux pj :
n
X
Pn = jn pj .
j=0
(f, pj )
jn = j =
kpj k2
2. Si de plus [a, b] est compact et f est continue, alors Pn tend vers f dans
L2 et
X (f, pj )2
kf k2 =
kpj k2
k=0
n1
X
pn1 (x) = ak xk ,
k=0
81
P Pn1
cest--dire quon cherche les ak , et et on minimise N
i=1 | k=0 ak xi fi | .
k 2
0 0
alors
1 + 2 1 1
A= 1 1 + 2 1
1 1 1 + 2
Dfinition 7.2 Les valeurs singulires de A sont les racines carres positives
des n valeurs propres de AT A.
telles que A = UV T .
Dmonstration
V T (AT A)V = diag(i2 )
82
Soit cj le j-me vecteur de AV . On a
cTi cj = i2 ij
On ordonne les i : 1 , , r non nulles. Donc ci 0 pour i > r. On pose
cj
uj =
j
pour j r. Ils forment un systme orthonorm, quon complte en une base
orthonorme de RN . Soit U la matrice des uj .
En corollaire, lePrang de A est gal P au nombre de valeurs singulires de A.
On a A = i ui vi , A A =
T T
i2 vi viT . On en dduit que u1 , , ur
forment une base de ImA, vr+1 , , vn une base de ker A, v1 , , vr une
base de ImAT = (ker A) .
On appelle maintenant pseudo-inverse de la matrice
1/1 0
1/2
..
. 0 0
=
1/r
0
..
.
On dfinit alors la pseudo-inverse de A par
A = V U T
P P
On a maintenant A = 1/i vi uTi . On en dduit que AAP
= ui uTi est
la matrice de la projection orthogonale sur ImA et A A = vi viT la matrice
T
de la projection orthogonale sur ImA . Revenons notre systme de moindres
carrs. Les quations normales ont maintenant une interprtation agrable.
Si b nappartient pas ImA, nous le projetons sur ImA en AA b et nous
rsolvons alors Ax = AA b, ou encore A(x A b) = 0, ou x A b ker A,
ou x A b = (I A A)w pour un quelconque w.
Thorme 7.8 La solution gnrale du problme de moindres carrs discrets
scrit
y = A b + (I A A)w
Si A est de rang n, il y a une solution unique. Si rgA < n, lensemble des
solutions est un espace vectoriel de dimension n r.
Dans le deuxime cas, on choisit dans lensemble des solutions celle de
norme minimale, i.e. on cherche w ker A tel que
kA b + wk = inf kA b + zk
zker A
83
7.4 Rgression linaire
On a mesur, sur N individus, n + 1 variables Y, X1 , , Xn . Appelons
xij la mesure de la variable Xj sur lindividu i, et yi celle de la variable Y .
On cherche reconstituer la loi de Y partir de celles des Xi , supposes
linairement indpendantes, par une formule linaire
Y = b0 + b1 X1 + + bn Xn
7.5.2 Dcomposition QR
Toujours en supposant la matrice A injective, crivons successivement
S T S = AT A
1
(S T ) AT AS 1 = I
T
(AS 1 ) (AS 1 ) = I
84
ce qui montre que la matrice Q1 = AS 1 est orthogonale. On peut aussi
crire
A = Q1 S
Augmentons Q1 (de taille N n) par une matrice Q2 en une matrice carre
de taille N : Q = (Q1 |Q2 ), alors nous pouvons crire lgalit prcdente
comme
S
A = (Q1 |Q2 ) = QR
0
En fait cette dcomposition peut tre obtenue par dautre moyen (voir
plus bas), et ne ncessite pas que A soit injective. Puisque la matrice Q est
orthogonale on a pour tout z, daprs le thorme de Pythagore,
kAz bk2 = kQT (Az b)k2 = kRz QT bk2 = kSz (QT b)1 k2 + k(QT b)2 k2
Si R est inversible, cest--dire si le rang r de A est gal n, lquation
Sz = (QT b)1 a une seule solution y, et le minimum est atteint pour y :
inf kAz bk = kAS 1 (QT b)1 k = k(QT b)1 k.
z
85
Donc
V z1
Sz =
0r,nr
et
kSz (QT b)1 k2 = kV z1 (QT b)1 k2 ,
do
kAz bk2 = kV z1 (QT b)1 k2 + k(QT b)2 k2 .
La matrice V est inversible, donc kAzbk est minimal pour V y1 (QT b)1 = 0
et le minimum est de nouveau k(QT b)2 k. Choisissons
y1
y = , y = P T y
0
kzk2 = z k2
k
= y1 k2 + k
k z2 k2
2
= k
y k + kz2 k2
= kyk2 + kz2 k2
2
kyk
Hu = I u u T
Proprits 7.1 Pour tout u dans Rp de norme 2, la matrice Hu est sym-
trique, orthogonale. Cest la matrice de la rflexion sur lhyperplan orthogonal
u.
86
Lemme 7.1 Soit x un vecteur non colinaire e1 (premier vecteur de base).
Alors il existe un nombre rel, et une matrice Hu telle que Hu x = e1 .
est donn par || = kxk, et son signe est loppos de celui de x1 . Le
vecteur u est alors x e1
u= 2
kx e1 k
Ecrivons la matrice A laide de ses vecteurs colonne :
A = (a1 . . . an ), Hu A = (Hu a1 . . . Hu an ),
Supposons que a1 nest pas colinaire e1 (sinon on ne fait rien). Utilisons le
lemme pour trouver (1 , u1) R RN tel que Hu1 a1 = 1 a1 , et dfinissons
A1 = Hu1 A. La premire colonne de la matrice A1 est le vecteur
1
0
..
.
0
et la matrice A1 se dcompose par blocs :
1 ...
0
A1 = ..
A1
.
0
87
et
1 ...
1 ... 0 2 . . .
0
..
A2 = Hu2 A1 = .. = . 0
.
Hu2 A1 .. ..
0
. . A2
0 0
et
A = (Hun1 . . . Hu1 )1 An1 = (Hu1 . . . Hun1 ) An1
puisque les matrices Hu sont orthogonales et symtriques. La matrice P =
Hu1 . . . Hun1 est orthogonale et nous avons fini la construction.
88
Chapitre 8
Formules de quadrature
La formule la plus connue est la formule des trapzes. elle consiste introduire
des points quidistants ai dans lintervalle, a =: a0 < a1 < aN < aN +1 :=
b, avec ai+1 ai = h, et remplacer lintgrale (laire de la portion de plan
situe entre la courbe et laxe des x) par la somme suivante
h h
IN := f (a) + h(f (a1 ) + + f (ai ) + + f (aN )) + f (b)
2 2
Ti
a a1 a2 ai ai+1 aN b
89
Rcrivons la formule comme
h
SN := (f (a0 ) + f (a1 ))
2
h
+ (f (a1 ) + f (a2 ))
2
+
h
+ (f (ai ) + f (ai+1 ))
2
+
h
+ (f (aN ) + f (aN +1 ))
2
h
La quantit 2
(f (ai ) + f (ai+1 )) reprsente laire Ai du trapze Ti . On a alors
SN = T0 + T1 + Ti + TN . (8.1)
Ti
a a1 a2 ai ai+1 aN b
Figure 8.2 calcul approch par la formule des trapzes, choix des points
non quidistants
90
Lintgrale de Riemann dune fonction rgle est dfinie comme la limite de
telles sommes.
Questions
1. Peut-on valuer lerreur en fonction de h ?
2. Peut-on en trouver dautres ?
3. Peut-on les comparer ?
Tj
aj aj+1
On voit bien que si f est affine sur lintervalle, les deux quantits coinci-
dent. Do une autre faon dobtenir la formule lmentaire. On remplace f
par son polynme dinterpolation de degr 1 sur (aj , aj+1 ).
1
f (x) = p1 (x) + f (x )(x aj )(x aj+1 ), x ]aj , aj+1[
2
et on crit
Z aj+1 Z aj+1
1
Ij = p1 (x) dx + f (x)(x aj )(x aj+1 ) dx
aj 2 aj
91
On applique la formule de la moyenne au dernier terme, et on obtient
Z aj+1 Z aj+1 Z aj+1
1 h3j
Ij = p1 (x) dx+ f (j ) (xaj )(xaj+1 ) dx = p1 (x) dx f (j )
aj 2 aj aj 12
1
Dautre part p1 = (f (aj+1)(x aj ) f (aj )(x aj+1 )), et
hj
Z aj+1
hj
p1 (x) dx = (f (aj ) + f (aj+1 ))
aj 2
hj h3j
Mthode des trapzes Ij = (f (aj ) + f (aj+1)) f (j )
2 12
Si nous interpolons dans P0 , nous obtenons les 3 formules, suivant que
nous interpolons gauche, droite ou au point milieu
Mthode Formule Erreur
h2j
formule des rectangles gauche Ij hj f (aj ) f (j )
2
h2j
formule des rectangles droite Ij hj f (aj+1) f (j )
2
aj + aj+1 h3j
formule du point milieu Ij hj f ( ) f (j )
2 24
1 2 aj + aj+1 1 h5j (4)
Mthode de Simpson Ij = hj f (aj ) + f ( ) + f (aj+1 ) f (j )
6 3 2 6 2880
On note sur cette formule quelle est en fait exacte pour des polynmes
de degr infrieur ou gal 3.
On appelle formules de Newton-Cotes toutes les formules quon obtient
de cette manire. Pour systmatiser on fait le changement de variable dans
Ij :
[1, 1] [aj , aj+1]
aj , aj+1 hj
y 7 x = + y
2 2
et donc Z
hj 1 aj , aj+1 hj
Ij = f( + y) dy.
2 1 2 2
92
a ,a h
On notera j (y) = f ( j 2j+1 + 2j y).
On se donne des points i = 1 + 2i/n. Pour les formules de Newton-
Cotes fermes, i varie de 0 n. Pour les formules ouvertes i varie de 1 n1.
Commenons par les formules fermes. On crit pour tout f dans [1, 1],
Z 1 n
X
(y) dy = i (i ) + E().
1 i=0
(n+1) (y )
(y) = pn (y) + n+1 (y).
(n + 1)!
R1 P
Il faut alors intgrer sur [1, 1], utilisant le fait que 1 pn (y) dy = ni=0 i (i ).
Lintgration prcise est alors un peu difficile, voir dans les livres.
93
Thorme 8.2 Si n est pair, r = n + 1, Si n est impair, r = n.
Z b
h h (b a)2 h2
f (x) dx = f (a) + h(f (a1 ) + + f (ai ) + + f (aN )) + f (b) f ()
a 2 2 12
94
Mise en uvre :
a b
Supposons que pour le pas hN les nuds intrieurs soient les ronds noirs
du dessin, a + i hN . Pour le pas hN +1 = hN /2, on ajoute les points rouges.
95
function T = trapez(f,a, b, tol);
% TRAPEZ(f,a, b, tol) tries to integrate int_a^b f(x) dx
% to a relative tolerance tol using the composite
% trapezoidal rule.
%
h = b - a; s = (f(a) + f(b)) / 2;
tnew = h * s; zh = 1; told = 2*tnew;
while abs (told - tnew) > tol * abs (tnew),
told = tnew; zh = 2 * zh;
h = h / 2;
s = s + sum(f(a + [1:2:zh]*h));
tnew = h * s;
end;
T = tnew;
Quen est-il pour Simpson ? Les extrmits sont affectes du poids 1/6, les
points noirs du poids 2/6 et les points rouge du poids 4/6. Mise en uvre :
1 2 4 2 4 1
4
h
1 4 2 4 2 4 2 4 2 4 2 4 1
h/2
Figure 8.5 N uds de la formule de quadrature avec les poids pour Simp-
son
On crit
h
S(h) = (s1 + 2s2 + 4s4 )
6
Notons snew
j les nouvelles valeurs, pour h1 = h/2.
snew
1 = s1 , snew
2 = s2 + s4 , snew
4 = f (a + h1 /2) + f (a + 3h1 /2) +
On crit alors
96
function S = simpson (f,a,b,tol);
% SIMPSON (f,a, b,tol) tries to integrate int_a^b f(x) dx
% to a relative tolerance tol using the composite
% Simpson rule.
%
h = (b-a)/2; s1 = f(a) + f(b); s2 = 0;
s4 = f(a + h); snew = h*(s1 + 4 * s4)/6
zh = 2; sold=2*snew;
while abs(sold-snew)>tol*abs(snew),
sold = snew; zh = 2 * zh; h = h / 2;
s2 = s2 + s4;
s4 = sum(f(a +[1:4:zh]*h));
snew = h*(s1 + 2*s2 + 4*s4)/6;
end
S = snew;
97
Rsultats pour le calcul de
Z 1
x ex e
2
dx = = 0.3591409142...
0 (x + 1) e2
98
Thorme 8.4 Il existe un choix et un seul des points j et des poids j de
sorte que la mthode soit dordre r = 2n + 1. Les points j sont les zros du
polynme de Legendre Ln+1 . Les poids sont donns par
Z 1
j = j (x)dx,
1
Qn
Calcul des coefficients
Q : Ecrivons Ln+1 (x) = an+1 j=0 (j ). On a alors
Ln+1 (i ) = an+1 nj=0 (j ), et on a
j6=i
Ln+1 (x)
i (x) =
Ln+1 (i )(x i )
99
et Z 1
1 Ln+1 (x)
i = dx
Ln+1 (i ) 1 (x i )
Thorme 8.5 Definissons 0 = 0, et
Z 1
Li (x) Li (t)
i (t) = dx
1 (x t)
i (i )
i =
Ln+1 (i )
100
Chapitre 9
101
Daprs les lemmes on a v = (x y) et = ei o est largument
de x. v tant dfini une constante multiplicative prs, on peut le choisir
de sorte que kvk2 = 1. De plus le choix pratique du signe dans est gouvern
par des considrations de conditionnement. On choisira tel que kx yk2
est maximal.
Thorme 9.1 On a
i + n i i + 1 ,
|i i | kEk pour toute norme matricielle.
9.2 Dcompositions
9.2.1 Dcomposition QR
Thorme 9.3 Soit A Mn (C) (resp. Mn (R)). Alors il existe une matrice
Q unitaire (resp. orthogonale) et une matrice R triangulaire suprieure telles
que A = QR. De plus on peut assurer que Rii 0. Si A est inversible, la
dcomposition avec Rii > 0 est unique.
102
Lien avec la dcomposition de Gram-Schmidt Notons aj les colonnes de
A, q j les colonnes de Q. Q est unitaire si et seulement si les q j forment une
base orthonorme, et
X
A = QR j, aj = Rj q j
1j
ce qui se rcrit
a1 = R1,1 q 1
..
.
aj = Rj,j q j + Rj1,j q j1 + + R1,j q 1
..
.
an = Rn,n q n + Rn1,n q n1 + + R1,n q 1
On note H (1) = H(v (1) ). La premire colonne de la matrice A(2) = H (1) A est
donc de la forme t (r1,1 , 0, , 0). Par rcurrence, on construit une suite de
matrices A(k) de la forme
103
(k) (k)
r1,1 r1,k1 a1,k a1,n
.. .. .. ..
0L . . . .
(k) (k)
rk1,k1 ak1,k ak1,n
A(k) =
(k) (k)
ak,k ak,n
.. ..
0 . .
(k) (k)
an,k an,n
On cherche v (k) sous la forme t v (k) = (0,t v(k) ), et lon vrifie que
(k) Ik 0 (k)
H = v (k) t v(k)
(k) , avec H = Ink+1 2
0 H
On a donc
A(n) = H (n1) H (1) A
et la matrice A(n) est triangulaire suprieure. Si lon pose t Q = H (n1) H (1) ,
Q est une matrice orthogonale et A = tQ1 A(n) = QA(n) . On a ainsi construit
les matrices Q et R.
La dmonstration est du mme type que pour la mthode QR. Ici on multiplie
droite et gauche par une matrice de Householder.
104
9.3 Algorithmes pour le calcul de toutes les va-
leurs propres dune matrice
9.3.1 Mthode de Jacobi
Soit A une matrice relle symtrique. On sait quil existe une matrice
orthogonale O telle que t OAO soit diagonale.
1
..
t
. 0
OAO = = .
0 . .
n
La mthode de Jacobi consiste construire une suite de matrices de rotation
O (k) telles que la suite dfinie par A(k+1) = t O (k) A(k) O (k) converge vers .
Soit Rpq la matrice de rotation dans le plan (ep , eq ) dangle :
p q
1 0 0 0
.. .. ..
.
. .
1 0 0
p
0 0 cos() 0 0 sin() 0 . . . 0
Rp,q () = 0 1 0
.. .. ..
. . .
0 1 0
q
sin() 0 0 cos()
1
..
.
1
On pose B = tRp,q ()ARp,q (). Les bi,j sont alors donns par
bi,j = ai,j , i 6= p, q, j 6= p, q
bp,j = ap,j cos() aq,j sin(), j= 6 p, q
bq,j = ap,j sin() + aq,j cos(), j 6= p, q
bp,p = ap,p cos2 () + aq,q sin2 () ap,q sin(2)
bq,q = ap,p sin2 () + aq,q cos2 () + ap,q sin(2)
ap,p aq,q
bp,q = ap,q cos(2) + sin(2)
2
bp,q = bq,p .
105
Thorme 9.5 Si ap,q 6= 0, il existe un unique dans ] 4 , 0[]0, 4 [ tel que
bp,q = 0. Cest lunique racine de lquation
aq,q ap,p
cotg 2 =
2ap,q
Etape 1. On choisit p1 et q1 tels que |ap1 ,q1 | = maxi6=j |ai,j |.On choisit 1
(1)
tel que A(1) = tRp1 ,q1 (1 )ARp1 ,q1 (1 ) vrifie ap1 ,q1 = 0.
(1) (1)
Etape 2. On choisit p2 et q2 tels que |ap2 ,q2 | = maxi6=j |ai,j |.On choisit
(2)
2 tel que A(2) = tRp2 ,q2 (2 )A(1) Rp2 ,q2 (2 ) vrifie ap2 ,q2 = 0. Puisque
(2)
p2 6= p1 , q1 , q2 6= p1 , q1 , on a aussi ap1 ,q1 = 0.
(k1) (k1)
Etape k. On choisit pk et qk tels que |apk ,qk | = maxi6=j |ai,j |.On choisit
(k)
k tel que A(k) = tRpk ,qk (k )A(k1) Rpk ,qk (k ) vrifie apk ,qk = 0. On a
(k) (k)
ap1 ,q1 = = apk ,qk = 0.
On vide ainsi la matrice de tous ses lments extradiagonaux.
(k)
Thorme 9.6 Chaque lment diagonal ai,i converge vers une valeur propre
de A quand k tend vers +.
On a ltape k, A(k) = tRpk ,qk (k ) tRp1 ,q1 (1 )ARp1 ,q1 Rpk ,qk (k ) =
t (k)
O AO (k), o O (k) est une matrice orthogonale. Lorsque k tend vers lin-
fini, O (k) tend donc vers la matrice des vecteurs propres de A. Pour calculer
les vecteurs propres de A, il suffit donc de calculer les matrices O (k) , ce qui
et nanmoins assez coteux.
106
Etape 2. On calcule les valeurs propres de B.
Ltape 1 a dj t dcrite, passons ltape 2. On suppose dabord tous
les ci non nuls, sinon on dcompose B par blocs qui ont les mmes valeurs
propres. On note pi le polynme caractristique de la matrice Ai dfinie pour
i 1 par
a1 b2 0 0
.. .
. ..
b2 a2 b3
a1 b2 .. ..
A1 = (a1 ), A2 = , , Ai = 0 b 3 . . 0 ,
b2 a2
. .
. . . . . . . . bi
..
0 0 bi ai
107
On choisit q (0) Cn tel que kq (0) k = 1.
Pour k = 1, 2, . . . on calcule :
x(k) = Aq (k1)
(k)
(k) xj
j = (k1) j = 1, . . . , n
qj
(k)
q (k)
= kxx(k) k
On fera lhypothse suivante :
Ak q0
On remarque que qk est galement dfini par qk = .
kAk q0 k2
La mthode de la puissance inverse permet de calculer la plus petite valeur
propre en module de A en appliquant la mthode de la puissance A1 .
108
Sommaire
109