Sunteți pe pagina 1din 91

Mthodes numriques appliques

la conception par lments nis


David Dureisseix
28/09/2008
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
TABLE DES MATIRES
INTRODUCTION 1
1 RSOLUTIONDES SYSTMES LINAIRES 5
1.1 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Dnition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Inuence des perturbations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Techniques de stockage et cot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Paramtres inuents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Cot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Mthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Mthode dlimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Factorisation de Crout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.4 Lien avec la condensation de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.5 Autres techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Quelques particularits en lments nis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1 Conditions aux limites en dplacement . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.2 Relations linaires entre degrs de libert . . . . . . . . . . . . . . . . . . . . . . 16
1.4.3 Systme singulier : semi dni positif . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Mthodes itratives stationnaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.1 Mthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.2 Mthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.3 Mthode de relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.4 Mthode dUzawa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6 Mthodes itratives non-stationnaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6.1 Mthode gnrique de projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6.2 Mthode du gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6.3 Mthode du gradient conjugu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6.4 Prconditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6.5 Autres mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Critres darrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 SYSTMES AUX VALEURS PROPRES 25
2.1 Prliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.2 Domaine demploi des diffrentes mthodes . . . . . . . . . . . . . . . . . . . . 26
2.2 Mthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Mthode des puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Mthode des itrations inverses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5 Mthode des itrations inverses avec dcalage spectral . . . . . . . . . . . . . . . . . . 30
2.5.1 Principe et convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.2 Exemples dutilisation dans un code lments nis . . . . . . . . . . . . . . . 31
2.6 Transformation de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.1 Factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.2 Dtermination des valeurs propres par la mthode QR. . . . . . . . . . . . . 32
2.6.3 Forme de Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2.7 Exemple dutilisation dans un code lments nis . . . . . . . . . . . . . . . . . . . . . 34
2.7.1 Rduction dans un sous-espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.2 Technique itrative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8 Mthode de Lanczos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3 RSOLUTIONDE SYSTMES NON-LINAIRES PARTICULIERS 37
3.1 Non-linarits matrielles de type plasticit . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.1 Formulation du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.2 Rsolution pour un incrment de temps . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.3 Mthode de la plus grande pente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.4 Mthodes de gradient conjugu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.5 Mthode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.6 Mthode de Newton-Raphson modie . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.7 Mises jour de type Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 RSOLUTIONDE SYSTMES DIFFRENTIELS 43
4.1 quation scalaire du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.1 Problme de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.2 R-criture du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.3 Schmas explicites un pas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.4 Quelques problmes pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.5 A-stabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.6 Mthode des trapzes gnralise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.7 Exemple de mthode pas multiples : Adams . . . . . . . . . . . . . . . . . . . 48
4.1.8 Exemple de mthode de prdiction correction . . . . . . . . . . . . . . . . . . . 50
4.1.9 Mthode de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.10 Autres mthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2 Systmes diffrentiels du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Emploi des mthodes prcdentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Choix dun schma : inuence de lordre dintgration . . . . . . . . . . . . . 54
4.3 Systmes diffrentiels du deuxime ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.1 Mthode de Newmark . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.2 Mthode de Gear implicite deux pas . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.3 -mthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.4 -HHT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3.5 Autres mthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4 Intgration de modles de comportement . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1 Exemple de modle de plasticit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.2 Mthodes de type retour radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.3 Exemple de modle de viscoplasticit . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5 Cas de la dynamique non rgulire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
RFRENCES 69
A FACTORISATION DE CHOLESKY - ORTHOGONALISATION DUNSOUS-ESPACE 73
B BORNAGE PARLES VALEURS PROPRES LMENTAIRES 75
B.1 Systme aux valeurs propres gnralis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
B.2 Systme aux valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
C TECHNIQUE DACCLRATION DAITKEN 77
D REPRES BIOGRAPHIQUES 79
INDEX 85
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
INTRODUCTION
Ce document de travail (avec renvoi des ressources de rfrences sil y a besoin dapprofon-
dir) est utile ceux qui sont intresss ou amens utiliser des mthodes de simulation (es-
sentiellement par lments nis) dans le but de dimensionner des structures mcaniques.
Il ne sagit pas pour autant dun document sur les lments nis, puisquon suppose que
les problmes ont dj t formuls dans ce cadre, et que lon se place en aval, lorsque la
rsolution des problmes lments nis est en jeu. On se ramnera ainsi frquemment aux
techniques effectivement utilises dans des codes de calcul industriels. Pour cela, on sera
amen utiliser des mthodes classiques dalgbre linaire, de calcul matriciel, adaptes
aux calculs sur ordinateurs (algorithmique).
Selon les problmes qui se posent, on est amen utiliser un grand nombre doutils dif-
frents mais ce document ne se veut pas exhaustif. Il ne traite en particulier pas les cas sui-
vants :
la recherche de racine de f (U) =0 ;
les problmes de minimum non quadratiques (bisection, point xe, Newton, Newton-
Raphson, quasi-Newton, scante, BFGS) ;
les problmes non linaires de type grands dplacement ou contact unilatral.
Structur en quatre chapitres, il aborde les techniques de rsolution de grands systmes
linaires (de faon directe ou itrative), de problmes de recherche de valeurs et vecteurs
propres, et enn de systmes diffrentiels.
Pour unaperumoins dtaill mais plus large des mthodes numriques, le lecteur pourra
se reporter [1].
Il semble aussi utilise de prciser que ce document est en perptuelle volution et que
de ce fait, son organisation ainsi que sa table des matires peuvent afcher quelque incoh-
rence.
En cas derreur
Les diffrents algorithmes et techniques prsents ne sont pas garantis contre les erreurs et
autres coquilles. . . De la mme faon, tout document est perfectible, et celui-ci ne fait pas
exception la rgle. Aussi, si vous en trouvez, signalez-les : cest aussi une mthode itra-
tive. . . pour rduire le nombre de bugs. Jai dj eu des retours qui mont permis damliorer
la chose. Merci donc en particulier Martin Genet.
Tout lecteur ayant des remarques et propositions constructives est amicalement invit
envoyer un retour lauteur par courriel David.Dureisseix@lmgc.univ-montp2.fr.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2 INTRODUCTION
Notations
Un vecteur est reprsent par une lettre romane minuscule (comme x), une matrice par une
lettre romane majuscule (comme A), un scalaire par une lettre grecque minuscule (comme
). La composante i du vecteur x est note x
i
(cest un scalaire) et la composante i , j de la
matrice A, A
i ,j
: cest un scalaire galement.
La colonne j de A, par exemple, sera classiquement note A
1:n,j
. Les vecteurs de la base
dans laquelle les diffrentes matrices sont crites seront nots e
i
.
chaque fois, litr numro i est dsign par une mise en exposant (comme x
(i )
) et
en gnral, une mme lettre dsignera en fait un mme emplacement en mmoire ; par
exemple, x
(i )
crase x
(i 1)
en mmoire.
Pour approfondir
Pour des renseignements gnraux complmentaires sur les techniques employes, il est
utile de ce rfrer par exemple [2, 3]. . . et pour les algorithmes et leur implantation, aux
librairies de netlib. . .
De faon gnrale, la bibliographie prsente regroupe deux types de rfrences : les
anciennes, voire trs anciennes, en tant que base historique, et les plus rcentes, en tant
quouvrages contemporains. Les biographies utilises se sont largement inspires des bases
de donnes disponibles aux adresses suivantes :
http://www-history.mcs.st-andrews.ac.uk/
http://www.math.bme.hu/html/index.html
http://www.wikipedia.org
Cadre de travail
Actuellement, et pour ce qui nous intresse, nous avons tout intrt utiliser des librairies
scientiques existantes de faon intensive : on ne peut prtendre reprogrammer de faon
plus efcace et plus robuste des algorithmes standards que des spcialistes de ce domaine
et qui travaillent sur ces librairies depuis un grand nombre dannes. Il est cependant nces-
saire de connatre le principe dun certainnombre de ces mthodes, leur domaine demploi,
leur limite et davoir une ide des cas problme pour aider au choix dune mthode. Cest
dans cette direction que se place ce document.
Parmi ces librairies, en grande partie du domaine public, certaines mergent ou com-
mencent merger comme des standards de fait. Par exemple, la librairie LAPACK (Linear
Algebra PACKage), [4] :
http://www.netlib.org/lapack/
qui succde en grande partie aux anciennes libraries EISPACK, pour la rsolution de sys-
tmes aux valeurs propres :
http://www.netlib.org/eispack/
et LINPACK pour la rsolution de systmes linaires :
http://www.netlib.org/linpack/
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
3
Sa description est celle de la FAQ (Frequently Asked Questions) :
LAPACK provides routines for solving systems of simultaneous linear equations,
least-squares solutions of linear systems of equations, eigenvalue problems, and
singular value problems. The associated matrix factorizations (LU, Cholesky, QR,
SVD, Schur, generalized Schur) are also provided, as are related computations
suchas reordering of the Schur factorizations andestimating condition numbers.
Dense and banded matrices are handled, but not general sparse matrices. In all
areas, similar functionality is provided for real and complex matrices, in both
single and double precision.
Citons aussi sa version paralllise, ScaLAPACK (Scalable LAPACK, [5]) :
The ScaLAPACK project is a collaborative effort involving several institutions (Oak
Ridge National Laboratory, Rice University, University of California, Berkeley, Uni-
versity of California, Los Angeles, University of Illinois, University of Tennessee,
Knoxville), and comprises four components : dense and band matrix software
(ScaLAPACK), large sparse eigenvalue software (PARPACK and ARPACK), sparse
direct systems software (CAPSS and MFACT), preconditioners for large sparse
iterative solvers (ParPre). The ScaLAPACK (or Scalable LAPACK) library includes
a subset of LAPACK routines redesigned for distributed memory MIMD parallel
computers. It is currently written in a Single-Program-Multiple-Data style using
explicit message passing for interprocessor communication. It assumes matrices
are laid out in a two-dimensional block cyclic decomposition. Like LAPACK, the
ScaLAPACK routines are based on block-partitioned algorithms in order to mi-
nimize the frequency of data movement between different levels of the memory
hierarchy. (For such machines, the memory hierarchy includes the off-processor
memory of other processors, in addition to the hierarchy of registers, cache, and
local memory on each processor.) The fundamental building blocks of the Sca-
LAPACK library are distributed memory versions (PBLAS) of the Level 1, 2 and
3 BLAS, and a set of Basic Linear Algebra Communication Subprograms (BLACS)
for communication tasks that arise frequently in parallel linear algebra computa-
tions. In the ScaLAPACK routines, all interprocessor communication occurs wi-
thin the PBLAS andthe BLACS. One of the design goals of ScaLAPACK was to have
the ScaLAPACK routines resemble their LAPACK equivalents as muchas possible.
Dun niveau dutilisation plus bas, et utilises dans les librairies prcdentes, on trouve aussi
des utilitaires intressants dans les librairies ARPACK :
http://www.caam.rice.edu/software/ARPACK/
ARPACK is a collection of Fortran77 subroutines designed to solve large scale ei-
genvalue problems. The package is designed to compute a few eigenvalues and
corresponding eigenvectors of a general n n matrix A. It is most appropriate
for large sparse or structured matrices A where structured means that a matrix-
vector product w Av requires order n rather than the usual order n
2
oating
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4 INTRODUCTION
point operations. This software is based upon an algorithmic variant of the Ar-
noldi process called the Implicitly Restarted Arnoldi Method (IRAM). When the
matrix A is symmetric it reduces to a variant of the Lanczos process called the
Implicitly Restarted Lanczos Method (IRLM). These variants may be viewed as
a synthesis of the Arnoldi/Lanczos process with the Implicitly Shifted QR tech-
nique that is suitable for large scale problems. For many standard problems, a
matrix factorization is not required. Only the action of the matrix on a vector is
needed.
et BLAS (Basic Linear Algebra Subprograms) :
http://www.netlib.org/blas/
The BLAS (Basic Linear Algebra Subprograms) are high quality building blo-
ck routines for performing basic vector and matrix operations. Level 1 BLAS do
vector-vector operations, Level 2 BLAS do matrix-vector operations, and Level 3
BLAS do matrix-matrix operations. Because the BLAS are efcient, portable, and
widely available, they are commonly used in the development of high quality li-
near algebra software, LINPACK and LAPACK for example.
Les dveloppements concernant ces librairies sont toujours en cours, en particulier les ver-
sions creuses SPBLAS (SParse BLAS) et parallles PBLAS (Parallel BLAS).
Enn, des librairies scientiques gnralistes sont aussi disponibles, comme la GSL(GNU
Scientic Library) :
http://www.gnu.org/software/gsl/
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1
RSOLUTION DES
SYSTMES LINAIRES
On est souvent, voire tout le temps, amen rsoudre des systmes linaires de la forme
Ax = b pour la simulation sur ordinateur ; par exemple en lments nis [6], une analyse
statique conduit rsoudre un systme que lon notera Ku =f o Kest la matrice de rigidit,
u le dplacement en certains points de la structure et f, les forces gnralises.
Une analyse non-linaire implicite, la recherche dune base modale. . . sont souvent ba-
ses sur la brique de base quest la rsolution de systmes linaires. Dans ces cas de gure,
comme dans dautres, les matrices A et b correspondantes ont souvent des particularits
dont il sera judicieux de tirer parti pour les avantages, ou quil faudra avoir en tte pour les
inconvnients. Par exemple :
1. une grande dimension dimA=n, classiquement de 10
3
10
6
, donc :
on ninverse pas A (ce serait rsoudre n systmes linaires) ;
il faut prendre en compte des considrations de stockage adapt, la fois pour r-
duire les ressources en mmoire et le nombre doprations effectuer.
2. la ncessit de traiter plusieurs second membres :
simultanment ;
successivement.
3. des proprits souvent rencontres :
des coefcients rels, une matrice A carre,
A inversible A rgulire det A=0
A symtrique A=A
T
avec x, y, x y =x
T
y, x
T
Ay =y
T
A
T
x
A positive x, x
T
Ax 0
A dnie x
T
Ax =0 x =0
A mal conditionne, typiquement condK = (
1
h
2
) o h est la taille de la maille en
lments nis massifs.
Pour plus dinformations concernant ces particularits et les techniques mises en uvre, on
pourra se rfrer [7, 8].
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
6 RSOLUTIONDES SYSTMES LINAIRES
1.1 Conditionnement
1.1.1 Dnition
Pour A symtrique et inversible,
condA=A A
1
(1.1)
Avec une norme matricielle cohrente avec celle dnie pour les vecteurs :
A = sup
x=0
Ax
x
(1.2)
o x
2
=x
T
x =

i
x
2
i
est la norme euclidienne, on a :
condA=
||
max
||
min
(1.3)
o les sont les valeurs propres de A.
Engnral, il est trs coteux datteindre le conditionnement de A, par contre un certains
nombre de techniques peuvent permettre de lestimer. On pourra en particulier sinspirer
des techniques dveloppes dans le chapitre concernant la recherche de valeurs propres.
Un conditionnement grand conduit des problmes de prcision (cumul darrondis num-
riques). Pour les illustrer, on est amen considrer un systme perturb (par des perturba-
tions gnralement supposes petites)

A x =

b.
Exemple 1
Considrons le systme Ax =b suivant :
_
_
1 1
1 1 +
_
_
_
x
1
x
2
_
=
_
2
2
_
x =
_
2
0
_
(1.4)
Le polynme caractristique
2
(2 +)+ =0 permet de dterminer les valeurs propres,
savoir :

1,2
=
2 +
_
4 +
2
2
(1.5)
Avec petit, le conditionnement est donc trs grand puisque condA 4/. Considrons
maintenant le systme

A x =

b perturb tel que :
_
_
1 1
1 1 +
_
_
_
x
1
x
2
_
=
_
2
2 +
_
x =
_
2

_
(1.6)
Ce rsultat entrane la discussion suivante :
si 1 alors x [2 0]
T
;
si 1, ce qui est tout fait possible avec les arrondis numriques, la solution
est trs diffrente puisque x [1 1]
T
.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.1 Conditionnement 7
Exemple 2
Examinons le systme suivant :
A=
_
_
1,2969 0,8648
0,2161 0,1441
_
_
b =
_
0,8642
0,1440
_
x =
_
0,8642
0,1440
_
(1.7)
Le conditionnement de Aest condA=3,310
8
; le rsiduest petit puisque bAx =[10
8
10
8
]
T
alors que la solution exacte est trs diffrente de x puisque cest [2 2]
T
. Il semble donc que
le conditionnement du systme soit trs fortement li la qualit de la solution (en terme
dinuence des arrondis numriques) que lon puisse esprer avoir.
Dans le cas des lments nis massifs (autre que plaques enexion, poutres. . . ), le condi-
tionnement varie en (
1
h
2
). La gure 1.1 illustre cela dans un cas 2D trs simple. Le condi-
tionnement a t obtenu en calculant explicitement la plus grande et la plus petite valeur
propre de K avec les mthodes qui seront prsentes ultrieurement.
h
L
(a) maillage
c
o
n
d
K
10
5
10
4
10
3
10
2
10
1 10
1
10
2
h/L
(b) conditionnement
g. 1.1 - Conditionnement en lments nis
1.1.2 Inuence des perturbations
Considrons le systme A x =

b. Si

b = b + b avec b b, a-t-on x x pour
x =x+x ? Calculons simplement, en utilisant l"ingalit de Milkowski :
Ax =b Ax =b A x b (1.8)
autrement dit :
1
x

A
b
(1.9)
et maintenant :
A(x+x) =b+b Ax =b x =A
1
b x A
1
b (1.10)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
8 RSOLUTIONDES SYSTMES LINAIRES
soit :
x A
1
b (1.11)
par consquent :
x
x
condA
b
b
(1.12)
Considrons maintenant le systme perturb

A x =b. Si

A=A+A et x =x+x, alors :
(A+A)(x+x) =b Ax+A(x+x) =0 x =A
1
A(x+x)
x A
1
A x+x
(1.13)
autrement dit :
x
x+x
condA
A
A
(1.14)
Il nest donc pas tonnant quon se trouve face une difcult lorsque le systme rsoudre
est trs mal conditionn, autant avec les mthodes directes qui fournissent une solution
errone quavec les mthodes itratives qui ne convergeront pas.
1.2 Techniques de stockage et cot
1.2.1 Paramtres inuents
Dans les applications envisages, en particulier pour les systmes de grande taille, il est n-
cessaire denvisager des techniques de stockage adaptes. Par exemple, si la taille du sys-
tme est n =10
3
, le stockage de A pleine ncessite 8 Mo de mmoire ; avec n =10
6
, 8000 Go
sont ncessaires.
Pire encore, le nombre doprations pour rsoudre le systme Ax = b est li au nombre
de termes non nuls (en fait au nombre de termes stocks, donc supposs non nuls) de la
matrice, et aussi de la numrotation des inconnues, comme on le verra. Par exemple, une
mthode de Cramer sur une matrice pleine demande un nombre doprations en virgule
ottante de n
op
(n+1)!, ce qui devient rapidement inextricable, mme avec les ordinateurs
les plus puissants [9, 10].
Dans le cas des systmes issus dune discrtisation par lments nis, le systme est dit
creux
1
. Il faut donc en tenir compte au niveau du stockage, en utilisant par exemple un
stockage :
bande (largeur de bande, bandwidth, l
b
) ;
ligne de ciel, skyline ;
morse;
semi-morse.
Quant linuence de la renumrotation des degrs de libert (ddl), des mthodes heuris-
tiques sont employes car la dtermination de la numrotation optimale est un problme
extrmement coteux (en fait, plus coteux que le systme que lon cherche rsoudre). Les
techniques les plus employes se nomment :
1. en anglais, un systme creux est dit sparse
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.2 Techniques de stockage et cot 9
Cuthill-MacKee inverse [11] ;
nested dissection [12] ;
degr minimum [13, 14]. . .
1.2.2 Cot
Le cot dun algorithme sestime de diffrentes manires. Une premire indication est la
taille de la mmoire requise pour traiter un problme donn. Une autre est le temps mis
pour effectuer la rsolution du problme. Deux types de prise de temps sont gnralement
employs : le temps CPU(Central Processing Unit), li aux oprations effectues, et le temps
horloge, li au temps extrieur coul pendant cette rsolution. Il est certain que ce dernier
est une mesure trs globale puisquelle fait intervenir la machine utilise
2
, les comptences
du programmeur, et peuvent dpendre fortement du problme trait. Elle ne caractrise
donc pas uniquement lalgorithme mais plutt globalement le logiciel ralis pour un pro-
blme donn sur une machine donne.
Dautres indicateurs sont galement disponibles, comme le nombre doprations en vir-
gule ottante ncessaire la rsolution. Cest ce que lon appelle la complexit de lalgo-
rithme. Elle devient plus lie lalgorithme mme en faisant des estimations sur les types
de problmes traiter, mais elle ne fait pas intervenir les ventuels transferts en mmoire,
oprations sur les entiers. . .
La vraie qualication dune technique doit donc faire appel tous ces indicateurs. Ici,
seule la complexit sera prsente par la suite. Lestimation du cot effectif en temps CPU
des diffrentes oprations en virgule ottante peut ensuite tre propose par des essais nu-
mriques et des prises de temps sur des architectures de machines cibles.
titre dindication, un petit test a t ralis dans ce sens, qui fait intervenir essentielle-
ment les performances du processeur. Les cots indiqus dans le tableau 1.1 ont t obtenus
en janvier 2000. Entre parenthses, on trouvera les cots obtenus lanne ou les deux annes
prcdentes. Le code est crit en Fortran 77 ; les diffrentes machines testes ainsi que les
options de compilation sont les suivantes :
fronsac est une station de travail HP du LMT-Cachan (HP 9000/879, systme B.10.20),
la compilation est faite avec f77 +O2 ;
bacchus est une machine parallle SGI 02000 du Ple Paralllisme le de France Sud
(SGI IP27 systme 6.5), et la compilation, f90 -O2 ;
artemis est une machine IBM SP de lAntenne de Bretagne de lENS de Cachan (IBM
AIX systme 3), et la compilation, f77 -O2.
Les oprations dnommes daxpy (srie de 2 oprations en fait : addition et multiplication),
dscal (srie de multiplications), dgemv (calcul dun produit matrice A par vecteur x, pon-
dr par un coefcient et ajout un prcdent vecteur y, lui mme multipli par un co-
efcient ) sont appeles avec la librairie BLAS, dj mentionne. Lopration dnomme
y +Ax est donc lquivalent de dgemv, programm directement en Fortran. partir de
2. les performances du systme, du compilateur, les accs aux disques
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
10 RSOLUTIONDES SYSTMES LINAIRES
type dopration cot (10
8
s CPU)
(moyenne sur 10
8
termes) fronsac bacchus artemis
addition 5,2 (5,7 ; 7) 5,54 (6,2) 2,67
multiplication 5,2 (5,7 ; 7) 5,54 (6,2) 2,67
division 9 9 (11,7) 2,73
racine carre 9 14,5 (18,3) 18,2
daxpy 8,9 (9,6 ; 10) 4,66 (5,5) 2,02
dscal 4,97 (5,3 ; 6) 2,56 (3,9) 1,35
type dopration (moyenne sur cot (10
2
s CPU)
100 vecteurs de 1000 termes) fronsac bacchus artemis
y+Ax 4,95 (5,2) 3,4 (3,9) 0,84
dgemv - 2 (2,3) 1,1
tab. 1.1 - estimation du cot des oprations lmentaires
ces quelques rsultats, on peut tirer quelques conclusions : outre le fait quutiliser les op-
tions doptimisation des compilateurs est intressante, lutilisation de librairies (ici la BLAS)
est plus efcace que reprogrammer des routines lmentaires soi-mme. Enfait, lutilisation
de routines standards augmente la lisibilit du programme, permet de programmer un ni-
veau plus lev et donc rduit les temps de debuggage , et permet souvent datteindre de
meilleures performances, puisque ces librairies sont programmes de faon plus efcace
(souvent directement en assembleur) et sont optimises pour la machine sur laquelle elles
sont utilises.
Dautre part, pour lutilisateur normal, le cot effectif (en secondes CPU) dpend dun
grand nombre de paramtres comme lefcacit du compilateur, de lenvironnement de d-
veloppement, des temps de latence de la mmoire, des caches, de laccs aux disques, etc.
En particulier, le changement de version du systme dexploitation dune anne sur lautre
inue sur les rsultats du test prsent prcdemment.
1.3 Mthodes directes
Encore majoritairement employe dans les codes actuels pour leur robustesse, et dune pr-
vision ne du cot (nombre doprations, stockage ncessaire), elles deviennent coteuses
en temps et en encombrement lorsque le systme rsoudre devient trs grand. Pour plus
dinformations sur ces mthodes, on pourra avantageusement consulter [15].
1.3.1 Mthode dlimination de Gauss
Principe
On simplie le systme pour le rendre triangulaire suprieur par utilisation de combinaison
linaires de lignes (cest--dire dquations).
Prliminaire : limination de Gauss par bloc
crivons le systme rsoudre sous une forme de blocs :
_
_
A
11
A
12
A
21
A
22
_
_
_
x
1
x
2
_
=
_
b
1
b
2
_
(1.15)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.3 Mthodes directes 11
Si A
11
est inversible, la premire quation conduit exprimer x
1
en fonction de x
2
:
x
1
=A
1
11
(b
1
A
12
x
2
) (1.16)
En utilisant cette expression dans la deuxime quation, on se ramne un systme avec x
2
comme seule inconnue :
A
22
A
21
A
1
11
A
12
.
S
x
2
=b
2
A
21
A
1
11
b
1
.
c
(1.17)
Sest appel complment de Schur oumatrice condense sur les degrs de libert x
2
. Connais-
sant x
2
, on remonte x
1
avec (1.16). Le systme de dpart (1.15) est quivalent :
_
_
A
11
A
12
0 S
_
_
_
x
1
x
2
_
=
_
b
1
c
_
(1.18)
et on peut le rcrire :
_
_
I 0
A
21
A
1
11
I
_
_
_
_
A
11
A
12
0 S
_
_
.
A
_
x
1
x
2
_
=
_
_
I 0
A
21
A
1
11
I
_
_
_
b
1
c
_
(1.19)
Utilisation pour la factorisation LU
Si on prend comme bloc 11 la premire quation scalaire du systme, il faut avoir A
11
= 0
(cest le premier pivot). En continuant sous la forme de lquation (1.19), rcursivement sur
les sous-matrices qui restent, on obtient la factorisation A = LU (en n 1 tapes) avec U
(pour upper), matrice triangulaire suprieure et L (pour lower), matrice triangulaire inf-
rieure avec diagonale unitaire.
Pour des raisons defcacit de stockage, L et U crasent en mmoire A si on ne stocke
pas la diagonale de L quon sait unitaire. chaque itration k, la matrice de dpart A est
donc modie en une matrice A
(k)
.
Conditions demploi
Si chaque tape de la factorisation, le pivot A
(k1)
kk
est non nul, on peut progresser sans pro-
blme. La seule condition est que A soit inversible, mais quand on trouve un pivot nul, il faut
procder des changes dquations. En pratique, on a bien entendu aussi des problmes
si le pivot est petit en valeur absolue ; il est parfois conseill de procder systmatiquement
un pivotage. Cette opration est cependant coteuse en terme daccs et de transfert de
donnes en mmoire, surtout si elle ncessite des accs aux disques. Si la matrice assem-
ble est initialement bande, les permutations dtruisent gnralement cette proprit, ce
qui peut alors devenir trs pnalisant.
Stratgies de choix du pivot
Il peut sagir du pivotage partiel ou du pivotage total :
pivotage partiel
on choisit dans la mme colonne k que celle du pivot changer, la ligne l telle que :
|A
l ,k
| = max
m=k,...,n
|A
m,k
| (1.20)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
12 RSOLUTIONDES SYSTMES LINAIRES
pour remplacer le pivot ;
pivotage total
on peut aussi permuter les colonnes ; on cherche alors le nouveau pivot dans toute la
sous-matrice restant traiter, on choisit donc la ligne l et la colonne c telles que :
|A
l ,c
| = max
m,p=k,...,n
|A
m,p
| (1.21)
Particularits
Sans recours au pivotage, il y a unicit de la factorisation. Dans le cas o il est ncessaire
de traiter plusieurs second membres, on opre simultanment sur les b. Si les rsolutions
doivent tre ralises successivement, et pour chaque autre second membre b

, on rsoud :
LUx

=b

(1.22)
par rsolution de Ly

=b

appele descente ;
puis par rsolution de Ux

=y

appele monte.
chaque fois, il ne sagit plus que de rsoudre un systme triangulaire (suprieur ou in-
frieur). On peut dautre part calculer faible cot le dterminant de A une fois que lon
connat sa dcomposition LU:
det A=det(LU) =det Ldet U=det U=

k=1,n
U
k,k
(1.23)
Complexit
Dans le cas dune matrice stocke pleine, la factorisation LUncessite
n
3
3
oprations ; une
monte (ou 1 descente) ncessite quant elle
n
2
2
oprations.
1.3.2 Factorisation de Cholesky
Cette technique a t dcrite pour la premire fois dans [16] en 1924.
Caractristiques de la mthode
Mme ide que la factorisation LU quand A est symtrique et inversible : A = B
T
B avec B
diagonale positive. Dans le cas, le stockage et le calcul ne portent que sur un peu plus de la
moiti de la matrice, par exemple sur sa partie infrieure.
Proprit
Si A est symtrique, dnie, positive (donc inversible), il nest pas utile de pivoter.
Complexit
Pour A pleine, la factorisation B
T
B require environ n
3
/6 oprations. Pour A bande, la facto-
risation B
T
B require approximativement nl
2
b
/2 oprations, une monte (ou une descente)
cote de lordre de nl
b
oprations. Le stockage ncessite aux alentours de nl
b
rels (gn-
ralement 8 octets). De faon courante, on a l
b
n
3
.
Unexemple dutilisation de cette factorisationpour lorthogonalisation des vecteurs dun
sous-espace est prsente dans lannexe A.
3.
l
b
n
=
1
10

1
100
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.3 Mthodes directes 13
1.3.3 Factorisation de Crout
boucle sur j =1, 2, . . . , n
boucle sur i =1, 2, . . . , j 1
v
i
A
j ,i
A
i ,i
n
v
j
A
j ,j
A
j ,1:j 1
v
1:j 1
A
j ,j
v
j
A
j +1:n,j

1
v
j
(A
j +1:n,j
A
j +1:n,1:j 1
v
1:j 1
)
n
alg. 1.2 - Factorisation LDL
T
stocke pleine
Cest la mthode la plus employe. La factori-
sation se met sous la forme A = LDL
T
avec L
triangulaire infrieure diagonale unitaire et D
diagonale. Cette factorisation sapplique pour
A symtrique, dnie positive, mais traite aussi
les cas o les valeurs propres sont ngatives ou
nulles.
Complexit
Elle est identique celle de la factorisation de
Cholesky, mais on na plus besoin dextraire n racines carres (pour la diagonale).
Lalgorithme 1.3.3 prsente cette factorisation dans le cas dune matrice symtrique A
stocke pleine. Il require lutilisation dun vecteur v supplmentaire. Sans pivotage, comme
pour Cholesky et pour Gauss, la factorisation conserve le prol de la matrice crase en
mmoire, comme on le verra dans la suite.
1.3.4 Lien avec la condensation de Schur
Super-lments
zone dintrt particulier
S
i
b
g. 1.3 - Utilisation dun super-lment
Comme ctait le cas pour la factorisation
LU, la factorisation de Cholesky ou Crout est
trs lie la condensation de Schur. Dans le
cas des lments nis, on peut btir ainsi la
notion de super-lment. Considrons une
partie dune structure qui reprsente une
zone dintrt particulier (par exemple, une
zone qui reste en lasticit alors que le reste
de la structure plastie, o une zone dans la-
quelle des fonctions de bases particulires ont t ajoutes comme dans la mthode de par-
tition de lunit. . . ) et qui a t maille par lments nis, gure 1.3. Linterface avec le reste
de la structure se fait par le bord de cette zone. Notons avec un indice i les degrs de liberts
des nuds strictement internes cette zone et b ceux des nuds de linterface, alors :
K=
_
_
K
i i
K
i b
K
bi
K
bb
_
_
(1.24)
Si on condense sur les nuds bord on obtient :
S =K
bb
K
bi
K
1
i i
K
i b
(1.25)
cest la matrice de rigidit du super-lment considr. Elle est similaire une matrice de
rigidit lmentaire, pour un lment qui peut tre lui-mme une petite structure.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
14 RSOLUTIONDES SYSTMES LINAIRES
Conservation de la bande
La gure 1.4 montre, litration k, cest--dire lors de la condensation de linconnue k sur
les suivantes, les termes de la matrice qui vont tre touchs, autrement dit, ceux qui a priori
sont ou deviennent non-nuls. Clairement, la bande est conserve lors de la factorisation. On
peut de la mme faon montrer que seuls les termes sous le prol sont modis, et donc que
la factorisation conserve le prol de la matrice.
1.3.5 Autres techniques
k
k
coefcients
modis
ltape k
g. 1.4 - tape k de la
factorisation
Ladaptation de la factorisation de Crout au cas o A est
non-symtrique est classique, cest la factorisation LDM
T
.
Dautres variantes des techniques prcdentes per-
mettent de tirer mieux parti des conditions de stockage, en
particulier pour optimiser les changes de donnes avec
la partie des informations stockes sur disque, comme la
mthode frontale [17].
Dautres versions encore permettent de raliser des
factorisations en parallle de faon assez performante,
comme les mthodes multi-frontales [18].
1.4 Quelques particularits en lments nis
1.4.1 Conditions aux limites en dplacement
La prise en compte de dplacements imposs non-nuls a une inuence sur lutilisation des
solveurs dans le sens o la matrice de rigidit est modie par ces contraintes.
Sparation des degrs de libert
Le problme correspondant de minimisation du potentiel sous contrainte est le suivant :
min
Cu=u
d
J
1
(u) =
1
2
u
T
Kuf
T
u (1.26)
Cest une matrice boolenne dont le but est dextraire une partie des degrs de liberts, ceux
sur lesquels la condition dgalit aux dplacements imposs u
d
est impose.
Reprenons lcriture par blocs dj prsents dans lquation (1.15) en sparant les de-
grs de libert imposs u
2
=Cu =u
d
. Le problme (1.26) est ainsi quivalent :
min
u
1
1
2
u
T
1
K
11
u
1
f
T
1
u
1
+u
T
1
K
12
u
d
+constante (1.27)
dont lquation dEuler correspondante est K
11
u
1
= f
1
K
12
u
d
. On a ainsi un problme de
taille rduite o les charges extrieures sont modies par le terme K
12
u
d
4
. Cette mthode
est effectivement employe dans des codes comme abaqus
TM
. Linconvnient de cette m-
thode rside dans le tri explicite ncessaire dans les degrs de libert qui rempli donc le
4. ce sont les ractions lappui qui permettent davoir un dplacement bien gal u
d
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.4 Quelques particularits en lments nis 15
terme K
12
, et qui entrane un surcot important lorsque le nombre de degrs de libert blo-
qus est grand.
Multiplicateurs de Lagrange
Une autre technique consiste reformuler le problme (1.26) en relaxant la contrainte
laide de multiplicateur de Lagrange l et donc de transformer le problme de minimum en
celui de la recherche du point selle du Lagrangien :
extr
u,l
J
1
(u) l
T
(Cuu
d
) (1.28)
Il nest plus ncessaire de sparer les degrs de liberts, mais la taille du problme a aug-
ment ; en effet les quations dEuler sont cette fois :
_
_
K C
T
C 0
_
_
.
A
_
u
l
_
=
_
f
u
d
_
(1.29)
On peut remarquer que la premire quation montre que les multiplicateurs de Lagrange
sont bien les ractions lappui.
Linconvnient vient du fait que la taille du problme augmente, et du fait que A est une
matrice symtrique mais plus dnie positive ; elle possde des valeurs propres ngatives.
On a cependant le rsultat suivant si K est symtrique, dnie positive :
A inversible C injective kerrC= (1.30)
cest--dire que lon ncrit que des liaisons indpendantes. Une factorisationde Gauss risque
de dtruire la structure bande de la matrice K et la factorisation de Crout va demander des
pivotages.
Une modication de cette technique permet, avec une numrotation adhoc qui conserve
la bande, de ne pas avoir besoin de pivoter. Il sagit dune technique de double multiplica-
teurs utilise dans le code Cast3M
TM
. Elle peut tre illustre de la manire suivante :
extr
u,l
1
,l
2
J
1
(u) +
1
2
_
_
_
_
_
l
1
l
2
u
_
_
_
_
_
T
_
_
_
_
_
1 1 1
1 1 1
1 1 0
_
_
_
_
_
_
_
_
_
_
l
1
l
2
u
2
_
_
_
_
_

_
u
d
u
d
_
T
_
l
1
l
2
_
.

1
2
(l
1
l
2
)
2
+(l
1
+l
2
)
T
(Cu u
d
)
(1.31)
dont les quations dEuler sont :
Ku =f C
T
(l
1
+l
2
)
l
1
=l
2
Cu =u
d
(1.32)
Bien entendu, en cas de nombreux blocages, la taille du problme crot en consquence.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
16 RSOLUTIONDES SYSTMES LINAIRES
Valeurs trs grandes
On peut aussi considrer une condition aux limites en dplacement impos comme une
modlisation de laction de lextrieur. Celui-ci pourrait aussi ragir comme un ressort ayant
une grande raideur k, avec un dplacement impos la base. Le potentiel lastique de len-
semble structure + ressort extrieur est alors :
J
1
(u) +
1
2
(Cuu
d
)
T
k(Cuu
d
) (1.33)
Les nouvelles quations dEuler de cette formulation sont alors :
(K+C
T
kC)u =f +C
T
kCu
d
(1.34)
On ne fait donc que rajouter des termes dans la matrice de raideur sur les degrs de liberts
incrimins et dans le vecteur des forces gnralises sur les efforts duaux.
Le problme est le choix de k : pour des valeurs trop petites, la condition est mal impo-
se, pour des valeurs trop grandes, le systme devient extrmement mal conditionn, voire
numriquement singulier.
1.4.2 Relations linaires entre degrs de libert
Cette situation se prsente par exemple fans le cas dutilisation de symtrie par rapport
un plan non parallle un des plan des axes globaux de lanalyse, dans le cas de conditions
aux limite priodiques sur une cellule de base. . . chaque fois, il sagit de contraintes de
la forme Cu =u
d
o C nest cette fois-ci pas forcment boolenne. Les techniques prc-
dentes sappliquent bien entendu sur ces cas de gure tout aussi bien. . . et avec les mmes
limitations.
1.4.3 Systme singulier : semi dni positif
Exemple
Les exemples sont nombreux : il sagit de structure avec des modes rigides, de problmes de
sous-intgration. . . il y a alors des dplacements non nuls nergie de dformation nulle,
autrement dit des modes rigides :
1
2
u
T
Ku =0 (1.35)
Dans la suite, on sintressera au cas o cas est A symtrique, sachant que la gnralisation
est tout fait possible.
Noyau
Lensemble des solutions indpendantes, stockes dans les colonne de R, telles que AR =0,
forme le noyau de A. Sil y en a p, le rang de A est n p.
Existence de solutions
Pour quil existe des solutions, une condition ncessaire et sufsante est que b soit orthogo-
nal au noyau de A, cest--dire R
T
b = 0. Exemple : les efforts ne sollicitent pas les modes de
solide rigide.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.5 Mthodes itratives stationnaires 17
Si A est non symtrique, la condition est que b appartienne au noyau adjoint de A.
Si x
0
est une solution de ce systme, lensemble des solutions est de la forme x
0
+R
o est quelconque.
Inverses gnralises (ou pseudo-inverses)
A
+
telle que AA
+
A = A. Si A est inversible, il ny a quune pseudo-inverse A
+
= A
1
. Pour
A symtrique, toutes les pseudo-inverses sont de la forme A
+
+ B
T
R
T
+ RB, avec B quel-
conque [19].
Factorisation et construction dune inverse gnralise
Supposons que le systme puisse scrire sous la forme de blocs limage de (1.15), o A
11
est la plus grande sous-matrice rgulire. On a alors S = A
22
A
21
A
1
11
A
12
= 0. Une pseudo-
inverse de A est :
_
_
A
1
11
0
0 0
_
_
(1.36)
et la solution est :
_
x
1
x
2
_
=
_
A
1
11
b
1
0
_
.
x
0
+
_
_
A
12
I
d
_
_
.
R
x
2
.

(1.37)
La factorisation fait progresser llimination tant quun pivot non nul existe. Dans notre cas,
avec pivotage, on tombe sur une sous-matrice nulle. Pour les matrices semi-dnies, il nest
pas ncessaire de pivoter car un pivot nul apparat lorsque la ligne du pivot est une com-
binaison linaire des prcdentes. Linconnue correspondante est repre et xe 0, voir
x
0
dans (1.37), cest--dire quon ajoute des liaisons complmentaires pour xer les modes
de solide rigide condition que le terme correspondant au second membre condens
soit nul aussi. La colonne correspondante de la matrice stocke le vecteur associ, voir R
dans (1.37).
1.5 Mthodes itratives stationnaires
De manire gnrale avec les techniques itratives, il faut se poser des questions telles que :
quelles sont les conditions demploi de ces techniques an dassurer la convergence
vers la solution cherche ?
quel critre darrt des itrations employer ?
quels sont les cots de ces mthodes ?
Dans le cas des mthodes itratives stationnaires, on rencontre les particularits suivantes :
on accde Auniquement par le produit Aw(phase la plus coteuse). ventuellement,
comme en lments nis, on peut le faire sous forme lmentaire :
Aw=

e
A
e
w
e
(1.38)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
18 RSOLUTIONDES SYSTMES LINAIRES
on construit une suite de solutions approches :
x
(k)

k
A
1
b (1.39)
partir dune rcurrence linaire x
(k)
=Bx
(k1)
+c o B et c sont indpendantes de k
5
.
Ce sont des mthodes de type point xe : si on converge, cest vers :
x =Bx +c (x
(k)
x) =B(x
(k1)
x) (1.40)
Pour avoir x
(k)
x
k
0, il faut et il suft que (B) <1 o (B) est le rayon spectral de B :
cest le sup des valeurs absolues des valeurs propres de B. Le taux de convergence asympto-
tique est dni par :
=ln(B) (1.41)
Il peut servir estimer le nombre ditrations ncessaire pour atteindre le niveau de conver-
gence souhait ; en effet on a :
(x
(k)
x) =B
k
(x
(0)
x)
x
(k)
x
x
(0)
x
B
k
ln
x
(k)
x
x
(0)
x
k (1.42)
Lintrt est de pouvoir estimer le nombre ditrations ncessaires pour diviser le niveau
derreur par un coefcient donn (utilisation dun critre darrt), connaissant le taux de
convergence asymptotique de la mthode. Pour plus dinformations sur les mthodes itra-
tives stationnaires, le lecteur pourra consulter [20].
1.5.1 Mthode de Jacobi
Vecteur de dpart x
(0)
tant que R>
itration sur k
boucle sur i =1, n
x
i
A
i ,1:i 1
x
(k1)
1:i 1
+A
i ,i +1:n
x
(k1)
i +1:n
x
i
(b
i
x
i
)/A
i ,i
n
x
(k)
x
n
alg. 1.5 - Mthode de Jacobi
Pour les systmes linaires, cette mthode, dalgo-
rithme 1.5, est dcrite pour mmoire seulement,
car elle possde un faible taux de convergence et
dans nos applications, est remplace par dautre
techniques plus efcaces. Elle illustre cependant
bien les techniques de point xe : si on suppose
connues toutes les inconnues sauf linconnue i ,
cette dernire peut tre dtermine laide de
lquation i . Procdant ainsi sur toutes les incon-
nues, on obtient un nouvel itr x
k
partir de lan-
cien x
k1
. Cependant, comme la mthode de Gauss-Seidel, elle peut prsenter un intrt
dans le cas de systmes non-linaires. Sous forme matricielle, cela se traduit par :
x
k
=(I D
1
A)x
k1
+D
1
b (1.43)
o D est la matrice diagonale, contenant la diagonale de A. La matrice ditration est donc
ici B=I D
1
A. On peut noter lutilisation dun vecteur de stockage x supplmentaire.
5. Cette caractristique nexiste pas pour les mthodes non stationnaires.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.5 Mthodes itratives stationnaires 19
Convergence
Si A est symtrique, dnie positive, alors
J
= (B) < 1, mais en lments nis, on a une
valuation de ce rayon spectral qui varie comme :

J
=1
h
2
2
+(h
4
) (1.44)
do untaux de convergence faible lorsque le maillage est rafn (donc lorsque h est faible) :

h
2
2
(1.45)
1.5.2 Mthode de Gauss-Seidel
Vecteur de dpart x
(0)
tant que R>
itration sur k
boucle sur i =1, 2, . . . , n
x
(k1)
i
0
A
i ,1:n
x
(k1)
1:n
x
(k)
i
(b
i
)/A
i ,i
n
n
alg. 1.6 - Mthode de
Gauss-Seidel
Lide est similaire celle de la mthode de Jacobi, ceci
prs que lon utilise les nouvelles valeurs estimes ds
quelles sont disponibles, et non pas la n de litration.
Sous forme matricielle, cela se traduit par :
x
k
=(DE)
1
(Fx
k1
+b) (1.46)
o E est la partie triangulaire infrieure de A, et F sa
partie triangulaire suprieure. La matrice ditration est
ici :
B=(DE)
1
F =(I D
1
E)
1
D
1
F (1.47)
Quand A est symtrique, dnie positive, on est assur de la convergence puisque
GS
< 1.
Mais lestimation de la valeur du rayon spectral est difcile cas il dpend en particulier de la
numrotation des degrs de libert employe.
1.5.3 Mthode de relaxation
Cette technique, SORpour successive over relaxation, est attribue Southwell [21] et date de
1946. Elle utilise comme base la mthode de Gauss-Seidel ainsi quune technique mainte-
Vecteur de dpart x
(0)
tant que R>
itration sur k
boucle sur i =1, 2, . . . , n
x
(k1)
i
x
(k1)
i
0
A
i ,1:n
x
(k1)
1:n
x
(k)
i
(1)+
n
n
alg. 1.7 - Mthode SOR
nant souvent utilise avec dautre approches : la tech-
nique de relaxation.
Le principe, expliqu par lalgorithme 1.7, consiste
modier (par relaxation) litr x
k
fourni par lalgo-
rithme de Gauss-Seidel chaque itration. Pour cela, il
faut conserver litr prcdent x
k1
et modier litr
courant comme suit :
x
k
x
k
+(1 )x
k1
(1.48)
o est appel le paramtre de relaxation. Si < 1, on
parle de sous-relaxation, et si >1, de sur-relaxation. On peut montrer que la matrice dit-
ration correspondante est :
B=(I D
1
E)
1
[(1 )I +D
1
F] (1.49)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
20 RSOLUTIONDES SYSTMES LINAIRES
Concernant la convergence, le thorme de Kahan donne une condition ncessaire : 0 <
< 2. Si = 0, lalgorithme ne progresse plus. Le thorme dOstrowski-Reich permet de
conclure la convergence ]0, 2[ quand A est symtrique, dnie positive.
Vecteur de dpart x
(0)
tant que R>
itration sur k
boucle sur i =1, 2, . . . , n
x
i
A
i ,1:i 1
x
(k1)
1:i 1
+A
i ,i +1:n
x
(k1)
i +1:n
x
i
(b
i
x
i
)/A
i ,i
n
x
(k)
x
(k1)
+( xx
(k1)
)
n
alg. 1.8 - Mthode de Jacobi relaxe
Le choix de est fait partir dheuristiques,
comme = 2 (h) pour une discrtisation
lments nis dont la taille de maille est h. Il
existe aussi des techniques doptimisation de
en cours de route, comme la technique daccl-
ration dAitken, voir annexe C.
On peut aussi sinspirer de rsultats dans des
cas particuliers. Par exemple dans un cas tridia-
gonal bloc, on montre que la valeur optimale de
est :

opt
=
2
1 +
_
1
2
J
(1.50)
La valeur de
J
est ainsi estimer sur le problme en question. On a alors
SOR
=
opt
1, et,
dans le cas lments nis, 2h (un ordre est gagn par rapport la mthode de Jacobi).
La technique de relaxation peut tre applique dautres algorithmes. Par exemple, un
algorithme de Jacobi relax scrit sous la forme donne dans lalgorithme 1.8.
1.5.4 Mthode dUzawa
Dans certains cas de gure comme les problmes de point selle ou les liaisons traites par
multiplicateur de Lagrange par exemple, on peut tre amen rsoudre des problmes de
la forme :
_
_
K C
C
T
0
_
_
_
x
l
_
=
_
f
g
_
(1.51)
Vecteurs de dpart x
(0)
, l
(0)
tant que R>, itrer sur k
rsoudre Kx
(k)
=bCl
(k1)
ractualiser l
(k)
l
(k1)
+(C
T
x
(k)
c)
n
alg. 1.9 - Mthode dUzawa
Pour que le problme continue dtre inver-
sible, il suft que C soit injective.
La mthode dUzawa dveloppe en 1958
consiste rsoudre itrativement de faon d-
couple, comme le montre lalgorithme 1.9 o
est un paramtre de la mthode. Pour analyser
cet algorithme, on peut condenser la variable x
(k)
sur la variable l
(k)
pour trouver :
l
(k)
=(I C
T
K
1
C)
.
B
l
(k1)
+(C
T
K
1
f g) (1.52)
Si on appelle
1
, . . . ,
p
, les valeurs propres de la matrice C
T
K
1
C, on en dduit lquivalence
suivante :
(B) <1 i , |1
i
| <1 (1.53)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.6 Mthodes itratives non-stationnaires 21
Avec C
T
K
1
C symtrique, dnie positive,
i
>0 donc il faut prendre :
0 <<
2
max
i

i
(1.54)
1.6 Mthodes itratives non-stationnaires
Ces mthodes se dcrivent de la mme faon que les prcdentes, ceci prs que les opra-
teurs B et c dpendent des itrations.
1.6.1 Mthode gnrique de projection
Reformulons le problme de dpart en dnissant le rsidu :
r =bAx (1.55)
bAx
x

g. 1.10 - Rduction dans


un sous-espace
Il sagit maintenant davoir r =0. Lide est ici de se trouver
avec un problme de plus petite taille, de structure plus
simple (par exemple, tridiagonal) par plusieurs tapes de
projection.
Considrons unsous-espace de lespace dans lequel
la solution est cherche. Le problme approch est dni
par x = Q x avec bAx , comme dcrit sur la -
gure 1.10. Il est clair que si est lespace complet, ce problme est le problme de dpart.
Dans tous les cas, il conduit :
Q
T
(bAQ x) =0 (Q
T
AQ)
.

A
x = Q
T
b
.

b
(1.56)
Une mthode de projection peut donc se schmatiser de la faon suivante :
1. r bAx
2. x =

A
1
Q
T
r
3. x x+Q x
4. itration suivante
Le choix de Q chaque itration dpend bien entendu de la mthode employe.
1.6.2 Mthode du gradient
Pour A symtrique, dnie positive, la solution approche est modie de la manire sui-
vante :
x
(k+1)
x
(k)
+
(k)
d
(k)
(1.57)
o d
(k)
est la direction de recherche dans la direction du gradient :
d
(k)
=Ax
(k)
b (1.58)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
22 RSOLUTIONDES SYSTMES LINAIRES

(k)
est le paramtre doptimalit de la nouvelle solution dans la direction d
(k)
. Il se calcule
comme :

(k)
=
d
(k)
T
(bAx
(k)
)
d
(k)
T
Ad
(k)
=
d
(k)
T
d
(k)
d
(k)
T
Ad
(k)
(1.59)
Il sagit dune mthode de projection pour laquelle la taille du sous-espace est 1 car on choi-
sit pour Q le sous-espace gnr par le seul vecteur rsidu Q=r.
La convergence de cette mthode est assez lente, do lintervention dune technique de
conjugaison pour la mthode suivante.
1.6.3 Mthode du gradient conjugu
Cette mthode est gnralement attribue Hestenes et Stiefel [22] en 1952. Elle est utilise
dans le cas o A est symtrique, dnie positive.
Description de la mthode
Linitialisation consiste choisir un vecteur de dpart x
(0)
, calculer le rsidu associ r
(0)
=
bAx
(0)
et de prendre comme premire direction de recherche d
(0)
=r
(0)
.
Les itrations sont ensuite de la forme :
1. itr x
(k+1)
=x
(k)
+
(k)
d
(k)
avec le pas optimal

(k)
=
r
(k)
T
d
(k)
d
(k)
T
Ad
(k)
=
r
(k)
T
r
(k)
d
(k)
T
Ad
(k)
(1.60)
2. rsidu r
(k+1)
=bAx
(k+1)
3. direction de recherche d
(k+1)
= r
(k+1)
+
(k)
d
(k)
quon orthogonalise par rapport la
prcdente :
d
(k+1)
T
d
(k)
=0
(k)
=
r
(k+1)
T
Ad
(k)
d
(k)
T
Ad
(k)
=
r
(k+1)
T
r
(k+1)
r
(k)
T
r
(k)
(1.61)
4. itration suivante
Proprits
Si i < j , alors r
(i )
T
r
(j )
= 0 = d
(i )
T
r
(j )
= d
(i )
T
Ad
(j )
= r
(i )
T
Ad
(j )
. On construit donc des vecteurs
orthogonaux au sens de A, d
(0)
, d
(1)
, . . . qui forment donc une base. On minimise chaque
fois sur un sous-espace de taille de plus en plus grande.
En thorie, cette mthode est donc une mthode directe en n tapes. En pratique, on a
progressivement perte dorthogonalit due aux arrondis, cest donc en ce sens une mthode
itrative.
On a alors la proprit de convergence suivante :
x
(k)
x
A
2
_
_
_

condA1

condA+1
_
_
_
(k)
x
(0)
x
A
(1.62)
do, en lments nis :
=
_
1

condA
_
=(h) (1.63)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
1.7 Critres darrt 23
1.6.4 Prconditionnement
Vecteur de dpart x
(0)
Rsidu dquilibre r
(0)
bAx
(0)
tant que R >, itrer sur k
rsoudre Mz
(k1)
=r
(k1)

k1
r
(k1)
T
z
(k1)
si k =1 alors
d
(1)
z
(0)
sinon

k1


k1

k2
d
(k)
z
(k1)
+
k1
d
(k1)
n
q
(k)
Ad
(k)

k


k1
d
(k)
T
q
(k)
x
(k)
x
(k1)
+
k
d
(k)
r
(k)
b
(k)
Ax
(k)
=r
(k1)

k
q
(k)
n
alg. 1.11 - Gradient conjugu
prconditionn
Si on peut avoir facilement une approximation
spectrale M de A, lide est de chercher r-
soudre :
M
1
Ax =M
1
b (1.64)
M symtrique, dnie positive. Ce problme de-
vient non symtrique, mais on peut lui substi-
tuer :
_
M
1/2
AM
1/2
_
M
1/2
x =M
1/2
b (1.65)
Le choix du prconditionneur dpend du pro-
blme traiter. Dans le meilleur des cas, il est fa-
cile inverser et reprsente bien la matrice A. En
fait, si M = I il est facile inverser, mais est trs
diffrent de A, et si M = A il y a convergence en
une itration, mais dans laquelle il faut rsoudre
le problme de dpart !
La convergence est cette fois-ci en :
=
_
_
_
1

condM
1
A
_
_
_
(1.66)
Comme exemples de prconditionneurs classiques, ona la factorisationde Cholesky incom-
plte, SSOR, etc. Lalgorithme 1.11 prsente cette mthode. Le choix et le dveloppement de
prconditionneurs adapts font encore aujourdhui lobjet de recherches.
1.6.5 Autres mthodes itratives
Pour information, on peut citer :
les mthodes dites rapides ddies des applications particulires : Fourier ((n logn)),
multigrilles ( (n)) ;
pour A symtrique et dnie : Chebyshev [23] ;
pour A symtrique mais non dnie : MinRES (rsidu minimum, minimal residual),
SymmLQ (symmetric LQ) [24] ;
pour A non symtrique connaissant A
T
: QMR (quasi minimal residual) [25] ;
pour A non symtrique : CGS (conjugate gradient square) [26], BiCGStab (bi-conjugate
gradient stabilized) [27], GMRES (generalized minimal residual) [28], GMRES restar-
ted. . .
1.7 Critres darrt
Le critre darrt recherch est celui de lcart en solution tel que e
(k)
= x
(k)
x soit suf-
samment petit. Malheureusement, x est la solution convergence et on ne peut atteindre
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
24 RSOLUTIONDES SYSTMES LINAIRES
lerreur en solution au cours des itrations. La quantit que lon peut esprer atteindre est
lie au rsidu :
r
(k)
=bAx
(k)
=Ae
(k)
(1.67)
Un critre souvent employ est le suivant :
r
(k)

Ax
(k)
+b
< (1.68)
o est un seuil x a priori, que lon peut quantier par rapport la prcision souhaite et
la prcision machine. Parfois, on remplace au dnominateur Ax
(k)
par b. Le problme
vient du fait, comme on a dj pu le voir dans un exemple, que lerreur en solution et le
rsidu sont lis de la faon suivante :
e
(k)
A
1
(1.69)
donc :
r
(k)
b
<
e
(k)
x
<condA (1.70)
et, en tout tat de cause, le paramtre devrait tre choisi aussi fonction du conditionne-
ment de A, quil faut donc estimer pour chaque problme trait.
Des critres darrt en cas de non-convergence sont aussi mis en place. Par exemple,
r
(k)
dcrot trop lentement ou ne dcrot plus (mais il faut faire attention aux plateaux
possibles avec certaines mthodes), ou la rsolution est trop longue (critre en nombre maxi
ditrations). Il sagit alors de sortie en cas derreur.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2
SYSTMES AUX
VALEURS PROPRES
On considre ici les problmes, dits aux valeurs propres, de la forme : trouver les caractris-
tiques propres, cest--dire les couples (, x) o x = 0 tels que Ax = x et lon se restreindra
aux cas o A est symtrique.
Un problme aux valeurs propres gnralis est de la forme Kx =
2
Mx, avec x = 0, K
symtrique, dnie positive et Msymtrique positive. Dans ce cas, on peut utiliser la factori-
sation de Cholesky de M, soit M=LL
T
et avec y =L
T
x, on est ramen au problme prcdent
L
1
KL
T
y =
2
y.
En gnral, dans les problmes qui nous concernent, on ne veut quenviron 30 valeurs
et/ou vecteurs propres, de prfrence basse frquence (dynamique lente, vibrations [29,
30, 31], ambage. . . ). Dans le cas o il y a de lamortissement, le systme rsoudre est :
M x+C x+Kx =f(t ) (2.1)
La matrice damortissement, C, est souvent mal matrise et si lamortissement est peu in-
uent basse frquence, ce qui nest pas vident pour tous les cas, on est ramen :
M x+Kx =f(t ) (2.2)
Avec une discrtisation lments nis standard, les hautes frquences obtenues numrique-
ment sont loignes des vraies.
Enn, on prvoit parfois davoir des problmes si les valeurs propres sont mal spares,
proches ou mme confondues en cas de symtries, par exemple. Une rfrence de base
concernant ces problmes est [32, 33].
2.1 Prliminaires
2.1.1 Rappels
Matrice quelconque
est valeur propre de A ssi det(AI) =0. Dans , A admet n valeurs propres distinctes ou
non, relles ou complexes. A a n valeurs propres distinctes ssi A est diagonalisable.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
26 SYSTMES AUX VALEURS PROPRES
Matrice relle
A est symtrique ssi A est diagonalisable dans . A est symtrique, dnie positive ssi :
toutes les valeurs propres sont strictement positives ;
B symtrique, dnie positive telle que A=B
2
.
Dans , A admet n valeurs propres distinctes ou non, relles ou complexes. A a n valeurs
propres distinctes implique que A est diagonalisable.
Quotient de Rayleigh pour une matrice relle, symtrique
Le quotient de Rayleigh est dni comme tant, pour x =0 :
R(x) =
x
T
Ax
x
T
x
ou R(x) =
x
T
Kx
x
T
Mx
(2.3)
Il vient alors lquivalence suivante :
(, x) est caractristique propre de A
_
R est extremum en x =0
R(x) =
(2.4)
La i
e
valeur propre
i
est le minimumde R(x), x =0 sur le sous espace orthogonal aux prc-
dents vecteurs propres. De plus, endimensionnie, la valeur propre maxi est
n
=max
x=0
R(x)
dans lespace complet de dimension n.
2.1.2 Domaine demploi des direntes mthodes
En comparaison de la rsolution dun systme linaire, la rsolution dun systme aux va-
leurs propres est beaucoup plus coteuse. En fait, il sagit dun problme non-linaire, et
beaucoup de mthodes sappuient sur la rsolution dune succession de systmes linaires,
eninterne. Elles souffriront alors des problmes affectant ces solveurs, enparticulier le mau-
vais conditionnement. Lordre de grandeur de la taille des systmes aux valeurs propres que
lon va considrer dans cette partie est de lordre de n =250 n =25000.
La premire mthode est celle de lquation caractristique. On peut en effet recher-
cher les zros du polynme caractristique de la matrice, mais si les coefcients de ce po-
lynme peuvent tre assez facilement atteints, une petite perturbation sur ceux-ci conduit
dnormes variations sur ses racines. Cette mthode est donc rserve des tailles de sys-
tme rduites, jusqu n 10. On peut montrer mathmatiquement que, ds que n 5, la
mthode employe ne peut tre quitrative : le problme ne peut plus tre rsolu numri-
quement en un nombre ni doprations.
Les mthodes de Jacobi, des puissances et de Householder vont ensuite pouvoir tre em-
ployes pour des systmes dont la taille va jusqu n 250.
Au del, elle doivent tre adaptes un stockage bande, et le remplissage des matrices
au cours des itrations doit tre tudi. Avec les mthodes de rduction, ces techniques per-
mettent datteindre des systmes dont la taille va jusqu n 2500.
Jusqu n 25000, les mthodes des puissances, plus ou moins couples aux mthodes
de sous-espaces, la mthode de Lanczos avec stratgie de rorthogonalisation permettent
encore de traiter le problme.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2.2 Mthode de Jacobi 27
Pour dpasser ces tailles de problme, il est ensuite ncessaire de faire appel des tech-
niques particulires. Par exemple, les techniques de paralllisation, vectorisation, optimisa-
tion des entres-sorties, les mthodes de condensation et sous-structuration (Guyan-Irons,
Craig-Bampton. . . ) Ces dernires mthodes ne seront pas tudies ici.
2.2 Mthode de Jacobi
Cette mthode, datant de 1846 [34], est dcrite ici, dans le cas particulier o A est sym-
trique, des ns de rappel uniquement puisquelle est peu efcace pour les problmes qui
nous concernent.
tant que R>, itrer sur k
choix du terme annuler A
p,q

A
(k1)
q,q
A
(k1)
p,p
2A
(k1)
p,q
calcul de la tangente t
calcul du cosinus c 1/
_
1+t
2
calcul du sinus s ct
A
(k)
A
(k1)
A
(k)
p,1:n
cA
(k1)
p,1:n
s A
(k1)
q,1:n
A
(k)
q,1:n
s A
(k1)
p,1:n
+cA
(k1)
q,1:n
A
(k)
p,p
A
(k1)
p,p
t A
(k1)
p,q
A
(k)
q,q
A
(k1)
q,q
+t A
(k1)
p,q
A
(k)
p,q
0
A
(k)
q,p
0
n
alg. 2.1 - Mthode de Jacobi
Dans cette mthode, on cherche ramener la
matrice A une forme diagonale pour trouver tous
ses valeurs propres et vecteurs propres, et ce par
une squence de transformations orthogonales :
A
(k+1)
=R
(k)
T
A
(k)
R
(k)
(2.5)
avec les rotations R
(k)
vriant R
(k)
T
R
(k)
=I, trans-
formations qui sont des changements de base
de type isomtries ne modiant pas les valeurs
propres.
Oncommence par chercher llment hors dia-
gonale de module maximal :
|A
(k)
p,q
| =max
i =j
|A
(k)
i ,j
| (2.6)
On construit alors la matrice de rotation dun angle ad hoc dans le plan (e
p
, e
q
) de faon
annuler dans litr suivant les termes A
(k+1)
q,p
et A
(k+1)
p,q
:
R
(k)
=1 +(cos 1)(e
p
e
T
p
+e
q
e
T
q
) +(sin 1)e
p
e
T
p
(sin +1)e
q
e
T
q
(2.7)
avec :
A
(k+1)
p,q
=
1
2
sin2
_
A
(k)
p,p
A
(k)
q,q
_
+
1
2
cos2A
(k)
p,q
=0 (2.8)
ce qui entrane :
cotan2 =
A
(k)
p,p
A
(k)
q,q
A
(k)
p,q
(2.9)
Seuls changent les termes sur les lignes ou colonnes p ou q. Dans lalgorithme 2.1, la tan-
gente t est calcule comme suit :
t =
_
_
_
1 si =0
+sgn()
_
1 +
2
sinon
(2.10)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
28 SYSTMES AUX VALEURS PROPRES
Au cours des itrations, un terme nul peut redevenir non nul mais :
a
(k)
=

i =j
A
(k)
i ,j
2

k
=0 (2.11)
En effet :
a
(k+1)
=

i =j ,p
q,j =p,q
_
A
(k+1)
i ,j
_
2
.
_
A
(k)
i ,j
_
2
+

i =p,q
_
_
A
(k+1)
i ,p
_
2
+
_
A
(k+1)
i ,q
_
2
_
.
_
A
(k)
i ,p
_
2
+
_
A
(k)
i ,q
_
2
+

j =p,q
_
_
A
(k+1)
p,j
_
2
+
_
A
(k+1)
q,j
_
2
_
.
_
A
(k)
p,j
_
2
+
_
A
(k)
q,j
_
2
=a
(k)
2
_
A
(k)
p,q
_
2
(2.12)
donc a
(k+1)
<a
(k)
.
Cet algorithme est stable et simple, mais la convergence est lente et il savre coteux en
accs mmoire si n est grand. On a les estimations suivantes :
a
(k+1)

_
1
2
n(n 1)
_
a
(k)
et
2
n
2
(2.13)
2.3 Mthode des puissances
On se place ici dans le cas o A est symtrique, dnie positive et dont les valeurs propres
sont toutes simples, ranges par ordre de module dcroissant
i
.
x
(0)
, x
(0)
=1
tant que R >, itrer sur k
v Kx
(k1)
rsoudre Mx
(k)
=v
x
(k)

(k)
R(x
(k)
) =
x
(k)
T
Kx
(k)
x
(k)
T
Mx
(k)
normalisation x
(k)

x
(k)

n
alg. 2.2 - Mthode des puissances
On construit un itr de dpart x
(0)
puis les itrs
successifs par rcurrence de la manire suivante :
x
(k+1)
=Ax
(k)
(2.14)
Si (v
i
)
i
est la base propre, on peut crire les itrs
dans cette base. En particulier :
x
(0)
=

i
v
i
(2.15)
alors :
x
(k)
=

k
i

i
v
i
=
k
1
_
_

1
v
1
+
n

i =2

i
_

1
_
k
v
i
_
_
(2.16)
et si
1
=0 puisque
|
i
|
|
1
|
<1 alors :
x
(k)

k
1

1
v
1
(2.17)
En pratique, il est utile de normer x
(k)
chaque itration pour viter lexplosion et dans ce
cas obtenir x
(k)
v
1
.
Pour comprendre le comportement de la convergence, prenons x
(0)
=

i
v
i
, alors :
x
(k)

k
1
=v
1
+
n

i =2
_

1
_
k
v
i
(2.18)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2.3 Mthode des puissances 29
donc :
_
_
_
_
_
_
_
_
_
_
_
_
x
(k+1)

k+1
1
v
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
(k)

k
1
v
1
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
n

i =2
_

1
_
2(k+1)
n

i =2
_

1
_
2k
_
_
_
_
_
_
_
1/2

1
(2.19)
Le taux de convergence est alors estim comme suit :
ln

1
=ln

2
(2.20)
Bien entendu, on peut avoir des ennuis si au dpart x
(0)
est orthogonal v
1
. Par rapport la
mthode de Jacobi, la convergence est maintenant indpendante de la taille du problme,
n.
Cas de valeurs propres multiples ou proches
Dans le cas de valeurs propres multiples
1
, la convergence se fait vers
1
et vers une com-
binaison linaire des vecteurs propres associs.
Dans le cas de valeurs propres proches,
2
=
1
+, on a

1
et la convergence est
donc trs lente.
Contrle de la convergence
Comme critre de convergence sur les valeurs propres, onpeut utiliser le fait que x
(k+1)
/x
(k)

se stabilise, et pour la convergence sur les vecteurs propres, x


(k+1)
x
(k)
< ou :
Ax
(k+1)

(k+1)
x
(k+1)

Ax
(k+1)
+
(k+1)
x
(k+1)

<

(2.21)
On conseille aussi dutiliser la norme innie pour ces tests.
Obtention des modes suivants
v
1
x
g. 2.3 - Projection ortho-
gonale v
1
La technique utilise est la dation orthogonale : on
prendx
(0)
orthogonal v
1
. Pour viter les pertes dorthogo-
nalit par cumul darrondis, on rorthogonalise chaque
itration. Pour cela, on utilise un projecteur comme dcrit
sur la gure 2.3 :
P
1
=I
v
1
v
T
1
v
T
1
v
1
(2.22)
do :
P
1
x =x
v
T
1
x
v
T
1
v
1
v
1
(2.23)
On a alors convergence vers (
2
, v
2
). On peut procder de faon similaire pour accder la
troisime caractristique propre, et ainsi de suite.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
30 SYSTMES AUX VALEURS PROPRES
2.4 Mthode des itrations inverses
x
(0)
, x
(0)
=1
tant que R>, itrer sur k
v Mx
(k1)
rsoudre Kx
(k)
=v
x
(k)

(k)
R(x
(k)
) =
x
(k)
T
Kx
(k)
x
(k)
T
Mx
(k)
normalisation x
(k)

x
(k)

n
alg. 2.4 - Itrations inverses
Comme dcrit dans lalgorithme 2.4, on choisit en-
core un x
(0)
arbitraire : les solutions classiques sont
de prendre un vecteur de composantes alatoires,
norm, quitte essayer avec plusieurs vecteurs de
dpart pour vrier la convergence vers la mme
valeur.
On rsoud ensuite Ax
(k+1)
= x
(k)
et on norme
x
(k+1)
. Il sagit bien de la mthode des puissances,
applique A
1
, qui commence donc par converger
vers la valeur propre de A de module le plus lev.
Bien videmment, il est simple de dmontrer que le taux de convergence est tel que :
ln
|
n1
|
|
n
|
(2.24)
Comme pour la mthode des puissances, onconverge dautant mieux que les valeurs propres
sont spares. . . do la mthode du paragraphe suivant.
2.5 Mthode des itrations inverses avec dcalage spectral
Appele encore mthode de Wielandt, cette mthode suppose que lon connat une approxi-
mation de la valeur propre cherche .
2.5.1 Principe et convergence
On utilise la matrice dcale A

= A I, on sintresse donc A

x =

x et

= .
Comme on converge vers la valeur propre |

| la plus petite, on va donc trouver


i
la plus
proche de . Le taux de convergence est :
=ln
_
inf
_
|
i
|
|
i 1
|
,
|
i
|
|
i +1
|
__
(2.25)
et il est par consquent trs lev si est trs proche de
i
. Voici quelques remarques :
est proche de
i
; le systme A

x
(k+1)
= x
(k)
est trs mal conditionn. En fait, la m-
thode y est peu sensible : lerreur en solution tend saligner dans la direction du vec-
teur propre et est limine par la normalisation;
Cette mthode permet aussi daccder aux valeurs propres dune rgion donne du
spectre ;
On peut construire de cette manire la mthode des itrations inverses de Rayleigh :
on change lestimation par
(k)
chaque itration. On obtient alors une convergence
cubique :
x
(k+1)
v =
_
x
(k)
v
3
_
(2.26)
Cette mthode est coteuse puisque lon factorise chaque itration.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2.6 Transformation de Householder 31
2.5.2 Exemples dutilisation dans un code lments nis
On considre le systme Kx =
2
Mx.
Problme 1
On veut trouver le mode proche de la pulsation
0
. On procde alors de la faon suivante :
1. dcalage : K

K
2
0
M
2. factorisation LDL
T
de K

; soit N

le nombre de termes strictement ngatifs de D


3. x
(0)
alatoire puis itrations inverses avec dcalage de
0
sur K

x =

Mx pour obtenir
(

, x)
4.
2

2
0
+

5. le numro du mode trouv est N

si
2
<
2
0
ou N

+1 si
2

2
0
.
Problme 2
On veut trouver tous les modes dans lintervalle [
1
,
2
]. On procde alors de la faon sui-
vante :
1. pour trouver le nombre de modes dans [
1
,
2
], on compte le nombre de termes stric-
tement ngatifs de Ddans les factorisations de K
2
1
Met K
2
2
M;
2. on procde par itrations inverses avec dcalage et dations orthogonales succes-
sives.
2.6 Transformation de Householder
Cette mthode date de 1958 [35].
2.6.1 Factorisation QR
On cherche mettre A sous la forme A = QR o R est triangulaire suprieure et Q orthogo-
nale, par applications successives de transformations de Householder AHA [36].
Hest de la forme H=I 2uu
T
avec u =1. Il sagit cette fois dune symtrie par rapport
un plan de normale u comme illustr sur la gure 2.5. En consquence, H est symtrique,
orthogonale, et conserve les valeurs propres.
u
a
1
a
1
e
1
g. 2.5 - Transformation de
Householder de a
1
Ces transformations de Householder sont appli-
ques sur les colonnes de A =
_
a
1
a
2
a
n
_
suc-
cessivement. Par exemple, sur la premire, on veut
Ha
1
=e
1
do le choix :
=a
1
=Ha
1
>0 (2.27)
alors :
a
1
2u(u
T
a
1
) =e
1
a
1
e
1
=2u(u
T
a
1
)
(2.28)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
32 SYSTMES AUX VALEURS PROPRES
En prenant le produit scalaire par a
1
, on obtient :

2
a
T
1
e
1
=2(u
T
a
1
)
2
(2.29)
do :
u
T
a
1
=
_
1
2
(a
T
1
e
1
) (2.30)
On peut noter que le terme (a
T
1
e
1
) est non nul si a
1
nest pas dj parallle e
1
. Finale-
ment, on en dduit le vecteur cherch :
u =
a
1
e
1
2u
T
a
1
(2.31)
Le procd se poursuit en considrant ensuite la deuxime colonne de A et Htelle que :
H=
_
_
I 0
0 H
2
_
_
(2.32)
Le vecteur suivant u
2
est dtermin partir de e
2
et a
2
. Cest une mthode directe en n 1
tapes.
boucle sur k =1, 2, . . . , n 1
A
(k) T
k:n,k
A
(k)
k:n,k


1
A
(k)
k,k
v
(k)
k:n
A
(k)
k:n,k
v
(k)
k
v
(k)
k

z
T
k+1:n
v
(k) T
k:n
A
(k)
k:n,k+1:n
A
(k+1)
k:n,k+1:n
A
(k)
k:n,k+1:n
v
(k)
k:n
z
T
k+1:n
R
k,k

R
k,k+1:n
A
(k+1)
k,k+1:n
n
alg. 2.6 - Transformation de
Householder pour
la factorisation QR
On peut regarder les proprits de remplis-
sage de A lors des transformations mais cest as-
sez dlicat. Engnral, on ne stocke pas la matrice
Q; lapplication de Q un vecteur est coteuse
(4n oprations), cette mthode nest donc pas
applique la rsolution de systmes linaires.
Cet algorithme se trouve aussi sous le nom de
Householder-Businger-Golub.
La mthode est prsente par lalgorithme 2.6.
En ce qui concerne le stockage, v
k
crase A
1:k,k
en mmoire, R
k+1,k+1:n
crase A
k+1,k+1:n
. R
k,k
doit
tre stock ailleurs pour chaque itration, do un
vecteur de dimension n supplmentaire. Q nest
en gnral pas stocke, elle pourrait tre reconstruite partir des v
k
. Enn, z est un vecteur
de stockage supplmentaire.
La complexit de cet algorithme pour une matrice pleine de taille n est de lordre de
2
3
n
3
.
2.6.2 Dtermination des valeurs propres par la mthode QR
Cette mthode est attribue Francis et Vera N. Kublanovskaya en 1961. On considre le
problme Ax =x avec des valeurs propres simples. On procde alors de la faon suivante :
1. A
(1)
=A;
2. factorisation QR de A
(k)
=Q
(k)
R
(k)
;
3. calcul de A
(k+1)
=R
(k)
Q
(k)
;
4. itration suivante.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2.6 Transformation de Householder 33
Proprits
si les valeurs propres sont toutes simples, A
(k)
tend vers la matrice diagonale des va-
leurs propres. Q
(k)
tend vers la matrice des vecteurs propres (proprit peu utilise) ;
il y a conservation des bandes de A. Cest une mthode performante quand A est tri-
diagonale de petite taille. . . le cot dune itration est alors denviron 10n. Quand A est
pleine, une factorisation cote
2
3
n
3
oprations et un produit QR,
1
2
n
3
oprations.
On peut aussi appliquer des translations (dcalages) :
A
(k)

(k)
I =Q
(k)
R
(k)
A
(k+1)
=R
(k)
Q
(k)
+
(k)
I
(2.33)
Les matrices restent toujours semblables, donc conservent les valeurs propres.
Concernant la convergence de la mthode, avec des dcalages, et en prenant
(k)
=A
(k)
n,n
:
|
n
A
(k)
n,n
|
k
0 (2.34)
alors :
(A
k+1
I)q
(k)
=((A
k
I)q
(k1)

3
) (2.35)
Sans translation, la convergence reste linaire.
2.6.3 Forme de Hessenberg
Comme son nom lindique, cette mthode est due Gerhard Hessenberg (1874-1925) pour
qui on pourra consulter [37] et est ddie aux matrices A relles symtriques.
a
k
0
0
g. 2.7 - Matrice en cours de
tri-diagonalisation
On cherche cette fois rendre A tri-diagonale. Il
sagit de la mme technique colonne par colonne que
prcdemment. On prend ici une transformation qui
ne sapplique qu la deuxime colonne pour la pre-
mire tape :
H=
_
_
I 0
0

H
_
_
(2.36)
mais comme A est symtrique, il faut appliquer les
transformations gauche et droite :
H
1
AH=H
T
AH=HAH (2.37)
A
(k)
prend donc la forme de la gure 2.7 et le principe consiste travailler sur le vecteur
_
A
(k)
k,k+1
A
(k)
k,n
_
T
pour le rendre colinaire e
k+1
.
Cette mthode a la proprit intressante de ne pas modier les valeurs propres. Cest
une mthode directe en n 2 tapes et A reste symtrique. Travaillons sur le premier itr :
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
34 SYSTMES AUX VALEURS PROPRES
boucle sur k =1, 2, . . . , n 1
A
(k) T
k+1:n,k
A
(k)
k+1:n,k

1/
_
A
(k)
k+1,k
_
v
(k)
k+1:n
A
(k)
k+1:n,k
v
(k)
k+1
v
(k)
k+1

z
k+1:n
A
(k)
k+1:n,k+1:n
v
(k)
k+1:n
/2v
(k) T
k+1:n
z
k+1:n
z
k+1:n
z
k+1:n
v
(k)
k+1:n
A
(k+1)
k+1:n,k+1:n
A
(k)
k+1:n,k+1:n
v
(k)
k+1:n
z
T
k+1:n
z
k+1:n
v
(k) T
k+1:n
n
alg. 2.8 - Transformation
de Householder
ploplo
A
(1)
=
_
_
A
1,1
a
T
1
a
1

A
(1)
_
_
(2.38)
on prend :

H
(1)
=1 2 u u
T
(2.39)
en souhaitant avoir :

H
(1)
a
1
= e
1
(2.40)
En fait, ici e
1
= e
2
et on procde comme prcdem-
ment pour avoir u. On cherche donc

H
(1)
=I y y
T
avec = a
T
1
a
1
, =
1
(A
2,1
)
et y = a
1
e
1
. On calcule
ensuite la transforme par :

H
(1)

A
(1)

H
(1)
= (1 y y
T
)

A
(1)
(1 y y
T
)
=

A
(1)
y( y
T

A
(1)
) (

A
(1)
y) y
T
+
2
y( y
T

A
(1)
y) y
T
(2.41)
et en utilisant les intermdiaires z =

A
(1)
y et

t = z

2
( y
T
z) y :

H
(1)

A
(1)

H
(1)
=

A
(1)
y z
T
z y
T
+( z
T
y) y y
T
=

A
(1)
y

t
T

t y
T
(2.42)
Cest la technique mise en uvre dans lalgorithme 2.8, dans lequel v
k
nest en gnral pas
conserv et o z est un vecteur de stockage supplmentaire. La rduction seffectue en n 1
tapes.
2.7 Exemple dutilisation dans un code lments nis
On considre Kx = Mx avec K symtrique, dnie positive, M symtrique positive pour
lobtention de m valeurs propres, en basse frquence.
2.7.1 Rduction dans un sous-espace
On cherche trouver toutes les m valeurs propres dans un sous-espace de dimension p
m, dni par p vecteurs rangs dans la matrice de base V =
_
v
1
v
p
_
. ventuellement,
les v
i
sont orthonorms au sens de K, soit V
T
KV=

K=I.
On cherche alors les vecteurs propres x sous la forme x =V x, x est de dimension p. Le
problme est alors KVx =

MV x, do :
(V
T
KV)
.

K
x =

(V
T
MV)
.

M
x (2.43)
Le problme

Kx =

M x a t construit par une rduction de Ritz. Sa rsolution complte


permet de trouver p caractristiques propres (

, x).
On retourne alors dans lespace de dpart o x = V x est lapproximation dun vecteur
propre,

est lapproximation de la valeur propre associe, approximations dont la qualit
dpend du sous-espace choisi. . . Ce choix va tre discut dans les paragraphes suivants.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
2.8 Mthode de Lanczos 35
2.7.2 Technique itrative
Rapidement, il sagit de :
1. choisir p vecteurs de dpart ;
2. rduire

Kx =

M x dont on cherche les valeurs propres (si on a une approximation


des valeurs propres, on fait un dcalage) par une mthode QR;
3. itrer en sens inverse avec dcalage (souvent une seule itration suft) pour avoir les
approximations des vecteurs propres associs dans lespace de dpart ;
4. passer litration suivante.
Comme la convergence, dpend du rapport des modules des valeurs propres, on a intrt
conserver p >m approximations. La rgle conseille est choisir une taille du sous-espace :
p =min(2m, m +8) (2.44)
La convergence pour une valeur propre
i
est proportionnelle
|
i
|
|
p+1
|
.
2.8 Mthode de Lanczos
Cette mthode est due Lanczos [38] en 1950. On travaille sur un sous-espace gnr par
la suite des itrs inverses dun vecteur v
(0)
de dpart :
_
v
(0)
A
1
v
(0)

_
et sur une base
orthonorme.
La convergence est trs rapide : 3 4 itrations inverses par valeur propre converge, et
elle est indpendante de n ; cependant, la taille du sous-espace crot au cours des itrations.
v
(0)
0,
(0)
0
Vecteur de dpart v
(1)
, v
(1)
=1
tant que R >, itrer sur k
rsoudre Az =v
(k)

(k)
v
(k) T
z
d zv
(k)

(k1)
v
(k1)

(k)

d
T
d
v
(k+1)

(k)
d
recherche de ( x,

) tel que T x =

x
n
alg. 2.9 - Mthode de Lanczos
Un inconvnient est la perte rapide dortho-
gonalit sur les vecteurs successifs (elle se pro-
duit chaque fois quune valeur propre converge),
do des instabilits numriques. En pratique,
pour pouvoir traiter de grands problmes, il
est ncessaire dutiliser des stratgies de r-
orthogonalisation. Ces dernires ne seront pour-
tant pas dcrites ici.
En termes simples, lalgorithme se rsume
choisir unvecteur de dpart v
(0)
puis de rsoudre le
systme Az
(k)
= v
(k)
, dorthogonaliser z
(k)
par rap-
port aux v
(j )
, j k puis de normer v
(k+1)

z
(k)
z
(k)

.
Pour dmontrer le taux de convergence, il suft de chercher v
(k+1)
sous la forme :

(k)
v
(k+1)
=A
1
v
(k)

(k)
v
(k)

(k1)
v
(k1)
(2.45)
ce que lon peut montrer par rcurrence, avec v
(k) T
v
(j )
= 0 pour j = k 1 et j = k 2,
et v
(k) T
v
(k)
= 1, pour avoir orthogonalit par rapport tous les v
(j )
, j < k. Ces conditions
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
36 SYSTMES AUX VALEURS PROPRES
donnent les valeurs de
(k)
= v
(k)
A
1
v
(k)
et
(k1)
= v
(k)
A
1
v
(k1)
. Matriciellement, en no-
tant V de taille (n, k) la matrice qui contient tous les v
(j )
disponibles litration k, la rela-
tion (2.45) est quivalente :
A
1
VV
_
_
_
_
_
_
_
_

(0)

(0)
0

(0)
.
.
.
.
.
.
.
.
.
.
.
.
(k1)
0
(k1)

(k)
_
_
_
_
_
_
_
_
.
T
=
_
0 0
(k)
v
(k+1)
_
(2.46)
ce qui implique :
V
T
A
1
VT=0 (2.47)
Par consquent, Ta les mmes valeurs propres que V
T
A
1
V(voir le principe des sous-espaces).
On cherche ensuite les caractristiques propres de T, T x =

x,

sont des approximations
des valeurs propres de A
1
et V x, celles des vecteurs propres associs.
An dillustrer le comportement de cette mthode, la gure 2.10 prsente lestimation
des valeurs propres aux cours des itrations de la mthode de Lanczos sur le problme test
de Wilkinson (de taille 21) comportant plusieurs valeurs propres multiples et plusieurs va-
leurs propres trs proches (les cercles sont les valeurs propres exactes). On voit que la multi-
plicit et/ou proximit des valeurs propres chappe lalgorithme, et que les valeurs propres
se mettent converger quasiment lune aprs lautre.
12
10
8
6
4
2
0
2
14 12 10 8 6 4 2 0
itrations de Lanczos
v
a
l
e
u
r
s
p
r
o
p
r
e
s
g. 2.10 - Comportement de la mthode de Lanczos sur le test de Wilkinson
Critre darrt
Classiquement, on borne la norme du rsidu r =A
1
V x

V x avec :
A
1
V x =VT x+
_
0 0
(k)
v
(k+1)
_
x (2.48)
avec T x =

x, do r =
(k)
v
(k+1)
x
k
.
Lalgorithme 2.9 dcrit cette mthode, pour lequel les
(k)
et les
(k)
sont les composantes
de T.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
3
RSOLUTION DE SYSTMES
NON-LINAIRES PARTICULIERS
Dans cette partie, des proccupations directement issues du calcul de structure par l-
ments nis sont abordes. Il sagit ici dappliquer les outils prcdents certains problmes
particuliers, et non pas de disposer dun cours entier consacr aux lments nis. Il en sera
de mme dans la partie 4.4 pour les relations de comportement du matriau. Pour une pr-
sentation ddie aux lments nis, le lecteur est invit se reporter, par exemple, aux nom-
breux cours de qualit disponibles sur le rseau. Par exemple, ceux de C. Felippa : Nonlinear
Finite Element Methods, essentiellement pour les non-linarits dorigine gomtriques, et
Advanced Finite Element Methods, pour la technologie des lments nis, donns au Aeros-
pace Engineering Sciences Department de lUniversity of Colorado at Boulder.
3.1 Non-linarits matrielles de type plasticit
Le problme rsoudre est celui du calcul de structures dont le matriau possde un com-
portement non linaire. Il peut par exemple sagir dun matriaulastique non linaire (sans
dissipation, donc) ou dun problme dvolution comme la plasticit ou la visco-plasticit.
Dans ce dernier cas, une approche incrmentale transforme le problme dvolution en une
srie de problmes non-linaires stationnaires chaque incrment de temps. Ceux-ci sont
alors rsolus par exemple par des mthodes classiques de type Newton [39], dcrites ici.
Pour plus dinformations, on pourra consulter [40].
3.1.1 Formulation du problme
Le problme de rfrence consiste vrier :
les quations dadmissibilit cinmatique : les dformations doivent tre compa-
tibles avec un champ de dplacement admissible U (rgulier et satisfaisant les condi-
tions aux limites en dplacement impos)
=(U) (3.1)
les quations dadmissibilit statique : le champ de contraintes doit tre en quilibre
avec les charges extrieures ;
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
38 RSOLUTIONDE SYSTMES NON-LINAIRES PARTICULIERS
les relations de comportement [41]. On considre un matriau dont ltat est dcrit
par (outre la dformation ou la contrainte) un jeu de variables internes , avec leurs
variables thermodynamiques associes .
La partition de la dformation en partie lastique et non lastique scrit :
=
e
+
p
(3.2)
Les lois dtat reliant les variables cinmatiques et statiques sont associes lnergie
libre (qui dpend de ltat) (
e
, ) :
=


e
=


(3.3)
Lvolution de ltat, pour un modle standard associ, se dduit du potentiel de dissi-
pation (, ) par la loi de normalit :

p
=



(3.4)
avec, dans le cas non visqueux, 0,

0 et

=0. est le multiplicateur plastique.


3.1.2 Rsolution pour un incrment de temps
Pour les problmes qui nous proccupent, chaque incrment de temps, on est amen
rsoudre, aprs une discrtisation en dplacement, un problme de la forme :
r(u) =K(u)uf =0 (3.5)
r(u) est le gradient annuler. La matrice de rigidit dpend de la solution u, par linterm-
diaire de la relationde comportement dumatriau. Les mthodes de type Newtonsont habi-
tuellement utilises : si u
0
est une approximation de la solution, cette dernire est u =u
0
+u
et un dveloppement de Taylor de r donne au voisinage de u :
r
u
(u
0
)u =r(u
0
) (3.6)
ce qui suggre un algorithme itratif de la forme :
u
i +1
u
i
=s
i
H
i
r
i
(3.7)
o r
i
=r(u
i
), H
i
est une approximation de linverse de la matrice jacobienne J(u
i
) =
r
u
(u
i
).
s
i
est une amplitude destine rduire r
i +1
1
.
En fait, les mthodes prsentes ci-aprs sont issues dune classe de problmes plus
vaste, celle de la minimisation de fonctionnelles non-linaires f (U) ; dans ce cadre, f est
parfois appele la fonction cot.
1. Dans un premier temps, on peut choisir s
i
= 1 mais une procdure de type line search peut tre utilise comme une
procdure itrative additionnelle pour amliorer sa valeur
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
3.1 Non-linarits matrielles de type plasticit 39
3.1.3 Mthode de la plus grande pente
Dans ce cas :
H=I (3.8)
3.1.4 Mthodes de gradient conjugu
Ces mthodes nimposent pas le stockage des matrices H
i
car seuls quelques vecteurs sont
ncessaires au calcul de H
i
r
i
. Cela est ralis avec une formule de rcurrence sur une direc-
tion de recherche d :
d
i
=
_
r
i
pour i =1
r
i
+
i
d
i 1
pour i >1
(3.9)
et :
u
i +1
=u
i
s
i
d
i
(3.10)

i
est une scalaire utilis pour conjuguer les directions de recherche, i.e. d
T
i
d
i 1
= 0, pour
lequel deux expressions classiques sont :
1. Fletcher-Reeves [42] :

i
=
r
T
i
r
i
r
T
i 1
r
i 1
(3.11)
2. Polak-Ribire [43] :

i
=
r
T
i
(r
i
r
i 1
)
r
T
i 1
r
i 1
(3.12)
Si la fonctionnelle minimiser est quadratique, donc si K ne dpend pas de u, alors toutes
les directions de recherche successives sont conjugues entre elles.
Pour mmoire, il exite dautres mthodes de grandient conjugu, comme la mthode du
shortest residual [44].
3.1.5 Mthode de Newton-Raphson
Ici, s
i
=1 et :
H
i
=J(u
i
)
1
=
_
_
_
r
u
(u
i
)
_
_
_
1
=
_
_
_
K(u
i
) +
K
u
(u
i
)
_
_
_
1
(3.13)
chaque itration, il faut valuer la matrice jacobienne et rsoudre le prcdent systme
linaire.
3.1.6 Mthode de Newton-Raphson modie
Elle utilise un Jacobien g, valu une prcdente estimation de la solution u

:
H
i
=J(u

)
1
(3.14)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
40 RSOLUTIONDE SYSTMES NON-LINAIRES PARTICULIERS
3.1.7 Mises jour de type Quasi-Newton
Lide est de modier simplement H
i
chaque itration plutt que de le laisser x comme
MNR, et plutt que de le recalculer entirement, comme pour NR.
H
i +1
=H
i
+H
i
(3.15)
en sassurant que la condition scante :
H
i +1
(u
i +1
u
i
) =r
i +1
r
i
(3.16)
est satisfaite. Elle correspond une approximation au premier ordre de la matrice jaco-
bienne au voisinage de u
i
.
Si H
i
est mis jour, on parle de mise jour inverse, alors quune mise jour directe
modie H
1
i
.
Le rang de la mise jour est le rang de la matrice de correction qui est utilise. Pour
une mise jour de rang 1, H = ab
T
o a et b sont deux vecteurs, la formule de Sherman-
Morrison-Woodbury [45, 46, 47] permet dexprimer directement linverse, tant que H nest
pas singulier et que 1+b
T
H
1
a =0 :
(H+ab
T
)
1
=H
1

H
1
ab
T
H
1
1 +b
T
H
1
a
(3.17)
Lalgorithme gnrique consiste itrer sur :
direction de recherche d
i
=H
i
r
i
;
min
s
i
>0
r
i +1
par exemple par une procdure de line search;
mise jour de H
i
.
Le but est de construire une approximation de J
1
(u), qui samliore au cours des itrations,
en utilisant linformation des gradients successifs. Par exemple, avec la prcdente correc-
tion de rang 1, en vriant la symtrie et la condition scante, on obtient :
H
i +1
=H
i
+
(
i
H
i

i
)(
i
H
i

i
)
T

T
i
(
i
H
i

i
)
(3.18)
o
i
=u
i +1
u
i
et
i
=r
i +1
r
i
.
Une proprit intressante pour lefcacit est davoir H symtrique, au moins quand
le problme rsoudre lest, et dnie positive pour avoir effectivement une direction de
descente telle que d
T
i
r
i
< 0. Avec la prcdente mise jour de rang 1, il nest pas garanti
davoir H
i
dni positif.
Mthode de Davidson-Fletcher-Powell
Cette mthode de rang 2, propose dans [48] prserve le caractre dni positif. En dmar-
rant avec H
0
symtrique, dni positif, la mise jour est :
H
DFP
i +1
=H
i
+

T
i

T
i

i

(H
i

i
)(H
i

i
)
T

T
i
H
i

i
(3.19)
Dans le cas o la fonction cot est quadratique, les directions d
i
sont K-orthogonales entre
elles ; aprs n itrations, H
n
= J
1
. Si de plus H
0
= I, il sagit de la mthode du gradient
conjugu.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
3.1 Non-linarits matrielles de type plasticit 41
Mthode de Broyden-Fletcher-Goldfarb-Shanno
Cette mthode de rang 2, propose dans [49], prserve aussi le caractre dni positif. En
dmarrant avec H
0
symtrique, dni positif, la mise jour est :
H
BFGS
i +1
=H
DFP
i +1
+(
T
i
H
i

i
)
_
_
_

T
i

i

H
i

T
i
H
i

i
_
_
_
_
_
_

T
i

i

H
i

T
i
H
i

i
_
_
_
T
=H
i
+
_
_
_
1 +

T
i
H
i

T
i

i
_
_
_

T
i

T
i

i

T
i
H
i
+H
i

T
i

T
i

i
(3.20)
Cette mthode est rpute pour tre lune des plus robustes [50].
La famille de mthodes dite de Broyden est dnie par :
H
i +1
=H
BFGS
i +1
+(1 )H
DFP
i +1
(3.21)
tant tel que le caractre dni positif est assur (0 1 le fait).
Versions avec mmoire limite
Mme si elles sont symtriques, les corrections prsentes prcdemment souffrent dune
grande demande en mmoire, pour les problmes lments nis de grande taille (les ma-
trices H
i
ne sont en effet pas creuses). Une solution consiste ne stocker H
i
uniquement
de faon implicite, cest--dire tre capable de construire H
i
r
i
avec H
0
(qui lui est creux)
et des vecteurs successifs. De plus, le calcul de la direction de recherche est alors souvent
moins coteux que dans le cas de lutilisation explicite dun produit matrice-vecteur.
Par exemple, le gradient conjugu prconditionn (PCG) par H
0
, correspond :
H
i +1
=V
i
H
0
(3.22)
avec :
V
j
=I

T
j

T
j

j
(3.23)
et la mthode BFGS, :
H
i +1
=
_
_
_
i

j =0
V
j
_
_
_
T
H
0
_
_
_
i

j =0
V
j
_
_
_
+
i

j =0
_
_
_
i

k=j +1
V
j
_
_
_
T

T
k

T
k

k
_
_
_
i

k=j +1
V
j
_
_
_
(3.24)
Une troncature peut alors tre effectue pour limiter encore les ressources en mmoire, en
liminant les contributions des plus anciens termes. Elle correspond alors la version limi-
ted memory de BFGS (L-BFGS) [51, 52].
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4
RSOLUTION DE
SYSTMES DIFFRENTIELS
Il est possible de consulter sur le sujet les rfrences [53, 54]. Dans les applications qui nous
intressent, on est conduit rsoudre de tels systmes, par exemple dans les cas suivants :
intgration de relation de comportement, problme de thermique transitoire, problme de
dynamique rapide. . .
4.1 quation scalaire du premier ordre
4.1.1 Problme de Cauchy
Il sagit de trouver la fonction x(t ), t [0, T], telle que :
dx
dt
= f (x, t )
x(0) =u
0
(4.1)
Thorme de Cauchy-Lipschitz
Il y a existence et unicit de la solution si f est assez rgulire
1
en x :
k >0, t [0, T], (y, z)
2
, | f (z, t ) f (y, t )| k|z y | (4.2)
4.1.2 R-criture du problme
Pour se ramener aux techniques dintgration, il est plus intressant dcrire le problme
sous forme intgrale :
x =u
0
+
_
t
0
f (x, t ) dt (4.3)
Une discrtisation de lintervalle de temps [0, T] est la squence dinstants 0 =t
0
<t
1
< . . . <
t
m
= T. Le pas de temps est h = t
i +1
t
i
. Le principe est de chercher approcher la valeur
de la fonction aux piquets de temps, x(t
i
), par la valeur x
i
, ce qui permet de dnir lerreur
e
i
= |x(t
i
) x
i
|. Dans la suite, on notera f
i
= f (x
i
, t ). Le problme incrmental est, ayant la
solution approche jusqu t
i
, de la dterminer t
i +1
avec :
x =x
i
+
_
t
t
i
f (x, t ) dt (4.4)
1. Plus prcisment en termes mathmatiques, f est continue et lipschitzienne.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
44 RSOLUTIONDE SYSTMES DIFFRENTIELS
Exemple : schma dEuler explicite
La gure 4.3(a) illustre lestimation de lintgrale cherche. Le schma scrit :
x
i +1
=x
i
+hf
i
x
0
=u
0
(4.5)
4.1.3 Schmas explicites un pas
Ce sont les schmas de la forme :
x
i +1
=x
i
+h(x
i
, t
i
, h)
x
0
=u
0
(4.6)
convergence
Si on a la proprit sup
i
|e
i
|
h0
0 (en labsence derreur darrondi !)
stabilit
On considre le schma perturb :
x
i +1
= x
i
+h( x
i
, t
i
, h) +
i +1
x
0
=u
0
+
0
(4.7)
Le schma considr est stable ssi :
S >0, sup
i
| x
i
x
i
| S
m

i =0
|
i
| (4.8)
consistance
Pour dnir cette notion, on a besoin de lerreur de consistance (local truncation error) :
c
i +1
=x(t
i +1
)
_
x(t
i
) +h(x(t
i
), t
i
, h)
_
(4.9)
Le schma est consistant ssi :

i
|c
i
|
h0
0 (4.10)
ordre
On dit dun schma quil est dordre p quand M>0, sup
i
|c
i
| Mh
p+1
.
Les trois premires notions prcdentes sont illustres sur la gure 4.1.
h 0
t
(a) convergence
h 0
t
(b) consistance
t
(c) stabilit
g. 4.1 - Proprits de base dun schma dintgration
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.1 quation scalaire du premier ordre 45
Proprits
Il existe des liens entre les diffrentes caractristiques prcdentes, en particulier :
stabilit et consistance convergence
lipschitzienne en x stabilit
consistance (x, t , 0) = f (x, t ) dordre p 1
dordre p |e
i
| Nh
p
Exemple : schma dEuler explicite
Dans ce cas, (x, t , h) = f (x, t ) et par consquent, le schma est consistant et stable, donc
convergent :
c
i +1
=x(t
i +1
)
_
x(t
i
) +hf (x(t
i
), t
i
)
_
=(h
2
) (4.11)
or :
x(t
i +1
) =x(t
i
) +h x(t
i
) +(h
2
)
x(t
i
) = f (x(t
i
), t
i
)
(4.12)
donc cest un schma dordre 1.
4.1.4 Quelques problmes pratiques
Inuence des erreurs darrondi
Perturbons le schma :
x
i +1
= x
i
+h( x
i
, t
i
, h) +
i +1
x
0
=u
0
+
0
(4.13)
Si le schma est convergent, e
i
=|x(t
i
) x
i
|
h0
0. Quen est-il de e
i
=|x(t
i
) x
i
| ?
e
i
=|x(t
i
) x
i
+x
i
x
i
| |x(t
i
) x
i
|
.
x
+|x
i
x
i
|
.
y
(4.14)
avec, dans lquation (4.14) :
le schma est dordre p donc le terme xNh
p
;
le schma est stable donc le terme yS
_
m
i =0
|| +

m
i =1
h||
_
.
Au bilan :
e
i
S[(m +1)|| +hm||] +Nh
p
(4.15)
avec hm =T, do :
e
i
S||
_
1 +T+
T
h
_
+Nh
p
(4.16)
Il nest donc pas forcment avantageux de rduire trop fortement le pas de temps pour la
prcision du schma. En particulier, on peut dire que si le pas de temps nest pas grand de-
vant les erreurs numriques dvaluation de la fonction , la solution est entache derreurs
par cumul des erreurs numriques.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
46 RSOLUTIONDE SYSTMES DIFFRENTIELS
Problme numriquement mal pos
Considrons le problme suivant :
dx
dt
=4x 1
x(0) =
1
4
(4.17)
dont la solution est :
x(t )
1
4
(4.18)
Perturbons maintenant les conditions initiales :
x(0) =
1
4
+ (4.19)
La nouvelle solution est alors trs diffrente de la prcdente :
x(t ) =
1
4
+e
4t
(4.20)
Ce problme est numriquement mal pos. On risque davoir des difcults le rsoudre
car il est trs sensible aux conditions initiales
2
.
4.1.5 A-stabilit
De faon pratique, la proprit de stabilit dun schma nest pas sufsante. Prenons par
exemple le schma dEuler explicite dj dcrit comme stable, et rsolvons le problme :
dx
dt
=
2
x
x(0) =1
(4.21)
dont la solution exacte est :
x(t ) =e

2
t
(4.22)
La gure 4.2 prsente les solutions obtenues numriquement en mme temps que la solu-
tion exacte pour deux pas de temps. Ces solutions diffrent fortement, et de plus en plus
au cours du temps, si le pas de temps nest pas assez petit. On parlera alors dun schma
conditionnellement stable. Un schma inconditionnellement stable
3
[55] se dnit pour
les quations linaires. On teste alors le schma sur un problme du type :
dx
dt
=cx (4.23)
o c est une constante complexe et pour lequel le cas o le schma est tel que x
i +1
=r (ch)x
i
,
o r est un polynme ou une fraction rationnelle. On dnit alors le domaine de A-stabilit
comme suit :
D
stab
={z , |r (z)| 1} (4.24)
Un schma est alors dit A-stable (ou inconditionnellement stable) si et seulement si :
{z , Re (z) 0} D
stab
(4.25)
2. on peut dailleurs se poser des questions quant la notion mme de solution pour un tel problme
3. ou A-stable pour absolute stability
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.1 quation scalaire du premier ordre 47
1
0,8
0,6
0,4
0,2
0,4
0,2
1 0,8 0,6 0,4 0,2
(a) h =1/10
1 0,8 0,6 0,4 0,2
2
1
2
1
(b) h =1/7
g. 4.2 - Stabilit du schma dEuler explicite
Exemple : schma dEuler explicite
La relation est la suivante :
x
i +1
=x
i
+hcx
i
=(1 +hc)x
i
r (z) =1 +z (4.26)
La condition de stabilit est donc :
|1 +hc| 1 (4.27)
Pour c =
2

, elle scrit h
2

2
. Il sagit donc dun schma conditionnellement stable.
Pour lexemple prcdent, avec c =15 (la solution tend vers 0), le critre de stabilit donne
0 h
1
7,5
. Ceci est bien en accord avec les rsultats de la gure 4.2.
La condition de stabilit dpend bien entendu du schma, mais aussi du problme. Son
interprtation est que, pour une solution borne, il faut que le schma donne une ap-
proximation borne.
4.1.6 Mthode des trapzes gnralise
Cette mthode est dcrite avec un paramtre [0, 1] par :
x
i +1
=x
i
+h
_
(1 )f
i
+f
i +1
_
x
0
=u
0
(4.28)
Le calcul de x
i +1
fait intervenir f
i +1
=f (x
i +1
, t
i +1
). Il sagit donc dune mthode implicite
si =0.
Le cas = 0 conduit la mthode dEuler explicite ; dans le cas o = 1, il sagit de
la mthode dEuler implicite ; enn si =
1
2
, cest la mthode des trapzes, appele aussi
mthode de Crank-Nicolson et qui date de 1947. La gure 4.3 illustre lapproximation de
lintgration ralise par chacun de ces cas particuliers.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
48 RSOLUTIONDE SYSTMES DIFFRENTIELS
f
t
i
t
i +1
t
(a) =0
f
t
i
t
i +1
t
(b) =1
f
t
i
t
i +1
t
(c) =0,5
g. 4.3 - Diffrents types dintgration
Stabilit
(hc)
(hc)
1 1
=0
>1/2

=
1
/
2
<1/2

=
1
g. 4.4 - Domaines de stabilit pour la
mthode des trapzes gnra-
liss
On considre le problme :
dx
dt
=cx (4.29)
le schma donne :
x
i +1
=x
i
+h[(1)cx
i
+cx
i +1
] (4.30)
donc :
x
i +1
=(1 hc)
1
(1 +(1 )hc)
.
B
x
i
(4.31)
Il faut avoir (B) < 1, ce qui est le cas si
toutes les valeurs propres de B sont simples,
cest--dire si la condition suivante est vrie :
|1 +(1 )hc|
|1 hc|
1 (4.32)
si
1
2
le schma est inconditionnellement stable ;
si <
1
2
avec c =
2
, la condition de stabilit scrit h
2
(12)
2
.
Les diffrents domaines de stabilit correspondants sont tracs sur la gure 4.4.
Ordre
En utilisant la mme mthode que celle dj employe pour le schma dEuler explicite, on
peut facilement montrer que le schma des trapzes gnraliss est dordre 1 si =
1
2
, et
quil est dordre 2 pour =
1
2
, cest--dire pour Crank-Nicolson.
4.1.7 Exemple de mthode pas multiples : Adams
Lide des mthodes pas multiple est dutiliser non seulement lvaluation f
i
mais aussi
un certain nombre de valeurs passes f
i 1
. . .
titre dillustration, la mthode dAdams, datant de 1883, utilisant un dveloppement
de Taylor de la solution est maintenant dcrite.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.1 quation scalaire du premier ordre 49
Adams explicite
On utilise pour cela un dveloppement de Taylor (avant) de x(t
i +1
) :
x(t
i +1
) =x(t
i
) +h x(t
i
) +
h
2
2!
x(t
i
) +. . . (4.33)
avec x(t
i
) = f (x(t
i
), t
i
) et x(t
i
) =
df
dt
(x(t
i
), t
i
). On garde ensuite les termes dun ordre suf-
sant pour obtenir lordre voulu du schma. Par exemple, pour Adams explicite dordre 1, on
conserve les termes en (h) ; on obtient x
i +1
=x
i
+hf
i
+(h
2
), cest Euler explicite !
Pour Adams explicite dordre 2, on conserve les termes en (h
2
) qui impliquent la d-
rive premire de f ; pour lestimer on utilise encore le dveloppement dune fonction g :
g (t
i +1
) = g (t
i
) h g (t
i
) +(h
2
) (4.34)
qui permet davoir lexpression de la drive g :
g (t
i
) =
1
h
[g (t
i
) g (t
i +1
)] +(h) (4.35)
Avec ce procd appliqu
df
dt
, on obtient la mthode cherche :
x
i +1
=x
i
+
h
2
[3f
i
f
i 1
] +(h
3
) (4.36)
La dmarche se prolonge pour les ordres de schma suprieurs. On obtient ainsi les for-
mules dAdams-Bashforth :
x
i
=x
i 1
+hf
i 1
x
i
=x
i 1
+
h
2
(3f
i 1
f
i 2
)
x
i
=x
i 1
+
h
12
(23f
i 1
16f
i 2
+5f
i 3
)
x
i
=x
i 1
+
h
24
(55f
i 1
59f
i 2
+37f
i 3
9f
i 4
)
x
i
=x
i 1
+
h
720
(1901f
i 1
2774f
i 2
+2616f
i 3
1274f
i 4
+251f
i 5
)
x
i
=x
i 1
+
h
1440
(4277f
i 1
7923f
i 2
+9982f
i 3
7298f
i 4
+2877f
i 5
475f
i 6
)
(4.37)
On ne peut cependant pas augmenter lordre du schma impunment : linconvnient
rside dans un rtrcissement du domaine de stabilit. Celui-ci est illustr sur la gure 4.5.
Adams implicite
Lide est la mme que prcdemment, en utilisant un dveloppement de Taylor arrire de :
x(t
i
) =x(t
i +1
h) =x(t
i +1
) h x(t
i +1
) +
h
2
2!
x(t
i +1
) +. . . (4.38)
La mthode dAdams implicite dordre 1 est ainsi :
x
i
=x
i +1
hf
i +1
+(h
2
) (4.39)
do :
x
i +1
=x
i
+hf
i +1
+(h
2
) (4.40)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
50 RSOLUTIONDE SYSTMES DIFFRENTIELS
1, 5
1
0, 5
0
0, 5
1
1, 5

(
z
)
2, 5 2 1, 5 1 0, 5 0 0, 5 1
(z )
k =1 k =2
k =3
k =4
(a) Adams explicite : Adams-Bashforth
3
2
1
0
1
2
3

(
z
)
7 6 5 4 3 2 1 0 1
(z )
k =2 k =3 k =4
(b) Adams implicite : Adams-Moulton
g. 4.5 - Domaine de stabilit dans le plan complexe
cest Euler implicite !
Lutilisation de la mme technique que pour Adams explicite permet de construire les
schmas implicites dordres plus levs, et on obtient alors les formules dAdams-Moulton :
x
i
=x
i 1
+hf
i
x
i
=x
i 1
+
h
2
(f
i
+ f
i 1
)
x
i
=x
i 1
+
h
12
(f
i
+8f
i 1
f
i 2
)
x
i
=x
i 1
+
h
24
(9f
i
+19f
i 1
5f
i 2
+ f
i 3
)
x
i
=x
i 1
+
h
720
(251f
i
+646f
i 1
264f
i 2
+106f
i 3
19f
i 4
)
x
i
=x
i 1
+
h
1440
(475f
i
+1427f
i 1
798f
i 2
+482f
i 3
173f
i 4
+27f
i 5
)
(4.41)
Le fait dutiliser des schmas implicites augmente la stabilit, mais la mme tendance est
observe lorsque lordre crot, voir gure 4.5.
Amorage du schma
Aux premiers pas de temps, on ne dispose pas forcment de tous les f
i q
. Dans ce cas, on
peut utiliser une mthode 1 pas pour dmarrer lintgration jusqu avoir sufsamment
progress pour pouvoir appliquer la mthode pas multiples voulue.
4.1.8 Exemple de mthode de prdiction correction base sur Adams
Le problme des mthodes implicites rside dans le fait, quen non-linaire au moins, on
ne peut exprimer explicitement la valeur au pas courant. On est alors oblig de mettre en
uvre une mthode itrative, gnralement de type point xe.
On part ainsi de la version implicite ; par exemple Adams dordre 2 : connaissant x
(0)
i +1
,
on value f (x
(0)
i +1
, t
i +1
) qui permet, en utilisant la formule dintgration dAdams implicite,
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.1 quation scalaire du premier ordre 51
datteindre une valeur x
(1)
i +1
. Cette dernire tape est appele correction. Onitre ainsi jusqu
une convergence souhaite. Pour avoir la premire valeur x
(0)
i +1
, la prdiction, on utilise la
version implicite de la mthode, par exemple ici, Adams explicite dordre 2. En pratique,
une trois itrations sufsent.
On peut aussi apporter une amlioration faible surcot avec une correction du prdic-
teur avec lerreur de troncature. Pour Adams dordre 2, on procde comme suit :
1. prdicteur (AE2) :
x
(0)
i +1
x
i
+
h
2
(3f
i
f
i 1
) (4.42)
2. modicateur :
x
(0)
i +1
x
(0)
i +1

1
12
_
x
i
x
(0)
i
_
(4.43)
3. correcteur (AI2) :
x
i +1
x
i
+
h
2
_

f
i +1
+ f
i 1
_
(4.44)
o

f
i +1
= f
_
x
(0)
i +1
, t
i +1
_
. Le coefcient
1
12
est celui issu de la formule de (AI3).
4.1.9 Mthode de Runge-Kutta
Historiquement prsente dans [56] en 1901, cette mthode est de la forme :
x
i +1
=x
i
+h(x, t , h)
x
0
=u
0
(4.45)
avec :
(x, t , h) =
q

l =1
a
l
k
l
(x, t , h)
k
1
(x, t , h) = f (x, t )
k
l
(x, t , h) = f
_
_
_
x +
l 1

j =1

(l )
j
k
j
(x, t , h), t +
l
h
_
_
_
(4.46)
Lide est dintgrer en utilisant des valeurs en des points particuliers, avec des poids dint-
gration particuliers. Les constantes a
l
,
l
et
(l )
j
sont ajustes pour obtenir lordre souhait.
Exemple de schma lordre 2
On prend =a f (x, t ) +b f (t +h, x +hf (x, t )) et on dtermine a, b, , pour avoir :
1
h
_
x(t +h) x(t )
_
.
x

_
x(t ), t , h
_
.
y
=(h
2
) (4.47)
avec, dans lquation (4.47) :
x= f +
h
2
_
f
t
+
f
x
f
_
+(h
2
)
y=a f +b
_
f +h
f
t
+hf
f
x
+(h
2
)
_
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
52 RSOLUTIONDE SYSTMES DIFFRENTIELS
Il faut donc avoir :
0 =1 a b 0 =
h
2
bh 0 =
h
2
bh (4.48)
do les coefcients cherchs a =1 b, = =
1
2b
et le schma :
(x, t , h) =(1 b)f (x, t ) +b f
_
x +
h
2b
f (x, t ), t +
h
2b
_
(4.49)
o b est une constante arbitraire non nulle. Des cas particuliers existent :
b =1 : il sagit de la mthode dEuler modie, dordre 2 ;
b =
1
2
: il sagit de la mthode de Heun, dordre 2.
Exemple de schma lordre 4
4 3 2 1 0 1
4
2
2
4
g. 4.6 - Domaine de stabilit pour
Runge-Kutta (ordre 1 8)
Bien entendu, cette technique se poursuit pour
les ordres suprieurs. Un ordre souvent utilis
avec cette mthode est lordre 4. Le schmase pr-
sente alors comme suit :
(x, t , h) =
1
6
(k
1
+2k
2
+2k
3
+k
4
)
k
1
= f (x, t )
k
2
= f
_
x +
h
2
k
1
, t +
h
2
_
k
3
= f
_
x +
h
2
k
2
, t +
h
2
_
k
4
= f (x +hk
3
, t +h)
(4.50)
Bien entendu, des mthodes de prdiction-
correction bases sur la mthode de Runge-Kutta
peuvent aussi tre mises en place.
Cette mthode require beaucoup dvalua-
tions de f , ce qui peut la pnaliser au niveau du cot. Concernant les domaines de stabilit,
on peut observer la mme tendance que pour les mthodes dAdams, voir gure 4.6.
4.1.10 Autres mthodes
Citons pour mmoire les mthodes de Hanning, de Milne-Simpson, les mthodes de tir
(shooting), les mthodes de collocation optimale, et une mthode bien adapte lintgra-
tion des relations de comportements dcrits par variables internes 1 seul seuil, la mthode
de retour radial [57].
Il existe aussi une famille de mthodes appele Galerkin discontinu en temps, plus ins-
pire des formulations variationnelles en espace. Pour lillustrer, considrons nouveau le
problme de Cauchy (4.1). Il peut tre rcrit en utilisant une fonction test x

choisir dans
un espace adquat :
_
T
0
_
dx
dt
f (x, t )
_
x

dt =0 (4.51)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.2 Systmes diffrentiels du premier ordre 53
Lide est de pouvoir utiliser des discrtisations en temps qui tolrent a priori des discon-
tinuits aux pas de temps : t = t
i
, on peut dnir une valeur gauche x

i
et une valeur
droite x
+
i
diffrentes. Le saut est not ]x]
i
= x
+
i
x

i
. Lintgrale prcdente est donc
prendre en un sens gnralis, qui fait travailler les sauts
4
:
_
T
0
_
dx
dt
f (x, t )
_
x

dt =

i
_
_
_
t
i +1
t
i
_
dx
dt
f (x, t )
_
x

dt +]x]
i
x

i
_
_
=0 (4.52)
La fonction test est choisie dans le mme espace que x, et on dnit sa valeur en t
i
comme
x

i
=x
+
i
+(1)x

i
. Dans le cas standard, on prend =1
5
. Le problme peut alors scrire
sur chaque intervalle de temps :
_
t
i +1
t
i
_
dx
dt
f (x, t )
_
x

dt +]x]
i
x

i
=0 (4.53)
Cette mthode est trs ressemblante une mthode de Runge-Kutta un pas implicite (A-
stable) dordre 2l +1 si on prend les espaces polynmiaux de degr infrieur ou gal l par
incrment de temps (Lesaint et Raviart 1974). Il faut aussi prvoir une mthode numrique
de calcul dintgrale en temps qui intgre exactement des polynmes de degr 2l (Cockburn
et Shu 1989).
4.2 Systmes direntiels du premier ordre
Cette situation est rencontre en lments nis, lors de lintgration de relations dun com-
portement dcrit par variables internes et avec un systme de taille bien plus grande, lors de
calculs de diffusion, par exemple, un calcul de conduction thermique transitoire, qui amne
rsoudre un problme de la forme :
M x+Kx =g(t )
x(0) =u
0
(4.54)
o K, gnralement symtrique positive, est la matrice de conduction, et M, gnralement
symtrique, dnie positive, est la matrice de capacit. x est le vecteur des tempratures
inconnues aux nuds de la discrtisation.
4.2.1 Emploi des mthodes prcdentes
Les mthodes prcdentes se gnralisent sans grande difcult ce cas de gure.
Exemple
Prenons le schma dEuler explicite. Le problme prcdent peut scrire :
x =M
1
Kx +M
1
g (4.55)
On applique alors le schma voulu :
x
i +1
=x
i
+h(M
1
Kx
i
+M
1
g
i
) (4.56)
4. On suppose cependant f (x, t ) sufsamment rgulire.
5. one-sided upwinding
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
54 RSOLUTIONDE SYSTMES DIFFRENTIELS
Pour viter de faire intervenir directement M
1
, on prfre le mettre sous la forme :
Mx
i +1
=Mx
i
+h(Kx
i
+g
i
)
x
0
=u
0
(4.57)
Stabilit
On emploie la mme dmarche que dans le cas des quations scalaires, dans la base propre
(pour les quations linaires), avec la valeur propre la plus contraignante, cest--dire la pul-
sation la plus grande.
Dans le cas dEuler explicite, on a donc le critre de stabilit h
2

2
M
et on peut borner la
pulsation propre maxi du systme par la pulsation propre maxi lmentaire
M

e
max
, voir
annexe B.
Pour avoir un vrai schma explicite, il faut ne pas avoir rsoudre de systme linaire
coupl dans (4.57). Il faut donc avoir une matrice de masse diagonale. Une modication du
problme (une approximation supplmentaire dans la modlisation) consiste remplacer
la matrice de masse par une matrice de masse lumpe diagonale. Pour cela, plusieurs
techniques existent, comme une matrice proportionnelle la masse diagonale, avec respect
de la masse totale par lment, ou mme la somme des lignes de la matrice de dpart.
Outre une approximation supplmentaire [58], on peut se poser la question de la conser-
vation des proprits du schma. . .
4.2.2 Choix dun schma : inuence de lordre dintgration
10
8
10
6
10
4
10
2
10
2
10
4
10
6
Euler explicite
Heun
Runge-Kutta 4
g. 4.7 - Inuence de lordre dun
schma sur le cot
Si on considre que le cot est directement li
au nombre dvaluations de la fonction f , on
peut tracer le cot en fonction de lerreur ob-
tenue pour diffrents schmas.
Par exemple, si on choisit le cas test suivant :
_
x
y
_
=
_
y
(1 x
2
)y x
_
_
x(0)
y (0)
_
=
_
u
0
0
_ (4.58)
Il sagit dun systme diffrentiel du premier
ordre, non linaire, pour t [0, T]. Si
2,008619861986087484313650940188 et avec T 6,6632868593231301896996820305, la so-
lution est priodique, de priode T.
Une mesure de lerreur peut donc tre de prendre la n de lintervalle dtude :
e =
_
x
T
y
T
_

_
x
0
y
0
_
(4.59)
La gure 4.7 reporte en chelles logarithmiques le nombre dvaluations de f en fonction du
niveau derreur e pour plusieurs schmas dordres diffrents : Euler explicite dordre 1, Heun
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.3 Systmes diffrentiels du deuxime ordre 55
dordre 2 et Runge-Kutta dordre 4. On voit donc lintrt de mettre en uvre des schmas
dordre lev, en gardant une stabilit raisonnable.
4.3 Systmes direntiels du deuxime ordre
On trouve ce genre de problme par exemple en dynamique transitoire des structures :
M x+C x+Kx =g(t )
x(0) =v
0
x(0) =u
0
(4.60)
Mest la matrice de masse, C est la matrice damortissement et K la matrice de rigidit.
De faon gnrale, lordre dun systme linaire peut tre abaiss, ici lordre 1, mais
en doublant la taille du systme. Ici, on sintressera aux traitement direct du systme au
second ordre, dans le cas o on na pas damortissement, cest--dire o C = 0. Lquilibre
est donc :
M x+Kx =g(t ) (4.61)
4.3.1 Mthode de Newmark
Il sagit dune famille de mthodes implicites un pas [59] et dnie en 1959. Elle se prsente
sous la forme suivante :
x
i +1
=x
i
+h x
i
+
1
2
h
2
_
(1 2) x
i
+2 x
i +1
_
x
i +1
= x
i
+h
_
(1 ) x
i
+ x
i +1
_
(4.62)
On retrouve bien le caractre implicite par lapparition de quantits indices i +1 au second
membre. On peut aussi remarquer que si = = 0, on retrouve des dveloppements de
Taylor puisque le schma de Newmark ressemble un dveloppement au troisime ordre :
x
i +1
=x
i
+h x
i
+
h
2
2
x
i
+
h
3
6
6
x
i +1
x
i
h
x
i +1
= x
i
+h x
i
+
h
2
2
2
x
i +1
x
i
h
(4.63)
Il reste crire lquilibre (4.61) linstant t
i +1
avec le schma prcdent. On peut alors
prendre lacclration comme inconnue :
_
h
2
K+M
_
x
i +1
=g
i +1
K
_
x
i
+h x
i
+h
2
_
1
2

_
x
i
_
(4.64)
et on obtient le systme rsoudre pour atteindre x
i +1
; mais on peut aussi lcrire avec le
dplacement comme inconnue :
_
h
2
K+M
_
x
i +1
=h
2
g
i +1
+M
_
x
i
+h x
i
+h
2
_
1
2

_
x
i
_
(4.65)
qui est le systme rsoudre pour atteindre x
i +1
. Dans ce dernier cas, cependant, un pro-
blme subsiste si =0. En effet, soit on utilise lquilibre pour revenir lacclration :
x
i +1
=M
1
(g
i +1
Kx
i +1
) (4.66)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
56 RSOLUTIONDE SYSTMES DIFFRENTIELS
ce qui peut tre coteux ; soit on utilise la relation inverse de (4.62) :
x
i +1
=
1
h
2
(x
i +1
x
i
)
1
h
x
i

1 2
2
x
i
(4.67)
mais on saperoit bien du problme quand =0.
Cas particuliers
=
1
2
, =
1
4
: mthode des acclrations moyennes ;
=
1
2
, =
1
6
: mthode des acclrations linaires ;
=
1
2
, =0 : mthode des diffrences centres, qui peut tre explicite
6
;
=
1
2
, =
1
12
: mthode de Fox-Goodwin.
Ordres
On peut montrer quil sagit dune mthode dordre 1 pour =
1
2
et dordre 2 pour =
1
2
.
Stabilit
Dans le cas dune seule quation scalaire, x =
2
x, le schma donne :
_
_
1 +(h)
2
0
h
2
1
_
_
.
A
1
_
x
i +1
x
i +1
_
.
y
i +1
=
_
_
1 (h)
2
(
1
2
) h
h
2
(1 ) 1
_
_
.
A
2
_
x
i
x
i
_
.
y
i
(4.68)
do la relation y
i +1
= A
1
1
A
2
y
i
et la matrice ditration B = A
1
1
A
2
. La condition de stabilit
est donc (B) < 1 ou bien (B) 1 avec des valeurs propres simples. Lquation caractris-
tique permettant de dterminer les valeurs propres de B est
2
2b+c =0 avec :
2b =2
_
+
1
2
_
(h)
2
1 +(h)
2
c =1
_

1
2
_
(h)
2
1 +(h)
2
(4.69)
les conditions de stabilit sont donc :
c 1 1 2b +c 0 1 +2b +c 0 (4.70)
sauf en ce qui concerne les points isols (b, c) =(1, 1) et (1, 1). Do les conditions en terme
de coefcients de la mthode :

1
2
2 +
h(2)
1 +(h)
2
0 (4.71)
En conclusion, si 2
1
2
, le schma est inconditionnellement stable (IS) ; si
1
2
et
>2, le schma est conditionnellement stable (CS) et la condition de stabilit est :
h
1

_
/2
(4.72)
La gure 4.8 illustre ces rsultats.
6. Cette mthode est aussi appele Velocity Verlet algorithm ou Leap Frog en dynamique molculaire !
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.3 Systmes diffrentiels du deuxime ordre 57
IS
1
1
1
1
c


1
1/2 0
racines
complexes
conjugues
racines
relles
g. 4.8 - Stabilit des schmas de Newmark
Inuence de lamortissement et comportement hautes frquences
Considrons le cas o lamortissement nest pas nglig dans lquation scalaire
7
:
x +2 x +
2
x =0 (4.73)
On peut montrer dans ce cas que la condition de stabilit scrit :

1
2
_
+
_
1
2
+
2
(
1
2
)
2
_
1/2
1
2

(4.74)
Dans le cas o >
1
2
, lamortissement a un effet stabilisant puisque sur les conditions de
stabilit, on a

h <h.
Concernant les modes haute frquence, ils ne sont pas reprsentatifs dumodle continu
mais sont nanmoins sollicits lors de lintgration et conduisent la prsence de parasites
non dsirs. On utilise classiquement une dissipation numrique pour amortir ces hautes
frquences.
En choisissant >
1
2
, on prend pour maximiser lamortissement (rgion des racines
complexes conjugues sur la gure 4.8), ce qui conduit :

1
4
_
+
1
2
_
2
(4.75)
Le point de dissipation Haute Frquence maximal est dtermin par le couple ( = 1, =
3
2
), mais il prsente le gros inconvnient dtre peu prcis en Basse Frquence. Un choix
gnralement recommand pour les mthodes de Newmark est alors :
>
1
2
=
1
4
_
+
1
2
_
2
(4.76)
La gure 4.9 prsente lutilisation des schmas de Newmark sans amortissement pour le cas
de rexions dondes dans une poutre unidimensionnelle, ce qui met en vidence la pr-
sence de perturbations hautes frquences. La gure 4.10 prsente quant elle linuence
de lamortissement numrique pour ces mmes schmas.
7. Cette criture dans la base propre dun systme entier correspond un modle damortissement de Rayleigh.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
58 RSOLUTIONDE SYSTMES DIFFRENTIELS
0 200 400 600
800
0
100
200
contraintes (MPa)
temps
(a) diffrences centres
0 200 400 600
800
0
100
200
contraintes (MPa)
temps
(b) Fox-Goodwin
0 200 400 600
800
0
100
200
contraintes (MPa)
temps
(c) acclration linaire
0 200 400 600
800
0
100
200
contraintes (MPa)
temps
(d) acclration moyenne
g. 4.9 - Parasites hautes frquences (daprs [60])
Toujours pour illustrer lamortissement numrique, considrons unbilan dnergie entre
les instants t
i
et t
i +1
[61]. Lcriture du schma de Newmark (4.62) en diffrence entre ces
deux instants, en utilisant la notation suivante :
x
i
=
1
2
(x
i +1
+x
i
)
[x
i
] =x
i +1
x
i
(4.77)
conduit :
[x
i
] =h x
i
+
h
2
2
(2)[ x
i
]
[ x
i
] =h x
i
+h
_

1
2
_
[ x
i
]
(4.78)
De mme, la diffrence des deux quilibres (4.61) devient :
M[ x
i
] +K[ x
i
] [g
i
] =0 (4.79)
En multipliant cette dernire relation par [ x
i
]
T
et en utilisant la proprit x
i

T
[x
i
] = [
1
2
x
2
i
],
avec des matrices Met K positives, on obtient le bilan :
_
1
2
x
T
i
M

x
i
_
+
_
1
2
x
T
i
K x
i
_
=
1
h
[ x
i
]
T
[g
i
]
_

1
2
_
[ x
i
]
T
M

[ x
i
] (4.80)
o M

=M+
1
2
h
2
(2)K. On trouve donc, dans lordre, un terme li la variation de lner-
gie cintique, un terme li la variation de lnergie interne, un terme li au travail des
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.3 Systmes diffrentiels du deuxime ordre 59
0 200 400 600 800
0
100
200
contraintes (MPa)
temps
(a) g =0,55
0 200 400 600 800
0
100
200
contraintes (MPa)
temps
(b) g =0,6
0 200 400 600 800
0
100
200
contraintes (MPa)
temps
(c) g =0,75
0 200 400 600 800
0
100
200
contraintes (MPa)
temps
(d) g =1,5
g. 4.10 - Inuence de lamortissement numrique (daprs [60])
0 200 400 600 800
0
0,05
0,1
pertes nergtiques (%)
temps
g =0,55
g =0,6
g =0,75
g =1,5
g. 4.11 - Inuence de lamortissement numrique (suite) (daprs [60])
efforts extrieurs et un dernier terme li lamortissement numrique (dissipation). Cela
permet de conclure que si 0,5, alors la solution est damplitude borne et que si =0,5,
le schma numrique ne dissipe pas dnergie.
4.3.2 Mthode de Gear implicite deux pas
Cette mthode [62] propos en 1969, appele aussi mthode BDF pour Backward Differen-
tiationFormulas, est rpute tre trs stable. Pour information, elle utilise le dveloppement
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
60 RSOLUTIONDE SYSTMES DIFFRENTIELS
3
2
1
0
1
2
3
1 0 1 2 3 4 5 6 7
k =1 k =2 k =3
15
10
5
0
5
10
15

(
z
)

(
z
)
10 5 0 5 10 15 20 25 30
(z ) (z )
k =4 k =5 k =6
g. 4.12 - A-stabilit dans le plancomplexe pour la mthode de Gear : k est le nombre de pas
suivant :
x
i +1
=
1
2h
(3x
i +1
4x
i
+x
i 1
)
x
i +1
=
1
2h
(3 x
i +1
4 x
i
+ x
i 1
)
(4.81)
De la mme faon, lquilibre (4.61) linstant t
i +1
donne le systme rsoudre pour at-
teindre x
i +1
:
_
M+
4
9
h
2
K
_
x
i +1
=g
i +1
K
_
4
3
x
i

1
3
x
i 1
+
8
9
h x
i

2
9
h x
i 1
_
(4.82)
La gure 4.12 prsente le domaine de stabilit de cette mthode.
4.3.3 -mthode
Historiquement attribue Wilson en 1968 [63], cette mthode estime une acclration li-
naire entre les instants t
i
et t
i +
= t
i
+h, 0 tant un paramtre de la mthode. On a
donc :
x(t
i
+) =
x
i +
x
i
h
+ x
i
(4.83)
et par intgration, on a les expressions :
x
i +
= x
i
+
1
2
h( x
i
+ x
i +
)
x
i +
=x
i
+h x
i
+
2
h
2
_
1
3
x
i
+
1
6
x
i +
_
(4.84)
Cette fois-ci, lquilibre (4.61) linstant t
i +
conduit au systme en x
i +
:
_
K+
6

2
h
2
M
_
x
i +
=g
i +
+M
_
6

2
h
2
x
i
+
6
h
x
i
+2 x
i
_
(4.85)
1,37 : la mthode est inconditionnellement stable ;
=1 : mthode des acclrations linaires.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.4 Intgration de modles de comportement 61
4.3.4 -HHT
Cette mthode [64] propose en 1977, ressemble a priori la mthode de Newmark, ceci
prs quelle introduit une modication de lquilibre (et donc enparticulier dusecondmembre)
en utilisant un paramtre additionnel .
Lcriture du dplacement, comme celle de la vitesse sont identique la mthode de
Newmark, et lquilibre est crit sous la forme :
M x
i +1
+
_
(1 +)C x
i +1
C x
i
_
+
_
(1 +)Kx
i +1
Kx
i
_
=
_
(1 +)f
i +1
f
i
_
(4.86)
Le dmarrage est ralis avec x
0
et x
0
donnes ainsi que x
0
=M
1
(f
0
C x
0
Kx
0
).
Pour le choix de paramtres de la forme =
1
4
(1 )
2
et =
1
2
, le schma est du
second ordre pour les basses frquences, il est inconditionnellement stable pour
1
3
0,
la dissipation en hautes frquences est maximum pour =
1
3
, enn, si on impose de plus
=0 on retrouve la mthode des trapzes.
4.3.5 Autres mthodes
Il existe un grand nombre de mthodes dintgration plus ou moins adaptes un type de
problme. En dynamique, citons encore la mthode de Park trois pas [65].
4.4 Intgration de modles de comportement
Si on considre le problme du calcul de structure non-linaire de la section 3.1.1, on tait
conduit dans les mthodes de rsolution estimer le rsidu r(u) = K(u)uf qui dpend de
ltat courant au travers du modle de comportement du matriau :
K(u)u =
_

Tr(u) d (4.87)
puisque la contrainte dpend de ltat courant.
4.4.1 Exemple de modle de plasticit
Utilisons les notations de la section 3.1.1. Les lois dtat sont de la forme :
=D(
p
)
=G()
(4.88)
o D est loprateur de Hooke et G la fonction dcrouissage, caractristiques du matriau.
Dans le cadre dun modle associ, le potentiel de dissipation est pris gal au seuil de plas-
ticit, sur lequel sannule la fonction caractristique f dpendant de ltat f (, ).
Les lois dvolution scrivent avec lutilisation dun multiplicateur plastique

cause
du caractre non diffrentiable du potentiel de dissipation :

p
=

f

(4.89)

f

(4.90)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
62 RSOLUTIONDE SYSTMES DIFFRENTIELS
On a alors les conditions de complmentarit de Khun-Tucker :
f 0,

0, f

=0 (4.91)
Lexpressiondumultiplicateur est donne dans le cas de lcoulement plastique par la condi-
tion de cohrence :

f =0 =
f

+
f

(4.92)
(dans le cas contraire

= 0 et le comportement est localement lastique). En remplaant
et

par leurs expressions issues de la drivation des lois dtat, et en utilisant les lois
dvolution, on obtient lexpression du multiplicateur :

=
f

D
f

D
f

+
f

G

f

(4.93)
On peut donc formellement crire ( partir des lois dvolution, de lexpression prcdente
du multiplicateur et en remplaant chaque fois que ncessaire et par leurs expressions
en ,
p
et issues des lois dtat) lvolution du comportement sous la forme dun systme
dquations non-linaires diffrentielles ordinaires (ODE) :
_

p

_
= g
__

_
, ,
_
(4.94)
Il est noter que le temps nintervient pas directement dans lvolution, contrairement au
cas des comportements visqueux. Remarquons aussi que ce systme ne peut tre rsolu :
il comporte trop dinconnues par rapport au nombre dquations disponibles. En effet, il
faut une sollicitation pour que le comportement volue. En utilisation dans un code aux
lments nis endplacement, il est agrable de conserver une dformation admissible tout
le temps. Le modle de comportement est donc gnralement pilot en intgration par le
fait que lvolution de la dformation totale est impose. Dans le systme prcdent, et
sont alors des donnes.
La rsolution de ce systme diffrentiel peut tre effectue avec les techniques dcrites
dans le chapitre 4. On peut ainsi utiliser des mthodes explicites (avec des sous-pas plus
nombreux) ou implicites (avec parfois un seul sous-pas par pas de chargement de la struc-
ture, cest--dire par rsolution de systme diffrentiel). Classiquement, Runge-Kutta dordre
4 avec contrle de la taille du sous-pas et Euler implicite sont utiliss. En fait, ces mthodes
sont utilises sur une partie du problme rsoudre seulement, car souvent, des mthodes
de type retour radial sont employes.
4.4.2 Mthodes de type retour radial
Ces mthodes sont employes car elles sont mieux adaptes au type de problme traiter.
On souhaite en effet retourner assez prcisment sur le seuil aprs intgration du systme
diffrentiel. De plus, il faut pouvoir prendre en compte le cas de la dcharge lastique. Pour
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.4 Intgration de modles de comportement 63
cela, on prend en compte la proprit de sparation en partie lastique et plastique des mo-
dles de comportement, pour sparer en deux temps lintgration. Considrons un incr-
ment de charge sur la structure, et un pilotage en incrment de dformation totale, not .
Cette mthode est aussi considre comme une mthode de partage doprateur (operator
split, cf. prdiction lastique et correctionplastique par unretour sur le seuil ou returnmap).
La notation reprsente une variation sur un ventuel sous-pas dintgration. La technique
employe consiste en :
prdictionlastique : elle est telle que
e
+
p
= , avec
p
= 0 et = 0, les lois
dtat (4.88) donnent sur cet incrment :
_

_
=
_
_
D 0
0 0
_
_
_

0
_
(4.95)
Si, au bout de cet incrment, le nouvel tat (+,
p
, , +) vrie f 0, on est
lintrieur du seuil et le comportement est rest lastique. Sinon, il faut corriger la
prdiction de la faon suivante.
correction : partir de ltat dtermin prcdemment, on procde une nouvelle correc-
tion (toujours note avec )
e
+
p
=0 et on cherche vrier les quations dtat,
les quations dvolution et, gnralement, directement le retour sur le seuil f =0 la
n de la correction.
Cette phase de correction peut tre ralise par utilisation des mthodes dintgration
dj cites. On peut aussi utiliser des mthodes plus ddies comme celle du retour
radial dOrtiz et Simo [66, 57].
Retour radial dOrtiz et Simo
Pour rsoudre la phase de correction, lide est dutiliser une mthode de Newton sur le
seuil. On cherche avoir :
f (+, +) =0 (4.96)
on procde par sous-pas (nots avec un ) en utilisant la matrice jacobienne des drives
partielles de f lors des dveloppements successifs :
f (+, +) f (, ) +
f

+
f

(4.97)
pour lesquels on cherche rester sur le seuil :
f +
f

+
f

=0 (4.98)
Comme = 0 lors de la correction, les quations (4.89) et (4.90) donnent alors la valeur
dun multiplicateur plastique pour le sous-pas :
=
f
f

D
f

+
f

G

f

(4.99)
Le potentiel de dissipation tant convexe, le dnominateur de lexpression prcdente est
toujours positif. Aprs avoir somm ce sous-incrment ltat courant, on itre sur la cor-
rection jusqu annuler le rsidu f (, ).
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
64 RSOLUTIONDE SYSTMES DIFFRENTIELS
Rigidit tangente cohrente
Il a t constat que si lon utilise la matrice de rigidit tangente continue prcdente, pour
itrer avec une mthode de Newton-Raphson (voir le chapitre 3.1.5), on perd la convergence
quadratique de la mthode, et que pour la retrouver, il faut utiliser la matrice de rigidit
tangente cohrente avec le schma dintgration employ.
Ce dernier peut tre vu comme un outil pour produire, partir dun tat donn :
s =(, ,
p
, ) (4.100)
un nouvel tat satisfaisant au comportement du matriau, pilot par exemple par un incr-
ment de dformation totale . Ce nouvel tat est not :
s +s =(+, +,
p
+
p
, +) (4.101)
Si la rigidit tangente continue ltat s est D
T
telle que = D
T
, la matrice tangente
cohrente D
C
est dnie par =D
C
. Elle relie la variation de correction de contrainte
obtenue, la variation de pilotage enincrment de dformationtotale : piloter avec +
partir du mme tat s conduira un nouvel tat suivant s +s +s .
On peut obtenir D
C
par une mthode de perturbation (on procde plusieurs intgra-
tions avec des perturbations diffrentes sur le pilotage) mais cela est assez coteux nu-
mriquement, et ncessite le choix de la valeur de la perturbation (trop petite, elle conduit
des problmes de prcision numriques, trop grande, une mauvaise approximation de
la drive). Une autre technique consiste driver analytiquement le schma dintgration,
ce qui peut savrer assez pnible suivant le schma et le modle de comportement.
4.4.3 Exemple de modle de viscoplasticit
Par rapport aumodle prcdente, ungrandnombre de modles de viscoplasticit scrivent
en nimposant plus de signe sur la valeur de la fonction seuil f (, ), mais avec un terme de
rappel sur le multiplicateur viscoplastique

: les conditions de complmentarit de Kuhn-
Tucker (4.91) sont alors remplaces par :

=
_
_
f (, )
m
_
+
_
n
(4.102)
o les parties positive et ngative sont respectivement notes :
x
+
=max(0, x) =
1
2
(x +|x|) et x

=min(0, x) =
1
2
(x |x|) =x
+
(4.103)
m est un module de viscoplasticit et n un exposant de viscosit.
Il est possible de dnir lquivalent du seuil de plasticit de la faon suivante : si on
considre

f = f
_
f
_
+
, alors

f = 0 correspond f 0 cest--dire un coulement visco-
plastique, et

f < 0 correspond f 0 cest--dire une volution lastique, et dans ce cas

f = f .
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.4 Intgration de modles de comportement 65
Ayant les incrments donns et t ,
prdiction lastique avec (4.104)
prdiction du seuil f (, )
si f >0 alors
correction viscoplastique
=0,

f = f
tant que

f >0
estimer
p
et

avec (4.108)
calculer la correction avec (4.109)
mise jour de , ,
p
, avec (4.107)
mise jour du multiplicateur +
mise jour du seuil corrig

f
n
n
alg. 4.13 - Intgration du comportement
viscoplastique
On peut aussi se ramener une re-
lation de complmentarit : si on note
=

, on doit en effet avoir 0,

f =
f m
1/n
0 et

f = 0. La principale
diffrence par rapport au cas de la plasti-
cit est la dpendance avec le temps au
travers des vitesses des quantits cher-
ches. Lintgration de la loi de compor-
tement ne sera plus pilote par le seul in-
crment de dformation , mais aussi
par lincrment de temps t . Le principe
consiste encore prdire une volution
lastique :
=D, =0
=0,
p
=0
(4.104)
et estimer la valeur du seuil f (, ). Si celle-ci est ngative, la solution est effectivement
lastique. Sinon, il faut procder une correction viscoplastique ; cette tape est encore it-
rative, mais il faut bien rvaluer toutes les quantits (en particulier les drives par linter-
mdiaire du schma dintgration en temps choisi, ici la -mthode) par rapport au prc-
dent pas de temps t
i
(elle sont ici indices par i ). La correction deffectue toujours dfor-
mation totale nulle, et lestimation du seuil corrig est :

f (+, +, +)

f (, , ) +


f

+


f

+


f

(4.105)
pour lesquels on cherche rester sur le seuil corrig :
f (, ) m
1/n
+
f

+
f

m
n

1/n1
=0 (4.106)
avec =D
p
, =
G

et les incrments :

p
t
=(+)
f


p

t
=(+)
f

(4.107)
o les drives sont estimes par rapport au prcdent pas de temps (et doivent tre rva-
lue chaque itr de la correction) :

p
=

pi
t

1


pi

i
t

1

i
(4.108)
Lquation (4.105) permet alors dobtenir lincrment de multiplicateur viscoplastique :
=
f m
1/n
t
+
f

D
p

f

G

f

D
f

+
f

G

f

+
m
n

1/n1
1
t
(4.109)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
66 RSOLUTIONDE SYSTMES DIFFRENTIELS
La valeur courante du multiplicateur doit alors aussi tre mise jour par +, chaque
itr de la correction, qui est poursuivie jusqu retourner sur le seuil corrig

f .
Connaissant la solution t
i
, on procde une succession de prdictions lastiques jus-
qu rquilibrer les forces extrieures (cest--dire annuler le rsidu des quations dqui-
libre) et dintgration du comportement selon lalgorithme dcrit dans 4.13. La solution
t
i +1
est celle qui doit vrier la fois lquilibre et le comportement.
4.5 Cas de la dynamique non rgulire
Dans les approches prcdentes, on a souvent considr que les volutions temporelles
taient sufsamment rgulires pour pouvoir les approcher avec un dveloppement limit.
Ce nest pas forcment toujours le cas ; par exemple dans le cas de la ssuration dynamique,
lorsque les structures sont soumises des chocs ou impacts. Dans ce dernier cas, en parti-
culier quand les corps sont des solides rigides, les vitesses ne sont plus drivables (lors dun
choc, un corps rigide change peu en position, mais beaucoup en vitesse, par exemple dans
le cas dun rebond). Une technique (dite event driven) consiste traiter de faon standard
les phases de vol libre cest--dire sans impact, reprer les instants de choc, et traiter
ceux-ci de faon particulire, avec un saut de vitesse de part et dautre de linstant de choc.
Avec une modlisation en solides rigides, il manque une quation de comportement de
limpact pour fermer le problme. Un tel comportement peut tre modlis par la loi de
Newton
8
. Elle postule que la vitesse normale du point de contact do des difcults
pour modliser un impact sur une surface entire aprs impact (note v
+
n
) est oppose
en direction celle avant impact (note v

n
) :
v
+
n
=e v

n
(4.110)
le saut de vitesse lors de limpact tant v
+
n
v

n
. Le coefcient matriau e , appel coefcient
de restitution dnergie, traduit le comportement de limpact ; 0 e 1. Le problme est
quil dpend de beaucoup de paramtres du problme, puisquil reprsente de faon ph-
nomnologique le comportement complexe des propagations / rections dondes lors de
limpact, ou des impacts multiples. . .
Sans prsence de frottement, il nest pas ncessaire dcrire autre choses sur les glisse-
ments tangentiels lors de limpact. On se contentera de dcrire ce type de problme ici.
Une autre situation particulire est celle des chocs nombreux dans les matriaux gra-
nulaires ou soumis la fragmentation. . . Dans ce cas, une technique event driven est in-
applicable cause des impacts qui peuvent tre extrmement nombreux. Une alternative
consiste employer une technique de time-stepping. Le pas de temps est x et on sem-
ploie dterminer les vitesses immdiatement aprs les piquets de temps, en considrant
limpact moyen pendant le pas de temps courant. On ne sintresse alors pas vraiment
lvolution du systme continment sur le pas de temps, mais plutt une conguration
8. Elle masque le fait que le solide est quand mme lgrement dformable et que le rebond est d un change entre
lnergie cintique et lnergie de dformation, lors de la propagation des ondes de chocs dans le solide
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
4.5 Cas de la dynamique non rgulire 67
possible en chaque piquet de temps.
Considrons tout dabord un systme dynamique rgulier (sans choc), rigide, voluant
sous laction dune force extrieure f . Son quation du mouvement est de la forme :
m x = f (4.111)
o lon suppose m constante. On se propose dintgrer cette quation diffrentielle avec un
schma particulier en diminuant lordre du systme
9
. Pour cela, commenons par intgrer
lquation du mouvement sur un pas de temps [t
i
, t
i +1
] ; on obtient :
m( x
i +1
x
i
) =
_
t
i +1
t
i
f (t ) dt (4.112)
Lintgrale de la force extrieure (rgulire) peut tre approxime par un schma dintgra-
tion, par exemple la mthode des trapzes gnraliss, voir section 4.1.6. Le problme scrit
alors :
m x
i +1
=m x
i
+(1 )hf
i
+hf
i +1
(4.113)
La position est rcupre par une intgration similaire de la vitesse :
x
i +1
=x
i
+
_
t
i +1
t
i
x dt x
i
+(1 )h x
i
+h x
i +1
(4.114)
Le lecteur pourra vrier quil sagit exactement de lapplication de la mthode des trapzes
gnraliss au systme du premier ordre :
m v = f
x =v
(4.115)
Cette faon de procder va permettre de traiter les systmes non rguliers comprenant des
chocs. En effet, lquation de la dynamique entre deux instants immdiatement suivant les
piquets de temps t
i
et t
i +1
va scrire :
m( x
i +1
x
i
) =
_
t
i +1
t
i
f (t ) dt +R (4.116)
o R est limpulsion totale, cest--dire, la somme des impulsions lors des impacts ventuels
sur le pas de temps trait.
Dans le cas dune volution statique, le contact unilatral du systme contre un mur
rigide plac en x = 0 par exemple ferait intervenir un effort F et non pas une impulsion R,
avec une loi de comportement du contact parfait du type 0 x F 0, qui est une version
concise de x 0, F 0, x F = 0. Le pendant de ce comportement en dynamique est la
condition de Signorini-vitesse issue du Lemme de Moreau :
si x >0, R=0
si x =0, 0 x R0
9. On travaillera alors la fois sur les positions x
i
et les vitesses x
i
aux piquets de temps t
i
.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
68 RSOLUTIONDE SYSTMES DIFFRENTIELS
Pour dicrtiser en temps ce comportement, on utilise en gnral une version explicite sur la
conguration cest--dire quon va utiliser un prdicteur pour la position x qui permettra
de slectionner le cas correspondant, et quon notera x
p
:
si x
p
>0, R
i +1
=0
si x
p
0, 0 x
i +1
R
i +1
0
Un prdicteur classique (saute-mouton) est x
p
= x
i
+
h
2
x
i
. Linconvnient est la possibilit
davoir une pntration rsiduelle, do lingalit utilise sur les valeurs possiblement n-
gatives de x
p
, qui tend cependant vers 0 avec le pas de temps. Ce modle de comportement
correspond un impact plastique (sans rebond), qui dissipe le plus lnergie. Dans le cas de
choc unique, on peut retrouver lquivalent du modle de Newton en substituant x
i +1
par
une vitesse dite formelle :
v =
x
i +1
x
i
1 +e
(4.117)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
RFRENCES
[1] B. Mohammadi and J.-H. Saiac. Pratique de la simulation numrique. Dunod /
Industries et Technologies, 2003. ISBN 210006407X. 1
[2] G.H. Golub and C.F. Van Loan. Matrix Computations. The Johns Hopkins University
Press, Baltimore, MD, USA, 2
e
edition, 1989. ISBN 0-8018-3772-3, 0-8018-3739-1. 2
[3] K. J. Bathe and E. L. Wilson. Numerical Analysis in Finite Element Analysis.
Prentice-Hall, 1982. 2
[4] E. Anderson, Z. Bai, C. Bischof, S. Blackford, J. Demmel, J. Dongarra, J. Du Croz,
A. Greenbaum, S. Hammarling, A. McKenney, and D. Sorensen. LAPACK Users Guide.
Society for Industrial and Applied Mathematics, Philadelphia, PA, 3
e
edition, 1999.
ISBN 0-89871-447-8 (paperback). 2
[5] L.S. Blackford, J. Choi, A. Cleary, E. dAzevedo, J. Demmel, I. Dhillon, J. Dongarra,
S. Hammarling, G. Henry, A. Petitet, K. Stanley, D. Walker, and R.C. Whaley.
ScaLAPACK Users Guide. Society for Industrial and Applied Mathematics,
Philadelphia, PA, 1997. ISBN 0-89871-397-8 (paperback). 3
[6] H. Oudin. Mthode des lments nis. cole Centrale de Nantes, France, 2008.
http://cel.archives-ouvertes.fr/docs/00/34/17/72/PDF/MEF.pdf. 5
[7] Y. Saad. Iterative Methods for Sparse Linear Sytems. 2000. 5
[8] R. Barrett, M. Berry, T. F. Chan, J. Demmel, J. Donato, J. Dongarra, V. Eijkhout, R. Pozo,
C. Romine, and H. Van der Vorst. Templates for the Solution of Linear Systems :
Building Blocks for Iterative Methods. SIAM, 1994.
http://www.netlib.org/linalg/html_templates/Templates.htm. 5
[9] J. J. Dongarra, H. W. Meuer, and E. Strohmeier. TOP 500 supercomputer sites. In
Proceedings of Supercomputer 99 Conference, number 17, Mannheim, 1999.
Disponible sur http://www.top500.org/ et
http://www.netlib.org/benchmark/top500.html. 8
[10] H. W. Meuer, E. Strohmaier, J. J. Dongarra, and H. Simon. Top500 supercomputer
sites. In 16
th
International Supercomputer Conference : Applications Architectures
Trends, 2001. http://www.netlib.org/benchmark/top500.html,
http://www.top500.org/. 8
[11] E. Cuthill and J. McKee. Reducing the bandwidth of sparce symmetric matrices. In
Proc. of the 24
th
National Conference of the ACM, volume P-69, pages 157172, 1969. 9
[12] A. George. Nested dissection of a regular nite-element mesh. SIAM Journal on
Numerical Analysis, 10 :345363, 1973. doi:10.1137/0710032. 9
[13] W. F. Tinney and J. W. Walker. Direct solutions of sparse network equations by
optimally ordered triangular factorization. In Proc. of the IEEE, volume 55, pages
18011809, 1967. 9
[14] A. George and J. Liu. The evolution of the minimum degree ordering algorithm. SIAM
Review, 31(1) :119, 1989. 9
[15] I. S. Duff, A. M. Erisman, and J. K. Reid. Direct Methods for Sparse Matrices. Oxford
University Press, Oxford, 1990. 10
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
70 RFRENCES
[16] Comm. Benot. Note sur une mthode de rsolution des quations normales
provenant de lapplication de la mthode des moindres carrs un systme
dquations linaires en nombre infrieur celui des inconnues application de la
mthode la rsolution dun systme dquations linaires (procd du commandant
cholesky). Bulletin Godsique, 2 :577, 1924. 12
[17] B. M. Irons. A frontal solution program for nite element analysis. International
Journal for Numerical Methods in Engineering, 2(1) :532, 1970.
doi:10.1002/nme.1620020104. 14
[18] I. S. Duff. Parallel implementation of multifrontal schemes. Parallel Computing, 3 :
192204, 1986. 14
[19] C. Farhat and D. Rixen. Encyclopedia of Vibration, chapter Linear Algebra, pages
710720. Academic Press, 2002. 17
[20] L. Hagemana and D. Young. Applied Iterative Methods. Academic Press, New York,
1981. 18
[21] R. Southwell. Relaxation Methods in Theoretical Physics. Clarendaon Press, Oxford,
1946. 19
[22] M. R. Hestenes and E. Stiefel. Methods of conjugate gradients for solving linear
systems. Journal of research of the National Bureau of Standards, 49 :409436, 1952. 22
[23] G. Shortley. Use of Tschebyscheff-polynomial operators in the numerical solution of
boundary-value problems. Journal of Applied Physics, 24 :392396, 1953.
doi:10.1063/1.1721292. 23
[24] C. C. Paige and M. A. Saunders. Solution of sparse indenite systems of linear
equations. SIAM Journal on Numerical Analysis, 12 :617629, 1975.
doi:10.1137/0712047. 23
[25] R. W. Freund and N. M. Nachtigal. QMR : A quasi-minimal residual method for
nonhermitian matrices. Numerische Mathematik, 60 :315339, 1991. 23
[26] P. Sonneveld. CGS, a fast Lanczos-type solver for nonsymmetric linear systems. SIAM
Journal on Scientic and Statistical Computing, 10 :3652, 1989. 23
[27] H. A. Van der Vorst. BiCGSTAB : A fast and smoothly converging variant of Bi-CG for
the solution of nonsymmetric linear systems. SIAM Journal on Scientic and
Statistical Computing, 13 :631644, 1992. 23
[28] Y. Saad and M. H. Schultz. GMRES : A generalized minimal residual algorithm for
solving nonsymmetric linear systems. SIAM Journal on Scientic and Statistical
Computing, 7 :856869, 1986. 23
[29] J. S. Rao. Advanced Theory of Vibration. John Wiley & Sons, 1989. 25
[30] M. Gradin and D. Rixen. Thorie des Vibrations. Application la dynamique des
structures. Physique Fondamentale et Applique. Masson, 1993. 25
[31] M. Gradin and D. Rixen. Mechanical Vibrations. Theory and Application to Structural
Dynamics. Wiley, 1994. 25
[32] J. H. Wilkinson. The Algebraic Eigenvalue Problem. Oxford University Press, 1965.
ISBN 0-19-853403-5, 0-19-853418-3. 25
[33] Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, and H. van der Vorst, editors. Templates for
the Solution of Algebraic Eigenvalue Problems : A Practical Guide. 1999. Draft. 25
[34] C. G. J. Jacobi. Ueber ein leichtes verfahren, die in der theorie der scularstrungen
vorkommenden gleichungen numerish aufsulsen. Journal fr die reine und
angewandle Mathematik, pages 5194, 1846. 27
[35] R. A. Willoughby. Collection of articles honoring Alston S. Householder. ACM, 18 :
358, 1975. 31
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
71
[36] A. S. Householder. Unitary triangularization of a nonsymmetric matrix. Journal of the
Association of Computing Machinery, 5 :339342, 1958. 31
[37] G. Hessenberg. Transzendenz von e und; ein Beitrag zur hoheren Mathematik vom
elementaren Standpunkte aus. von 1912. Johnson Reprint Corp., New York, 1965. 33
[38] C. Lanczos. An iteration method dor the solution of the eigenvalue problem of linear
differential and integral operators. Journal of research of the National Bureau of
Standards, 45 :225280, 1950. 35
[39] C. T. Kelley. Solving Nonlinear Equations with Newtons Method, volume 1 of
Fundamentals of Algorithms. Society for Industrial and Applied Mathematics,
Philadelphia, PA, 2003. ISBN 0-89871-546-6. 37
[40] M. A. Criseld. Non-Linear Finite Element Analysis of Solids and Structures. John
Wiley, 1991. 37
[41] J. Lemaitre and J.-L. Chaboche. Mechanics of Solid Materials. Cambridge University
Press, 1994. 38
[42] R. Fletcher and C. Reeves. Function minimization by conjugate gradients. Comput. J.,
7 :149154, 1964. 39
[43] E. Polak and G. Ribire. Note sur la convergence de directions conjugues. Rev.
Franaise Informat. Recherche Oprationnelle, (16) :3543, 1969. 39
[44] Y. Dai and Y. Yuan. Global convergence of the method of shortest residuals.
Numerische Mathematik, 83(4) :581598, 1999. doi:10.1007/s002119900080. 39
[45] W. J. Duncan. Some devices for the solution of large sets of simultaneous linear
equations. Philos. Mag. Ser., 35(7) :660670, 1944. 40
[46] W. W. Hager. Updating the inverse of a matrix. SIAM Review, 31(2) :221239, 1989. 40
[47] C. Huang and G. Verchery. An exact structural static reanalysis method.
Communications in Numerical Methods in Engineering, 13 :103112, 1997. 40
[48] R. Fletcher and M. J. D. Powell. A rapidly convergent descent method for
minimization. Computer Journal, 6 :163168, 1963. 40
[49] C. G. Broyden. The convergence of a class of double-rank minimization algorithms.
Journal of the Institute of Mathematics and its Applications, 6 :7690, 1970. 41
[50] L. Nazareth. A relationship between BFGS and conjugate gradient algorithms and its
implications for new algorithms. SIAM Journal on Numerical Analysis, 16 :794800,
1979. doi:10.1137/0716059. 41
[51] T. G. Kolda, D. P. OLeary, and L. Nazareth. BFGS with update skipping and varying
memory. SIAM Journal on Optimization, 8(4) :10601083, 1998. 41
[52] D.C. Liu and J. Nocedal. On the limited memory BFGS method for large scale
optimization. Numerische Mathematik, 45 :503528, 1989. 41
[53] T. J. R. Hughes. The Finite Element Method, Linear Static and Dynamic Finite Element
Analysis. Prentice-Hall, Englewood Cliffs, 1987. 43
[54] D. W. Jordan and P. Smith. Nonlinear Ordinary Differential Equations. Oxford applied
mathematics and computing science series, 1987. 43
[55] G. Dahlquist. A special stability problem for linear multistep methods. BIT. Numerical
Mathematics, 3(1) :2743, 1963. doi:10.1007/BF01963532. 46
[56] W. Kutta. Beitrag zur naherungsweisen integration totaler differentialgleichunge. Zeit.
Math. Physik, 46 :435453, 1901. 51
[57] M. Ortiz and J. C. Simo. An analysis of a new class of integration algorithms for
elasto-plastic constitutive relations. International Journal for Numerical Methods in
Engineering, 23(3) :353366, 1986. doi:10.1002/nme.1620230303. 52, 63
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
72 RFRENCES
[58] J.-P. Combe. Sur le contrle des calculs en dynamique rapide. Application aux
problmes dimpact. PhD thesis, ENS de Cachan, LMT-Cachan, 2000. 54
[59] N. M. Newmark. A method for computation of structural dynamics. In EMS, editor,
Proc. of the American Society of Civil Engineers, volume 85, pages 6794, 1959. 55
[60] H. Lemoussu. Approche non incrmentale pour le calcul de choc avec contact
unilatral avec frottement. PhD thesis, ENS de Cachan, LMT-Cachan, 1999. 58, 59
[61] T. J. R. Hughes and T. Belytschko. Nonlinear Finite Element Analysis. Zace sevices Ltd
- ICE Division, 1995. 58
[62] C. W. Gear. Numerical Initial Value Problems in Ordinary Differential Equation.
Prentice-Hall, 1971. 59
[63] K. J. Bathe and E. L Wilson. Stability and accuracy analysis of direct integration
method. Earthquake Eng. Struct. Dyn., 1 :283291, 1973. 60
[64] H. M. Hilber, T. J. R. Hughes, and R. L. Taylor. Improved numerical dissipation for
time integration algorithm in structural dynamics. Earthquake Eng. Struct. Dyn., 5 :
283292, 1977. 61
[65] K. C. Park. An improved stiffy stable method for direct integration of non linear
structural dynamics equations. Journal of Applied Mechanics, pages 164470, 1975. 61
[66] M. Ortiz and E. P. Popov. Accuracy and stability of integration algorithms for
elastoplastic constitutive relations. International Journal for Numerical Methods in
Engineering, 21(9) :15611576, 1985. doi:10.1002/nme.1620210902. 63
[67] A. C. Aitken. On the iterative solution of a system of linear equations. Proceedings of
the Royal Society of Edinburgh, 63 :5260, 1950. 77
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
A
FACTORISATION
DE CHOLESKY -
ORTHOGONALISATION
DUN SOUS-ESPACE
On considre un ensemble de m vecteurs de taille n v
i
indpendants, stocks dans les co-
lonnes dune matrice rectangulaire V de taille (n, m). Ils gnrent un sous-espace de les-
pace de dpart. Dans un certain nombre dapplications, il est utile de construire partir
de ces vecteurs, une nouvelle base orthogonale U. Pour ce faire, on utilise gnralement le
procd dorthogonalisation de Gram-Schmidt. On cherche donc U engendrant le mme
sous-espace que V et tel que U
T
U=I.
Pour ce faire, on peut utiliser une technique base sur la factorisation prcdente : si on
construit la matrice M = V
T
V, pleine et de taille rduite (n, n) et sa factorisation M = LL
T
,
alors :
V
T
V=LL
T
L
1
V
T
VL
T
=I U
T
=L
1
V
T
(A.1)
Il faut donc procder n rsolutions du systme triangulaire de taille n :
LU
T
=V
T
(A.2)
On ralise ainsi une orthonormalisation des vecteurs de dpart.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
B
BORNAGE PAR LES VALEURS
PROPRES LMENTAIRES
On se place ici dans le cas de gure o les problmes sont issus dune analyse par lments
nis. Llment ni courant est not e et les quantits lmentaires associes porteront aussi
lindice e .
B.1 Systme aux valeurs propres gnralis
Le problme est de la forme Kx = Mx, et on dni les matrices diagonales par bloc conte-
nant les quantits lmentaires de la faon suivante :

K=
_
_
_
_
_
K
e
K
e

.
.
.
_
_
_
_
_
et

M=
_
_
_
_
_
M
e
M
e

.
.
.
_
_
_
_
_
(B.1)
Lassemblage consiste utiliser formellement une matrice dassemblage P boolenne telle
que :
K=P

KP
T
(B.2)
Comme Mest issue de la mme discrtisation, la mme matrice dassemblage est utilise :
M=P

MP
T
(B.3)
Considrons le systme, de taille suprieure n :

K x =


M x (B.4)
Il englobe le systme initial car il suft de lcrire dans le sous-espace o x est issu du dsas-
semblage dun vecteur x de raille n : x =P
T
x
1
. Avec le quotient de Rayleigh :

R( x) =
x
T

K x
x
T

M x
(B.5)
on sait que :

max
=max
x=0

R( x) (B.6)
1. Les forces gnralises, elles, sassembleraient de la faon suivante : f =P

f.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
76 BORNAGE PAR LES VALEURS PROPRES LMENTAIRES
donc :

max

x=0
x
T

K x
x
T

M x
(B.7)
Au vu du problme dsassembl,

max
est la valeur maximale des valeurs propres des l-
ments pris sparment et la relation (B.7) est en particulier vraie pour x =P
T
x donc :

max

x=0
x
T
P

KP
T
x
x
T
P

MP
T
x
=
x
T
Kx
x
T
Mx
=R(x) (B.8)
donc :

max
max
x=0
R(x) =
max
(B.9)
B.2 Systme aux valeurs propres
Cette fois-ci, le problme est de la forme Ax = x. Concernant les contributions lmen-
taire, ce problme nest plus quivalent au problme prcdent ; en particulier, si on crit
A = M
1
K et comme M
1
est pleine, on na plus la connectivit lments nis dans A, et
si on crit M = I, M nest pas lassemblage des matrices lmentaires identit. Le rsultat
prcdent ne sapplique donc plus ici. Par contre, on a toujours :

max
=max
x=0
R(x) (B.10)
o :
R(x) =
x
T
Ax
x
T
x
(B.11)
donc :

max

x=0
x
T
Ax
x
T
x
(B.12)
Prenons alors comme vecteur x particulier un vecteur nul partout sauf sur les nuds dun
lment quelconque e et notons x
e
sa restriction sur les degrs de libert de cet lment
(vecteur de petite taille, donc). On a x
T
e
x
e
= x
T
x et les contributions lmentaires x
T
Ax =
x
T
P

AP
T
x =x
T
e
A
e
x
e
+a o, si toutes les matrices lmentaires A
e
sont positives, a 0, alors :

max

x
e
=0
x
T
e
A
e
x
e
+a
x
T
e
x
e

x
T
e
A
e
x
e
x
T
e
x
e
(B.13)
donc :

max

max
(B.14)
Cest le rsultat contraire au prcdent, concernant les systmes aux valeurs propres gn-
raliss.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
C
TECHNIQUE DACCLRATION
DAITKEN
Cette technique [67] se sert des itrs prcdents pour construire une meilleure nouvelle
approximation. Si on considre une srie scalaire
n
qui tend vers , construite par un algo-
rithme du premier ordre avec un taux de convergence ; en supposant les itrs
n
,
n1
,

n2
calculs, lapproximation au premier ordre scrit :

n
(
n1
)

n1
(
n2
)
(C.1)
Ces deux quations permettent de calculer une approximation de , qui va servir pour
construire le nouvel itr

n
, et , qui permet donc destimer le taux de convergence en
cours de route. On dtermine ainsi lexpression du nouvel itr :

n
=
n

(
n1

n
)
2

n
2
n1
+
n
(C.2)
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
D
REPRES BIOGRAPHIQUES
Alexander Craig Aitken
Aitken left the Otago Boys High School in Dunedin in 1913 having won a
scholarship to Otago University. He began to study languages and mathe-
matics with the intention of becoming a school teacher but his university
career was interruptedby World War I. Back to NewZealand in 1917, Aitken
followed his original intention and became a school teacher. At his old school Otago Boys
High School. Encouraged by the new professor of mathematics at Otago University, Aitken
came to Scotland in 1923 and studied for a Ph.D. at Edinburgh under Whittaker. In 1925 he
was appointed to Edinburgh where he spent the rest of his life.
Born : 1 April 1895 in Dunedin, New Zealand.
Died : 3 Nov 1967 in Edinburgh, Scotland.
Andr-Louis Cholesky
Cholesky was a French military ofcer involved in geodesy and surveying
in Crete and North Africa just before World War I. He entered lcole Poly-
technique at the age of 20 and was attached to the Geodesic Section of the
Geographic Service, in June 1905. That was the period when the revision
of the French triangulation had just been decided to be used as the base of a new cadastral
triangulation. Cholesky solved the problem of the adjustment of the grid with the method
now named after him to compute solutions to the normal equations for the least squares
data tting problem.
Born : 15 Oct 1875 in Montguyon (Charente-Infrieure).
Died : 31 Aug 1918.
Johann Carl Friedrich Gauss
Gaussian elimination, which rst appeared in the text Nine Chapters of the
Mathematical Art written in 200 BC, was used by Gauss in his work which
studied the orbit of the asteroid Pallas. Using observations of Pallas taken
between 1803 and 1809, Gauss obtained a systemof six linear equations in
six unknowns. Gauss gave a systematic method for solving suchequations which is precisely
Gaussian elimination on the coefcient matrix.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
80 REPRES BIOGRAPHIQUES
Born : 30 April 1777 in Brunswick, Duchy of Brunswick (now Germany).
Died : 23 Feb 1855 in Gttingen, Hanover (now Germany).
Issai Schur
In 1894, Schur entered the University of Berlin to read mathematics and
physics. Schur made major steps forwardinrepresentation theory of groups,
in collaboration with Frobenius, one of his teacher.
In 1916, in Berlin, he built his famous school and spent most of the rest
of his life there. Schurs own impressive contributions were extended by his students in a
number of different directions. They worked on topics such as soluble groups, combinato-
rics, and matrix theory.
Born : 10 Jan 1875 in Mogilyov, Mogilyov province, Belarus.
Died : 10 Jan 1941 in Jerusalem, Palestine.
Joseph-Louis Lagrange
Joseph-Louis Lagrange is usually considered to be a French mathemati-
cian, but the Italian Encyclopedia refers to him as an Italian mathemati-
cian. They certainly have some justication in this claim since Lagrange
was born in Turin and baptised in the name of Giuseppe Lodovico Lagran-
gia.
The papers by Lagrange cover a variety of topics : beautiful results on the calculus of va-
riations, work on the calculus of probabilities. . . In a work on the foundations of dynamics,
Lagrange based his development on the principle of least action and on kinetic energy. The
Mcanique analytique whichLagrange hadwritteninBerlin, was publishedin 1788. It sum-
marized all the work done in the eld of mechanics since the time of Newton and is notable
for its use of the theory of differential equations. With this work Lagrange transformed me-
chanics into a branch of mathematical analysis.
Lagrange, in one of the later years of his life, imagined that he had overcome the dif-
culty (of the parallel axiom). He went so far as to write a paper, which he took with him to
the Institute, and began to read it. But in the rst paragraph something struck him which
he had not observed : he muttered : Il faut que jy songe encore, and put the paper in his
pocket. A De Morgan Budget of Paradoxes.
Born : 25 Jan 1736 in Turin, Sardinia-Piedmont (now Italy).
Died : 10 April 1813 in Paris, France.
Karl Gustav Jacob Jacobi
Jacobi published three treatises on determinants in 1841. These were im-
portant in that for the rst time the denition of the determinant was made
inanalgorithmic way and the entries inthe determinant were not specied
so his results applied equally well to cases were the entries were numbers
or to where they were functions. These three papers by Jacobi made the idea of a determi-
nant widely known.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
81
Born : 10 Dec 1804 in Potsdam, Prussia (now Germany).
Died : 18 Feb 1851 in Berlin, Germany.
Ludwig Philipp von Seidel
Philipp Seidel entered the University of Berlin in 1840 and studied under
Dirichlet and Encke. He moved to Knigsberg where he studied under Bes-
sel, Jacobi andFranz Neumann. Seidel obtained his doctorate fromMunich
in 1846 and he went on to become professor there.
Seidel wrote on dioptics and mathematical analysis. His work on lens identied mathe-
matically ve coefcients describing the aberration of a lens, nowcalled Seidel sums. These
Seidel sums correspond to spherical aberration, coma, astigmatism, Petzval curvature and
distortion. He also introduced the concept of nonuniform convergence and applied proba-
bility to astronomy.
Born : 24 Oct 1821 in Zweibrcken, Germany.
Died : 13 Aug 1896 in Munich, Germany.
James Hardy Wilkinson
Wilkinson won a Foundation Scholarship to Sir Joseph Williamsons Ma-
thematical School, Rochester at the age of 11. In 1940, Wilkinson began
war work which involved mathematical and numerical work on ballistics.
Wilkinson continued work becoming more involved in writing many
high quality papers on numerical analysis, particularly numerical linear algebra where he
developed backward error analysis methods. He worked on numerical methods for solving
systems of linear equations and eigenvalue problems.
As well as the large numbers of papers on his theoretical work, Wilkinson developed
computer software, working on the production of libraries of numerical routines. The NAG
(Numerical Algorithms Group) began work in 1970 and much of the linear algebra routines
were due to Wilkinson.
Born : 27 Sept 1919 in Strood, Kent, England.
Died : 5 Oct 1986 in London, England.
John WilliamStrutt Lord Rayleigh
His rst paper in 1865 was on Maxwells electromagnetic theory. He wor-
ked on propagation of sound and, while on an excursion to Egypt taken for
health reasons, Strutt wrote Treatise on Sound (1870-1). In 1879, he wrote
a paper on travelling waves, this theory has now developed into the theory
of solitons. His theory of scattering (1871) was the rst correct explanation of why the sky is
blue.
Born : 12 Nov 1842 in Langford Grove (near Maldon), Essex, England.
Died : 30 June 1919 in Terling Place, Witham, Essex, England.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
82 REPRES BIOGRAPHIQUES
Helmut Wielandt
Wielandt entered the University of Berlin in 1929 and there he studied ma-
thematics, physics andphilosophy. There he was greatly inuenced by Schmidt
and Schur. It was on the topic of permutation groups that Wielandt wrote
his doctoral dissertation and he was awarded a doctorate in 1935. At the
end of World War II Wielandt was appointed associate professor at the University of Mainz,
and in 1951, Ordinary Professor at the University of Tbingen. For 20 years beginning in
1952, Wielandt was managing editor of Mathematische Zeitschrift.
Born : 19 Dec 1910 in Niedereggenen, Lrrach, Germany.
Died : 1984.
Alston Scott Householder
Householder then taught mathematics in a number of different places. He
was awarded a Ph.D. by the University of Chicago in 1947 for a thesis on the
calculus of variations. However his interests were moving towards applica-
tions of mathematics, particularly applications of mathematics to biology.
In 1946, after the end of the war, Householder joined the Mathematics Division of Oak
Ridge National Laboratory. Here he changed topic, moving into numerical analysis which
was increasing in importance due to the advances in computers. He started publishing on
this new topic with Some numerical methods for solving systems of linear equations which
appeared in 1950.
In 1964, Householder published one of his most important books : The theory of matrices
in numerical analysis.
Born : 5 May 1904 in Rockford, Illinois, USA.
Died : 4 July 1993 in Malibu, California, USA.
Cornelius Lanczos
In 1938 at Purdue, Lanczos published his rst work in numerical analy-
sis. Two years later he published a matrix method of calculating Fourier
coefcients which, over 25 years later, was recognised as the Fast Fourier
Transform algorithm. In 1946, with Boeing, he worked on applications of
mathematics to aircraft design and was able to develop newnumerical methods to solve the
problems. In 1949 he moved to the Institute for Numerical Analysis of the National Bureau
of Standards in Los Angeles. Here he worked on developing digital computers and was able
to produce versions of the numerical methods he had developed earlier to program on the
digital computers.
Born : 2 Feb 1893 in Szkesfehrvr, Hungary.
Died : 25 June 1974 in Budapest, Hungary.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
83
Joseph Raphson
Joseph Raphsons life can only be deduced from a number of pointers. It is
through the University of Cambridge records that we know that Raphson
attended Jesus College Cambridge and graduated with an M.A. in 1692.
Rather remarkably Raphson was made a member of the Royal Society in
1691, the year before he graduated. His election to that Society was on the strength of his
book Analysis aequationum universalis which was published in 1690 contained the Newton
method for approximating the roots of an equation.
Raphsons ideas of space and philosophy were based on Cabalist ideas. The Cabala was
a Jewish mysticism which was inuential from the 12th century on and for which several
basic doctrines were strong inuences on Raphsons philosophical thinking. The doctrines
included the withdrawal of the divine light, thereby creating primordial space, the sinking
of luminous particles into matter and a cosmic restoration.
Born : 1648 in Middlesex, England.
Died : 1715.
Carle David Tolm Runge
As a German mathematician, physicist, and spectroscopist, he is known to
be the co-developer andco-eponymof the Runge-Kutta methodinthe eld
of numerical analysis. After taking his secondary school teachers examina-
tions he returned to Berlin where he was inuenced by Kronecker. Runge
then worked on a procedure for the numerical solution of algebraic equations in which the
roots were expressed as innite series of rational functions of the coefcients.
Born : 30 Aug 1856 in Bremen, Germany.
Died : 3 Jan 1927 in Gttingen, Germany.
Sir Isaac Newton
Isaac Newton is perhaps the best known renaissance scientist today, living
between 1642 and 1727. We think of gravity, celestial mechanics, and cal-
culus when we think of him. He certainly did develop the calculus by buil-
ding upon the ideas of Fermat and Barrow (the person whose chair he took
when he went to Cambridge). But he was not alone in developing calculus. And his focus
was really one of mechanics - how do bodies move. His focus was always on motion and
is reected in the terminology he chose for calculus - what we call derivatives, he called
uxions. And his integrals were simply inverse uxions. You can see how ux was his focus.
He also developed the dot notation for calculus - one dot meant a rst derivative, two dots a
second, and so forth. Today this is used, but only with respect to time derivatives. A general
derivative still needs to specify the variable of differentiation and more often than not, time
derivatives are done in this more general manner.
As indicated earlier, Newton and his followers argued vehemently with Huygens and his
followers over the nature of light. Newton subscribed to a corpuscular theory, where he en-
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
84 REPRES BIOGRAPHIQUES
visioned light as small compact bodies of energy. Huygens focussed on the wave like nature
and developed that theory. The diffraction properties of light were so obvious, that Huygens
school eventually won out, and the wave theory of light ruled science for the next three cen-
turies.
Born : 4 Jan 1643 in Woolsthorpe, Lincolnshire, England.
Died : 31 March 1727 in London, England.
Leonhard Euler
The publication of many articles and his book Mechanica (1736-37), which
extensively presented Newtonian dynamics in the form of mathematical
analysis for the rst time, started Euler on the way to major mathematical
work. He integrated Leibnizs differential calculus and Newtons method of
uxions into mathematical analysis. In number theory he stated the prime number theo-
rem and the law of biquadratic reciprocity. Euler made large bounds in modern analytic
geometry and trigonometry. He was the most prolic writer of mathematics of all time. His
complete works contains 886 books and papers.
Born : 15 April 1707 in Basel, Switzerland.
Died : 18 Sept 1783 in St Petersburg, Russia.
Martin WilheimKutta
Kutta was professor at the RWTH Aachen from 1910 to 1911. He then be-
came professor at Stuttgart and remained there until he retired in 1935.
In 1901, he had co-developed the Runge-Kutta method, used to solve or-
dinary differential equations numerically. He is also remembered for the
Zhukovsky-Kutta aerofoil, the Kutta-Joukowski theorem and the Kutta condition in aerody-
namics.
Born : 3 Nov 1867 in Pitschen, Upper Silesia (now Byczyna), Poland.
Died : 25 Dec 1944 in Frstenfeldbruck, Germany.
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
INDEX
A
acclration
dAitken . . . . . . . . . . . . . . . . . . . . . . . 20, 77
mthode de lacclration linaire 56,
60
mthode de lacclration moyenne 56
schma de Newmark . . . . . . . . . . . . . 55
Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
technique dacclration . . . . . . 20, 77
B
Broyden
Mthode BFGS . . . . . . . . . . . . . . . . . . . 41
C
Cauchy
problme de . . . . . . . . . . . . . . . . . . 43, 52
Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
factorisation de . . . . . 12, 13, 23, 25, 73
cot
CPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
dun algorithme . 810, 12, 15, 33, 52,
54
dune mthode . . . . . . . . . . . . . . . . . . . 17
fonction . . . . . . . . . . . . . . . . . . . . . . . . . . 40
fonction (optimisation) . . . . . . . . . . . 38
complexit . . . . . . . . . . . . . . . . . . 9, 12, 13, 32
conditionnement . . . . . . . . . . . . . 6, 7, 24, 26
convergence . . . . . . . . . . . . . . . . . . . . . . . 1720
asymptotique . . . . . . . . . . . . . . . . . . . . . 18
cubique . . . . . . . . . . . . . . . . . . . . . . . . . . 30
gradient conjugu prconditionn 23
linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
mthode de Jacobi . . . . . . . . . . . . . . . . 28
mthode de Lanczos . . . . . . . . . . . . . . 35
mthode des itrations inverses . . 30
mthode des puissances . . . . . . . . . . 28
mthode du gradient . . . . . . . . . . . . . 22
quadratique . . . . . . . . . . . . . . . . . . . . . . 64
schma dEuler explicite . . . . . . . . . . 44
taux de . . . . . . . . . . . . . . . . . . . . 18, 19, 77
valeurs propres multiples . . . . . . . . . 29
Cramer
mthode de . . . . . . . . . . . . . . . . . . . . . . . . 8
Crout
factorisation . . . . . . . . . . . . . . . . . . . . . . 13
factorisation de . . . . . . . . . . . . . . . 1315
Cuthill-MacKee . . . . . . . . . . . . . . . . . . . . . . . . 9
E
lments nis . . . . . . . 1, 5, 7, 13, 37, 75, 76
code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
conditionnement . . . . . . . . . . . . . . . . . . 7
conditions aux limites . . . . . . . . . . . . 14
convergence . . . . . . . . . . . . . . . . . . . . . . 19
discrtisation . . . . . . . . . . . . . . . . . . . 8, 25
problme de mmoire . . . . . . . . . . . . 41
super-lment . . . . . . . . . . . . . . . . . . . . 13
systme diffrentiel du premier ordre
53
quation
caractristique . . . . . . . . . . . . . . . . 26, 56
dquilibre . . . . . . . . . . . . . . . . . . . . . . . . 66
dtat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
dadmissibilit cinmatique . . . . . . 37
dadmissibilit statique . . . . . . . . . . . 37
dEuler . . . . . . . . . . . . . . . . . . . . . . . . 1416
de comportement . . . . . . . . . . . . . . . . 66
de la dynamique . . . . . . . . . . . . . . . . . . 67
diffrentielle . . . . . . . . . . . . . . . . . . . . . . 67
diffrentielle non-linaire . . . . . . . . 62
du mouvement . . . . . . . . . . . . . . . . . . . 67
Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
quation d . . . . . . . . . . . . . . . . . . . . 1416
schma d
explicite, 44, 46, 48
implicite, 47, 50, 62
F
factorisation
de Cholesky . . . . . . . . 12, 13, 23, 25, 73
de Crout . . . . . . . . . . . . . . . . . . . . . . 1315
de Gauss . . . . . . . . . . . . . . . . . . . . . . 13, 15
LDL
T
. . . . . . . . . . . . . . . . . . . . . . . . . . 13, 31
LDM
T
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1113
QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31, 32
G
Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
limination de . . . . . . . . . . . . . . . . . . . . 10
algorithme de Gauss-Seidel . . . . . . . 19
factorisation de . . . . . . . . . . . . . . . 13, 15
mthode de Gauss-Seidel . . . . . 18, 19
H
Hessenberg
forme de . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Householder . . . . . . . . . . . . . . . . . . . . . . . . . . 82
algorithme de Householder-Businger-
Golub . . . . . . . . . . . . . . . . . . . . . . . . 32
factorisation QR . . . . . . . . . . . . . . . . . . 32
mthode de . . . . . . . . . . . . . . . . . . . . . . 26
transformation de . . . . . . . . . . . . . 31, 34
J
Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80, 81
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
86 INDEX
algorithme de . . . . . . . . . . . . . . . . . . . . 27
mthode de . . . . . . . . 1820, 26, 27, 29
convergence, 28
K
Kahan
thorme de . . . . . . . . . . . . . . . . . . . . . . 20
Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Kutta-Joukowski . . . . . . . . . . . . . . . . . . 84
mthode de Runge-Kutta . 5153, 55,
62
Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . 83
Zhukovsky-Kutta . . . . . . . . . . . . . . . . . 84
L
Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
multiplicateurs de . . . . . . . . . . . . 15, 20
Lanczos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
itrations de . . . . . . . . . . . . . . . . . . . . . . 36
mthode de . . . . . . . . . . . . . . . 26, 35, 36
Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
linaire(s)
quation(s) . . . . . . . . . . . . . . . . . . . 46, 54
combinaison(s) . . . . . . . . . . . . 10, 17, 29
convergence(s) . . . . . . . . . . . . . . . . . . . 33
mthode des acclrations . . . . 56, 60
rcurrence(s) . . . . . . . . . . . . . . . . . . . . . 18
relation(s) . . . . . . . . . . . . . . . . . . . . . . . . 16
systme(s) . . . . 5, 18, 26, 32, 39, 54, 55
M
matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
bande . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
boolenne . . . . . . . . . . . . . . . . . . . . . . . . 14
condense . . . . . . . . . . . . . . . . . . . . . . . . 11
damortissement . . . . . . . . . . . . . . 25, 55
dassemblage . . . . . . . . . . . . . . . . . . . . . 75
ditration . . . . . . . . . . . . . . . . . . . . . 19, 56
dcale . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
de capacit . . . . . . . . . . . . . . . . . . . . . . . 53
de conduction . . . . . . . . . . . . . . . . . . . . 53
de masse . . . . . . . . . . . . . . . . . . . . . . 54, 55
de raideur . . . . . . . . . . . . . . . . . . . . . . . . 16
de rigidit . . . . . . . . . . . . . . 13, 14, 38, 55
tangente, 64
de rotation . . . . . . . . . . . . . . . . . . . . . . . 27
jacobienne . . . . . . . . . . . . . . . . 3840, 63
pleine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
semi-dnie . . . . . . . . . . . . . . . . . . . . . . 17
sous-matrice . . . . . . . . . . . . . . . . . . 11, 12
symtrique . . . . . . . . . . . . . . . . . . . . . . . 13
symtrique dnie positive . . . . . . . 15
triangulaire suprieure . . . . . . . . . . . 11
valeurs propres . . . . . . . . . . . . . . . 20, 25
N
Newmark
mthode de . . . . . . . . . . . . . . . 55, 57, 61
schma de . . . . . . . . . . . . . . . . . 55, 57, 58
stabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80, 83
uxions . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
loi de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
mthode de . . . . . . . . . . . . . . . 37, 38, 63
modle de . . . . . . . . . . . . . . . . . . . . . . . . 68
Newton-Raphson . . . . . . . . . . . . . 39, 64
quasi-newton . . . . . . . . . . . . . . . . . . . . . 40
norme . . . . . . . . . . 68, 18, 22, 24, 29, 30, 36
innie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
matricielle . . . . . . . . . . . . . . . . . . . . . . . . . 6
normer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28, 35
O
orthogonalisation
dun sous-espace . . . . . . . . . . . . . . . . . 12
de Gram-Schmidt . . . . . . . . . . . . . . . . 73
r-orthogonalisation de grandproblme
35
P
pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Crout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
facrotisation LU . . . . . . . . . . . . . . . . . . 11
partiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
stratgie . . . . . . . . . . . . . . . . . . . . . . . . . . 11
total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
prconditionnement . . . . . . . . . . . . . . . . . . 23
gradient conjugu prconditionn 23,
41
prconditionneur . . . . . . . . . . . . . . . . . 23
R
Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Newton-Raphson . . . . . . . . . . . . . 39, 64
Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
amotissement de . . . . . . . . . . . . . . . . . 57
itrations inverses de . . . . . . . . . . . . . 30
quotient de . . . . . . . . . . . . . . . . . . . 26, 75
Runge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
mthode de Runge-Kutta . 5153, 55,
62, 84
Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . 83
S
Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80, 82
complment de . . . . . . . . . . . . . . . . . . . 11
condensation de . . . . . . . . . . . . . . . . . . 13
Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
algorithme de Gauss-Seidel . . . . . . . 19
mthode de Gauss-Seidel . . . . . 18, 19
Southwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
systme
aux valeurs propres . . . . 25, 26, 75, 76
dexploitation . . . . . . . . . . . . . . . . . . . . 10
diffrentiel
du premier ordre, 67
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9
INDEX 87
non rgulier, 67
dynamique . . . . . . . . . . . . . . . . . . . . . . . 67
linaire . . . . . . . . . . . . . . . 5, 8, 26, 32, 39
creux, 8
triangulaire, 10, 12
non-linaire . . . . . . . . . . . . . . . . . . . 18, 37
T
trapze(s)
mthode des . . . . . . . . . . . 47, 48, 61, 67
schma des . . . . . . . . . . . . . . . . . . . . . . . 48
W
Wielandt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
mthode de . . . . . . . . . . . . . . . . . . . . . . 30
Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
test de . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
c
e
l
-
0
0
3
5
1
7
1
3
,

v
e
r
s
i
o
n

1

-

1
0

J
a
n

2
0
0
9

S-ar putea să vă placă și