Documente Academic
Documente Profesional
Documente Cultură
Optimisation quadratique
1 Introduction 5
1.1 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Plan et objectifs de ce cours . . . . . . . . . . . . . . . . . . . . . . . . 7
3
4 Ciarlet & Zidani
Introduction
L’optimisation est un concept qui fait partie intégrante de la vie courante. Citons
quelques exemples tout à fait banals, mais représentatifs :
Quel est le meilleur itinéraire pour aller d’un point A à un point B en voiture ?
Au tennis, comment maximiser l’effet, la vitesse d’une balle de service ?
Peut-on gagner contre la banque à la roulette au casino ?
A la bourse, comment maximiser les profits tout en minimisant les risques ?
Pourquoi tel composant chimique réagit-il avec tel autre ?
etc.
Une stratégie raisonnable est d’essayer de modéliser chacun de ces problèmes, c’est-
à-dire de les reformuler sous une forme mathématique, puis de résoudre/optimiser les
modèles mathématiques ainsi obtenus, et enfin de tester les résultats sur les situations
pratiques... La modélisation, la mise en équations, ne sera que très marginalement
étudiée dans ce cours (voir le chapitre 4). De fait, cette activité est du ressort du phy-
sicien, du chimiste, de l’économiste, du joueur ( !)...
L’ingénieur, à qui revient la charge de résoudre ces modèles, se doit de les bien connaı̂tre,
notamment en ce qui concerne les hypothèses sous lesquelles le modèle est valide, avant
d’envisager leur résolution. Dans cette optique, le thème de ce cours est la construc-
tion, et la justification mathématique, de méthodes de résolution de ces modèles. Nous
considérerons principalement des modèles simplifiés, que nous nous attacherons à ana-
lyser (mathématiquement) en détail. Nous proposerons également des méthodes de
résolution approchées, c’est-à-dire leur résolution numérique sur ordinateur. En parti-
culier, nous ferons appel à des outils d’analyse (topologie, calcul différentiel, convexité),
mais aussi à de nombreuses branches d’algèbre linéaire. En ce sens, la distinction
algèbre/analyse, classique en classes préparatoires, s’estompera.
5
6 Ciarlet & Zidani
min J(x)
x∈K
PN PN
avec J(x) = 21 (x, Ax) et K = {x ∈ RN , i=1 xi = 1 et i=1 xi ei ≥ r0 }.
ou bien
Trouver u ∈ K, tel que J(u) = sup J(v),
v∈K
8 Ciarlet & Zidani
où J est une fonctionnelle définie sur un ensemble K non vide, à valeurs dans R. Avant
d’envisager l’utilisation d’un algorithme, il est naturel 1 de répondre aux questions ci-
dessous :
(i) Existe-t-il une solution u ? Est-elle unique ?
(ii) Comment la caractériser ?
(iii) Quel(s) algorithme(s) permet(tent) de calculer la solution ?
(iv) Quel est alors l’algorithme le plus efficace ?
Le plan de ce cours est le suivant. Le chapitre 2 est consacré aux questions d’exis-
tence et d’unicité du ou des minima. Nous nous attachons en particulier à l’étude de
problèmes posés non pas sur l’espace entier, mais plutôt sur une partie de celui-ci ; on
parle alors de problème de minimisation avec contraintes.
Dans le chapitre 3, nous analysons les conditions d’optimalité. Là encore, nous
nous interesserons aux cas de problèmes avec contraintes, et en particulier, aux cas de
contraintes d’égalités ou inégalités affines.
Dans le chapitre suivant, nous étudions un problème classique de minimisation,
appelé moindres carrés linéaires, qui peut être perçu comme une généralisation de la
résolution d’un système linéaire.
Enfin, dans le dernier chapitre, nous construirons des algorithmes permettant de
calculer numériquement une approximation du minimum. Deux points-clefs sont à noter
dès à présent au sujet de ces algorithmes :
Ils sont basés sur les caractérisations obtenues dans les chapitres théoriques.
Ils sont itératifs : à partir d’une initialisation u0 , on calcule u1 , puis u2 , etc.
jusqu’à arriver à une solution numérique correcte.
Dans l’Annexe, nous rappelons les notions élémentaires, ainsi que les théorèmes
fondamentaux, associés à la différentiabilité d’une fonctionnelle définie sur un espace
vectoriel normé, à valeurs dans un espace vectoriel normé.
Dans ce problème, il ne s’agit pas seulement de vérifier que inf v∈K J(v) ∈ R, mais aussi
que cette valeur inférieure est atteinte par un (voire plusieurs) point u de K.
∀v ∈ K, J(u) ≤ J(v).
Définition 2.2.2. On dit qu’une suite (uk )k∈N d’éléments de K est une suite mini-
misante si, et seulement si,
9
10 Ciarlet & Zidani
Remarque 2.2.1. Par définition de la notion d’infimum, il existe toujours des suites
minimisantes !
Intéressons nous maintenant à la question d’existence de minima, et rappelons
d’abord le théorème suivant, bien connu.
Théorème 2.2.1. Si K est compact et J est continue sur K, alors J atteint ses
extréma :
∃(umin , umax ) ∈ K × K, tels que J(umin ) = inf J(v), J(umax ) = sup J(v).
v∈K v∈K
On peut établir une variante du théorème 2.2.1, valable lorsque E est de dimension
finie. Ce résultat est fort utile si K est non compact.
Définition 2.2.3. On dit qu’une fonctionnelle J est infinie à l’infini dans K si, et
seulement si,
pour toute suite (vn )n ⊂ K, lim kvn k = +∞ =⇒ lim J(vn ) = +∞. (2.1)
n→+∞ n→+∞
Remarque 2.2.2. La propriété ”infinie à l’infini dans K” assure que toute suite mi-
nimisante de J est bornée. Il est important de noter que cette propriété est automa-
tiquement vérifiée si K est borné, on retrouve ainsi le résultat classique du théorème
2.2.1. Il est aussi évident que (2.1) est vraie, si, et seulement si,
lim J(v) = +∞.
v∈K,kvk→+∞
Optimisation quadratique 11
♠ Notons aussi que la condition (2.1) n’assure pas l’existence d’un maximum. Cepen-
dant, il n’est pas difficile maintenant d’énoncer un résultat d’existence du maximum
sous une hypothèse semblable à (2.1). Ce point est laissé en exercice au lecteur.
2α x0 = β. (2.2)
Théorème 2.2.3. Soit E un espace vectoriel normé et B(0, 1) = {v ∈ E : kvk ≤ 1} sa boule unité
fermée. Alors, E est de dimension finie si, et seulement si, B(0, 1) est compacte.
A partir de ce résultat, on voit qu’il ne sert à rien de se ramener à une suite bornée, si l’on reprend
la démonstration dans le cas de la dimension infinie. En effet, les éléments de la suite appartiennent
bien à une boule fermée et bornée, mais celle-ci n’est plus compacte. On ne peut alors plus considérer
une sous-suite qui converge...
12 Ciarlet & Zidani
(I) α < 0 : la condition (2.2) n’est pas suffisante pour déterminer le minimum et
d’ailleurs il n’existe pas de minimum.
(II) α ≥ 0 : la condition (2.2) permet de calculer le minimum lorsqu’il existe.
Si α > 0, il existe un minimum x0 unique, égal à x0 = β/2 α.
Si α = 0 et β = 0, tout élément de R réalise le minimum.
Si α = 0 et β 6= 0, il n’existe pas de minimum.
Le cas α ≥ 0 correspond à une fonction P (x) convexe, notion que nous abordons à
la section suivante.
Définition 2.3.2. Soit J une fonctionnelle définie sur un sous-ensemble convexe non
vide K de E, à valeurs dans R. On dit que J est convexe si et seulement si
Dans le cas d’une inégalité stricte, on dit que la fonctionnelle J est strictement
convexe.
2. et aussi, comme nous le verrons au chapitre suivant, une caractérisation de ces minima
Optimisation quadratique 13
J(x) J(x)
x x
J(x) J(x)
x x
Nous allons maintenant établir un premier résultat sur les fonctionnelles convexes,
à savoir que tout point de minimum local est en fait un point de minimum global.
Commençons par la proposition suivante.
Proposition 2.3.1. Soit J une fonctionnelle convexe définie sur un convexe non vide
K :
1. si u et v sont deux points de minimum locaux, alors J(u) = J(v) ;
2. si de plus J est strictement convexe, alors u = v.
14 Ciarlet & Zidani
θJ(u) + (1 − θ)J(v) 1
0
0
1
0
1
0
1
0
1
0
1
0
1
J(θu + (1 − θ)v) 00
11
u θu + (1 − θ)v v
Preuve :
1. Soient u et v deux minima. Comme K est convexe, u + θ(v − u) ∈ K pour tout
θ ∈]0, 1[. De plus ∃θ0 , t.q. pour tout θ ∈]0, θ0 ], J(u) ≤ J(u + θ(v − u)). Comme
J est convexe, on obtient, pour tout θ ∈]0, θ0 ],
et on en déduit facilement que J(u) ≤ J(v). De même on montre que J(u) ≥ J(v).
On a donc bien J(u) = J(v).
2. Supposons que J soit strictement convexe. Si u et v sont deux points de minimum,
on a vu que J(u) = J(v). Si u et v sont distincts,
Nous en déduisons
Théorème 2.3.1. Soit J une fonctionnelle convexe définie sur un convexe non vide
K :
1. tout point de minimum local est un point de minimum global ;
2. si de plus J est strictement convexe, le point de minimum, s’il existe, est unique.
Preuve :
Optimisation quadratique 15
ce qui prouve que J est “infinie à l’infini”. L’ensemble K étant fermé et non vide,
on conclut que J atteint le minimum sur K. Il nous reste à prouver que la solution
est unique. Remarquons d’abord que la fonction J est convexe sans être strictement
convexe, on ne peut donc pas utiliser directement le théorème 2.3.1 pour prouver l’uni-
cité.
Soient u1 et u2 deux solutions de (2.3). Puisque K est convexe et J est convexe,
u1 + u2
alors est aussi une solution de (2.3), et on a :
2
u1 + u2
min kv − wk = J(u1 ) = J(u2 ) = J( ).
v∈K 2
D’autre part, on a :
u1 + u2
k u1 − u2 k2 = 2(k u1 − w k2 + k u2 − w k2 ) − 4 k − w k2
2
u1 + u2 2
= 2([J(u1 )]2 + [J(u2 )]2 ) − 4[J( )] = 0.
2
On a donc u1 = u2 , ce qui prouve bien l’unicité de la solution qu’on notera u.
Ainsi on a prouvé que pour tout w ∈ E, il existe u ∈ K tel que kw − uk =
minv∈K kw − vk. L’élément u est appelé projection de w sur le convexe fermé K, on le
notera PK (w) := u. De plus on a :
Proposition 2.3.2. Si K est un convexe fermé, alors tout élément w de E admet une
projection unique PK (w) sur K. De plus l’application w 7−→ PK (w) est contractante.
Preuve : Il reste à prouver que PK est contractante.
16 Ciarlet & Zidani
Preuve : Montrons d’abord que (i) =⇒ (ii). Pour cela supposons que J est convexe
sur K, et prenons u et v deux éléments distincts de K. Pour tout θ ∈]0, 1[, on a :
11
00 J(v)
0
1
00
11
0
1
0
1
0
1
0
1
00
11
0
1
00
11
0J(u) + (∇J(u), v − u)
1
11
00
00 J(u)
11
u v
1
(∇J(w1 ) − ∇J(w2 ), u − v) = (∇J(w1 ) − ∇J(w2 ), w2 − w1 ) ≤ 0.
γ
Pour finir, notons aussi que pour une fonctionnelle convexe, on a des résultats
généraux concernant sa régularité (nous renvoyons le lecteur à [6]).
Chapitre 3
3.1 Introduction
Dans ce chapitre on considère les fonctionnelles dérivables au sens de Gateaux (cf.
l’Annexe), sauf mention explicite du contraire. Dans tout ce chapitre 1 , E = Rn et
l’espace d’arrivée F sera égal à R.
Nous nous intéressons ici aux conditions d’optimalité d’une fonctionnelle J sur
un ensemble non vide K. Nous allons étudier d’abord le cas général, poursuivre par
celui d’un sous-ensemble K convexe, et ensuite par le cas où K est un sous-espace
affine.
Commençons par introduire la notion de chemin, et rappeler celle des tangentes.
19
20 Ciarlet & Zidani
γ’(t0)
γ’(0)
d
On en déduit donc que l’on a l’égalité dγ(t0 )·h = h γ ′ (t0 ), pour h suffisamment petit.
Comme dγ(t0 ) est une application linéaire, l’égalité précédente est vraie pour tout h
de R.
Remarque 3.1.1. La dérivée à droite peut être vue comme une dérivée directionnelle
(cf. définition A.1.3) dans le sens positif. En effet,
γ(t0 + θ (+1)) − γ(t0 )
γd′ (t0 ) = lim+ = dγ(t0 )·(+1).
θ→0 θ
Soit maintenant f une application Fréchet-différentiable de E dans F (cf. Annexe).
On construit µ = f ◦ γ, une fonction de la variable réelle à valeurs dans F. Tous les
résultats connus s’appliquent sur une telle fonction (théorème des accroissements finis,
formules de Taylor, etc.).
µ est dérivable, comme composée d’applications différentiables, et on a
Preuve : On écrit
K
K
(ii) il existe une suite (wk )k ⊂ E, et une suite (λk )k telles que
Or, khk tend vers 0 lorsque t tend vers 0+ , puisque khk ≤ 2tkwk, pour t suffisamment
petit. Par application de (A.6), on trouve alors
∇J(u) = 0.
On peut aussi raisonner de la même manière lorsque le minimum est atteint à l’intérieur
◦
de l’ensemble K, en effet pour tout u ∈K , le cône tangent Tk (u) est aussi égal à E.
Si x0 ∈]a, b[, alors le corollaire implique que J ′ (x0 ) = 0. Par contre si x0 = a, alors le
gradient n’a aucune raison de s’annuler et le théorème dit simplement que J ′ (x0 ) ≥ 0.
De même, si x0 = b, alors le théorème implique que J ′ (x0 ) ≤ 0.
a b x0 = a b a x0 = b
Jusqu’ici nous n’avons étudié que la condition nécessaire d’existence d’un minimum,
utilisant uniquement la différentielle d’ordre 1. On parle alors de condition du premier
ordre. Dans le cas simple où K = E, cette condition traduit la nullité du gradient de J
24 Ciarlet & Zidani
en le minimum. On peut facilement prouver aussi que cette condition reste nécessaire
pour l’existence d’un maximum. Il est donc important de chercher une nouvelle condi-
tion d’optimalité pouvant différencier les minima des maxima. Cette condition utilise
la différentielle d’ordre 2 et s’énonce comme suit :
Preuve :
(i) Supposons que K = E et soit u un minimum local de J. Comme J est deux fois
différentiable en u, on peut écrire le développement limité de J en u à l’ordre 2. Pour
h un élément de E et λ > 0 petit, on a, cf. (A.10) :
λ2 2
J(u + λ h) = J(u) + λ (∇J(u), h) + (∇ J(u)h, h) + r2 (λ h),
2
avec r2 (h)/khk2 −−→ 0. D’après le corollaire précédent, ∇J(u) = 0. Et du fait que u
h→0
est minimum local, il existe λ0 > 0 tel que pour tout λ ∈ (0, λ0 ), J(u + λh) ≥ J(u), et
par suite,
λ2 2 2
(∇ J(u)h, h) + r2 (λ h) ≥ 0, soit (∇2 J(u)h, h) + 2 r2 (λ h) ≥ 0.
2 λ
2
Faisons tendre λ vers 0+ . Le premier terme est indépendant de λ, et limλ→0+ r2 (λ h) = 0,
λ2
d’après le théorème de Taylor-Young A.3.5. Ainsi, on trouve bien (∇2 J(u)h, h) ≥ 0.
◦
(ii) Dans le cas où le minimum de J sur K est atteint en u ∈K , alors pour tout h ∈ E,
il existe λ0 > 0 tel que pour tout λ ∈ (0, λ0 ), u + λh ∈ K et J(u + λh) ≥ J(u). Le reste
de raisonnement se fait comme en (i).
Remarque 3.2.2. Toutes les conditions d’optimalité énoncées jusque là (que ce soit
du premier ou du second ordre) ne constituent que des conditions nécessaires mais pas
suffisantes. En effet, prenons le cas simple où E = R et J(x) = x3 . En x = 0, les
conditions nécessaires du premier et second ordre sont bien vérifiées (J ′ (0) = J ′′ (0) =
0) et pourtant 0 n’est pas un minimum de J !
Théorème 3.2.2. Supposons que K = E. Soit J une fonction deux fois différentiable
et soit u ∈ E. Si
∇J(u) = 0
(3.9)
∃Vun voisinage de u tel que (∇2 J(w)h, h) ≥ 0 ∀h ∈ E, ∀w ∈ V
(∇J(u), v − u) ≥ 0, ∀v ∈ K. (3.10)
Preuve : Soit v ∈ K.
Par définition de la convexité, on sait que u + t(v − u) appartient à K, pour t ∈ [0, 1].
Puisque u est un minimum local, il existe t0 > 0 tel que J(u + t(v − u)) ≥ J(u), pour
tout t dans ]0, t0 [.
Si l’on remplace J(u + t(v − u)) − J(u) par la valeur donnée par la formule (A.4), on
en déduit
(∇J(u), t(v − u)) + o(t) ≥ 0, ∀t ∈]0, t0 [.
Suivant la méthodologie des petites variations, on peut mettre t en facteur, ce qui laisse
o(t)
(∇J(u), v − u) + ≥ 0, ∀t ∈]0, t0 [.
t
En faisant tendre t vers 0, on infère le résultat annoncé.
26 Ciarlet & Zidani
(∇J(u), v − u) ≥ 0, ∀v ∈ K. (3.11)
Avec (3.11), on conclut que J(v) ≥ J(u) pour tout v ∈ K, et donc u est un point de
minimum global de J sur K.
∇J(u) = 0. (3.13)
Soit J une fonctionnelle continue sur E. D’après le théorème 3.2.3, puisque K est un
convexe non vide, si u ∈ K est un point de minimum local de J sur K, et si J est
différentiable en u, on a nécessairement
(∇J(u), v − u) ≥ 0, ∀v ∈ K.
Ceci permet d’affirmer, grâce au lemme 3.3.1, que ∇J(u) est dans l’image de la trans-
posée de C T noté Im C T :
∃λ ∈ Rp , ∇J(u) + C T λ = 0.
Remarque 3.3.1. Dans le théorème précédent le vecteur λ est unique si C est sur-
jectif 3 . En effet, si λ1 et λ2 conviennent, alors C T (λ1 − λ2 ) = 0 avec C T injectif, donc
λ1 = λ2 .
Remarque 3.3.2. Pour obtenir un résultat de caractérisation similaire lorsque les con-
traintes d’égalité ne sont plus affines, mais quelconques, il faut disposer du théorème
des fonctions implicites. Le lecteur intéressé est renvoyé à [6].
Preuve : Prouvons pour commencer que Im C T ⊂ (Ker C)⊥ . Soit donc x un élément
de Im C T ; il existe v ∈ Rp tel que x = C T v. Alors, pour tout élément y appartenant à
Ker C, on a
(x, y)n = (C T v, y)n = (v, Cy)p = 0.
Pour prouver l’égalité entre ces deux sous-espaces vectoriels de Rn , vérifions qu’ils ont
même dimension. D’une part, puisque Ker C et (Ker C)⊥ sont supplémentaires,
On a bien l’égalité entre les dimensions, dim[(Ker C)⊥ ] = dim[Im C], ce qui permet
d’arriver à l’égalité annoncée.
3.3.1 Le Lagrangien
Nous allons maintenant voir qu’il est particulièrement intéressant d’introduire la
fonctionnelle
L(v, µ) = J(v) + (µ, Cv − f ), ∀(v, µ) ∈ E × Rp . (3.15)
On l’appelle le Lagrangien associé au problème de la minimisation de J sur K. Ici, v
parcourt E entier, et non plus K uniquement. On dit que l’on a dualisé les contraintes,
et les éléments µ de Rp sont appelés multiplicateurs de Lagrange.
Pourquoi est-ce utile ? Pour le comprendre, étudions la différentielle partielle par rap-
port à v de L (c’est-à-dire que l’on raisonne à µ fixé) : Soient v, h ∈ E et θ ∈ R
Dès lors que J est différentiable en v, on en déduit que L est différentiable par rapport
à v en (v, µ), puisque l’on peut écrire 4
T
L(v + θ h, µ) − L(v, µ) = θ (∇J(v), h) + (C µ, h) + o(θ).
K = {v ∈ Rn : C v = f },
En d’autres termes,
Corollaire 3.3.2. Soit J défini par (3.19) avec A une matrice symétrique, et soit K
le sous-espace non vide K = {v | Cv = f }. Si u est un point de minimum de J sur
K, alors il existe λ ∈ Rp tel que le couple (u, λ) de Rn × Rp soit solution du système
linéaire
A CT u b
= . (3.20)
C 0 λ f
Enfin, pour en finir ici avec les problèmes avec contraintes d’égalités, l’on suppose
cette fois que la matrice A est symétrique et positive 5 . On a alors le
Théorème 3.3.2. Supposons que A est symétrique positive. le vecteur u est un point
de minimum de J sur K si, et seulement si, il existe un élément λ de Rp tel que le
couple (u, λ) soit solution de
A CT u b
= . (3.21)
C 0 λ f
5. A est positive si et seulement si pour tout v ∈ E, (Av, v) ≥ 0.
Optimisation quadratique 31
La réciproque est aussi vraie puisque la fonction J est convexe. En effet, comme A
est symétrique, ∇J(v) = Av − b. De plus,
puisque A est positive. D’où J est convexe et la condition de minimalité (3.21) est une
condition nécessaire et suffisante.
A CT
On suppose ici que A est symétrique définie-positive. La matrice ap-
C 0
partient à R(n+p)×(n+p) . Pour prouver que le système linéaire (3.21) admet une solution
unique, il suffit de vérifier que le noyau de l’application linéaire associée est réduit à
{0}. Soit donc un couple (u, λ) de Rn × Rp tel que
A CT u 0
= .
C 0 λ 0
Comme A est inversible, on infère, par implications successives que
• u = −A−1 C T λ (première ligne) ;
• CA−1 C T λ = 0 (seconde ligne) ;
(CA−1 C T λ, λ)p = 0 (produit scalaire par λ) ; (A−1 C T λ, C T λ) = 0 (transposi-
tion) ;
Comme A est symétrique définie-positive, A−1 l’est également, et ainsi
C T λ = 0.
où C est une matrice p×n. On considère à nouveau aussi une fonctionnelle différentiable
J sur E à valeurs dans R.
Soit u ∈ K le minimum de la fonctionnelle J sur K. L’inéquation d’Euler associée
à ce problème de minimisation s’écrit :
(∇J(u), v − u) ≥ 0, ∀v ∈ K.
∃λ ∈ Rp , ∇J(u) + C T λ = 0, (3.23a)
λ ≥ 0, λi [Cu − f ]i = 0, (3.23b)
Cu ≤ f. (3.23c)
De plus, si J est convexe alors (3.23) est aussi une condition suffisante de minimalité.
C’est à dire si u vérifie (3.23), alors u est un minimum global de J sur K.
Ci w ≤ 0, et Ci u = fi ,
Optimisation quadratique 33
(∇J(u), w) ≥ 0 ∀w ∈ K # . (3.24)
On va maintenant admettre le résultat suivant (sa preuve sera donnée plus loin).
∃λ ∈ Rp , λ ≥ 0, ∇J(u) = −C T λ,
λi [Cu − f ]i = 0, ∀i = 1, · · · , n.
Le fait que la condition d’optimalité soit suffisante, dans le cas où J est convexe,
est une conséquence du théorème 2.3.1.
K := {v ∈ E, Cv = f } (contraintes d’égalité)
ou K := {v ∈ E, Cv ≤ f } (contraintes d’inégalité).
Il est clair que en toute généralité, nous ne pouvons pas guarantir que la valeur J (v)
soit toujours finie. Il se peut que J (v) = +∞ pour certaines valeurs de v ∈ Rn (comme
il se peut que G(µ) = −∞ pour des valeurs µ ∈ Λ). Plus précisement, avec la définition
du Lagrangien, il n’est pas difficile de vérifier que :
+∞ si v 6∈ K,
J (v) = max L(v, µ) =
µ∈Λ J(v) si v ∈ K.
Lemme 3.5.1.
Le lemme 3.5.1 permet de réecrire (P) sous la forme d’un problème de type min-max
dans lequel la minimisation par rapport à la variable v est faite sur l’espace tout entier,
la contrainte v ∈ K est ”incluse” dans la définition de la fonction J .
36 Ciarlet & Zidani
Avant de répondre à cette question, nous allons introduire une définition utile pour la
suite.
20
10
−10
−20
−30
−40
2
1 2
0 1
0
−1 −1
−2 −2
Avec les deux problèmes d’optimisation (P) et (D), nous avons la caractérisation
suivante du point selle.
J (u) = minn J (v) = minn max L(v, µ) = max minn L(v, µ) = max G(µ) = G(λ). (3.29)
v∈R v∈R µ∈Λ µ∈Λ v∈R µ∈Λ
Preuve : Soit (u, λ) un point selle de L sur K ×Λ. D’après (3.28), pour tout v ∈ K,
on a :
J (v) = sup L(v, µ) ≥ L(v, λ) ≥ L(u, λ), (3.30)
µ∈Λ
et J (u) = sup L(u, µ) ≤ L(u, λ). (3.31)
µ∈Λ
Pour démontrer l’implication réciproque, on suppose que (3.29) est vérifiée. Tenant
compte de la défintion de J , on obtient que :
L(u, µ) ≤ J (u) pour tout µ ∈ Λ.
De même on obtient aussi de la défintion de G que :
L(v, λ) ≥ G(λ) pour tout v ∈ Rn .
De ces inégalité et de (3.29), on conclut que
L(u, λ) = J (u) = G(λ)
et que (u, λ) est un point selle de L sur K × Λ.
Corollaire 3.5.1. Supposons que J est convexe différentiable sur K. Si u ∈ Rn est un
minimum global de J sur Rn , alors il existe λ ∈ Λ tel que :
(i) λ est le maximum de G sur Λ,
(ii) (u, λ) est un point-selle de L sur K × Λ,
(iii) (u, λ) ∈ Rn × Λ vérifie la condition nécessaire et suffisante
u ∈ K, λ ∈ Λ, (λ, Cu − f ) = 0, ∇J(u) + C T λ = 0.
Ce résultat indique que le problème primal est aussi important que le problème dual.
Pour obtenir une solution optimale u du problème (P), on pourrait d’abord déterminer
une solution λ du problème dual (D), dont les contraintes sont plus simples. Ensuite,
on calcule la solution du problème sans contrainte :
min L(v, λ),
v∈Rn
dont on sait, à cause de la propriété du point-selle, que sa solution est optimale pour
(P).
38 Ciarlet & Zidani
K = {v ∈ Rn | CI v ≤ fI et CE v = fE }, (3.32)
CE v ≤ fE et − CE v ≤ −fE ,
inf J(v),
v∈K
De plus, si J est convexe alors (3.33) est aussi une condition nécessaire et suffisante
de minimalité.
Chapitre 4
4.1 Problèmatique
De prime abord, il est rassurant ( ! ?) de résoudre exactement un problème. En
pratique, cependant, on se rend compte que, dans de nombreux cas, il n’existe pas de
solution ”exacte” (voir la note de bas de page). C’est souvent le cas lorque l’on désire
réaliser l’opération suivante :
A partir d’un nombre fini (parfois très grand) de mesures, inférer un comporte-
ment (idéalement) valable dans tous les cas, passés, présents ou à venir.
Typiquement, d’une part on dispose d’un modèle abstrait, et d’autre part de données,
et l’on souhaite fusionner l’un et l’autre, pour disposer d’une modélisation concrète du
phénomène étudié, et/ou d’outils de prédiction. Prenons l’exemple suivant.
Carl Friedrichs Gauss (1777-1855) désirait déterminer la trajectoire de planètes,
et notamment celle d’Uranus, découverte à la fin du 18ème siècle. D’après les lois de
Képler, si l’on néglige la présence des autres planètes autour du Soleil, Uranus décrit
une ellipse. Si l’on suppose connus le plan de la trajectoire (écliptique) ainsi que la
direction du grand axe, sa trajectoire est une ellipse E dans le plan de l’écliptique,
dont l’équation est
(x − x0 )2 (y − y0 )2
+ = 1. (4.1)
a2 b2
L’ellipse E est donc caractérisée par quatre paramètres, (x0 , y0 , a, b). Dès que l’on
dispose de quatre positions (ou plus) d’Uranus dans le ciel, il est possible de caractériser
39
40 Ciarlet & Zidani
sa trajectoire elliptique 1 ... Pour cela, Gauss a inventé le principe dit des moindres
carrés (en 1801). Disposant de K mesures de la position d’Uranus Mk (xk , yk )1≤k≤K ,
on choisit (x0 , y0 , a, b), ce qui définit une unique ellipse E = Ex0 ,y0 ,a,b . A partir de là, on
introduit les points (Mk′ )1≤k≤K : pour chaque valeur de k, Mk′ est le point d’intersection
de l’ellipse avec la droite passant par Mk et le centre de l’ellipse, le plus proche de Mk ,
de coordonnées
Mesures
Projections
E(x0,y0 ,a,b)
Pour mesurer l’erreur commise entre les positions mesurées et leurs projections sur
l’ellipse E, on forme la quantité
K
X 2
ν= Mk Mk′ . (4.3)
k=1
L’idée est de partir d’une première ellipse, puis de la modifier, de façon à diminuer la
valeur de ν correspondante, et ainsi de suite... Le but est de minimiser la valeur de
1. Caractérisation de la trajectoire... Pour trois mesures ou moins, il existe une infinité de possibi-
lités. Quatre mesures sont idéales, puisque qu’il leur correspond une unique ellipse. A partir de cinq
mesures ou plus, il faut espérer que tous les points de la trajectoire, à partir du 5ème , se trouvent sur
l’ellipse définie par les quatre premiers ! Cette prise de conscience (existence d’une surdétermination)
est fondamentale, lorsque l’on résout ce type de problèmes.
Optimisation quadratique 41
Idéalement, comme nous l’avons remarqué plus haut, si les mesures sont exactes, et si
la trajectoire est effectivement elliptique dans le plan de l’ecliptique, on détermine une
solution telle que
ν(xopt opt opt opt
0 , y0 , a , b ) = 0.
Malheureusement, on sait que toute mesure est approchée, ce qui interdit de trouver un
tel résultat. Heureusement, ceci n’est pas incompatible avec la résolution du problème
(4.5).
où m et n sont deux éléments quelconques de N∗ , a priori distincts. Pour cette raison,
on indicera les normes et produits scalaires par m ou n si nécessaire, pour éviter les
confusions.
On remarque, avant de commencer l’étude proprement dite du problème de minimisa-
tion, que f est convexe. En effet, on vérifie que pour v et w deux éléments de Rn , et θ
dans ]0, 1[, on a l’inégalité
Comme f est à valeurs positives, il est équivalent de prouver que les carrés sont dans cet
ordre. On pose x = Av − b et y = Aw − b :
1
kx − θAhk − kxk = [kx − θAhk2 − kxk2 ]
kx − θAhk + kxk
1
= [2θ(x, Ah)m + θ2 kAhk2 ]
kx − θAhk + kxk
1
= [2θ(AT x, h)n + O(θ2 )].
kx − θAhk + kxk
Optimisation quadratique 43
1 1 1 1
= = = (1 + O(θ)).
kx − θAhk + kxk 2kxk + O(θ) 2kxk(1 + O(θ)) 2kxk
D’où
On a donc trouvé
AT Av − AT b
∇f (v) = . (4.7)
kAv − bk
NB. On vérifie que f est Fréchet-différentiable selon une procédure similaire.
et divisons par θ, que l’on fait tendre vers 0. Il reste 2(g, h) = 0, pour toute
direction h de Rn . On infère la nullité de g, ce qui implique finalement
θkAhk = o(θ),
Outre le fait que le calcul n’est pas immédiat, nous sommes confrontés à un problème
majeur. f n’est pas différentiable en v0 si Av0 = b. Mais, si Av0 = b, f (v0 ) = 0 et
v0 est un point de minimum de f , puisque f est à valeurs positives ! Les résultats
du chapitre 3 ne sont donc pas applicables, puisqu’ils requièrent la différentiabilité au
point de minimum. Comment remédier à cette difficulté ? C’est l’objet de la sous-section
suivante.
44 Ciarlet & Zidani
Cette fois, on peut appliquer les résultats du chapitre 3. Pour commencer, J est convexe,
d’après le point (iii) du théorème 2.4.1, puisque
Théorème 4.2.1. u est un point de minimum global de J si, et seulement si, u est
solution de
AT Au = AT b. (4.9)
♠ Il faut faire très attention. Si bien sûr Au = b entraı̂ne (4.9), la réciproque est
fausse en général...
Preuve : Ceci revient à montrer que le système linéaire (4.9) admet toujours
au moins une solution. Pour cela, nous allons utiliser la relation Im A = (Ker AT )⊥ ,
énoncée et démontrée au lemme 3.3.1.
Optimisation quadratique 45
AT b = AT b⊥ = AT Au.
On peut se servir d’outils différents pour retrouver ce résultat. Nous allons détailler
la démarche, car elle est fort instructive, et utile pour la suite du chapitre... La matrice
AT A, qui apparaı̂t dans le terme quadratique de J, est une matrice symétrique et
positive ; en effet :
(AT A)T = AT A, et
(AT Ax, x)n = (Ax, Ax)m = kAxk2m ≥ 0, x ∈ Rn .
Par voie de conséquence, il existe (vi )1≤i≤n une base orthonormale de Rn de vecteurs
propres, de valeurs propres associées (λi )1≤i≤n , appartenant à R+ : AT Avi = λi vi , pour
1 ≤ i ≤ n. Dans la suite, on les classe par ordre décroissant, et l’on définit q, le cardinal
de l’ensemble {λi : λi > 0}, c’est-à-dire que q =rg(AT A). Notons que, puisque A n’est
pas la matrice nulle, on a 1 ≤ q ≤ n.
Dans l’expression de J, on a également un terme linéaire, de la forme −2(b, Av)m .
Soient donc les vecteurs de Rm définis par
1
wi = √ Avi , 1 ≤ i ≤ q.
λi
√
Pourquoi avoir introduit le facteur 1/ λi ? Parce que, pour 1 ≤ i, j ≤ q, on a la relation
s
1 1 1 λi
(wi , wj )m = ( √ Avi , p Avj )m = p (AT Avi , vj )n = (vi , vj )n = δij .
λi λj λi λj λj
NB. Dans (4.10), la seconde somme peut être vide (si q = m).
Qu’en déduit-on ?
Par construction (encore une fois !), l’ensemble des points de minimum est non vide...
Ceci est un bon exemple de la propriété générale suivante. Supposons que, pour un
problème posé à l’aide d’une matrice, on puisse prouver que celle-ci est diagonalisable.
Alors, sous réserve que l’on connaisse ses éléments propres, résoudre le problème initial
revient à résoudre un ensemble de problèmes 2 dans R. Bien évidemment, le défaut ma-
jeur est qu’en général, il est beaucoup trop coûteux de calculer l’ensemble des éléments
propres d’une matrice ! Dans le cas des moindres carrés linéaires, on choisit plutôt
de construire des algorithmes numériques directs ou itératifs permettant d’”inverser”
l’équation normale (c’est-à-dire de calculer un vecteur u solution de (4.9)).
2. Par exemple (classique), soit à calculer l’action d’un polynome R sur une matrice A de Rn×n ,
pour laquelle on suppose qu’il existe P inversible et D diagonale de Rn×n telles que D = P −1 AP .
Alors,
Si de plus AT A est inversible, le système linéaire (4.13) admet une solution unique.
Remarque 4.3.1. Il est tout à fait possible de reprendre le raisonnement qui suit et
de l’appliquer à une matrice de Cm×n . Dans (4.14), W et V sont alors des matrices
unitaires.
Théorème 4.3.1. Soit A une matrice de Rm×n . Il existe W et V deux matrices or-
thogonales de Rm×m et Rn×n respectivement, et Σ une matrice dont les seuls éléments
non nuls sont situés sur la diagonale, de Rm×n , telles que (4.14) soit satisfaite.
48 Ciarlet & Zidani
Avk = σk wk , 1 ≤ k ≤ n,
√
avec σk = λk , pour 1 ≤ k ≤ n, ce que l’on peut réécrire sous la forme
. . .. .. .. .. ..
.. .. . . . . .
A v1 v2 · · · vn = σ1 w1 · · · σq wq 0 · · · 0 .
.. .. .. .. .. .. ..
. . . . . . .
Soit
.. .. .. .. . .. ..
. . . . .. . .
vn ∈ Rn×n .
AV = σ1 w1 · · · σq wq 0 ··· 0 , où l’on a posé V = v1 v2 · · ·
.. .. .. .. .. .. ..
. . . . . . .
Par construction,V est orthogonale, puisque
n
X n
X n
X
T T
(V V )i,j = (V )i,k Vk,j = Vk,i Vk,j = (vi )k (vj )k = (vi , vj )n = δij .
k=1 k=1 k=1
Si maintenant, on pose
. .. ..
.. . .
wm ∈ Rm×m et
W = w1 w2 · · ·
.. .. ..
. . .
σi , 1 ≤ i, j ≤ q, i = j
Σ ∈ Rm×n telle que Σi,j = ,
0 sinon
vérifions que l’on a l’identité
.. .. .. ..
. . . .
W Σ = σ1 w1 · · · σq wq 0 ··· 0 .
.. .. .. ..
. . . .
En effet,
P Pm
pour 1 ≤ i ≤ m, 1 ≤ j ≤ q : (W Σ)i,j = m k=1 Wi,k Σk,j = k=1 (wk )i σj δkj =
σj (wj )i ;
P
pour 1 ≤ i ≤ m, q + 1 ≤ j ≤ n : (W Σ)i,j = m k=1 Wi,k Σk,j = 0 (la j
ème
colonne
de Σ est composée de zéros).
Par construction, W est elle aussi orthogonale, et l’on trouve finalement
AV = W Σ, soit A = W ΣV T .
Optimisation quadratique 49
Pour aller encore un peu de l’avant, démontrons à présent les identités matricielles
de la proposition ci-dessous. Un vecteur colonne v de Rl appartient aussi à Rl×1 , et
le vecteur ligne v T appartient lui à R1×l ; le symbole · représente la multiplication
matricielle.
Proposition 4.3.1.
q q
X X
A= σk wk ·vkT, A A=T
σk 2 vk ·vkT .
k=1 k=1
Preuve : Plutôt que la simple vérification des résultats, construisons les identités,
en commençant par la première.
50 Ciarlet & Zidani
Pour la seconde identité, on procède de la même façon. Tout d’abord, on remarque que
(Ce qui exprime aussi le fait que (vi )1≤i≤n est une base orthonormale de vecteurs propres
de AT A, de valeurs propres associées (σi 2 )1≤i≤n .)
A partir de là, on obtient, pour 1 ≤ i ≤ n, 1 ≤ j ≤ n,
n
X
T T
(A A)i,j = (V D)i,k Vk,j
k=1
q
X
= (V D)i,k Vj,k (pour k > q, la k ème colonne de V D est composée de zéros)
k=1
q q
X X
2
= σk Vi,k Vj,k = · · · = ( σk 2 vk ·vkT)i,j .
k=1 k=1
Lemme 4.3.1.
q q q
†
X 1 †
X
†
X
A = vk ·wkT, AA = wk ·wkT, A A= vk ·vkT.
k=1
σk
k=1 k=1
On a utilisé le fait que les (vk )1≤k≤n sont les vecteurs propres de AT A, ainsi que la
transposition de la première égalité de la proposition 4.3.1. Comme AT A est inversible,
la première égalité suit.
Supposons que rg(A) = n = m. On se trouve ici dans le cas où A est une matrice
inversible de Rn×n . D’après ce que l’on vient de prouver, on déduit
Dans ce chapitre, nous allons étudier des algorithmes qui permettent de calculer
numériquement la solution du problème de minimisation,
Ici, J est la fonctionnelle qui à v associe J(v) = 12 (Av, v) − (b, v). Nous supposons
dans la suite que A est une matrice symétrique définie-positive de Rn×n et b un vecteur
quelconque de Rn . Nous avons vu, aux chapitres 2 et 3, que la solution d’un tel problème
existe et est unique, et qu’elle vérifie le système linéaire
A partir de là on peut penser que le minimum peut être obtenu explicitement à l’aide
d’une résolution exacte à l’aide de la méthode de Cramer 1 par exemple. En réalité,
une telle méthode demanderait plusieurs opérations de calcul et est inconcevable pour
des grandes dimensions n ≥ 10. En effet, la méthode de Cramer nécessite le calcul
de n + 1 déterminants qui se calculent chacun en n! multiplications. Ce qui fait un
total de (n + 1)! opérations (sans compter les additions). Avec un ordinateur qui réalise
53
54 Ciarlet & Zidani
1 milliard d’opérations par seconde, il faudrait plus de 77 ans pour résoudre un système
linéaire lorsque n = 20 ... Pour n = 50, il faut des milliards d’années ! !
Il est donc nécessaire d’élaborer des méthodes numériques plus rapides. Les algo-
rithmes d’optimisation, que nous allons discuter dans ce chapitre, consistent tous à
choisir une condition initiale u0 ∈ Rn , puis à construire une suite (uk )k≥1. Pour
que de telles méthodes soient efficaces, il faut qu’elles possèdent les deux propriétés
suivantes :
La convergence de la suite (uk ) est assurée, quel que soit le vecteur initial.
La convergence doit être ”suffisamment rapide”.
Le premier critère admet une interprétation claire, d’un point de vue mathématique. Le
sens du second critère est plus flou, et nous essayerons de le préciser dans les sections
suivantes.
où p et dmax dépendent du microprocesseur qui effectue les calculs. On dit aussi que
p + 1 est le nombre maximal de chiffres significatifs de la représentation en machine,
et que 10−dmax est la précision machine. Cette représentation génère deux difficultés :
• Tout nombre dont la valeur absolue est plus grande que 10dmax +1 est considéré
comme infini, et symétriquement, tout nombre dont la valeur absolue est strictement
plus petite que 10−dmax est considéré comme étant nul ;
• Les opérations sur ces nombres (addition, extraction de racine, ... etc) sont effectuées
en précision finie. Prenons l’exemple de la multiplication : si les deux nombres ont
respectivement q et q ′ chiffres significatifs (q, q ′ ∈ {1, · · · , p + 1}), leur produit possède
q + q ′ − 1 ou q + q ′ chiffres significatifs. Dès lors que q + q ′ − 1 > p + 1, une troncature
est effectuée lors de la mise en mémoire du résultat (même si le calcul était exact),
puisque la représentation de tout nombre comporte au plus p + 1 chiffres significatifs.
C’est la raison pour laquelle les calculs numériques produisent en général des er-
reurs d’arrondi...
Par voie de conséquence, et pour revenir à notre problème, il devient difficile d’obte-
nir un résultat du type 3 Au − b = 0. Par ailleurs, on se contente en général d’une
valeur approchée, c’est-à-dire à ε près. Quel est le sens mathématique sous-jacent ?
Typiquement, si on note k · k une norme quelconque, pour ε ∈ R+ ⋆ , on cherche vε tel
que
kAvε − bk ≤ ε. (5.2)
Il est clair que l’ensemble des vε qui satisfont à (5.2) n’est pas réduit à un single-
ton ! Quoiqu’il en soit, à ε près, l’obtention d’un tel vε est suffisante... On parle de
convergence numérique.
(Les itérations sont interrompues pour la première valeur de k telle que kAuk −bk ≤ ε.)
Une autre façon d’estimer le coût du calcul est de mesurer le temps de calcul,
par l’intermédiaire d’une horloge. Noter que ce temps de calcul dépend de la machine
sur laquelle on effectue le calcul numérique 4 . Une machine peut (pour simplifier, car
il existe d’autres modes de fonctionnement), soit travailler séquentiellement, soit en
parallèle. Dans le premier cas, les opérations sont exécutées l’une après l’autre. Dans
le second cas, la machine est constituée de plusieurs processeurs, qui peuvent alors
exécuter simultanément des opérations, et échanger des données entre eux 5 . Bref, le
temps horloge n’est pas le même sur toutes les machines, alors que le nombre total
d’opérations est identique.
La discussion de cette section est volontairement restée très générale, et elle peut
être vue comme une introduction à l’algorithmique numérique. Ce qu’il faut rete-
nir, c’est qu’il convient d’être prudent lorsque l’on évalue la qualité d’une méthode
numérique, car celle-ci résulte habituellement de compromis entre les divers critères
et contraintes que nous avons évoqués ci-dessus. Pour ce type de problèmes, il est
fort utile d’acquérir de l’expérience, notamment en réalisant des comparaisons entre
plusieurs méthodes.
4. On raisonne usuellement en opérations flottantes par seconde, ou FLOPs = FLoating
OPerations per second, pour un processeur donné, sans distinguer les opérations entre elles.
5. On suppose que l’algorithme de calcul le permet. Le fait qu’un algorithme soit effectivement
exécutable en parallèle, ou parallélisable, sort du cadre de ce cours...
Optimisation quadratique 57
Si on modifie un tout petit peu le second membre on obtient une solution trés différente :
10 7 8 7 32.1 9.2
x = 22.9 a pour solution x = −12.6 .
7 5 6 5
8 6 10 9 33.1 4.5
7 5 9 10 30.9 −1.1
Cet exemple numérique montre que de trés faibles erreurs sur les données (la matrice
ou le vecteur du second membre) peut engendrer une grande erreur sur la solution.
Pour quantifier cet ecart, nous allons introduire la notion de conditionnement d’une
matrice.
Proposition 5.2.1. Soit une matrice inversible A. Soit b 6= 0 un vecteur non nul.
1. Soient x et x + δx les solutions respectives des systèmes linéaires Ax = b, et
A(x + δx) = b + δb, alors
kδxk kδbk
≤ cond(A) . (5.4a)
kxk kbk
uk+1 = uk + ρk dk .
Nous allons voir qu’il y a plusieurs façons de choisir les directions de descente. Pour
le pas de descente, on choisit soit un pas fixe (ρk = ρ) et nous verrons par la suite qu’il
existe des résultats théoriques pour guider le choix de l’utilisateur, soit on prend un
pas ρk optimal, dans le sens que ρk réalise le minimum de la fonctionnelle
ρ2
fk (ρ) = (Adk , dk ) + ρ(Auk − b, dk ) + J(uk ).
2
7. C’est parce que nous étudions un problème quadratique qu’il est possible de faire le raisonnement
qui suit. Dans un cas plus général, il est nécessaire de calculer (formellement ou numériquement) le
gradient de J pour déterminer le minimum de la fonction fk . Les problèmes inhérents à ce type de
calcul ne sont pas étudiés ici ; ils ont donné naissance à une riche littérature, et sont entre autres
abordés dans [6].
60 Ciarlet & Zidani
(b − Auk , dk ) (∇J(uk ), dk )
fk′ (ρk ) = 0, soit ρk = =− . (5.6)
(Adk , dk ) (Adk , dk )
5.3.1 Relaxation
Pour définir la méthode de relaxation, une base orthonormale (ei )1≤i≤n de Rn
étant donnée, on choisit la suite de directions de descente d0 = e1 , d1 = e2 , · · · ; si
l’algorithme n’a pas convergé après n itérations (supposition raisonnable !), on prend
dn = e1 , dn+1 = e2 et ainsi de suite... Dans cette méthode, on choisira un pas optimal
donné par la formule (5.6). Dans ce cas, l’algorithme devient
pour l ≥ 0, i ∈ {1, · · · , n} (k = ln + i − 1)
(b − Auln+i−1 , ei ) (5.7)
ρln+i−1 = , uln+i = uln+i−1 + ρln+i−1 ei .
(Aei , ei )
Entre les deux itérés successifs uln+i et uln+i−1, on en déduit que seule la ième compo-
sante diffère.
Comme seule une composante (sur n) évolue, on peut introduire la suite (ũl )l≥0
telle que
ũ0 = u0 ,
ũ1 = un , le résultat des n premières itérations,
ũ2 = u2n , le résultat des n suivantes, etc.
..
.
Ainsi, toutes les composantes de ũl+1 sont a priori distinctes de celles de ũl . De plus, par
construction, chaque composante est mise à jour une fois et une seule. Plus précisément,
on a vu que la ième composante est modifiée lorsque l’on considère la direction de
descente ei , ce qui donne, d’après (5.7) :
n
X n
X
2 2
(ũl+1 − ũl , ei ) = ρln+i−1 , et kũl+1 − ũl k = ρln+i−1 = kuln+i − uln+i−1k2 . (5.8)
i=1 i=1
Ces expressions seront fort utiles pour démontrer la proposition 5.3.1 ci-dessous.
Avant de l’aborder, établissons le
Optimisation quadratique 61
Lemme 5.3.1. Soit A une matrice symétrique, et λmin et λmax ses plus petite et plus
grande valeurs propres. Alors
Comme n
X
kAvk2 = λi 2 vi 2 ,
i=1
Proposition 5.3.1. Suppososns que la matrice A est symétrique définie positive. Alors,
la méthode de relaxation est convergente.
Preuve : Etape 1. Commençons par borner kũl+1 − ũl k. Pour cela, on remarque
que 8
(Aek , ek ) 2 λmin 2 λmin
J(uk ) − J(uk+1) = fk (0) − fk (ρk ) = ρk ≥ ρk = kuk − uk+1k2 .
2 2 2
En conséquence, pour la suite (ũl )l , on arrive à la minoration :
n
X
J(ũl ) − J(ũl+1 ) = J(uln ) − J(ul(n+1) ) = J(uln+i−1) − J(uln+i )
i=1
n
λmin X λmin
≥ kuln+i−1 − uln+i k2 = kũl+1 − ũl k2 .
2 i=1
2
β β2
8. fk (ρ) = αρ2 + βρ + γ, α > 0. On a ρmin = − , d’où fk (0) − fk (ρmin ) = = αρmin 2 .
2α 4α
62 Ciarlet & Zidani
Comment faire usage de ce qui précède ? Revenons aux définitions (5.6)-(5.7), on ob-
tient :
n
!1/2
λmax X
kũl − uk ≤ kũl − uln+i k2 . (5.13)
λmin i=1
Lorsque l tend vers l’infini, chaque terme de la somme tend vers 0. Par ailleurs, le
nombre de termes de la somme est borné indépendamment de l. On arrive donc fina-
lement à
lim kũl − uk = 0. (5.14)
l→+∞
Optimisation quadratique 63
dk = −∇J(uk ) = b − Auk , ρk = ρ,
uk+1 = uk + ρk dk .
Cette méthode est dite méthode du gradient à pas fixe. Ici, on s’affranchit du
calcul du minimum ρk et on fixe, pour tout k, la valeur du pas à ρ > 0.
Preuve : Elle est notablement plus simple que celle prouvant la convergence de la
méthode de relaxation. Soit u le minimum de J sur Rn . On a :
Si γρ est strictement plus petit que 1, on aura démontré la convergence. C’est ce que
nous allons vérifier maintenant.
λmin ≤ λi ≤ λmax , 1 ≤ i ≤ n
=⇒ 1 − ρλmin ≥ 1 − ρλi ≥ 1 − ρλmax , 1 ≤ i ≤ n
=⇒ |1 − ρλi | ≤ max(|1 − ρλmin |, |1 − ρλmax |), 1 ≤ i ≤ n.
Puisque les bornes sur les valeurs propres λmin et λmax sont atteintes,
Pour conclure, nous majorons γρ , à l’aide des hypothèses sur A (semi-définie positive),
et sur ρ :
0 < λmin ≤ λmax −1 < 1 − ρλmin < 1
2 =⇒ .
0 < ρ < λmax −1 < 1 − ρλmax < 1
On vient donc de prouver que
γρ < 1.
2 λmax (5.17)
RGPF (ρmin ) := −ln 1 − , avec κ = .
1+κ λmin
λmin kuk −uk2 ≤ (A(uk −u), uk −u) = (Auk −b, uk −u) = −(dk , uk −u) ≤ kdk k kuk −uk.
On infère
1
kuk − uk ≤ kdk k.
λmin
Utilisons maintenant l’orthogonalité entre deux directions consécutives de descente :
kdk k2 = (dk −dk+1 , dk ) = (A(uk+1−uk ), dk ) ≤ kA(uk+1 −uk )k kdk k ≤ λmax kuk+1−uk k kdk k.
Ainsi
kdk k ≤ λmax kuk+1 − uk k.
On arrive alors à la majoration
λmax
kuk − uk ≤ kuk+1 − uk k.
λmin
La convergence de (uk )k vers u découle donc de la propriété limk→+∞ kuk+1 − uk k = 0.
(Adk , dk ) 2
D’autre part, J(uk )−J(uk+1) = ρk . Or, l’égalité uk+1 −uk = ρk dk implique
2
kuk+1 − uk k
(si dk 6= 0), |ρk | = . Ainsi
kdk k
(Adk , dk ) λmin
J(uk ) − J(uk+1 ) = 2
kuk+1 − uk k2 ≥ kuk − uk+1k2 .
2kdk k 2
Comme (J(uk ))k est décroissante et minorée, la différence de deux termes consécutifs
tend vers 0, ce qui implique la convergence de (uk )k vers u, puisque
√ λmax
kuk − uk ≤ 2 3/2 (J(uk+1) − J(uk ))1/2 . (5.20)
λmin
NB. Pour respecter l’esprit des méthodes de gradient, on conserve les directions ”opti-
males”, c’est-à-dire les gradients de J aux itérés successifs.
Le principe de la méthode est très attrayant, puisqu’on espère éviter les redondances
dans le choix de la direction de descente, i. e. on espère que
dim(Gk+1 ) = dim(Gk ) + 1, k = 0, 1, · · · .
Bien sûr, ceci n’est nullement garanti (il faut et il suffit que gk+1 6∈ Gk )... Par ailleurs,
la construction de la suite des espaces vectoriels (Gk )k≥0, et la résolution des problèmes
posés sur uk + Gk , semblent très couteuses, puisqu’on doit gérer des espaces vectoriels
dont la dimension peut fort bien devenir comparable à n. Heureusement, et c’est la
”magie” de la méthode du gradient conjugué, nous allons vérifier qu’aucun de ces deux
problèmes ennuyeux n’en est un !
Tout d’abord, d’après (3.14), gk+1 est orthogonale à Gk ; ceci signifie en particulier
que
(gk+1, gl ) = 0, 0 ≤ l ≤ k.
Par récurrence, on infère facilement que
Les gradients sont tous orthogonaux entre eux. Ce qui, encore une fois, est beaucoup
plus intéressant que la propriété d’orthogonalité de deux gradients successifs de la
méthode à pas optimal. On obtient alors la
Soit, puisque gk est lui-même orthogonal à gl dès lors que l est différent de k,
0 = (Aδk , gl ), 0 ≤ l ≤ k − 1.
0 = (Aδk , δl ), 0 ≤ l ≤ k − 1.
Définition 5.3.1. On dit que des directions (non nulles) (δk )k vérifiant (5.22) sont
conjuguées par rapport à la matrice A.
♠ Bien sûr, si les vecteurs (δk )k sont tous non nuls, la relation (5.22) implique que
la famille (δk )k est libre, puisque (comme A est symétrique définie positive) la forme
bilinéaire (·, ·)A : (x, y) 7→ (Ax, y) est un produit scalaire, que l’on peut réécrire sous
la forme
Xn n
X n
X
(x, y)A = λi xi yi , x = xi pi , y = y i pi .
i=1 i=1 i=1
Optimisation quadratique 69
En particulier, si k = 0, on a la relation
δ0 = β00 g0 . (5.23)
k k kgm+1 k2
=⇒ βm = βm+1 , m = k − 1, · · · , 0,
kgm k2
k kgk k2
=⇒ βm = βkk , m = k, · · · , 0.
kgm k2
On a donc ( k )
X kgk k2
δk = βkk gl .
l=0
kgl k2
Intégrons, dans cette expression, celle de δk−1 .
( k−1 ) ( k−1
)
X kgk k2 kg k k 2 X
kg k−1 k 2
δk = βkk 2
gl + gk = βkk 2 2
gl + gk ,
kg lk kg k−1 k kg lk
( l=0 ) l=0
2
kgk k 1
soit δk = βkk δ
k−1 k−1
+ gk , pour k ≥ 1. (5.24)
kgk−1k2 βk−1
Le calcul des directions (δk )k est donc particulièrement simple, à l’aide de la récurrence
(5.23)-(5.24).
Pour revenir aux algorithmes avec directions de descente, notons que l’on peut
1
définir dk = − k δk , pour k ≥ 0. Les relations (5.23)-(5.24) deviennent
βk
kgk k2
d0 = −g0 , dk = dk−1 − gk , pour k ≥ 1. (5.25)
kgk−1 k2
De plus, et c’est là une des propriétés remarquables de la méthode du gradient conjugué,
regardons ce qu’il advient si l’on minimise la fonctionnelle J sur la droite passant par
uk de direction dk :
70 Ciarlet & Zidani
5.3.4 Extensions
Il est prouvé dans [4] que les méthodes de relaxation et de gradient à pas optimal, ou
à pas fixe, sont applicables dans un espace de Hilbert, sous réserve que la fonctionnelle
J vérifie certaines propriétés. En clair, la fonctionnelle J n’est qu’un cas très particulier,
mais fort utile, puisqu’elle permet de construire des méthodes de résolution de systèmes
linéaires. Précisément, si la fonctionnelle J est C 1 et α-convexe, avec une différentielle
lipschitzienne, les méthodes convergent. Ceci signifie :
J α-convexe : cf. remarque 2.4.2, points (viii) et (ix).
dJ lipschitzienne : ∃M > 0, ∀u, v ∈ E, kdJ(u) − dJ(v)k ≤ Mku − vk.
Exercice 5.3.3. Retrouver les résultats des propositions 5.3.1 et 5.3.3 sous réserve
que la fonctionnelle vérifie les hypothèses ci-dessus. 9
Pour ce qui est de la méthode du gradient conjugué, certaines adaptations sont également
possibles, dans le cas d’une fonctionnelle plus générale, sous réserve toutefois de modifica-
tions de l’algorithme (cf. [11], et [6] pour une discussion détaillée.)
Si maintenant on considère la résolution d’un système linéaire, dont la matrice n’est
pas symétrique, il est impossible de conserver à la fois les deux propriétés remarquables
de l’algorithme du gradient conjugué, à savoir la convergence en n itérations au plus,
associée à l’utilisation de récurrences de taille constante (voir [5]) ! Il faut, au choix,
soit conserver toutes les directions précédentes de descente, ce qui accroı̂t notablement
le coût calcul, soit ne garder que les p (pour p fixé, petit devant n) dernières directions,
et raisonner dans
uk + Vect(gk , · · · , gk−p+1).
Nous renvoyons le lecteur intéressé à [13], article dans lequel la méthode GMRES 10 a
été introduite pour résoudre des systèmes linéaires, de matrice non symétrique.
(M − N)u = Au = b.
Par conséquent, si (uk )k converge, alors sa limite est forcément la solution du système
linéaire.
Dans le lemme suivant, nous allons énoncer une condition nécessaire et suffisante
pour la convergence d’une méthode itérative à l’aide du rayon spectrale de la matrice
M −1 N (voir annexe B, pour la définition du rayon spectrale).
Lemme 5.4.1. La suite (uk )k définie par la méthode itérative (5.27) est convergente
si et seulement si le rayon spectrale ρ(M −1 N) vérifie : ρ(M −1 N) < 1.
Preuve : On a :
uk+1 − u = (M −1 Nuk + M −1 b) − (M −1 Nu + M −1 b)
= M −1 N(uk − u)
Le rayon spectral est souvent difficile à calculer. Cependant, nous avons le résultat
général (fort utile) suivant :
Optimisation quadratique 73
Lemme 5.4.2. Soit A une matrice symétrique définie positive. Soit une décomposition
de A définie par A = M − N avec M inversible. Si (M T + N) est aussi définie positive,
alors
ρ(M −1 N) < 1.
Preuve : Notons d’abord que que si A est symétrique, alors M T + N l’est aussi et
donc ses valeurs propres sont réelles. En effet,
(M T + N)T = M + N T = A + N + N T = AT + N T + N = M T + N.
Av = Mw =⇒ (Av, v) = (Mw, v)
=⇒ kvk2A ≤ kMk2 kwk2 kvk2 ,
et d’autre part on a λmin (A)kvk22 ≤ kvk2A avec λmin (A) > 0 puisque A est définie-
positive. Finalement, on obtient :
−1 2 λmin (M T + N)λmin (A)
kM NvkA ≤ 1 − < 1 ∀v ∈ Rn , vérifiant kvkA = 1.
kMk22
On en déduit que
ρ(M −1 N) ≤ kM −1 NkA < 1.
Nous allons maintenant donner les exemples les plus classiques de méthodes itératives.
Pour celà, notons D = diag(A) la diagonale de A, −E = trianginf (A) la partie tri-
angulaire inférieure de A et par −F = triangsup (A) la partie triangulaire supérieure.
74 Ciarlet & Zidani
1) On choisit u0 ∈ Rn , ε > 0
2) Tant que kAuk − bk > ε, calculer uk+1 = J uk + D −1 b.
Pour que cette méthode soit bien définie, il faut que la matrice D soit inversible (C’est
à dire que tous les éléments diagonaux de A soient non nuls).
Théorème 5.4.1.
(i) Si A est symétrique et définie-positive, alors la méthode de Gauss-Seidel converge.
P
(ii) Si A est à diagonale strictement dominante (i.e. |Aii | > i6=j |Aij | pour tout i =
1, · · · , n), alors les méthodes Gauss-Seidel et Jacobi convergent
(iii) Si A est tridiagonale, alors ρ(G) = ρ(J )2 .
Preuve :
Le point (i) s’obtient à partir des lemmes 5.4.1 et 5.4.2, en remarquant que si A est
symétrique définie positive, alors M T + N = (D − E)T + F = D − F + F = D est
définie positive.
Pour prouver (iii), nous allons vérifier que lorsque A est tridiagonle, λ 6= 0 est valeur
propre de J si et seulement si et seulement si λ2 est valeur propre de G. Pour celà,
considérons la matrice Q(δ) := diag(δ, δ 2 , · · · , δ n ), avec δ 6= 0. Remarquons d’abord
que pour toute matrice tridiagonale de la forme 11 : B = P − L − U, on a :
1
Q(δ)BQ(1/δ) = P − δL − U,
δ
et
( ( (
Bii i=j Bii−1 j =i−1 Bii+1 j =i+1
11. avec Pij = , Lij = , et Uij =
0 i 6= j 0 j 6= i − 1 0 j 6= i + 1
76 Ciarlet & Zidani
Chapitre 6
De façon similaire au cas sans contraintes, les méthodes de résolution des problèmes
contraints sont très nombreuses. Nous allons en présenter quelques unes, qui conduisent
à des algorithmes numériques simples et utilisables en pratique.
Le problème auquel nous nous interessons, dans tout ce chapitre, est le suivant :
Trouver u ∈ K tel que J(u) = min J(v).
v∈K
Ici, J est la fonctionnelle qui à v associe J(v) = 21 (Av, v) − (b, v), où la matrice A est
supposée symétrique définie-positive de Rn×n , b un vecteur quelconque de Rn et K est
un fermé convexe de Rn .
77
78 Ciarlet & Zidani
u = PK (u − ρ∇J(u)).
Preuve : Du fait que J est convexe, l’inéquation d’Euler constitue une condition
nécessaire et suffisante de minimalité. Ainsi, pour u ∈ K et ρ > 0, on a :
u est minimum ⇐⇒ ∇J(u), u − v ≤ 0 ∀v ∈ K,
⇐⇒ ρ∇J(u), u − v ≤ 0 ∀v ∈ K,
⇐⇒ u − u − ρ∇J(u) , u − v ≤ 0 ∀v ∈ K,
| {z }
w
⇐⇒ u = PK u − ρ∇J(u) .
Remarque 6.1.1. Noter que dans cet algorithme le test d’arrêt est différent de celui
qu’on avait utilisé dans les cas des algorithmes d’optimisation sans contrainte.
♠ On ne peut plus prendre comme test d’arrêt k∇J(uk )k ∼ 0 car pour le problème
avec contraintes le minimum u ne satisfait pas forcément “∇J(u) = 0” !
♠ Le test d’arrêt kuk − uk−1k < η est le mieux adapté à l’algorithme de gradient
projeté, étant donné qu’on cherche un point fixe. En effet, le test signifie aussi que
kuk−1 − PK (uk−1 − ρ∇J (uk−1))k < η, en d’autre terme uk est un point fixe à une
précision η-près.
2
où A ∈ Rn×n est symétrique, définie positive, et b ∈ Rn . Si 0 < ρ < , alors quel
λmax (A)
que soit u0 ∈ Rn , la suite (uk ) définie par le gradient projeté converge vers le minimum
u. (λmax (A) désigne la plus grande valeur propre de A.)
2
où γρ := |λmax (I − ρA)|. Pour tout 0 < ρ < λmax (A)
, on a γρ < 1, et donc :
uk − u
≤ (γρ )k
u0 − u
−−−−→ 0. ✷
2 2 k→+∞
♠ Le théorème précédent peut être généralisé à une classe plus large de problèmes
d’optimisation convexe avec contraintes. Nous renvoyons à [6] pour une discussion plus
approfondie.
K := {v ∈ Rn ; Cv = f }, ou (6.2a)
K := {v ∈ Rn ; Cv ≤ f }, (6.2b)
∇J(u) + C T λ = 0, (6.3a)
λ ∈ F, Cu ≤ f, (λ, Cu − f ) = 0, (6.3b)
(λ − µ, Cu − f ) ≥ 0 ∀µ ∈ F, (6.3c)
avec F = Rp dans le cas où K est donné par (6.2a), et F = (R+ )p dans le cas (6.2b).
Proposition 6.2.1. Soit λ ∈ Rp tel que (u, λ) vérifie (6.3). Pour tout ρ > 0, on :
Ce qui d’après (6.1) signifie que λ = PF (λ + ρ(Cu − f )), pour tout ρ > 0.
2λmin (A)
Si 0 < ρ < kCk2
, en posant : β = 2ρλmin (A) − ρ2 kCk2 , il vient que β > 0 et
1
kλk − λk22 − kλk+1 − λk22 .
kuk − uk22 ≤
β
Ce qui prouve que la suite kλk − λk22 est décroissante et minorée (évidement par
k≥0
0). Par conséquent, kuk − uk22 −−−−→ 0.
k→+∞
Nous allons étudier deux méthodes purement algébriques permettant de résoudre (6.5),
avant de revenir à une technique de minimisation.
Si p est très petit devant n, la difficulté est la formation de la matrice CA−1 C T de Rp×p ,
et du second membre CA−1 b appartenant à Rp . En effet, une fois ceux-ci connus, il est
82 Ciarlet & Zidani
raisonnable de supposer que la résolution de (6.6) sera aisée. Qui plus est, CA−1 C T est
symétrique définie-positive. A partir de là, u est la solution de
et l’on en revient aux méthodes de la section précédente. Pour ce qui est de la formation
de CA−1 C T , notons que l’on peut écrire
Ce système linéaire peut être reformulé colonne par colonne. En effet, si on note (c′i )1≤i≤p
les colonnes de C ′ et (ci )1≤i≤p celles de C T , (6.8) est équivalent à
L’obtention de CA−1 C T est alors immédiate, par simple multiplication. Pour ce qui est
du calcul de A−1 b, on procède de façon similaire, en résolvant cette fois
Proposition 6.3.1. On peut ramener le calcul de (u, λ), solution de (6.5), à la résolution
de p + 2 problèmes de minimiation sans contraintes, de type (5.1).
Cette méthode présente l’avantage d’être complètement compatible avec les al-
gorithmes proposés à la section 5, puisque l’on a uniquement des problèmes sans
contraintes à résoudre. En outre, elle est particulièrement indiquée si p est petit...
Si p est grand, la même technique n’en reste pas moins valable, sachant que l’étape
(6.6) peut devenir prépondérante, et qu’il faut la traiter avec attention.
Optimisation quadratique 83
˜ 2 ), pour tout v ∈ K.
Nous allons maintenant reécrire J(v) sous la forme J(v
Le terme linéaire :
Le terme quadratique : (les deux blocs diagonaux, A11 et A22 , sont nécessairement
symétriques)
A11 A12 v1 A11 v1 + A12 v2
Av = = .
AT12 A22 v2 AT12 v1 + A22 v2
On en déduit que :
1 1 1
(Av, v) = (A11 v1 + A12 v2 , v1 )1 + (AT12 v1 + A22 v2 , v2 )2
2 2 2
1 T 1
= (A11 v1 , v1 )1 + (A12 v1 , v2 )2 + (A22 v2 , v2 )2 .
2 2
Examinons le premier terme :
1 1
(A11 v1 , v1 )1 = (A11 g − A11 Cv2 , g − Cv2 )1
2 2
1 1
= αquad − (C T A11 g, v2 )2 + (C T A11 Cv2 , v2 )2 , αquad = (A11 g, g)1.
2 2
Le second terme :
˜ 2 ) = min J˜(v2 ).
Trouver u2 ∈ Rn−p tel que J(u (6.13)
n−p v2 ∈R
Preuve : Il reste à vérifier que Ã22 est bien symétrique définie-positive. Bien sûr,
Ã22 est symétrique par construction. Par ailleurs,
1
Jε (v) = J(v) + kCv − f k2 ,
ε
ainsi que le problème pénalisé
Proposition 6.3.3. Le problème (6.14) admet une solution unique, pour tout ε > 0.
Preuve : Existence d’une solution. Jε est continue. Montrons qu’elle est de plus
infinie à l’infini. On écrit
1 1
Jε (v) = J(v) + ψ(v) ≥ J(v) = (Av, v) − (b, v)
ε 2
λmin
≥ kvk2 − kbk kvk,
2
quantité qui tend vers l’infini lorsque kvk → +∞.
Nous allons maintenant prouver que la suite (uε )ε possède une propriété très intéressante...
La fonctionnelle J étant infinie à l’infini, nous en déduisons que (uε )ε est bornée.
Etape 2. Comme nous nous trouvons dans Rn , il existe une sous-suite extraite
(uε′ )ε′ qui converge. Appelons u′ sa limite. D’après la continuité de J et la relation
(6.15), qui s’applique notamment pour tous les termes de la sous-suite :
Par ailleurs,
0 ≤ ψ(uε′ ) = ε′ {Jε′ (uε′ ) − J(uε′ )} ≤ ε′ {Jε′ (u) − J(uε′ )} = ε′{J(u) − J(uε′ )}.
On vient de voir que (J(uε′ ))ε′ admet une limite (égale à J(u′ )), ce qui entraı̂ne que
Etape 3. Pour finir, supposons que (uε )ε ne converge pas vers u. Ceci signifie qu’il
existe une sous-suite extraite, toujours notée (uε′ )ε′ , et η > 0 tels que kuε′ − uk ≥ η,
pour tout ε′ .
On reprend le raisonnement de l’étape 2 : (uε′ )ε′ étant bornée, on peut en extraire une
sous-suite, (uε′′ )ε′′ , qui converge. En poursuivant le même raisonnement (n’oublions pas
que, par construction, (uε′′ )ε′′ est également une sous-suite extraite de (uε )ε !), on prouve
que (uε′′ )ε′′ converge nécessairement vers u. Ceci contredit le fait que kuε′′ − uk ≥ η,
pour tout ε′′ .
Pour cette méthode, le problème central est celui du choix d’une suite de valeurs de
ε, qui permette d’obtenir rapidement une bonne approximation de u. Par rapidement,
on entend sans avoir à résoudre ”beaucoup” de problèmes sans contraintes du type
Optimisation quadratique 87
(6.14).
Notons que Jε peut être développée sous la forme :
1 1
Jε (v) = (Av, v) − (b, v) + {(C T Cv, v) − 2(C T f, v) + kf k2 }
2 ε
1 2 T 2 1
= ([A + C C]v, v) − (b + C T f, v) + kf k2 .
2 ε ε ε
2 T
La matrice A + C C est symétrique définie-positive. Cependant, comme pour la
ε
seconde méthode d’élimination du paragraphe 6.3.1, sa structure interne peut être très
différente de celle de A.
6.3.3 Extensions
La première technique d’élimination peut être appliquée au problème plus général
n1 n2 A11 A12 u1 b1
Trouver (u1 , u2) ∈ R × R tel que = ,
A21 A22 u2 b2
sous réserve que ce problème admette une unique solution. L’équation (6.6) est rem-
placée par
Trouver u2 ∈ Rn2 tel que (A22 − A21 A11 −1 A12 )u2 = b2 − A21 A11 −1 b1 . (6.16)
S = (A22 − A21 A11 −1 A12 ) est une matrice de Rn2 ×n2 , appelée complément de Schur
[3]. Ce type de méthode est très utilisé en conjonction avec une mise en œuvre sur
machine parallèle (constituée de plusieurs processeurs), l’extraction de la composante
u2 permettant de construire des problèmes de variable u1 qui sont parallélisables (cf.
[14], [12]).
Exercice 6.3.1. 1. Rappeler pourquoi le problème (6.17) admet une solution et une
seule.
2. Montrer que le problème (6.18), pour ε fixé, admet une solution unique.
3. Vérifier que limε→0+ uε = u.
Notons pour finir que l’on peut affaiblir l’hypothèse de régularité sur J et ψ, en les
supposant simplement continues (cf. [4]).
Annexe A
A.1 Différentiabilité
Soient E et F deux espaces vectoriels normés sur R, on note Lc (E, F) l’ensemble des
applications linéaires et continues de E dans F.
♠ Lorsque la dimension de E est finie, toutes les applications linéaires sont continues.
C’est faux lorsque la dimension de E infinie !
Dans la suite, on notera Ω un ouvert de E contenant u, et f une application de Ω ⊂ E
dans F ; on dit que f est continue en un point u ∈ Ω si
89
90 Ciarlet & Zidani
df (u)·h.
Si on fait tendre λ vers 0, on obtient que l’application linéaire df1 (u) − df2 (u) est nulle,
soit finalement df1 (u) = df2 (u).
Optimisation quadratique 91
Bien sûr, en toute généralité, toute application différentiable en un point est conti-
nue en ce point, et on retrouve la formule de limite de taux de variation ; c’est l’objet
de la
f (u + θh) − f (u)
∀h ∈ E df (u)·h = lim+ . (A.3)
θ→0 θ
Preuve : A partir de la définition de la différentiabilité, en utilisant notamment le
fait que la différentielle en u est continue, on tire
et ainsi
kf (u + h) − f (u)kF → 0 quand khkE → 0.
De plus par linéarité de l’application df (u),
et finalement
f (u + θh) − f (u)
∀h ∈ E df (u)·h = lim+ .
θ→0 θ
92 Ciarlet & Zidani
Définition A.1.2. On dit que l’application f est différentiable dans Ω, si elle est
différentiable en tout point u ∈ Ω. Dans ce cas, on peut définir une application df qui
à tout point u ∈ Ω associe une application linéaire et continue df (u) de E dans F ; on
l’appelle différentielle de f dans Ω. Si la différentielle df est une application continue
de E dans Lc (E, F), on dit que f est une application continûment différentiable,
ou encore de classe C 1
f (u + θh) − f (u)
∀h ∈ E df (u)·h = lim+ .
θ→0 θ
ko(θ)kF
avec la propriété → 0 lorsque θ → 0+ .
θ
Proposition A.1.3. Si E = R, Fréchet-différentiabilité et Gateaux-différentiabilité
coı̈ncident.
Exercice A.1.2. On se place dans E = R2 . Soient q ≥ p > 5 deux réels. Montrer que
la fonctionnelle f définie par
xp
si (x, y) 6= (0, 0)
f (x, y) = (y − x2 )2 + xq .
0 si (x, y) = (0, 0)
est différentiable au point (0, 0) au sens de Gateaux, mais qu’elle n’est pas continue en
ce point.
Exercice A.1.3. Soit encore f : Rn → R, f (x) = kxk. Vérifier que f n’est pas
Gateaux-differentiable en x = 0.
1
J(u + h) − J(u) = (Au − b, h) + (Ah, h).
2
D’après l’inégalité de Cauchy-Schwarz et par définition de la norme matricielle induite
par la norme euclidienne, on trouve
♠ Lorsque la matrice A n’est pas symétrique, les expressions ci-dessus sont fausses !
En effet, on doit remplacer A par 21 (A + AT ).
∂f
On note aussi (u) ses composantes ; ∂k f (u) est appelée k ème dérivée partielle de
∂xk
f en u.
∂f
f (u + θek ) = f (u) + θ(∇f (u), ek ) + |θ| ε(θek ) = f (u) + θ (u) + |θ| ε(θek ).
∂xk
Par ailleurs, modulo un petit abus de notations, on peut réécrire f (u) sous la forme
∂f
f (x1 , · · · , xn ). En d’autres termes, (u) représente la dérivée de f en u dans la
∂xk
direction ek , ce qui correspond finalement à la dérivée de l’application
Exercice A.1.4. Vérifier que si f est différentiable en u, elle admet une dérivée par-
tielle par rapport à chaque variable en ce point. Réciproquement, montrer que, si f
admet des dérivées partielles sur Ω qui sont continues en u, alors f est différentiable
en u et que, de plus, elle est de classe C 1 sur un ouvert contenant u.
dès lors que l’on a choisi une base (e′l )1≤l≤p de F. On peut reprendre la construction
ci-dessus, et différencier chaque composante de f . La différentielle de f en u (lorsqu’elle
existe) peut alors être écrite composante par composante
La matrice associée à df (u) dans les bases (ek )1≤k≤n et (e′l )1≤l≤p est appelée matrice
jacobienne de f en u, et on la note [df (u)] :
∂1 f1 (u) ∂2 f1 (u) . . . ∂n f1 (u)
∂1 f2 (u) ∂2 f2 (u) . . . ∂n f2 (u)
[df (u)] = .. .. .. .. .
. . . .
∂1 fp (u) ∂2 fp (u) . . . ∂n fp (u)
Comme
k(εf (h) + εg (h))kF → 0 quand khkE → 0
on voit que l’application linéaire d(f + g)(u) définie par
Remarque A.2.1. De la même façon, on peut prouver que la somme de deux appli-
cations Gateaux-différentiables en un point est Gateaux-différentiable.
on tire
g ◦ f (u + h) = g(f (u + h))
= g (f (u) + df (u)·h + khk εf (h))
= g(f (u) + h′ ) avec h′ = df (u)·h + khk εf (h)
= g(f (u)) + dg(f (u))·h′ + kh′ k εg (h′ ).
Mais l’application différentielle dg(f (u)) est linéaire par définition, d’où
g ◦ f (u + h) = g ◦ f (u) + {dg(f (u)) ◦ df (u)}·h + khk dg(f (u))·(εf (h)) + kh′ k εg (h′ ).
Il suffit maintenant de vérifier que les deux termes de droite peuvent être réécrits sous
la forme khk εg◦f (h), avec kεg◦f (h)k → 0 lorsque khk → 0. Or, on a d’une part
et d’autre part
kh′ k ≤ kdf (u)k khk + khk kεf (h)k = o(1).
On obtient finalement
g ◦ f (u + θ h) − g ◦ f (u)
lim+ = [dg(f (u)) ◦ df (u)]·h.
θ→0 θ
Posons v = f (u).
Lorsque E = Rn , F = Rp et G = Rm , et que chacun de ces trois espaces est muni
d’une base orthonormale, df (u) est représentée par une matrice de Rp×n , dg(v) par une
matrice de Rm×p et d(g ◦ f )(u) par une matrice de Rm×n . D’après la proposition A.2.2,
[d(g ◦ f )(u)] est égale au produit des matrices associées à dg(v) et df (u) :
Dans le cas où la fonctionnelle g est à valeurs dans R (soit m = 1), on a vu que
[dg(v)] = ∇g(v)T (cf. remarque A.1.4) ; g ◦ f est également à valeurs dans R, et l’on a
de même [d(g ◦ f )(u)] = ∇(g ◦ f )(u)T . En transposant (A.8), on en déduit finalement
que
∇(g ◦ f )(u) = [df (u)]T∇g(v) avec v = f (u).
Théorème A.3.1. (de Schwarz) Soit f une application deux fois différentiable en u.
Alors d2 f (u) est une application (bilinéaire, continue et) symétrique de E × E dans F.
Replaçons-nous maintenant dans le cadre qui nous a permis de définir les dérivées
partielles (premières), c’est-à-dire E = Rn et F = R : d2 f (u) est une forme bilinéaire
et continue de Rn×n . D’après l’identification ci-dessus, il existe un unique élément
∇2 f (u) de L(Rn , Rn ) tel que
(i) Pour x ∈ E, soit Ax = A(x, ·) : Ax est linéaire et supkyk=1 kAx (y)k = supkyk=1 kA(x, y)k ≤ C kxk.
Ainsi, Ax ∈ Lc (E, F), et kAx k ≤ Cx , avec Cx = C kxk.
(ii) Soit maintenant à : x → Ax . Comme A est linéaire en sa première variable, à est un élément de
L(E, Lc (E, F)). Il reste à vérifier la continuité, or
Réciproquement, soit à ∈ Lc (E, Lc (E, F)). On définit A : (x, y) → Ã(x)(y). Par construction, A est
bilinéaire de E × E dans F et, par ailleurs, comme Ã(x) ∈ Lc (E, F) pour tout x,
Exercice A.3.1. Soit J0 définie en (3.19). Calculer d2 J0 (u)·(h, h′) et [∇2 J0 (u)] pour
u, h et h′ éléments de Rn .
Bien évidemment, il est loisible de définir, par récurrence, les différentielles d’ordre
supérieur (k ≥ 3), à partir de ce qui est écrit ci-dessus :
1
krk (h)k ≤ M khkk+1.
(k + 1)!
Preuve : On note γ(t) = u + t h le chemin défini le long du segment [u, v], pour
t ∈ [0, 1], ce qui permet d’introduire la fonction µ : t 7→ f ◦ γ(t).
On applique ensuite l’inégalité de Taylor-Lagrange pour µ, fonction d’une variable
réelle.
1
rk (h) = dk+1 f (u + λh)·hk+1.
(k + 1)!
Théorème A.3.4. (du reste intégral) Supposons que f soit de classe C k+1 sur Ω.
On choisit h tel que le segment [u, u + h] soit inclus dans Ω. Alors, rk (h) est égal à
Z 1
(1 − θ)k k+1
rk (h) = d f (u + θh)·hk+1 dθ.
0 k!
Preuve : On procède comme pour l’inégalité de Taylor-Lagrange.
Nous rappelons ici quelques résultats d’algèbre linéaire matricielle. Dans tout le
chapitre, on notera par Rn×n l’espace des matrices carrées réelles et par Cn×n celui des
matrices carrées complexes.
Définition B.0.1. Soit k · k une norme sur Rn . On lui associe une norme matricielle
sur Rn×n , dite norme induite de la norme vectorielle, définie par
De même, si k · k est une norme sur Cn , on définit la norme matricielle sur Cn×n
induite de la norme vectorielle par :
Tant qu’il n’y a pas de confusion, on note de la même façon les normes vectorielle
et matricielle induite.
Il est facile de vérifier le résultat suivant.
Preuve : (i) Remarquons que la fonction x ∈ Rn 7−→ kAxk est continue et l’en-
semble S := {x ∈ Rn | kxk = 1} est un compact. Donc il existe un xA ∈ S tel que
103
104 Ciarlet & Zidani
♠ Il est possible de définir des normes matricielles qui ne sont pas induites. Prenons
Xn
2
par exemple le cas de la norme définie sur R n×n
par : kAk = A2ij . En effet, on a
i,j=1
√
kIn k = n, ce qui n’est pas possible pour une norme induite.
Dans la suite, nous allons nous interesser en particulier aux normes matricielles
sur Rn×n induites des normes vectorielles k · k2 et k · k∞ (définies pour x ∈ Rn , par
P
kxk22 = i x2i et kxk∞ = maxi |xi |).
(Ici on a désigné par λmax (B) la plus grande valeur propre de B.)
Comme la matrice AT A est symétrique réelle positive, elle est diagonalisable et ses
valeurs propres sont positives λmin (AT A) = λ1 (AT A) ≤ · · · ≤ λn (AT A) = λmax (AT A).
Et dans la base formée par les vecteurs propres, on vérifie que :
D’où kAk22 = λmax (AT A). De plus, si A est symétrique positive, alors AT A = A2 et
λmax (AT A) = λmax (A)2 avec λmax (A) ≥ 0. On en déduit que kAk2 = λmax (A).
Exercice B.0.2. Soit A une matrice symétrique inversible. Que vaut la norme kA−1 k2 ?
Définition B.0.2. Soit A une matrice dans Cn×n . On appelle rayon spectral de A, et
on note ρ(A), le maximum des modules des valeurs propres de A.
Le rayon spectral est défini pour toutes les matrices, même dans le cas où les valeurs
propres ne sont pas réelles. dans le cas particulier où A est symétrique, on a le résultat
suivant.
Lemme B.0.1. Si A est une matrice symétrique, alors ρ(A) = kAk2 .
Dans le cas général, on peut toujours trouver une norme induite ”comparable” au
rayon spectral. Plus précisement, on a : (résultat admis)
Proposition B.0.4. Soit k · k une norme induite sur Cn . On a :
ρ(A) ≤ kAk.
Réciproquement, pour toute matrice A et pour tout réel ε > 0, il existe une norme
matricielle induite k · k sur Cn×n (qui dépend de A et ε) telle que
kAk ≤ ρ(A) + ε.
107
Index
108
Optimisation quadratique 109
normale (équation), 44
pénalisation, 85
pas de descente, 59
point de minimum (global), 9
point de minimum (local), 9
pseudo-inverse, 51
relaxation, 60
reste d’ordre k, 100
Schur (complément), 87
Schwarz (théorème), 99
suite minimisante, 9
tangente, 19
Taylor avec reste intégral (formule), 102
Taylor–Lagrange (formule), 101
Taylor–Mac Laurin (formule), 101
Taylor–Young (formule), 102
valeur singulière, 49