Documente Academic
Documente Profesional
Documente Cultură
AKadrani
Institut National de Statistiques et Economie Applique (INSEA)
Chapitre 3
Formulation du problme
Dnition
Soit f : Rn R une fonction de C 3 . Le problme de minimisation consiste trouver x tel que: f (x ) = min f (x ), o (E Rn )
x E
(1)
Minimisation globale (E = Rn ) Il sagit de trouver x Rn tel que: f (x ) f (x ), x Rn Minimisation locale (E = V (x )) Il existe V (x ) Rn de x tel que: f (x ) f (x ), x V (x )
Formulation du problme
Dnition
Soit f : Rn R une fonction de C 3 . Le problme de minimisation consiste trouver x tel que: f (x ) = min f (x ), o (E Rn )
x E
(1)
Minimisation globale (E = Rn ) Il sagit de trouver x Rn tel que: f (x ) f (x ), x Rn Minimisation locale (E = V (x )) Il existe V (x ) Rn de x tel que: f (x ) f (x ), x V (x )
Formulation du problme
Dnition
Soit f : Rn R une fonction de C 3 . Le problme de minimisation consiste trouver x tel que: f (x ) = min f (x ), o (E Rn )
x E
(1)
Minimisation globale (E = Rn ) Il sagit de trouver x Rn tel que: f (x ) f (x ), x Rn Minimisation locale (E = V (x )) Il existe V (x ) Rn de x tel que: f (x ) f (x ), x V (x )
Formulation du problme
Dnition
Ce problme peut se rcrire dune manire quivalente: f (x ) f (x + d ), d V (0) o d reprsente le dplacement de x un point voisin x + d , ou encore f (x ) f (x + d ), d Rn , d = 1 et < o reprsente le diamtre dune boucle centr en x contenue dans V (x ).
Chapitre 3
Formulation du problme
Relation avec lunidimensionnelle Si x est un min local de f , alors 0 est un min local de hx ,d () = f (x + d ), d Rn tel que d = 1. La contrapose nest pas vraie comme lillustre lexemple suivant:
2 2 min(x1 x2 )(x1 4x2 )
Formulation du problme
Relation avec lunidimensionnelle Si x est un min local de f , alors 0 est un min local de hx ,d () = f (x + d ), d Rn tel que d = 1. La contrapose nest pas vraie comme lillustre lexemple suivant:
2 2 min(x1 x2 )(x1 4x2 )
Algorithmes itratifs
Principe
A partir dun point x qui ne satisfait pas aux conditions pour doptimalit, il est possible de produire un autre point x lequel f ( x ) < f (x ). Cette famille dalgorithmes sappelle les mthodes de descente. Un point x nest pas un minimum local si au moins une des deux conditions suivantes nest pas vrie:
1 2
f (x ) = 0, ou 2 f (x ) est semi-dnie positive. Dans ce qui suit nous exploitons la premire condition.
Chapitre 3
Algorithmes itratifs
Principe
A partir dun point x qui ne satisfait pas aux conditions pour doptimalit, il est possible de produire un autre point x lequel f ( x ) < f (x ). Cette famille dalgorithmes sappelle les mthodes de descente. Un point x nest pas un minimum local si au moins une des deux conditions suivantes nest pas vrie:
1 2
f (x ) = 0, ou 2 f (x ) est semi-dnie positive. Dans ce qui suit nous exploitons la premire condition.
Chapitre 3
Algorithmes itratifs
Principe
A partir dun point x qui ne satisfait pas aux conditions pour doptimalit, il est possible de produire un autre point x lequel f ( x ) < f (x ). Cette famille dalgorithmes sappelle les mthodes de descente. Un point x nest pas un minimum local si au moins une des deux conditions suivantes nest pas vrie:
1 2
f (x ) = 0, ou 2 f (x ) est semi-dnie positive. Dans ce qui suit nous exploitons la premire condition.
Chapitre 3
Algorithmes itratifs
Principe
A partir dun point x qui ne satisfait pas aux conditions pour doptimalit, il est possible de produire un autre point x lequel f ( x ) < f (x ). Cette famille dalgorithmes sappelle les mthodes de descente. Un point x nest pas un minimum local si au moins une des deux conditions suivantes nest pas vrie:
1 2
f (x ) = 0, ou 2 f (x ) est semi-dnie positive. Dans ce qui suit nous exploitons la premire condition.
Chapitre 3
Algorithmes itratifs
Recherche de points stationnaires
Soit x Rn tel que f (x ) = 0. Lensemble des d Rn pour lesquels hx ,d < 0 satisfait la relation f (x )d < 0 Cet ensemble est nomm le Demi Espace de Diminution (DED (x )) de la fonction f . Les algo de descente consistent dabord calculer d DED (x ) et ensuite passer au point suivant x + = x + d = A(x ), pour minimiser (approximativement) la fonction hx ,d (). Les proprits lmentaires de d DED (x ) et la minimisation de hx ,d () assurent que f (x + ) = f (A(x )) < f (x ). Lapplication A engendre une suite {xk }, o xk +1 = A(xk ) et il faut introduire des conditions pour garantir que cette suite possde des points daccumulation stationnaires.
Chapitre 3 Optimisation locale sans contraintes
Algorithmes itratifs
Algorithme de descente simplie
Chapitre 3
Algorithmes itratifs
Exemple
en utilisant le choix d = f (x )T comme direction de descente. Puisquil sagit dune fonction quadratique, on peut calculer le pas exactement: f peut se rcrire sous la forme f (x ) = x T Qx + cx 4 2 o Q = et c = (2, 2). Alors, f (x ) = x T Q + c et 2 2 les conditions doptimalit pour min hx ,d () = f (x + d ) donnent
>0
f (x )d , d T Qd
Chapitre 3
Algorithmes itratifs
Exemple-illustration En appliquant lalgorithme partir du
x0 y0
10 5
, on a
f (10, 5) = (32, 12) et = 0.197297. x1 10 32 = + 0.197297 = y1 5 12 La suite des itrations est donne
3.686486 7.367568
Chapitre 3
Algorithmes itratifs
Conditions pour la convergence
1
Direction susament descendante Une direction d est considre susamment descendante sil existe deux constantes positives 0 et 1 indpendantes de x telles que: f (x )d 0 f (x ) d 1 f (x ) ,
2
Pas admissible Un pas est admissible pour une direction susamment descendante d lorsquil satisfait aux critres dArmijo et de Wolfe respectivement: f (x + d ) f (x ) 0 f (x )d , 0 ] 0, 1/2 [ (Armijo) f (x + d )d 1 f (x )d , 1 ] 0 , 1 [ (Wolfe) 0 et 1 sont des paramtres xes. On note Lensemble des valeurs possibles de .
Chapitre 3 Optimisation locale sans contraintes
Algorithmes itratifs
Conditions pour la convergence
1
Direction susament descendante Une direction d est considre susamment descendante sil existe deux constantes positives 0 et 1 indpendantes de x telles que: f (x )d 0 f (x ) d 1 f (x ) ,
2
Pas admissible Un pas est admissible pour une direction susamment descendante d lorsquil satisfait aux critres dArmijo et de Wolfe respectivement: f (x + d ) f (x ) 0 f (x )d , 0 ] 0, 1/2 [ (Armijo) f (x + d )d 1 f (x )d , 1 ] 0 , 1 [ (Wolfe) 0 et 1 sont des paramtres xes. On note Lensemble des valeurs possibles de .
Chapitre 3 Optimisation locale sans contraintes
Algorithmes itratifs
Conditions pour la convergence
1
Direction susament descendante Une direction d est considre susamment descendante sil existe deux constantes positives 0 et 1 indpendantes de x telles que: f (x )d 0 f (x ) d 1 f (x ) ,
2
Pas admissible Un pas est admissible pour une direction susamment descendante d lorsquil satisfait aux critres dArmijo et de Wolfe respectivement: f (x + d ) f (x ) 0 f (x )d , 0 ] 0, 1/2 [ (Armijo) f (x + d )d 1 f (x )d , 1 ] 0 , 1 [ (Wolfe) 0 et 1 sont des paramtres xes. On note Lensemble des valeurs possibles de .
Chapitre 3 Optimisation locale sans contraintes
Algorithmes itratifs
Conditions pour la convergence
1
Direction susament descendante Une direction d est considre susamment descendante sil existe deux constantes positives 0 et 1 indpendantes de x telles que: f (x )d 0 f (x ) d 1 f (x ) ,
2
Pas admissible Un pas est admissible pour une direction susamment descendante d lorsquil satisfait aux critres dArmijo et de Wolfe respectivement: f (x + d ) f (x ) 0 f (x )d , 0 ] 0, 1/2 [ (Armijo) f (x + d )d 1 f (x )d , 1 ] 0 , 1 [ (Wolfe) 0 et 1 sont des paramtres xes. On note Lensemble des valeurs possibles de .
Chapitre 3 Optimisation locale sans contraintes
Algorithmes itratifs
Conditions pour la convergence
1
Direction susament descendante Une direction d est considre susamment descendante sil existe deux constantes positives 0 et 1 indpendantes de x telles que: f (x )d 0 f (x ) d 1 f (x ) ,
2
Pas admissible Un pas est admissible pour une direction susamment descendante d lorsquil satisfait aux critres dArmijo et de Wolfe respectivement: f (x + d ) f (x ) 0 f (x )d , 0 ] 0, 1/2 [ (Armijo) f (x + d )d 1 f (x )d , 1 ] 0 , 1 [ (Wolfe) 0 et 1 sont des paramtres xes. On note Lensemble des valeurs possibles de .
Chapitre 3 Optimisation locale sans contraintes
Algorithmes itratifs
Conditions pour la convergenceThormes Soit un algorithme de descente appliqu au problme
x Rn
min f (x ), f C 1 (Rn )
Thorme 3.1 Supposons qu chaque itration la direction utilise dk est une direction suisamment descendante, et pour lequel le pas utilis dans cette direction est un pas admissible; alors tous les points daccumulation de la suite {xk } engendre par lalgorithme sont des points stationnaires pour le problme min f (x ). n
x R
Thorme 3.2 Supposons qu chaque itration la direction utilise dk est une direction suisamment descendante, et pour lequel le pas utilis dans cette direction est la premire valeur de la suite {1, 1/2, 1/4, , (1/2)m , } qui satisfasse au critre dArmijo, alors tous les points daccumulation de la suite {xk } engendre par lalgorithme sont des points stationnaires pour le problme f (x ). min n
x R Chapitre 3 Optimisation locale sans contraintes
Direction du Gradient Appele aussi la direction de la pente la plus forte et elle est dnie comme suit: d = f (x )T . Malheuresement, cette direction conduit un algorithme qui converge trs lentement. Direction du Newton Nous supposons que 2 f (x ) est une matrice dnie positive, la direction de Newton est dnie comme suit: dN = 2 f (x )1 f (x )T . Cas gnral Soit B une matrice symtrique dnie positive, nous dnissons la comme suit: direction d = B f (x )T . d
Chapitre 3 Optimisation locale sans contraintes
Direction du Gradient Appele aussi la direction de la pente la plus forte et elle est dnie comme suit: d = f (x )T . Malheuresement, cette direction conduit un algorithme qui converge trs lentement. Direction du Newton Nous supposons que 2 f (x ) est une matrice dnie positive, la direction de Newton est dnie comme suit: dN = 2 f (x )1 f (x )T . Cas gnral Soit B une matrice symtrique dnie positive, nous dnissons la comme suit: direction d = B f (x )T . d
Chapitre 3 Optimisation locale sans contraintes
Direction du Gradient Appele aussi la direction de la pente la plus forte et elle est dnie comme suit: d = f (x )T . Malheuresement, cette direction conduit un algorithme qui converge trs lentement. Direction du Newton Nous supposons que 2 f (x ) est une matrice dnie positive, la direction de Newton est dnie comme suit: dN = 2 f (x )1 f (x )T . Cas gnral Soit B une matrice symtrique dnie positive, nous dnissons la comme suit: direction d = B f (x )T . d
Chapitre 3 Optimisation locale sans contraintes
Direction du Gradient Appele aussi la direction de la pente la plus forte et elle est dnie comme suit: d = f (x )T . Malheuresement, cette direction conduit un algorithme qui converge trs lentement. Direction du Newton Nous supposons que 2 f (x ) est une matrice dnie positive, la direction de Newton est dnie comme suit: dN = 2 f (x )1 f (x )T . Cas gnral Soit B une matrice symtrique dnie positive, nous dnissons la comme suit: direction d = B f (x )T . d
Chapitre 3 Optimisation locale sans contraintes
Direction du Gradient Appele aussi la direction de la pente la plus forte et elle est dnie comme suit: d = f (x )T . Malheuresement, cette direction conduit un algorithme qui converge trs lentement. Direction du Newton Nous supposons que 2 f (x ) est une matrice dnie positive, la direction de Newton est dnie comme suit: dN = 2 f (x )1 f (x )T . Cas gnral Soit B une matrice symtrique dnie positive, nous dnissons la comme suit: direction d = B f (x )T . d
Chapitre 3 Optimisation locale sans contraintes
Direction du Gradient Appele aussi la direction de la pente la plus forte et elle est dnie comme suit: d = f (x )T . Malheuresement, cette direction conduit un algorithme qui converge trs lentement. Direction du Newton Nous supposons que 2 f (x ) est une matrice dnie positive, la direction de Newton est dnie comme suit: dN = 2 f (x )1 f (x )T . Cas gnral Soit B une matrice symtrique dnie positive, nous dnissons la comme suit: direction d = B f (x )T . d
Chapitre 3 Optimisation locale sans contraintes
Lide est dutiliser le dveloppement de Taylor dordre dun ou deux pour approximer f et calculer la direction d en rsolvant le problme de la forme: min qxk (d )
d k
o qx (d ) = f (x ) + f (x )d + 1/2d T 2 f (x )d et la valeur de k est ajuste laide de Dfxk , rk = Dqxk avec Dfxk = f (xk ) f (xk +1 ) et Dqxk = qxk (0) qxk (dk )
Chapitre 3
Chapitre 3
Des choix typiques des paramtres 0 < 1 < 2 < 1 et 0 < 1 < 1 < 2 sont 1 = 0.25, 2 = 0.75, 1 = 0.25, 2 = 2. Thorme 3.3 Si les points engendrs par lalgorithme demeurent dans un compact K , avec f de C 2 dans K et 2 f uniformment born dans K , alors de la suite {xk }, et tout point il existe un point daccumulation x daccumulation satisfait que f ( x ) = 0 et 2 f ( x ) est une matrice semi-dnie positive.
Chapitre 3
Pour viter les problmes associs 2 f (x ) qui ne serait pas uniformment dnie positive, nous allons la remplacer par une approximation Hk uniformment dnie positive, dinverse B k Hk = 2 f (xk ) + max (min + , 0) I o min est la plus petite valeur propre de 2 f (x ) et est une petite quantit. Une direction d = B k f (xk )T pour une matrice 1 dnie positive B k = Hk est solution du sous problme quadratique suivant: 1 min d T Hk d + f (xk )d d 2
Chapitre 3
Thorme 3.4 Soit f de C 3 , d une direction susamment descendante, telle que = 1 soit le minimum de hx ,d () = f (x ) + f (x )d + 2 T 2 d f (x )d . 2
Alors le pas = 1 est admissible pour f dans la direction d lorsque d est susamment petite. Preuve: Corollaire 3.1 Si 2 f (x ) est une matrice dnie positive et si la direction de Newton 1 d N = 2 f (x ) f (x )T est une direction de descente susamment petite (au voisinage dun minimum local), alors le pas = 1 est admissible pour f dans la direction dN .
Chapitre 3 Optimisation locale sans contraintes
Thorme 3.5 Soit f de C 3 . Les points daccumulation de la mthode de Newton modie pour minimiser f sont tous des points stationnaires de f . De plus, si un des points daccumulation satisfait la condition susante de seconde ordre, alors la suite {xk } y converge et la vitesse de convergence asymptotique est quadratique.
Chapitre 3 Optimisation locale sans contraintes
Considrons le problme de minimisation de la forme suivante: 1 min = x T Qx + cx n x R 2 On suppose que Q est symtrique et dnie positive. Lalgorithme du gradient conjugu est exprim comme suit: Itrations de lalgorithme du gradient conjugu Pour x0 donn. dk = f (xk )T + k 1 dk 1 f (xk )dk k = d T Qd
k k
xk +1 = xk + k dk f (xk +1 )Qdk k = d T Qd
k k
Chapitre 3
Chapitre 3
Chapitre 3
Chapitre 3
Chapitre 3