Sunteți pe pagina 1din 52

Cours Recheche Opérationnelle

Mr.Imed MAHFOUDHI
mahfoudhi.imed5@gmail.com

ENIM-Université de Monastir

19 novembre 2017

1/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
PLAN

1 Chapitre 1 : Introduction aux problèmes d’optimisation


Domaines d’application dans l’entreprise
Modélisation mathématique

2/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
PLAN

1 Chapitre 1 : Introduction aux problèmes d’optimisation


Domaines d’application dans l’entreprise
Modélisation mathématique

2 Chapitre 2 : Résolution des programmes linéaire


Méthode Graphique
Forme Standard/Canonique
Méthode du Simplexe

2/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
PLAN

1 Chapitre 1 : Introduction aux problèmes d’optimisation


Domaines d’application dans l’entreprise
Modélisation mathématique

2 Chapitre 2 : Résolution des programmes linéaire


Méthode Graphique
Forme Standard/Canonique
Méthode du Simplexe

3 Chapitre 3 : Optimisation non linéaire (Quadratique)


Éléments d’analyse convexe
Méthode de descente
Méthode du gradient à pas optimal
Méthode du gradient conjugués

2/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

PLAN

1 Chapitre 1 : Introduction aux problèmes d’optimisation


Domaines d’application dans l’entreprise
Modélisation mathématique
2 Chapitre 2 : Résolution des programmes linéaire
Méthode Graphique
Forme Standard/Canonique
Méthode du Simplexe
3 Chapitre 3 : Optimisation non linéaire (Quadratique)
Éléments d’analyse convexe
Méthode de descente
Méthode du gradient à pas optimal
Méthode du gradient conjugués

3/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Domaines d’application dans l’entreprise

O PTIMISATION ?

I Installation poteau
électrique.
I Réduire la
consommation
d’électricité.
I Maximiser la zone de
F IGURE – Exemple en logistique couverture.

4/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Domaines d’application dans l’entreprise

I Installation poteau
électrique.
I Réduire la
consommation
d’électricité.
I Maximiser la zone de
F IGURE – Exemple en l’ectricité couverture.

5/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Domaines d’application dans l’entreprise

A PPLICATION
Voici quelques domaines d’application de l’optimisation dans les
entreprises :
I Gestion de la ressource humaine
I Optimiser la consommation électrique
I Logistique (transport)
I Production Industrielle.
I Surveillance (placement de capteurs pour la surveillance)
Importance de l’optimisation :
I Maximiser la production.
I Maximiser le gain.
I Minimiser le coût total
I Minimiser le temps.
6/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Domaines d’application dans l’entreprise

O PTIMISATION

Optimisation, quels catégories ?


I Optimisation continue vs. discrète (combinatoire) ;
I Problème linéaire vs. non-linéaire ;
I Problème convexe vs. non convexe ;
I Optimisation différentiable vs. non-différentiable ;

7/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Modélisation mathématique

E XEMPLE D ’ APPLICATION
Une usine fabrique deux produits P1 et P2 à l’aide de trois matières
premières M1, M2 et M3 dont on dispose en quantité limitée. On se
pose le problème de l’utilisation optimale de ce stock de matières
premières c’est-à-dire la détermination d’un schéma, d’un
programme de fabrication tel que :
I les contraintes de ressources en matières premières soient
respectées,
I le bénéfice réalisé par la vente de la production soit maximum.

Modèle mathématique :
I Données numériques des contraintes. La disponibilité en
matières premières est de 18 unités de M1, 8 unités de M2 et 14
unités de M3.
I Caractéristiques de fabrication. Elles sont données dans le
tableau ci-dessous :
8/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Modélisation mathématique

E XEMPLE D ’ APPLICATION

M1 M2 M3
P1 1 1 2
P2 3 1 1

I Hypothèses de linéarité du modèle. La fabrication est à


rendement constant, c’est-à-dire que pour fabriquer x1 unités de
P1, il faut 1 × x1 unités de M1, 1 × x1 unités de M2 et 2 × x1
unités de M3, de même pour la fabrication de x2 unités de P2.
I Linéarité de la fonction économique. On suppose que le bénéfice
peut s’exprimer à l’aide des bénéfices unitaires c1 , c2 sous la
forme : Z = c1 x1 + c2 x2

Question : Écrire le programme linéaire correspondant au problème

9/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Modélisation mathématique

É TAPES PRINCIPALE DE M OD ÉLISATION

les étapes principales de la modélisation


I Identification des variables des décision
I Détermination des contraintes
I Détermination de la fonction objectif

10/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

PLAN

1 Chapitre 1 : Introduction aux problèmes d’optimisation


Domaines d’application dans l’entreprise
Modélisation mathématique
2 Chapitre 2 : Résolution des programmes linéaire
Méthode Graphique
Forme Standard/Canonique
Méthode du Simplexe
3 Chapitre 3 : Optimisation non linéaire (Quadratique)
Éléments d’analyse convexe
Méthode de descente
Méthode du gradient à pas optimal
Méthode du gradient conjugués

11/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode Graphique

I NTRODUCTION
Méthode graphique : en hachurant la zone correspondant aux contraintes
dite domaine réalisable, et en traçant les lignes de niveaux (des lignes
parallèles dont chacune correspond à une valeur constante de z) de la
fonction à maximiser. On obtient ainsi la solution optimale elle correspond à
un ”sommet” du domaine réalisale.
Exemple : Soit P1 le programme suivant

max [Z] = x1 + 3x2




 L1 : x1 + x2 ≤ 14
L2 : −2x1 + 3x2 ≤ 12

Sous les contraintes :

 L3 : 2x1 − x2 ≤ 12
L4 : x1 ≥ 0, x2 ≥ 0

Avec
- Z La fonction objectif.
- L1 à L3 Les contraintes.
- L4 Les contraintes de non négativité.
12/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode Graphique

M ÉTHODE GRAPHIQUE
Question : Trouver la solution du programme linéaire (P1 ) ?
I On commencer par résoudre les contraintes L1 à L4 la zone des
solutions réalisable.
I Ensuite, Traçant les lignes de niveaux qui correspondant à l’équation
Z = cste.
I Enfin, résoudre le problème.

13/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode Graphique

M ÉTHODE GRAPHIQUE
Question : Trouver la solution du programme linéaire (P1 ) ?
I On commencer par résoudre les contraintes L1 à L4 la zone des
solutions réalisable.
I Ensuite, Traçant les lignes de niveaux qui correspondant à l’équation
Z = cste.
I Enfin, résoudre le problème.

Feasible region and a level line with the objective value = 8.1667
8

* La zone rouge est l’ensemble x2 4

des solution réalisables du 3

programme P1 . 2

* La ligne bleue est une ligne 1

de niveau (Z = cst). 0
0 1 2 3 4 5 6 7 8
x1

13/41
Imed MAHFOUDHI 2015-2016 F IGURE – zone des ENIM-Monastir
solutions
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode Graphique

Definition
1 Solution admissible : Une solution admissible est un ensemble
de valeurs données aux variables qui satisfait toutes les
contraintes.
2 Solution optimale : Une solution optimale est une solution
admissible qui optimise la fonction objectif.
3 Programme linéaire : Modèle mathématique dans lequel la
fonction objectif et les contraintes sont linéaires en les variables.

Exemple : Soit P1 le programme suivant

max [z] = x1 + 3x2




 x1 + x2 ≤ 14
−2x1 + 3x2 ≤ 12

Sous les contraintes :

 2x1 − x2 ≤ 12
x1 ≥ 0, x2 ≥ 0

14/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode Graphique

Definition
4 Forme standard : Un programme linéaire est sous forme
standard lorsque toutes ses contraintes sont des égalités
(Ax = b) et toutes ses variables sont non-négatives (x ≥ 0).
5 Forme canonique : Un programme linéaire est sous forme
canonique lorsque toutes ses contraintes sont des inégalités
(Ax ≤ b) et toutes ses variables sont non-négatives (x ≥ 0).
6 Solution de base : Une solution de base d’un programme
linéaire est la solution unique du système de m équations à n
inconnues obtenu en fixant à zéro n − m variables (pourvu que
la matrice du système soit inversible)

Les variables fixées à zéro sont appelées variables hors base et les
autres variables en base.
Exemple :
1) Déterminer la forme standard et canonique du programme P1 .
15/41
2) Déterminer une solution de base et les variable hors base.
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Forme Standard/Canonique

A PPLICATION

Théorème 1 (Équivalence des formes standard et canonique)


Tout programme linéaire peut s’écrire sous forme standard et sous
forme canonique.

Application

Forme canonique Forme standard


 
 x1 + x2 ≤ 14
 
 x1 + x2 + x3 = 14
−2x1 + 3x2 ≤ 12 −2x1 + 3x2 + x4 = 12
 

 2x 1 − x2 ≤ 12 
 2x1 − x2 + x5 = 12
x1 ≥ 0, x2 ≥ 0. xi ≥ 0, ∀ i = 1, ...5.
 

On rajoute des variables d’écart x3 , x4 et x5

On a 5 variables, et 3 contraintes, on va annuler 2 variables pour


avoir autant de contraintes que de variables.
16/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

M ÉTHODE DU S IMPLEXE

Definition
7 Méthode du simplexe : partir d’une solution de base
admissible et passer à une solution de base voisine qui
améliore la valeur de l’objectif.
- Solution voisine : changement d’une variable en base.
Détermination de la variable entrante.
Détermination de la variable sortante.
Pivotage.

17/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

Le premier tableau du programme P1


v. base A1 A2 A3 A4 A5 B
x3 1 1 1 0 0 14 L1
x4 -2 3 0 1 0 12 L2
x5 2 -1 0 0 1 12 L3
∆j 1 3 0 0 0 max(z) − 0 L4

Élection de la variable entrante et sortante de la base :


1) La variable qui rentre en base :
I On choisit la colonne dont sa valeur dans la ligne ∆j est le plus
grand entre tous les positifs. Dans ce cas, cela serait la variable
x2 de coefficient 3.
I S’il y aurait deux ou plus de coefficients pareils qui satisfont aux
conditions précédentes (en cas d’égalité), on choisira la variable
de base.
I La colonne de la variable qui rentre en base qu’on appelle
colonne-pivot.
18/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

Une fois obtenue la variable entrante en base, on détermine quelle


sera la variable sortante.
2) La variable qui sort en base :
I On prend la décision sur la base d’un simple calcul : diviser
chaque terme indépendant (colonne B) entre l’élément
correspondant de la colonne-pivot, à condition que les deux
éléments soient strictement positifs (supérieures à zéro). On
choisit la variable dont le résultat est minimal.
I Dans cet exemple on a : xb211 = 14 b2 12 b3 12
1 = 14, x22 = 3 = 4, et x23 = −1 .
Non (on prend pas) =⇒ le minimum dans la ligne 2. On choisit
la variable sortante x4 .
3) Condition d’arrêt :
I Si l’objectif est la maximisation, quand dans la dernière ligne
(ligne indicatrice) n’existe aucune valeur positifs parmi les coûts
réduits (colonnes B en avance), on obtient la condition d’arrêt.
Dans ce cas, on attend la fin de l’algorithme puisqu’on ne peut pas
l’améliorer. La valeur de Z (colonne B) est la solution optimale.
19/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

y Passage à la deuxième tableau du simplexe


3 est le pivot (intersection de la colonne qui rentre et de la ligne qui
sort)
L01 = L1 − 1L02 L03 = L3 − (−1)L02
L02 = L32 L04 = L4 − 3L02

20/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

y Passage à la deuxième tableau du simplexe


3 est le pivot (intersection de la colonne qui rentre et de la ligne qui
sort)
L01 = L1 − 1L02 L03 = L3 − (−1)L02
L02 = L32 L04 = L4 − 3L02

v.base A1 A2 A3 A4 A5 B
5
x3 3 0 1 − 13 0 10 L01
x2 − 23 1 0 1
3 0 4 L02
4 1
x5 3 0 0 3 1 16 L03
∆0j 3 0 0 -1 0 max(z) − 12 L04

La variable qui rentre et sort en base :

20/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

y Passage à la deuxième tableau du simplexe


3 est le pivot (intersection de la colonne qui rentre et de la ligne qui
sort)
L01 = L1 − 1L02 L03 = L3 − (−1)L02
L02 = L32 L04 = L4 − 3L02

v.base A1 A2 A3 A4 A5 B
5
x3 3 0 1 − 13 0 10 L01
x2 − 23 1 0 1
3 0 4 L02
4 1
x5 3 0 0 3 1 16 L03
∆0j 3 0 0 -1 0 max(z) − 12 L04

La variable qui rentre et sort en base :


I Dans cet exemple on a ∆01 = 3, ∆0j ≤ 0, ∀j = 2, ...5 =⇒ ∆01 est le
plus grand. Donc la colonne A1 y x1 variable qui rentre.
I Ensuite on a : xb111 = 5/3
10
= 6, xb122 = −2/3
4
< 0, et xb133 = 4/3
16
= 12.
=⇒ le minimum dans la ligne 1. y x3 variable qui sort.
20/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

Troisième et dernier tableau


5
3
est le pivot (intersection de la colonne qui rentre et de la ligne qui sort)

21/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

Troisième et dernier tableau


5
3
est le pivot (intersection de la colonne qui rentre et de la ligne qui sort)
L0
L001 = 5/3
1
= 35 L01 L003 = L3 − 34 L001
L02 = L02 − (− 32 )L001 L004 = L04 − 3L001

21/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

Troisième et dernier tableau


5
3
est le pivot (intersection de la colonne qui rentre et de la ligne qui sort)
L0
L001 = 5/3
1
= 35 L01 L003 = L3 − 34 L001
L02 = L02 − (− 32 )L001 L004 = L04 − 3L001

v.base A1 A2 A3 A4 A5 B
x1 1 0 3
5
− 15 0 6 L001
x2 0 1 2
5
1
5
0 8 L002
x5 0 0 − 45 3
5
1 8 L003
∆00j 0 0 − 95 − 25 0 max(z) − 30 L004

21/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

Troisième et dernier tableau


5
3
est le pivot (intersection de la colonne qui rentre et de la ligne qui sort)
L0
L001 = 5/3
1
= 35 L01 L003 = L3 − 34 L001
L02 = L02 − (− 32 )L001 L004 = L04 − 3L001

v.base A1 A2 A3 A4 A5 B
x1 1 0 3
5
− 15 0 6 L001
x2 0 1 2
5
1
5
0 8 L002
x5 0 0 − 45 3
5
1 8 L003
∆00j 0 0 − 95 − 25 0 max(z) − 30 L004

I Ensuite on a ∆00
j ≤ 0, ∀j = 1, ...5 =⇒ Condition d’arrêt.
I La solution optimale se lit dans le tableau : les variables qui ne sont pas
dans le tableau sont hors-base donc à zéro. La solution optimale est
X5
donc : Z = ci xi la valeur correspondante de B soit Z= 6x1 + 3x8 + 8x0
i=1
= 6+24 = 30 atteinte en S = (6, 8, 0, 0, 8).
21/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

P RIMAL - DUAL

Définition :La notion de dual est apparue en RO dans le cadre de la


théorie des jeux, John Von Neumann en est l’initiateur dans les jeux à
deux joueurs à somme nulle et depuis reprise dans le cadre de la P.L.
Théorème de la dualité : Dans un jeu à deux joueurs L et C, à somme
nulle, les gains de L sont les pertes de C et inversement. Quand L
maximise son gain Z1 , C minimise sa perte Z2 . Le programme d’un
joueur est le dual de celui de l’autre et max(Z1 ) = min(Z2 )

Definition
Au programme primal On associe le programme dual

max [F(X)] =< C, X > min [G(Y)] =< b, Y >


  >
AX ≤ b A Y≥C
PLP PLD
X≥0 Y≥0

22/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

E XEMPLE ( PRIMAL - DUAL )


Exemple N :1
Programme linéaire primal

max [z] = 6x1 + 4x2




 3x1 + 9x2 ≤ 81
4x1 + 5x2 ≤ 55

PLP

 2x1 + x2 ≤ 20
x1 ≥ 0, x2 ≥ 0

23/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

E XEMPLE ( PRIMAL - DUAL )


Exemple N :1
Programme linéaire primal Programme linéaire dual

max [z] = 6x1 + 4x2 min [z] = 81y1 + 55y2 + 20y3


 

 3x1 + 9x2 ≤ 81 
 3y1 + 4y2 + 2y3 ≥ 6
4x1 + 5x2 ≤ 55 9y1 + 5y2 + y3 ≥ 4
 
PLP PLD

 2x1 + x2 ≤ 20 

x1 ≥ 0, x2 ≥ 0 y1 ≥ 0, y2 ≥ 0, y3 ≥ 0
 

23/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

E XEMPLE ( PRIMAL - DUAL )


Exemple N :1
Programme linéaire primal Programme linéaire dual

max [z] = 6x1 + 4x2 min [z] = 81y1 + 55y2 + 20y3


 

 3x1 + 9x2 ≤ 81 
 3y1 + 4y2 + 2y3 ≥ 6
4x1 + 5x2 ≤ 55 9y1 + 5y2 + y3 ≥ 4
 
PLP PLD

 2x1 + x2 ≤ 20 

x1 ≥ 0, x2 ≥ 0 y1 ≥ 0, y2 ≥ 0, y3 ≥ 0
 

Exemple N :2
Programme linéaire dual

min [z] = 14y1 + 12y2 + 12y3




 y1 − 2y2 + 2y3 ≥ 1
y1 + 3y2 − y3 ≥ 3

PLD


y1 ≥ 0, y2 ≥ 0, y3 ≥ 0

23/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du Simplexe

E XEMPLE ( PRIMAL - DUAL )


Exemple N :1
Programme linéaire primal Programme linéaire dual

max [z] = 6x1 + 4x2 min [z] = 81y1 + 55y2 + 20y3


 

 3x1 + 9x2 ≤ 81 
 3y1 + 4y2 + 2y3 ≥ 6
4x1 + 5x2 ≤ 55 9y1 + 5y2 + y3 ≥ 4
 
PLP PLD

 2x1 + x2 ≤ 20 

x1 ≥ 0, x2 ≥ 0 y1 ≥ 0, y2 ≥ 0, y3 ≥ 0
 

Exemple N :2
Programme linéaire dual Programme linéaire primal

min [z] = 14y1 + 12y2 + 12y3 max [z] = x1 + 3x2


 

 y1 − 2y2 + 2y3 ≥ 1 
 x1 + x2 ≤ 14
y1 + 3y2 − y3 ≥ 3 −2x1 + 3x2 ≤ 12
 
PLD PLD

 
 2x1 − x2 ≤ 12
y1 ≥ 0, y2 ≥ 0, y3 ≥ 0 x1 ≥ 0, x2 ≥ 0
 
23/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

PLAN

1 Chapitre 1 : Introduction aux problèmes d’optimisation


Domaines d’application dans l’entreprise
Modélisation mathématique
2 Chapitre 2 : Résolution des programmes linéaire
Méthode Graphique
Forme Standard/Canonique
Méthode du Simplexe
3 Chapitre 3 : Optimisation non linéaire (Quadratique)
Éléments d’analyse convexe
Méthode de descente
Méthode du gradient à pas optimal
Méthode du gradient conjugués

24/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

M INIMUM /M AXIMUM
Les notions de maximum local et global sont définies de façon tout à
fait similaire. En fait, on peut facilement démontrer que les problèmes
(avec ou sans contraintes) :

min f (x) et max −f (x)


x∈R x∈R

sont équivalents dans le sens où ils ont même ensemble de solutions :

min f (x) = − max −f (x) et max f (x) = − min −f (x)


x∈R x∈R x∈R x∈R

Ainsi la recherche d’un maximum pouvant se ramener à la recherche


d’un minimum, nous porterons une attention plus particulière à la
recherche du minimum.
2 2
Exemple : la fonction f (x) = 3e−x + e−(x−3)
25/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

QUELQUES EXEMPLES

3 0
la fonction f(x)=3exp(−x2) +exp(−(x−3)2)

la fonction f(x)=3exp(−x2) +exp(−(x−3)2)


2.5 −0.5

2 −1

1.5 −1.5

1 −2

0.5 −2.5

0 −3
−5 0 5 10 −5 0 5 10
laxe des x laxe des x

F IGURE – les maximums de la F IGURE – les minimums de la


fonction f (x) fonction −f (x)

26/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

E NSEMBLE CONVEXE

Definition (Ensemble convexe)


Soit C ⊂ Rn . L’ensemble C est convexe ssi

∀x, y ∈ C, ∀λ ∈ [0, 1], λx + (1 − λ)y ∈ C

c’est-à-dire, si x et y sont deux éléments de C alors le segment qui


relie x à y est inclus dans C.

Exemple :

1 R est convexe
2 Les intervalles de la forme [a, b], −∞ ≤ a < b ≤ +∞, sont
convexes R.

27/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

F ONCTION CONVEXE
Definition (Fonction convexe/strictement convexe )
Soit C ⊂ Rn convexe et f : C −→ R.
I f est convexe ssi

∀x, y ∈ C, ∀λ ∈ [0, 1], f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y)

I f est strictement convexe ssi

∀x, y ∈ C, x 6= y ∀λ ∈]0, 1[, f (λx + (1 − λ)y) < λf (x) + (1 − λ)f (y)

Proposition :
Soit f : R −→ R une fonction dérivable sur R

1 Si f 00 (x) ≥ 0 sur I =⇒ f est convexe.


2 Si f 00 (x) > 0 sur I =⇒ f est strictement convexe.
28/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

R APPEL :

Exemple !
Déterminer les intervalles de convexité des fonctions suivantes :
1) f1 (x) = ex 3) f3 (x) = ln(3x2 + 2x)
2 2
2) f2 (x) = e−x 4) f4 (x) = 34x −1

Definition (Gradient d’une fonction f )


Soit f : Rn −→ R une fonction scalaire des n variables alors le gradient de f :
f (x + th) − f (x)
I ∇f (x)> h =< ∇f (x), h >= lim
t→0 t
I ou de façon équivalente :
∂f (x)
  
h1

∂x1 n
 .
< ∇f (x), h >=< 
  ..  >= X ∂f (x) h
 ..
, i
 . 
∂xi
∂f (x) i=1
hn
∂xn

29/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

Théorème :
Soit C ⊂ Rn convexe et f : C −→ R différentiable.
I La fonction f est convexe ssi :

∀(x, y) ∈ C2 , f (y) ≥ f (x)+ < ∇f (x), y − x >

I ou de façon équivalente :

∀(x, y) ∈ C2 , < ∇f (y) − ∇f (x), y − x >≥ 0

I La fonction f est strictement convexe ssi :

∀(x, y) ∈ C2 , x 6= y f (y) > f (x)+ < ∇f (x), y − x >

I ou de façon équivalente :

∀(x, y) ∈ C2 , x 6= y < ∇f (y) − ∇f (x), y − x >> 0


30/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

M ATRICE H ESSIENNE
Soit f : Rn −→ R admet
 des dérivées
 partielles d’ordre 2 en x, on pose :
H[f ](x) = ∇2 f (x) = ∇ ∇f (x)> . La matrice hessienne de f

∂ 2 f (x) ∂ 2 f (x)
 
∂x21
... ∂x1 ∂xn
∂ 2 f (x) ∂ 2 f (x)
 
H[f ](x) = ∇2 f (x) = 

∂x2 ∂x1
... ∂x2 ∂xn


 ... ... ... 
 
∂ 2 f (x) ∂ 2 f (x)
∂xn ∂x1
... ∂x2n

Exemple !
Déterminer ∇fi et H[fi ] dans les cas suivant :
1) f1 (x, y) = x2 + y2
2) f2 (x, y) = 4x2 y + 2x3 − 4xy + 2x + 1
3) f3 (x) = ||x||2 , ∀ x ∈ Rn
4) f4 (x) = ||x||, ∀ x ∈ Rn
31/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

C ONDITION SUFFISANTE D ’ OPTIMALIT É GLOBALE

Théorème :
Soit f : Rn −→ R une fonctionnelle de classe C2 .
Si la hessienne H[f ](x) de f est une matrice symétrique définie
positive pour tout x ∈ Rn , alors f est strictement convexe.
Si H[f ](x) est une matrice symétrique semi-définie positive pour tout
x ∈ Rn , alors f est convexe.

Théorème (Condition suffisante d’optimalité globale)


Soient C ⊂ Rn un convexe et f : C −→ R une fonctionnelle.
Soit x∗ un point de minimum local de f .

i Si f est convexe, alors x∗ est un point de minimum global de f .


ii Si f est strictement convexe, alors x∗ est l’unique point de
minimum global de f .
32/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Éléments d’analyse convexe

D ÉFINITION MATRICE POSITIVE / D ÉFINIE POSITIVE


Fonction coercive
Une application f : Rn −→ R est dite infinie à l’infini (ou coercive) ssi

lim f (x) = +∞ ⇐⇒ ∀A ∈ R, ∃R > 0 | ||x|| > R =⇒ f (x) ≥ A


||x||−→+∞

Definition (Matrice positive)


Une matrice A ∈ Mn (R) est dite positive si pour tout x ∈ Rn et x 6= 0,
on a
< Ax, x >≥ 0 ⇐⇒ les valeurs propres sont positives

Definition (Matrice définie positive)


Une matrice A ∈ Mn (R) est dite définie positive si pour tout x ∈ Rn et
x 6= 0, on a
< Ax, x >> 0 ⇐⇒ les valeurs propres sont strictement positives
33/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode de descente

P RINCIPE DES M ÉTHODES DE DESCENTE

Definition
Soit f : Rn −→ R. On dira qu’un vecteur d0 est une direction de
descente en x0 s’il existe t0 > 0 tel que
f (x0 + td0 ) < f (x0 ), ∀ t ∈ ]0, t0 ].
Le principe d’une méthode de descente consiste à faire les itérations
suivantes xk+1 = xk + tk dk , tk > 0, tout en assurant la propriété
f (xk+1 ) < f (xk ).
I Le vecteur dk est la direction de descente en xk
I Le scalaire tk est appelé le pas de la méthode à l’itération k.

Proposition
Soient x0 , d0 ∈ Rn vérifiant < ∇f (x0 ), d0 >< 0.
Alors d0 est une direction de descente en x0 .

34/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient à pas optimal

P RINCIPE DES M ÉTHODES DE GRADIENT


Exemple :
On cherche à déterminer la direction de descente qui fait décroitre
ϕ(t) = f (x0 + td0 ) le plus vite possible.
Pour cela on va essayer de minimiser la dérivée de ϕ(t) en 0.
On a ϕ0 (0) =< ∇f (x0 ), d0 >, et on cherche d0 solution du problème

min ϕ0 (0)
d∈R,||d||=1

La solution est bien sûr


∇f (x0 )
d0 = − Si ||∇f (x0 )|| =
6 0
||∇f (x0 )||
On peut par exemple utiliser un pas fixé a priori tk = ρ > 0, ∀ k.
On obtient alors la méthode du gradient simple :
(
∇f (x )
dk = − ||∇f (xkk )||
xk+1 = xk + ρdk .
35/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient à pas optimal

P RINCIPE DES M ÉTHODES DE GRADIENT


La méthode du gradient à pas optimal consiste à faire les itérations
suivantes

(
∇f (x )
dk = − ||∇f (xkk )||
xk+1 = xk + tk dk .
où tk est choisi de manière à ce que :

f (xk + tk dk ) ≤ f (xk + tdk ), ∀t > 0 (1)


Cette méthode possède une propriété interessante :
Proposition
Soit f : Rn −→ R une fonction différentiable.
Les directions de descente dk générées par la méthode vérifient :
< dk+1 , dk >= 0
36/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient à pas optimal

P RINCIPE DES M ÉTHODES DE GRADIENT


Exemple (Fonction quadratique) :
Soient f (x) = 12 < Ax, x > − < b, x > avec A > 0 et ϕ(t) = f (xk + tdk ).
Le pas optimal tk est caractérisé par ϕ0 (tk ) = 0

On a donc < ∇f (xk + tk dk ), dk >=< A(xk + tk dk ) − b, dk >= 0,

< ∇f (xk ), dk >


on obtient donc tk = − ,
< Adk , dk >
qui est bien positif car dk est une direction de descente et
< Adk , dk >> 0 (car A définie positive).
La méthode du gradient à pas optimal peut donc s’écrire (dans le cas
quadratique)

∇f (xk ) b − Axk
 dk = − = ,


||∇f (xk )|| ||Axk − b||
< dk , dk >
 tk = ; et xk+1 = xk + tk dk .


37/41
< Adk , dk >
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient conjugués

M ÉTHODE CONJUGU ÉS

Definition (A-conjugués)
Soit A ∈ Mn,n (R), une matrice symétrique définie positive. Alors,

i Deux vecteurs xk0 , xk1 ∈ Rn sont dits A-conjugués si Axk0 .xk1 = 0


ii Une famille (xk )1≤k≤N de vecteurs de Rn est dite A-conjuguée si
pour tout 1 ≤ i, j ≤ N,

i 6= j =⇒ Axi .xj = 0

Definition (Méthode conjugués)


Une méthode de minimisation qui utilise une famille de directions de
descente stricte A-conjuguées (xk )1≤k≤N , N ∈ N, est dite conjuguée.

38/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient conjugués

M ÉTHODE DU GRADIENT CONJUGU É


Une formulation optimisée de l’algorithme gradient conjuguée (GC)
pour résoudre le système linéaire Ax = b :

Algorithme (GC)
Soient x0 ∈ Rn la valeur initiale (donnée) et d1 = −∇f (x0 )
1 k ème étape k ≥ 0
Calcul de λk+1 minimisant ϕk+1 (tk+1 ) = f (xk + tk+1 dk+1 )
<∇f (x ),dk+1 > <∇f (xk ),∇f (xk )>
tk+1 = − <Adk+1k ,dk+1 > = <Adk+1 ,dk+1 >
xk+1 = xk + tk+1 dk+1
calcul de ∇f (xk+1 )
Si ∇f (xk+1 ) = 0 alors xk+1 est optimal fin ; sinon :
||∇f (xk+1 ||2
dk+2 = −∇f (xk+1 ) + βk+1 dk+1 avec : βk = ||∇f (xk )||2

2 k←k+1

39/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient conjugués

M ÉTHODE DE N EWTON -R APHSON

La méthode de Newton permet de construire un algorithme


permettant de résoudre le système d’équations non-linéaires :
g(x) = 0. Où g : R → R est diférentiable : on se donne x0 ∈ R

xk+1 = xk − g0 (xk )−1 g(xk ),


L’application de cette méthode au problème d’optimisation.

min f (x)
x∈ Rn

On pose g(x) = ∇f (x) : on obtient les itérations

xk+1 = xk − [∇2 f (xk )]−1 .∇f (xk ),

40/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir
Chapitre 1 : Introduction aux problèmes d’optimisation Chapitre 2 : Résolution des programmes linéaire Chapitre 3 : Optimisation n

Méthode du gradient conjugués

M ÉTHODE DE N EWTON -R APHSON

La méthode de Newton est intéressante car sa convergence est


quadratique au voisinage de la solution, c’est à dire que l’on a

||xk+1 − x∗ || ≤ γ||xk − x∗ ||2 , γ > 0

Cela est possible uniquement si dk est une direction de descente en xk ,


soit

< ∇f (xk ), dk >= − < ∇f (xk ), [∇2 f (xk )]−1 ∇f (xk ) >< 0,

41/41
Imed MAHFOUDHI 2015-2016 ENIM-Monastir

S-ar putea să vă placă și