Documente Academic
Documente Profesional
Documente Cultură
Didier Smets
Chapitre 1
Un probl`
eme doptimisation lin
eaire
en dimension 2
On consid`ere le cas dun fabricant dautomobiles qui propose deux mod`eles a` la vente,
des grosses voitures et des petites voitures. Les voitures de ce fabriquant sont tellement
a` la mode quil est certain de vendre tout ce quil parvient `a produire, au moins au prix
catalogue actuel de 16000 euros pour les grosses voitures, et 10000 euros pour les petites
voitures. Son probl`eme vient de lapprovisionnement limite en deux mati`eres premi`eres, le
caoutchouc et lacier. La construction dune petite voiture necessite lemploi dune unite
de caoutchouc et dune unite dacier, tandis que celle dune grosse voiture necessite une
unite de caoutchouc mais deux unites dacier. Sachant que son stock de caoutchouc est
de 400 unites et son stock dacier de 600 unites, combien doit-il produire de petites et de
grosses voitures au moyen de ces stocks afin de maximiser son chiffre daffaire ?
Nous appellerons x le nombre de grosses voitures produites, y le nombre de petites
voitures produites, et z le chiffre daffaire resultant. Le probl`eme se traduit alors sous la
forme
maximiser
z = 16000x + 10000y
sous les contraintes x + y 400
(1.1)
2x + y 600
x 0, y 0.
1.1
Solution graphique
Un tel syst`eme, parce quil ne fait intervenir que deux variables, peu se resoudre assez
facilement de mani`ere graphique, en hachurant la zone correspondant aux contraintes,
et en tracant les lignes de niveaux (ici des lignes parall`eles) de la fonction `a maximiser
(cfr. graphique ci-dessous). On obtient ainsi la solution optimale x = 200 et y = 200,
qui correspond a` z = 5200000. Elle est unique dans ce cas precis, et correspond `a un
sommet de la zone de contraintes.
1.2
Sensibilit
e`
a la variation des stocks
(1.2)
(1.3)
daffaire. On dira alors que le prix marginal de lunite de caoutchouc est de 4000 euros.
1.3
Le probl`
eme dual du concurrent
(1.4)
Une analyse graphique fournit la solution optimale u = 4000 et v = 6000, ce qui correspond `a un prix global p = 5200000. On remarque (nous verrons par la suite que ce nest pas
un hasard) que la solution optimale du probl`eme du concurrent (on parlera de probl`eme
dual, par opposition au probl`eme primal du fabriquant) correspond aux prix marginaux
du probl`eme du fabricant, et que le prix minimal que puisse proposer le concurrent est
egal au chiffre daffaire maximal du fabricant.
Chapitre 2
Un probl`
eme doptimisation lin
eaire
en dimension sup
erieure
Dans ce chapitre, nous allons decrire un probl`eme de transport optimal assimilable `a
un probl`eme doptimisation lineaire en dimension 6. De ce fait, il ne sera plus possible de
le resoudre au moyen de la methode graphique du chapitre precedent.
Notre fabricant dautomobiles poss`ede trois chanes de montage M1 , M2 et M3 , tandis
que son stock dacier provient de deux acieries A1 et A2 . Les co
uts de transport dune
unite dacier dune acierie vers une usine de montage sont donnes par le tableau suivant :
A1
A2
M1
9
14
M2
16
29
M3
28
19
Les besoins de production des chanes de montage diff`erent, ainsi que les capacites de
production des acieries, et sont donnees par les deux tableaux suivants :
A1
A2
M1
M2
M3
206
394
142
266
192
Il sagit donc pour le fabricant de determiner le plan de transport des unites dacier
produites vers les chanes de montage afin de minimiser le co
ut total de transport. Pour
i = 1, 2 et j = 1, 2, 3, notons xij le nombre dunites dacier acheminees depuis lacierie Ai
vers la chane de montage Mj . Le probl`eme de transport optimal peut alors secrire :
minimiser
t = 9x11 +16x12 +28x13 +14x21 +29x22 +19x23
sous les contraintes
x11
+x12
+x13
x21
+x22
+x23
x11
+x21
x12
+x22
x13
+x23
x11 ,
x12 ,
x13 ,
x21 ,
x22 ,
x23
206,
394,
142,
266,
192,
0.
Nous verrons par la suite quil est possible de traiter un tel probl`eme de mani`ere
systematique, par le biais dune reduction `a une forme standard suivie dun algorithme
6
qui porte le nom de methode du simplexe. Toutefois, dans ce cas precis, cela nous m`enerait
a` des manipulations trop fastidieuses pour etre realisees sans laide dun ordinateur. A
sa place, nous allons proceder a` un certain nombre de remarques ad hoc qui vont nous
permettre de poursuivre les calculs a` la main.
La remarque principale ici est que dans la mesure o`
u la somme des capacites productions
des acieries (206 + 394 = 600) est egale a` la somme des besoins de production des trois
chanes de montage (142 + 266 + 192 = 600), chacune des 5 premi`eres inegalites dans
le probl`eme doptimisation ci-dessus doit necessairement etre une egalite. Si on omet
momentanement de soccuper des contraintes xij 0 (i = 1, 2, j = 1, 2, 3), les contraintes
restantes se reduisent `a un syst`eme de 5 equations a` 6 inconnues, que nous pouvons tenter
de resoudre par la methode du pivot de Gauss (cfr. Alg`ebre lineaire L1).
On recrit le sous-syst`eme des contraintes degalite sous la forme (on choisit lordre des
equation afin de faciliter le pivot de Gauss) :
x11
+x21
x12
x11 +x12
+x22
x13
+x13
+x23
x21 +x22 +x23
1 0 0 1 0 0 | 142
1
0 1 0 0 1 0 | 266
0
0 0 1 0 0 1 | 192 0
1 1 1 0 0 0 | 206
0
0 0 0 1 1 1 | 394
0
1 0 0
1
0 0 |
142
1
0 1 0
0
1 0 |
266
0
0 0 1
0
0
0
1
|
192
0 0 1 1 1 0 | 202
0
0 0 0
1
1 1 |
394
0
1 0 0 1 0 0 | 142
1
0 1 0 0 1 0 | 266
0
0 0 1 0 0 1 | 192 0
0 0 0 1 1 1 | 394
0
0
1
0
1
0
0
1
0
0
0
0
1
0
0
=
=
=
=
=
0
1 0
0
0 1
1
0 0
1 1 0
0
1 1
142,
266,
192,
206,
394.
0
0
1
0
1
|
|
|
|
|
142
266
192
64
394
0
1
0
0 |
142
0
0
1
0 |
266
1
0
0
1 |
192
0 1 1 1 | 394
0
1
1
1 |
394
0 0 1 1 | 252
0 0
1
0 |
266
.
1 0
0
1 |
192
0 1
1
1 |
394
La forme echelonnee laisse apparatre les variables x22 et x23 comme libres, desquelles on
deduit
x21 = 394 x22 x23 ,
x13 = 192 x23 ,
(2.1)
x12 = 266 x22 ,
x11 = 252 + x22 + x23 .
On exprime ensuite le co
ut t uniquement en termes des variables libres x22 et x23 :
t = 9(252 + x22 + x23 ) + 16(266 x22 ) + 28(192 x23 )
+ 14(394 x22 x23 ) + 29x22 + 19x23
= 8x22 14x23 + 12880.
7
(2.2)
Afin de minimiser t il est donc opportun de choisir x23 le plus grand possible, et x22 le
plus petit possible. Cest a` ce niveau quil nous est necessaire de faire reapparatre les
contraintes xij 0 (i = 1, 2, j = 1, 2, 3), sans lesquelles t pourrait etre rendu aussi negatif
que souhaite. En examinant les equation (2.1), on se convainc assez rapidement que le
meilleur choix est obtenu en prenant x23 = 192 (afin de satisfaire mais saturer la contrainte
x13 0), et ensuite x22 = 60 (afin de satisfaire mais saturer la contrainte x11 0). On
propose alors la solution suivante
x11
x12
x13
x21
x22
x23
= 0,
= 206,
= 0,
= 142,
= 60,
= 192,
(2.3)
comme candidat a` etre le transport optimal. Pour verifier notre intuition, on choisit dexprimer cette fois le syst`eme (2.1) uniquement en termes des variables x11 et x13 (on comprendra ce choix dans un instant), ce qui donne (on na en realite besoin que dexprimer
x22 et x33 puisquelles seules interviennent dans lexpression de t dans (2.2)) :
x22 = 60 + x11 + x13 ,
x23 = 192 x13 .
(2.4)
(2.5)
Comme x11 0 et x13 0 par contrainte, on a necessairement t 10672 quel que soit
le choix de xij (i = 1, 2, j = 1, 2, 3) satisfaisant lensemble des contraintes. Par ailleurs, le
choix propose en (2.3) fournit t = 10672 et satisfait `a lensemble des contraintes. Il sagit
donc effectivement de la solution optimale.
Pour terminer cet exemple par une synth`ese, observons que nous sommes parvenus `a
recrire le probl`eme doptimisation initial sous la forme dun syst`eme lineaire augmente de
contraintes de positivite de toutes les variables. Nous avons ensuite determine le rang du
syst`eme lineaire en question et exprime de diverses mani`eres possibles (deux en loccurrence) la fonction a` optimiser (ici t) en termes de variables libres pour ce syst`eme lineaire.
Nous nous sommes arretes lorsque les coefficients des variables libres dans lexpression de
la fonction `a optimiser furent tous positifs ou nuls, et avons conclu que les egaler a` zero
fournissait une solution assurement optimale.
Dans le chapitre qui suit, nous reprenons cette demarche de mani`ere un peu plus
systematique sur un exemple initialement en dimension 3.
Chapitre 3
M
ethode du simplexe : un aper
cu
par lexemple
Considerons le probl`eme doptimisation lineaire :
maximiser
z = 5x1 +4x2 +3x3
sous les contraintes
2x1 +3x2 +x3
4x1 +x2 +2x3
3x1 +4x2 +2x3
x1 ,
x2 ,
x3
5,
11,
8,
0.
(3.1)
= 5 2x1 3x2 x3 ,
= 11 4x1 x2 2x3 ,
= 8 3x1 4x2 2x3 ,
=
5x1 +4x2 +3x3 ,
(3.2)
5 3
1
1
x2 x3 x4 .
2 2
2
2
=
=
=
=
5
2
32 x2 21 x3
1 +5x2
1
+ 12 x2 21 x3
2
25
72 x2 + 21 x3
2
12 x4 ,
+2x4 ,
+ 32 x4 ,
52 x4 .
(3.3)
Cette fois, on observe que dans lexpression z = 25/2 7/2x2 + 1/2x3 5/2x4 , une
augmentation de x3 (cest ici le seul choix possible) entrane une augmentation de z.
A nouveau, on augmente donc x3 autant que possible (sans modifier ni x2 ni x4 ) tant
quaucune des variables (dites variables en bases (cfr. Chapitre 5)) x1 , x5 ou x6 ne devient
negative. Le choix maximal est donc x3 = min((5/2)/(1/2), (1/2)/(1/2)) = 1, lorsque x6
devient nulle, et qui fait passer `a la solution realisable (2, 0, 1, 0, 1, 0).
On recrit le syst`eme (3.3) en exprimant cette fois (x1 , x3 , x5 ) (ainsi que z) en termes
de (x2 , x4 , x6 ), au moyen de lequation
x3 = 1 + x2 + 3x4 2x6 .
Ceci donne, apr`es substitutions :
x1
x3
x5
z
(3.4)
= 2,
= 0,
= 1,
= 0,
= 1,
= 0,
(3.5)
10
x1
x1
x1
2x1
x1
x1 ,
+5x2
+3x2
+x3
+x3
+3x3
+4x2 x3
+3x2 x3
x2 ,
x3
3,
2,
4,
2,
0.
(3.6)
x1
x1
x1
2x1
x1
x1 ,
+5x2
+3x2
+x3
+x3 +x4
+3x3
+x5
+4x2 x3
+x6
+3x2 x3
+x7
x2 ,
x3 x4 , x5 , x6 ,
x7
=
=
=
=
3,
2,
4,
2,
0.
(3.7)
3
1 1 0
0
3 0 1
4 1 0 0
3 1 0 0
5
1 0 0
0
0
1
0
0
0
0
0
1
0
|
|
|
|
|
3
2
4
2
0
3
1 1 0
0
3 0 1
4 1 0 0
3 1 0 0
5
1 0 0
|
|
|
|
|
0
0
1
0
0
0
0
0
1
0
3
2
4
2
0
0
0
1
0
0
3
1
2
5
2
2
2 12
1 12
3
3
2
1
1
1
1
1
1
0
0
0
0
0 21
1
1
2
1
0
2
0 21
0 21
3
1
0
3
2 21
3 1
5
1
0
0
0
1
0
1
0
0
0
0
0
1
0
0
0
0 0 |
0 0 |
1
0 |
2
0 1 |
0 0 |
3
2
2
2
0
|
1
|
4
|
2
|
0
| 2
dans la nouvelle expression de z est positif, on fait ensuite rentrer x2 en base, et on doit
faire sortir x7 sans pouvoir en rien augmenter x2 ! Cela donne
0
0
1
0
0
3
1
2
5
2
2
2 21
1 21
3
3
2
1
0
0
0
0
0 12
1
1
2
1
0
2
0 12
0 12
0
0
0
1
0
|
1
|
4
|
2
|
0
| 2
0
0
1
0
0
0
2
7
0
2
1
0
2
1 12
0
3
1
0
0
0
0
0
0
3
1
2
3
0
2
0 12
0
1
1
2
2
1
3
|
1
|
4
|
2
|
0
| 2
et fournit la solution realisable (2, 0, 0, 1, 4, 0, 0). On fait ensuite rentrer x3 en base (son
coefficient dans lexpression de z vaut maintenant 3) et on fait sortir x4 (qui sannule
lorsque x3 = 1/2). Cela donne
0
0
1
0
0
0
2
7
0
2
1
0
2
1 21
0
3
1
0
0
0
0
0
0
3
1
2
3
0
2
0 12
0
1
1
2
2
1
3
0
0
1
0
0
0
0
0
1
0
|
1
|
4
|
2
|
0
| 2
0
0
1
0
0
1
1
0
0
2
7
3
0 4 1
2
3
0
0 0
2
1
0
0 21
4
1
0 32 0
0
1
7
0
2
1
0
2
1 12
0
3
1
2
0
0
0
0
0
0
3
1
2
3
0
2
0 21
0
1
12
2
2
1
3
1
|
2
|
4
|
2
|
0
| 2
1
21 |
2
9
14 |
4
7
7
4 |
4
3
1
|
4
4
23 | 72
0
0
0
1
0
1
1
0
0
2
3
0 47 1
2
3
0
0 0
2
1
1
0
0
4
2
0 32 0
1
1
12 |
2
1
9
4 |
4
7
74 |
4
3
1
|
4
4
32 | 27
1
0
0
0 0 1
2
3
0 0 0 74 1
2
2
0 0
0 0
1
3
1
0 1 0
0 21
4
0 0 0 32 0
1
1
0 0 1
0 0 21
2
3
1 0 0 74 1 0
2
2
0 0
0 0 1 67
3
1
1
1
1 0
0 0
3
4
6
23 0 0 23 0 0 31
1
12 |
2
1
9
4 |
4
7
67 |
6
3
1
|
4
4
32 | 27
1
|
2
1
|
2
7
|
6
5
|
6
| 14
3
12
14
.
3
Chapitre 4
Formes g
en
erale, canonique et
standard dun probl`
eme
doptimisation lin
eaire
Dans ce chapitre, nous definissons la forme generale dun probl`eme doptimisation
lineaire, ainsi que la forme canonique et la forme standard. Nous montrons egalement
quun probl`eme sous forme generale peut etre transforme dabord en un probl`eme equivalent
sous forme canonique, puis enfin sous un probl`eme equivalent sous forme standard. Dans
les chapitres qui suivront, nous nous restreindrons donc `a fournir un algorithme de
resolution pour les probl`emes sous forme standard.
D
efinition 4.1. On appelle probl`eme doptimisation lineaire sous forme generale un
probl`eme de la forme
maximiser
F (X)
sous les contraintes X RQ , G1 (X) 0, , GP (X) 0,
(4.1)
o`
u P, Q N , F : RQ R est une forme lineaire sur RQ et G1 , , GP sont des
applications affines definies sur RQ et `a valeurs reelles. On dit que la fonction F est la
fonction objectif et que les fonctions G1 , , GP sont les contraintes.
Remarque 4.2. On pourrait bien s
ur traiter de mani`ere equivalente les probl`emes de
minimisation. Il ny a toutefois aucune perte de generalite `a ne traiter que les probl`emes de
maximisation. De fait, minimiser une fonctionnelle F revient `a maximiser la fonctionnelle
F. Dans le meme esprit, on pourrait considerer des contraintes de la forme Gi (X) 0
ou meme Gi (X) = 0. Dans le premier cas il suffit alors de recrire la contrainte sous la
forme Gi (X) 0, et dans le second de la dedoubler en deux contraintes : Gj (X) 0 et
Gi (X) 0.
D
efinition 4.3. On dit que X RQ est une solution r
ealisable du probl`eme (4.1) si
X satisfait aux contraintes, autrement dit si G1 (X) 0, , GP (X) 0. Lensemble P
de toutes les solutions realisables dun probl`eme doptimisation est appele son ensemble
r
ealisable.
D
efinition 4.4. On dit que X RQ est une solution optimale du probl`eme (4.1) si
X est une solution realisable du probl`eme (4.1) et si de plus, quelle que soit la solution
13
14
(4.3)
maximiser
l=1 fl (Xl Xl )
PQ
+
(4.4)
sous les contraintes
(k = 1, , P ),
l=1 Gkl (Xl Xl ) Bk
+
Xl 0, Xl 0
(l = 1 , Q).
Le probl`eme (4.4) est un probl`eme doptimisation lineaire sous forme canonique. En effet,
il suffit de choisir p = P et q = 2Q et de poser (x1 , , xq ) := (X1+ , , XQ+ , X1 , , XQ ).
Le lecteur verifiera que si (X1+ , , XN+ , X1 , , XN ) est une solution realisable (resp.
optimale) de (4.4), alors (X1+ X1 , , XQ+ XQ ) est une solution realisable (resp. optimale) de (4.3). Inversement, si (X1 , , XQ ) est une solution realisable (resp. optimale) de
(4.3), alors (X1+ , , XQ+ , X1 , , XQ ), o`
u pour 1 l Q on a defini Xl+ := max(Xl , 0)
et Xl := min(Xl , 0), est une solution realisable (resp. optimale) de (4.4).
D
efinition 4.7. On appelle probl`eme doptimisation lineaire sous forme standard un
probl`eme de la forme
Pn
maximiser
cj x j
Pj=1
n
(i = 1, , m),
sous les contraintes
j=1 aij xj = bi
xj 0
(j = 1, , n),
o`
u m, n N , et o`
u les cj (1 j n), les aij (1 i m, 1 j n), et les bi
(1 i m), sont des constantes reelles.
En ecriture matricielle, un probl`eme sous forme standard secrit donc
maximiser
cT x
sous les contraintes Ax = b,
x 0,
o`
u c = (c1 , , cn )T et (la variable) x = (x1 , , xn )T sont des vecteurs colonnes `a n
lignes, A = (aij )1im,1jn est une matrice `a m lignes et n colonnes, et b = (b1 , , bm )T
est un vecteur colonne a` m lignes.
Remarque 4.8. Sans perte de generalite, on peut supposer que dans un probl`eme sous
forme standard, les lignes de A sont lineairement independantes (si ce nest pas le cas soit
certaines contraintes sont redondantes, soit lensemble des contraintes est vide). Dans la
suite, lorsque nous parlerons de probl`eme sous forme standard, nous supposerons implicitement que les lignes de A sont lineairement independantes, autrement dit que
rang(A) = m,
ce qui implique egalement que n m.
A tout probl`eme doptimisation lineaire sous forme
probl`eme doptimisation lineaire sous forme standard
syst`eme sous forme canonique
Pq
maximiser
cj x j
Pj=1
q
sous les contraintes
j=1 aij xj bi
xj 0
15
(i = 1, , p),
(j = 1, , q).
(4.5)
(i = 1, , m),
(j = 1, , n).
(4.6)
Il est aise (et cest un bon exercice) de verifier que si le vecteur (x1 , , xq )T est une
solution realisable (resp. optimale) du probl`eme (4.5), alors le vecteur
T
(x1 , , xn ) := (x1 , , xq , b1
q
X
a1j xj , , bp
q
X
apj xj )T
j=1
j=1
(4.7)
o`
u x := (x1 , , xp+q )T ,
cT := (c1 , , cq , 0,
a11 a1q
a21 a2q
A := ..
.
ap1 apq
, 0),
0
0
0 0
1 0
0 1
0
0
.. ,
.
1
b := b.
De par sa structure particuli`ere (elle contient la matrice identite de taille q dans sa partie
droite), la matrice A est necessairement de rang egal a` m = p, quelle que soit A.
D
efinition 4.9. Dans la suite, nous dirons quun probl`eme doptimisation lineaire est
sous forme standard canonique sil est de la forme (4.7)
Remarque 4.10. Meme si les methodes presentees ci-dessus permettent de ramener de
mani`ere systematique nimporte quel probl`eme doptimisation lineaire sous forme generale
en des probl`emes doptimisation lineaire sous forme canonique ou standard, dans la pratique il peut arriver (cetait le cas dans le chapitre precedent) que ce ne soit pas la plus
econome en nombre de variables. Dans ces cas, il est bien entendu plus avantageux dutiliser la reduction rendant le probl`eme standard le plus compact possible (i.e. avec le moins
de contraintes ou le moins de variables possible).
16
Chapitre 5
Solutions de base dun probl`
eme
sous forme standard
Dans ce chapitre, nous mettons en evidence certaines solutions realisables (dites de
base) pour un probl`eme doptimisation lineaire sous forme standard. Ces solutions se
reveleront suffisantes pour la recherche dune solution optimale.
Considerons le probl`eme doptimisation lineaire sous forme standard
maximiser
cT x
sous les contraintes Ax = b,
x 0,
(5.1)
o`
u c = (c1 , , cn )T et (la variable) x = (x1 , , xn )T sont des vecteurs colonnes `a n
lignes, A = (aij )1im,1jn est une matrice `a m lignes et n colonnes verifiant rang(A) =
m, et b = (b1 , , bm )T est un vecteur colonne `a m lignes. Sans perte de generalite, on
peut supposer que n > m, car si n = m lensemble realisable contient au plus un point.
On note
a11
a1k
a1n
a
1(1)
A = A(1) , , A(m) = ...
am(1)
a1(m)
.. .
.
am(m)
Finalement, on definit
n
o
B := t.q. rang(A ) = m .
17
n!
.
m!(n m)!
T
xN := x(1) , , x(nm)
cB := c(1) , , c(m)
T
cN := c(1) , , c(nm)
T
On note aussi
T
et enfin
B := A ,
N := A .
(5.2)
D
efinition 5.3. On appelle solution de base du syst`eme Ax = b associee au choix de base
B la solution x definie par
xB = B 1 b,
xN = (0, , 0)T .
D
efinition 5.4. (Solution de base realisable) On dit que la solution de base x du syst`eme
Ax = b associee au choix de base B est une solution de base r
ealisable si de
plus elle verifie les contraintes de (5.1), cest-`a-dire si toutes les composantes de x sont
positives. Dans ce cas, on dit aussi que la base est une base r
ealisable, et on note
R lensemble des bases realisables. On dit que la solution de base realisable x est non
d
eg
en
er
ee si toutes les composantes de xB sont strictement positives.
Corollaire 5.5. Etant fixee B, pour x Rn solution de Ax = b, on a
xB = xB B 1 N xN ,
et
cT x = cT x + dT x,
o`
u le vecteur d est defini par les relations
dTN = cTN cTB B 1 N
et
dTB = (0, , 0).
18
(5.3)
o`
u z est une variable scalaire reelle (non necessairement positive). Ce dernier probl`eme
peut se recrire sous la forme matricielle
maximiser
cT x
x = b,
sous les contraintes A
x 0,
(5.4)
o`
u xT := (x1 , , xn , z), cT = (0, , 0, 1), et o`
u
A 0
b
A := T
et b :=
.
c 1
0
Si : {1, , m} {1, , n} est un element de B alors : {1, , m + 1}
{1, , n + 1} definie par (j) = (j) si j {1, , m} et (m + 1) = n + 1 est
19
telle que les colonnes A(1) , , A(m+1) sont lineairement independantes. Par analogie
avec les notations utilisees plus haut, on notera
= A = (A(1) , , A(m+1) ),
B
qui est par consequent une matrice carree inversible de taille m + 1. On remarque que le
x = b est equivalent au syst`eme
syst`eme A
1 A
x = B
1b,
B
1 A et B
1b. On a
et on explicite ensuite lexpression de B
B 0
B 1
0
1
B= T
do`
u B =
,
cB 1
cTB B 1 1
et donc
1 A =
B
1
B 1
0
A 0
B 1 A
0
B A 0
= T
=
,
cTB B 1 1
cT 1
c cTB B 1 A 1
dT
1
et
1
B b=
B 1 b
.
cTB B 1 b
20
Chapitre 6
Pivot `
a partir dune solution de base
r
ealisable : crit`
ere de Dantzig
Au chapitre precedent, nous avons associe `a tout choix de base B une solution de
base x , et nous avons fournit un crit`ere (la Proposition 5.8) permettant de sassurer que
x soit une solution optimale.
Dans ce chapitre, nous presentons une methode permettant, etant donne un choix
de base B pour laquelle la solution de base x est realisable mais le crit`ere de la
Proposition 5.8 nest pas verifie, de determiner un autre choix de base B dont la
solution de base associee y est realisable et verifie de plus
cT y cT x .
Cette methode op`ere au moyen dun pivot, au sens o`
u les ensembles ({1, , m}) et
({1, , m}) ne diff`erent que par un element.
Reprenons donc le probl`eme doptimisation lineaire sous forme standard (5.1) du chapitre precedent :
maximiser
cT x
sous les contraintes Ax = b,
x 0,
o`
u n > m N , c = (c1 , , cn )T et (la variable) x = (x1 , , xn )T sont des vecteurs
colonnes a` n lignes, A = (aij )1im,1jn est une matrice a` m lignes et n colonnes verifiant
rang(A) = m, et b = (b1 , , bm )T est un vecteur colonne a` m lignes.
Soit B, x la solution de base du syst`eme Ax = b associee `a et supposons que
x soit realisable mais que lune au moins des composantes du vecteur d soit strictement
positive.
On note
n
o
E := j {1, , n m} t.q. d(j) > 0 .
Lemme 6.1. Si S,J = alors le probl`eme doptimisation (5.1) na pas de solution optimale car la fonction objectif nest pas bornee superieurement sur lensemble realisable.
Demonstration. Soit t > 0 fixe quelconque. On definit le vecteur x Rn par les relations
x(j) = 0 si j {1, , n m} \ {J},
x(J) = t,
x(i) = x(i) t(B 1 N )iJ si i {1, , m}.
Par construction,
xB = xB B 1 N xN ,
de sorte que
Ax = b.
De plus, puisque t 0, puisque x est realisable, et puisque (B 1 N )iJ 0 pour tout
i {1, , m} par hypoth`ese, on a
x 0,
et on deduit donc que x est une solution realisable. Enfin, on a
cT x = cT x + tdT(J) .
Comme t 0 etait quelconque et que d(J) > 0, on deduit que la fonction objectif nest
pas bornee superieurement sur lensemble realisable.
Supposons maintenant que la fonction objectif soit bornee superieurement sur lensemble realisable et fixons I S,J (l`a aussi nous verrons differents crit`eres de choix par
la suite). Dans tous les cas, on a
Lemme 6.2. Soit lunique application strictement croissante de {1, , m} dans {1, , n}
telle que
{1, , m} = {1, , m} \ {I} {J} .
Alors B.
(Autrement dit les colonnes de A associees aux variables en base obtenues en faisant
sortir de la base initiale la variable x(I) et en y faisant rentrer la variable x(J) sont
lineairement independantes).
Demonstration. Par definition des matrices B et N (pour la base ), on a
A(J) =
m
X
(B 1 N )iJ A(i) .
i=1
Puisque (B 1 N )IJ > 0 (et donc 6= 0) par hypoth`ese sur I, et puisque la famille (A(i) )1im
est une base de Rm , on deduit que A(J) nest pas combinaison lineaire des seuls A(i) avec
i {1, , m} \ {I}. Il sensuit que definit une famille de m vecteurs libres de Rm , et
donc que B par definition de B.
22
Lemme 6.3. (Crit`ere de Dantzig) Sous les hypoth`ese du lemme precedent, si de plus
x(I)
(B 1 N )IJ
= tJ := min
iS,J
x(i)
(B 1 N )iJ
alors est une base realisable. De plus, si y designe la solution de base realisable associee
`a la base , alors
cT y cT x ,
linegalite etant stricte si tJ 6= 0.
Demonstration. On proc`ede de mani`ere assez semblable `a la demonstration du Lemme
6.1. Soit y Rn defini par
y(j) = 0 si j {1, , n m} \ {J},
x(J) = tJ ,
y(i) = x(i) tJ (B 1 N )iJ si i {1, , m}.
Par construction,
yB = xB B 1 N yN ,
de sorte que
Ay = b.
Aussi, par definition de tJ on a
y0
et on deduit donc que y est une solution realisable. De plus
y(I) = x(I) tJ (B 1 N )IJ = 0,
et par construction
y(j) = 0 si j {1, , n m} \ {J}.
Il sensuit que, relativement `a la base ,
yN = 0.
Par consequent, y = y est lunique solution de base (on sait quelle est aussi realisable)
associee a` la base , et on a
cT y = cT y = cT x + d(J) tJ cT x ,
linegalite etant stricte si tJ > 0.
Dans la methode presentee ci-dessus, et permettant de passer de la base realisable a`
la base realisable , il se peut que les indices J puis I des variables entrantes puis sortantes
ne soient pas determines de mani`ere unique (si E nest pas reduit `a un element, et si
le maximum tJ est atteint pour plusieurs indices I). Dans ces cas, et avec loptique par
exemple de rendre la methode algorithmique (et donc deterministe) en vue de la programmer sur un ordinateur, il faut y adjoindre un ou des crit`eres additionnels permettant de
determiner I et J de mani`ere univoque. Nous allons decrire deux tels crit`eres (on peut
imaginer beaucoup dautres variantes) :
23
D
efinition 6.4 (Crit`ere naturel). On appelle variable entrante selon le crit`ere naturel la
variable x(J) telle que
d(J) = max d(j)
jE
et
J=
min
jE ,d (j) =d (J)
j.
(autrement dit la variable sortante est dans ce cas une de celles associees aux plus grands
coefficients positifs de d, et parmi celles-ci celle de plus petit indice)
On appelle variable sortante selon le crit`ere naturel la variable x(I) telle que
x(i)
I = min i S,J t.q.
(B 1 N )iJ
= tJ
(autrement dit la variable entrante est dans ce cas celle de plus petit indice parmi les
variables satisfaisant au crit`ere de Dantzig etant donnee la variable entrante J)
D
efinition 6.5 (Crit`ere de Bland). On appelle variable entrante selon le crit`ere de Bland
la variable x(J) telle que
J = min j.
jE
(autrement dit la variable sortante est dans ce cas celle associee au premier coefficient
strictement positif de d)
On appelle variable sortante selon le crit`ere de Bland la variable x(I) telle que
I = min i S,J t.q.
x(i)
(B 1 N )iJ
= tJ
(autrement dit la variable entrante est dans ce cas celle de plus petit indice parmi les
variables satisfaisant au crit`ere de Dantzig etant donnee la variable entrante J)
24
Chapitre 7
Non cyclicit
e sous le crit`
ere de Bland
Le chapitre precedent nous fournit une (en realite deux suivant que lon applique le
crit`ere naturel ou celui de Bland) methode pour passer dune base realisable a` une
base realisable tout en augmentant (au sens non strict) la fonction objectif. Puisquil
ny a quun nombre fini de bases realisables (au plus Cnm ), les iterees de cette methode
nous conduiront assurement `a une solution optimale `a condition que la fonction objectif
soit majoree et que nous puissions demontrer que lalgorithme ne cycle pas, cest-`a-dire
quaucune des bases realisables obtenues par les differentes iterations ne peut etre egale
a` la base initiale . Cette condition nest pas verifiee en general pour le crit`ere naturel (il
existe un cel`ebre contre-exemple du a` Beale (1955)). A linverse, Bland (1974) `a demontre
que la cyclicite est proscrite suivant son crit`ere :
Th
eor`
eme 7.1. (Bland) Literation de la methode du Chapitre 6 avec le crit`ere de Bland
garantit la non-cyclicite des bases realisables produites, et par consequent atteint une
solution optimale en un nombre fini detapes si la fonction objectif est majoree.
Demonstration. La demonstration se fait par labsurde et nest pas des plus eclairantes.
On la fournit neanmoins par souci de completude. Supposons donc que literation de la
methode engendre un cycle. Cela implique bien s
ur que la fonction objectif soit constante
tout au long du cycle, et donc qu`a chaque etape on ait tJ = 0, de sorte que la solution
de base x est elle aussi constante tout au long du cycle. Appelons K le plus grand indice
(parmi {1, , m}) pour lequel la variable xK se retrouve a` la fois en base et hors base
dans deux iterations differentes du cycle. Appelons aussi la base realisable correspondant
a` une etape du cycle (que nous fixons) o`
u xK est appelee `a rentrer en base, et la base
realisable correspondant a` une etape du cycle (que nous fixons) o`
u xK est appelee a` sortir
de la base.
Faisant reference `a la remarque 5.9 du Chapitre 5, on augmente le syst`eme Ax = b en
x = b, que lon recrit sous les deux formes equivalentes
le syst`eme A
1 A
x = B
1b
B
et
1 A
x = B
1b,
B
o`
u B et B se ref`erent a` la matrice B du Chapitre 5 suivant que lon choisit ou comme
base realisable. De plus,
1
1
B A 0
B A 0
1
1
B A =
et
B A =
.
dT
1
dT
1
25
Une premi`ere
On note H le sous-espace vectoriel de Rn+1 engendre par les lignes de A.
remarque importante est que puisque B et B sont inversibles, H est aussi le sous-espace
1 A ou par celles B
1 A.
En particulier, on a
vectoriel engendre par les lignes de B
h := dT 1 H.
(7.1)
(7.2)
fE := 1,
fn+1 := (d )E ,
les autres composantes de f etant nulles.
On pretend que quel que soit i {1, , m + 1}, on a
n+1
X
1 A)
il fl = 0,
(B
l=1
autrement dit le vecteur f est orthogonal `a lespace vectoriel engendre par les lignes de
1 A,
cest-`a-dire H. En effet, pour 1 i m on a, par definition de f ,
B
n+1
m
X
X
1
(B A)il fl =
(B1 A)i(j) f(j) + (B1 A)iE fE = (B1 A)i(i) f(i) (B1 A)iE = 0,
j=1
l=1
o`
u on a utilise le fait que (B1 A)i(j) = ij (symbole de Kronecker). Dautre par, pour
i = m + 1 on a
n+1
X
l=1
1 A)
il fl =
(B
m
X
j=1
o`
u on a ici utilise le fait que (d )(j) 0.
Comme h H et f H , on deduit que
n+1
X
hl fl = 0.
l=1
26
Pour l = n + 1, on a hn+1 fn+1 = (d )E > 0 par (7.3), et par consequent il existe au moins
un indice L {1, , n} pour lequel hL fL < 0. En particulier, hL 6= 0 et donc xL est une
variable hors base . Aussi, fL 6= 0, et par consequent ou bien xL est une variable en base
ou bien L = E. Dans lun ou lautre cas, on conclut que xL est une variable qui rentre
et sort de la base a` differentes etapes du cycle, et par definition de K cela implique que
L K. Enfin, hK = (d )K > 0 par (7.2) et fK = (B1 A)IE > 0 par (7.3). Il sensuit que
L < K. D`es lors hL = (d )L 0 par (7.2), do`
u on deduit que hL < 0, et finalement que
fL > 0. Comme fE = 1 on ne peut donc avoir L = E, et dun argument precedent on
conclut que xL est une variable en base pour (rappelons que xL est `a linverse hors base
, et donc que xL = 0). D`es lors, si L = (J), on a alors `a letape correspondant a` la base
,
(B1 A)JE > 0
x(J) = 0
car fL > 0,
car x(J) = xL ,
L < K.
Le crit`ere de Bland nous interdit alors de faire sortir la variable xK , ce qui constitue la
contradiction cherchee.
27
Chapitre 8
D
etermination dune premi`
ere
solution de base r
ealisable
Le Chapitre 6 nous a fourni un moyen de passer dune base realisable `a une autre
base realisable plus avantageuse du point de vue de la fonction objectif. Il nous reste
neanmoins a` determiner, en vue dinitialiser la methode, comment obtenir une premi`ere
base realisable. Ceci constitue lobjet du chapitre present.
Considerons un probl`eme doptimisation lineaire sous forme canonique :
maximiser
cT x
sous les contraintes Ax b,
x 0,
(8.1)
o`
u c = (c1 , , cq )T et (la variable) x = (x1 , , xq )T sont des vecteurs colonnes a` q
lignes, A = (aij )1ip,1jq est une matrice `a p lignes et q colonnes, et b = (b1 , , bp )T
est un vecteur colonne a` p lignes.
D
efinition 8.1. On dit que le probl`eme sous forme canonique (8.1) est un probl`eme de
premi`ere esp`ece si toutes les composantes du vecteur b sont positives. Dans le cas inverse,
ou si le probl`eme nest pas sous forme canonique, on dit quil sagit dun probl`eme de
deuxi`eme esp`ece.
Comme indique au Chapitre 4, au probl`eme (8.1) ont peut associer un probl`eme
equivalent sous forme standard : on explicite (8.1) comme
Pq
cj x j
maximiser
Pj=1
q
sous les contraintes
(i = 1, , p),
(8.2)
j=1 aij xj bi
xj 0
(j = 1, , q),
on pose m = p et n = p + q, et on consid`ere le syst`eme
Pq
maximiser
cj x j
Pj=1
q
sous les contraintes
j=1 aij xj + xq+i = bi
xj 0
(i = 1, , m),
(j = 1, , n).
(8.3)
(8.4)
o`
u x = (x1 , , xp+q )T ,
cT = (c1 , , cq , 0,
a11 a1q
a21 a2q
A = ..
.
ap1 apq
, 0),
0
0
0 0
1 0
0 1
0
0
.. ,
.
1
b = b.
on obtient directement le
De par la forme de A,
Lemme 8.2. Si toutes les composantes de b sont positives (i.e. si le probl`eme sous forme
canonique est de premi`ere esp`ece), alors le probl`eme sous forme standard (8.3) poss`ede
comme base realisable celle obtenue en ne retenant en base que les m variables decart.
Demonstration. En effet, en posant ({1, , m}) = {n m + 1, , n}, on sapercoit
:= A nest autre que la matrice identite de taille m (en particulier B), et par
que B
consequent
1b = b = b
xB = (B)
na que des composantes positives. La conclusion suit alors la definition de base realisable,
puisque dautre part par construction xN = (0, , 0).
Venons en maintenant au cas general dun syst`eme de deuxi`eme esp`ece. Nous commencons par le cas dun syst`eme sous forme standard (nous savons que tout probl`eme
doptimisation peut se ramener sous cette forme). Nous verrons ensuite une deuxi`eme
mani`ere de proceder, moins gourmande en nombre de variables additionnelles, qui sapplique lorsque lon part dun syst`eme sous forme canonique de deuxi`eme esp`ece.
Soit donc le probl`eme doptimisation lineaire sous forme standard
maximiser
cT x
sous les contraintes Ax = b,
x 0,
(8.5)
o`
u c = (c1 , , cn )T et (la variable) x = (x1 , , xn )T sont des vecteurs colonnes `a n
lignes, A = (aij )1im,1jn est une matrice a` m lignes et n colonnes, de rang egal `a m,
et b = (b1 , , bm )T est un vecteur colonne a` m lignes.
Sans perte de g
en
eralit
e, on peut supposer que toutes les composantes de b sont
positives, sinon il suffit de les multiplier, ainsi que les lignes correspondantes de A, par 1
(ce qui revient a` remplacer une egalite entre deux quantites par legalite de leurs quantites
opposees, ce qui est bien s
ur equivalent).
On introduit alors la variable fictive y = (y1 , , ym )T Rm et on consid`ere le
probl`eme doptimisation lineaire
maximiser
y1 y2 ym
sous les contraintes Ax + y = b,
x, y 0.
29
(8.6)
(8.7)
que lon a transforme via les variables decart en le probl`eme sous forme standard canonique
maximiser
cT x
x = b,
sous les contraintes A
(8.8)
x 0,
o`
u x := (x1 , , xp+q )T ,
cT := (c1 , , cq , 0,
a11 a1q
a21 a2q
A := ..
.
ap1 apq
, 0),
0
0
0 0
1 0
0 1
0
0
.. ,
.
1
b := b,
et faisons lhypoth`ese que b poss`ede au moins une composante strictement negative (de
sorte que le probl`eme soit de deuxi`eme esp`ece). Plutot que dintroduire p nouvelles variables comme dans le procede ci-dessus, on en introduit une seule (appelons la xp+q+1 )
et on consid`ere le probl`eme dinitialisation
maximiser
xp+q+1
sous les contraintes Ax = b,
x 0,
o`
u x := (x1 , , xp+q+1 )T et
a11
a21
A = ..
.
ap1
0
0
apq 0 0
a1q 1 0
a2q 0 1
30
(8.9)
0 1
0 1
.. .. .
. .
1 1
Comme plus haut, le probl`eme (8.8) poss`ede une solution de base realisable si et seulement
si le maximum du probl`eme (8.9) est egal `a zero. Ce dernier probl`eme poss`ede une solution
de base realisable relativement facile a` determiner. Pour ce faire, soit i0 {1, , p} un
indice tel quel
bi0 = min bi < 0.
i{1, ,p}
On pretend quen choisissant pour variables en base les variables {xq + 1, , xq+p+1 } \
{xp+i0 } on obtient une base realisable. En effet, les variables hors base etant fixees a` zero,
le syst`eme (8.9) se ram`ene `a
xp+q+1 = bi0
xp+i = bi + xp+q+1
31
Chapitre 9
Description algorithmique de la
m
ethode du simplexe
Dans ce chapitre, on traduit sous forme algorithmique la methode developpee dans
les chapitres precedents afin de resoudre un probl`eme doptimisation lineaire que lon
supposera (le Chapitre 4 nous garantit que cela nenl`eve aucune generalite) sous forme
standard :
maximiser
cT x
sous les contraintes Ax = b,
(9.1)
x 0,
o`
u c = (c1 , , cn )T et (la variable) x = (x1 , , xn )T sont des vecteurs colonnes `a n
lignes, A = (aij )1im,1jn est une matrice a` m lignes et n colonnes, de rang egal `a m,
et b = (b1 , , bm )T est un vecteur colonne a` m lignes de composantes toutes positives.
Etape 1 : Soit on connat une base realisable pour (9.1), auquel cas on passe a` letape
2, soit on nen connat pas et consid`ere alors le probl`eme (8.6) du Chapitre 8 pour lequel
on dispose dune base realisable evidente. On passe alors a` letape 2 pour ce dernier
probl`eme, et on laisse momentanement en suspend la resolution de (9.1).
Etape 2 : On dispose dune base realisable. Si le vecteur des prix marginaux pour
cette base realisable na que des composantes negatives, la solution de base realisable
correspondant a` la base realisable courante est un optimum pour le probl`eme en question,
on passe alors directement a` lEtape 3. Sinon, on applique la methode decrite dans le
Chapitre 6. Celle-ci permet soit de determiner que le probl`eme doptimisation en question
nest pas majore (cfr. Lemme 6.1), auquel cas on passe directement a` lEtape 4, soit
de determiner une nouvelle base realisable meilleure (au sens non strict) concernant la
fonction objectif. Dans ce dernier cas, on applique par defaut le crit`ere naturel pour le
choix des variables entrantes et sortantes, sauf si celui-ci conduit a` une augmentation non
stricte de la fonction objectif, auquel cas on applique le crit`ere de Bland. On retourne
ensuite en debut dEtape 2 avec cette nouvelle base realisable.
Etape 3 : On dispose dune solution optimale pour le probl`eme en question. Sil sagit
du probl`eme initial (9.1), on passe `a lEtape 6. Sil sagit du probl`eme (8.6), ou bien
le maximum est strictement negatif, auquel cas le probl`eme (9.1) poss`ede un ensemble
realisable vide et on passe a` lEtape 5, ou bien le maximum est egal `a zero, ce qui fournit
une base realisable pour (9.1), et on retourne a` lEtape 1.
32
33
Chapitre 10
Dualit
e en programmation lin
eaire
Considerons a` nouveau un probl`eme doptimisation lineaire sous forme canonique
Pq
maximiser
cj x j
Pj=1
q
sous les contraintes
(i = 1, , p),
(10.1)
j=1 aij xj bi
xj 0
(j = 1, , q),
o`
u p, q N , et o`
u les cj (1 j q), les aij (1 i p, 1 j q), et les bi (1 i p)
sont des constantes reelles.
A supposer que (10.1) poss`ede au moins une solution optimale x , la methode du
simplexe permet, `a chacune de ses etapes, dobtenir (et dameliorer) une borne inferieure
sur la valeur optimale cT x de la fonction objectif.
Une question naturelle, mais qui va dans la direction opposee, est celle de savoir sil
est possible dobtenir une borne superieure sur la valeur cT x , et cela sans etre oblige de
parcourir lalgorithme du simplexe jusqu`a ce quil aboutisse a` une solution optimale. De
fait, on peut imaginer que dans certains cas on puisse etre interesse `a encadrer avec plus
ou moins de precision la valeur cT x , sans toutefois requerir sa valeur exacte (par exemple
si les calculs sont co
uteux ou si le temps est compte).
Pour ce faire, partons des p contraintes dinegalites
q
X
aij xj bi
(i = 1, , p),
j=1
j=1
i=1
i=1
i=1
de sorte que si
p
X
aij yi cj
(j = 1, , q),
i=1
34
(10.2)
cj x j
p
X
yi bi .
i=1
j=1
En particulier,
c T x bT y
quel que soit y (y1 , , yp ) verifiant (10.2) et tel que y 0. Autrement dit, pour obtenir
une borne superieure sur la valeur optimale de la fonction objectif du probl`eme (10.1), il
suffit de connatre une solution realisable du probl`eme dual de (10.1), que nous definissons
plus precisement maintenant :
D
efinition 10.1 (Probl`
eme primal et dual). Le probl`eme dual de (10.1) est le probl`eme
Pp
minimiser
bi y i
Pi=1
p
sous les contraintes
(j = 1, , q),
(10.3)
i=1 aij yi cj
yi 0
(i = 1, , p).
On dit aussi que (10.1) est le probl`eme primal de (10.3).
Remarquons que sous forme matricielle, les probl`emes primal et dual secrivent donc
maximiser
cT x
sous les contraintes Ax b,
x 0,
minimiser
bT y
sous les contraintes AT y c,
y 0.
Remarquons aussi que le probl`eme dual est equivalent au probl`eme doptimisation lineaire
sous forme canonique
maximiser
(b)T y
sous les contraintes (A)T y c,
y 0,
loptimum du second etant egal a` loppose de loptimum du premier 1 . D`es lors, on peut
appliquer au probl`eme dual tout ce que nous avons developpe jusquici concernant le
probl`eme primal, en particulier lalgorithme du simplexe, ce qui permet dej`a de donner
une reponse `a la question evoquee en tete de chapitre.
Finalement, remarquons que puisque le probl`eme dual (10.3) est lui-meme (equivalent a`)
un probl`eme primal, on peut considerer son probl`eme dual a` lui aussi. On sapercoit de
suite que ce dernier nest autre que le probl`eme primal du depart, autrement dit le dual
du probl`
eme dual est
egal au probl`
eme primal qui est donc aussi un probl`eme dual !
Repetant alors largumentaire nous ayant conduit a` la definition 10.1, on obtient directement le
Th
eor`
eme 10.2. Si x est une solution realisable du probl`eme primal (10.1), et y une
solution realisable du probl`eme dual (10.3), alors necessairement
cT x bT y.
En particulier, si cT x = bT y alors x est une solution optimale du primal et y est une
solution optimale du dual.
1. En effet, cela suit la formule classique maxy (f (y)) = miny (f (y)) avec f (y) = bT y.
35
Corollaire 10.3. Si la fonction objectif du probl`eme primal est non majoree sur son
ensemble realisable, alors le probl`eme dual ne poss`ede aucune solution realisable. Inversement, si la fonction objectif du probl`eme dual est non minoree sur son ensemble realisable,
alors le probl`eme primal ne poss`ede aucune solution realisable.
Attention au fait que les reciproques des enonces du Corollaire 10.3 sont fausses en
general.
Un resultat plus difficile est le theor`eme de dualite suivant
Th
eor`
eme 10.4 (Th
eor`
eme de dualit
e de Gale, Kuhn et Tucker). Le probl`eme
primal (10.1) poss`ede une solution optimale x si et seulement si le probl`eme dual (10.3)
poss`ede une solution optimale y . Dans ce cas, on a necessairement
q
X
cj xj
p
X
bi yi .
i=1
j=1
cj xj
j=1
p
X
bi yi .
i=1
(i = 1, , p),
(j = 1, , q),
q
X
aij xj ,
(i = 1, , p),
j=1
(i = 1, , p),
(j = 1, , q + p),
36
(10.4)
a11 a1q
a21 a2q
A = ..
.
ap1 apq
, 0),
0
0
0 0
1 0
0 1
0
0
.. ,
.
1
b = b.
Appelons la base
pourP
(10.4) correspondant `a la solution optimale x =
Pq realisable
q
X
dj xj +
j=1
p
X
i=1
"
T
= c x
dq+i bi
aij xj
j=1
q
X
bi (dq+i ) +
i=1
"
X
j=1
dj
p
X
(10.5)
aij dq+i xj .
i=1
Par ailleurs, puisque x est une solution optimale, necessairement le vecteur des prix marginaux d en cette solution est negatif. Dautre part j {1, , q} a ete choisi quelconque.
Ainsi, de (10.7) on obtient
p
X
aij (dq+i ) = cj dj cj ,
j = 1, , q.
(10.8)
i=1
primal (10.1) poss`ede une solution optimale x non degeneree. 2 Alors il existe > 0 tel
que si les variations t1 , , tp des contraintes verifient la condition de petitesse
|ti |
i {1, , p},
(i = 1, , p),
(j = 1, , q),
(10.9)
c x +
p
X
ti yi ,
i=1
o`
u
(y1 ,
, yp )
designe une (en fait lunique) solution optimale du probl`eme dual (10.3).
(10.10)
La variation des contraintes du primal se traduit donc par une variation de la fonction
objectif du dual, mais les contraintes du dual ne sont pas modifiees. En particulier, les
solutions de base realisables de (10.10) et de (10.3) sont identiques. Par hypoth`ese, x
est non-degeneree, et par consequent y est lunique solution optimale de (10.3). En effet,
le corollaire precedent (utilise en renversant le role du primal et du dual) implique que
les prix marginaux du dual correspondant aux variables decart du dual sont donnes par
x , et sont donc tous strictement negatifs, il sensuit que loptimum du dual est atteint
et uniquement atteint en y . Puisque y est lunique solution optimale de (10.3), il existe
r > 0 tel que
p
p
X
X
bi y i
bi y i + r
i=1
i=1
quelle que soit la solution de base realisable (y1 , , yp ) de (10.3) (et donc de (10.10))
differente de y . Par continuite et finitude (il ny a quun nombre fini de solutions de base
realisables), on deduit alors quil existe > 0 tel que
p
X
(bi +
ti )yi
p
X
>
(bi + ti )yi
i=1
i=1
2. On rappelle quune solution de base est dite non degeneree si aucune des composantes correspondant
aux variables en base nest nulle.
38
(bi +
ti )yi
p
X
bi yi
ti yi
i=1
i=1
i=1
p
X
q
X
cj xj
p
X
ti yi
=c x ++
p
X
ti yi .
i=1
i=1
j=1
aij yi = cj
i=1
et
(10.11)
q
aij xj = bi .
j=1
Demonstration. Elle reprend le schema du debut de chapitre concernant les bornes superieures
et inferieures sur la fonction objectif.
Puisque x est une solution realisable du primal et que y 0,
!
p
q
p
X
X
X
aij xj yi
b i yi .
i=1
j=1
i=1
39
j=1
i=1
j=1
j=1
i=1
Ainsi,
q
X
j=1
cj x j
p
q
X
X
j=1
i=1
!
aij yi
xj =
q
p
X
X
i=1
j=1
!
aij xj
yi
p
X
bi y i .
(10.12)
i=1
40
Chapitre 11
Rappels de g
eom
etrie affine dans Rn
D
efinition 11.1 (Sous-espace affine). Un sous-ensemble non vide F de Rn est appele
un sous-espace affine si
x, y F, R,
x + (1 )y F.
j = 0,
j=1
si
k
X
j xj = 0
j=1
alors necessairement 1 = = k = 0.
Lemme 11.5. Les points x1 , , xk de Rn sont affinement independants si et seulement
si les vecteurs x2 x1 , , xk x1 sont lineairement independants.
41
j (xj x1 ) = 0,
j=2
alors
k
X
j xj = 0
j=1
o`
u j := j pour j {2, , k} et
1 :=
k
X
j .
j=2
P
En particulier, puisque kj=1 j = 0, on deduit de lindependance affine des xj que j = 0
pour tout j {1, , k} et donc aussi que j = 0 pour tout j {2, , k}.
Pour la condition suffisante, si 1 , , k sont tels que
k
X
j xj = 0
j=1
alors 1 =
Pk
j=2
j et donc
k
X
j (xj x1 ) = 0.
j=2
Il suit de lindependance vectorielle des (xj x1 ) que j = 0 pour tout j {2, , l}, et
P
donc aussi que 1 = kj=2 j = 0.
Corollaire 11.6. Un sous-espace affine F est de dimension k si et seulement si le nombre
maximal de points affinement independants quil contient est egal `a k + 1.
Demonstration. Si F est de dimension k, et si e1 , , ek est une base de lin(F ), alors au vu
du lemme precedent quel que soit x F les k+1 points x, xe1 , , xek sont affinement
independants. Inversement, si x1 , , xk+1 sont k + 1 points affinements independants
dans F , alors les k vecteurs x2 x1 , , xk+1 x1 sont lineairement independants et
appartiennent a` lin(F ). Il sensuit que lin(F ) est de dimension superieure ou egale `a k.
La conclusion suit ces deux implications.
D
efinition 11.7 (Combinaison affine). Soient x1 , , xk un nombre fini de points de
Rn , et 1 , , k des reels tels que
k
X
j = 1.
j=1
On dit que
x :=
k
X
j=1
42
j xj
j
= 1,
1 1
k+1
X
j=2
j
xj F.
1 1
k
X
j xj +
j=1
`
X
i=1
43
(1 )i yi aff(F )
P
P
puisque kj=1 j xj + `i=1 (1)i = +(1) = 1. [Plus generalement, on montrerait de
meme que toute combinaison affine de combinaisons affines est une combinaison affine]
Th
eor`
eme 11.11 (Carath
eodory). Si S est un sous-ensemble de Rn , tout point de
aff(S) peut secrire comme une combinaison affine de points de S affinement independants.
P
Demonstration. Soit x = kj=1 j xj un point de aff(F ), o`
u sans perte de generalite on
suppose que tous les j sont non nuls. Si les xj ne sont pas affinement independants, lun
dentre eux (quitte `a les renumeroter on peut supposer quil sagit de xk ) peut secrire
comme combinaison affine des k 1 autres :
xk =
k1
X
i xi
avec
i=1
k1
X
i = 1.
i=1
D`es lors,
x=
k1
X
(j + k j ) xj
j=1
Pk1
et
ecrit comme combinaison affine dau plus
j=1 (j + k j ) = 1, de sorte que x s
k 1 points de F. Si les points x1 , , xk1 ne sont pas affinement independants, on
recommence la procedure ci-dessus, et ainsi de suite. Au bout dun nombre fini detapes
(au plus k 1 puisquune famille dun seul point est bien s
ur affinement independante)
on aboutit necessairement `a la th`ese.
D
efinition 11.12 (Dimension). La dimension dun sous-ensemble non vide S de Rn ,
notee dim(S), est la dimension de son enveloppe affine (au sens de la Definition 11.3).
Remarque 11.13. Il existe dautres notions de dimension pour les ensembles (sans doute
rencontrerez vous par exemple dans vos etudes la notion de dimension de Hausdorff ). Elles
ont des significations differentes et prennent donc en general des valeurs differentes que
la dimension au sens ci-dessus.
D
efinition 11.14 (Hyperplan affine). Un hyperplan affine de Rn est un sous-espace
affine de dimension n 1.
Proposition 11.15. Tout hyperplan affine de Rn est de la forme
H Ha,r := {x Rn | ha, xi = r}
o`
u a Rn et r R.
Demonstration. Etant donne un hyperplan affine H, il suffit de choisir pour a un vecteur
de norme unite dans H et de poser r := dist(H, {0}), o`
u dist se ref`ere a` la distance
signee dans la direction de a.
Un hyperplan affine de Rn determine deux demi-espaces de Rn :
+
:= {x Rn | ha, xi r}
H + Ha,r
et
H Ha,r
:= {x Rn | ha, xi r} .
On a
H = H + H .
44
Chapitre 12
Ensembles convexes, polytopes et
poly`
edres
12.1
Propri
et
es alg
ebriques
D
efinition 12.1 (Ensemble convexe). Un sous-ensemble C de Rn est dit convexe si
x, y C, [0, 1],
x + (1 )y C.
Dans la suite, par abus de langage et lorsque cela nam`ene aucune ambigute, on parlera
simplement dun convexe ou dun convexe de Rn pour designer un sous-ensemble convexe
de Rn .
Dun point de vue geometrique, un convexe est donc un ensemble qui, lorsquil contient
deux points, contient necessairement le segment les reliant.
Proposition 12.2. On a les proprietes elementaires suivantes :
1. Si C1 , C2 sont deux convexes de Rn et 1 , 2 deux reels, alors 1 C1 + 2 C2 est un
convexe de Rn .
2. Si (Cj )jJ est une famille quelconque de convexes de Rn , alors jJ Cj est un convexe
de Rn .
3. Si C est un convexe de Rn et f : Rn Rm est une application affine, i.e. f (x) =
Ax + b pour certains A Rmn et b Rm , alors f (C) est un convexe de Rm .
D
efinition 12.3 (Combinaison convexe). Soient x1 , , xk un nombre fini de points
de Rn , et 1 , , k des reels tels que
j 0 j = 1, , k
et
k
X
j=1
On dit que
x :=
k
X
j xj
j=1
j = 1.
[0, 1],
j xj = 0
avec
j=1
k
X
j = 1.
j=1
En particulier, au moins un des coefficients j est strictement positif. Pour 0 quelconque, on peut donc aussi ecrire
x=
k
X
(j j ) xj .
j=1
46
j
| j > 0}.
j
Par construction, au moins un des coefficients j j est nul, les autres restant compris
entre 0 (par definition de ) et 1 (puisque tous sont positifs et leur somme totale valant 1).
On obtient ainsi une expression de x comme combinaison convexe dau plus k 1 points
de S. Si ces k 1 points ne sont pas affinement independants, on recommence la procedure
ci-dessus, et ainsi de suite. Au bout dun nombre fini detapes (au plus k 1 puisquune
famille dun seul point est bien s
ur affinement independante) on aboutit necessairement
a` la th`ese.
Les cones convexes jouent un role particulier dans letude des convexes non bornes :
D
efinition 12.8. Un sous-ensemble C de Rn est un cone convexe si
1 , 2 R+ ,
x1 , x2 C,
1 x1 + 2 x2 C.
D
efinition 12.9 (Combinaison positive). Soient x1 , , xk un nombre fini de points
de Rn , et 1 , , k des reels positifs. On dit alors que
x :=
k
X
j xj
j=1
47
12.2
Propri
et
es topologiques
k+1
X
j (xj x1 )
j=2
o`
u pour une constante C positive (toutes les normes sont equivalents en dimension finie)
|j | C pour chaque j. D`es lors,
!
k+1
k+1
X
X
1
1
y=
j x1 +
+ j xj .
k + 1 j=2
k
+
1
j=2
P
1
1
Si est suffisamment petit, ( k+1
k+1
j=2 j ) (0, 1) tout comme ( k+1 + j ) et on conclut
que y C. La conclusion suit, par definition de linterieur relatif.
48
D
efinition 12.17. Soit S un sous-ensemble quelconque de Rn , le bord relatif de S est
lensemble
bdr (S) := S \ intr (S).
Alors quel que soit
Lemme 12.18. Soit C un convexe de Rn , x intr (C) et y C.
(0, 1), x + (1 )y intr (C).
Demonstration. Par hypoth`ese, il existe > 0 tel que B(x, ) aff(C) C. Supposons
dans un premier temps que y C. Par inegalite triangulaire, pour tout (0, 1) on
obtient
B(x + (1 )y, ) aff(C) (B(x, ) + (1 ){y}) aff(C) C.
Soit (y` )`N
Il sensuit que x + (1 )y intr (C). Supposons maintenant que y C.
une suite dans C qui converge vers y. Par la premi`ere partie, on obtient que pour chaque
`,B(x + (1 )y` , ) C. Mais pour ` suffisamment grand,
B(x + (1 )y,
) B(x + (1 )y` , )
2
montrer linclusion du deuxi`eme ensemble dans le premier, soit donc x intr (C). Par le
pour suffisamment petit
Lemme 12.16 il existe x1 intr (C). Par definition de intr (C),
on a x2 := x + (x x1 ) C. Comme
x=
avec = 1
12.3
1
1+
1
1
(x + (x x1 )) + (1
)x1 = x1 + (1 )x2
1+
1+
Projection orthogonale
Th
eor`
eme 12.20 (Projection orthogonale). Soit C un convexe ferme non vide de Rn
et x
/ C. Il existe un unique element pC (x) C qui minimise la distance de x `a C :
kx pC (x)k = min kx yk.
yC
y C.
(12.1)
Demonstration. Soit (xk )kN une suite minimisante pour la distance de x a` C, autrement
dit xk C et
lim kxk xk = inf kx yk := .
k+
yC
49
xj + xk 2
k + kxj xk k2 = 2 kx xj k2 + kx xk k2 .
2
Demonstration. On ecrit
kpC (x) pC (y)k2 = h(pC (x) x) + (x y) + (y pC (y)), pC (x) pC (y)i
et on developpe
h(pC (x) x) + (x y) + (y pC (y)), pC (x) pC (y)i
=hx y, pC (x) pC (y)i + hpC (x) x, pC (x) pC (y)i + hy pC (y), pC (x) pC (y)i
hx y, pC (x) pC (y)
kx yk kpC (x) pC (y)k.
La conclusion suit.
12.4
S
eparation et Hyperplan dappui
On rappelle (cfr. Chapitre 11) quun hyperplan affine H Rn determine deux demiespaces fermes que nous avons notes H + et H .
D
efinition 12.23 (Hyperplan dappui). Soit S un sous-ensemble de Rn et x S. On
dit quun hyperplan affine H de Rn est un hyperplan dappui pour S en x si x H et si
S est enti`erement contenu dans un des deux demi-espaces determines par H.
Par extension, on dira quun hyperplan affine H de Rn est un hyperplan dappui pour
S si il existe x S tel que H soit un hyperplan dappui pour S en x. Le demi-espace
determine par H et contenant S est appele un demi-espace de support de S.
Proposition 12.24. Soit C un convexe ferme de Rn et x Rn \ C. Alors lhyperplan
defini par
H := {y Rn | hx pC (x), yi = hx pC (x), pC (x)i} ,
o`
u pC designe la projection orthogonale sur C est un hyperplan dappui pour C en pC (x).
Le demi-espace
H := {y Rn | hx pC (x), yi hx pC (x), pC (x)i} ,
est un demi-espace de support pour C, de plus il ne contient pas x.
Demonstration. Il est immediat que pC (x) H. Pour montrer que H est un hyperplan
dappui pour C en pC (x) il suffit donc de montrer que C est enti`erement contenu dans
H . Mais pour y C, on a en vertu de Theor`eme 12.20
hx pC (x), y pC (x)i 0,
et par consequent
hx pC (x), yi hx pC (x), pC (x)i,
ce qui montre que y H .
51
D
efinition 12.25 (Hyperplan dappui propre). Soit S un sous-ensemble de Rn et
x S. On dit quun hyperplan affine H de Rn est un hyperplan dappui propre pour S
en x si x H et si S est enti`erement contenu dans un des deux demi-espaces determines
par H, sans etre toutefois enti`erement contenu dans H.
Proposition 12.26 (Existence dun hyperplan dappui propre). Soit C un convexe
ferme de Rn et x bdr (C). Alors il existe un hyperplan dappui propre pour C en x.
Demonstration. Puisque x bdr (C), il existe une suite (xk )kN dans aff(C) \ C qui
converge vers x lorsque k +. Par la Proposition 12.24, pour chaque k lhyperplan
Hk := {y Rn | hxk pC (xk ), yi = hxk pC (xk ), pC (xk )i} ,
est un hyperplan dappui pour C en pC (xk ). Remarquons que puisque xk
/ C, xk 6= pC (xk )
et par consequent on peut recrire Hk comme
xk pC (xk )
xk pC (xk )
n
, yi = h
, pC (xk )i .
Hk := y R | h
kxk pC (xk )k
kxk pC (xk )k
Quitte `a passer `a une sous-suite si necessaire, on peut supposer que
xk pC (xk )
a S n1
kxk pC (xk )k
lorsque k +.
lorsque k +.
On pretend que
H := {y Rn | ha, yi = ha, xi}
est un hyperplan dappui propre pour C en x. Premi`erement, il est clair que x H.
Ensuite, pour tout y C on a
ha, yi = lim h
k+
xk pC (xk )
xk pC (xk )
, yi lim h
, pC (xk )i = ha, xi,
k+ kxk pC (xk )k
kxk pC (xk )k
o`
u on a utilise le fait que Hk est un hyperplan dappui pour C en pC (xk ). Il sensuit que
C H et donc que H est un hyperplan dappui pour C en x. Finalement, H est un
hyperplan dappui propre. En effet, par construction H a aff(C) et par consequent si
on avait C H alors H aff(C) serait une sous-espace affine contenant C et strictement
inclus dans aff(C), ce qui serait incompatible avec le fait que aff(C) soit le plus petit
sous-espace affine contenant C.
D
efinition 12.27 (S
eparation et s
eparation stricte). Soient S et T deux sousn
ensembles de R .
On dit que lhyperplan affine H separe S et T au sens large si S H et T H + ,
ou inversement.
On dit que lhyperplan affine H Ha,r separe S et T au sens strict sil existe > 0
+
et T Ha,r+
, ou inversement.
tel que S Ha,r
52
Th
eor`
eme 12.28 (S
eparation stricte dun convexe et dun point). Soit C un
convexe ferme non vide de Rn et x
/ C. Il existe un hyperplan affine qui separe C et x
au sens strict, autrement dit
a Rn , r R, ha, xi > r > supha, yi.
yC
12.5
Repr
esentation ext
erieure
53
12.6
D
efinition 12.31 (Face). Soit C un sous-ensemble convexe ferme de Rn et F C
convexe ferme lui aussi. On dit que F est une face de C si quels que soient x1 , x2 C et
(0, 1), si x1 + (1 )x2 F alors necessairement x1 F et x2 F.
D
efinition 12.32 (Point extr
emal). Un point extremal dun convexe C de Rn est une
face reduite `a un point. Autrement dit, x C est un point extremal si et seulement si
quels que soient x1 , x2 C et (0, 1), si x1 + (1 )x2 = x alors necessairement
x1 = x2 = 0.
D
efinition 12.33 (Demi-droite et direction extr
emale). Une demi-droite
F = {x0 + z0 | 0},
o`
u x0 , z0 Rn sont fixes est appelee une demi-droite extremale du convexe C Rn si F
est une face de C. On dit alors que z0 est une direction extremale de C.
D
efinition 12.34 (C
one de r
ecession). Soit C un sous-ensemble convexe ferme de Rn .
Le cone de recession de C est lensemble
rec(C) := {z Rn | x C, 0, x + z C} .
Lemme 12.35. Soit C un sous-ensemble convexe ferme de Rn , alors rec(C) est un cone
convexe ferme de Rn et on a legalite
rec(C) := {z Rn | x C, 0, x + z C} .
De plus, C est borne si et seulement si rec(C) est reduit `a zero.
Demonstration. Par definition on a
rec(C) =
C {x}
.
xC,>0
\
Comme une intersection quelconque de fermes est fermee, et quune intersection quelconque de convexes est convexe, rec(C) est un convexe ferme. Supposons ensuite que
x0 C et z0 Rn soient tels que
0, x0 + z0 C.
Soit x C et 0 quelconques. Pour tout > 0 on a
Comme x0 + z C et x C on a
Comme C est ferme par hypoth`ese, et que (x0 x) tend vers 0 lorsque tend vers 0, on
deduit que x + z C. Do`
u legalite annoncee dans lenonce. Il reste `a demontrer que C
54
est borne si son cone de recession est reduit a` 0 (limplication inverse etant immediate). Si
C netait pas borne, il existerait dans C un suite de segments {y0 + (1 )yn | [0, 1]}
avec kyn y0 k + quand n +. Par compacite de la sph`ere unite de Rn , on peut
supposer, modulo un passage a` une sous-suite, que
yn y0
z1
kyn y0 k
lorsque n +,
12.7
Repr
esentation int
erieure
Th
eor`
eme 12.39 (Minkowski). Tout convexe ferme et borne de Rn est egal `a lenveloppe convexe de ses points extremaux.
Nous deduisons le Theor`eme de Minkowski du theor`eme plus general suivant :
Th
eor`
eme 12.40. Tout convexe ferme de Rn ne contenant aucune droite est egal `
a
lenveloppe convexe de ses points extremaux et de ses demi-droites extremales.
55
12.8
Polytopes et C
ones finiment engendr
es
D
efinition 12.41 (Polytope). Un polytope dans Rn est lenveloppe convexe dun nombre
fini de points de Rn .
D
efinition 12.42 (Simplexe). Un simplexe dans Rn est lenveloppe convexe dun nombre
fini de points de Rn affinement independants.
Proposition 12.43. Tout polytope de Rn peut secrire comme une union finie de simplexes de Rn .
56
du simplexe standard de Rk
k
Sk := {(1 , , k ) R |
k
X
j = 1, j 0 j {1, , k}}.
j=1
Comme Sk est un ferme borne de Rk et que limage dun ferme borne par une application
continue est un ferme borne, la conclusion suit.
D
efinition 12.45 (C
one finiment engendr
e). Un cone finiment engendre dans Rn est
lenveloppe conique dun nombre fini de points de Rn .
D
efinition 12.46 (C
one simplicial). Un cone simplicial dans Rn est lenveloppe conique
dun nombre fini de points de Rn lineairement independants.
Proposition 12.47. Tout cone finiment engendre de Rn peut secrire comme une union
finie de cones simpliciaux de Rn
Demonstration. Il sagit cette fois dune consequence directe du Theor`eme de Caratheodory
version ter (Theor`eme 12.13).
Corollaire 12.48. Tout cone finiment engendre de Rn est ferme.
Demonstration. Contrairement a` la demonstration de la Proposition 12.44, on ne peut se
baser ici sur la compacite. Toutefois, en vertu de la Proposition 12.47, il suffit de montrer
que tout cone simplicial est ferme (car une union finie de fermes est fermee). Soit donc
cone({x1 , , xk }) un cone simplicial dans Rn , avec x1 , , xk lineairement independants.
Lapplication lineaire (de Rk dans Rn )
(1 , , k ) 7
j
X
j xj
j=1
est par consequent injective. Son inverse (bien definie sur son image) est lineaire et donc
continue ; il suffit d`es lors de remarquer que cone({x1 , , xk }) est limage reciproque,
par cette application inverse, du ferme {(1 , , k ) Rk | j 0 j {1, , k}} de
Rk . Comme limage reciproque dun ferme par une application continue est un ferme, la
conclusion suit.
57
12.9
Lemme de Farkas
Th
eor`
eme 12.49 (Lemme de Farkas). Soient a1 , , ak des points de Rn et b Rn .
Alors
kj=1 {x Rn | haj , xi 0} {x Rn | hb, xi 0}
si et seulement si
b cone({a1 , , ak }).
Demonstration. Commencons par la condition suffisante, la plus aisee. Si
k
X
b=
j aj cone({a1 , , ak }),
j=1
k
X
hb, x0 i =
j haj , x0 i 0,
j=1
Supposons que b
/ C := cone({a1 , , ak }). Comme C est un convexe ferme (Corollaire12.48), par le theor`eme de separation stricte (Theor`eme 12.28) il existe a Rn et
r R tels que
supha, yi < r < ha, bi.
yC
yC
yC
yC
58
12.10
Poly`
edres
D
efinition 12.50 (Poly`
edre). Un poly`edre dans Rn est un ensemble de la forme
P := {x Rn | Ax b} ,
o`
u A Rmn (R) et b Rm sont fixes.
Soit P := {x Rn | Ax b} un poly`edre de Rn . Pour j {1, , m}, notons Aj la
j-i`eme ligne de A (consideree comme un element de Rn ) et bj la j-i`eme composante de b.
On peut d`es lors decrire de mani`ere equivalente
P := x Rn | hAj , xi bj , j {1, , m} .
Autrement dit, un sous-ensemble de Rn est un poly`edre si et seulement si cest une intersection finie de demi-espaces fermes de Rn . En particulier, tout poly`edre dans Rn est un
convexe ferme.
Proposition 12.51. Soit P un poly`edre dans Rn (decrit par A et b) et F P un sousensemble de dimension k. Les deux affirmations suivantes sont equivalentes :
1. F est une face de P .
2. Il existe n k lignes lineairement independantes de A, notees {Aj }jJ avec ]J =
n k, telles que
F = x P | hAj , xi = bj j J .
Demonstration. Commencons par la condition suffisante, la plus simple. Montrons `a cet effet que quel que soit le sous-ensemble J de {1, , m}, lensemble G := {x P | hAj , xi = bj
est une face de P . De fait, si x1 et x2 sont des elements de P et (0, 1) sont tels que
x1 + (1 )x2 G, alors pour i G on a `a la fois hAi , x1 i bi (car x1 P ),
hAi , x2 i bi (car x2 P ) et hAi , x1 i + (1 )hAi , x2 i = bi (car x G). Ceci implique
que hAi , x1 i = hAi , x2 i = bi , et par consequent que x1 G et x2 G, do`
u la conclusion.
Venons en a` la condition necessaire. Soit F une face de P de dimension k. Soit x0
intr (F ) fixe (nous avons que celui-ci est non-vide puisque F lest). On designe par I lensemble des indices i de lignes de A pour lesquelles hAi , x0 i = bi . Soit V := Vect({Ai }iI ).
Pour v V quelconque et pour tout i I, on a
hAi , x0 + vi = hAi , xi = bi .
Dautre part, pour tout i
/ I on a hAi , x0 i < bi et par consequent, par continuite,
> 0 | hAi , x0 + vi < bi ,
i
/ I, v V t.q. kvk .
Il sensuit que
x0 + v P
v V t.q. kvk .
(12.2)
Dautre part, puisque x0 = (x0 + v)/2 + (x0 v)/2 et que F est une face, il sensuit aussi
que
x0 + v F v V t.q. kvk .
(12.3)
59
j J}
iI
iI
x0 = x0 +
(x0 x) + (1 )x
kx0 xk
o`
u
:=
1+
kx x0 k
1
(0, 1).
12.11
Correspondances poly`
edres/polytopes
Les polytopes et les cones finiment engendres correspondent a` une description interieure
de certains convexes (en tant que combinaisons convexes ou de combinaisons positives dun
nombre fini de points). A linverse, les poly`edres et les cones polyedriques correspondent
a` une description exterieure (en tant quintersection dun nombre fini de demi-espaces).
Dans cette section, on montre que ces differentes notions concident cependant.
Th
eor`
eme 12.55. Tout poly`edre borne est un polytope.
Demonstration. Cest une consequence directe du Theor`eme de Minkowski (Theor`eme
12.39) et du Corollaire 12.52.
Plus generalement, on a
Th
eor`
eme 12.56. Soit P Rn un poly`edre. Il existe des ensembles de cardinal fini E
et D dans Rn tels que
P = conv(E) + cone(D).
Si de plus P ne contient aucune droite, alors on peut choisir pour E lensemble des points
extremaux de P et pour D lensemble des directions extremales de P.
Demonstration. On comment par ecrire, au moyen de la Proposition 12.38,
P = lin(P ) + P (lin(P ))
o`
u P (lin(P )) ne contient aucune droite. Soit (e1 , , e` ) une base de lin(P ). Alors si
P = x Rn | hAj , xi bj , j {1, , m} .
on a
hAj , xi bj ,
n
hej , xi 0,
P (lin(P )) = x R |
hej , xi 0,
j {1, , m}
j {1, , `}
j {1, , `}
et ce dernier est donc un poly`edre dans Rn ne contenant aucune droite. Soient {x1 , , xk }
les points extremaux de P (lin(P )) et {z1 , , zp } ses directions extremales. Alors par
le Theor`eme 12.40 on a
P (lin(P )) = conv({x1 , , xk }) + cone({z1 , , zp }),
et finalement, puisque
lin(P ) = Vect({e1 , , e` )} = cone({e1 , , e` , e1 , , e` }),
on obtient
P = conv({x1 , , xk }) + cone({z1 , , zp , e1 , , e` , e1 , , e` }).
Ceci termine la demonstration.
Enfin, dans le cas particulier o`
u P est un cone polyedrique, on deduit le
61
i=1
k
X
j hx, yj i 0.
j=1
62
63