Sunteți pe pagina 1din 252

Subido por:

Libros de Ingeniería Química y más

https://www.facebook.com/pages/Interfase-
IQ/146073555478947?ref=bookmarks

Si te gusta este libro y tienes la posibilidad,


cómpralo para apoyar al autor.
Ana Dı́az Hernández
Vicente Novo Sanjurjo
Juan Perán Mazón

OPTIMIZACIÓN
CASOS PRÁCTICOS

UNIVERSIDAD NACIONAL DE EDUCACIÓN A DISTANCIA


AULA ABIERTA
OPTIMIZACIÓN. CASOS PRÁCTICOS

Todos los derechos reservados.


Prohibida la reproducción total o parcial
de este libro, por ningún procedimiento electrónico
o mecánico, sin el permiso por escrito del editor

5 UNIVERSIDAD NACIONAL
DE EDUCACIÓN A DISTANCIA - Madrid, 2013

www.uned.es/publicaciones

Ana Dı́az Hernández


Vicente Novo Sanjurjo
Juan Perán Mazón

Diseño de cubierta: Dpto. de Dibujo. UNED

ISBN electrónico: 978-84-362-6673-3

Edición digital: mayo de 2013


ÍNDICE

PRÓLOGO

CAPÍTULO 1. PROGRAMAS MATEMÁTICOS. ASPECTOS


TOPOLÓGICOS Y GEOMÉTRICOS.
Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 2. PROGRAMAS DIFERENCIABLES.


Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 3. PROGRAMAS DIFERENCIABLES CON


RESTRICCIONES DE DESIGUALDAD.
Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 4. PROGRAMACIÓN CONVEXA. DUALIDAD.


Esquema-resumen de resultados teóricos
Problemas resueltos
ÍNDICE

CAPÍTULO 5. PROGRAMACIÓN LINEAL.


Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 6. PROGRAMACIÓN LINEAL. DUALIDAD.


Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 7. PROGRAMACIÓN ENTERA.


Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 8. INTRODUCCIÓN A LA PROGRAMACIÓN


MULTIOBJETIVOS.
Esquema-resumen de resultados teóricos
Problemas resueltos

CAPÍTULO 9. PROGRAMAS NO REGULARES.


Esquema-resumen de resultados teóricos
Problemas resueltos

BIBLIOGRAFÍA
PRÓLOGO

El objeto de estudio de la Teorı́a de Optimización es la exis-


tencia de los óptimos globales de una función, llamada función
objetivo, sobre un conjunto, llamado conjunto factible, y las téc-
nicas para determinarlos.
No existe una método general para la resolución de este tipo
de problemas, también denominados programas matemáticos.
Las técnicas aplicables dependen de la naturaleza de la función
objetivo y del conjunto factible, a menudo definido por restric-
ciones de igualdad o desigualdad.
En este libro se presenta una colección de casos prácticos o
problemas resueltos que ilustran estas técnicas de resolución de
los diferentes tipos de programas matemáticos. La organización
de los diferentes capı́tulos se corresponde exactamente con el da-
do en el libro Teorı́a de la Optimización de V. Novo (UNED
1997. Colección Aula Abierta) del que esperamos que sea un
buen complemento.
El libro fue elaborado, inicialmente, para el curso del mismo
tı́tulo impartido dentro del programa de Educación Permanente
de la Universidad Nacional de Educación a Distancia, pero pen-

1
OPTIMIZACIÓN. CASOS PRÁCTICOS

samos que es un material adecuado para la preparación de esta


materia en un curso de carácter semestral, incluido ya en muchos
de los nuevos planes de estudios de diferentes licenciaturas e in-
genierı́as.
En los nueve capı́tulos en que se ha estructurado su contenido
se pretende dar una formación básica en las técnicas y métodos
de programación matemática más usuales, tratando de conseguir
una visión de conjunto de la mayor parte de los problemas de op-
timización que se pueden resolver utilizando distintos procedi-
mientos. A lo largo del libro se aborda el estudio de técnicas de
resolución de programas diferenciables (temas 2 y 3), programas
convexos (tema 4), programas lineales (temas 5 y 6), progra-
mas enteros (tema 7), programas multiobjetivo (tema 8) y progra-
mas no regulares (tema 9).
Se limita el estudio al caso de los programas definidos en ⺢n
se hace notar que los capı́tulos 8 y 9 son una introducción a estos
temas, ya que su tratamiento, en profundidad, supera los objeti-
vos de este libro.

2
CAPÍTULO 1
PROGRAMAS MATEMÁTICOS.
ASPECTOS TOPOLÓGICOS Y GEOMÉTRICOS

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Programas matemáticos

1.1. Un programa matemático, en general, es un problema


del tipo siguiente:
Optimizar f (x)
sujeto a xàM
Se trata de encontrar los valores de x en un conjunto M, lla-
mado conjunto factible, que maximizan o minimizan la fun-
ción f, llamada función objetivo. Es muy habitual que el con-
junto factible esté definido por medio de condiciones de igualdad
(g(x) % 0) o desigualdad (h(x) m 0) que se denominan restriccio-
nes.

3
OPTIMIZACIÓN. CASOS PRÁCTICOS

Si f es una función real definida en ⺢n se tiene un sólo obje-


tivo y si f toma valores en ⺢p se tienen p objetivos; en este caso,
se dice que el problema es un problema de programación mul-
tiobjetivos o programa vectorial.
Los programas con un sólo objetivo se suelen clasificar como
sigue:
— Programas lineales. Se caracterizan porque la función ob-
jetivo es lineal y las que definen las restricciones son afines.
— Programas diferenciables. La función objetivo y las que
dan lugar a las restricciones del conjunto factible son diferencia-
bles.
— Programas convexos. La función objetivo es convexa o
cóncava y el conjunto factible es convexo. Se incluyen en este
caso problemas cuya función objetivo es cóncava porque si f es
cóncava, .f es convexa.
— Programas enteros. Alguna o todas las variables del pro-
blema están restringidas a tomar valores enteros.
— Programas no regulares. La función objetivo o alguna de
las funciones que definen las restricciones no son diferenciables.

Topologı́a de ⺢n

Se considera el espacio ⺢n al que se supone dotado de su es-


tructura de espacio vectorial real.
1.2. Dado x % (x1, x2, ..., xn) à ⺢n se llama norma de x, y se
denota 88x88, al número real

88x88 % ! ∂x21 ! x22 ! ñ ! x2n


1.4. Dados a à ⺢n y r un número real positivo, se llama bola
abierta (resp. cerrada) de centro a y radio r al conjunto
B(a, r) % Rx à ⺢n : 88x . a88 a rS
(resp. B1 (a, r) % Rx à ⺢n : 88x . a88 m rS).

4
PROGRAMAS MATEMÁTICOS

1.4. Un punto a à ⺢n es un punto interior del conjun-


to A Ñ ⺢n si existe un número real positivo r de forma que
B(a, r) Ñ A. El conjunto de puntos interiores de A se denomina
interior de A y se denota por Int A. Se dice que A es abierto si
coincide con su interior.
1.5. Un punto a à ⺢n es un punto frontera del conjunto
A Ñ ⺢n si para todo número real positivo r, la bola B(a, r) contie-
ne puntos de A y de su complementario. El conjunto de puntos
frontera de A se denomina frontera de A y se denota por Fr A.
1.6. Un punto a à ⺢n es un punto adherente del conjunto
A Ñ ⺢n si es un punto interior o frontera del conjunto A. El con-
junto de puntos adherentes de A se llama adherencia, cierre o
clausura de A y se denota por clA. Se dice que A es cerrado si
coincide con su adherencia.
1.7. Un conjunto K Ñ ⺢n es compacto si de todo recubri-
miento abierto de K se puede extraer un subrecubrimiento con un
número finito de abiertos.
La definición anterior es la definición general de conjunto
compacto en un espacio topológico. En un espacio métrico, si K
es compacto, es cerrado y acotado, mientras que, en general, no
es cierto el recı́proco, que sı́ se cumple en ⺢n. Por lo tanto en ⺢n
un conjunto es compacto si y sólo si es cerrado y acotado.

Óptimos locales y globales. Teorema de Weierstrass

En lo que sigue, se supone que M es un subconjunto no vacı́o


de ⺢n y f una función real definida en M.
1.8. Se dice que a à M es un extremo relativo u óptimo lo-
cal de f si existe un número real positivo r tal que se verifica una
de las condiciones siguientes:
f (x) m f (a); O x à M ç B(a, r)
f (x) n f (a); O x à M ç B(a, r)

5
OPTIMIZACIÓN. CASOS PRÁCTICOS

En el primer caso se dice que f tiene un máximo local o relativo


en el punto a y en el segundo caso que f tiene un mı́nimo local
o relativo en el punto a. Si las desigualdades son estrictas para to-
dos los elementos distintos de a, se dice que los óptimos locales
son estrictos.
1.9. Se dice que a à M es un extremo absoluto u óptimo glo-
bal de f si se verifica una de las condiciones siguientes:
f (x) m f (a); OxàM
f (x) n f (a); OxàM

1.10. (Teorema de Weierstrass). Si M es compacto y f es


continua en M, entonces f tiene en M óptimos (máximo y mı́ni-
mo) globales.

Aspectos geométricos de un programa matemático

1.11. Dada f : ⺢n r ⺢, se llama curva de nivel k à ⺢ de la


función al subconjunto Ck Ñ ⺢n definido por:

Ck % R(x1, x2, ..., xn) à ⺢n : f (x1, x2, ..., xn) % kS


La curva de nivel k de f es el conjunto de puntos del espacio ⺢n
en los que f toma el valor constante k. El conjunto de todas las
curvas de nivel de f se llama mapa de curvas de nivel.

Conjuntos convexos

1.12. Dados x, x1, x2, ..., xk à ⺢n, se dice que x es combina-


ción lineal convexa (CLC) de x1, x2, ..., xk si existen a1, a2, ...,
k
ak à ⺢n con ; ai % 1, de forma que:
i%1

x % a1x1 ! a2x2 ! ñ ! akxk

6
PROGRAMAS MATEMÁTICOS

Dados x, y à ⺢n, se define el segmento de extremos x e y, y se de-


nota [x, y], por:

[x, y] % Rax ! (1 . a)y : 0 m a m 1S

1.13. C Ñ ⺢n es un conjunto convexo si se verifica que:

[x, y] Ñ C: O x, y à C

Un conjunto convexo es el que contiene a cualquier CLC de dos


cualesquiera de sus elementos.
1.14. Dado un conjunto convexo C Ñ ⺢n, se dice que x à C
es un punto extremo de C si no se puede expresar como CLC de
puntos de C distintos de x.
1.15. La intersección (finita o infinita) de conjuntos conve-
xos es un conjunto convexo. Se llama envoltura convexa o cierre
convexo de B, al conjunto convexo co(B) % Y C, en donde CB
C à CB
es la familia de todos los convexos que contienen a B.
Si C es un conjunto no vacı́o, convexo y compacto de ⺢n, en-
tonces C es la envoltura convexa de sus puntos extremos.
1.16. Dados c à ⺢n, c Ç 0 y a à ⺢, se llama hiperplano al
conjunto H definido por:

H % Rx à ⺢n : cx % aS
Asociados a cada hiperplano se encuentran los dos conjuntos si-
guientes, que se denominan semiespacios cerrados (si las desi-
gualdades son estrictas, se llaman semiespacios abiertos).

H` % Rx à ⺢n : cx n aS; H~ % Rx à ⺢n : cx m aS
Dados c à ⺢n, c Ç 0 y a à ⺢, H, H` y H~ son conjuntos conve-
xos en ⺢n.
1.17. Sea C Ñ ⺢n no vacı́o y convexo, se dice que el hiper-
plano H es un hiperplano soporte de C si se verifican las dos con-
diciones siguientes:

7
OPTIMIZACIÓN. CASOS PRÁCTICOS

a) C ç H Ç Y.
b) C está contenido en uno de los semiespacios definidos
por H.
Los puntos de C ç H se llaman puntos soporte de C.
1.18. Se dice que el hiperplano H % Rx à ⺢n : cx % 0; c Ç 0S
separa (separa estrictamente) a los conjuntos no vacı́os C1,
C2 Ñ ⺢n si:
x à C1 % cx m 0 (cx a 0) y x à C2 % cx n 0 (cx b 0)

Teoremas de separación

1.19. Si C Ñ ⺢n es un conjunto no vacı́o, convexo y cerrado


y x â C, entonces existe una aplicación lineal f : ⺢n r ⺢ tal que:
f (x) b sup R f (y) : y à CS
1.20. Si C1, C2 Ñ ⺢n son no vacı́os, convexos y disjuntos,
entonces existe un hiperplano H % Rx à ⺢n : cx % 0; c Ç 0S que
los separa.
1.21. Sean C1, C2 Ñ ⺢n no vacı́os y convexos, con C1 com-
pacto y C2 cerrado. Si C1 y C2 son disjuntos, existe un hiperplano
H % Rx à ⺢n : cx % 0; c Ç 0S que los separa estrictamente y vice-
versa.

Funciones convexas

1.22. Dado C Ñ ⺢n convexo no vacı́o, se dice que


f : C r ⺢ es convexa en C si
f [ax1 ! (1 . a)x2] m
m a f (x1) ! (1 . a) f (x2); O x1, x2 à C, O a à [0, 1]
y se dice que f es cóncava en C, si .f es convexa en C.

8
PROGRAMAS MATEMÁTICOS

1.23. Sean C Ñ ⺢n convexo no vacı́o, f, fi : C r ⺢ conve-


xas en C para i % 1, 2, ..., k y a, a1, a2, ..., ak n 0 se verifica que:
a) af es convexa en C.
b) f1 ! f2 ! ñ ! fk es convexa en C.
c) a1 f1 ! a2 f2 ! ñ ! ak fk es convexa en C.
1.24. Dada f : ⺢n r ⺢, se llama epı́grafe de f, y se denota
epi f, al subconjunto de ⺢n!1 dado por:
epi f % R(x, a) à ⺢n # ⺢ : f (x) % aS
f : ⺢n r ⺢ es convexa en ⺢n si y sólo si su epı́grafe es un subcon-
junto convexo de ⺢n!1.

9
PROGRAMAS MATEMÁTICOS

PROBLEMAS RESUELTOS

1.1. Se seleccionan al azar dos números x1, x2 entre 0 y 4


(ambos inclusive) y se obtiene su producto. Se trata de determi-
nar los valores de estos números que hacen máximo y mı́nimo el
producto.
a) Formúlese el correspondiente programa matemático.
b) Obténganse, se existen, las soluciones del programa.

Solución
a) El programa que describe este problema es:

E
Opt x1x2
sujeto a 0 m x1 m 4
0 m x2 m 4
El conjunto factible del problema es el cuadrado de lado 4 (fi-
gura 1.1),
M % R(x1, x2) à ⺢2 : 0 m x1 m x4, 0 m x2 m 4S
y la función objetivo es f (x1, x2) % x1x2 . Como M es compacto y
f es continua en M, el programa tiene máximo y mı́nimo globa-
les.
b) Las curvas de nivel k vienen dadas por:
Ck % R(x1, x2) à ⺢2 : x1x2 % kS

10
OPTIMIZACIÓN. CASOS PRÁCTICOS

FIGURA 1.1.

es decir, son hipérbolas equiláteras para cada k distinto de cero.


La curva de nivel 0 está formada por los ejes de coordenadas. Las
curvas de nivel k a 0 son hipérbolas equiláteras con sus ramas si-
tuadas en el segundo y cuarto cuadrante que, al no intersecar al
conjunto factible, se pueden desechar.
Considerando las curvas de nivel k n 0, se observa de forma
inmediata que la curva de máximo (resp. mı́nimo) nivel que
interseca al conjunto factible es C16 (resp. C0), luego el máximo
valor de f sobre M es 16 y se alcanza para x1 % 4, x2 % 4 y el mı́-
nimo valor de f sobre M es 0 que se alcanza para todos los pun-
tos de la forma (x1, 0) con 0 m x1 m 4 y de la forma (0, x2) con
0 m x2 m 4 (son todos los puntos de los lados del cuadrado que
están sobre los ejes).
1.2. Resuélvase gráficamente el siguiente programa:

E
1
Opt x . x2
2 1
sujeto a x21 ! x22 m 1
x 1 ! x2 n 1

11
PROGRAMAS MATEMÁTICOS

Solución
Las curvas de nivel k son las rectas (véase figura 1.2):

1
E
Ck % (x1, x2) à ⺢2 : x . x2 % k
2 1 F

FIGURA 1.2.

La curva de nivel mı́nimo (resp. máximo) que interseca al


conjunto factible es C.1 (resp. C1/2) luego
Min f (x1, x2) % .1, para x1 % 0, x2 % 1
1
Max f (x1, x2) % , para x1 % 1, x2 % 0
2
1.3. Dado el siguiente programa matemático:

E
Opt x21 ! x22
sujeto a x1 m x2
(x1 . 1)2 ! (x2 . 1)2 m 1

12
OPTIMIZACIÓN. CASOS PRÁCTICOS

a) Demuéstrese que se trata de un programa convexo.


b) Resuélvase gráficamente.

Solución
a) La función objetivo (figura 1.3) es f (x1, x2) % x21 ! x22.
Su epı́grafe
epi f % R(x1, x2, k) à ⺢2 : f (x1, x2) m kS

FIGURA 1.3.

es un conjunto convexo ya que para todo par de puntos del epı́-


grafe de f, el segmento que los une está contenido en el epı́grafe
de f ; en consecuencia, f es convexa. El conjunto factible (figu-
ra 1.4) es:
M % R(x1, x2) à ⺢2 : x1 m x2, (x1 . 1)2 ! (x2 . 1)2 m 1S
que se puede expresar como intersección de los conjuntos M1 y
M2 siguientes:
M1 % R(x1, x2) à ⺢2 : x1 m x2S

13
PROGRAMAS MATEMÁTICOS

FIGURA 1.4.

y
M2 % R(x1, x2) à ⺢2 : (x1 . 1)2 ! (x2 . 1) m 1S
M1 es convexo por ser un semiespacio y M2 es una bola cerrada
y, por lo tanto, convexa, luego M es un conjunto convexo (como
intersección de convexos). En consecuencia el programa plantea-
do es un programa convexo.
b) Las curvas de nivel k b 0 son circunferencias de centro
(0, 0) y radio∂k (figura 1.4). Es claro que las curvas de nivel mı́-
nimo y máximo que intersecan al conjunto factible lo hacen en
los puntos de corte de la bisectriz del primer cuadrante con la cir-
cunferencia de centro (1, 1) y radio 1.

F
(x1 . 1)2 ! (x2 . 1)2 % 1 ∂2
2(x2 . 1)2 % 1 ; x2 % 1 u
x1 % x2 2

A B
∂2 ∂2
es decir que los puntos de corte son A % 1 . , 1. y
2 2

14
OPTIMIZACIÓN. CASOS PRÁCTICOS

A B
∂2 ∂2
B% 1! , 1! , con lo que se tiene que:
2 2

A
∂2 2
B
∂2
Min f (x , x ) % 2 1 . , para x1 % x2 % 1 .
1 2 2 2

A
∂2 2
B
∂2
Max f (x1, x2) % 2 1 ! , para x1 % x2 % 1 !
2 2

1.4. Resuélvase gráficamente el siguiente programa mate-


mático:
Opt x21 ! x22
sujeto a x1 n 0, x2 n 0
x1x2 n 1
x 1 ! x2 n 4

Solución
El conjunto factible se representa en la figura 1.5. Las curvas
de nivel son circunferencias de centro (0, 0) y radio ∂k. El con-
junto factible del programa está limitado por la recta x1 ! x2 % 4
y la rama de la hipérbola equilátera x1x2 % 1 situada en el primer
cuadrante. Los puntos de corte A y B de la recta con la hipérbola
se determinan a continuación.

1
F
x1 x2 % 1
x1 ! % 4 ; x21 . 4x1 ! 1 % 0 ; x1 % 2 u ∂3
x1 !x2 % 4 x1

luego A % (2 ! ∂3, 2 . ∂3) y B % (2 . ∂3, 2 ! ∂3).


La curva de nivel mı́nimo que interseca al conjunto factible
es la de nivel 2 (circunferencia de radio ∂2) e interseca al con-
junto factible en el punto (1, 1). La curva de nivel máximo inter-
seca al conjunto factible en los puntos A y B, por lo tanto:
Min f (x1, x2) % 2, para x1 % x2 % 1

15
PROGRAMAS MATEMÁTICOS

FIGURA 1.5.

Max f (x1, x2) % (2 ! ∂3)2 ! (2 . ∂3)2 % 14

E
x1 % 2 ! ∂3, x2 % 2 .∂3
para y
x1 % 2 . ∂3, x2 % 2 ! ∂3

1.5. Dado el siguiente programa matemático:


Opt 2x1 ! x2
sujeto a x1 n 0
x2 n 0
.x1 ! x2 m 2
2x1 ! x2 m 6
a) Estúdiese si es un programa lineal. ¿Es convexo?
b) Resuélvase gráficamente.

Solución
Sean f, g1, g2, g3, g4 : ⺢2 r ⺢ definidas como sigue:

16
OPTIMIZACIÓN. CASOS PRÁCTICOS

f (x1, x2) % 2x1 ! x2 ; g1(x1, x2) % x1 ; g2(x1, x2) % x2


g3(x1, x2) % .x1 ! x2 . 2 ; g4(x1, x2) % 2x1 ! x2 . 6
a) La función objetivo f es lineal y las funciones gi(i % 1,
2, 3, 4) que definen las restricciones del conjunto factible son afi-
nes, luego se trata de un programa lineal. Además, por ser f li-
neal, es convexa. El conjunto factible M es la intersección de los
cuatro conjuntos siguientes:
M1 % R(x1, x2) à ⺢2 : g1(x1, x2) n 0S
M2 % R(x1, x2) à ⺢2 : g2(x1, x2) n 0S
M3 % R(x1, x2) à ⺢2 : g3(x1, x2) m 0S
M4 % R(x1, x2) à ⺢2 : g4(x1, x2) m 0S
Estos conjuntos son semiespacios cerrados y, por lo tanto,
convexos, lo que implica que M es convexo (intersección de con-
vexos) y, en consecuencia, el programa es convexo.
b) El conjunto factible (véase figura 1.6) es el cuadrilátero
de vértices A%(0, 0), B%(3, 0), C%(4/3, 10/3) y D%(0, 2), que
se obtienen fácilmente resolviendo los correspondientes sistemas
de ecuaciones lineales. Las curvas de nivel k à ⺢ son las rectas
paralelas siguientes:
Ck % R(x1, x2) à ⺢2 : 2x1 ! x2 % kS
Nótese que, además, son paralelas a la recta 2x1 ! x2 % 6 (un
segmento de esta recta forma parte de la frontera del conjunto
factible).
La curva de nivel mı́nimo que interseca al conjunto factible
(en A) es C0, luego:
Min f (x1, x2) % 0, para x1 % 0, x2 % 0
La curva de nivel máximo que interseca al conjunto factible
es C6 y lo hace en todos los puntos del segmento de extremos
B % (3, 0) y C % (4/3, 10/3), luego:
Max f (x1, x2) % 6, para (x1, x2) à [B, C]

17
PROGRAMAS MATEMÁTICOS

FIGURA 1.6.

en donde [B, C] denota el segmento de extremos B y C. Obsérve-


se que
f (3, 0) % f (4/3, 10/3) % 6
y que dado (x1, x2) à [B, C], existe t à [0, 1] tal que
(x1, x2) % t(3, 0) ! (1 . t)(4/3, 10/3)
de donde resulta, al ser f lineal, que:
f (x1, x2) % tf (3, 0) ! (1 . t) f (4/3, 10/3) % 6t ! 6(1 . t) % 6
1.6. Resuélvase gráficamente el siguiente programa mate-
mático:
Opt x1 ! 3x2
sujeto a x1 n 0
x2 n 0
4x21 ! 9x22 n 36
Solución
El conjunto factible se representa en la figura 1.7. La primera

18
OPTIMIZACIÓN. CASOS PRÁCTICOS

FIGURA 1.7.

condición impone que los puntos del conjunto factible son exte-
riores a la siguiente elipse de centro (0, 0) y semiejes 3 y 2

x21 x22
! %1
9 4

Las curvas de nivel son las rectas paralelas:

Ck % R(x1, x2) à ⺢2 : x1 ! 3x2 % kS

La curva de nivel mı́nimo que interseca al conjunto factible


en el punto (3, 0) es C3, luego:

Min f (x1, x2) % 3, para x1 % 3, x2 % 0

No existe máximo ya que, al ser el conjunto factible no aco-


tado, cualquier curva de nivel Ck con k b 3 tiene puntos comunes
con el conjunto factible, lo que significa que la función objetivo
no está acotada superiormente y, en consecuencia, no existe má-
ximo global en el conjunto factible dado.

19
PROGRAMAS MATEMÁTICOS

1.7. Dado el conjunto M Ñ ⺢2 definido por

M % R(x1, x2) à ⺢2 : x1 m x2, x2 m .x21 ! 2S

se considera la función de ⺢2 en ⺢ que a cada punto de ⺢2 le


asigna su distancia al origen y se trata de obtener los puntos de
M cuya distancia al origen es máxima y mı́nima.

a) Formúlese el correspondiente programa matemático, in-


dicando la función objetivo y el conjunto factible.
b) Obténgase el interior, la frontera y la adherencia del con-
junto factible.
c) Indı́quese si el conjunto factible del problema es abierto,
cerrado, acotado, compacto y convexo.
d) ¿Es aplicable a este problema el teorema de Weierstrass?
e) Resuélvase geométricamente el programa.

Solución

a) La distancia de un punto (x1, x2) de ⺢2 al origen viene da-


da por

d[(x1, x2), (0, 0)] % !∂x21 ! x22

Como la función real de variable real que a cada número real x


le asigna su cuadrado es monótona creciente para x b 0, los má-
ximos y mı́nimos de d son los mismos que los de la función f (x1,
x2) % x21 ! x22 y, en consecuencia, la formulación del programa es
la siguiente:

Opt f (x1, x2), sujeto a (x1, x2) à M

o lo que es equivalente:

Opt x21 ! x22


sujeto a x1 m x2
x2 m .x21 ! 2

20
OPTIMIZACIÓN. CASOS PRÁCTICOS

b) Los puntos de corte de la recta y la parábola que determi-


nan el conjunto factible (figura 1.8) se obtienen a continuación.

F
x1 % x2
x2 ! x1 . 2 % 0 ; x % 1 y x % .2
x2 % .x21 ! 2 1

por tanto, los puntos de corte indicados son A % (.2, .2) y


B % (1, 1) y se tiene:
Int M % R(x1, x2) à ⺢2 : x1 a x2 , x2 a .x21 ! 2S
Fr M % R(x1, x2) à ⺢2 : x1 % x2, x1 à [.2, 1]S é
é R(x1, x2) à ⺢2 : x2 % .x21 ! 2, x1 à [.2, 1]S
M1 % R(x1, x2) à ⺢2 : x1 m x2 , x2 m .x21 ! 2S % M

FIGURA 1.8.

c) Como M coincide con su adherencia es cerrado. No es


abierto al no coincidir con su interior. Es acotado puesto que
existe una bola de centro (0, 0) que lo contiene (por ejemplo la
de radio 4). Por ser cerrado y acotado es compacto. Por último,

21
PROGRAMAS MATEMÁTICOS

M es convexo por ser intersección de dos conjuntos convexos, el


semiespacio determinado por la recta y la región del plano que
queda por debajo de la parábola.
d) Como f es continua en ⺢2 y M es un conjunto compacto,
se verifica el teorema de Weierstrass y, en consecuencia, f alcan-
za en M su máximo y su mı́nimo globales.
e) La curva de nivel k n 0 es
Ck % R(x1, x2) à ⺢2 : x21 ! x22 % kS
la curva de nivel 0 es el punto (0, 0) y la curva de nivel k b 0 es
la circunferencia de centro (0, 0) y radio ∂k, de tal forma que la
curva de nivel mı́nimo es C0 y que el aumentar el nivel de la cur-
va (valor de f para los puntos de la curva de nivel), aumenta el
radio de la circunferencia. El mı́nimo (resp. máximo) global de f
sobre M, se tiene sobre la curva de nivel mı́nimo (resp. máximo)
que interseca al conjunto factible, es decir la curva de nivel 0
(resp. 8), luego
Max f (x1, x2) % 8, para x1 % .2, x2 % .2
Min f (x1, x2) % 0, para x1 % 0, x2 % 0
1.8. Una persona dispone de 1.000.000 de pesetas para in-
vertir. Se le sugiere invertir en bonos de dos tipos A y B. Los del
tipo A tienen más riesgo y dan un interés anual del 10%, mientras
que los del tipo B tiene menos riesgo pero dan un interés anual
del 7%. Esta persona decide invertir, como máximo, 600.000 pe-
setas en bonos del tipo A, y 200.000 pesetas, como mı́nimo, en
bonos del tipo B, de forma que la cantidad invertida en bonos de
tipo A no sea menor que la invertida en bonos de tipo B. Su ob-
jetivo es obtener, con estas restricciones, el máximo interés.
a) Formúlese el correspondiente programa matemático.
b) Resuélvase gráficamente el programa.

Solución
a) Sean x1 y x2 las cantidades invertidas, respectivamente,

22
OPTIMIZACIÓN. CASOS PRÁCTICOS

en bonos del tipo A y en bonos del tipo B; la función objetivo del


problema es:
10 7
f (x1, x2) % x1 ! x
100 100 2

Las restricciones del problema son las siguientes:


— Dispone de 1.000.000 pesetas para invertir: x1 ! x2 m
m 1.000.000
— No invertir en A más de 600.000 pesetas: x1 m 600.000
— No invertir en B menos de 200.000 pesetas: x2 n 200.000
— Cantidad invertida en A no menor que la invertida en B:
x1 n x2.
Con estas restricciones, el programa queda formulado como
sigue:
Max f (x1, x2)
sujeto a x1 ! x2 m 1.000.000
x1 m 600.000
x2 n 200.000
x1 n x2

b) El conjunto factible se representa en la figura 1.9. Se tra-


ta de un programa lineal ya que la función objetivo es lineal y las
que definen las restricciones son afines.
Las curvas de nivel k à ⺢ son las rectas:

10 7
E
Ck % (x1, x2) à ⺢2 :
100
x1 ! x %k
100 2 F
El conjunto factible es el cuadrilátero de vértices A%(200.000,
200.000), B % (600.000, 200.000), C % (600.000, 400.000) y
D % (500.000, 500.000). La curva de nivel máximo que interseca
al conjunto factible en el punto C es C88.000, luego:

Max f (x1, x2) % 88.000, para x1 % 600.000, x2 % 400.000

23
PROGRAMAS MATEMÁTICOS

FIGURA 1.9.

es decir, debe invertir 600.000 pesetas en bonos del tipo A y


400.000 en bonos del tipo B para obtener el interés máximo en
las condiciones dadas.
1.9. Sea f la función real de variable real f (x) % 8x8.
a) Descrı́base el epı́grafe de f (epi f ).
b) Estúdiese si epi f es un conjunto convexo.
c) ¿Es f convexa en ⺢?
d) Determı́nense los soportes de epi f en el punto (0, 0).
e) Si M % [.1, 2] es el conjunto factible del programa
Opt f (x); x à M
indı́quese de que tipo de programa se trata y su solución.

Solución
a) epi f % R(x, k) à ⺢2 : 8x8 m kS. (Véase figura 1.10).
b) Veamos que cualquier combinación lineal convexa de
puntos de epi f es un punto de epi f. En efecto, sean (x1, k1),
(x2, k2) à epi f y t à [0, 1], se verifica que:

24
OPTIMIZACIÓN. CASOS PRÁCTICOS

x2

x1

FIGURA 1.10.

8x18 m k1 ú t8x18 m tk1

8x28 m k2 ú (1 . t)8x28 m (1 . t)k2

sumando miembro a miembro, resulta:

t8x18 ! (1 . t)8x28 m tk1 ! (1 . t)k2

de donde, teniendo en cuenta las propiedades del valor absoluto,


se tiene que:

8tx1 ! (1 . t)x28 m t8x18 ! (1 . t)8x28 m tk1 ! (1 . t)k2

lo que implica que:

(tx1 ! (1 . t)x2, tk1 ! (1 . t)k2) à epi f

como querı́amos demostrar.


c) f es convexa en ⺢ por ser su epı́grafe un conjunto conve-
xo de ⺢2.
d) Los soportes del epı́grafe de f en el punto (0, 0) son las

25
PROGRAMAS MATEMÁTICOS

rectas (hiperplanos) que pasando por el punto (0, 0) dejan a un la-


do al epı́grafe de f, es decir,
Hm % R(x, y) à ⺢2 : y % mxS; O m à [.1, 1]
e) Se trata de un programa no regular ya que f no es derivable
en el punto 0. Es obvio que:
Max f (x) % 2, para x % 2. Min f (x) % 0, para x % 0

1.10. Resuélvase el siguiente programa matemático:


Opt x21 ! x22 ! x23
sujeto a x1 n 0; x2 n 0; x3 n 0
x1 ! x2 ! x3 m 1

Solución
El conjunto factible es el poliedro de vértices A % (0, 0, 0),
B % (1, 0, 0), C % (0, 1, 0) y D % (0, 0, 1). La función objeti-
vo es:
f (x1, x2, x3) % x21 ! x22 ! x23
La curva de nivel k b 0 es la superficie esférica de centro A:
Ck % R(x1, x2, x3) à ⺢3 : x21 ! x22 ! x23 % kS
y la curva de nivel cero se reduce al punto A, ya que:
C0 % R(x1, x2, x3) à ⺢3 : x21 ! x22 ! x23 % 0S % R(0, 0, 0)S
Es claro que la curva de nivel mı́nimo que interseca al conjunto
factible es C0 y lo hace en el punto A, y la curva de nivel máximo
que lo interseca es C1 y lo hace en los puntos B, C y D, luego:
Min f (x1, x2, x3) % 0, para x1 % x2 % x3 % 0

E
x1 % 1, x2 % 0, x3 % 0
Max f (x1, x2, x3) % 1, para x1 % 0, x2 % 1, x3 % 0
x1 % 0, x2 % 0, x3 % 1

26
OPTIMIZACIÓN. CASOS PRÁCTICOS

1.11. Dado el siguiente programa matemático P:

E
Opt f (x1 ,x2) % x2 . x21
(P) sujeto a x1 ! x2 b .1
x21 ! x22 m 1

a) Represéntese gráficamente el conjunto factible M del


programa.
b) Estúdiese si M es abierto, cerrado, acotado o compacto.
c) ¿Es aplicable el teorema de Weierstrass a este programa?
d) Represéntense las curvas de nivel .1, 0 y 1.
e) Resuélvase gráficamente el programa.

Solución
a) El conjunto factible M se representa en la figura 1.11.
b) El interior y la clausura de M son, respectivamente
Int M % R(x1, x2) à ⺢2 : x1 ! x2 b .1, x21 ! x22 a 1S
M1 % R(x1, x2) à ⺢2 : x1 ! x2 n .1, x21 ! x22 m 1S
M no es abierto porque no coincide con su interior y no es cerra-
do porque no coincide con su clausura. M es un conjunto acotado
ya que está contenido, por ejemplo, en la bola de centro (0, 0) y
radio 1, pero no es compacto por no ser cerrado.
c) No se puede aplicar el teorema de Weierstrass porque el
conjunto factible no es compacto.
d) Las curvas de nivel son parábolas
Ck % R(x1, x2) à ⺢2 : x2 % x21 ! kS
Las de niveles .1, 0 y 1 se encuentran representadas en la figu-
ra 1.11.
e) Es claro que la curva de nivel máximo que interseca al
conjunto factible es la de nivel 1, luego Max f (x1, x2) % 1 para
x1 % 0, x2 % 1.
La curva de nivel mı́nimo que interseca al conjunto factible
es la parábola que tiene un punto común con la circunferencia en

27
PROGRAMAS MATEMÁTICOS

FIGURA 1.11.

el cuarto cuadrante (y, por simetrı́a, otro en el tercero). La gráfica


por si sola no permite determinar el nivel de esa curva, pero en
ese punto común la semicircunferencia inferior x2 % .∂1 . x21
y la parábola x2 % x21 ! k tendrán la misma tangente y, por tanto,
la misma derivada, es decir:
.2x1 1
. % 2x1 ; 2∂1 . x21 % 1 ; 1 . x21 %
2∂1 . x21 4
∂3
x1 % u
2
Luego la tangencia se da en los puntos B(∂3/2, .1/2) y
C(.∂3/2, .1/2). La curva de nivel mı́nimo es la parábola que
pasa por B y C y su nivel es:
1 3 1 3 5
. % !k ; k%. . %.
2 4 2 4 4
resultando la curva
5
x2 % x21 .
4

28
OPTIMIZACIÓN. CASOS PRÁCTICOS

En consecuencia, Min f (x1, x2) % .5/4 que se alcanza para


x1 % ∂3/2, x2 % .1/2 (punto B, el C no pertenece al conjunto
factible).
1.12. Dado el siguiente programa matemático P, con res-
tricciones de desigualdad, demuéstrese que P tiene máximo y mı́-
nimo globales y resuélvase geométricamente el programa.

E
Opt (x1 . 3)2 ! (x2 . 2)2
(P) sujeto a x1 ! x2 n 3
x21 ! x22 m 5
Solución
La función objetivo
f (x1, x2) % (x1 . 3)2 ! (x2 . 2)2
es continua y el conjunto factible
M % R(x1, x2) à ⺢2 : x1 ! x2 n 3, x21 ! x22 m 5S
es compacto (por ser cerrado y acotado), luego P tiene máximo
y mı́nimo globales, por el teorema de Weierstrass.
Las curvas de nivel k son circunferencias de radio ∂k, y es
claro que la circunferencia de mayor radio que interseca a M es
la que pasa por el punto A(1, 2), luego:
Max f (x1, x2) % 4 para x1 % 1, x2 % 2
Para determinar el mı́nimo, veamos la curva de nivel mı́nimo que
interseca al conjunto factible. Esa curva (circunferencia de radio
∂k), será una de las circunferencias que tiene un único punto de
contacto con la que define el conjunto factible.

E
x21 ! x22 % 5
(x1 . 3)2 ! (x2 . 2)2 % k

E
x21 ! x22 % 5
x ! x . 6x1 . 4x2 ! 13 % k
2
1
2
2

29
PROGRAMAS MATEMÁTICOS

restando mienbro a miembro, se tiene:


6x1 ! 4x2 . 18 ! k % 0
de donde
18 . k . 4x2
x1 %
6
luego
(18 . k . 4x2)2
! x22 % 5 , (18 . k . 4x2)2 ! 36x22 % 180
36
324 ! k2 ! 16x22 . 36k . 144k2 ! 8kx2 ! 36x22 % 180
52x22 ! (8k . 144)x2 ! k2 . 36k ! 144 % 0
.(8k . 144) u ∂(8k . 144)2 . 208(k2 . 36k ! 144)
x2 %
104

El sistema tiene solución única si:


(8k . 144)2 % 208(k2 . 36k ! 144)
64k2 . 2.304k ! 20.736 % 208k2 . 7.488k ! 29.952
144k2 . 5.184k ! 9.216 % 0
k2 . 36k ! 64 % 0
36 u ∂362 . 4 · 64 36 u ∂1.296 . 256
k% % %
2 2

36 u ∂1.040
% % 18 u 2∂65
2

El valor buscado es, claramente, el k % 18 . 2∂65, luego la


curva de menor nivel que interseca al conjunto factible es la cir-
cunferencia de centro (3, 2) y radio ∂18 . 2∂65, es decir:

(x1 . 3)2 ! (x2 . 2)2 % 18 . 2∂65

30
OPTIMIZACIÓN. CASOS PRÁCTICOS

Sustituyendo k en el valor de x2, y teniendo en cuenta que el


discriminante es nulo, para ese valor de k, se tiene:

[.8(18 . 2∂65) . 144] 16∂65 2∂65


x2 % % %
104 104 13

J J
4 · 65 845 . 260 ∂585 3∂65
x1 % 5. % % %
132 169 13 13
luego:
3∂65 2∂65
Min f (x1, x2) % 18 . 2∂65, para x1 % , x2 %
13 13

31
CAPÍTULO 2
PROGRAMAS DIFERENCIABLES

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Derivada direccional. Gradiente. Diferencial

Se supone que A Ñ ⺢n es un abierto que, en particular, puede


ser todo el espacio, a es un punto de A, v à ⺢n, v Ç 0 y f : A r ⺢.
2.1. Se llama derivada direccional de f en a siguiendo v, o
en la dirección v, al siguiente lı́mite cuando exista

f (a ! tv) . f (a)
Dv f (a) % lim .
tr0 t

Si se consideran los elementos ei, i % 1, 2, ..., n, de la base canó-


nica de ⺢n, entonces la derivada en la dirección ei, i % 1, 2, ..., n,

33
OPTIMIZACIÓN. CASOS PRÁCTICOS

se llama derivada parcial de f en a y se denota por


Lf (a)
Di f (a) % (i % 1, 2, ..., n).
Lxi
2.2. El vector formado por las derivadas parciales de f en a,
llamado gradiente de f en a, se denota por Mf (a) % (D1 f (a),
D2 f (a), ..., Dn f (a)).
2.3. Se dice que f es diferenciable en a, si existe una aplica-
ción lineal Df (a) de ⺢n en ⺢ tal que:
8 f (a ! h) . f (a) . Df (a)(h)8
lim % 0.
hr0 9h9
Si existe la aplicación Df (a) es única y se llama diferencial de f
en a.
2.4. Si f es diferenciable en a, entonces es continua en a,
para todo v à ⺢n, v Ç 0, existe la derivada direccional de f en a
siguiendo v y se verifica que Df (a) (v) % Dv f (a). En particular,
existen derivadas parciales y gradiente y resulta que
Df (a)(v) % Mf (a) · v % Dv f (a).
2.5. Si para cada i % 1, 2, ..., n, existen las derivadas parcia-
les de f en un entorno de a y son continuas en a, entonces f es
diferenciable en a.
2.6. Se dice que f es de clase p en A, y se denota f à Cp(A),
si existen y son continuas todas las derivadas parciales de f (has-
ta el orden p) en cada punto de A.
2.7. (Teorema de Taylor). Dado h % (h1, h2, ..., hn) à ⺢n tal
que [a, a ! h] Ñ A, si f à Cm(A) se tiene que
n
1 n

f (a ! h) % f (a) ! ; hi Di f (a) ! ; hi hj Dij f (a) ! ñ !


i% 1
2! i, j%1

1 n

! ; hi ...hi Di , ..., i f (a) !


(m . 1)! i, ..., im.1 %1
1 m.1 1 m.1

34
PROGRAMAS DIFERENCIABLES

1 n

! ; hi ...hi Di , ..., i f (a ! th)


m! i1, ..., im %1
1 m 1 m

con 0 a t a 1.
Se recuerdan, a continuación, las extensiones de las definicio-
nes anteriores al caso de funciones vectoriales de variable vecto-
rial. Se considera que A Ñ ⺢n es abierto, a es un punto de A, v à
⺢n, v Ç 0 y f % ( f1, f2, ..., fm) : A r ⺢m.

2.8. Se llama derivada de f en a siguiendo v, a la siguiente


m-pla cuando exista

Dv f (a) % (Dv f1(a), Dv f2(a), ..., Dv fm(a)).

2.9. f es diferenciable en a, si existe una aplicación lineal


Df (a) de ⺢n en ⺢m tal que:

9 f (a ! h) . f (a) . Df (a)(h)9
lim %0
hr0 9h9

La aplicación lineal Df (a) se llama diferencial de f en a.

2.10. Se llama matriz jacobiana de f en a, y se denota por


Df(a), a la matriz de orden m # n en la que cada fila está forma-
da por las derivadas parciales de las componentes de f en a, es
decir

A B
D1 f1(a) D2 f1(a) ñ Dn f1(a)
D1 f2(a) D2 f2(a) ñ Dn f2(a)
Df (a) %
ó ó ó ó
D1 fm(a) D2 fm(a) ñ Dn fm(a)

2.11. f es diferenciable en a si y sólo si son diferenciables en


a cada una de sus componentes y en este caso Df(a)v % Dv f (a) o
lo que es equivalente

Dv f (a) % (Mf1(a) · v, Mf2(a) · v, ..., Mfm(a) · v).

35
OPTIMIZACIÓN. CASOS PRÁCTICOS

Programas diferenciables sin restricciones

Se considera un problema de optimización sin restricciones,


es decir que se estudia la función objetivo en su dominio.

2.12. Sea A Ñ ⺢n abierto y f : A r ⺢ diferenciable en a à A.


Si f tiene un óptimo local en a, entonces Mf (a) % 0.

2.13. Se dice que a es un punto crı́tico o estacionario de f


si Mf (a) % 0.
Se denota por Q la forma cuadrática definida como sigue:
n

Q(h) % ; hi hj Dij f (a).


i, j% 1

2.14. La matriz asociada a Q, cuando exista, se llama matriz


hessiana de f en el punto a y está formada por las derivadas par-
ciales segundas de f en el punto a.

2.15. Sea f à C2(A) y a à A un punto crı́tico de f, se verifica


que:

a) Si a es un mı́nimo local de f, entonces Q es semidefinida


positiva.
b) Si a es un máximo local de f, entonces Q es semidefinida
negativa.

2.16. Sea f à C2(A) y a à A un punto crı́tico de f, se verifica


que:

a) Si Q es definida positiva, a es un mı́nimo local de f.


b) Si Q es definida negativa, a es un máximo local de f.
c) Si Q es indefinida, a no es ni máximo ni mı́nimo local de f.

2.17. Los puntos crı́ticos de f que no son ni máximos ni


mı́nimos locales, se denominan puntos de ensilladura, puntos de
silla o puertos.

36
PROGRAMAS DIFERENCIABLES

Programas diferenciables con restricciones de igualdad

Se considera un programa P con restricciones de igualdad,


cuya formulación general es la siguiente
Optimizar f (x)
(P)
E sujeto a g(x) % 0
en donde A Ñ ⺢n es abierto, f : A r ⺢, g % (g1, g2, ..., gm) :
A r ⺢n y f y g son diferenciables en A. Si se expresan las restric-
ciones por medio de las componentes de g, el programa P se pue-
de escribir en la siguiente forma:

E
Otimizar f (x)
sujeto a g1(x) % 0
sujeto a g2(x) % 0
(P)
sujeto a ñ
sujeto a ñ
sujeto a gm(x) % 0

y el conjunto factible viene dado por:


M % Rx à A : g1(x) % 0, g2(x) % 0, ..., gm(x) % 0S %
% Rx à A : g(x) % 0S.
Se trata de encontrar los óptimos de f sobre M y no sobre su do-
minio como en el caso de los programas sin restricciones.
2.18. (Teorema de multiplicadores de Lagrange). Sean
A Ñ ⺢n abierto, f : A r R una función de clase C1 en A, g % (g1,
..., gm) : A r ⺢m (con n b m) de clase C1 en A y el conjunto facti-
ble M % Rx à A : g(x) % 0S. Si f tiene en a un óptimo local sobre
M y el rango de la matriz jacobiana de g en a es m, entonces exis-
ten m números reales j1, ..., jm tales que:
m

Mf (a) ! ; jjMgj (a) % 0.


j %1

37
OPTIMIZACIÓN. CASOS PRÁCTICOS

Este teorema da una condición necesaria para que un punto de M


sea un extremo relativo condicionado de f. La condición viene a
expresar que el gradiente de f en a es combinación lineal de los
gradientes de las condiciones en el punto a. Los valores jj, j % 1,
..., m se llaman multiplicadores de Lagrange de f en el punto a
y la expresión

L(x, j) % f (x) ! ; jjgj(x)


j%1

se llama lagrangiana y es una función de A # ⺢m en ⺢ de clase


uno, por serlo f y g, en la que los multiplicadores se pueden con-
siderar como m nuevas variables. En este sentido, la condición
obtenida en el teorema anterior, representa un sistema de n ecua-
ciones con n ! m incógnitas (las coordenadas del punto buscado
y los multiplicadores), que en la práctica se completa con las m
condiciones del problema dando lugar al siguiente sistema de
n ! m ecuaciones con n ! m incógnitas:
m

Di f (a) ! ; jj Di gj (a) % 0, i % 1, ..., n


j%1
gj (x) % 0, j % 1, ..., m

Nótese que este sistema se obtiene al aplicar la condición necesa-


ria de extremo relativo de primer orden para problemas sin res-
tricciones a la lagrangiana.

2.19. Sea AÑ⺢n abierto, f :A r ⺢ y g%(g1, ..., gm) : A r ⺢m


(con n b m) funciones de clase C2 en A, M % Rx à A : g(x) % 0S, a
un punto crı́tico de f sobre M tal que el rango de la matriz jaco-
biana de g en a es m y j1 % (j1 1, ..., j1 m) el vector de multiplicado-
res asociados. Si la forma cuadrática

h(h) % ; hi hj DijL(a, j1 )
i, j %1

38
PROGRAMAS DIFERENCIABLES

es definida positiva (resp. negativa) para los h % (h1, ..., hn) que
verifican que
n

; hi Di gj (a) % 0 ; j % 1, ..., m.
i%1

entonces a es un mı́nimo (resp. máximo) relativo de f sobre M.

39
PROBLEMAS RESUELTOS

2.1. Obténganse los extremos relativos de


f (x1, x2, x3) % x31 ! x22 ! x33 . 24x1 . 6x2 . x3 ! 2.

Solución
La condición necesaria es
a % (∂8, 3, 1/∂3)

F
3x21 . 24 % 0
b % (∂8, 3, .1/∂3)
2x2 . 6 % 0
c % (.∂8, 3, 1/∂3)
3x23 . 1 % 0
d % (.∂8, 3, .1/∂3)
Para la condición suficiente, se tiene

A B A B
6x1 0 0 6∂8 0 0
H(x1, x2, x3) % 0 2 0 ; H(a) % 0 2 0
0 0 6x3 0 0 2∂3
Como Bk b 0, (k % 1, 2, 3), f tiene en el punto a un mı́nimo re-
lativo. Para los otros tres puntos resultan las siguientes matrices
hessianas

A B A B
6∂8 0 0 .6∂8 0 0
H(b) % 0 2 0 ; H(c) % 0 2 0
0 0 .2∂3 0 0 2∂3

40
OPTIMIZACIÓN. CASOS PRÁCTICOS

A B
.6∂8 0 0
H(d) % 0 2 0
0 0 .2∂3
Los puntos b, c y d son puntos de silla puesto que las matrices
hessianas asociadas ya son diagonales y todas ellas tienen auto-
valores positivos y negativos, con lo que las formas asociadas
son indefinidas.
2.2. Obténganse los extremos relativos de
f (x1, x2, x3) % ex1 ! ex2 ! ex3
condicionados por x1 ! x2 ! x3 % 3.

Solución
El lagrangiano para este problema es:
L((x1, x2, x3), j) % ex1 ! ex2 ! ex3 ! j(x1 ! x2 ! x3 . 3).
Por la condición necesaria de extremo relativo condicionado, re-
sulta que

F
ex1 ! j % 0
ex2 ! j % 0
ex3 ! j % 0
x1 ! x 2 ! x 3 . 3 % 0
y es claro que el único punto que verifica la condición necesaria
de extremo relativo condicionado es el punto a % (1, 1, 1) con
j1 % .e. Para la condición suficiente, se tiene
D11L(x, j)%ex1 D11L(a, j1 )%e D21L(x, j)%0 D21L(a, j1 )%0
D12L(x, j)%0 D12L(a, j1 )%0 D22L(x, j)%e x2
D22L(a, j1 )%e
D13L(x, j)%0 D13L(a, j1 )%0 D23L(x, j)%0 D23L(a, j1 )%0

D31L(x, j)%0 D31L(a, j1 )%0 D1g(x)%1 D1g(a)%1


D32L(x, j)%0 D32L(a, j1 )%0 D2g(x)%1 D2g(a)%1
D33L(x, j)%e x3
D33L(a, j1 )%e D3g(x)%1 D3g(a)%1

41
PROGRAMAS DIFERENCIABLES

y la forma cuadrática asociada es


3
h(h1, h2, h3) % ; hi hj DijL(a, j1 ) % eh21 ! eh22 ! eh23
i, j %1

con la condición
3
; hi Di g(a) % 0 ; h1 ! h2 ! h3 % 0
i%1

despejando en la condición, se tiene h3 % .(h1 ! h2), con lo que


sustituyendo en h resulta la forma cuadrática de dos variables
h(h1, h2) % eh21 ! eh22 ! e(h1 ! h2)2 % 2eh21 ! 2eh22 ! 2eh1h2
cuya matriz asociada es
2e e
A e B
2e
Como B1 % 2e b 0, B2 % 3e2 b 0, la forma es definida positiva y
el punto a es un mı́nimo relativo condicionado.
2.3. Obténganse los extremos relativos de f (x1, x2, x3) %
%x1x2 !x1x3 !x22 con las condiciones x1 !x2 !x3 %4, x1 .x3 %1.

Solución
El lagrangiano para este problema es el siguiente:
L((x1, x2, x3), (j1, j2)) % x1x2 ! x1x3 ! x22 !
! j1(x1 ! x2 ! x3 . 4) ! j2(x1 . x3 . 1).
La condición necesaria de extremo relativo condicionado es

F
x2 ! x3 ! j1 ! j2 . 0
x1 ! 2x2 ! j1 % 0
x1 ! j1 . j2 % 0
x1 ! x2 ! x3 % 4
x1 . x3 % 1

42
OPTIMIZACIÓN. CASOS PRÁCTICOS

A continuación se resuelve el sistema utilizando el método de


Gauss (es muy conveniente recordar este método elemental de re-
solución de sistemas de ecuaciones lineales porque será la base
de la resolución de problemas de programación lineal por el algo-
ritmo del simplex). Se denota por Fi la fila i-ésima de la matriz
ampliada del sistema anterior. Se ordenan los coeficientes de las
ecuaciones del sistema indicando de arriba a abajo las ecuaciones
2, 3, 1, 4 y 5. En el primer paso se realizan las operaciones
F2 . F1, F4 . F1, F5 . F1, y se tiene

A BA B
1 2 0 1 0 0 1 2 0 1 0 0
1 0 0 1 .1 0 0 .2 0 0 .1 0
0 1 1 1 1 0 0 1 1 1 1 0
1 1 1 0 0 4 0 .1 1 .1 0 4
1 0 .1 0 0 1 0 .2 .1 .1 0 1
en el siguiente paso, se hace 2F3 ! F2, 2F4 . F2, F5 . F2 y en el
último, que conduce a la matriz triangular equivalente, se hace
F4 . F3, 2F5 ! F3,

A BA B
1 2 0 1 0 0 1 2 0 1 0 0
0 .2 0 0 .1 0 0 .2 0 0 .1 0
0 0 2 2 1 0 0 0 2 2 1 0
0 0 2 .2 1 8 0 0 0 .4 0 8
0 0 .1 .1 1 1 0 0 0 0 3 2
con lo que se obtiene un sistema escalonado equivalente al pri-
mero con solución única puesto que son iguales el rango de la
matriz del sistema, el rango de la matriz ampliada y el número de
incógnitas. Resolviéndolo por sustitución de abajo a arriba, da
como solución única el punto a % (8/3, .1/3, 5/3) con j1 1 % .2,
j1 2 % 2/3. Para la condición suficiente, se tiene
D11L(x, j)%0 D11L(a, j1 )%0 D21L(x, j)%1 D21L(a, j1 )%1
D12L(x, j)%1 D12L(a, j1 )%1 D22L(x, j)%2 D22L(a, j1 )%2
D13L(x, j)%1 D13L(a, j1 )%1 D23L(x, j)%0 D23L(a, j1 )%0

43
PROGRAMAS DIFERENCIABLES

D31L(x, j)%1 D31L(a, j1 )%1 D1g1(a)%1 D1g2(a)%1


D32L(x, j)%0 D32L(a, j1 )%0 D2g1(a)%1 D2g2(a)%0
D33L(x, j)%0 D33L(a, j1 )%0 D3g1(a)%1 D3g2(a)%.1
y la forma cuadrática asociada es
3
h(h1, h2, h3) % ; hi hj DijL(a, j1 ) % h22 ! 2h1h2 ! 2h1h3
i, j%1

con las condiciones


3
; hi Di g1(a) % 0 ; h1 ! h2 ! h3 % 0
i%1

3
; hi Di g2(a) % 0 ; h1 . h3 % 0
i%1

de donde h3 % h1, h2 % .2h1. Sustituyendo en h resulta la forma


cuadrática de una variable
h(h1) % 4h21 . 4h21 ! 4h21 % 2h21 b 0, Oh1 à ⺢CR0S
que es definida positiva y, por lo tanto, a es un mı́nimo relativo
condicionado de f.
2.4. Determı́nense los extremos relativos de la función
f : ⺢2 r ⺢ definida por

f (x, y) % sen ∂x2 ! y2

Solución
Se trata de una función continua en ⺢2, de clase infinito en
⺢2CR(0, 0)S, que no es diferenciable en (0, 0). En este punto se ve-
rifica f (0, 0) % 0, siendo f (x, y) b 0 si x2 ! y2 a n2. Por lo tan-
to, (0, 0) es un punto de mı́nimo relativo de f. A continuación,
aplicamos 2.12 en A % ⺢2CR(0, 0)S
x cos ∂x2 ! y2
D1 f (x, y) % %0
∂x2 ! y2

44
OPTIMIZACIÓN. CASOS PRÁCTICOS

y cos ∂x2 ! y2
D2 f (x, y) % %0
∂x2 ! y2
En consecuencia, los puntos crı́ticos de f son los que satisfacen

cos ∂x2 ! y2 % 0
esto es, los pertenecientes a las circunferencias Ck, k à ⺞, defini-
das por
(2k ! 1)2n2
E
Ck % (x, y) à ⺢2 : x2 ! y2 %
4 F
Sea (x, y) à Ck uno de estos puntos crı́ticos. Si k es par, entonces
f (x, y) % .1. Como .1 m f (x, y) m 1 para todo (x, y) à ⺢2, es
obvio que los puntos de las circunferencias Ck, con k par, son de
máximo (absoluto), mientras que los de las circunferencias Ck,
con k impar, son de mı́nimo (absoluto).
Intentemos clasificar estos puntos estacionarios de otra mane-
ra: utilizando las derivadas de segundo orden de f . La matriz
hessiana de f en un punto (x, y) à Ck es

A B
(.1)k!1x2 (.1)k!1xy
x2 ! y2 x2 ! y2
H(x, y) %
(.1)k!1xy (.1)k!1y2
x2 ! y2 x2 ! y2

Como det H(x, y) % 0, el segundo criterio de clasificación de for-


mas cuadráticas no decide. Calculemos los autovalores de H(x, y)

A B
(.1)k!1x2 (.1)k!1xy
.j
x2 ! y2 x2 ! y2
det (H(x, y) . jI) % det %
(.1)k!1xy (.1)k!1y2
.j
x2 ! y2 x 2 ! y2

% j(j ! (.1)k)

45
PROGRAMAS DIFERENCIABLES

Luego los autovalores son j % 0, j % (.1)k!1. Aplicando el pri-


mer criterio de clasificación de formas cuadráticas, se deduce que
la forma asociada a la matriz H(x, y) es semidefinida positiva, pe-
ro no definida positiva, si k es impar; mientras que es semidefini-
da negativa, pero no definida negativa, si k es par. La proposición
2.15 nos permite afirmar que los puntos de Ck son puntos de silla
o de mı́nimo relativo cuando k es impar y que son puntos de silla
o de máximo relativo cuando k es par, ¡pero no nos permite pre-
cisar más!
2.5. Determı́nese razonadamente el valor máximo de la fun-
ción
f (x, y, z) % (x2 ! 4y2 ! z2 . 1)2
sobre la esfera maciza
M % R(x, y, z) à ⺢3 : x2 ! y2 ! z2 m 9S
ası́ como el punto o los puntos en que se alcanza.

Solución
La función f es continua en todo ⺢2 y el conjunto M es un
compacto, por lo tanto f alcanza un valor máximo sobre M. El
valor máximo puede alcanzarse en el interior de M o en su fron-
tera. Hallaremos primero los candidatos a máximo relativo de f
en el interior de M y después hallaremos los candidatos a máxi-
mo relativo condicionado de f sobre la superficie esférica S que
es frontera de M, para lo cual resolveremos un programa de ex-
tremos condicionados.
a) Candidatos a máximo relativo de f en
Int (M) % R(x, y, z) à ⺢3 : x2 ! y2 ! z2 a 9S.
Hallamos los puntos crı́ticos de f:
Lf
(x, y, z) % 4x(x2 ! 4y2 ! z2 . 1) % 0
Lx

46
OPTIMIZACIÓN. CASOS PRÁCTICOS

Lf
(x, y, z) % 16y(x2 ! 4y2 ! z2 . 1) % 0
Ly
Lf
(x, y, z) % 4z(x2 ! 4y2 ! z2 . 1) % 0
Lz
y obtenemos el punto (0, 0, 0) y los del elipsoide x2!4y2!z2%1.
En cualquiera de los infinitos puntos de este elipsoide la función
f vale cero, mientras que f (0, 0, 0,) % 1.
b) Candidatos a máximo relativo condicionado por
x 2 ! y2 ! z 2 % 9
Apliquemos el método de los multiplicadores de Lagrange
para determinarlos. Sea
L(x, y, z, j) % (x2 ! 4y2 ! z2 . 1)2 ! j(x2 ! y2 ! z2 . 9)
Los puntos crı́ticos del programa se obtienen de las ecuaciones
LL
% 4x3 ! 16xy2 ! 4xz2 ! 2xj . 4x % 0
Lx
LL
% 64y3 ! 16yz2 ! 16yx2 ! 2yj . 16y % 0
Ly
LL
% 4z3 ! 16y2z ! 4zx2 ! 2zj . 4z % 0
Lz
LL
% x2 ! 4y2 ! z2 . 9 % 0
Lj
De la primera y la última ecuaciones resulta:
x%0 o 6y2 ! j % .16 (I)
De la segunda y la última:
y%0 o 24y2 ! j % .64 (II)
De la tercera y la última:
z%0 o 6y2 ! j % .16 (III)

47
PROGRAMAS DIFERENCIABLES

siendo la última
x2 ! y2 ! z 2 % 9 (IV)
Si se cumple y % 0 en II, entonces por I, III y IV resulta
j % . 16 y se obtienen infinitos puntos crı́ticos de L: los de la
circunferencia (3 cos h, 0, 3 sen h) con h à [0, 2n). Para todos
ellos se verifica f (3 cos h, 0, 3 sen h) % 64.
Si 24y2 ! j % .64 en II, distinguimos, en principio, dos po-
sibilidades:
6y2 ! j Ç .16, lo que implica que x % 0 en I y z % 0 en
III, y por IV se obtienen los puntos crı́ticos (0, 3, 0) y (0, —3, 0),
para j % .280, siendo f (0, 3, 0) % f (0, .3, 0) % 352 %1.225.
6y2 ! j % .16, de donde se obtendrı́a j % 0. Pero esto es
imposible porque en I resultarı́a 0 m 6y2 % .16, lo cual es ab-
surdo, por lo que no se obtienen en este caso puntos crı́ticos.
Como 1.225 es mayor que 64, 1 y 0, el valor máximo de f so-
bre la esfera maciza M es 1.225 y se alcanza en los puntos (0, 3, 0)
y (0, .3, 0).
Nota: obsérvese que no es necesario averiguar si los puntos
crı́ticos (condicionados o no) son de máximo relativo. Como sa-
bemos que existe el máximo absoluto sobre M, éste debe alcan-
zarse en alguno de los puntos candidatos a máximo relativo (con-
dicionados o no).
Además, nótese que los extremos que están en la frontera pue-
den hallarse, en este caso, sin necesidad de utilizar multiplicadores
de Lagrange: basta observar que, para todo punto (x, y, z) à Fr (M)
se tiene f (x, y, z) % (8 ! 3y2)2, por lo que se puede aplicar la teo-
rı́a de las funciones de una variable.
2.6. Compruébese que los puntos de máximo absoluto ha-
llados en el ejercicio 2.5 son puntos de máximo relativo condi-
cionado de la función
f (x, y, z) % (x2 ! 4y2 ! z2 . 1)2
con la condición x2 ! y2 ! z2 % 9.

48
OPTIMIZACIÓN. CASOS PRÁCTICOS

Solución
Consideremos la forma cuadrática h asociada a la lagrangiana
L(x, y, z, j) % (x2 ! 4y2 ! z2 . 1)2 ! j(x2 ! y2 ! z2 . 9)
en un punto (x, y, z, j) arbitrario

AB
h1
h(h1, h2, h3) % (h1, h2, h3)A h2
h3
en donde

A
4(x2!4y2!z2.1)!2j 32xy
A% 32xy 16(x !12y2!z2.1)!2j
2

8xz 32yz

B
8xz
32yz
4(x !4y !3z2.1)!2j
2 2

Los puntos de máximo absoluto hallados en el ejercicio 2.5. son


(0, 3, 0) y (0, .3, 0)
para j % .280, luego

A B
.420 0 0
h(0, u3,0) % 0 1.152 0
0 0 .420
Los vectores (h1, h2, h3) que satisfacen la condición
n
; hi Di g(0, u3,0) % 0,
i %1

en donde g(x, y, z) % x2 ! y2 ! z2 . 9, son los del espacio tangen-


te a la esfera en el punto (0, 3, 0) (respectivamente en (0, .3, 0)).
Por lo tanto, en uno y otro caso, son los vectores de la forma
(h1, 0, h3) con h1, h3 à ⺢. Como

49
PROGRAMAS DIFERENCIABLES

A BA B
.420 0 0 h1
(h1 0 h3) 0 1.152 0 0 %
0 0 .420 h3

A B
.420h1
(h1 0 h3) 0 % .420(h21 ! h23) a 0
.420h3

para (h1, h3) Ç (0, 0), entonces los puntos (0, 3, 0) y (0, .3, 0)
son de máximo relativo estricto condicionado.
2.7. Una fábrica produce cuatro tipos diferentes de un determi-
nado producto. Cada kilogramo que se produce del primer tipo
genera un beneficio de 48 pesetas, cada kilogramo del segundo
tipo 36 pesetas, del tercer tipo 20 pesetas y del cuarto 15 pesetas.
La producción está sujeta a la condición
x21 ! x22 ! x23 ! x24 % 422.500
en donde
x1 n 0, x2 n 0, x3 n 0, x4 n 0

son los kilogramos fabricados diariamente de cada tipo de pro-


ducto.
a) ¿Cuánto debe fabricarse de cada tipo de producto para
que el beneficio diario sea máximo?, ¿cuál serı́a ese beneficio
diario?
b) ¿Cómo se obtiene el beneficio mı́nimo, respetando las
condiciones del problema?

Solución
a) El beneficio diario generado al producir las cantidades
x1, x2, x3, x4 es
f (x1, x2, x3, x4) % 48x1 ! 36x2 ! 20 x3 ! 15x4

50
OPTIMIZACIÓN. CASOS PRÁCTICOS

El conjunto M determinado por las condiciones del problema


M % R(x1, x2, x3, x4) à ⺢4 : x21 ! x22 ! x23 ! x24 %
% 422.500, x1 n 0; x2 n 0, x3 n 0, x4 n 0S
no es una variedad. Sin embargo
S % R(x1, x2, x3, x4) à ⺢4 : x21 ! x22 ! x23 ! x24 % 422.500S
sı́ lo es, estando, obviamente, M contenido en S. Hallemos el má-
ximo de f sobre S y si resulta que el punto en cuestión pertenece
a M, entonces habremos encontrado el máximo de f sobre M.
Tenemos que resolver un programa de extremos condiciona-
dos y lo hacemos por el método de los multiplicadores de La-
grange. Determinemos los puntos crı́ticos de la función
L(x1, x2, x3, x4, j) % 48x1 ! 36x2 ! 20x3 ! 15x4 !
! j(x21 ! x22 ! x23 ! x24 . 422.500)
Derivando respecto de cada variable e igualando a cero, obtene-
mos la ecuaciones
48 ! 2jx1 % 0
36 ! 2jx2 % 0
20 ! 2jx3 % 0
15 ! 2jx4 % 0
x ! x ! x23 ! x24 % 422.500
2
1
2
2

Despejando x1, x2, x3, x4 en función de j, y sustituyendo en la


cuarta ecuación, se tiene
4.225
% 422.500
4j2
1
luego j % u . En consecuencia, existen dos puntos crı́ticos
20
1
j%. , x1 % 480, x2 % 360, x3 % 200, x4 % 150
20

51
PROGRAMAS DIFERENCIABLES

1
j% , x1 % .480, x2 % .360, x3 % .200, x4 % .150
20
En este caso no es necesario aplicar ninguna condición suficiente
de extremo. En efecto, f es una función continua y S es un com-
pacto (cerrado y acotado); por lo tanto f alcanza sobre S un valor
máximo y otro mı́nimo (diferentes porque f no es constante so-
bre S). Como sólo hay dos posibles puntos de extremo, necesaria-
mente uno es de máximo y otro de mı́nimo. Evaluando f en estos
puntos obtenemos
f (480, 360, 200, 150) % 42.250
f (.480, .360, .200, .150) % .42.250
Por lo tanto, el valor máximo de f sobre S se alcanza en el punto
(480, 360, 200, 150). Como este punto pertenece a M, entonces el
valor máximo de f sobre M se alcanza ahı́. En conclusión, el be-
neficio máximo, que es de 42.250 pesetas diarias, se obtiene fa-
bricando 480 kilogramos del primer tipo de producto, 360 kilo-
gramos del segundo, 200 del tercero y 150 del cuarto. Nótese que
la programación óptima de la producción consiste en fabricar
cantidades de cada tipo proporcionales al beneficio por kilogra-
mo que generan.
b) El punto de mı́nimo hallado en el apartado anterior no
pertenece a M, esto es, no satisface las condiciones del problema
(significarı́a producir cantidades negativas). Intuitivamente pare-
ce claro que el beneficio mı́nimo se obtiene fabricando única-
mente cantidades del tipo de producto que menos beneficio pro-
porciona, esto es,
x1 % 0, x2 % 0, x3 % 0, x4 % 650
Comprobemos que es ası́. Para cualquier posible solución x1, x2,
x3, x4 se tiene
(650)2 % x21 ! x22 ! x23 ! x24 m (x1 ! x2 ! x3 ! x4)2
luego
650 m x1 ! x2 ! x3 ! x4

52
OPTIMIZACIÓN. CASOS PRÁCTICOS

Por lo tanto
f (x1, x2, x3, x4) % 48x1 ! 36x2 ! 20x3 ! 15x4 n
n 15x1 ! 15x2 ! 15x3 ! 15x4 n 15 · 650 % f (0, 0, 0, 650)
Nota: Obsérvese que no es cierto que el beneficio máximo se
obtenga fabricando únicamente cantidades del tipo de producto
que más beneficio proporciona, esto es, x1 % 650, x2 % 0, x3 % 0,
x4 % 0. En efecto
f (650, 0, 0, 0) % 31.200 m 42.250 % f (480, 360, 200, 150)
2.8. Sea f una función real de clase uno en un abierto con-
vexo A de ⺢n en donde posee un único punto a de óptimo relativo.
Razónese si son verdaderas o falsas las siguientes proposiciones:
a) Si n % 1, entonces a es necesariamente un punto de ópti-
mo absoluto de f en A.
b) Si n % 2, entonces a es necesariamente un punto de ópti-
mo absoluto de f en A.
c) Si n % 2 y f no tiene ningún otro punto crı́tico, entonces
a es necesariamente un punto de óptimo absoluto de f en A.

Solución
a) Es verdadera. En efecto, supongamos que a es un punto
de mı́nimo relativo (el razonamiento serı́a idéntico si fuera de
máximo relativo), pero que no es de mı́nimo absoluto. Por la con-
tinuidad de f, existirı́a un b à A, b Ç a tal que f (b) % f (a). Por
ser f continua en el intervalo cerrado I (compacto) de extremos
a y b, alcanza en algún punto c de I su máximo absoluto sobre I.
Si, f (c) % f (a), entonces f es constante en algún intervalo [a,
a ! e] Ü I, siendo todos los puntos de [a, a ! e] de extremo rela-
tivo, en contra de la hipótesis. Si f (c) b f (a), entonces c es un
punto de máximo relativo de f en A, de nuevo en contra de la
hipótesis.
b) Es falsa. Considérese como contraejemplo A % ⺢2 y la
aplicación f : A r ⺢ definida por f (x, y) % x3 ! 3x2 ! y2. Se tiene

53
PROGRAMAS DIFERENCIABLES

Lf
(x, y) % 3x2 ! 6x
Lx

Lf
(x, y) % 2y
Ly

Por lo tanto, los puntos crı́ticos de f son (0, 0) y (.2, 0). La ma-
triz hessiana en un punto genérico (x, y) es

A B
6x ! 6 0
Hf (x, y) %
0 2
luego

A B
6 0
Hf (0, 0) % ; 6 b 0, det (Hf (0, 0,)) % 12 b 0
0 2

A B
.6 0
Hf (.2, 0) % ; .6 a 0, det (Hf (.2, 0)) % .12
0 2

Por lo tanto, (.2, 0) es un punto de silla y (0, 0) es un punto de


mı́nimo relativo, el único extremo relativo de f. Sin embar-
go, (0, 0) no es punto de mı́nimo absoluto pues, por ejemplo,
f (.4, 0) % .16 a 0 % f (0, 0).
c) Es verdadera. Razonémoslo suponiendo que a%(a1, a2)%
% (0, 0) es un punto de mı́nimo relativo y que f (0, 0) % 0, pues
si no fuera ası́ podrı́amos sustituir f por la función

g(x, y) % u( f (x ! a1, y ! a2) . f (a1, a2)).

Para cada k à ⺢, si la curva de nivel

Ck % R(x, y) à A : f (x, y) % kS

no es vacı́a ni posee puntos crı́ticos de f, entonces, en virtud del


teorema de la función implı́cita, está formado por una o varias
curvas simples disjuntas. Por ser (0, 0) el único punto de mı́nimo
relativo de f, para valores positivos de k suficientemente próxi-

54
OPTIMIZACIÓN. CASOS PRÁCTICOS

mos a 0 la curva de nivel Ck contiene una curva cerrada simple


que acota una región Dk que contiene al punto (0, 0) y en la que
0 m f (x, y) a k. Sean k0 el supremo de los k que cumplen lo an-
terior y B la unión de todas las regiones Dk con 0 a k a k0.
Si fuera B Ç A, puesto que f es continua en cualquier punto
(x0, y0) de la frontera de B, se tendrı́a

lim f (x, y) % f (x0, y0)


(x, y)r(x0, y0)

lo que implica que f (x0, y0) % k0 a ä. Ahora bien, la curva de


nivel Ck0, que no serı́a por tanto vacı́a, no puede estar formada
por curvas simples, ya que si lo estuviera, para algunos k b k0
cercanos a k0, las curvas de nivel Ck contendrı́an el mismo núme-
ro de curvas simples rodeando a (0, 0) que con lo que k0 no serı́a
el supremo. Pero si Ck0 no está formado por curvas simples, es
porque existe un punto crı́tico de f en una de las curvas de Ck0,
lo cual no ocurre según la hipótesis del enunciado. En consecuen-
cia, no puede ser B Ç A.
Finalmente, por ser B % A, entonces para todo (x, y) de A se
tiene 0 m f (x, y), por lo que f alcanza en (0,0) su valor mı́nimo
absoluto, que es f (0, 0) % 0.

2.9. Al girar la circunferencia

(y . 2)2 ! z2 % 1; x%0

alrededor del eje Oz, se engendra una superficie T, denominada


toro

T % R((2 ! cos h) sen m, (2 ! cos h) cos m, sen h) : h, m à ⺢S

Hállense, sin utilizar multiplicadores de Lagrange, los extremos


absolutos de la función

f (x, y, z) % x2 ! y2 ! z2 . 2x . 2 ∂3y

sobre el toro T.

55
PROGRAMAS DIFERENCIABLES

Solución

Los valores máximo y mı́nimo de f sobre T, son los mismos


que los de la función

h(h, m) % f ((2 ! cos h) sen m, (2 ! cos h) cos m, sen h)

sobre ⺢2. Por otra parte, f es continua y T es un compacto, luego,


según 1.10, f alcanza en T valores extremos, y por lo tanto, tam-
bién los alcanza h en ⺢2.
Aplicamos 2.12 a la función h

h(h, m) % (2 ! cos h)2 ! sen2 h . 2(2 ! cos h) sen m .

. 2 ∂3(2 ! cos h) cos f

Derivando y simplificando

Lh
(h, m) % 2(sen m ! ∂3 cos m . 2) sen h
Lh

Lh
(h, m) % .(2 ! 2 cos h)(cos m . ∂3 sen m)
Lm

Lh 1
Claramente (h, m) es igual a cero si y sólo si tg m % , en
Lm ∂3
Lh
cuyo caso, para que se anule (h, m) se debe cumplir: o bien
Lh
1
sen h % 0 o bien sen m % .
2
En consecuencia, los puntos crı́ticos de h son los de la forma
7n
A B A B
n
h, ! 2kn con h à ⺢ y k à ⺪; y también nn, ! 2mn con
6 6
n, m à ⺪.

56
OPTIMIZACIÓN. CASOS PRÁCTICOS

Ahora bien

1 1
A B A B
n
h h, ! 2kn % 1 ! cos h, ∂3 ! ∂3 cos h, sen h
6 2 2

A B
n
h h, ! 2kn % .3
6

para cualesquiera h à ⺢ y k à ⺪; mientras que

7n 1 1
A
h nn,
6 B A
! 2mn % .1 . (.1)n, .∂3 . ∂3(.1)n, 0
2 2 B
7n
A
h nn,
6 B
! 2mn % 13 ! 8(.1)n

para cualesquiera n, m à ⺪.
Se ha probado ya que f alcanza en ⺢2 sus valores máximo y
mı́nimo absolutos. Como estos valores sólo pueden alcanzarse en
puntos crı́ticos, resulta que el valor máximo de h es 21 y se al-
7n
A B
canza en los puntos nn, ! 2mn con n par y m un entero ar-
6
bitrario. Por la misma razón, el valor mı́nimo es .3 y se alcanza

A B
n
en los puntos h, ! 2kn con h à ⺢ y k à ⺪.
6
Finalmente, el valor máximo de f sobre T es 21 y se alcanza
3 3∂3
únicamente en el punto . , .
A 2 2 B
, 0 . El valor mı́nimo de
f sobre T es .3 y se alcanza en los puntos de la curva

1
EA B F
∂3
1 ! cos h, ∂3 ! cos h, sen h : h à [0,2n]
2 2

que es una circunferencia de radio 1, contenida en el plano


y % ∂3x y con centro en el punto (1, ∂3, 0).

57
PROGRAMAS DIFERENCIABLES

2.10. La ecuación implı́cita del toro T engendrado al girar la


circunferencia
(y . 2)2 ! z2 % 1; x%0
alrededor del eje Oz es
(x2 ! y2 ! z2 ! 3)2 % 16x2 ! 16y2
Hállense, utilizando multiplicadores de Lagrange, los extremos
absolutos de la función

f (x, y, z) % x2 ! y2 ! z2 . 2x . 2 ∂3y
sobre el toro T.

Solución
Sea g : ⺢3 r ⺢ definida por
g(x, y, z) % (x2 ! y2 ! z2 ! 3)2 . 16x2 . 16y2
de manera que
T % R(x, y, z) à ⺢3 : g(x, y, z) % 0S
Comprobemos que se cumplen las condiciones de 2.18. La matriz
jacobiana de g
gñ(x, y, z) % (4(x2 ! y2 ! z2 ! 3)x . 32x
4(x2 ! y2 ! z2 ! 3)y . 32y 4(x2 ! y2 ! z2 ! 3)z)
tiene rango distinto de 1 si y sólo si es nulo, esto es, si
4(x2 ! y2 ! z2 ! 3)x . 32x % 0
4(x2 ! y2 ! z2 ! 3)y . 32y % 0
4(x2 ! y2 ! z2 ! 3)z % 0
Las soluciones de este sistema son el punto (0, 0, 0) y los de la
circunferencia
x2 ! y2 % 5; z%0

58
OPTIMIZACIÓN. CASOS PRÁCTICOS

Ninguno de ellos pertenece al toro T, luego el rango de la matriz


jacobiana gñ es 1 en todos los puntos de T.
Si (x, y, z) es un punto de óptimo local de f sobre T, entonces
el 2.18 de los multiplicadores de Lagrange garantiza la existencia
de un número j à ⺢ tal que
Mf (x, y, z) ! jMg(x, y, z) % 0
Operando

Mf (x, y, z) % (2x . 2,2y . 2 ∂3, 2z)


Mg(x, y, z) % (4x(x2 ! y2 ! z2) . 32x, 4y(x2 ! y2 ! z2) . 32y,
4z(x2 ! y2 ! z2))
Obteniéndose ası́ el sistema
x . 1 ! 2jx(x2 ! y2 ! z2 . 5) %0 (1)
y . ∂3 ! 2jy(x2 ! y2 ! z2 . 5) % 0 (2)
z ! 2jz(x ! y ! z ! 3) % 0
2 2 2
(3)
(x ! y ! z ! 3) . 16x . 16x . 16y % 0
2 2 2 2 2 2 2
(4)

Multiplicando la primera ecuación por ∂3 y restando la segunda,


resulta

(1 ! 2j(x2 ! y2 ! z2 . 5))(∂3x . y) % 0 (2ñ)


Por otra parte, de la tercera ecuación se deduce que
z%0 o (1 ! 2j(x2 ! y2 ! z2 ! 3)) % 0
Supongamos que z % 0. De (4) se obtiene que x2 ! y2 es
igual a 9 o a 1. En el primer caso, de (1) y (2ñ) resulta
(1 ! 8j)x % 1
(1 ! 8j)(∂3x . y) %0

luego ∂3x . y % 0, lo que implica que 9 % x2 ! y2 % 4x2. Por


3
lo tanto, x % u y obtenemos dos puntos crı́ticos condicionados
2

59
PROGRAMAS DIFERENCIABLES

3 3 ∂3 3 3 ∂3 1 5
A 2
,
2 B A
, 0 y . ,
respectivamente.
2 2 B
, 0 , para j % .
24
y j%.
24

En el segundo caso, esto es, si x2 ! y2 % 1, de (1) y (2ñ) resulta

(1 . 8j)x % 1

(1 . 8j)(∂3x . y) % 0

luego ∂3x . y % 0, lo que implica que 1 % x2 ! y2 % 4x2. Por


1
lo tanto, x % u y obtenemos otros dos puntos crı́ticos condicio-
2
1 ∂3 1 1 3
A B A B
∂3
nados , ,0 y . ,. , 0 , para j % . y j %
2 2 2 2 8 8
respectivamente.
Supongamos ahora que 1 ! 2j(x2 ! y2 ! z2 ! 3) % 0. Cla-
ramente j Ç 0, luego

16j ! 1
x2 ! y2 ! z2 . 5 % .
2j

y entonces de (2ñ) resulta

16j(∂3x . y) % 0

De nuevo se obtiene en este caso ∂3x . y % 0 y la ecuación (1)


queda
16j ! 1
x . 1 ! 2jx
A 2j B
%0

.1 .∂3
esto es x % , y% . Despejando z obtenemos los puntos
16j 16j
crı́ticos condicionados

.1 .∂3 ∂.192j2 . 32j . 1


x% , y% , z%u
16j 16j 8j

60
OPTIMIZACIÓN. CASOS PRÁCTICOS

en donde j verifica
1 1
. mjm.
8 24
Esta inecuación equivale a
1
.1 m .2 . m1
8j
por lo que podemos cambiar a un parámetro más cómodo h defi-
nido mediante
1
cos h % .2 . , h à [0, n]
8j
Operando
.1 1
% 1 ! cos h
16j 2

.∂3 ∂3
% ∂3 ! cos h
16j 2

∂.192j2 . 32j . 1
% sen h
8j
Por lo tanto, todos los puntos de la curva

1
EA B F
∂3
1 ! cos h, ∂3 ! cos h, sen h : 0 m h m 2n
2 2
son puntos crı́ticos condicionados.
Nótese que 0 m h m 2n, debido al u de la expresión

∂.192j2 . 32j . 1
z%u .
8j

1 ∂3 3 3 ∂3
Obsérvese también que los puntos
A
obtenidos antes, están en esta curva.
,
2 2
,0 y
B A
2
,
2 B
,0 ,

61
PROGRAMAS DIFERENCIABLES

Evaluando la función f en los puntos crı́ticos condicionados


se tiene
3 3 ∂3
A
f . ,.
2 2 B
, 0 % 21

1
A B
∂3
f . ,. , 0 %5
2 2

1
A B
∂3
f 1 ! cos h, ∂3 ! cos h, sen h % .3
2 2

Finalmente, por ser f continua y T compacto, existen los extre-


mos absolutos de f sobre T, que sólo pueden alcanzarse en algún
punto crı́tico. En consecuencia, al valor máximo de f sobre T es
3 3 ∂3
A
21 y se alcanza únicamente en . , .
2 2 B
, 0 . Ası́ mismo,
el valor mı́nimo de f sobre T es .3 y se alcanza en los punto de
la curva

1
EA B F
∂3
1 ! cos h, ∂3 ! cos h, sen h : 0 m h m 2n
2 2

que es una circunferencia de radio 1, contenida en el plano


∂3x . y % 0 y con centro en el punto (1, ∂3, 0).
2.11. Se quiere construir una caja de cartón, que tenga un
volumen de 1 m3, de manera que la superficie total de sus seis ca-
ras sea lo menor posible. Calcúlense las dimensiones de la caja.

Solución

Sean x, y, z las medidas de la caja, de manera que xyz % 1.


Debemos considerar el programa

Min f (x, y, z) % 2xy ! 2xz ! 2yz


xyz % 1, x b 0, y b 0, z b 0

62
OPTIMIZACIÓN. CASOS PRÁCTICOS

En este caso, lo más práctico es despejar z en la condición para


obtener el programa
2 2
Min g(x, y) % 2xy ! !
y x
x b 0, y b 0
Derivando:
Lg 2
(x, y) % 2y . 2
Lx x
Lg 2
(x, y) % 2x . 2
Ly y
En consecuencia, los puntos crı́ticos (x, y) verifican
2
2y . %0 y.x%0
x2 x%1
á á
2 1 y%1
2x . 2 % 0 x. 2%0
y x
El único punto crı́tico es (1, 1). Clasifiquémoslo: la matriz hes-
siana de g en un punto arbitrario (x, y) es

A B
4
2
x3
Hg(x, y) %
4
2
y3
luego, particularizando

A B
4 2
Hg(1, 1) %
2 4
Como esta matriz corresponde a un forma cuadrática definida po-
sitiva, pues
4b0
det (Hg(1, 1)) % 12 b 0

63
PROGRAMAS DIFERENCIABLES

el punto (1, 1) es de mı́nimo relativo. Por otra parte, g no tiene


más puntos crı́ticos que (1, 1), por lo que, aplicando el apartado
c) del ejercicio 2.8., se concluye que (1, 1) es un punto de mı́ni-
mo absoluto.
En consecuencia, las dimensiones requeridas son x%y%z%1
obteniéndose, como cabı́a esperar un cubo.
Nota: obsérvese que la comprobación de que (1, 1) es un pun-
to de mı́nimo absoluto es bastante complicada, si no se utiliza el
problema 2.8.
2.12. Sea g : ⺢3 r ⺢ definida por
g(x, y, z) % x4 ! y4 ! z4 ! 2z2y2 ! 2x2y2 ! 2x2z2 . 10x2 .
. 10y2 ! 6z2 ! 9
a) Hállense los puntos de ⺢3 donde se anula el rango de la
matriz jacobiana de g.
b) Compruébese que el rango de la matriz jacobiana de g es
uno en todos los puntos de la superficie
M % R(x, y, z) à ⺢3 : g(x, y, z) % 0S
c) Demuéstrese que M es compacta.
d) Plantéese un programa de mı́nimos condicionados de La-
grange para hallar los puntos de M que minimizan la distancia a
la recta x % 0, y % 0. Halle sus puntos crı́ticos condicionados.
e) Determine, justificadamente, entre los puntos del aparta-
do anterior, cuáles son de mı́nimo relativo condicionado y halle
los puntos de M que minimizan la distancia a la recta x % 0,
y % 0, ası́ como esa distancia mı́nima.

Solución
a) Estudiemos dónde se anula el rango de la matriz jacobia-
na de g
gñ(x, y, z) %
%(4x3!4xy2!4xz2.20x 4y3!4z2y!4x2y.20y 4z3!4zy2!4x2z!12z)

64
OPTIMIZACIÓN. CASOS PRÁCTICOS

esto, es, resolvamos el sistema


4x3 ! 4xy2 ! 4xz2 . 20x % 0
4y3 ! 4z2y ! 4x2y . 20y % 0
4z3 ! 4zy2 ! 4x2z ! 12z % 0
Una solución evidente es x % 0, y % 0, z % 0. Si z Ç 0, entonces
la tercera ecuación carece de soluciones. Supongamos que z % 0.
Si x o y son no nulas, entonces de la primera o de la segunda
ecuaciones se obtiene x2 ! y2 % 5. En consecuencia, la matriz ja-
cobiana de g tiene rango cero únicamente en el origen y en los
puntos de la circunferencia x2 ! y2 % 5, z % 0.
b) Ninguno de estos puntos pertenece al conjunto factible
M, pues

g(∂5 cos t, ∂5 sen t, 0) % 25(cos2 t ! sen2 t)2 . 41 % .16 Ç 0


Por lo tanto, en todos los puntos de M la matriz jacobiana de g
tiene rango 1.
c) M es cerrada porque g es continua y M % g.1(0), siendo
R0S un cerrado. Comprobemos que M es acotada observando que
está contenida en la bola de centro el origen y radio ∂10. En
efecto, si x2 ! y2 ! z2 b 10, entonces
g(x, y, z) % (x2 . 10)x2 ! (y2 . 10)y2 ! z4 ! 2z2y2 ! 2x2y2 !
! 2z2x2 ! 6z2 ! 9 b (.y2 . z2)x2 ! (.x2 . z2)y2 !
! z4 ! 2z2y2 ! 2z2x2 ! 6z2 ! 9 %
% x2z2 ! y2z2 ! z4 ! 6z2 ! 9 b 0

En consecuencia M Ñ B((0, 0, 0), ∂10).


d) La función que da la distancia al cuadrado de un punto
(x, y, z) a la recta x % 0, y % 0 es f (x, y, z) % x2 ! y2. Según lo
visto en el apartado b), podemos aplicar el método de los multipli-
cadores de Lagrange (2.18). Si f tiene un óptimo local sobre un
cierto punto (x, y, z) de M, entonces debe existir un j à ⺢ tal que
Mf (x, y, z) ! jMg(x, y, z) % 0

65
PROGRAMAS DIFERENCIABLES

esto es, (x, y, z, j) debe ser solución del sistema

2x ! j(4x3 ! 4xy2 ! 4xz2 . 20x) % 0


2y ! j(4y3 ! 4z2y ! 4x2y . 20y) %0
j(4z3 ! 4zy2 ! 4x2z ! 12z) % 0
g(x, y, z) % 0

Observemos, en primer lugar, que si z Ç 0, entonces de la tercera


ecuación se sigue j % 0, y en consecuencia, de la primera y la se-
gunda, x % 0, y % 0; pero la cuarta ecuación no tiene soluciones
para x % 0, y % 0 pues g(0, 0, z) % z4 ! 6z2 ! 9 b 0. Por lo tan-
to, debe ser z % 0. Como

g(x, y, 0) % x4 ! y4 ! 2x2y2 . 10x2 . 10y2 ! 9 %


% (x2 . 1 ! y2) (x2 . 9 ! y2)

el sistema queda ası́

2x ! 4jx(x2 ! y2 . 5) % 0
2y ! 4jy(x2 ! y2 . 5) % 0
(x2 ! y2 . 1)(x2 ! y2 . 9) % 0

Si x2 ! y2 % 1, entonces x2 ! y2 . 5 % .4 siendo x o y no nu-


1
los, luego j % . De manera que todos los puntos de la circunfe-
8
rencia C1 definida por x2 ! y2 % 1, z % 0 son puntos crı́ticos con-
dicionados.
Análogamente, si x2 ! y2 % 9, entonces x2 ! y2 . 5 % 4
1
siendo x o y no nulos, por lo tanto j % . . De manera que todos
8
los puntos de la circunferencia C2 definida por

x2 ! y2 % 9, z % 0

son puntos crı́ticos condicionados.

66
OPTIMIZACIÓN. CASOS PRÁCTICOS

e) No es necesario en este caso aplicar condiciones sufi-


cientes, pues podemos comprobar lo siguiente:
f es continua en todo ⺢3.
Para todo (x, y, z) à C1 se tiene f (x, y, z) % 1.
Para todo (x, y, z) à C2 se tiene f (x, y, z) % 9.
Como f debe alcanzar sobre M un valor máximo y un valor
mı́nimo absolutos y los únicos puntos donde puede ocurrir esto
son los de las circunferencias C1 y C2, entonces en todos los pun-
tos de C2 se alcanza el valor máximo, que es 9, y en todos los de
C1, el mı́nimo, que es 1.
En consecuencia, los puntos de la superficie M cuya distancia
a la recta x % 0, y % 0 es mı́nima son los de la circunferencia C1,
siendo esa distancia 1.
2.13. Considérese la función f :A r ⺢ definida por
1 1 1
f (x, y) % ! 2! ,
x 2
y xy
en donde
A % R(x, y) à ⺢2 : 2xy b 1S.
a) Hállense los extremos relativos de f.
b) Aplı́quese el Teorema de los Multiplicadores de Lagran-
ge para hallar los candidatos a extremos relativos de f condicio-
nados por la restricción x2 !y2 % 2x3y3.
c) Clasifı́quense los puntos crı́ticos condicionados obteni-
dos en el apartado anterior.
d) Razónese la existencia de extremos absolutos de f sujeta
x ! y2 % 2x3y3.
2

e) Hállense los extremos absolutos de f sujeta a la restric-


ción x2 ! y2 % 2x3y3.
Solución
a) La función f es de clase infinito en A, pues está formada
por sumas de cocientes de polinomios que no se anulan en A. Los
puntos crı́ticos (x, y) de f en A deben satisfacer

67
PROGRAMAS DIFERENCIABLES

D1 f (x, y) % 0
D2 f (x, y) % 0
En nuestro caso
2 1
. . %0 á 2y ! x % 0
x3 x2y
2 1
. . 2 %0 á 2x ! y % 0
y 3
yx
Como este sistema no tiene soluciones en A, entonces f no posee
puntos crı́ticos. En consecuencia, f no posee extremos relativos.
b) Observemos en primer lugar que el conjunto
M % R(x, y) à ⺢2 : x2 ! y2 . 2x3y3 % 0S
está contenido en A. En efecto, si (x, y) à M, es claro que xy n 0,
luego
0 m (x . y)2 % x2 ! y2 . 2xy % 2x3y3 . 2xy %
% 2xy(x2y2 . 1) % 2xy(xy ! 1)(xy . 1)
por lo que, de hecho, se tiene xy n 1 b 1/2.
Consideremos la lagrangiana L(x, y, j) % f (x, y) ! jg(x, y)
en donde
g(x, y) % x2 ! y2 . 2x3y3
esto es
1 1 1
L(x, y, j) % ! 2 ! ! j(x2 ! y2 . 2x3y3)
x 2
y xy
La matriz jacobiana de g en (x, y) es
(2x . 6x2y3 2y . 6x3y2)
siendo su rango igual a 1, excepto si (x, y) es tal que
2x . 6x2y3 % 0
2y . 6x3y2 % 0

68
OPTIMIZACIÓN. CASOS PRÁCTICOS

Como la única solución de esta ecuación es (0, 0), que no perte-


nece a A, entonces el rango de la matriz jacobiana de g es 1 en
todo A.
Aplicando el Teorema de los Multiplicadores de Lagrange se
obtiene el sistema

L 2 1
L(x, y, z) % . 3 . 2 ! j(2x . 6x2y3) % 0
Lx x xy

L 2 1
L(x, y, z) % . 3 . 2 ! j(2y . 6y2x3) % 0
Ly y yx

L
L(x, y, j) % x2 ! y2 . 2x3y3 % 0
Lj

que tiene exactamente dos soluciones:

x % 1, y % 1, j % .3/4
x % .1, y % .1, j % .3/4

c) Consideremos, para j % .3/4, la forma cuadrática

h(h1, h2) % D11L(x, y)h21 ! 2D12L(x, y)h1h2 ! D22L(x, y)h22 %


6 2 3 1 27
%
A x4
xy 2 B xy A
! 3 . ! 9y3x h21 ! 2 2 2 ! x2y2 h1h2 !
2 B
6 2 3
!
A ! . ! 9x3y h22
y4 xy3 2 B
en el punto (x, y) % (1, 1) resulta

h(h1, h2) % (31/2)h21 ! 29h1h2 ! (31/2)h22

Los vectores (h1, h2) del espacio tangente a la variedad son los
que verifican

h1D1g(1, 1) ! h2D2g(1, 1) % 0

69
PROGRAMAS DIFERENCIABLES

esto es, h2 % .h2. Para estos vectores h(h1, .h1) % 2h21 b 0, por
lo que (1, 1) es un punto de mı́nimo relativo condicionado, en el
que f (1, 1) % 3.
Análogamente, en (.1, .1) se tiene
h(h1, h2) % (31/2)h21 ! 29h1h2 ! (31/2)h22
Siendo el espacio tangente el mismo que en (1, 1).
En consecuencia h(h1, .h1) % 2h21 b 0 y el punto (.1, .1)
es de mı́nimo relativo condicionado, con f (.1, .1) % 3.
d) El conjunto M no es compacto, por lo que no se puede
aplicar el Teorema 1.10 de Weierstrass. Ahora bien, en M se tie-
ne
1 1 1 x2 ! y2 ! xy 2x3y3 ! xy 1
f (x, y) % ! ! % % % 2xy !
x 2
y2
xy xy
2 2
xy
2 2
xy
siendo xy n 1, luego
1 2x2y2 . 3xy ! 1
f (x, y) . f (1, 1) % 2xy ! .3% %
xy xy
1

%
A
2(xy . 1) xy .
B
2
n0
xy
En consecuencia
f (1, 1) % f (.1, .1) m f (x, y)
para todo (x, y) à M.
e) Según se ha visto en d), el valor mı́nimo absoluto condi-
cionado es 3 y se alcanza en (1, 1) y en (.1, .1). Si f tuviera
algún máximo relativo condicionado, tendrı́a que ser uno de los
puntos crı́ticos hallados en b). Como los dos son mı́nimos, enton-
ces f no posee máximos relativos condicionados ni, por lo tanto,
máximo absoluto condicionado.

70
CAPÍTULO 3
PROGRAMAS DIFERENCIABLES
CON RESTRICCIONES DE DESIGUALDAD

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Se considera el programa P siguiente:

E
Optimizar f (x)
(P) sujeto a g(x) m 0
h(x) % 0

en donde A Ñ ⺢n es abierto, f : A r ⺢,
g % (g1, g2, ..., gm) : A r ⺢m
h % (h1, h2, ..., hp) : A r ⺢p
y f, g y h son continuamente diferenciables en A. Si se expresan
las restricciones por medio de las componentes de g y h, el pro-
grama P se puede escribir en la siguiente forma:

71
OPTIMIZACIÓN. CASOS PRÁCTICOS

E
Optimizar f (x)
sujeto a g1(x) m 0
ñ
(P) gm(x) m 0
h1(x) % 0
ñ
hp(x) % 0

de modo que el conjunto factible viene dado por:


M % Rx à A : g1(x) m 0, ..., gm(x) m 0; h1(x) % 0, ..., hp(x) % 0S
Cada restricción de igualdad (hj(x) % 0) se puede expresar por
medio de dos restricciones de desigualdad hj(x) m 0, .hj(x) m 0
y para simplificar el enunciado de las proposiciones, se tratan se-
paradamente los problemas de mı́nimo y los de máximo, es decir,
se consideran los dos problemas siguientes:

E E
Min f (x) Min f (x)
sujeto a g1(x) m 0 sujeto a g1(x) m 0
(PMin) (PMax)
ñ ñ
gm(x) m 0 gm(x) m 0

Saturación, direcciones factibles y cualificación


de restricciones

3.1. Se dice que un punto a à M satura la restricción gi , o


que la restricciónes saturada o activa en a, si se verifica que
gi(a) % 0. En caso contrario, se dice que a no satura la restricción
gi o que gi es no saturada o no activa en a.
En todo lo que sigue se denota por I % R1, 2, ..., mS el conjun-
to de ı́ndices de las restricciones, por Ia % Ri à I: a satura giS y por
I1a % Ri à I: a no satura gi S..
Para introducir la definición de dirección factible en el punto
a à M, sea (xk), con xk à M, una sucesión convergente al punto a
y consideremos, para cada k, el vector vk à ⺢n de norma fija y de

72
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

la misma dirección y sentido que xk . a; es claro que existe una


sucesión de números reales positivosconvergente a cero y tal que
xk . a % dkvk, O k % 1, 2, ...

3.2. En las condiciones anteriores, se dice que v es una di-


rección factible o admisible en el punto a, si existe una sucesión
(vk) convergente a v. Se denota por T (a) el conjunto de direccio-
nes factibles en a.
Consideremos, para cualquiera de los programas PMin o PMax
y el punto a, el conjunto G(a) definido por:
G(a) % Rv à ⺢n : Mgi(a) · v m 0, O i à IaS

3.3. Dado a à M, se verifica que T (a) Ñ G(a). Sin embargo


no se cumple el contenido recı́proco.
3.4. Se dice que a à M verifica las condiciones de cualifica-
ción QC si clT (a) % G(a).
3.5. Para que se verifiquen las condiciones de cualificación
QC en cada punto de M, es suficiente que se cumpla la condición
a o la b.
a) Todas las gi son lineales (Karlin 1959).
b) M es de interior no vacı́o y todas las gi son convexas
(Slater 1950).
Para que QC se verifique en un punto a à M, es suficiente que
se cumpla que
c) los gradientes Mgi(a) de las restricciones saturadas en a
sean linealmente independientes (Fiacco-McCormick, 1968).

Condición necesaria de óptimo local

3.6. Teorema de Kuhn-Tucker


Si a à M es un óptimo local del programa PMin (resp PMax), y
en a se cumplen las condiciones QC de cualificación, entonces
existen j1, j2, ..., jm à ⺢ tales que:

73
OPTIMIZACIÓN. CASOS PRÁCTICOS

a) Mf (a) ! j1Mg1(a) ! ñ ! jmMgm(a) % 0


b) j1, j2, ..., jm n 0 (resp. j1, j2, ..., jm m 0)
c) ji gi(a) % 0, i % 1, 2, ..., m.
Teniendo en cuenta 3.5, se pueden enunciar tres consecuen-
cias inmediatas o corolarios de este teorema sustituyendo en las
hipótesis el requerimiento de que a cumpla las condiciones QC
por una cualquiera de las condiciones suficientes para que se
cumplan. Si se consideran las de Fiacco-McCormick, y se intro-
duce el concepto de punto regular como cualquier punto en el
cual los gradientes de las restricciones saturadas son linealmente
independientes, se tiene el siguiente corolario del teorema de
Kuhn-Tucker.
3.7. Si a à M es un óptimo local y un punto regular del pro-
grama PMin (resp. PMax), entonces existen j1, j2, ..., jm à ⺢ tales
que:
a) Mf (a) ! j1Mg1(a) ! j2Mg2(a) ! ñ ! jmMgm(a) % 0
b) j1, j2, ..., jm n 0 (resp. j1, j2, ..., jm m 0)
c) ji gi(a) % 0, i % 1, 2, ..., m.

Extensión a programas con restricciones


de igualdad y desigualdad

Se consideran el conjunto factible


M % Rx à A : g1(x) m 0, ..., gm(x) m 0; h1(x) % 0, ..., hp(x) % 0S
y los programas siguientes

E E
Optimizar f (x) Optimizar f (x)
sujeto a g1(x) m 0 sujeto a g1(x) m 0
ñ ñ
(PñMin) gm(x) m 0 (PñMax) gm(x) m 0
h1(x) % 0 h1(x) % 0
ñ ñ
hp(x) % 0 hp(x) % 0

74
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

En este caso, toda dirección factible en a pertenece al conjunto


siguiente
G1(a) %
% Rv à ⺢n : Mgi(a) · v m 0, O i à Ia ; Mhj(a) · v % 0, O j % 1, 2, ..., pS
mientras que no se cumple el contenido recı́proco. Se dice que se
cumplen las condiciones de cualificación si cl T (a) % G1(a).
3.8. Si a à M es un óptimo local del programa PñMin (resp.
PñMax), y en a se cumplen las condiciones de cualificación, enton-
ces existen j1, j2, ..., jm, k1, k2, ..., kp à ⺢ tales que:
m p
a) Mf (a) ! ; jiMgi(a) ! ; kjMhj(a) % 0
i%1 j%1

b) j1, j2, ..., jm n 0 (resp. j1, j2, ..., jm m 0)


c) ji gi(a) % 0, i % 1, 2, ..., m.
En la práctica, las condiciones de cualificación no son fáciles
de comprobar y se han estudiado diferentes condiciones suficien-
tes para que se cumplan. Dos de estas condiciones son las si-
guientes:
(a) Las funciones gi son convexas, las funciones hj son li-
neales y existe un elemento b de M tal que gi(b) a 0 para todo i.
(b) Los gradientes Mgi(a), O i à Ia y Mhj(a), O j % 1, 2, ..., p
son linealmente independientes.
Nótese que, en 3.8, las kj no presentan restricción en signo, y
que si se consideran sólo restricciones de igualdad, este teorema
da como caso particular la regla de multiplicadores de Lagrange.

Aplicación práctica de las condiciones de Kuhn-Tucker

3.9. En la práctica, la condición (b) de 3.6 sólo sirve para


comprobaciones. De la aplicación de la condición (a) se obtiene
un sistema de n ecuaciones con n ! m incógnitas (x1, ..., xn,
j1, ..., jm) que se completa con la condición (c) para obtener el si-
guiente sistema de n ! m ecuaciones con n ! m incógnitas:

75
OPTIMIZACIÓN. CASOS PRÁCTICOS

F
Dk f (a)!j1Dkg1(a)!j2(a)!ñ!jmDkgm(a)%0 ; k%1, 2, ..., n
ji gi(a)%0 ; i%1, 2, ..., m
Una vez resuelto el sistema, se debe comprobar si los puntos a
obtenidos verifican las restricciones gi(a) m 0, i % 1, 2, ..., m y
que se cumple la condición (b) del teorema de Kuhn-Tucker:
ji n 0 (resp. ji m 0) para i % 1, 2, ..., m si a es mı́nimo (resp. má-
ximo) local del programa.

76
PROBLEMAS RESUELTOS

3.1. Demuéstrese que los programas

E
Optimizar f (x, y, z)
sujeto a a11x ! a12 y ! a13z n 0
(I)
a21x ! a22 y ! a23z n 0
a31x ! a32 y ! a33z n 0

E
Optimizar f (x, y, z)
sujeto a a11x ! a12 y ! a13z n 0
(II) a21x ! a22 y ! a23z n 0
a31x ! a32 y ! a33z n 0
a41x ! a42 y ! a43z n 0

tienen el mismo conjunto factible si y sólo si el sistema

E
a11x ! a21 y ! a31z % a41
a12x ! a22 y ! a32z % a42
a x ! a23 y ! a33z % a43
(III) 13
xn0
yn0
zn0
tiene solución.

77
OPTIMIZACIÓN. CASOS PRÁCTICOS

Solución
Sean
v1 % (a11, a12, a13), v2 % (a21, a22, a23)
v3 % (a31, a32, a33), v4 % (a41, a42, a43)
Supongamos que los programas (I) y (II) tienen el mismo conjun-
to factible. Si u % (x, y, z) cumple u · vi n 0 para i % 1, 2, 3, en-
tonces (x, y, z) pertenece al conjunto factible de (I), luego, por
hipótesis resulta que u · v n 0. El Lema de Farkas (veáse en [13]
la pág. 60) garantiza la existencia de tres números reales j1, j2,
3
j3 n 0 tales que v % ; ji vi . Pero entonces x % j1, y % j2, z % j3
i%1
es una solución del sistema (III).
Recı́procamente, supongamos que x % j1, y % j2, z % j3 es
3
una solución de (III), esto es, que v % ; ji vi . Es obvio, en cual-
i%1
quier caso, que el conjunto factible de (II) está contenido en el
de (I), mientras que, si u % (x, y, z) pertenece al conjunto factible
de (I), entonces u · vi n 0 para i % 1, 2, 3, lo que implica que

A B
3 3
u · v % u · ; ji vi % ; ji (u · vi) n 0
i%1 i%1

Por lo tanto u % (x, y, z) pertenece al conjunto factible del pro-


grama (II).
3.2. Aplı́quense las condiciones necesarias de óptimo local
de Kuhn-Tucker para determinar, de entre los puntos del polı́go-
5
A B
no de vértices 0, , (2, 4), (6, 4) (5, 2) y (3, 1), el más próximo
2
y el más alejado al origen de coordenadas.
Solución
5
La región poligonal M de vértices 0,
2 A B
, (2, 4), (6, 4), (5, 2)
y (3, 1) es la intersección de los cinco semiplanos que, contenién-

78
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

dola, están respectivamente limitados por las rectas determinadas


por los lados de M. Estos cinco semiplanos son
3x . 4y n .10
ym4
2x . y m 8
x . 2y m 1
x ! 2y n 5
Por lo tanto, se trata de minimizar y maximizar la función
f (x, y) % x2 ! y2, cuadrado de la distancia del punto (x, y) al ori-
gen de coordenadas, sujeta a las restricciones
g1(x, y) % .3x ! 4y . 10 m 0
g2(x, y) % y . 4 m 0
g3(x, y) % 2x . y . 8 m 0
g4(x, y) % x . 2y . 1 m 0
g5(x, y) % .x . 2y ! 5 m 0
Al ser las funciones gi todas lineales, se cumplen las condi-
ciones de cualificación de Karlin en cualquier punto de M. En
consecuencia, si (x, y) à M es un punto de mı́nimo (resp. máxi-
mo) local del programa, entonces existen j1, j2, j3, j4, j5 n 0
(resp. j1, j2, j3, j4, j5 m 0) tales que
Mf (x, y) ! j1Mg1(x, y) ! j2Mg2(x, y) ! j3Mg3(x, y) !
! j4Mg4(x, y) ! j5Mg5(x, y) % 0
j1g1(x, y) % 0
j2g2(x, y) % 0
j3g3(x, y) % 0
j4g4(x, y) % 0
j5g5(x, y) % 0
La primera ecuación, que es vectorial, equivale a
2x . 3j1 ! 2j3 ! j4 . j5 % 0
2y ! 4j1 ! j2 . j3 . 2j4 . 2j5 % 0

79
OPTIMIZACIÓN. CASOS PRÁCTICOS

Si todos los ji fueran nulos, se tendrı́a (x, y) % (0, 0), pero el


origen de coordenadas no pertenece a M.
Si todos los ji fueran nulos, excepto uno de ellos i0 à R1, 2, 3,
4, 5S,
1.o Si i0 % 1, entonces
2x . 3j1 % 0; 2y ! 4j1 % 0; .3x ! 4y . 10 % 0
lo que implica que
.4 .6 8
j1 % , x% , y%
5 5 5
.6 8
Como no
A ,
5 5 B
pertenece a M, no hay extremos en este caso.

2. Si i0 % 2, entonces 2x % 0; 2y ! j2 % 0; y . 4 % 0, lue-
o

go j2 % .8, x % 0, y % 4. Como no pertenece a M, no hay extre-


mos en este caso.
3.o Si i0 % 3, entonces
2x ! 2j3 % 0; 2y . j3 % 0; 2x . y . 8 % 0
lo que implica que
.16 16 .8
j3 % , x% , y%
5 5 5
16 .8
Como
te caso.
A ,
5 5 B
no pertenece a M, tampoco hay extremos en es-

4.o Si i0 % 4, entonces
2x ! j4 % 0; 2y . 2j4 % 0; x . 2y . 1 % 0
lo que implica que
.2 1 .2
j4 % , x% , y%
5 5 5

80
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

1 .2
Como
caso.
A,
5 5 B
no pertenece a M, tampoco hay extremos en este

5.o Si i0 % 5, entonces 2x . j5 % 0; 2y . 2j5 % 0;


.x . 2y ! 5 % 0, de donde resulta j5 % 2, x % 1, y % 2. Como
(1, 2) pertenece a M, siendo j5 % 2 b 0, se trata de un candidato
a punto de mı́nimo relativo.
Si todos los ji fueran nulos, excepto dos de ellos, i0, i1, enton-
ces
gi0(x, y) % gi1(x, y) % 0
por lo que el punto (x, y) serı́a un vértice del polı́gono (intersec-
ción de dos lados). Ası́ resulta
1.o Si j1 y j2 son los únicos no nulos, entonces (x, y) % (2,
4), luego
4 . 3j1 % 0
8 ! 4j1 ! j2 % 0
lo que implica que
3
j1 % b 0, j2 % .11 a 0
4
Como son de distinto signo, entonces (2, 4) no es un punto de óp-
timo relativo.
2.o Si j2 y j3 son los únicos no nulos, entonces (x, y) %
% (6, 4), luego
12 ! 2j3 % 0
8 ! j 2 . j3 % 0
lo que implica que
j2 % .14 a 0, j3 % .6 a 0
Como son ambos negativos, entonces (6, 4) es un candidato a
punto de máximo relativo.

81
OPTIMIZACIÓN. CASOS PRÁCTICOS

3.o Si j3 y j4 son los únicos no nulos, entonces (x, y) %


% (5, 2), de donde
10 ! 2j3 ! j4 % 0
4 . j3 . 2j4 % 0
lo que implica que
j3 % .8 a 0, j4 % 6 b 0
Como son de distinto signo, entonces (5, 2) no es un punto de óp-
timo relativo.
4.o Si j4 y j5 son los únicos no nulos, entonces (x, y) %
% (3, 1), luego
6 ! j 4 . j5 % 0
2 . 2j4 . 2j5 % 0
lo que implica que
.5 7
j4 % a 0, j5 % b 0
2 2
Como son de distinto signo, entonces (3, 1) no es un punto de óp-
timo relativo.
5.o Si j5 y j1 son los únicos no nulos, entonces (x, y) %
5
A B
% 0, , de donde
2
.j5 . 3j1 % 0
5 . 2j5 ! 4j1 % 0
lo que implica que
3 .1
j5 % b 0, j1 % a0
2 2
5
Como son de distinto signo, entonces 0,
óptimo relativo.
A B2
no es un punto de

82
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

Finalmente, como f es continua en el compacto M, debe al-


canzar en él un valor máximo y un valor mı́nimo absolutos. Co-
mo sólo existe un candidato, (1, 2), a punto de mı́nimo relativo,
este debe ser necesariamente el punto donde f alcanza su valor
mı́nimo. De la misma manera, como sólo existe un candidato,
(6, 4), a punto de máximo relativo, este debe ser necesariamente
el punto donde f alcanza su valor máximo. En consecuencia,
el punto de M más cercano al origen es (1, 2) y el más alejado
es (6, 4).
Nota: el ejercicio pretende resaltar a qué tipo de cálculos con-
duce el Teorema de Kuhn-Tucker. Obviamente, el programa se
resuelve fácilmente con métodos de geometrı́a elemental.
3.3. Aplı́quense las condiciones necesarias de óptimo local
de Kuhn-Tucker para hallar el diámetro del conjunto
M % R(x, y, z) à ⺢3 : x2 ! 4y2 m 1, x n 0S
determinando los pares de puntos de M que se encuentran a esa
distancia.

Solución
El diámetro de un conjunto compacto, como lo es M, es el
máximo de las distancias entre los puntos de M. Debemos, por lo
tanto, hallar el valor máximo de la función
d:M#Mr⺢ ; d((x, y), (u, v)) % ∂(x . u)2 ! (y . v)2
Para plantear el programa en las condiciones del teorema de
Kuhn-Tucker, y para facilitar los cálculos, consideramos el si-
guiente programa, que es equivalente al anterior una vez que se
extraiga la raı́z cuadrada del valor máximo hallado.

E
Max f (x, y, u, v) % (x . u)2 ! (y . v)2
sujeta a g1(x, y, u, v) % x2 ! 4y2 . 1 m 0
g2(x, y, u, v) % u2 ! 4v2 . 1 m 0
g3(x, y, u, v) % .x m 0
g4(x, y, u, v) % .u m 0

83
OPTIMIZACIÓN. CASOS PRÁCTICOS

Supongamos que (x, y, u, v) es un punto de máximo local del


programa anterior. Como es de interior no vacı́o y las funciones
son todas convexas, se cumplen la condiciones de cualificación
de Slater en cualquier punto de M # M. Existen j1, j2, j3, j4 m 0
tales que se verifican las siguientes ecuaciones

(I) Mf (x, y, u, v) ! j1Mg1(x, y, u, v) ! j2Mg2(x, y, u, v) !


! j3Mg3(x, y, u, v) ! j4(x, y, u, v) % 0

E E
j1g1(x, y, u, v) % 0 g1(x, y, u, v) m 0
j g (x, y, u, v) % 0 g (x, y, u, v) m 0
(II) 2 2 (III) 2
j3g3(x, y, u, v) % 0 g3(x, y, u, v) m 0
j4g4(x, y, u, v) % 0 g4(x, y, u, v) m 0

La ecuación vectorial (I) resulta

E
2x . 2u ! 2j1x . j3 % 0
2y . 2v ! 8j1y % 0
(I)
.2x ! 2u ! 2j2u . j4 % 0
.2y ! 2v ! 8j2v % 0

Observemos, en primer lugar, que si se verificara x % u,


y % v entonces (x, y, u, v) serı́a un punto de mı́nimo absoluto,
pues se tendrı́a siendo f (x, y, u, v) % 0 siendo f una función no
negativa. (Corresponderı́a a la distancia de un punto a sı́ mismo).
Si fuera x % u, entonces de (I) se tendrı́a
2j1x . j3 % 0
2j2x . j4 % 0
Si x % u Ç 0, entonces g3(x, y, u, v) Ç 0, g4(x, y, u, v) Ç 0, lo que
implicarı́a j3 % j4 % 0 y por lo tanto j1 % 0, j2 % 0, lo que con-
ducirı́a a x % u, y % v y no tendrı́amos un máximo. En otro caso,
si x % u % 0, entonces j3 % j4 % 0, siendo g3(x, y, u, v) % 0,
g4(x, y, u, v) % 0, en contradicción con (II).

84
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

Por lo tanto, x Ç u y podemos considerar sin pérdida de gene-


ralidad que x a u, pues f (x, y, u, v) % f (u, v, x, y), lo que permi-
tirı́a intercambiar (x, y) y (u, v). En consecuencia, debe ser
j2 Ç 0, pues en caso contrario, (I) implicarı́a j4 % 2(u . x) b 0.
Por (II) se tiene g2(x, y, u, v) % 0, luego u % ∂1 . 42v. Al ser
u b x n 0, y por lo tanto u Ç 0, se tiene g4(x, y, u, v) Ç 0, por lo
que j4 % 0. De (I) se obtiene entonces
j3 % 2j1 ! 2j2u a 0
y por (II) resulta g3(x, y, u, v) % 0, esto es, x % 0. Pero entonces
2u ! 2j2u % 0
siendo u Ç 0, luego j2 % .1 y j3 % .2u.
Las dos últimas ecuaciones de (I) quedan ası́

E
y . v ! 4j1 y % 0
.y ! v . 4v % 0

Por lo tanto, o bien y % v % 0, o bien


.1
y % .3v, j1 %
3
En el primer caso y % v % 0, tenemos un candidato a máximo lo-
cal
(0, 0, 1, 0), para j1 % j2 % .1, j3 % .2, j4 % 0, f (0, 0,
1, 0) % 1
En el otro caso,
.1
y % .3v, j1 %
3
por (II) resulta g1(x, y, u, v) % 0, esto es,

∂1 . x2 1
y%u %u
2 2

85
OPTIMIZACIÓN. CASOS PRÁCTICOS

Obtenemos ası́ otros dos candidatos a máximo local

1 2∂2 .1 1
A B
.4∂2
0, , , , para j1 % . , j2 % .1, j3 %
2 3 6 3 3

1 2∂2 .1 4
j4 % 0,
A
f 0, ,
2 3
,
6
%
3 B
.1 2∂2 1 1
A B
.4∂2
0, , , , para j1 % . , j2 % .1, j3 %
2 3 6 3 3

.1 2∂2 1 4
j4 % 0,
A
f 0,
2
, ,
3 6
%
B
3

Finalmente, como M # M es compacto, debe existir el máxi-


mo absoluto buscado y debe ser uno de los tres candidatos halla-
2
dos. Por lo tanto, el diámetro de M es y los únicos pares de
∂3
2
puntos de M cuya distancia es son
∂3

1 2∂2 .1
A B A
0,
2
y
3
,
6B
2∂2 1
A B A B
.1
0, y ,
2 3 6

3.4. Dado el programa

E
Min f (x1, ..., xn)
sujeto a g1(x1, ..., xn) m 0
(P1) ñ
ñ
gm(x1, ..., xn) m 0

86
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

plantéese uno equivalente de la forma

E
Min k(u1, ..., ur)
sujeto a ur m 0
ñ
ñ
(P2) ur.s m 0
h1(u1, ..., ur) % 0
ñ
ñ
hp(u1, ..., ur) % 0
y viceversa.

Solución
Partiendo de P1, consideremos r % n ! m, p % m, s % m . 1
y las funciones
hi(u1, ..., ur) % gi(u1, ..., un) . un!i i % 1, ..., p
k(u1, ..., ur) % f (u1, ..., un)
Resulta entonces claro que si (x1, ..., xn) es un punto de mı́ni-
mo local de P1, entonces
(u1, ..., ur) % (x1, ..., xn, g1(x1, ..., xn), ..., gm(x1, ..., xn)
es un punto de mı́nimo local P2, con k(u1, ..., ur) % f (x1, ..., xn).
Recı́procamente, si (u1, ..., ur) es un punto de mı́nimo local de
P2, entonces
(x1, ..., xn) % (u1, ..., un)
es un punto de mı́nimo local P1, con f (x1, ..., xn) % k(u1, ..., ur).
Análogamente, partiendo de P2, consideremos n % r,
m % 1 ! s ! 2p y las funciones
gi(x1, ..., xn) % xn.i!1 i % 1, ..., m . 2p
gm.2p!i(x1, ..., xn) % hi(x1, ..., xn) i % 1, ..., p

87
OPTIMIZACIÓN. CASOS PRÁCTICOS

gm.p!i(x1, ..., xn) % hi(x1, ..., xn) i % 1, ..., p


f (x1, ..., xn) % k(x1, ..., xn)
Resulta entonces claro que (x1, ..., xn) es un punto de mı́nimo
local de P1, si y sólo si el punto (u1, ..., ur) % (x1, ..., xn) es de mı́-
nimo local de P2, con k(u1, ..., ur) % f (x1, ..., xn), pues
hi(x1, ..., xn) m 0, .hi(x1, ..., xn) m 0 i % 1, ..., p
equivale a hi(x1, ..., xn) % 0 para i % 1, ..., p.
3.5. Para resolver un programa del tipo (P1) del ejercicio
3.4, se propone el siguiente procedimiento: primero se plantea en
programa (P2) correspondiente, después se determinan, mediante
el método de los multiplicadores de Lagrange, los puntos de mı́-
nimo local del programa

E
Min k(u1, ..., ur)
sujeto a h1(u1, ..., ur) % 0
(P3) ñ
ñ
hp(u1, ..., ur) % 0
y finalmente se seleccionan los que verifican yr m 0, ..., ur.s m 0.
a) Aplı́quese el procedimiento anterior al programa

E
Min f (x1, x2) % x21 ! x22 . (x21 ! x22)2
(Q1)
sujeto a x21 ! 4x22 . 4 m 0
b) Resuélvase el programa (Q1) mediante las condiciones
necesarias de óptimo local de Kuhn-Tucker.
c) Critı́quese el procedimiento planteado en el enunciado.

Solución
a) En primer lugar se plantea

E
Min k(x1, x2, x3) % x21 ! x22 . (x21 ! x22)2
(Q2) sujeto a x3 m 0
x21 ! 4x22 . 4 . x3 % 0

88
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

y después resolvemos por multiplicadores de Lagrange el progra-


ma

E
Min k(x1, x2, x3) % x21 ! x22 . (x21 ! x22)2
(Q3)
sujeto a x21 ! 4x22 . 4 . x3 % 0
obteniendo las ecuaciones
2x1 . 4(x21 ! x22)x1 ! 2jx1 % 0
2x2 . 4(x21 ! x22)x2 ! 8jx2 % 0
.j % 0
esto es
2x1 . 4(x21 ! x22)x1 % 0
2x2 . 4(x21 ! x22)x2 % 0
Fácilmente se comprueba que ası́ se obtienen infinitos puntos de
1
máximo relativo, los de la circunferencia x21 ! x22 % , y un punto
2
de mı́nimo relativo, (0, 0). En consecuencia, este método darı́a
para el programa (Q1) la solución x1 % 0, x2 % 0, f (0, 0) % 0.
b) Al aplicar las condiciones necesarias de óptimo local de
Kuhn-Tucker a (Q1), existe un j n 0 tal que
2x1 . 4(x21 ! x22)x1 ! 2jx1 % 0
2x2 . 4(x21 ! x22)x2 ! 8jx2 % 0
j(x21 ! 4x22 . 4) % 0
Si j % 0, obtenemos el mı́nimo relativo del apartado a). Si j Ç 0,
entonces x21 ! 4x22 . 4 % 0. Además no puede ser x1 Ç 0 y
x2 Ç 0, pues resultarı́a
2x2x1 . 4(x21 ! x22)x2x1 ! 2jx2x1 % 0
2x2x1 . 4(x21 ! x22)x2x1 ! 8jx2x1 % 0
lo que implicarı́a j % 0. Si x1 % 0, entonces x2 % u1 y
2 . 4(u1)2 ! 8j % 0 y obtenemos los candidatos a mı́nimo re-
lativo

89
OPTIMIZACIÓN. CASOS PRÁCTICOS

1
x1 % 0, x2 % 1, para j % , f (0, 1) % 0
4
1
x1 % 0, x2 % .1, para j % , f (0, .1) % 0
4
Por otra parte, si x2 % 0, entonces x1 % u2, luego
2 . 4(u2)2 ! 8j % 0 y obtenemos los candidatos a mı́nimo re-
lativo
7
x1 % 2, x2 % 0, para j % , f (2, 0) % .12
4
7
x1 % .2, x2 % 0, para j % , f (.2, 0) % .12
4
En conclusión, el valor mı́nimo buscado es .12 y se alcanza en
los puntos (2, 0) y (.2, 0).
c) Obviamente, el método del enunciado es erróneo: los
puntos de óptimo local de una función sujeta a la condición de
que ciertas componentes sean positivas, no son los mismos que
los puntos de óptimo local de esa función, sin la restricción, que
tienen las componentes en cuestión positivas. Por ejemplo, x % 0
es un punto de mı́nimo de la función f (x) % (x ! 1)2 sujeta a la
restricción x n 0; pero f (x) % (x ! 1)2, sin restricciones, no tiene
ningún mı́nimo local que verifique x n 0.
Obsérvese que el programa (P3) equivale a hallar el mı́nimo
de f en el interior del conjunto factible de (P1).
3.6. Considérense los conjuntos
M % Rx à ⺢n : g1(x) m 0, ..., gm(x) m 0S
Mñ % Rx à ⺢n : g0(x) m 0, ..., gm(x) m 0S
en donde las funciones gi : ⺢n r ⺢, i % 1, ..., m son derivables
con continuidad y satisfacen la condición de Fiacco-McCormick
en un punto a à M y g0 es una combinación lineal de las gi que
son saturadas en a.

90
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

a) ¿Se puede asegurar que M % Mñ?


b) Demuéstrese que, si los conos G(a) y Gñ(a), correspon-
dientes a M y Mñ respectivamente (3.2), son iguales, entonces
también lo son M y Mñ.

Solución
a) Es obvio que Mñ Ü M, sin embargo, el recı́proco no es
cierto en general. En efecto, considérese como contraejemplo
n % m % 1, g0(x) % .g1(x) % x, a % 0. Entonces se tiene
M % Rx à ⺢ : x n 0S, Mñ % R0S
b) Los vectores vi % .Mgi(a), en donde i à Ia % R1 m j, m :
a satura gj S, satisfacen la condición ii) del Lema de Farkas (ve-
áse [13] pág. 60). En efecto, si u · vi n 0, i à Ia, enton-
ces Mgi(a) · u m 0, para todo i à Ia, lo que implica que
u à G(a) Ü Gñ(a). Luego u à Gñ(a), y al ser g0 saturada en a,
se tiene Mg0(a) · u m 0, o lo que es igual, u · v0 n 0, con
v0 % .Mg0(a).
En consecuencia, se verifica la condición i) del Lema de Far-
kas y, por lo tanto, existen ji n 0, i à Ia tales que v0 % ; ji vi, es
iàIa
decir, Mg0 % (a) % ; jiMgi (a).
i àIa
Ahora bien, por ser g0 una combinación lineal de las restric-
ciones gi que son saturadas en a, existen ai à ⺢, con i à Ia tales
que g0 % ; ai gi. Derivando y particularizando en a, resulta que
iàIa

Mg0(a) % ; aiMgi (a)


iàIa

Como los gradientes Mgi(a) son linealmente independientes (con-


dición de Fiacco-McCormick), entonces ai % ji n 0 para todo
i à Ia.
Finalmente, si x à M, entonces gi(x) m 0 para i % 1, ..., m, y
en particular para i à Ia. En consecuencia g0(x) % ; ai gi(x) m 0,
iàIa
luego x à Mñ.

91
OPTIMIZACIÓN. CASOS PRÁCTICOS

3.7. Hállense los conos T ((0, 0)) y G((0, 0)), a los que se refiere
3.2, correspondientes al conjunto factible:
M % R(x, y) à ⺢2 : x2 . y2 m 0S
Compruébese que no se satisface en a % (0, 0) ninguna de las
condiciones de 3.5.

Solución
El conjunto M es un cono con vértice en el origen, pues, para
todo (x, y) de M y j b 0, el punto j(x, y) también está en M, lue-
go T ((0, 0)) % M.
Por otra parte, el gradiente de la función g1(x, y) % x2 . y2,
que es saturada en (0, 0), es
Mg1(x, y) % (2x, .2y)
por lo que Mg1(0, 0) % (0, 0), y entonces
G(0, 0) % R(x, y) à ⺢2 : Mg1(0, 0) · (x, y) m 0S % ⺢2
La condición i) de la propiedad 3.5 no se satisface porque g1 no
es lineal (considérese, por ejemplo, g1(2, 0)%4Ç2%2g1(1, 0)).
Tampoco g1 es convexa:
1 1
g1
A 2 B
(0, 1) ! (0, .1) % g1(0, 0) % 0
2
1 1
g1((0, 1)) ! g1((0, .1)) % .1
2 2
pero 0 no es menor o igual que .1.
Finalmente, la condición iii) no se satisface porque Mg1(0,
0) % (0, 0) y la familia formada únicamente por el vector nulo no
es linealmente independiente.
3.8. Consideremos los triángulos M y K de vértices (0, 0),
(1, 1), (2, 0) y (0, 2), (1, 3), (2, 2) respectivamente.
a) Hállese la distancia de M a K mediante un razonamiento
geométrico sencillo.

92
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

b) Planteése un programa matemático con restricciones de


desigualdad para hallar la distancia entre los triángulos M y K.
c) Razónese que el programa matemático del apartado ante-
rior posee extremo absoluto y que en todo punto del conjunto
factible se verifican las condiciones de cualificación.
d) Aplı́quense las condiciones necesarias de óptimo local de
Kuhn-Tucker al programa anterior para plantear el correspon-
diente sistema de ecuaciones.
e) Resuélvase el sistema planteado en el apartado anterior
para hallar la distancia entre los triángulos M y K, determinando
los pares de puntos de M y K que se encuentran a esa distancia.

Solución

a) Los triángulos M y K están respectivamente contenidos


en los semiplanos y m 1 e y n 2, siendo las distancia entre estos
semiplanos igual a 1. Por lo tanto la distancia de M a K es mayor

1 m d(M, K) m d((1, 1), (1, 2)) % 1

luego d(M, K) % 1.
b) Sea f : ⺢4 r ⺢ definida por f (x, y, u, v) % (x . u)2 !
! (y . v)2, la función que representa el cuadrado de la distancia
entre los puntos (x, y), (u, v) de ⺢2. Cada uno de los triángulos M
y K está definido por la intersección de tres semiplanos. Por lo
tanto podemos plantear el programa

E
Min f (x, y, u, v) % (x . u)2 ! (y . v)2
sujeto a .y m 0
.x ! y m 0
x!y.2m0
.v ! 2 m 0
.u ! v . 2 m 0
u!v.4m0

93
OPTIMIZACIÓN. CASOS PRÁCTICOS

c) La función f es continua en todo ⺢4, mientras que el


conjunto factible C % M # K es cerrado y acotado, y por lo tan-
to, compacto. El teorema de Weierstrass permite asegurar la exis-
tencia de extremos absolutos de f sobre el conjunto factible C.
Además, en todo punto de C se verifican las condiciones de
cualificación de Karlin, pues las seis funciones que determinan
las restricciones

g1(x, y, u, v) % .y
g2(x, y, u, v) % .x ! y
g3(x, y, u, v) % .x ! y . 2
g4(x, y, u, v) % .v ! 2
g5(x, y, u, v) % .u ! v . 2
g6(x, y, u, v) % u ! v . 4

son lineales.
d) Se tiene

Mf (x, y, u, v) % (2x . 2u, 2y . 2v, .2x ! 2u, 2y ! 2v)


Mg1(x, y, u, v) % (0, .1, 0, 0)
Mg2(x, y, u, v) % (.1, 1, 0, 0)
Mg3(x, y, u, v) % (1, 1, 0, 0)
Mg4(x, y, u, v) % (0, 0, 0, .1)
Mg5(x, y, u, v) % (0, 0, .1, 1)
Mg6(x, y, u, v) % (0, 0, 1, 1)

luego existen j1, ..., j6 n 0 tales que

2x . 2u . j2 ! j3 %0
2y . 2v . j1 ! j2 ! j3 %0
. 2x ! 2u . j5 ! j6 % 0
. 2y ! 2v . j4 ! j5 ! j6 % 0

94
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

j1(.y) % 0
j2(.x ! y) % 0
j3(x ! y . 2) % 0
j4(.v ! 2) % 0
j5(.u ! v . 2) % 0
j6(u ! v . 4) % 0
sin olvidar que
.y m 0
.x ! y m 0
x!y.2m0
.v ! 2 m 0
.u ! v . 2 m 0
u!v.4m0
e) Sumando las ecuaciones 2.a y 4.a se obtiene
.j1 ! j2 ! j3 . j4 ! j5 ! j6 % 0
Si j1 ! j4 fuera igual a cero, entonces también lo serı́a
j2 ! j3 ! j5 ! j6, lo que implicarı́a
j1 % j2 % j3 % j4 % j5 % j6 % 0
lo cual no es posible porque se tendrı́a x % u, y % v, siendo los
triángulos M y K disjuntos. Por lo tanto, j1 ! j4 Ç 0. Si fuera
j4 % 0 se tendrı́a
j4 % 0 ú j1 Ç 0 ú y % 0 ú .j5 . j6 % 2v b 0 (4.a ec.)
lo cual es imposible. Por lo tanto, j4 b 0, lo que implica que
v % 2. Ahora bien, como
j5(.u ! v . 2) % 0
j6(u ! v . 4) % 0

95
OPTIMIZACIÓN. CASOS PRÁCTICOS

resulta
j5(.u) % 0
j6(u . 2) % 0
Si fuera j5 Ç 0, entonces
j5 b 0 úH u % 0 ú j6 % 0 ú .2x . j5 % 0 ú
ú .2x % j5 b 0 ú .x b 0 ú .x ! y b 0
lo cual es incompatible con las inecuaciones que definen el con-
junto factible. Por lo tanto, j5 % 0. Análogamente, si fuera j6 Ç 0
j6 b 0 ú u % 2 ú .2x ! 4 ! j6 % 0 ú 2x . 4 % j6 b 0 ú
ú x .# 2 b 0 ú x ! y . 2 b 0
y como esto es imposible, j6 % 0 y de la 3.a ecuación se sigue
que x % u y entonces de la 1.a resulta j2 % j3.
Es imposible que j2 % j3 % 0, porque entonces de la 2.a ecua-
ción y de las restricciones del programa se obtendrı́a
2y . 4 . j1 % 0 ú 4 . 2y % .j1 m 0 ú
ú (4 . 2y) ! (.x ! y) ! (x ! y . 2) m 0 ú 2 m 0
En consecuencia, j2 % j3 Ç 0, lo que implica que
.x ! y % 0
x!y.2%0
de donde x % y % u % 1. Finalmente j1 % 0, j4 % 2, j2 % j3 % 1,
f (1, 1, 1, 2) % 1.
Por lo tanto, la distancia de M a K es 1 y se alcanza entre los
puntos (1, 1) de M y (1, 2) de K.
3.9. Demuéstrese que v Ç 0 es una dirección factible en un
punto a de un conjunto M si y sólo si existe una sucesión (xk)
88v88
convergente a a en M tal que (x . a) converge a v.
88xk . a88 k

Solución

96
PROGRAMAS DIFERENCIABLES CON RESTRICCIONES

Si v es una dirección factible, entonces existen una sucesión


de números reales positivos (dk) que converge a cero, una suce-
sión (vk) de vectores, de norma fija p, convergente a v y una su-
cesión (xk) que converge al punto a en M tales que xk . a % dkvk.
Para todo k se tiene xk . a Ç 0, pues en otro caso se v serı́a igual
88v88 1
cero. En consecuencia, (xk . a) % (xk . a) % vk con-
88xk . a88 dk
verge a v.
Recı́procamente, si existe una sucesión (xk) de puntos de M
88v88
convergente a a tal que (x . a) converge a v, entonces
88xk . a88 k
88xk . a88
la sucesión dk % tiende a cero, mientras que los vectores
88v88
1
vk % (xk . a) tienen norma fija p % 88v88 y tienden a v, verifi-
dk
cándose xk . a % dkvk .

3.10. a) Demuéstrese que el conjunto de la direcciones


factibles en el vértice a de un cono cerrado M es T (a) % M . a.
b) Hállense las direcciones factibles en el punto a % (2, 3)
del conjunto

M % R(x, y) à ⺢2 : x . y m .1; 2x ! y n 7S

Solución

a) Las direcciones factibles de norma unitaria son los lı́mi-


xk . a
tes de la sucesiones de la forma , en donde (xk) es cual-
88xk . a88
quier sucesión de puntos de M convergente a a. Considerando su-
(k . 1)a ! x0
cesiones de la forma xk % , en donde x0 es un punto
k
arbitrario de M, se obtiene

97
OPTIMIZACIÓN. CASOS PRÁCTICOS

(k . 1)a ! x0 . ka
xk . a k x0 . a
% %
(k 1)a x ka
G G
88xk . a88 . ! 0 . 88x0 . a88
k
En consecuencia, todos los vectores de la forma
v % j(x0 . a) para j n 0 son direcciones factibles, pero resulta
que, por ser M un cono con vértice en a, el conjunto Rj(x0 . a) :
x0 à M, j n 0S es precisamente M . a.
Es fácil comprobar que no hay más direcciones factibles. En
xk . a
efecto, si lim no pertenece a M . a, entonces, por ser el
krä 88xk . a88
complementario de M . a abierto, todos los términos de la suce-
xk . a
sión
A B
88xk . a88
, excepto quizá un número finito de ellos, están
en el complementario de M . a, que es un cono, luego todos los
términos de la sucesión (xk . a), excepto quizá un número finito
de ellos, están en el complementario de M . a. Pero esto implica
que los xk no pertenecen a M.
En conclusión, T(a) % M . a.
b) M es la intersección de dos semiplanos limitados por rec-
tas no paralelas, luego M es un cono. Su vértice, la intersección
de las semirrectas que limitan a los semiplanos, es el punto
a % (2, 3). Aplicando el apartado a) resulta
T (a) % M . a % R(x, y) à ⺢2 : (x ! 2) . (y ! 3) m .1;
2(x ! 2) ! (y ! 3) n 7S %
% R(x, y) à ⺢ : x . y m 0; 2x ! y n 0S
2

98
CAPÍTULO 4
PROGRAMACIÓN CONVEXA.
DUALIDAD

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Se considera el siguiente programa matemático:

E
Min f (x)
sujeto a x à C
(P) g1(x) m 0
ñ
gm(x) m 0

en donde C Ñ ⺢n es un conjunto convexo y no vacı́o, f : C r ⺢,


g % (g1, g2, ..., gm) : C r ⺢m, y f y gi à I % Ri % 1, 2, ..., mS son
funciones reales convexas en C. El conjunto factible viene dado
por:
M % Rx à C : g1(x) m 0, ..., gm(x) m 0S

99
OPTIMIZACIÓN. CASOS PRÁCTICOS

de forma que si el conjunto de ı́ndices es vacı́o se tiene un pro-


grama sin restricciones y que si hay restricciones de igualdad se
pueden desdoblar, cada una de ellas, en dos de desigualdad. En
principio, no se exige que f y gi sean diferenciables.
Debido a que f es cóncava en C si y sólo si .f es convexa
en C, un programa del tipo anterior en que se busque el máximo
de f cóncava se considera también un programa convexo, puesto
que Max f % .Min (.f ).

Propiedades de optimización de las funciones convexas


4.1. Sean C Ñ ⺢n abierto y convexo y f : C r ⺢ una fun-
ción convexa (resp. cóncava) en C. Si f tiene en a à S un mı́nimo
(resp. máximo) local, entonces a es mı́nimo (resp. máximo) glo-
bal.
4.2. Sean C Ñ ⺢n convexo y compacto y f : C r ⺢ una fun-
ción convexa o cóncava en C. Si el conjunto de puntos extremos
de C es finito, entonces f tiene máximo y mı́nimo globales que
se encuentran en puntos extremos de C.

Continuidad de las funciones convexas

4.3. Si C Ñ ⺢n es un abierto, convexo, no vacı́o y f : C r ⺢


es convexa (o cóncava) en C, entonces f es continua en C.
Como consecuencia inmediata de 3 se tiene que si f es con-
vexa o cóncava en un convexo C, entonces es continua en el
interior de C y si, en las condiciones anteriores f es discontinua
en a, entonces a es un punto frontera de C.

Diferenciabilidad de las funciones convexas

Se considera, en primer lugar, el caso de las funciones reales


de variable real. Sean I un intervalo abierto y f una función real
definida en I.

100
PROGRAMACIÓN CONVEXA. DUALIDAD

4.4. Si f es convexa en I, entonces f tiene derivadas latera-


les finitas en cada punto de I, las derivadas por la izquierda y por
la derecha son funciones no decrecientes en I y

f ñ.(a) m f !
ñ (a), Oa à I

A continuación se supone que C es un abierto convexo no va-


cı́o de ⺢n y f : C r ⺢.

4.5. Se llama derivada direccional por la derecha de f en a


siguiendo v à ⺢n, v Ç 0 o derivada radial de f en a siguiendo v,
y se denota por f Rñ (a; v), al siguiente lı́mite cuando exista y sea
finito
f (a ! tv) . f (a)
f ñR(a; v) % lim
tr0` t

4.6. Si f es convexa en el abierto convexo C, entonces exis-


te derivada radial de f para cada a de C y todo v à ⺢n.

4.7. Si f es diferenciable en a, la derivada radial coincide


con la derivada direccional usual y, en consecuencia:

Mf (a) · v % f Rñ (a; v), O v à ⺢n

4.8. Si f es convexa y diferenciable en el abierto convexo


C, entonces f à C1(C).
Todos estos resultados se traducen sin ninguna dificultad al
caso de las funciones cóncavas.

Caracterización de la convexidad de funciones diferenciables

4.9. Sean C abierto, convexo y no vacı́o y f à C1(C). f es


convexa (resp. cóncava) en C si y sólo si

f (x) n f (y) ! Mf (y) · (x . y)


(resp. f (x) m f (y) ! Mf (y) · (x . y)), Ox, y à C

101
OPTIMIZACIÓN. CASOS PRÁCTICOS

Condiciones de óptimo en programas convexos diferenciables

4.10. Sean C Ñ ⺢n abierto y convexo, f : C r ⺢ convexa


(resp. cóncava) y de clase uno en C y a un elemento de C. f tiene
un mı́nimo (resp. máximo) global en C si y sólo si Mf (a) % 0.
4.11. Sean C Ñ ⺢n abierto y convexo, f : C r ⺢, g % (g1,
g2, ..., gm) : C r ⺢m funciones de clase uno en C, f convexa
(resp. cóncava) en C, el conjunto factible M % Rx à C : g(x) % 0S
convexo y a à M. a es un mı́nimo (resp. máximo) global de f so-
bre M si y sólo si existen números reales j1, j2, ..., jm tales que
Mf (a) ! j1Mg1(a) ! j2Mg2(a) ! ñ ! jmMgm(a) % 0.
Se consideran a continuación los dos programas siguientes
con restricciones de desigualdad.

E E
Min f (x) Min f (x)
sujeto a g1(x) m 0 sujeto a g1(x) m 0
PMin g2(x) m 0 PMax g2(x) m 0
ñ ñ
gm(x) m 0 gm(x) m 0
en donde f : C Ñ ⺢n r ⺢ y g % (g1, g2, ..., gm) : C Ñ ⺢n r ⺢m
son funciones de clase uno en el abierto convexo C y el conjunto
factible es M % Rx à C : g(x) m 0S.
4.12. Sean f convexa (resp. cóncava) y M convexo. Si a à
M verifica las condiciones necesarias de Kuhn-Tucker de mı́nimo
(resp. máximo) local, entonces a es mı́nimo (resp. máximo) glo-
bal del programa PMin (resp. PMax).
4.13. Un caso particular en que el conjunto factible es con-
vexo, y es aplicable el resultado anterior, es aquel en que todas
las gi son convexas en C.

Dualidad en programación convexa

En lo que sigue se considera el siguiente programa convexo

102
PROGRAMACIÓN CONVEXA. DUALIDAD

E
Min f (x); x à A
sujeto a g1(x) m 0
(P) g2(x) m 0
ñ
gm(x) m 0
que se denomina programa primal, en donde A Ñ ⺢n es un con-
junto convexo no vacı́o, y f y gi , i % 1, 2, ..., m son funciones
reales convexas en A. El conjunto factible
M % Rx à A : g1(x) m 0, ..., gm(x) m 0S
es convexo por ser convexas las funciones gi, i % 1, 2, ..., m.
4.14. Se dice que el programa P es factible si, M Ç Y, es
decir, si existe x0 à A tal que gi(x0) m 0 (i % 1, 2, ..., m). P es aco-
tado si existe k à ⺢ tal que f (x) n k para todo x à M.
Se denota por ⺢m! el conjunto de elementos de ⺢m con todas
las coordenadas mayores o iguales que cero y se define la fun-
ción real L en A # ⺢m!, llamada lagrangiana del programa P, por
m
L (x, j) % f (x) ! ; ji gi(x)
i%1

4.15. La función dual u del programa P es la función real


definida en ⺢m! por
u(j) % Inf RL (x, j) : x à AS
de tal forma que se puede enunciar un nuevo programa asociado
a P, llamado programa dual de P, como sigue.
4.16. Se llama programa dual del programa P a

E
Max u(j)
(D)
sujeto a j à A
en donde A es el subconjunto de ⺢m! formado por los j tales que
u(j) b .ä. El conjunto factible del programa dual es convexo
y siA es no vacı́o, la función dual u : A r ⺢ es cóncava en A.

103
OPTIMIZACIÓN. CASOS PRÁCTICOS

De este resultado se pueden extraer las siguientes conclusio-


nes. Si j* es solución del dual se verifica que
u(j) m u(*) m f (x), O j à A, O x à M
es decir que si el dual tiene solución el valor de la función obje-
tivo del programa dual minora la función objetivo del primal so-
bre su conjunto factible. Además, si existen j à A y x à M tales
que u(j) % f (x), entonces x es solución del primal, j es solución
del dual y el valor óptimo de ambos programas coincide. Esta si-
tuación no se da en general cuando los dos programas tienen so-
lución. El estudio de las condiciones en que esto ocurre da lugar
al teorema de dualidad. Si uno de los programas primal o dual es
factible y no acotado, entonces el otro no es factible.
4.17. Se dice que j % (j1, j2, ..., jm) à ⺢m es un multiplica-
dor de Kuhn-Tucker de P si se verifica que j1, j2, ..., jm n 0

A B
m
Inf f (x) ! ; ji gi(x) % k0 b .ä
xàA i%1

4.18. (Teorema fundamental de dualidad). Si el programa


primal es factible, acotado y admite multiplicadores de Kuhn-
Tucker, entonces el programa dual es factible y acotado y se ve-
rifica que:
(i) Inf f (x) % Max u(j).
xàM jàA

(ii) x0 à M, j* à A son, respectivamente, soluciones del pri-


mal y del dual si y sólo si x0 es solución del programa

A B
m
Min f (x) ! ; j*
i gi (x) ; xàA
i%1

i gi (x) % 0 (i % 1, 2, ..., m).


y j*
(iii) Las soluciones del programa dual coinciden con los
multiplicadores Kuhn-Tucker del programa primal.

104
PROBLEMAS RESUELTOS

4.1. Muéstrese un ejemplo de una función real de variable


real que sea convexa pero no continua.

Solución
La función que se pide debe estar definida en un convexo que
no sea abierto, y debe ser continua en su interior. El dominio
convexo es una premisa de la definición de función convexa. Por
lo tanto, podemos considerar

E
0 si 0 m x a 1
f : [0, 1] r ⺢, f (x) %
1 si x % 1
Claramente se trata de una función discontinua en x % 1. Veamos
que es convexa. Sean x1, x2, a à [0, 1]. Si ax1 ! (1 . a)x2 à [0, 1),
obviamente se tiene
f (ax1 ! (1 . a)x2) % 0 m af (x1) ! (1 . a) f (x2)
pues af (x1) ! (1 . a) f (x2) à [0, 1]. Por otra parte, si
ax1 ! (1 . a)x2 % 1, entonces debe verificarse x1 % x2 % 1, o
bien x1 % a % 1, o bien x2 % (1 . a). En cualquiera de los tres
casos resulta af (x1) ! (1 . a) f (x2) % 1, luego
f (ax1 ! (1 . a)x2) m af (x1) ! (1 . a) f (x2)
para cualesquiera x1, x2, a à [0, 1].

105
OPTIMIZACIÓN. CASOS PRÁCTICOS

4.2. Sea f : ⺢ r ⺢ convexa tal que f (0) % 0. Demuéstrese


que para todo x b 0 se verifica
2f (x) m f (1 ! x2)

Solución
Comencemos observando que x a 1 ! x2. En efecto, si fuera
x n 1 ! x2 entonces se tendrı́a
1 3 3
A B
2
0 n x2 . x ! 1 % x . ! b
2 4 4
Por ser f convexa, para cualesquiera tres números reales
a a c a b se verifica

f (c) . f (a) f (b) . f (a)


m
c.a b.a
Véase el Lema 4 del capı́tulo 4 de [13]. Aplicándolo a
0 a x a 1 ! x2 resulta
f (x) . f (0) f (1 ! x2) . f (0)
m
x.0 1 ! x2 . 0
luego
x
f (x) m f (1 ! x2)
1 ! x2
x 1 x 1
Ahora bien, m , pues si fuera b se tendrı́a
1!x2
2 1!x 2
2
(x . 1)2 % x2 ! 1 .! 2x a 2x . 2x % 0
lo cual es falso. En definitiva,
2x
2 f (x) m f (1 ! x2) m f (1 ! x2)
1 ! x2
4.3. Compruébese que la función convexa f : ⺢2 r ⺢ defi-
nida por f (x, y) % ∂x2 ! y2 no tiene derivadas direccionales en

106
PROGRAMACIÓN CONVEXA. DUALIDAD

(0, 0) en ninguna dirección. Hállese la derivada radial en (0, 0)


siguiendo al vector v % (v1, v2).

Solución
La derivada direccional de f en el punto (0, 0) en la dirección del
vector v % (v1, v2) existe si y sólo si existe el lı́mite

f (0 ! v1t, 0 ! v2t) . f (0, 0) ∂(v1t)2 ! (v2t)2


lim % lim %
tr0 t tr0 t
8t8 ∂v21 ! v22 8t8
% lim % ∂v21 ! v22 lim
tr0 t tr0 t

Como
8t8 8t8
lim % 1 Ç .1 % lim
tr0` t tr0` t

8t8
entonces el lı́mite lim no existe, ni tampoco la derivada direc-
tr0 t
cional.
Sin embargo, como función convexa que es, f posee deriva-
das radiales siguiendo cualquier vector v % (v1, v2). En efecto:
f (0 ! v1t, 0 ! v2t) . f (0, 0)
f Rñ ((0, 0), (v1, v2)) % lim %
tr0` t
8t8
% ∂v21 ! v22 lim % ∂v21 ! v22
tr0` t
Obsérvese que, en este caso, f Rñ ((0, 0), (v1, v2)) % f (v1, v2).
4.4. Una función g : ⺢n r ⺢ es positivamente homogénea si
verifica g(kv) % kg(v) para todo k n 0. Sean f : ⺢n r ⺢ convexa
y a à ⺢n. Demuéstrese que
a) La función f Rñ (a, ·) : ⺢n r ⺢, que a cada vector v de ⺢n le
asigna la derivada radial f Rñ (a, v), es positivamente homogénea.
b) Si f es positivamente homogénea, entonces f ñR(0, ·) % f.

107
OPTIMIZACIÓN. CASOS PRÁCTICOS

Solución
a) Para todo k b 0, se tiene
f (a ! t(kv)) . f (a)
f ñR(a, kv) % lim %
tr0` t
f (a!t(kv)) .f (a) f (a!sv). f (a)
%k lim % k lim %kf Rñ (a, v)
tr0` tk sr0` s
Por otra parte, para k % 0 también se verifica
f Rñ (a, kv) % f Rñ (a, 0) % 0 % kf Rñ (a, v)
b) Si f es una función positivamente homogénea, entonces
para k % 0 y v arbitrario resulta
f (0) % f (kv) % kf (v) % 0
Por lo tanto, para todo v à ⺢n se tiene

f (0 ! tv) . f (0) tf (v)


f Rñ (0, v) % lim % k lim % f (v)
tr0` t tr0` t
4.5. Sea C un convexo abierto de ⺢n y f : C r ⺢ convexa y
de clase uno. Demuéstrese que si f tiene más de un punto crı́tico,
entonces tiene infinitos.

Solución
Si a0, a1 à C son puntos crı́ticos de f, entonces, por 4.10, a0
y a1 son puntos de mı́nimo absoluto, luego f (a0) % f (a1). Por ser
f convexa, para todo 0 m t m 1 el punto at % ta0 ! (1 . t)a1 ve-
rifica
f (at) % f (ta0 ! (1 . t)a1) m tf (a0) ! (1 . t) f (a1) %
% tf (a0) ! (1 . t) f (a0) % f (a0)
Como a0 es un punto de mı́nimo absoluto, deber ser f (a0) % f (at).
Finalmente, todos los puntos at son de mı́nimo absoluto, luego
son puntos crı́ticos.

108
PROGRAMACIÓN CONVEXA. DUALIDAD

4.6. Hállese el dual del programa convexo

E
Min f0(x); x à ⺢n
(P)
sujeto a 88x88 . 1 m 0
en donde f0 es una función constante f 0(x) % a0.

Solución
Claramente:
u(j) % Inf RL(x, j) : x à ⺢nS%Inf R f0(x)!j(88x88 . 1) : x à ⺢nS %
% a0 ! j Inf R88x88 : x à ⺢nS . j % a0 . j
En consecuencia,
A % Rj à ⺢n! : u(j) b .äS % ⺢n!
luego el programa dual es

E
Max u(j) % a0 . j
(P)
j à ⺢n!
4.7. Hállese el dual del programa

E
Min f (x, y) % x . y ! 3
(P) sujeto a x . y m .1
.x ! y m 1
compruébese que A coincide con el conjunto factible de (P) y
que u(j) % f (j) para todo j à A

Solución
La función dual es
u(j) % Inf RL(x, y, j1, j2) : (x, y) à ⺢2S %
% Inf Rx.y!3!j1(x.y!1)!j2(.x!y.1) : (x, y) à ⺢2S%
%Inf Rx.y!1!2!j1(x.y!1)!j2(.x!y.1) : (x, y) à ⺢2S%

109
OPTIMIZACIÓN. CASOS PRÁCTICOS

%Inf R(x . y ! 1)(1 ! j1 . j2) ! 2 : (x, y) à ⺢2S %

E
2 si 1 ! j1 . j2 % 0
%
.ä si 1 ! j1 . j2 Ç 0

luego j à A si y sólo si 1 ! j1 . j2 % 0, en consecuencia, A


coincide con el conjunto factible de (P)

E E
x . y m .1 x . y m .1
% % R1 ! x . y % 0
.x ! y m 1 x . y n .1
Finalmente, si j à A, entonces j2 % j1 ! 1, y por lo tanto
f (j) % j1 . (j1 ! 1) ! 3 % 2 % u(j)
4.8. Sea (P) un programa convexo

E
Min f (x); x à ⺢n
sujeto a g1(x) m 0
(P) g2(x) m 0
ñ
gm(x) m 0

cuya función dual u : A r ⺢ verifica u(j) % f (j) para todo j à


A, siendo A igual al conjunto factible de (P). Demuéstrese que f
es constante sobre A y que jigi(a) % 0 para cualesquiera i % 1, ...,
n, a, j à A.

Solución

Para cualesquiera j, a à A se tiene ji n 0, ai n 0, gi(ai) m 0,


gi(ji) m 0 luego

E F
m
f (j) % u(j) % Inf f (x) ! ; ji gi (x) : x à ⺢n m
i%1

m
m f (a) ! ; ji gi (a) m f (a)
i%1

110
PROGRAMACIÓN CONVEXA. DUALIDAD

E F
m
f (a) % u(a) % Inf f (x) ! ; ai gi (x) : x à ⺢n m
i%1

m
m f (j) ! ; ai gi (j) m f (j)
i%1

luego f es constante en A. Ahora bien, al ser f constante en A,


para todo j à A

E F
m
f (j) % u(j) % Inf f (x) ! ; ji gi(x) : x à ⺢n m
i%1

E F
m
m Inf f (x) ! ; ji gi(a) : a à A %
i%1

E F
m
% f (j) ! Inf ; ji gi(a) : a à A
i%1

m
luego 0 m ; ji gi (a). Como ji n 0, gi (ai ) m 0, se deduce que
i%1

ji gi (a) % 0
para todo i % 1, ..., n, a, j à A.
4.9. Compruébese que la función f : ⺢2 r ⺢ definida por
f (x1, x2) % x21 ! x22 . 2x1 . 4x2 ! 5
es convexa, hállese el dual del programa matemático

E
Min f (x1, x2) % x21 ! x22 . 2x1 . 4x2 ! 5
(P) sujeto a x1 ! x2 m 0
x1 . x2 m 0
y verifı́quese que es factible y acotado.

Solución
En primer lugar se comprueba que f es convexa. En efecto,

111
OPTIMIZACIÓN. CASOS PRÁCTICOS

f es de clase uno en C % ⺢2 y Mf (y1, y2) % (2y1 . 2, 2y2 . 4),


luego
f (x1, x2) . f (y1, y2) . Mf (y1, y2) · (x1 . y1, x2 . y2) %
%x !x22 !y21 !y22 .2y1x1 .2y2x2 %(x1 .y1)2 !(x2 .y2)2 n0
2
1

lo que implica que f es convexa.


Por otra parte, la Lagrangiana del programa es la función
L : ⺢2 # ⺢2! r ⺢ definida por
L (x1, x2, j1, j2) %
% (x ! x . 2x1 . 4x2 ! 5) ! j1(x1 ! x2) ! j2(x1 . x2)
2
1
2
2

y la función dual u : ⺢2! r ⺢ del programa (P) es


u(j1, j2) % InfRL (x1, x2, j1, j2) : (x1, x2) à ⺢2S
Observemos que
L (x1, x2, j1, j2) %
% (x21 ! x22 . 2x1 . 4x2 ! 5) ! j1(x1 ! x2) ! j2(x1 . x2) %
% x21 ! (.2 ! j2 ! j1)x1 ! 5 ! x22 ! (.4 ! j1 . j2)x2
Agrupando cuadrados
x21 ! (.2 ! j2 ! j1)x1 %
1 1
A B
2
% x21 ! (.2 ! j2 ! j1)x1 ! .1 ! j2 ! j1 .
2 2
1 1 1
A B
2
. .1 ! j2 ! j1 % (2x1 . 2 ! j2 ! j1)2 .
2 2 4
1 1
A B
2
. .1 ! j2 ! j1
2 2

x22 ! (.4 ! j1 . j2)x2 %


1 1
A B
2
% x ! (.4 ! j1 . j2)x2 ! .2 ! j1 . j2
2
2 .
2 2

112
PROGRAMACIÓN CONVEXA. DUALIDAD

1 1 1
A B
2
. .2 ! j1 . j2 % (2x2 . 4 ! j1 . j2)2 .
2 2 4
1 1
A B
2
. .2 ! j1 . j2
2 2
luego
L (x1, x2, j1, j2) %
1 1
% (2x1 . 2 ! j2 ! j1)2 ! (2x2 . 4 ! j1 . j2)2 .
4 4
1 1
. j2 ! 3j1 . j22 . j21
2 2
Para j1, j2 fijos, el ı́nfimo de L se alcanza entonces para los
valores de x1, x2 que minimizan la expresión
1 1
(2x1 . 2 ! j2 ! j1)2 ! (2x2 . 4 ! j1 . j2)2
4 4
esto es, para
1 1
x 1 % 1 . j2 . j1
2 2

1 1
x 2 % 2 . j1 ! j2
2 2
Para estos valores
1 1 1 1
A
L 1 . j2 . j1, 2 . j1 ! j2, j1, j2 %
2 2 2 2 B
1 1
% . j21 ! 3j1 . j22 . j2
2 2
En consecuencia
1 1
u(j1, j2) % . j21 ! 3j1 . j22 . j2
2 2

113
OPTIMIZACIÓN. CASOS PRÁCTICOS

Es claro que el conjunto A % R(j1, j2) : u(j1, j2) b .äS es todo


⺢2, luego A Ç Y y el programa dual
1 2 1 1

E
Max u(j1, j2) % . j1 ! 3j1 . j22 . j2
(D) 2 2 2
(j1, j2) à ⺢2

es factible. Además

1 9 9 1 1 1
u(j1, j2) % . j21 ! 3j1 . ! . j22 . j2 . ! %
2 2 2 2 2 2

1 9 1 1
% . (j1 . 3)2 ! . (j2 ! 1)2 ! %
2 2 2 2

1 1
% . (j1 . 3)2 . (j2 ! 1)2 ! 5 a 5
2 2

En consecuencia, (D) es acotado.

4.10. Resuélvanse los programas (P) y su dual (D) del ejer-


cicio 4.9.

Solución

El programa (P) satisface las condiciones del Teorema 11 del


capı́tulo 4, pues f es convexa y el conjunto M determinado por
las desigualdades x1 ! x2 m 0, x1 . x2 m 0 es también convexo,
por ser la intersección de dos semiplanos. Apliquemos, por lo
tanto las condiciones de Kuhn-Tucker de mı́nimo local. Se satis-
facen las condiciones de cualificación de Karlin, por lo que se in-
tenta averiguar la existencia de j1, j2 n 0 y (x1, x2) à M tales que

(2x1 . 2, 2x2 . 4) ! j1(1, 1) ! j2(1, .1) % (0, 0)


j1(x1 ! x2) % 0
j2(x1 . x2) % 0

114
PROGRAMACIÓN CONVEXA. DUALIDAD

Si fuera x1 ! x2 Ç 0, entonces se tendrı́a j1 % 0, lo que implica-


rı́a
2x1 . 2 ! j2 % 0
2x2 . 4 . j2 % 0
y en particular x1 ! x2 % 3 b 0, por lo que el punto (x1, x2) no
pertenecerı́a a M. En consecuencia, debe ser x1 ! x2 % 0. De for-
ma análoga se comprueba que x1 . x2 Ç 0, pues el punto x1 % 0,
x2 % 0 no satisface (I) para ningún valor de j1, j2 n 0 (ya que ob-
tendrı́amos j1 % 3, j2 % .1). Luego j2 % 0 y resulta
2x1 . 2 ! j1 % 0
2x2 . 4 ! j1 % 0
x1 ! x2 % 0
1 1 1 1
de donde j1 % 3, x1 % . , x2 % . El puntio . ,
2 2 A
mı́nimo local, y por lo tanto, es de mı́nimo global.
2 2 B
es de

1 1 9
A
El valor mı́nimo es f . ,
2 2
% .
2 B
En cuanto al Programa dual (D), basta observar que
1 1
u(j1, j2) % . (j1 . 3)2 . (j2 ! 1)2 ! 5
2 2
por lo que el valor máximo de u, parta j1, j2 n 0, obviamente se
alcanza cuando los términos
1 1
. (j1 . 3)2 y . (j2 ! 1)2
2 2
son máximos, esto es, para j1 . 3 % 0, j2 ! 1 % 1. En definiti-
1 9
va, u(3, 0) % . ! 5 % es el valor máximo buscado.
2 2

115
CAPÍTULO 5
PROGRAMACIÓN LINEAL

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Formas canónica y estándar del problema


de programación lineal

Un programa lineal es un problema de optimización del tipo


siguiente

E
Min f (x)
sujeto a gj(x) % 0, j à J 0
(P) gj(x) m 0, j à J .
gj(x) n 0, j à J !
x1 n 0, x2 n 0, ..., xn n 0

donde x % (x1, x2, ..., xn) à ⺢n, f : ⺢n r ⺢ es lineal y gj : ⺢n r ⺢


son afines para todo j.

117
OPTIMIZACIÓN. CASOS PRÁCTICOS

5.1. Forma canónica del programa lineal:

E
Min z % c1x1 ! c2x2 ! ñ ! cnxn
sujeto a a11x1 ! a12x2 ! ñ ! a1nxn m b1
sujeto a a21x1 ! a22x2 ! ñ ! a2nxn m b2
(P)
sujeto a .....................................................
sujeto a am1x1 ! am2x2 ! ñ ! amnxn m bm
sujeto a x1, x2, ..., xn n 0

5.2. Una restricción de desigualdad se puede convertir en


una de igualdad introduciendo una variable de holgura, de forma
que si el problema está dado en forma canónica, introduciendo
una variable de holgura por cada restricción se tiene el programa
en forma estándar:

E
Min z%c1x1!c2x2!ñ!cnxn!0xn!1!0xn!2!ñ!0xn!m
sujeto a a11x1 ! a12x2 ! ñ ! a1nxn ! xn!1 % b1
sujeto a a21x1 ! a22x2 ! ñ ! a2nxn ! xn!2 % b2
(P)
sujeto a ...................................................................
sujeto a am1x1 ! am2x2 ! ñ ! amnxn ! xn!m % bm
sujeto a x1, x2, ..., xn, xn!1, xn!2, ..., xn!m n 0

Sean

AB
x1

AB
ñ b1
xn b
c % (c1, c2, ..., cn, 0, ..., 0), x% , b% 2
xn!1 ñ
ñ bm
xn!m

y A la matriz de los coeficientes del sistema, de orden


m # (n ! m), definido por las restricciones de igualdad. Utilizan-
do la notación matricial, el programa en forma estándar se puede
expresar por:

118
PROGRAMACIÓN LINEAL

Min z % cx
sujeto a Ax % b
xn0
en donde se entiende que x n 0 significa que cada coordenada de
x es no negativa.

Soluciones factibles básicas. Caracterización de los puntos


extremos de M

Se supone que el programa lineal está dado en forma estándar


con m ecuaciones y n ! m incógnitas y que el rango de A es m.
Se denota por M el conjunto factible del programa lineal
M % Rx à ⺢n!m
!
: Ax % bS.
M es un conjunto convexo por ser intersección de hiperplanos.
5.3. Se llama base a toda submatriz cuadrada m # m y re-
gular extraı́da de A. Dada una base B, la matriz A se puede expre-
sar en la forma A % (B/N) sin más que reordenar adecuadamente
las columnas, siendo N la submatriz de A formada por las colum-
nas de A que no están en B. Análogamente, se pueden reordenar
las coordenadas de c y x como sigue
xB
c % (cB, cN), x %
AB xN
.

Toda solución factible del programa lineal cumple que


Ax % b, lo que en la nueva notación se puede expresar por
BxB ! NxN % b
y la función objetivo es
f (xB, xN) % cBxB ! cNxN.
5.4. Se llama solución básica (asociada a la base B) a la solu-
ción particular obtenida haciendo xN % 0.

119
OPTIMIZACIÓN. CASOS PRÁCTICOS

Nótese que si xN % 0, entonces el sistema Ax % b se convierte


en BxB % b que es un sistema compatible determinado al ser B de
orden m # m y regular.
5.5. Se llama solución factible básica a cualquier solución bási-
ca tal que xB n 0 o lo que es equivalente tal que
B.1b n 0
Es claro que el número máximo de soluciones factibles básicas
n!m
del programa lineal es
A B m
. Una base asociada a una solu-

ción factible básica se llama base factible. Si alguna coordenada


de una solución factible básica xB n 0 es nula se dice que la solu-
ción es degenerada.
5.6. Dado un programa lineal P en forma estándar y tal que el
rango de A es m, si el conjunto factible M es no vacı́o, entonces
P tiene al menos una solución factible básica.
5.7. Dado el programa lineal P en forma estándar con rango
A % m y conjunto factible M, x es un punto extremo de M si y só-
lo si x es una solución factible básica de P. El conjunto convexo
M tiene un número finito de puntos extremos.

Teoremas fundamentales de la programación lineal

Se supone que el programa lineal P está dado en forma están-


dar, con rango de A igual a m, y se considera el caso del mı́nimo.
Los resultados para el caso del máximo son similares.
5.8. Si el conjunto factible M del programa lineal P es aco-
tado, entonces P tiene su mı́nimo global en un punto extremo de
M. Si el mı́nimo del programa lineal P se alcanza en más de un
punto extremo de M, entonces también es mı́nimo cualquier com-
binación lineal convexa de dichos puntos extremos.
5.9. Si P tiene solución factible mı́nima finita, entonces P
tiene solución factible básica mı́nima.

120
PROGRAMACIÓN LINEAL

Fundamento del método simplex

Se considera el programa lineal P dado en la forma estándar


Min z % f (x) % cx
sujeto a Ax % b
xn0
en donde A es la matriz del sistema de restricciones, de orden
m # n y rango m, c, x à ⺢n y b à ⺢m. En estas condiciones, existe
una submatriz B de A regular de orden m # m, llamada base. Se
supone, sin pérdida de generalidad, que B está formada por las m
primeras columnas de A y sea N la submatriz de A formada por
las n . m columnas de A que no están en B. Se denota por xB el
vector de ⺢m formado por las variables del problema que corres-
ponden a las columnas de B y por xN el vector de ⺢n.m formado
por las variables que corresponden a las columnas de N, es decir:
B % (A1, A2, ..., Am); N % (Am!1, Am!2, ..., An); A % (B8N)
Haciendo xN % 0 se tiene una solución básica del tipo (xB, 0)T que
será factible básica si todas sus coordenadas son no negativas, en
cuyo caso será además un punto extremo del conjunto factible M.
Es claro que, al ser m el rango de A, se tiene que:
Aj % a1A1 ! a2A2 ! ñ ! amAm, Oj % m ! 1, m ! 2, ..., n.
5.10. Sean B % (B1, B2, ..., Bm) una base del problema P
asociada a la solución factible básica x % (xB, xn) % (x1, ..., xm, 0,
..., 0) con xB % B.1b, Bj una columna de N tal que
n

Bj % ; aij Bi
i%1

con alguna aij b 0 y


xk xi
akj
% Min
1mimm Eaij
: aij b 0
F
121
OPTIMIZACIÓN. CASOS PRÁCTICOS

En estas condiciones, se verifica que:

a) y % (y1, ..., yn) es una solución factible básica de P, en


donde
xk

E
xi . aij para i % 1, ..., k . 1, k ! 1, ..., m
akj
xk
yi % para i % j
akj
0 en otro caso

b) f (y)%f (x).(zj.cj )yj, en donde zj%c1a1j!ñ!cmamj.

El siguiente resultado establece la relación entre el valor de la


función objetivo en una solución factible básica y en otra solu-
ción factible cualquiera. Para cada j % m ! 1, ..., n se denota
zj % c1a1j ! ñ ! cmamj.

5.11. Si x % (x1, ..., xm, 0, ..., 0) es una solución factible bá-


sica del programa, con B % (B1, ..., Bm) e y % (y1, ..., yn) à M, en-
tonces
n

f (y) % f (x) . ; (zj . cj)yj.


j%m!1

5.12. Sea x % (x1, ..., xm, 0, ..., 0) una solución factible bási-
ca de P, se verifica que:

a) si zj . cj m 0 para todo j % m ! 1, ..., n, entonces x es


una solución factible básica mı́nima,
b) si zj . cj m 0 para alguna j % m ! 1, ..., n y las corres-
pondientes a1j, ..., amj son negativas o nulas, entonces P no tiene
solución factible mı́nima, y
c) si x es una solución factible básica no degenerada y
zj . cj % 0 para alguna j % m ! 1, ..., n, entonces existen múlti-
ples soluciones mı́nimas.

122
PROGRAMACIÓN LINEAL

Algoritmo matricial del simplex

5.13. El proceso a seguir es el siguiente. Se denota

J % Rm ! 1, ..., nS

1. Se obtiene una solución factible básica, llamada inicial,


x % (x1, ..., xm, 0, ..., 0)T con matrices asociadasB % (B1, ..., Bm) y
N % (Bm!1, ..., Bn).
2. Se calcula la diferencia zj . cj, para cada j à J,

(zm!1 . cm!1, ..., zn . cn) % cBB.1N . cN,

en donde

A B
a1m!1 ñ a1n
B N% ñ
.1
ñ ñ
am m!1 ñ am n

es la matriz cuya columna j-ésima está formada por las coordena-


das de la columna no básica Bj respecto de las columnas de la
matriz básica B. Es claro que si B fuera la matriz identidad, la
matriz anterior serı́a simplemente N.

2a) Si zj . cj m 0 para todo j à J, entonces x es la solución


factible básica mı́nima y se habrá obtenido la solución del pro-
grama. Si alguna de las diferencias es nula y x es no degenerada,
entonces existen otras soluciones mı́nimas además de esta. Cam-
biando la columna que corresponde a zj . cj % 0 por una de la
matriz básica se tiene otra solución factible básica mı́nima y tam-
bién será solución factible mı́nima cualquier combinación conve-
xa de ambas.
2b) Si zj . cj b 0 para alguna j à J y las correspondientes
aij, ..., amj son negativas o nulas, entonces el programa no tiene
solución.
2c) Si al menos existe una diferencia zj . cj b 0 y no se
cumple 2b, se pasa a 3.

123
OPTIMIZACIÓN. CASOS PRÁCTICOS

3. Se determina una nueva matriz básica cambiando la co-


lumna Bs de B por la columna Be de N, en donde
Be corresponde a ze . ce % Max Rzj . cj b 0S
jàJ

xs xi
Bs corresponde a
ase
% Min
i%1, ..., m E aie F
: aie b 0 ,

de forma que la nueva matriz básica es


Bñ % (B1, ..., Bs.1, Bs!1, ..., Bm, Be).
La solución factible básica asociada a Bñ es y % (yBñ, yNñ)T con
yTBñ % Bñ.1b, yTNñ % 0 y se tiene una nueva solución factible básica
tal que f (y) es menor o igual que f (x).
4. Se repite el proceso anterior para la nueva solución facti-
ble básica.
Para iniciar el trabajo es necesario seleccionar la solución
factible básica inicial, lo que resulta muy simple si la matriz del
sistema de restricciones contiene como submatriz a la identidad
de orden m # m. Si no es ası́, siempre se puede conseguir por
medio de las variables de holgura o bien introduciendo otras va-
riables auxiliares llamadas variables artificiales como se indica a
continuación.
Si el programa está dado en la forma canónica
Min cx
sujeto a Ax % b
xn0
se introducen las variables de holgura xn!1, ..., xn!m y se tiene el
programa en forma estándar
Min cx ! 0xh
sujeto a Ax ! Ixh % b
x n 0, xh n 0

124
PROGRAMACIÓN LINEAL

en donde la matriz identidad de orden m # m es la matriz básica


inicial y la solución inicial es x % 0, xh % b. Si el programa ya es-
tá dado en la forma estándar
Min cx
sujeto a Ax % b
xn0
y no contiene una submatriz identidad de orden m # m, se intro-
ducen las variables artificiales xn!1, ..., xn!m, con lo que se tiene
el programa
Min cx ! 0xa
sujeto a Ax ! Ixa % b
x n 0, xa n 0
en donde la matriz básica inicial es la identidad de orden m # m,
y la solución inicial es x % 0, xa % b.
Para problemas de máximo se opera de la misma forma con-
virtiendo el problema en un problema de mı́nimo teniendo en
cuenta que
Max cx % .Min (.cx).

La tabla del simplex

5.14. Se considera un programa de mı́nimo dado en la for-


ma estándar
Min cx
sujeto a Ax % b
xn0
con m restricciones de igualdad, n variables y tal que el rango de
A es m. Se obtiene, en primer lugar, una solución factible básica
o solución inicial x % (h1, ..., hm, 0, ..., 0)T con matrices asociadas
B % (B1, ..., Bm) y N % (Bm!1, ..., Bn) y se diseña la siguiente ta-
bla del simplex.

125
OPTIMIZACIÓN. CASOS PRÁCTICOS

x1 ñ xs ñ xm xm!1 ñ xe ñ xn T.I.

x1 1 ñ 0 ñ 0 a1m!1 ñ a1e ñ a1n h1


ñ ñ ñ ñ ñ ñ ñ ñ ñ ñ ñ ñ

xs 0 ñ 1 ñ 0 as m!1 ñ as e ñ as n hs
ñ ñ ñ ñ ñ ñ ñ ñ ñ ñ ñ ñ
xm 0 ñ 0 ñ 1 am m!1 ñ am e ñ am n hm

z 0 ñ 0 ñ 0 zm!1.cm!1 ñ ze.ce ñ zn.cn z0

Obsérvese que si la matriz B de partida es la identidad, los


cálculos se simplifican mucho ya que entonces se tiene que

(h1, ..., hm)T % B.1b % b

es decir que la última columna de la tabla esta formada por los


términos independientes del sistema de restricciones. En este ca-
so, las aij que aparecen en la tabla serı́an simplemente las colum-
nas de coeficientes de las variables no básicas que se tienen en el
sistema de restricciones. Recordemos que:

Bj % a1jB1 ! ñ ! amjBm, Oj % m ! 1, ..., n,

Además, si cB % 0, como

zj . cj % cBB.1Bj . cj % cBBj . cj % .cj,

los valores no nulos que aparecen en la fila objetivo de la tabla


son los coeficientes de las variables no básicas en la función ob-
jetivo cambiados de signo.
Se aplica a la tabla anterior el siguiente test de optimalidad.

— Si zj . cj m 0 para todo j % m ! 1, ..., n, la solución fac-


tible básica que corresponde a esa tabla es la solución del progra-
ma, pudiendo darse el caso de soluciones múltiples si para alguna
j se tiene que zj . cj % 0.

126
PROGRAMACIÓN LINEAL

— Si alguna diferencia zj . cj es positiva y todas las aij co-


rrespondientes a alguna de las diferencias positivas son negativas
o nulas, entonces el programa no tiene solución mı́nima factible.
— Si no se da ninguna de los casos anteriores, se pasa a otra
tabla que proporciona otra solución factible básica que mejora el
valor de la función objetivo. Para ello se selecciona un elemento
de la tabla llamado pivote como se indica a continuación.
Se selecciona la columna que corresponda a la mayor de las
diferencias anteriores de entre las positivas (columna e de la va-
riable que entra en la nueva solución factible básica) y la fila s
(indica la variable que sale de la solución) tal que
hs hi
ase
% Min
E :a b0 .
aie ie F
El elemento pivote es el de la fila s y la columna e. La nueva ta-
bla se construye dividiendo por ase los elementos de la fila pivote,
con lo que el pivote pasa a valer uno, y haciendo ceros en todos
los elementos de la columna pivote (incluyendo la fila objetivo).
Por último en esta nueva tabla se cambia la variable xs por la xe
y se repite el test de optimalidad. La iteración de este proceso lle-
vará a la solución del programa o a la conclusión de que el pro-
grama no tiene solución.

127
PROBLEMAS RESUELTOS

5.1. Dado el programa lineal


Max 3x1 . 4x2 ! x3
sujeto a 0,5x1 ! 2x2 n 3
x2 . x3 % 4
x1 n 0, x2 m 0, x3 n 0
a) Obténgase su expresión en forma estándar con notación
matricial.
b) Determı́nese una base y una solución básica asociada.

Solución
a) Transformación de las condiciones dadas en otras equi-
valentes para obtener la forma canónica del programa.
a1: Max 3x1 . 4x2 ! x3 á . Min . 3y1 . 4y2 . y3
x1 % y1, x2 % .y2, x3 % y3
a2: x2 m 0 á y2 n 0
a3: 0,5x1 ! 2x2 n 3 á . 0,5x1 . 2x2 m .3
á .0,5y1 ! 2y2 m .3
a4: x2 . x3 % 4 á x 2 . x3 n 4 y x 2 . x3 m 4
á .x2 ! x3 m .4 y x2 . x3 m 4
á y2 ! y3 m .4 y .y2 . y3 m 4
a5: x1n0, x2m0, x3n0 á y1 n 0, y2 n 0, y3 n 0

128
OPTIMIZACIÓN. CASOS PRÁCTICOS

Forma canónica del programa:


Min .3y1 . 4y2 . y3
sujeto a .0,5y1 ! 2y2 m .3
y2 ! y3 m .4
.y2 . y3 m 4
y1 n 0, y2 n 0, y3 n 0
Transformación de la forma canónica a la forma estándar me-
diante la introducción de variables de holgura.
Forma estándar:
Min .3y1 . 4y2 . y3 ! 0y4 ! 0y5 ! 0y6
sujeto a .0,5y1 ! 2y2 ! y4 % .3
y2 ! y3 ! y5 % .4
.y2 . y3 ! y6 % 4
y1 n 0, y2 n 0, y3 n 0, y4 n 0, y5 n 0, y6 n 0
Notación matricial:
Min . 3y1 . 4y2 . y3 ! 0y4 ! 0y5 ! 0y6

AB
y1
y2

A B AB
.0,5 2 0 1 0 0 .3
y3
0 1 1 0 1 0 % .4
y4
0 .1 .1 0 0 1 4
y5
y6
y1 n 0, y2 n 0, y3 n 0, y4 n 0, y5 n 0, y6 n 0
b) La matriz

A B
.0,5 2 0 1 0 0
A% 0 1 1 0 1 0
0 .1 .1 0 0 1
da lugar a un sistema de 3 ecuaciones y 3 ! 3 incógnitas cuyo
rango es 3.

129
PROGRAMACIÓN LINEAL

Es evidente que

A B
1 0 0
0 1 0
0 0 1
es una base, y que

A B
.0,5 2 0
0 1 1
0 .1 .1
no es una base, ya que aunque es una submatriz extraı́da de A, no
es regular.
El sistema a que da lugar la matriz A se puede reordenar de
la siguiente manera:

AB
y4
y5

A B AB
1 0 0 .0,5 2 0 .3
y6
0 1 0 0 1 1 % .4 ;
y1
0 0 1 0 .1 .1 4
y2
y3
Ay % b á ByB ! NyN % b
Siendo

A B A B
1 0 0 .0,5 2 0
B% 0 1 0 , N% 0 1 1 ,
0 0 1 0 .1 .1

AB AB
y4 y1
yB % y 5 , yN % y2
y6 y3
Una solución básica asociada a la base B elegida es: (0, 0, 0, .3,
.4, 4), que se ha obtenido al hacer

A B AB
y1 0
yN % y2 % 0
y3 0

130
OPTIMIZACIÓN. CASOS PRÁCTICOS

La solución obtenida no es factible porque no cumple

AB
0
yB n 0
0
Si el reordenamiento elegido hubiera sido:

AB
y4
y5

A B AB
1 0 2 .0,5 0 0 .3
y2
0 1 1 0 1 0 % .4 ;
y1
0 0 .1 0 .1 1 4
y3
y6
una solución básica del problema en y, asociada a la base B ele-
gida serı́a (0, .4, 0, 5, 0, 0), que se ha obtenido al hacer

A B AB
y1 0
yB % y3 % 0 ,
y6 0
y darı́a lugar a x % (0, 4, 0, 5, 0, 0), solución básica del problema
inicial.
5.2. Determı́nense los vértices de las distintas regiones facti-
bles y el valor mı́nimo de la función z % 20x1 ! 30x2 en dichas re-
giones para los distintos valores reales de k, sabiendo que está su-
jeto a las restricciones: x1!x2mk, 5x1!10x2m200, 4x1!2x2m80,
x1 n 0, x2 n 0.

Solución
Las restricciones 5x1 ! 10x2 m 200, 4x1 ! 2x2 m 80, x1 n 0,
x2 n 0, definen una región convexa de vértices: (0, 0), (0, 20),
(40/3, 40/3), (20, 0).
El conjunto factible es el conjunto anterior modificado por la
restricción x1 ! x2 m k en función del valor de k. Analicemos las
distintas posibilidades:

131
PROGRAMACIÓN LINEAL

Primera posibilidad: k n 80/3


La primera restricción se convierte en x1 ! x2 m 80/3, que es
superflua puesto que no modifica el recinto definido por las otras
restricciones.
La región factible es el polı́gono convexo de vértices (0, 0),
(0, 20), (40/3, 40/3), (20, 0).
En dicha región, es evidente que, z (función creciente) alcan-
za el mı́nimo en (0, 0).
Segunda posibilidad: 20 m k m 80/3
El conjunto factible es el polı́gono convexo de vértices
A(2k.40, 40.k), B(40.k, 2k.40), C(20, 0), D(0, 0), E(0, 20).
Donde
A es la intersección de x1 ! x2 % k con
5x1 ! 10x2 % 200 ú A % (2k . 40, 40 . k).
B es la intersección de x1 ! x2 % k con
4x1 ! 2x2 % 80 ú B % (40 . k, 2k . 40).
Valor de la función objetivo:
zA % 20(2k . 40) ! 30(40 . k) % 10k ! 400;
zB % 20(40 . k) ! 30(2k . 40) % 40k . 400;
zC % zE % 20 · 20 % 400;
zD % 0
Como k m 20, el valor mı́nimo de z es zD % 0.
Tercera posibilidad: 0 m k m 20
k no puede ser negativo porque x1 n 0, x2 n 0 ú La primera
restricción se convierte en x1 ! x2 m 20, y son superfluas las
otras dos.
La región factible es el polı́gono convexo de vértices (0, 0),
(0, k), (k, 0).
Análogamente a las otras posibilidades, z alcanza el mı́nimo
en (0, 0).

132
OPTIMIZACIÓN. CASOS PRÁCTICOS

5.3. Resuélvase el problema 1.8 utilizando el algoritmo


Simplex e interprétese el resultado.

Solución
Recordemos que el programa de optimización está formulado
de la siguiente manera:
Max 0,1x1 ! 0,07x2
sujeto a x1 ! x2 m 10
x1 m 6
x2 n 2
x1 n x2
x1 n 0, x2 n 0
Forma estándar del programa:
Min 0,1x1 . 0,07x2
sujeto a x1 ! x2 ! x3 % 10
x1 ! x4 % 6
.x2 ! x5 % .2
.x1 ! x2 ! x6 % 0
x1 n 0, x2 n 0, x3 n 0, x4 n 0, x5 n 0, x6 n 0
Algoritmo Simplex:

TABLA INICIAL

x1 x2 x3 x4 x5 x6 T.I.
x3 1 1 1 0 0 0 10

x4 1 0 0 1 0 0 6
x5 0 .1 0 0 1 0 .2
x6 .1 1 0 0 0 1 0

h 0,1 0,07 0 0 0 0 0

133
PROGRAMACIÓN LINEAL

Esta tabla corresponde a la solución básica inicial: (0, 0, 10,


6, .2, 0) con h % 0 y variables básicas x1, x2, x3, x3, x4, x5, x6,
que no es una solución factible porque no cumple x5 n 0.
Si hacemos los siguientes cambios de variable: x1 % y1 ! 2,
x2 % y2 ! 2, obtenemos:
Nueva forma estándar del programa

z % 0,1(y1 ! 2) ! 0,07(y2 ! 2)

h % .0,1(y1 ! 2) . 0,07(y2 ! 2)

Min .0,1y1 . 0,07y2 . 0,34


sujeto a y1 ! y2 ! y3 % 6
y1 ! y4 % 4
.y1 ! y2 ! y5 % 0
y1 n 0, y2 n 0, y3 n 0, y4 n 0, y5 n 0

Algoritmo Simplex:

TABLA INICIAL

y1 y2 y3 y4 y5 T.I.
y3 1 1 1 0 0 6

y4 1 0 0 1 0 4
y5 .1 1 0 0 1 0
h 0,1 0,07 0 0 0 .0,34

Selección del elemento pivote:

Columna de y1. (Contiene el mayor valor positivo en la fila


objetivo.)
Fila de y4 (contiene el mı́nimo de R6/1, 4/1S). La variable y1
entra como básica y sale la y4.

134
OPTIMIZACIÓN. CASOS PRÁCTICOS

Se trata de conseguir que la columna de y1 sea de la forma,

AB
0
1
,
0
0

para ello, hay que hacer las siguientes transformaciones en las fi-
las:

F1 r F1 . F2, F3 r F3 ! F2, F4 r F4 . 10.1F2

TABLA 2

y1 y2 y3 y4 y5 T.I.
y3 0 1 1 .1 0 2
y1 1 0 0 1 0 4

y5 0 1 0 1 1 4
h 0 0,07 0 .0,1 0 .0,74

que corresponde a la solución básica (4, 0, 2, 0, 4), con h % 0,4


y variables básicas y1, y3, y5.
Como todavı́a quedan valores positivos en la fila objetivo, es
necesario hacer una nueva tabla. Se trata ahora de conseguir que
la columna de y2 sea de la forma

AB
1
0
.
0
0

Repetiremos todo el proceso con las siguientes operaciones entre


filas:

F3 r F3 . F1, F4 r F4 . 0,07F1

135
PROGRAMACIÓN LINEAL

TABLA 3

y1 y2 y3 y4 y5 T.I.
y2 0 1 1 .1 0 2
y1 1 0 0 1 0 4
y5 0 0 .1 2 1 2
h 0 0 .0,07 .0,03 0 .0,88

El resultado corresponde a la solución factible básica (4, 2, 0,


0, 2).
Para esa solución, h % .8,8 # 104, es decir, unos beneficios
máximos z, de 88.000 pts obtenidos al invertir 600.000 pts del
primer tipo de bonos y 400.000 del segundo tipo.

5.4. Un despacho de abogados está dividido en dos departa-


mentos, en el 1.o se realiza el estudio de los casos, y en el 2.o se
prepara la defensa. Intervienen en 2 tipos de problemas, para cada
caso del 1er tipo se utilizan 2 horas del 1.er departamento y 5 del
2.o, y para los del 2.o tipo se emplean 4 h del 1.er departamento y
2 del 2.o. Sabiendo que cada caso del 1er tipo deja 150.000 pts de
beneficios y cada uno del 2.o, 300.000pts, se desea conocer cuántos
casos de cada clase hay que resolver en una semana para rentabili-
zar al máximo los beneficios, teniendo en cuenta que el despacho
sólo permanece abierto un máximo de 40 horas semanales.

Solución

Tipo 1 Tipo 2
Número de casos x1 x2

Tiempo 2x1 4x2 2x1!4x2m40


departamento 1.o
Tiempo 5x1 2x2 5x1!2x2m40
departamento 2.o

Ganancia 150.000x1 300.000x2 z % 150.000x1!300.000x2

136
OPTIMIZACIÓN. CASOS PRÁCTICOS

Formulación del programa:


Max 150.000x1 ! 300.000x2
sujeto a 2x1 ! 4x2 m 40
5x1 ! 2x2 m 40
x1 n 0, x2 n 0
El programa tiene dos variables, su solución es muy fácil con
el método geométrico.
La región factible es el polı́gono convexo de vértices: A(0, 0),
B(0, 10), C(5, 15/2), D(8, 0).
La función objetivo alcanza en ellos los siguientes valores:
zA % 0, zB % 3 # 106, zC % 3 # 106, zD % 1,2 # 106
El máximo se alcanza en los vértices B y C. Cuando esto ocu-
rre, significa que, las curvas de nivel son paralelas al lado del po-
lı́gono convexo que une esos dos vértices y por tanto tiene el mis-
mo valor óptimo para todos los puntos del segmento que los une.

(0, 10)
A5, 152 B
x

FIGURA 5.1.

Solución aplicando el algoritmo Simplex.

137
PROGRAMACIÓN LINEAL

Forma estándar del problema:


Min .150.000x1 . 300.000x2
sujeto a 2x1 ! 4x2 ! x3 % 40
5x1 ! 2x2 ! x4 % 40
x1 n 0, x2 n 0, x3 n 0, x4 n 0

TABLA INICIAL

x1 x2 x3 x4 T.I.

x3 2 4 1 0 40
x4 5 2 0 1 40

h 150.000 300.000 0 0 0

TABLA 2

x1 x2 x3 x4 T.I.

x2 1/2 1 1/4 0 10
x4 4 0 .1/2 1 20
h 0 0 .75.000 0 .300.000

que corresponde a la solución factible básica (0, 10, 0, 20) con un


beneficio de 3 # 106 pts.
El mı́nimo se alcanza en
h(0, 10, 0, 20) % .150.000 # 0 . 300.000 # 10 % .3 # 106
Al ser 0 el coeficiente de la variable no básica x1 en la fila obje-
tivo, cuando dicha variable se modifica, no variará h, y habrá so-
luciones óptimas múltiples.
5.5. Un artesano produce tres tipos de sillas con distinto
acabado. Tarda 3 dı́as en terminar cada una de primera calidad,
2 dı́as cada una de segunda, y un dı́a cada una de tercera. En cada

138
OPTIMIZACIÓN. CASOS PRÁCTICOS

unidad de 1.a, 2.a y 3.a, gana 6.000, 5.000 y 4.000 ptas., respecti-
vamente. De cada dos meses (60 dı́as) dedica 9 que no trabaja en
la producción, al reparto.
Sabiendo que sólo tiene licencia para vender 25 sillas en di-
cho perı́odo de dos meses. ¿Cómo debe distribuir la producción
para que la ganancia obtenida sea máxima?

Solución

Calidad Calidad Calidad


1.a 2.a 3.a

Número de unidades x1 x2 x3 x1!x2!x3m25

Dı́as trabajados 3x1 2x2 x3 3x1!2x2!x3m51


Ganancia en miles 6x1 5x2 4x3 z%6x1!5x2!4x3
de ptas.

Formulación estándar del programa:


Min .6x1 . 5x2 . 4x3
sujeto a x1 ! x2 ! x3 ! x4 % 25
3x1 ! 2x2 ! x3 ! x5 % 51
x1 n 0, x2 n 0, x3 n 0, x4 n 0, x5 n 0
Algoritmo Simplex.

TABLA INICIAL

x1 x2 x3 x4 x5 T.I.
x4 1 1 1 1 0 25

x5 3 2 1 0 1 51
h 6 5 4 0 0 0

Solución factible básica:


(0, 0, 0, 25, 51); h(0, 0, 0, 25, 51) % 0

139
PROGRAMACIÓN LINEAL

TABLA 2

x1 x2 x3 x4 x5 T.I.
x4 0 1/3 2/3 1 .1/3 8
x1 1 2/3 1/3 0 1/3 17

h 0 1 2 0 .2 .102

Solución factible básica:

(17, 0, 0, 8, 0); h(17, 0, 0, 8, 0) % .102.

TABLA 3

x1 x2 x3 x4 x5 T.I.

x3 0 1/2 1 3/2 .1/2 12


x1 1 1/2 0 .1/2 1/2 13

h 0 0 0 .3 .1 .126

Solución factible básica:


(13, 0, 12, 0, 0); h(13, 0, 12, 0, 0) % .126.
Para que las ganancias obtenidas sean máximas, debe produ-
cir en cada perı́odo 13 sillas de 1.a calidad y 12 de tercera cali-
dad. Las ganancias que obtiene son 126.000 pts e invierte en el
proceso los 3 # 13 ! 12 % 51 dı́as de que dispone.
5.6. Cierto programa de media hora de televisión consta de
la actuación de un equilibrista, un mago y una cantante. Los
anuncios duran al menos tres minutos. El equilibrista pretende
estar en el aire al menos el doble de tiempo que la cantante. El
productor quiere que el tiempo utilizado por el equilibrista y la
cantante juntos sea al menos el mismo que ha utilizado el mago.
Un análisis de audiencia revela que, por cada minuto de actua-

140
OPTIMIZACIÓN. CASOS PRÁCTICOS

ción del equilibrista, el mago y la cantante, verán el programa 40,


50 y 60 personas respectivamente. Se pide:
a) Forma estándar y notación matricial de un programa que
permita saber el tiempo que debe estar en pantalla cada actor pa-
ra que la audiencia sea máxima.
b) Resolver el programa con el algoritmo Simplex y anali-
zar paso a paso una iteración de dicho algoritmo.

Solución
a) Max 40x1 ! 60x2 ! 50x3
sujeto a x1 ! x2 ! x3 m 27
2x3 m x1
x2 m x1 ! x3
x1, x2, x3 n 0
Forma estándar del programa:
Max 40x1 ! 60x2 ! 50x3
sujeto a x1 ! x2 ! x3 ! x4 % 27
.x1 ! 2x3 ! x5 % 0
.x1 ! x2 . x3 ! x6 % 0
x1, x2, x3, x4, x5, x6 n 0
Notación matricial:
Max 40x1 ! 60x2 ! 50x3

AB
x1
x2

A B AB
1 1 1 1 0 0 27
x3
sujeto a .1 0 2 0 1 0 % 0
x4
.1 1 .1 0 0 1 0
x5
x6
x1, x2, x3, x4, x5, x6 n 0

141
PROGRAMACIÓN LINEAL

b) Algoritmo Simplex.
TABLA INICIAL

x1 x2 x3 x4 x5 x6 T.I.
x4 1 1 1 1 0 0 27

x5 .1 0 2 0 1 0 0
x6 .1 1 .1 0 0 1 0

z .40 .60 .50 0 0 0 0

Para seleccionar el pivote, tomamos como columna la que


tiene la entrada mas negativa en la última fila, y como fila el me-
nor de R0/1, 27/1S. La variable x2 va a pasar a ser variable básica
y va a sustituir como tal a x6, obteniéndose ası́ la siguiente tabla:
TABLA 2

x1 x2 x3 x4 x5 x6 T.I.
x4 2 0 2 1 0 .1 27
x5 .1 0 2 0 1 0 0

x2 .1 1 .1 0 0 1 0
z .100 0 .110 0 0 60 0

Repitiendo el proceso, en esta iteración se obtiene:


TABLA 3

x1 x2 x3 x4 x5 x6 T.I.

x4 3 0 0 1 .1 .1 27
x3 .1/2 0 1 0 1/2 0 0
x2 .3/2 1 0 0 1/2 1 0

z .150 0 0 0 55 60 0

142
OPTIMIZACIÓN. CASOS PRÁCTICOS

Como todavı́a hay entradas negativas en la última fila, hay


que hacer una nueva iteración, en ella, el elemento pivote es 3, y
la variable x1 pasa a ser básica mientras la x4 deja de serlo.

TABLA 4

x1 x2 x3 x4 x5 x6 T.I.

x1 1 0 0 1/3 .1/3 .1/3 9


x3 0 0 1 1/6 1/3 .1/6 9/2

x2 0 1 0 1/2 0 1/2 27/2


z 0 0 0 155/3 10/3 25/3 1.395

Hemos obtenido el valor máximo de z % 1.395 para la solu-


ción básica (9, 9/2, 27/2, 0, 0, 0).

5.7. Una fábrica de piensos tiene productos de cuatro tipos


diferentes: P1, P2, P3, P4, que proporcionan beneficios de 50, 40,
30 y 10 ptas., respectivamente. Los obtiene añadiendo proteı́nas,
grasas e hidratos de carbono en distintas proporciones, a un sus-
trato básico. Los gramos de proteı́nas, grasas e hidratos, añadidos
por unidad de cada producto vienen dados en la siguiente tabla:

P1 P2 P3 P4

Proteı́nas 3 2 3 1
Grasas 2 1 1 4

Hidratos 1 1 1 1

La fábrica va a hacer balance, y quiere utilizar antes los 5 kg


de proteı́nas, 7 de grasas y 12 de hidratos de carbono, que quedan
en almacén.

a) Escrı́base el programa lineal para que los beneficios de


esta operación sean máximos.

143
PROGRAMACIÓN LINEAL

b) De las restricciones escritas, señálese si hay alguna re-


dundante, explı́quese por qué y escrı́base el programa estándar
equivalente.

Solución

P1 P2 P3 P4
Unidades x1 x2 x3 x4

Proteı́nas 3 2 3 1 3x1!2x2!3x3!x4m5.000
Grasas 2 1 1 4 2x1!x2!x3!4x4m7.000

Hidratos 1 1 1 1 x1!x2!x3!x4m12.000

Programa:
Max 50x1 ! 40x2 ! 30x3 ! 10x4
sujeto a 3x1 ! 2x2 ! 3x3 ! x4 m 5.000
2x1 ! x2 ! x3 ! x4 m 7.000
x1 ! x2 ! x3 ! x4 m 12.000
x1 n 0, x2 n 0, x3 n 0, x4 n 0
b) La desigualdad x1 ! x2 ! x3 ! x4 m 12.000 es redundan-
te; la suma de las otras dos es 5x1 ! 4x2 ! 3x3 ! x4 m 12.000, y
como x1 n 0, x2 n 0, x3 n 0, x4 n 0, es evidente que, el programa
es equivalente a:
Max 50x1 ! 40x2 ! 30x3 ! 10x4
sujeto a 3x1 ! 2x2 ! 3x3 ! x4 m 5.000
2x1 ! x2 ! x3 ! 4x4 m 7.000
x1 n 0, x2 n 0, x3 n 0, x4 n 0
Formulación estándar del programa equivalente:
Max .50x1 . 40x2 . 30x3 . 10x4
sujeto a 3x1 ! 2x2 ! 3x3 ! x4 ! x5 % 5.000
2x1 ! x2 ! x3 ! 4x4 ! x6 % 7.000
x1 n 0, x2 n 0, x3 n 0, x4 n 0, x5 n 0, x6 n 0

144
OPTIMIZACIÓN. CASOS PRÁCTICOS

5.8. Utilı́cese el algoritmo Simplex para resolver el progra-


ma del problema 5.7 e interprétese el resultado.
Solución
Simplex.
TABLA INICIAL
x1 x2 x3 x4 x5 x6 T.I.
x5 3 2 3 1 1 0 5.000
x6 2 1 1 4 0 1 7.000
z 50 40 30 10 0 0 0

TABLA 2
x1 x2 x3 x4 x5 x6 T.I.
x1 1 2/3 1 1/3 1/3 0 5.000/3
x6 0 .1/3 .1 10/3 .2/3 1 11.000/3
z 0 20/3 .20 .20/3 .50/3 0 .250.000/3

TABLA 3
x1 x2 x3 x4 x5 x6 T.I.
x2 3/2 1 3/2 1/2 1/2 0 2.500
x6 1/2 0 .1/2 7/2 .1/2 1 4.500
z .10 0 .30 .10 .20 0 .100.000

z % 100.000 ptas es la cantidad máxima de beneficios que se


pueden obtener con las limitaciones dadas.
Este máximo se alcanza en el vértice (0, 2.500, 0, 0, 0,
4.500), es decir, fabricando únicamente 2.500 unidades del pro-
ducto P2.
No se utilizan x6%4.500 gramos de grasas, x5%5.000.2#
#2.500%0 gramos de proteı́nas ni 12.000.2.500%9.500 gra-
mos de hidratos.

145
CAPÍTULO 6
PROGRAMACIÓN LINEAL.
DUALIDAD

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

6.1. Se considera el programa lineal P en forma canónica:

E
Min z % c1x1 ! c2x2 ! ñ ! cnxn
sujeto a a11x1 ! a12x2 ! ñ ! a1nxn m b1
a21x1 ! a22x2 ! ñ ! a2nxn m b2
(P)
ññ
am1x1 ! am2x2 ! ñ ! amnxn m bm
x1, x2, ..., xn n 0

Al ser un programa lineal es también un programa convexo y,


en consecuencia, tiene asociado el siguiente programa dual D

147
OPTIMIZACIÓN. CASOS PRÁCTICOS

E
Max zñ % .b1j1 . b2j2 . ñ . bmjm
sujeto a a11j1 ! a21j2 ! ñ ! am1jm n .c1
a12j1 ! a22j2 ! ñ ! am2jm n .c2
(D)
ññ
a1nj1 ! a2nj2 ! ñ ! amnjm n .cn
j1, j2, ..., jm n 0

Expresaremos estos programas en forma reducida como si-


gue:

E E
Min z % cx Max zñ % .jb
(P) (D)
Ax m b ; x n 0 jA n .c ; j n 0

en donde

A B AB AB
a11 ñ a1n x1 b1
A% ñ ñ ñ , x% ó , b% ó
am1 ñ amn xn bm

y c % (c1, ..., cm), j % (j1, ..., jm). En consecuencia, el programa


dual es también un programa lineal (de máximo), con m variables
y n restricciones.

6.2. En el caso de un programa con restricciones de tipo n

E
Min z % cx
(P)
Ax n b ; x n 0

se tiene el siguiente programa equivalente en forma canónica

E
Min z % cx
(P)
(.A)x m .b ; x n 0

cuyo dual es

E
Max zñ % jb
(D)
jA m c ; j n 0

148
PROGRAMACIÓN LINEAL. DUALIDAD

6.3. Si el programa lineal está dado en forma estándar

E
Min z % cx
(P)
Ax % b ; x n 0

se obtiene un programa equivalente como sigue

E
Min z % cx
(P)
Ax m b ; Ax n b ; x n 0

equivalente a su vez al siguiente programa en forma canónica

E
Min z % cx
(P)
Ax m b ; (.A)x m .b ; x n 0

cuyo dual es

E
Max zñ % .ub ! vb
(D)
uA . vA n .c ; u, v n 0

en donde las variables del dual son u % (u1, ..., um) y v % (v1, ...,
vm), de tal forma que haciendo j % v . u el anterior programa
dual es equivalente a

E
Max zñ % jb
(D)
jA m c

en este caso sin restricciones en el signo de j.

Multiplicadores de Kuhn-Tucker en programas lineales

En todo lo que sigue se denota, respectivamente, por A1, A2,


..., An las columnas de A y por P1, P2, ..., Pm sus filas, de forma
que se tiene

Ax % x1A1 ! x2A2 ! ñ ! xnAn


jA % j1P1 ! j2P2 ! ñ ! jmPm

149
OPTIMIZACIÓN. CASOS PRÁCTICOS

el elemento que ocupa el lugar k (k % 1, ..., m) en Ax, se puede


expresar como Pkx, y el que ocupa el lugar k (k % 1, ..., n) en jA,
como jAk .
Consideremos el siguiente programa lineal P y supongamos
que es factible y acotado,

E
Min z % cx
(P)
Ax m b ; x n 0

La lagrangiana para este problema de optimización con restric-


ciones de desigualdad es la siguiente:
m
L (x; j) % cx ! ; ji(Pix . bi ) ; xn0 ; jn0
i%1

6.4. El conjunto ⺢n! es convexo y j n 0 es un multiplicador


de Kuhn-Tucker si:

Inf RL (x; j) : x n 0S % Inf Rcx : Ax m b, x n 0S

6.5. Si el programa lineal P es factible y acotado, entonces


P admite multiplicadores de Kuhn-Tucker.

Propiedades del programa dual

Sean los programas primal (en forma canónica) y dual si-


guientes:

E E
Min z % cx Max zñ % .jb
(P) (D)
Ax m b ; x n 0 jA n .c ; j n 0

6.6. Dados el programa lineal P y su programa dual D, se


verifica que:
a) si x y j son soluciones factibles, respectivamente, de P y
D, entonces .jb m cx, es decir que el objetivo dual es menor o
igual que el objetivo primal,

150
PROGRAMACIÓN LINEAL. DUALIDAD

b) si x y j son soluciones factibles, respectivamente, de P y


D, y .jb % cx, entonces x es solución óptima del primal y j es
solución óptima del dual, y
c) si uno de los programas es factible y no acotado, enton-
ces el otro no es factible.

Sean los programas primal (en forma estándar) y dual si-


guientes:

E E
Min z % cx Max zñ % jb
(P) (D)
Ax % b ; x n 0 jA m c

6.7. Dados los programas P y D anteriores, se verifica que:

a) si x y j son soluciones factibles, respectivamente, de P y


D, entonces jb m cx,
b) si x y j son soluciones factibles, respectivamente, de P y
D, y jb % cx, entonces x es solución óptima del primal y j es so-
lución óptima del dual, y
c) si uno de los programas es factible y no acotado, enton-
ces el otro no es factible.

Se enuncia a continuación el teorema fundamental de la dua-


lidad para programas lineales. Se consideran los programas linea-
les PC en forma canónica, PE en forma estándar y sus duales res-
pectivos DC y DE cuya formulación es la siguiente:

E E
Min z % cx Max zñ % .jb
(PC) (DC)
Ax m b ; x n 0 jA n .c ; j n 0

E E
Min z % cx Max zñ % jb
(PE) (DE)
Ax % b ; x n 0 jA m c

6.8. a) Si PC o DC es factible y acotado, entonces el otro


es factible y acotado y se verifica que:
a1) Min Rcx : Axmb, xn0S%Max R.jb : jAn.c, jn0S,

151
OPTIMIZACIÓN. CASOS PRÁCTICOS

a2) x es solución óptima de PC y j es solución óptima de DC


si y sólo si
xj (jAj ! cj) % 0, j % 1, 2, ..., n
ji (Pix . bi ) % 0, i % 1, 2, ..., m
ecuaciones que se denominan condiciones de holgura comple-
mentaria, y
a3) las soluciones duales coinciden con los multiplicadores
Kuhn-Tucker del programa primal.
b) Si PE o DE es factible y acotado, entonces el otro es fac-
tible y acotado y se verifica que:
b1) Min Rcx : Ax % b, x n 0S % Max Rjb : jA m cS, y
b2) x es solución óptima de PE y j es solución óptima de DE
si y sólo si se verifican las condiciones de holgura complemen-
taria
xj (jAj . cj ) % 0, j % 1, 2, ..., n
El siguiente resultado proporciona una forma sencilla de ob-
tener la solución del dual a partir de la penúltima tabla del sim-
plex para el problema primal en forma estándar. Se considera el
programa PE dado en la forma estándar y su dual DE y se resuelve
PE por el algoritmo del simplex. Sean x la solución del programa
primal obtenida, B y N las matrices de las columnas correspon-
dientes, respectivamente, a las variables básicas y no básicas de
la solución final, pero tomadas de la tabla anterior a la que pro-
porciona la solución final, y cB y cN las matrices fila formadas,
respectivamente, por los coeficientes de la función objetivo que
corresponden a las variables básicas y no básicas de la solución
final.
6.9. En las condiciones anteriores se verifica que j % cBB.1
es solución del programa dual.

152
PROBLEMAS RESUELTOS

6.1. Compárense los dos problemas siguientes y sus solu-


ciones:

Problema a):
Se ha suministrado a un almacén 2.000 kg de harina del tipo
uno y 1.000 kg de harina del tipo dos. Con ellos se hacen tres cla-
ses de mezclas, una mezcla A con triple cantidad del primer tipo
de harina que del segundo, una mezcla B, en la que emplea el tri-
ple del segundo tipo que del primero, y una tercera mezcla C, en
la que emplea la cuarta parte del segundo tipo que del primero.
Por cada kilogramo que vende de la clase A cobra 20 pesetas,
por cada uno de la clase B cobra 24 pesetas, y 30 por cada kilo-
gramo de la clase C.
¿Cuántos kilogramos de cada mezcla se deben hacer con la
harina suministrada al almacén, para que el dinero de las ventas
sea máximo?
Cantidad de la mezcla A: x1 kg
Cantidad de la mezcla B: x2 kg
Cantidad de la mezcla C: x3 kg
Dinero obtenido en la venta:
z % 20x1 ! 24x2 ! 30x3

153
OPTIMIZACIÓN. CASOS PRÁCTICOS

Restricciones:
3x1 x2 4x3
! ! m 2.000
4 4 5
x1 x3
! 3x2 ! m 1.000
4 5
x1, x2, x3 n 0
Las restricciones vienen dadas porque las cantidades de las
harinas de cada tipo utilizadas en las distintas mezclas, no pueden
exceder a la cantidad de cada tipo suministrada al almacén.
Forma canónica
Min (.z)
3x1 x2 4x3
sujeto a ! ! m 2.000
4 4 5
x1 x3
! 3x2 ! m 1.000
4 5
x1, x2, x3 n 0
Forma matricial:

AB
x1
.z % (.20, 24, .30) x2
x3
Min (.z)

BA B A B
x1

A
3/4 1/4 4/5 2.000
x2 m
1/4 3/4 1/5 1.000
x3

AB
x1

A B
2.000
x % x2 n 0; c % (20, 24, 30); b %
1.000
x3
Modelo a que corresponde:

AB
x1
z % (c1, c2, c3) x2 % cx á .z % .cxt
x3

154
PROGRAMACIÓN LINEAL. DUALIDAD

Min (.z) á Max z


Ax m b
xn0
Solución mediante simplex:
TABLA 1
x1 x2 x3 x4 x5 T.I.
x4 3/4 1/4 1/5 1 0 2
x5 1/4 3/4 1/5 0 1 1
z 20 24 30 0 0 0

TABLA 2
x1 x2 x3 x4 x5 T.I.
x3 15/16 5/16 1 5/4 0 5/2
x5 1/16 11/16 0 .1/4 1 1/2
z .65/8 117/8 0 .75/2 0 .75

TABLA 3
x1 x2 x3 x4 x5 T.I.
x3 10/11 0 1 15/11 .5/11 25/11
x2 1/11 1 0 .4/11 16/11 8/11
z .104/11 0 0 .354/11 .234/11 .942/11

942
z% (en miles)
11

Problema b)
Se ha suministrado a un almacén 2.000 kg de harina del tipo
uno y 1.000 kg de harina del tipo dos. Con ellos se hacen tres cla-

155
OPTIMIZACIÓN. CASOS PRÁCTICOS

ses de mezclas, una mezcla A con triple cantidad del primer tipo
de harina que del segundo, una mezcla B, en la que emplea el tri-
ple del segundo tipo que del primero, y una tercera mezcla C, en
la que emplea la cuarta parte del segundo tipo que del primero.
Por cada kilogramo que vende de la clase A cobra 20 pesetas,
por cada uno de la clase B cobra 24 pesetas, y 30 por cada kilo-
gramo de la clase C.
¿Cuántos kilogramos de cada mezcla se deben hacer para mi-
nimizar el coste del suministro de harina?
Coste para el almacén de 1 kg de harina tipo uno: y1 pesetas.
Coste para el almacén de 1 kg de harina tipo dos: y2 pesetas.
Coste del suministro de harina:
zñ % 2.000y1 ! 1.000y2
Restricciones:
3y1 y2
! n 20
4 4
y1 3y2
! n 24
4 4
4y1 y2
! n 30
5 5
y1 , y 2 n 0
Las restricciones vienen dadas porque el costo de cada kilo-
gramo de mezcla, que se obtiene sumando los costos de la parte
de kilogramo de cada componente que interviene en ella, deberá
ser, al menos, el precio de venta del kilogramo de ese tipo de
mezcla.
Forma canónica
Max (.zñ)
3y1 y2
sujeto a ! n 20
4 4

156
PROGRAMACIÓN LINEAL. DUALIDAD

y1 3y2
! n 24
4 4

4y1 y2
! n 30
5 5

y1, y2 n 0

Forma matricial:

A B
2.000
zñ % (y1, y2)
1.000

Max (.zñ)

A B
3/4 1/4 4/5
(y1, y2) n (20, 24, 30)
1/4 3/4 1/5

y % (y1, y2) n 0

Modelo a que responde:

AB
b1
zñ % (y1, y2) % yb á .zñ % .yb
b2

Max (.zñ) á Min zñ

yA n c

yn0

Nótese que la función a minimizar en el primal es


.z % .cx.
Solución por el método geométrico:
La aplicación del método geométrico es fácil, puesto que, so-
lamente hay dos variables.
El recinto de soluciones básicas es no acotado y la función
objetivo alcanza el mı́nimo 942.000/11 en el vértice (354/11,
234/11).

157
OPTIMIZACIÓN. CASOS PRÁCTICOS

FIGURA 6.1.

6.2. Para mejorar un cultivo se necesita abonar el terreno,


con al menos 8 kg de nitrógeno y 12 de fósforo. En el mercado
hay distintos productos. El de marca M contiene un 30 % de fós-
foro y un 10 % de nitrógeno y su precio por kilogramo es 90 pe-
setas. El de marca N contiene un 20 % de fósforo y un 20 % de
nitrógeno y cuesta 120 pesetas/kg.
¿Qué cantidad de cada marca debemos utilizar para que el
coste del abono sea mı́nimo?

Solución

De forma general, la asignación de variables se hace del si-


guiente modo:

xi : Nivel de la actividad i. (Número de kilogramos de cada


componente que interviene en la mezcla).
ci : Precio unitario correspondiente a la actividad i (pre-
cio/kg).
yi : Precio sombra de la variable i. Debe interpretarse como la
contribución a la ganancia por parte del recurso i.

158
PROGRAMACIÓN LINEAL. DUALIDAD

Problema primal: Problema dual:

z % 90x1 ! 120x2 zñ % 8y1 ! 12y2

Min z Max zñ

sujeto a 0,10x1 ! 0,20x2 n 8 sujeto a 0,10y1 !0,30y2 m 90


0,30x1 !0,20x2 n 12 0,20y1 !0,20y2 m 120
x1 n 0; x2 n 0 y1 n 0; y2 n 0

En el problema primal encontrábamos restricciones en la for-


ma n, mientras que, en el problema dual, las restricciones son
del tipo m, por ello, se hace aconsejable su uso para resolver el
problema dado.

Método geométrico:
El problema dual tiene dos variables, por tanto se puede re-
solver con el método geométrico. La región factible es el polı́-
gono convexo de vértices: A(0, 0), B(0, 300), C(450, 150),
D(600, 0).
La función objetivo alcanza en ellos los siguientes valores:
zñA % 0; zñB % 3.600; zñC % 5.400; zñD % 4.800. Es evidente que el
máximo se alcanza en el vértice C.
La solución óptima es 5.400 que corresponde al vértice (450,
150) del dual.

Podrı́amos haber optado por aplicar el algoritmo simplex:


Forma estándar del problema:

Min .8y1 . 12y2

sujeto a 0,10y1 ! 0,30y2 ! y3 ñ % 990

0,20y1 ! 0,20y2 ! ñ ! y4 % 120

y1 n 0; y2 n 0, y3 n 0; y4 n 0

159
OPTIMIZACIÓN. CASOS PRÁCTICOS

TABLA INICIAL

y1 y2 y3 y4 T.I.

y3 0,1 0,3 1 0 90
y4 0,2 0,2 0 1 120
8 12 0 0 0

TABLA DOS
y1 y2 y3 y4 T.I.

y2 1/3 1 10/3 0 300


y4 2/15 0 .2/3 1 60
4 0 .40 0 .3.600

TABLA TRES
y1 y2 y3 y4 T.I.

y2 0 1 5 .5/2 150
y1 1 0 .5 15/2 450
0 0 .20 .30 .5.400

La solución óptima del dual es la misma que la del primal:


5.400, y ya la habı́amos obtenido utilizando el método gráfico.
Normalmente, se quiere conocer no sólo el valor óptimo, sino
una solución factible donde se alcanza. El algoritmo simplex per-
mite conocer ambas cosas a la vez, en la lı́nea final de la última
tabla aparecen los datos solución del primal en las columnas co-
rrespondientes a las variables de holgura. Ası́, podemos extraer la
conclusión de que en el punto (20, 30), se optimiza la función ob-
jetivo del primal: 90 # 20 ! 120 # 30 % 5.400.

160
PROGRAMACIÓN LINEAL. DUALIDAD

6.3. Calcúlese el mı́nimo de la función z % 3x1 ! 5x2 que


está sujeta a las siguientes restricciones:

4x1 ! x2 n 21; 3x1 ! 2x2 n 27; 2x1 ! 3x2 n 23


x1 n 2; x2 n 1

Solución

El programa no está en forma canónica, los primeros incon-


venientes son: x1 n 2; x2 n 1, los salvamos haciendo los cambios
de variable: x1 % xñ1 ! 2; x2 % xñ2 ! 1.
Ahora el programa es:
«Calcúlese el mı́nimo de la función: z % 3xñ1 ! 5xñ2 ! 11» á
ú «Calcúlese 11 ! el mı́nimo de la función: 3xñ1 ! 5xñ2». Sujeta
a las siguientes restricciones:

4xñ1 ! xñ2 n 12; 3xñ1 ! 2xñ2 n 19; 2xñ1 ! 3xñ2 n 16


xñ1 n 0; xñ2 n 0

El programa sigue sin estar en forma canónica por ser las de-
sigualdades del tipo n.

Forma canónica del programa dual:

Max 12y1 ! 19y2 ! 16y3


sujeto a 4y1 ! 3y2 ! 2y3 m 3
y1 ! 2y2 ! 3y3 m 5
y1 n 0; y2 n 0; y3 n 0

Forma estándar:

Min .12y1 . 19y2 . 16y3


sujeto a 4y1 ! 3y2 ! 2y3 ! y4 ñ % 3
y1 ! 2y2 ! 3y3 ! ñ ! y5 % 5
y1 n 0, y2 n 0, y3 n 0, y4 n 0, y5 n 0

161
OPTIMIZACIÓN. CASOS PRÁCTICOS

TABLA INICIAL

y1 y2 y3 y4 y5 T.I.

y4 4 3 2 1 0 3
y5 1 2 3 0 1 5
12 19 16 0 0 0

TABLA DOS
y1 y2 y3 y4 y5 T.I.
y2 4/3 12 2/3 1/3 0 1

y5 .5/3 0 5/3 .2/3 1 3


.40/3 0 10/3 .19/3 0 .19

TABLA TRES
y1 y2 y3 y4 y5 T.I.
y3 2 3/2 1 1/2 0 3/2

y5 .5 .5/2 0 .3/2 1 1/2


20 .5 0 .8 0 .24

El valor óptimo del primal se alcanza en (8, 0) y tiene un va-


lor de 24. En el problema original, el mı́nimo serı́a alcanzado en
(10, 1), y valdrı́a 24 ! 11 % 35.
6.4. Calcúlese el máximo de la función
z % 5x1 ! 4x2 ! 3x3 ! x4
sujeta a las siguientes restricciones:
x1 ! x2 ! x3 ! x4 m 12; 3x1 ! 2x2 ! 3x3 ! x4 m 5
2x1 ! x2 ! x3 ! 4x4 m 7; x1 n 0; x2 n 0; x3 n 0; x4 n 0
(Se sugiere resolver el problema dual eliminando previamente las
restricciones redudantes).

162
PROGRAMACIÓN LINEAL. DUALIDAD

Solución
La primera restricción es redundante, ya que la suma de la se-
gunda y la tercera es:
5x1 ! 3x2 ! 4x3 ! 5x4 m 12
Una vez eliminada la restricción superflua, el programa dual
es:
Min 5y1 ! 7y2
sujeto a 3y1 ! 2y2 n 5
2y1 ! y2 n 4
3y1 ! y2 n 3
y1 ! 4y2 n 1
y1 n 0, y2 n 0
La restricción y1 ! 4y2 n 1 no es necesaria, ya que,
3(y1 ! 4y2 n 1) á 3y1 ! y2 ! 11y2 n 3
que es cierto siempre, porque se cumple 3y1 ! y2 n 3 y y2 n 0.
La restricción 3y1 ! y2 n 3 no es necesaria, ya que,
y1 ! 2y1 ! y2 n 3, es siempre cierto porque se cumple
2y1 ! y2 n 4 y y1 n 0.
La restricción 3y1 ! 2y2 n 5 no es necesaria, ya que,
5 y1 3y2
3y1 ! 2y2 n 5 .
AB
4
(2y1 ! y2 n 4) ú !
2 4
n0

que es cierto siempre, porque se cumple y1 n 0; y2 n 0.


El programa dual ha quedado reducido a
Min a 5y1 ! 7y2
sujeto a 2y1 ! y2 n 4
y1 n 0, y2 n 0
El conjunto factible es no acotado y puede no alcanzarse
el óptimo, pero si se alcanza, será en alguno de los vértices:
(y1, y2) % (2, 0); (y1, y2) % (0, 4).

163
OPTIMIZACIÓN. CASOS PRÁCTICOS

Se comprueba fácilmente que se alcanza el mı́nimo en


(y1, y2) % (2, 0) con un valor 10.
La solución de un problema tan sencillo es trivial, se puede
obtener por el método gráfico:

FIGURA 6.2.

6.5. Dada la función z % 4x1 ! 2x2 ! x3 ! 3x4, sujeta a las


siguientes restricciones:

3x1 ! x2 ! 2x3 ! 3x4 n 40; 2x1 ! x2 ! x3 ! 2x4 n 36


x1 ! 2x2 ! 2x3 ! 3x4 n 88; 4x1 ! 3x2 ! x3 ! x4 n 120
x1 n 0; x2 n 0; x3 n 0; x4 n 0

Se pide:
a) Calcular el mı́nimo de z, resolviendo gráficamente el
problema dual.
b) Resolver el dual por el algoritmo simplex.
c) Reconstruir la parte que sea posible de la última tabla del
simplex a partir del resultado obtenido en el apartado a).

164
PROGRAMACIÓN LINEAL. DUALIDAD

Solución
a) Es evidente que la primera restricción es redundante, ya
que, la cuarta se puede escribir: (1/3) (4x1 !3x2 !x3 !x4 n 120),
y en ella, los coeficientes en cada una de las variables son m res-
pectivamente que en 3x1 ! x2 ! 2x3 ! 3x4 n 40, y todas las va-
riables son n0.
La misma relación existe entre la segunda restricción y la
cuarta, ya que, se pueden expresar como:
(1/36) (2x1 ! x2 ! x3 ! 2x4 n 36)
y
(1/120) (4x1 ! 3x2 ! x3 ! x4 n 120)
y por tanto, la segunda es superflua.
Eliminadas las restricciones superfluas del primal, el proble-
ma dual es:
Max 88y1 ! 120y2
sujeto a y1 ! 4y2 m 4
2y1 ! 3y2 m 2
2y ! y2 m 1
3y1 ! y2 m 3
y1 n 0; y2 n 0
En este problema, las restricciones primera y cuarta son re-
dundantes y se pueden eliminar. (1/4) (y1 ! 4y2 m 4) y (1/3)
(3y1 ! y2 m 3) son evidentes si se verifica: 2y1 ! y2 m 1.
Hemos vuelto a reducir el problema a otro más sencillo:
Max 88y1 ! 120y2
sujeto a 2y1 ! 3y2 m 2
2y1 ! y2 m 1
y1 n 0, y2 n 0
Al tratarse de un problema en dos variables, la solución por
el método geométrico es muy fácil, se reduce a calcular el máxi-
mo de 88y1 ! 120y2 en el convexo de vértices (0, 0), (0, 2/3),

165
OPTIMIZACIÓN. CASOS PRÁCTICOS

(1/4, 1/2), (1/2, 0), que se alcanza en (1/4, 1/2) con un valor
de 82.

FIGURA 6.3.

b) Algoritmo simplex.
Problema dual estándar.

Max 88y1 ! 120y2

sujeto a y1 ! 4y2 ! y3 ññññ % 4

2y1 ! 3y2 ! ñ ! y4 ññ % 2

2y1 !y2 !ñññ! y5 ñ %1

3y1 ! y2 !ññññ! y6 % 3

y1 n 0, y2 n 0, y3 n 0, y4 n 0, y5 n 0, y6 n 0

166
PROGRAMACIÓN LINEAL. DUALIDAD

TABLA INICIAL

y1 y2 y3 y4 y5 y6 T.I.

y3 1 4 1 0 0 0 4
y4 2 3 0 1 0 0 2
y5 2 1 0 0 1 0 1

y6 3 1 0 0 0 1 3
88 120 0 0 0 0 0

TABLA DOS

y1 y2 y3 y4 y5 y6 T.I.
y3 .5/3 0 1 .4/3 0 0 4/3
y2 2/3 1 0 1/3 0 0 2/3

y5 4/3 0 0 .1/3 1 0 1/3


y6 7/3 0 0 .1/3 0 1 7/3

8 0 0 .40 0 0 .80

TABLA TRES
y1 y2 y3 y4 y5 y6 T.I.
y3 0 0 1 .7/4 5/4 0 7/4

y2 0 1 0 1/2 .1/2 0 1/2


y1 1 0 0 .1/4 3/4 0 1/4

y6 0 0 0 1/4 .7/4 1 7/4


0 0 0 .38 .6 0 .82

c) Reconstrucción de parte de la última tabla del simplex a


partir del resultado obtenido por el método geométrico.

167
OPTIMIZACIÓN. CASOS PRÁCTICOS

La solución obtenida para el problema dual es: (y1, y2) %


% (1/4, 1/2). Al sustituir estos valores en la forma estándar del
sistema dual, encontramos los valores de las variables de holgu-
ra: y3 % 7/4, y4 % 0, y5 % 0, y6 % 7/4. Podemos decir que, las va-
riables básicas tomadas para la solución óptima son: y1, y2, y3, y6.
Esto nos permitirı́a escribir lo siguiente en la tabla:

y1 y2 y3 y4 y5 y6 T.I.
y3 0 0 1 0 7/4

y2 0 1 0 0 1/2
y1 1 0 0 0 1/4

y6 0 0 0 1 7/4
0 0 0 0 .82

168
CAPÍTULO 7
PROGRAMACIÓN ENTERA

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Programas enteros

7.1. En muchos problemas de optimización, los valores de las


variables sólo tienen sentido si son enteros. Si esta es la única di-
ferencia con los problemas de programación lineal, diremos que
se trata de un problema de programación entera.

7.2. El modelo matemático del problema de programación


entera es el mismo que el de programación lineal, con la única
restricción añadida de que las variables deben tomar valores ente-
ros. Si este último requisito no se exige a todas las variables del
problema se dice que es un problema de programación entera
mixta.

169
OPTIMIZACIÓN. CASOS PRÁCTICOS

7.3. Un caso particular importante dentro de la programa-


ción entera se plantea cuando se requiere un cierto número de
decisiones con dos resultados posibles y mutuamente excluyen-
tes. Las decisiones posibles se pueden representar por medio de
una variable con dos valores, por ejemplo, cero y uno, de modo
que la variable de decisiónxi toma los valores cero si la decisión
i-ésima es no y uno si esta decisión es si, o viceversa. Los pro-
blemas que contengan sólo variables de este tipo, llamadas va-
riables binarias, se denominan problemas de programación bi-
naria.

Programación binaria

Una ventaja importante del uso de variables binarias es que


se pueden utilizar para reducir problemas de difı́cil manejo a
otros más sencillos, introduciendo variables binarias auxiliares
que transforman el problema original (de programación lineal,
entera o entera mixta) en un problema de programación binaria.
A continuación se plantean algunos casos en que es útil esta téc-
nica de transformación.

7.4. Consideremos un programa con m restricciones de las


que se han de cumplir sólo p. Se denotan las m restricciones
por:

f 1(x1, x2, ..., xn) m b1, ..., fm(x1, x2, ..., xn) m bm

y se introduce una variable binaria yj (j % 1, 2. ..., m) por cada


restricción, de tal forma que el valor yj % 0 significa que se utili-
za la restricción j-ésima. Como sólo se pueden utilizar p restric-
ciones de las m dadas, habrá que imponer la restricción
m
; yj % m . p
j%1

170
PROGRAMACIÓN ENTERA

con lo que el nuevo conjunto de restricciones será:


f1(x1, x2, ..., xn) m b1 ! Ky1
ñññññññññññ
fm(x1, x2, ..., xn m bm ! Kym
m
; yj % m . p
j%1

yj binaria, para j % 1, 2, ..., m


7.5. Un problema con restricciones del tipo:
f (x1, x2, ..., xn) debe ser igual a b1, o a b2, ..., o a bm
se puede formular introduciendo variables binarias como sigue:
m
f (x1, x2, ..., xn) % ; yj bj
j%1
m
; yj % 1
j%1

yj binaria, para j % 1, 2, ..., m


7.6. Supongamos que se tiene un problema de programa-
ción entera con unas variables binarias y otras que no lo son. Es-
tas últimas se pueden transformar en binarias por medio de su re-
presentación binaria. Consideremos la variable entera x acotada
entre cero y u y sea N el entero tal que
2N m u m 2N!1
entonces, la representación binaria de x viene dada por
N
x % ; 2i y i
i%0

Técnica de ramificación y acotación en programación binaria

7.7. Todo problema acotado de programación entera tiene


un número finito de soluciones factibles, por lo que es natural

171
OPTIMIZACIÓN. CASOS PRÁCTICOS

utilizar alguna técnica de enumeración para encontrar la solución


óptima. Este número finito de soluciones factibles, en los proble-
mas reales, suele ser muy alto, por lo que la estrategia debe con-
sistir en analizar sólo algunas de estas soluciones. Un enfoque de
este tipo es el que proporciona la técnica de ramificación y aco-
tación. La idea consiste en dividir el problema inicial en subpro-
blemas por medio de una partición del conjunto de soluciones
factibles (ramificación) y acotar la mejor solución de cada sub-
problema (acotación). Cuando se trata de un problema de progra-
mación binaria, la forma natural de dividir el problema en sub-
problemas es fijar una variable y darle el valor 0 para el primer
subproblema y el valor 1 para el segundo.
Este proceso, repetido sucesivamente, da lugar al árbol de so-
luciones del algoritmo. La variable utilizada en cada paso para
hacer la división en los subproblemas, se llama variable de rami-
ficación.
En el siguiente paso (acotación) se trata de establecer una co-
ta del valor de la función objetivo en cada uno de los subproble-
mas, para lo que basta eliminar en cada subproblema alguna res-
tricción, de tal forma que el conjunto factible del subproblema
nuevo es más amplio y, en consecuencia, el valor óptimo de la
función objetivo de este subproblema nuevo (llamado problema
asociado) dará una cota del valor de la función objetivo para el
subproblema con todas las restricciones. Lo más usual en los pro-
blemas de programación entera es eliminar precisamente la res-
tricción que obliga a la variables a tomar valores enteros; de esta
forma el nuevo subproblema se convierte en un problema de pro-
gramación lineal cuya solución se puede obtener por el algoritmo
del simplex.

El algoritmo en programación entera mixta

7.8. Se considera a continuación el caso del problema gene-


ral de programación entera mixta, en donde algunas variables son

172
PROGRAMACIÓN ENTERA

enteras y otras continuas. Se supone que el problema tiene un to-


tal de n variables, de las que p son enteras y se supone también,
sin pérdida de generalidad, que las variables enteras son las p pri-
meras, en caso contrario bastarı́a reformular el problema reorde-
nando las variables. La formulación general de un problema de
este tipo es la siguiente:

E
n
Max z % ; cjxj
j%1
n
; aij xj m bi, i % 1, 2, ..., m
(PEM) sujeto a j%1
xj n 0, j % 1, 2, ..., n
xj entera, para j % 1, 2, ..., p

Se describe, a continuación, un algoritmo de ramificación y


acotación para este tipo de problemas. Este algoritmo es una mo-
dificación del descrito en la sección anterior para problemas de
programación entera binaria, introduciendo los siguientes cam-
bios.
El primer cambio se refiere a la elección de la variable de ra-
mificación. La elección se restringe a las variables enteras que
tomen un valor no entero en la solución óptima del subproblema
correspondiente.
El segundo cambio se refiere al valor asignado a la variable
de ramificación para obtener los nuevos subproblemas. Como en
este caso una variable entera puede tomar muchos valores, si se
ramificara considerando un subproblema por cada valor de la va-
riable, podrı́a resultar un algoritmo ineficiente. Por esta razón se
consideran sólo dos subproblemas, marcando dos intervalos de
variación de la variable con el siguiente criterio. Supongamos
que xj es la variable de ramificación y que x*j es su valor, no en-
tero, en la solución óptima del subproblema en curso. Se denota
por [x*j ] la parte entera de x*j , es decir, el mayor entero menor o

173
OPTIMIZACIÓN. CASOS PRÁCTICOS

igual que x*
j . Los intervalos de valores de la variable j para los
dos nuevos subproblemas son:

xj m [x*
j ] y xj n [x*
j ]!1

de forma que estas condiciones entran como restricciones adicio-


nales, una en cada uno de los subproblemas.
El tercer cambio se hace en el proceso de acotación. En los
problemas de programación entera, el valor óptimo de la función
objetivo del problema en curso se puede redondear al entero más
próximo menor que el valor obtenido. En este caso el valor obte-
nido, sea entero o no, se considera como cota.
El cuarto y último cambio está referido a las soluciones de los
subproblemas que se reservaban al tomar todas las variables va-
lores binarios. En este caso se reservan las soluciones de los sub-
problemas que tengan valores enteros en las variables restringi-
das a ser enteras, a las que llamaremos soluciones de apoyo.
Con estos cambios se puede dar un resumen del algoritmo de
ramificación y acotación para problemas de programación entera
mixta en los siguientes pasos que se reiterarán para los problemas
sucesivos. Se establece el valor z* % .ä como primer valor de
apoyo.
Ramificación. Entre los subproblemas propuestos, se selecciona
el que tenga la cota mayor, y de entre las variables enteras que
hayan dado un valor no entero en la solución óptima del proble-
ma en curso, se elige la primera en el orden natural como varia-
ble de ramificación. Si esta variable es la xj y x*j es su valor, no
entero, en la solución óptima del subproblema en curso, se rami-
fica en dos subproblemas añadiendo, respectivamente, las restric-
ciones

xj m [x*
j ] y xj n [x*
j ]!1

Acotación. Para cada uno de estos dos subproblemas, se ob-


tiene una cota resolviendo el programa lineal asociado por el al-
goritmo del simplex.

174
PROGRAMACIÓN ENTERA

Sondeo. Para cada subproblema se aplica un test consistente


en la aplicación de las tres pruebas siguientes, de forma que el
subproblema que verifique, al menos, una de las pruebas queda
eliminado.
Prueba 1. La cota z obtenida en el programa lineal
asociado es menor que la z* de la solución actual de apoyo
(para el primer paso se toma z* % .ä).
Prueba 2. El subproblema no tiene solución factible.
Prueba 3. La solución óptima obtenida por el algorit-
mo del simplex tiene todos sus valores enteros en las varia-
bles restringidas a ser enteras. Si el valor de z correspon-
diente a esta solución es mejor que la z* de la solución de
apoyo, este valor pasa a ser el nuevo valor de apoyo.
Una vez realizada esta prueba se trabaja sobre los subproble-
mas restantes y si ya no hubiera subproblemas restantes, la solu-
ción actual serı́a la óptima.

175
PROBLEMAS RESUELTOS

7.1. Resuélvase por redondeo el siguiente problema de pro-


gramación entera, analizando algunas de las objeciones que se
pueden hacer a este procedimiento:
Max z % x1 ! 3x2
sujeto a x1 . x2 n 0
2
x1 m
3
22x1 ! 34x2 m 105
x1 n 0, x2 n 0, x1, x2 à Z
Solución
Por ser un problema entero, se considera en primer lugar el
problema relajado asociado. (Se ignora la restricción x1, x2 à Z)
Max z % x1 ! 3x2
sujeto a x1 . x2 n 0
2
x1 m
3
22x1 ! 34x2 m 105
x1 n 0, x2 n 0
El problema relajado tiene dos variables, por tanto se puede
resolver por el método gráfico, las restricciones definen el conve-

176
OPTIMIZACIÓN. CASOS PRÁCTICOS

xo de vértices: (1,87, 1,87), (4,7, 0), (2/3, 0), (2/3, 2/3), que es la
región factible.

(x1, x2) z % x1 ! 3x2


(1,87, 1,87) z % 7,48
(4,7, 0) z % 4,7
(2/3, 0) z % 2/3
(2/3, 2/3) z % 8/3

El máximo de z se alcanza en (x1, x2) % (1,87, 1,87).


Si la solución óptima del problema relajado hubiera sido
entera, habrı́amos terminado, y la solución obtenida serı́a la bus-
cada.
La solución (x1, x2) % (1,87, 1,87) no cumple la condición x1,
x2 à Z. Una opción es redondear.
Cada una de las coordenadas, se puede aproximar a un entero
por exceso o por defecto, por tanto las aproximaciones enteras
posibles en este caso son: (1, 1), (1, 2), (2, 1), (2, 2).

FIGURA 7.1.

177
PROGRAMACIÓN ENTERA

Este es uno de los inconvenientes del procedimiento, al ser


2 variables que se pueden aproximar por exceso o por defecto,
darı́a lugar a 22 vértices y en caso de n variables, darı́a lugar a 2n
y la estimación de los valores de z en un número elevado de pun-
tos puede desbordar las posibilidades de la máquina en que se es-
té ejecutando la verificación.
En este caso, de entre las posibles aproximaciones enteras,
sólo la (1, 1) y (2, 1) son factibles, ya que (1, 2) vulnera
x1 . x2 n 0, y (2, 2) vulnera 22x1 ! 34x2 m 105, pero podrı́a
ocurrir que no lo fuera ninguna, y no serı́a válido el procedimien-
to de aproximación.
Es evidente que este es otro de los inconvenientes de la so-
lución por redondeo, ya que no se asegura que se pueda resolver
ası́ el problema entero.

7.2. En un campamento de refugiados se pretende abrir va-


rios centros sanitarios. El campamento está dividido en siete zo-
nas que reúnen las condiciones de seguridad exigidas, pero los
recursos están muy limitados. Las zonas que tienen acceso a los
distintos posibles centros y el número de personas que se po-
drı́a atender desde cada uno de ellos, se muestran en la tabla si-
guiente:

Centro 1 Centro 2 Centro 3 Centro 4 Centro 5


Zona 1 Sı́ No No Sı́ No
Zona 2 Sı́ No Sı́ No Sı́
Zona 3 No Sı́ No No Sı́
Zona 4 No Sı́ No Sı́ No
Zona 5 No Sı́ Sı́ No No
Zona 6 No No Sı́ No Sı́
Zona 7 Sı́ No Sı́ Sı́ No
Pers. atend. 720 780 880 820 760

178
OPTIMIZACIÓN. CASOS PRÁCTICOS

Se pide modelizar el problema, para que la solución decida


«cuáles de estos centros se deben abrir para que queden atendidas
la mayor cantidad posible de personas y no se despilfarren recur-
sos cubriendo una zona con más de un centro».

Solución
Max 720x1 ! 780x2 ! 880x3 ! 820x4 ! 760x5
sujeto a x1 ! x4 m 1
x1 ! x3 ! x5 m 1
x2 ! x5 m 1
x2 ! x4 m 1
x2 ! x3 m 1
x3 ! x5 m 1
x1 ! x3 ! x4 m 1
xi % 0,1; i % 1, 2, 3, 4, 5
Las variables de decisión xi , indican si el centro i se abre, en
cuyo caso, xi toma valor 1, o no se abre y xi toma valor 0.
El objetivo es que quede atendida la mayor cantidad posible
de personas, por tanto, la función a optimizar es:
720x1 ! 780x2 ! 880x3 ! 820x4 ! 760x5
Las restricciones limitan el número de centros que pueden
atender a una zona.
En el conjunto de restricciones podemos observar que algu-
nas son superfluas y se pueden eliminar.
x3 ! x5 m 1 es cierta por serlo x1 ! x3 ! x5 m 1 y x1 % 0,1
x1 ! x4 m 1 es cierta por serlo x1 ! x3 ! x4 m 1 y x3 % 0,1
Queda el siguiente programa:
Max 720x1 ! 780x2 ! 880x3 ! 820x4 ! 760x5

179
PROGRAMACIÓN ENTERA

sujeto a x1 ! ñ ! x3 ! ñ ! x5 ! x6 ñññññññññ % 1
ñ ! x2 ! ñññ ! x5 ! ñ ! x7 ññññññññ % 1
ñ ! x2 ! ññ ! x4 ! ñññ ! x8 ñññññññ % 1
ñ ! x2 ! ñ ! x3 ! ñññññ ! x9 ññññññ % 1
x1 ! ñ ! x3 ! x4ñññññññ ! x10 ñññññ % 1
x1 ! ñññññññññññññ ! x11 ññññ % 1
ñ ! x2 ! ññññññññññññ ! x12 ñññ % 1
ñññ ! x3 ! ñññññññññññ ! x13 ññ % 1
ññññ ! x4 ! ñññññññññññ ! x14 ñ % 1
ñññññ ! x5 ! ñññññññññññ ! x15 % 1
xi % 0,1; i % 1, ..., 15
La solución se puede encontrar utilizando el algoritmo sim-
plex, aunque dado el elevado número de variables no es aconse-
jable intentarlo con papel y lápiz, sino con cualquier programa
mecanizado.
7.3. Resuélvase el problema 7.2 por el procedimiento de ra-
mificación y acotación.

Solución
Max 720x1 ! 780x2 ! 880x3 ! 820x4 ! 760x5
sujeto a x1 ! x4 m 1
x1 !. x3 ! x5 m 1
x2 ! x5 m 1
x2 ! x4 m 1
x2 ! x3 m 1
x3 ! x5 m 1
x1 ! x3 ! x4 m 1
xi % 0,1; i % 1, 2, 3, 4, 5

180
OPTIMIZACIÓN. CASOS PRÁCTICOS

Tomemos como variable de ramificación x3 por ser la que


aparece en más restricciones. (Podrı́amos haber empezado por
cualquier otra).
Aparecen los siguientes subprogramas.

Subprograma 1
x3 % 0
Max 720x1 ! 780x2 ! 820x4 ! 760x5
sujeto a x1 ! x4 m 1
x1 ! x5 m 1
x2 ! x5 m 1
x2 ! x4 m 1
x2 m 1
x5 m 1
x1 ! x4 m 1
xi % 0, 1, i % 1, 2, 4, 5

Subprograma 2
Max 720xi ! 780x2 ! 880 ! 820x4 ! 760x5
sujeto a x1 ! x4 m 1
x1 ! x5 % 0
x2 ! x5 m 1
x2 ! x4 m 1
x2 % 0
x5 % 0
x1 ! x4 m 1
x1 % x2 % x4 % x5 % 0, x3 % 1
En el subprograma 2, Max z % 880.

181
PROGRAMACIÓN ENTERA

En el subprograma 1 vamos a acotar el óptimo. Lo haremos


aplicando el algoritmo simplex.

TABLA 1

x1 x2 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13 x14


1 0 0 1 0 1 0 0 0 0 0 0 0 1
1 0 0 0 1 0 1 0 0 0 0 0 0 1
0 1 0 0 1 0 0 1 0 0 0 0 0 1
0 1 0 1 0 0 0 0 1 0 0 0 0 1
1 0 0 0 0 0 0 0 0 1 0 0 0 1
0 1 0 0 0 0 0 0 0 0 1 0 0 1
0 0 0 1 0 0 0 0 0 0 0 1 0 1
0 0 0 0 1 0 0 0 0 0 0 0 1 1
720 780 0 820 760 0 0 0 0 0 0 0 0 0

TABLA 2

x1 x2 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13 x14


1 0 0 1 0 1 0 0 0 0 0 0 0 1
1 0 0 0 1 0 1 0 0 0 0 0 0 1
0 1 0 0 1 0 0 1 0 0 0 0 0 1
.1 1 0 0 0 .1 0 0 1 0 0 0 0 0
1 0 0 0 0 0 0 0 0 1 0 0 0 1
0 1 0 0 0 0 0 0 0 0 1 0 0 1
.1 0 0 0 0 .1 0 0 0 0 0 1 0 0
0 0 0 0 1 0 0 0 0 0 0 0 1 1
.100 780 0 0 760 .820 0 0 0 0 0 0 0 .820

182
OPTIMIZACIÓN. CASOS PRÁCTICOS

TABLA 3

x1 x2 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13 x14

1 0 0 1 0 1 0 0 0 0 0 0 0 1

1 0 0 0 1 0 1 0 0 0 0 0 0 1

0 1 0 0 1 0 0 1 0 0 0 0 0 1

.1 0 0 0 .1 .1 0 .1 1 0 0 0 0 .1

1 0 0 0 0 0 0 0 0 1 0 0 0 1

0 0 0 0 .10 0 0 .1 0 0 1 0 0 0

.1 0 0 0 0 .1 0 0 0 0 0 1 0 0

0 0 0 0 1 0 0 0 0 0 0 0 1 1

.100 0 0 0 .20 .820 0 .780 0 0 0 0 0 .1.600

La cota alcanzada con x3 % 0 es 1.600.


Esta cota es mejor que la obtenida en el subprograma 2, por
ello, seguiremos ramificando el subprograma 1.
Al tomar x1 como variable de ramificación, obtenemos:

Subprograma 1.1
x3 % 0; x1 % 0
Max 780x2 ! 820x4 ! 760x5
sujeto a x1 ! x5 m 1
x2 ! x5 m 1
x2 ! x4 m 1
xi % 0,1, i % 2, 4, 5

Subprograma 1.2
x3 % 0; x1 % 1
Max 720 ! 780x2 ! 820x4 ! 760x5

183
PROGRAMACIÓN ENTERA

sujeto a x4 % 0
x5 % 0
x2 % 0,1
Max z % 1.500

Repetimos el algoritmo para acotar el subprograma 1 a través


del subprograma 1.1.

TABLA 1

x2 x4 x5 x6 x7 x8 x9 x10

1 0 1 1 0 0 0 0 1

1 1 0 0 1 0 0 0 1

1 0 0 0 0 1 0 0 1

0 1 0 0 0 0 1 0 1

0 0 1 0 0 0 0 1 1

780 820 760 0 0 0 0 0 0

TABLA 2

x2 x4 x5 x6 x7 x8 x9 x10

1 0 1 1 0 0 0 0 1

1 1 0 0 1 0 0 0 1

1 0 0 0 0 1 0 0 1

.1 0 0 0 .1 0 1 0 0

0 0 1 0 0 0 0 1 1

.40 0 760 0 .820 0 0 0 .820

184
OPTIMIZACIÓN. CASOS PRÁCTICOS

TABLA 3

x2 x4 x5 x6 x7 x8 x9 x10

1 0 1 1 0 0 0 0 1

1 1 0 0 1 0 0 0 1

1 0 0 0 0 1 0 0 1

.1 0 0 0 .1 0 1 0 0

.1 0 0 .1 0 0 0 1 0

.800 0 0 .760 .820 0 0 0 .1.580

Como la cota del subprograma 1.2 es peor que la obtenida en


el subprograma 1.1, no seguiremos ramificando el 1.2, sino el
1.1. Lo haremos tomando x2 como variable de ramificación.

Subprograma 1.1.1
x3 % 0; x1 % 0; x2 % 0
Max 820x4 ! 760x5
sujeto a x4 % x5 % 0,1
El máximo se alcanza en z % 1.580 cuando
x4 % x5 % 1

Subprograma 1.1.2
x3 % 0; x1 % 0; x2 % 1
Max 780 ! 820x4 ! 760x5
sujeto a x4 % x5 % 0
El máximo se alcanza en z % 780.
El problema se ha agotado y la solución óptima se alcanza en
(0, 0, 0, 1, 1).

185
PROGRAMACIÓN ENTERA

Por tanto, una vez resuelto el problema, se obtiene que las va-
riables básicas distintas de 0 que intervienen son x4 % x5 % 1.
La conclusión es que se optimizan los recursos abriendo los
centros 4 y 5, que atienden 1.580 pacientes y dejan sin cubrir la
zona 5, según se observa en la tabla de datos.
El árbol de ramificación correspondiente es:

7.4. En el siguiente programa de programación entera

Max z % 5x1 ! x2
sujeto a .x1 ! 2x2 m 7
x1 . x2 m 0,5
4x1 ! 3x2 m 18
x1 n 0, x2 n 0, x1, x2 à Z

Se pide:
a) Resolver el problema utilizando el algoritmo de ramifi-
cación.
b) Representar la región factible en cada subprograma, y re-
lacionarlas entre sı́.
c) Hacer el árbol de ramificación.

186
OPTIMIZACIÓN. CASOS PRÁCTICOS

Solución

Problema relajado asociado o soltura.

Max z % 5x1 ! x2

sujeto a .x1 ! 2x2 m 7

1
x1 . x2 m
2

4x1 ! 3x2 m 18
x1 n 0, x2 n 0

Es un problema de programación lineal con dos variables


cuya región factible es el convexo C1 de vértices (0, 0), (0, 7/2),
(15/11, 46/11), (39/14, 16/7), (1/2, 0) (Fig. 7.2).

FIGURA 7.2.

En los vértices, la función objetivo alcanza los siguientes va-


lores:

187
PROGRAMACIÓN ENTERA

Vértices Función objetivo

(0, 0) 0

(0, 7/2) 7/2

(15/11, 46/11) 11

(39/14, 16/7) 227/14

(1/2, 0) 5/2

La función objetivo alcanza el óptimo en (39/14, 16/7) con


z % 227/14.
Como el problema tiene soluciones factibles y la solución óp-
tima tiene valores no enteros para las variables restringidas a en-
teros, se sondea todo el problema y se continúa con la primera
iteración completa.
En la solución óptima obtenida, la primera variable restringi-
da a enteros que no tiene un valor entero es x1 % 39/14, por ello,
se toma como primera variable de ramificación y se obtienen los
dos subprogramas siguientes:

Subprograma 1

Max z % 5x1 ! x2
sujeto a .x1 ! 2x2 m 7

1
x1 . x2 m
2

4x1 ! 3x2 m 18
x1 n 0, x2 n 0
x1 m 2

188
OPTIMIZACIÓN. CASOS PRÁCTICOS

Subprograma 2
Max z % 5x1 ! x2
sujeto a .x1 ! 2x2 m 7
1
x1 . x2 m
2
4x1 ! 3x2 m 18
x1 n 0, x2 n 0
x1 n 3

Solución del subprograma 1


Es un problema de programación lineal con dos variables
cuya región factible, C2, es el convexo de vértices: (0, 0), (0, 7/2),
(15/11, 46/11), (2, 10/11), (2, 10/3), (1/2, 0) (Fig. 7.3).

FIGURA 7.3.

En los vértices, la función objetivo alcanza los siguientes va-


lores:

189
PROGRAMACIÓN ENTERA

Vértices Función objetivo

(0, 0) 0

(0, 7/2) 7/2

(15/11, 46/11) 11

(2, 10/3) 40/3

(2, 3/2) 23/2

(1/2, 0) 5/2

La función objetivo alcanza el óptimo en (2, 10/3) con


z % 40/3.
En la solución óptima obtenida, la primera variable restringi-
da a enteros que no tiene un valor entero es x2 % 10/3, por ello se
toma como variable de ramificacioín y se obtienen los dos sub-
programas siguientes:

Subprograma 1.1
Max z % 5x1 ! x2
sujeto a .x1 ! 2x2 m 7
1
x1 . x2 m
2
4x1 ! 3x2 m 18
x1 n 0, x2 n 0
x1 m 2, x2 m 3

Subprograma 1.2
Max z % 5x1 ! x2

190
OPTIMIZACIÓN. CASOS PRÁCTICOS

sujeto a .x1 ! 2x2 m 7

1
x1 . x2 m
2

4x1 ! 3x2 m 18

x1 n 0, x2 n 0

x1 m 2, x2 n 4

Solución del subprograma 1.1.

Es un problema de programación lineal con dos variables


cuya región factible C3, es el convexo de vértices: (0, 0), (0, 3),
(2, 3), (2, 3/2), (1/2, 0) (Fig. 7.4).

FIGURA 7.4.

En los vértices, la función objetivo alcanza los siguientes va-


lores:

191
PROGRAMACIÓN ENTERA

Vértices Función objetivo

(0, 0) 0
(0, 3) 3

(2, 3) 13
(2, 3/2) 23/2
(1/2, 0) 5/2

La función objetivo alcanza el óptimo en (2, 3), con z % 13.


Como la solución óptima obtenida tiene valores no enteros para
las variables restringidas a enteros, este subprograma se ha agotado.

Solución del subprograma 1.2


Es un problema de programación lineal con dos variables
cuya región factible, C4, es el convexo de vértices: (1, 4), (3/2, 4),
(15/11, 46/11) (Fig. 7.5).

FIGURA 7.5.

192
OPTIMIZACIÓN. CASOS PRÁCTICOS

En los vértices, la función objetivo alcanza los siguientes va-


lores:

Vértices Función objetivo

(15/11, 46/11) 11

(1, 4) 9

(3/2, 4) 23/2

La función objetivo alcanza el óptimo en (3/2, 4) con z % 23/2.


Esta cota es menor que la obtenida en el subprograma 1.1,
por ello, se abandona la rama.

Solución del subprograma 2


Es un problema de programación lineal con dos variables
cuya región factible es el conjunto vacı́o (Fig. 7.6). Este subpro-
grama también se ha agotado.

FIGURA 7.6.

193
PROGRAMACIÓN ENTERA

b) El convexo de soluciones factibles obtenido en cada pro-


grama contiene a los obtenidos en sus subprogramas.
La relación que hay entre ellos es:

C3 Ñ C2 Ñ C1 ; C4 Ñ C2 Ñ C1 ; Y Ñ C1

c) Árbol de ramificación:

7.5. Vamos a enunciar algunos tipos de problemas cuya so-


lución responde a un programa binario, entero o entero mixto, y
que podrı́an ser resueltos por los algoritmos de ramificación que
hemos visto, pero que normalmente no se resuelven ası́ dado el
gran número de variables que intervienen y el tamaño que alcan-
zarı́an los algoritmos necesarios en los problemas relajados aso-
ciados. (Para cada uno de ellos existen métodos de solución espe-
cı́ficos de Investigación Operativa que desbordan el propósito y
las posibilidades de este libro).
a) Son programas enteros todos los problemas de programa-
ción lineal donde las actividades, por su estructura, deben ser no
divisibles.
Son ejemplos tı́picos, aquellos en que las variables represen-
tan número de automóviles, personas implicadas en un proceso,
fábricas a instalar, etc.
b) Problemas de transporte.
Una situación real muy simplificada que genera este tipo de

194
OPTIMIZACIÓN. CASOS PRÁCTICOS

programas es la siguiente: «Una compañı́a de envasado y distri-


bución de café debe distribuir desde distintos centros de almace-
namiento el grano que adquiera en tres centros de producción di-
ferentes. ¿Desde qué centro de producción, a qué centro de
almacenamiento, se debe transportar la mercancı́a de modo que
el coste sea mı́nimo?».
El objetivo es claro, minimizar los costes.
Las restricciones caracterı́sticas son impuestas por:
I) La cantidad de grano que sale de cada centro productor
está limitada por la producción.
II) La cantidad de grano que llega a cada centro distribuidor
no puede ser menor que la demanda de ese centro.

c) Problemas de asignación.
Supongamos que existe una compañı́a que debe subcontratar
actividades de otras empresas para llevar a cabo una obra grande.
Se trata de elegir qué actividad se asigna a cada empresa, para
que sea mı́nimo el coste global de la obra.
Nuevamente el objetivo es minimizar los costes.
Las restricciones caracterı́sticas de este programa son:
I) Cada compañı́a puede realizar únicamente un trabajo.
II) Cada trabajo puede ser realizado por una compañı́a.

d) Problemas de secuenciación.
Cuando se contrata una obra, aparece normalmente una
cláusula de penalización por retraso en la entrega de obra. El
objetivo del programa es establecer el orden en que se han de
realizar los trabajos para que la penalización sea mı́nima. Este
tipo de problemas genera muchas variables binarias y es un pro-
blema clásico de Investigación Operativa con métodos propios
de solución.

e) Problema del viajante.


Otro problema clásico de Investigación Operativa desde 1960
es el siguiente:
«Un viajante que sale de la ciudad en que vive, debe recorrer

195
PROGRAMACIÓN ENTERA

el resto de las ciudades de la ruta una sola vez, y regresar al pun-


to de partida, de modo que, el tiempo invertido sea mı́nimo.»
El objetivo es minimizar el tiempo o el coste del trayecto del
viajante. Las restricciones vienen impuestas por la condición de
que cada ciudad sea visitada una sola vez.

f ) Problema de emplazamiento y cubrimiento.


Véase el problema 7.2.

g) Problema de la mochila.
Cuando se proporciona un espacio con volumen fijo, que de-
be ser llenado con objetos valiosos de volumen especı́fico, se tra-
ta de encontrar un programa que permita la selección de los obje-
tos que hagan máximo el valor de la mochila.

7.6. El problema de inversiones se puede considerar un caso


particular del problema de la mochila con restricciones adiciona-
les. Para ver la cantidad de variables generadas por muy pocas
restricciones vamos a enunciar un problema concreto:
«Se desea crear un fondo de inversión por un total de 10.000
millones de pesetas. Los gestores deciden hacer una selección de
entre cinco valores que tienen distinta rentabilidad y riesgo, y po-
nen las siguientes limitaciones:
Invertir como mı́nimo en tres valores.
Como los valores v5 y v1 están ligados entre sı́, en v5 sólo se
invertirá si no se invierte en v1.
La participación mı́nima admitida por valor es de 100 millo-
nes.
Las rentabilidades previstas por valor son:

Valor v1 v2 v3 v4 v5

Rentabilidad 1,7 % 2,4 % 1,9 % 1,8 % 2%

Propóngase un programa que conzuca a la obtención de bene-


ficios máximos.»

196
OPTIMIZACIÓN. CASOS PRÁCTICOS

Solución
Elegimos las variables xi % inversión en millones en el valor
i; yi % 0, si no se invierte en el valor i, e yi % 1, si se invierte
en él.
Max 1,7x1 ! 2,4x2 ! 1,9x3 ! 1,8x4 ! 2x5
sujeto a x1 ! x2 ! x3 ! x4 ! x5 % 10.000
3 m y1 ! y2 ! y3 ! y4 ! y5 m 5
xi n 100yi ; i % 1, 2, 3, 4, 5
y5 m 1 . y 1
xi n 0; yi % 0,1
Cuya normalización da lugar al siguiente problema de pro-
gramación entera mixta:
Max 1,7x1 ! 2,4x2 ! 1,9x3 ! 1,8x4 ! 2x5
sujeto a x1 ! x2 ! x3 ! x4 ! x5 % 10.000
y1 ! y2 ! y3 ! y4 ! y5 . y6 % 3
y1 ! y2 ! y3 ! y4 ! y5 ! y7 % 5
100y1 . x1 ! x6 % 0
100y2 . x2 ! x7 % 0
100y3 . x3 ! x8 % 0
100y4 . x4 ! x9 % 0
100y5 . x5 ! x10 % 0
y1 ! y5 ! y8 % 1
xi n 0; yi % 0,1
7.7. Un grupo financiero tiene cinco proyectos de inversión.
Cada proyecto i % 1, ..., 5 necesita una inversión de ki millones
de pesetas, y se espera que genere vi millones de pesetas cuando
el proyecto esté funcionando. La capacidad total de inversión es
de 91 millones de pesetas. El grupo financiero debe tomar la
decisión de aceptar o rechazar cada proyecto. Se pide:

197
PROGRAMACIÓN ENTERA

a) Hacer un programa que permita resolver el problema con


los datos de la tabla adjunta:

Proyecto Inversión Rendimiento


número i en millones: k1 en millones: vi

1 36 54
2 24 18

3 30 60
4 32 32
5 26 13

b) Resolverlo utilizando el algoritmo de ramificación y aco-


tación.
c) Hacer un árbol de ramificación.

Solución
Max 54x1 ! 18x2 ! 60x3 ! 32x4 ! 13x5
sujeto a 36x1 ! 24x2 ! 30x3 ! 32x4 ! 26x5 m 91
xi % 0,1; i % 1, 2, 3, 4, 5
Es un problema de programación binaria pura.
Forma estándar del programa:
Max 54x1 ! 18x2 ! 60x3 ! 32x4 ! 13x5
sujeto a 36x1 ! 24x2 ! 30x3 ! 32x4 ! 26x5 ! x6 % 91
x1 ! ññññ ! x7 ññññ % 1
ñ x2 ! ññññ ! x8 ñññ % 1
ññ x3 ! ññññ ! x9 ññ % 1
ñññ x4!ññññ ! x10 ñ % 1
ññññ x5 !ññññ ! x11 % 1
xi % 0,1; i % 1, 2, 3, 4, 5

198
OPTIMIZACIÓN. CASOS PRÁCTICOS

El programa está preparado para utilizar un proceso de rami-


ficación y acotamiento.

Subproblema 1
x1 % 0; ú x7 % 1
Max 18x2 ! 60x3 ! 32x4 ! 13x5
sujeto a 24x2 ! 30x3 ! 32x4 ! 26x5 ! x6 % 91
ñ x2 ! ññññ ! x8 ñññ % 1
ññ x3 ! ññññ ! x9 ññ % 1
ñññ x4!ññññ ! x10 ñ % 1
ññññ x5 !ññññ ! x11 % 1
Resolvemos este subproblema por el método simplex.

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.


x6 24 30 32 26 1 0 0 0 0 91
x8 1 0 0 0 0 1 0 0 0 1
x9 0 1 0 0 0 0 1 0 0 1
x10 0 0 1 0 0 0 0 1 0 1
x11 0 0 0 1 0 0 0 0 1 1
18 60 32 13 0 0 0 0 0 0

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.

x6 24 0 32 26 1 0 .30 0 0 61
x8 1 0 0 0 0 1 0 0 0 1

x3 0 1 0 0 0 0 1 0 0 1
x10 0 0 1 0 0 0 0 1 0 1
x11 0 0 0 1 0 0 0 0 1 1

18 0 32 13 0 0 .60 0 0 .90

199
PROGRAMACIÓN ENTERA

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.


x6 24 0 0 26 1 0 .30 .32 0 29
x8 1 0 0 0 0 1 0 0 0 1
x3 0 1 0 0 0 0 1 0 0 1
x4 0 0 1 0 0 0 0 1 0 1
x11 0 0 0 1 0 0 0 0 1 1
18 0 0 13 0 0 .60 .32 0 .92

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.


x6 0 0 0 26 1 .24 .30 .32 0 5
x2 1 0 0 0 0 1 0 0 0 1
x3 0 1 0 0 0 0 1 0 0 1
x4 0 0 1 0 0 0 0 1 0 1
x11 0 0 0 1 0 0 0 0 1 1
0 0 0 13 0 .18 .60 .32 0 .110

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.


x6 0 0 0 0 1 .24 .30 .32 .26 .21
x2 1 0 0 0 0 1 0 0 0 1
x3 0 1 0 0 0 0 1 0 0 1
x4 0 0 1 1 0 0 0 1 0 1
x5 0 0 0 0 0 0 0 0 1 1
0 0 0 0 0 .18 .60 .32 .13 .123

Para el subproblema 1 la cota es 123.

200
OPTIMIZACIÓN. CASOS PRÁCTICOS

Subproblema 2
x1 % 1; ú x7 % 0
Max 54 ! 18x2 ! 60x3 ! 32x4 ! 13x5
sujeto a 24x2 ! 30x3 ! 32x4 ! 26x5 ! x6 % 55
ñ x2 ! ññññ ! x8 ñññ % 1
ññ x3 ! ññññ ! x9 ññ % 1
ñññ x4!ññññ ! x10 ñ % 1
ññññ x5 !ññññ ! x11 % 1

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.

x6 24 30 32 26 1 0 0 0 0 55

x8 1 0 0 0 0 1 0 0 0 1

x9 0 1 0 0 0 0 1 0 0 1

x10 0 0 1 0 0 0 0 1 0 1

x11 0 0 0 1 0 0 0 0 1 1

18 60 32 13 0 0 0 0 0 .54

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.

x6 24 0 32 26 1 0 .30 0 0 25

x8 1 0 0 0 0 1 0 0 0 1

x3 0 1 0 0 0 0 1 0 0 1

x10 0 0 1 0 0 0 0 1 0 1

x11 0 0 0 1 0 0 0 0 1 1

18 0 32 13 0 0 .60 0 0 .114

201
PROGRAMACIÓN ENTERA

x2 x3 x4 x5 x6 x8 x9 x10 x11 T.I.

x6 24/32 0 1 26/32 1/32 0 .30/32 0 0 25/32

x8 1 0 0 0 0 1 0 0 0 1

x3 0 1 0 0 0 0 1 0 0 1

x10 24/32 0 0 26/32 1/32 0 .30/32 .1 0 .7/32

x11 0 0 0 1 0 0 0 0 1 1

.6 0 0 .13 .1 0 .30 0 0 .139

La cota alcanzada es 139, como es mejor que la alcanzada en


el subproblema 1, seguiremos ramificando el subproblema 2.

Subproblema 2.1
x1 % 1 ú x7 % 0; x 2 % 0 ú x8 % 1
Max 54 ! 60x3 ! 32x4 ! 13x5
sujeto a 30x3 ! 32x4 ! 26x5 ! x6 % 55
ññ x3 ! ññññ ! x9 ññ % 1
ñññ x4!ññññ ! x10 ñ % 1
ññññ x5 !ññññ ! x11 % 1

x3 x4 x5 x6 x9 x10 x11 T.I.

x6 30 32 26 1 0 0 0 55

x9 1 0 0 0 1 0 0 1

x10 0 1 0 0 0 1 0 1

x11 0 0 1 0 0 0 1 1

60 32 13 0 0 0 0 .54

202
OPTIMIZACIÓN. CASOS PRÁCTICOS

x3 x4 x5 x6 x9 x10 x11 T.I.

x6 0 32 26 1 .30 0 0 15

x3 1 0 0 0 1 0 0 1

x10 0 1 0 0 0 1 0 1

x11 0 0 1 0 0 0 1 1

0 32 13 0 .60 0 0 .114

x3 x4 x5 x6 x9 x10 x11 T.I.

x6 0 1 26/32 1/32 .30/32 0 0 15/32

x3 1 0 0 0 1 0 0 1

x10 0 0 .26/32 .1/32 30/32 1 0 17/32

x11 0 0 1 0 0 0 1 1

0 0 .13 .1 .30 0 0 .129

Para el subproblema 2.1 la cota es 129.

Subproblema 2.2

x1 % 1 ú x7 % 0; x 2 % 1 ú x8 % 0

Max 72 ! 60x3 ! 32x4 ! 13x5

sujeto a 30x3 ! 32x4 ! 26x5 ! x6 % 31

ññ x3 ! ññññ ! x9 ññ % 1
ñññ x4!ññññ ! x10 ñ % 1

ññññ x5 !ññññ ! x11 % 1

203
PROGRAMACIÓN ENTERA

x3 x4 x5 x6 x9 x10 x11 T.I.

x6 30 32 26 1 0 0 0 31

x9 1 0 0 0 1 0 0 1

x10 0 1 0 0 0 1 0 1

x11 0 0 1 0 0 0 1 1

60 32 13 0 0 0 0 .72

x3 x4 x5 x6 x9 x10 x11 T.I.

x6 0 32 26 1 .30 0 0 1

x3 1 0 0 0 1 0 0 1

x10 0 1 0 0 0 1 0 1

x11 0 0 1 0 0 0 1 1

0 32 13 0 .60 0 0 .132

x3 x4 x5 x6 x9 x10 x11 T.I.

x4 0 1 26/32 1/32 .30/32 0 0 1/32

x3 1 0 0 0 1 0 0 1

x10 0 0 .26/32 .1/32 .30/32 1 0 31/32

x11 0 0 1 0 0 0 1 1

0 0 .13 .1 .30 0 0 .133

La cota alcanzada es 133, como es mejor que la alcanzada en


el subproblema 2.1, seguiremos ramificando el subproblema 2.2.

204
OPTIMIZACIÓN. CASOS PRÁCTICOS

Subproblema 2.2.1
x1 % 1 ú x7 % 0; x2 % 1 ú x8 % 0; x 3 % 0 ú x9 % 1
Max 72 ! 32x4 ! 13x5
sujeto a 32x4 ! 26x5 ! x6 % 1
x4!ñññññ ! x10 ñ % 1
ññ x5 !ññññ ! x11 % 1

x4 x5 x6 x10 x11 T.I.

x6 32 26 1 0 0 31

x10 1 0 0 1 0 1

x11 0 1 0 0 1 1

32 13 0 0 0 .72

x4 x5 x6 x10 x11 T.I.

x4 1 26/32 1/32 0 0 31/32

x10 0 .26/32 .1/32 1 0 1/32

x11 0 1 0 0 1 1

0 .13 .1 0 0 .103

Para el sublproblema 2.2.1 la cota es 103.

Subproblema 2.2.2

x1 % 1 ú x7 % 0; x2 % 1 ú x8 % 0; x 3 % 1 ú x9 % 0
Max 72 ! 32x4 ! 13x5

205
PROGRAMACIÓN ENTERA

sujeto a 32x4 ! 26x5 ! x6 % 1


x4!ñññññ ! x10 ñ % 1
ññ x5 !ññññ ! x11 % 1

x4 x5 x6 x10 x11 T.I.

x6 32 26 1 0 0 1

x10 1 0 0 1 0 1

x11 0 1 0 0 1 1

32 13 0 0 0 .132

x4 x5 x6 x10 x11 T.I.

x4 1 26/32 1/32 0 0 1/32

x10 0 .26/32 .1/32 1 0 31/32

x11 0 1 0 0 1 1

0 .13 .1 0 0 .133

La cota alcanzada es 133, como es mejor que la alcanzada


en el subproblema 2.2.1, seguiremos ramificando el subproble-
ma 2.2.2.

Subproblema 2.2.2.1
x1 % 1 ú x7 % 0; x2 % 1 ú x8 % 0; x3 % 1 ú x9 % 0
x4 % 0 ú x5 % 1
Max 132 ! 13x5
sujeto a 26x5 ! x6 % 1
x5 ! ñ ! x11 % 1

206
OPTIMIZACIÓN. CASOS PRÁCTICOS

Es evidente que se alcanza el máximo cuando x5 % 1, aunque


esta solución no es válida por ser no factible, ya que no se cum-
plirı́a la restricción 26x5 ! x6 % 1. Para x5 % 0, la cota es 132.

Subproblema 2.2.2.2
x1 % 1 ú x7 % 0; x2 % 1 ú x8 % 0; x 3 % 1 ú x9 % 0
x4 % 1 ú x10 % 0
Max 164 ! 13x5
sujeto a 32 ! 26x5 ! x6 % 1
x5 ! ñ ! x11 % 1
No es una solución factible porque no se cumplirı́a la restric-
ción 32 ! 26x5 ! x6 % 1, por ello, la solución óptima viene dada
por: x1 % 1; x2 % 1; x3 % 1; x4 % 0, es decir, se aceptarı́an los
proyectos 1, 2, 3.
Árbol de ramificación:

207
CAPÍTULO 8
INTRODUCCIÓN A LA PROGRAMACIÓN
MULTIOBJETIVOS

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Programas multiobjetivos

8.1. Un programa multiobjetivos es un problema de optimiza-


ción del tipo siguiente:

E
Opt f1 (x), f2(x), ..., fp(x)
(PMO)
sujeto a x à M
donde f % ( f1, f2, ..., fp) : ⺢n r ⺢p es la función objetivo y
M Ñ ⺢n es el conjunto factible.
La primera dificultad que se presenta en este tipo de progra-
mas es definir lo que se entiende por óptimo. Lo ideal serı́a que
a à M fuese óptimo del programa cuando lo fuese simultánea-
mente de todos y cada uno de los objetivos f1, f2, ..., fp. Es muy

209
OPTIMIZACIÓN. CASOS PRÁCTICOS

raro, en la práctica, que un programa multiobjetivos tenga un óp-


timo de este tipo, por lo que se suelen adoptar conceptos de opti-
malidad más débiles.

Concepto de óptimo en programas multiobjetivos


Sea f % ( f1, f2, ..., fp) : ⺢n r ⺢p definida por sus componentes
y M Ñ ⺢n. Se da en ⺢p el orden parcial usual, definido como
sigue
u % (u1, u2, ..., up), v % (v1, v2, ..., vp) à ⺢p
u m v á ui m vi, O i % 1, 2, ..., p
Se considera el siguiente programa multiobjetivos para el ca-
so de mı́nimo

E
Min f (x)
(PMO)
sujeto a x à M

entendiendo el mı́nimo en el sentido de Pareto que se define a


continuación.
8.2. a à M es solución optimal Pareto o eficiente del progra-
ma PMO si no existe b à M tal que
f (b) m f (a), f (b) Ç f (a)
8.3. Se llama lı́nea de eficiencia del programa PMO al si-
guiente conjunto de ⺢p:
L PMO % R f (x) : x es solución optimal de PMOS

Técnica de escalarización

Esta técnica consiste en resolver un programa con un único


objetivo asociado al programa multiobjetivos y, a partir de la so-
lución de este programa asociado, obtener conclusiones sobre las

210
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

soluciones del programa multiobjetivos. Se considera el pro-


grama

E
Min f1 (x), f2(x), ..., fp(x)
(PMO)
sujeto a x à M

8.4. Para cada k % (k1, k2, ..., kp) à ⺢p se define un programa


escalar asociado a PMO por:
p

E
Min ; ki fi (x)
(PEk) i%1

sujeto a x à M

8.5. Si k b 0 (cada coordenada mayor que cero) y a es solu-


ción del programa escalar PEk, entonces a es solución optimal
Pareto de PMO.
8.6. Si k n 0 (cada coordenada mayor o igual que cero) y a
es solución única del programa escalar PEk , entonces a es solu-
ción optimal Pareto de PMO.
8.7. Si el programa multiobjetivos PMO es tal que M es
convexo y f es convexa (todas las componentes convexas), en-
tonces para cada solución a de PMO, existen k n 0 (no todas las
coordenadas nulas) de forma que a es solución del programa es-
calar PEk.

Condiciones de optimalidad

Según la naturaleza del programa multiobjetivos, aplicando


las técnicas estudiadas en los temas anteriores y teniendo en
cuenta los resultados dados en la última sección, se pueden obte-
ner algunas condiciones de optimalidad en casos particulares im-
portantes.
Se suponen dados un subconjunto A Ñ ⺢n y las funciones f y
g definidas por medio de sus componentes f % ( f1 , ..., fp) : A r ⺢p,

211
OPTIMIZACIÓN. CASOS PRÁCTICOS

g % (g1, ..., gm) : A r ⺢m, y se consideran los siguientes progra-


mas multiobjetivos con sus correspondientes programas escalari-
zados para cada k % (k1, ..., kp) n 0

E
Min f1(x), ..., fp(x)
sujeto a x à A
(PMO1) g1(x) % 0
ñ
gm(x) % 0

E
Min f1(x), ..., fp(x)
sujeto a x à A
(PMO2) g1(x) m 0
ñ
gm(x) m 0

E E
p p
Min ; ki fi (x) Min ; ki fi (x)
i%1 i%1

sujeto a x à A sujeto a x à A
(PE1k) (PE2k)
g1(x) % 0 g1(x) m 0
ñ ñ
gm(x) % 0 gm(x) m 0

En cada caso se denota por M el conjunto factible del corres-


pondiente programa.
8.8. En el programa PMO1, sean A abierto y convexo, M
convexo, f de clase uno y convexa y g de clase uno y considere-
mos las proposiciones siguientes:
a) a es óptimo de Pareto del programa.
b) Existen k % (k1, ..., kp) (no todas las coordenadas nulas)
y j1, ..., jm à ⺢ tales que
p m
; kiMfi(a) ! ; jjMgj (a) % 0
i%1 j%1

212
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

Se verifica que:
i) Si a es regular (Mg1(a), ..., Mgm(a) linealmente indepen-
dientes), entonces a ú b.
ii) Si k1, ..., kp b 0, entonces b ú a.
Un caso particular importante en que se verifica el teorema
anterior es aquel en el que las restricciones vienen dadas por fun-
ciones lineales afines.
8.9. En el programa PMO2, sean A abierto y convexo, M
convexo, f de clase uno y convexa, g de clase uno y a un ele-
mento del conjunto factible. Si a es regular y óptimo de Pareto
del programa existen k % (k1, ..., kp) n 0 (no todas las coordena-
das nulas) y j1, ..., jm n 0 tales que
p m
; kiMfi (a) ! ; jjMgj(a) % 0
i%1 j%1

jj gj (a) % 0, O j % 1, ..., m
Recı́procamente, si existen k y j con la propiedad anterior y
k tiene todas sus coordenadas positivas, entonces a es óptimo de
Pareto de PMO2.
Nota. En todos los casos se puede suponer, sin pérdida de ge-
p
neralidad, que ; ki % 1, ya que, en caso contrario, se puede sus-
i%1
tituir el vector k utilizado en el programa escalar asociado al mul-
tiobjetivos por el nuevo vector
1
p
(k1, k2, ..., kp)
; ki
i%1

de tal forma que el nuevo programa escalar asociado tiene la mis-


ma solución (las coordenadas de k son no negativas).

213
PROBLEMAS RESUELTOS

8.1. Dado el siguiente programa multiobjetivos:

PMO : Min (x, x2); x à ⺢

a) obténgase la lı́nea de eficiencia del programa, y


b) compruébese, utilizando la técnica de escalarización, el
resultado obtenido.

Solución

a) Es claro que el conjunto factible, en este caso ⺢, se


transforma en la parábola y2 % y21, luego, la lı́nea de eficiencia del
programa viene dada por:

L PMO % R(y1, y2) à ⺢2 : y2 % y21 , y1 m 0S

es decir, la rama de parábola contenida en el segundo cuadrante,


incluyendo el origen. En efecto, dado cualquier punto de esta lı́-
nea, por ejemplo el (a, a2) con a m 0, no existe ningún punto (y1,
y21) à f (M) tal que (y1, y21) m (a, a2).
Por definición, las soluciones optimales Pareto del programa
son los elementos de ⺢ imagen inversa por f de algún elemento
de la lı́nea de eficiencia, con lo que resulta el conjunto de solu-
ciones Rx à ⺢ : x m 0S.

214
OPTIMIZACIÓN. CASOS PRÁCTICOS

b) Sea, para cada k % (k1, k2) à ⺢2, el programa escalar aso-


ciado al PMO siguiente:
PEk : Min k1x ! k2x2; xà⺢
donde fk(x) % k1x ! k2x2 es la función objetivo del programa es-
calar. Es claro que si k n 0, fk es convexa en ⺢, luego si existe
mı́nimo local de fk es global. Derivando resulta:
k1
f kñ (x) % k1x ! 2k2x, x % . , f kññ(x) % 2k2
2k2
Si k1 % 0 y k2 b 0, x % 0 es el mı́nimo global de fk y, además, es
único, luego, por 8.6, se deduce que x % 0 es solución optimal de
PMO.
Si k1 b 0 y k2 b 0, entonces x % .k1/2k2 es mı́nimo global
de fk ya que la derivada segunda en ese punto es positiva, luego,
por 8.5, x % .k1/2k2 es solución optimal de PMO.
Como k1 b 0 y k2 b 0 pueden ser cualesquiera, resulta que x
puede ser cualquier número real negativo y se tiene el conjunto
de soluciones optimales dada en el apartado anterior.
8.2. Dado el siguiente programa multiobjetivos:

PMO: Min (x, !∂x); xn0


obténganse la lı́nea de eficiencia y las soluciones optimales del
programa.

Solución
El conjunto factible es M % Rx à ⺢ : x n 0S y la función obje-
tivo es f (x) % (x, !∂x). Es claro que el transformado del con-
junto factible por f es:

f (M) % R(y1, y2) à ⺢2 : y2 % !∂y1 , y1 n 0S


y que la lı́nea de eficiencia se reduce al punto (0, 0). En efecto

(0, 0) m (y1, !∂y1); O (y1, y2) à f (M), (y1, y2) Ç (0, 0)

215
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

FIGURA 8.1.

La única solución optimal del programa es la imagen inversa


por f del punto (0, 0), es decir x % 0.
8.3. Dado el siguiente programa multiobjetivos:

E
Min (x1 ! x2 , x1 . x2)
PMO sujeto a 0 m x1 m 1
0 m x2 m 1

obténganse la lı́nea de eficiencia y el conjunto de soluciones op-


timales del programa.

Solución
Veamos el transformado del conjunto factible
M % R(x1, x2) à ⺢2 : 0 m x1 m 1, 0 m x m 1S
2
por la función objetivo f (x1, x2) % (x1 ! x2, x1 . x2). M es el cua-
drado cerrado de lado unidad. Los tranformados por f de las rec-
tas x1 % 0, x2 % 0, x1 % 1 y x2 % 1 son, respectivamente, las
rectas y2 % .y1, y2 % y1, y2 % 2 . y1 e y2 % y1 . 2 (véase figura
8.2). Luego:
f (M) %
% R(y1, y2) à ⺢2 : y2 m y1, y2 n .y1, y2 n y1 . 2, y2 m 2 . y1S

216
OPTIMIZACIÓN. CASOS PRÁCTICOS

x y

FIGURA 8.2.

La lı́nea de eficiencia es:


L PMO % R(y1, y2) à ⺢2 : y2 % .y1, 0 m y1 m 1S
y el conjunto de soluciones optimales:
R(x1, x2) à ⺢2 : x1 % 0, 0 m x2 m 1S
Nótese que dado cualquier punto (y1, y2) à f (M) que no per-
tenezca a la lı́nea de eficiencia del programa existe un punto
(z1, z2) à L PMO tal que (z1, z2) m (y1, y2) con (z1, z2) Ç (y1, y2). Por
otra parte, si se considera, para cada k % (k1, k2) à ⺢2, el progra-
ma escalar

E
Min k1(x1 ! x2) ! k2(x1 . x2)
PEk sujeto a 0 m x1 m 1
0 m x2 m 1

se observa que, para k % (1, 1), el programa escalar que resulta es

E
Min 2x1
PE(1, 1) sujeto a 0 m x1 m 1
0 m x2 m 1

que, obviamente, tiene su solución en cualquier punto de la for-


ma (0, x2) con 0 m x2 m 1, lo que, por 8.5, implica que estos pun-
tos son soluciones optimales del programa multiobjetivos.

217
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

8.4. Dado el siguiente programa multiobjetivos:


PMO: Min f (x1, x2); (x1, x2) à ⺢2
en donde

E
(x1, x21 ! 8x28) si x1 m 0
f (x1, x2) %
(x1, 8x28) si x1 b 0
a) Determı́nese analı́tica y gráficamente el transformado de
⺢2 por f.
b) Indı́quese si los puntos
A % (0, 0), B %(2, 0), C % (.1/2, 3/4) y D % (.3, 0)
son soluciones optimales del programa.
c) Determı́nese la lı́nea de eficiencia del programa.
d) Enúnciese el programa escalarizado asociado para
k % (k1, k2) à ⺢2.
Solución
a) Se denotan con x las coordenadas de los puntos del espa-
cio inicial y con y las coordenadas de los puntos del espacio final
de f. El transformado de ⺢2 por f (figura 8.3) es el siguiente sub-
conjunto T de ⺢2:
T%R(y1, y2) à ⺢2 : y1 n0, y2 n0SéR(y1, y2) à ⺢2 : y1 m0, y2 ny21S

FIGURA 8.3.

218
OPTIMIZACIÓN. CASOS PRÁCTICOS

b) El punto A, que tiene por imagen f (0, 0) % (0, 0), es so-


lución optimal Pareto del programa, ya que, es claro que no exis-
te ningún punto (y1, y2) à T distinto del (0, 0) tal que:
(y1, y2) m (0, 0)
es decir, no existe ningún elemento (x1, x2) à ⺢2 tal que:
f (x1, x2) m (0, 0), con f (x1, x2) Ç f (0, 0)
El punto B tiene por imagen al propio B; como
f (0, 0) % (0, 0) m (2, 0) % f (2, 0), con f (0, 0) Ç f (2, 0)
B no es solución optimal Pareto del programa.
El punto C tiene por imagen (.1/2, 1) y es claro que existen
puntos (y1, y2) à T distintos de este tales que
(y1, y2) m (.1/2, 1)
por ejemplo, el (.1, 1), luego C no es solución optimal Pareto.
La imagen de D es (.3, 9) que está en la frontera de T (parte
definida por la rama de parábola) y no existe (y1, y2) à T distinto
de (.3, 9) tal que
(y1, y2) m (.3, 9)
por lo que el punto D es solución optimal Pareto del programa
multiobjetivos.
c) La lı́nea de eficiencia del programa se define por:
L PMO % R f (x1, x2) : (x1, x2) es solución optimal de PMOS
en este caso resulta:
L PMO % R(y1, y2) à ⺢2 : y1 m 0, y2 % y21S
es decir, la rama de parábola indicada en la figura 8.3 incluido el
punto (0, 0).
d) Dado k % (k1, k2) à ⺢2, el programa escalarizado PEk
asociado al programa PMO es el siguiente:
PEk : Min k1 f1(x1, x2) ! k2 f2(x1, x2); (x1, x2) à ⺢2

219
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

en donde f1, f2 : ⺢2 r ⺢ están dadas por:

E
x21 ! 8x28 si x1 m 0
f1(x1, x2) % x1; f2(x1, x2) %
8x28 si x1 b 0
8.5. Obténgase una solución optimal Pareto del siguiente
problema de programación multiobjetivos:

E
Min (x21, x31 ! x2, x1 . x22)
PMO sujeto a x1 ! x2 % .3
x1 à [.2, 2]

Solución

Dado k % (k1, k2, k3) à ⺢3 se tiene el siguiente programa escalari-


zado asociado a PMO

E
Min k1x21 ! k2x31 ! k2x2 ! k3x1 . k3x22
PEk sujeto a x1 ! x2 % .3
x1 à [.2, 2]

Como se pide sólo una solución optimal Pareto, basta consi-


derar un k b 0 cualquiera, de forma que si se obtiene una solu-
ción del programa escalarizado para ese valor de k, se tendrá una
solución optimal Pareto del programa PMO. Sea, por ejemplo,
k % (1, 1, 1). El correspondiente programa escalarizado es:

E
Min x21 ! x31 ! x2 ! x1 . x22
PEk sujeto a x1 ! x2 % .3
x1 à [.2, 2]

que es un programa diferenciable con una restricción de igualdad


(la segunda restricción se utilizará para comprobaciones), luego
aplicando la regla de multiplicadores de Lagrange resulta que:
L (x1, x2; j) % x21 ! x31 ! x2 ! x1 . x22 ! j(x1 ! x2 ! 3)

220
OPTIMIZACIÓN. CASOS PRÁCTICOS

De la condición necesaria de extremo relativo condicionado se


tiene:

F
2x1 ! 3x21 ! 1 ! j % 0

F
2x1 ! 3x21 ! 1 % 1 . 2x2
1 . 2x2 ! j % 0
x2 % .x1 . 3
x1 ! x2 % .3
que da como soluciones los puntos A % (∂2, .3 . ∂2) y
B % (.∂2, .3 ! ∂2). Veamos la condición suficiente de ex-
tremo condicionado. Las derivadas segundas de L son:
D11L % 2 ! 6x1, D12L % D21L % 0, D22L % .2
y las derivadas primeras de la condición g(x1, x2) % x1 ! x2 ! 3
son:
D1g(x1, x2) % 1, D2g(x1, x2) % 1
Para el punto A, se tiene la forma cuadrática:
h (h1, h2) % (2 ! 6∂2)h21 . 2h22 condicionada por h1 ! h2 % 0
sustituyendo resulta la forma cuadrática de una variable:
h (h1) % (2 ! 6∂2)h21 . 2h21 % 6∂2h21
Al ser esta forma cuadrática definida positiva, el punto A es
un mı́nimo relativo (se comprueba fácilmente que B es máximo).
En consecuencia, al ser el conjunto factible del programa escala-
rizado compacto, A es solución del programa escalarizado y, por
lo tanto, también es solución optimal Pareto del programa mul-
tiobjetivos.
Nótese que x1 % ∂2 à [.2, 2] y se cumple la segunda res-
tricción del programa.
8.6. Obténgase una solución optimal Pareto del siguiente
problema de programación multiobjetivos:

E
Min (x1 ! x2 . 1, x1 ! 3x2 . 3)
sujeto a x1 n 0, x2 n 0
PMO
x1 m 3
x1 ! x2 m 4

221
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

Solución

Consideremos un programa escalar asociado al PMO para un


valor dado de k, por ejemplo, k % (1, 1). Se tiene el programa es-
calarizado siguiente:

E
Min 2x1 ! 4x2 . 4
sujeto a x1 n 0, x2 n 0
PEk
x1 m 3
x1 ! x2 m 4

que es un programa lineal en dos variables cuya solución gráfica


se da en la figura 8.4.

Min
x

FIGURA 8.4.

El conjunto factible es M y las curvas de nivel c son las rectas


de ecuaciones:

2x1 ! 4x2 . 4 % c

222
OPTIMIZACIÓN. CASOS PRÁCTICOS

de tal forma que, es claro, que la curva de nivel mı́nimo que


interseca al conjunto factible es la curva de nivel .4 y lo hace
en el punto (0, 0), luego (0, 0) es la única solución del programa
escalarizado y, en consecuencia, es una solución optimal Pareto
del programa multiobjetivos.
8.7. Dado el problema de programación multiobjetivos:
1
A B
E
Min x1, ! x2
x1
PMO
sujeto a x1 b 0, x2 n 0

a) Determı́nese el transformado del conjunto factible por f.


b) Obténgase la lı́nea de eficiencia del programa.
c) Descrı́base el conjunto de soluciones Pareto del programa.

Solución
a) El conjunto factible del programa es:
M % R(x1, x2) à ⺢2 : x1 b 0, x2 n 0S
El transformado T del conjunto factible se representa en la fi-
gura 8.5 y es la zona sombreada, incluyendo la rama de hipérbola
equilátera del primer cuadrante, que es la frontera de T.

FIGURA 8.5.

223
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

b) La lı́nea de eficiencia del programa se define por


L PMO % R f (x1, x2) : (x1, x2) es solución optimal Pareto de PMOS
En este caso resulta
L PMO % R(y1, y2) à ⺢2 : y1 y2 % 1, y1 b 0S
que es la frontera de T. Nótese que para cualquier punto del
interior de T existen puntos de M que mejoran ambos objetivos.
c) Las soluciones optimales Pareto son los puntos de M que se
transforman en un punto de la lı́nea de eficiencia del programa,
es decir los puntos (x1, x2) à M tales que:

1
A
f (x1, x2) % x1,
x1 B
! x2

es un punto de la rama de hipérbola indicada anteriormente, lo


que significa que ha de cumplirse que

1
x1
A
x1 B
! x2 % 1; 1 ! x1x2 % 1; x1x2 % 0

de donde, teniendo en cuenta que en M x1 b 0, resulta x2 % 0,


luego el conjunto de soluciones optimales Pareto del progra-
ma es:
R(x1, x2) à ⺢2 : x1 b 0, x2 % 0S
8.8. Dado el programa multiobjetivos:

E
Min f (x1, x2) % (x1 ! x2, x1 . x2)
PMO sujeto a x21 ! x22 m 1
x2 n .x1

Demuéstrese que el punto (∂2/2, .∂2/2) verifica la condi-


ción necesaria de solución optimal Pareto del programa, pero no
cumple la condición suficiente.

224
OPTIMIZACIÓN. CASOS PRÁCTICOS

Solución
Veamos que se cumplen las condiciones para la aplicación
de 8.9. En efecto, A % ⺢2 es abierto y convexo, el conjunto facti-
ble es convexo, por ser intersección de dos conjuntos convexos
(la bola cerrada unidad y un semiespacio cerrado) y la función
objetivo que tiene por funciones componentes f1(x1, x2) % x1 ! x2
y f2(x1, x2) % x1 . x2 (lineales y, por tanto, convexas) es convexa
y de clase uno. Las funciones que definen las restricciones del
programa, g1(x1, x2) % x21 ! x22 . 1 y g2(x1, x2) % .x1 . x2, son
de clase uno y el punto dado es un punto regular, ya que los vec-
tores

Mg1(∂2/2, .∂2/2) % (∂2, .∂2)


y
Mg2(∂2/2, .∂2/2) % (.1, .1)

son linealmente independientes.


La condición necesaria de óptimo de Pareto establece la exis-
tencia de k % (k1, k2) n 0 (no todas las coordenadas nulas) y j1,
j2 n 0, tal que:
2 2

F
; kiMfi (∂2/2, .∂2/2) ! ; jjMgj (∂2/2, .∂2/2) % 0
i%1 j%1

jj gj (∂2/2, .∂2/2) % 0

que da lugar al siguiente sistema de ecuaciones:

F
k1 ! k2 ! 2j1∂2/2 . j2 % 0
k1 . k2 . 2j1∂2/2 . j2 % 0

j1[(∂2/2)2 ! (.∂2/2)2 . 1] % 0

j2(.∂2/2 ! ∂2/2) % 0

Las dos últimas ecuaciones se verifican para todo j1, j2 n 0.

225
INTRODUCCIÓN A LA PROGRAMACIÓN MULTIOBJETIVOS

Considerando j1 % 0 y j2 % 1, resulta que también se cum-


plen las dos primeras con k1 % 1 b 0 y k2 % 0. Luego se cumple
la condición necesaria.
La condición suficiente establece que el sistema anterior ten-
ga solución con k b 0. Las dos últimas ecuaciones se verifican
para todo j1, j2 n 0, sumando las dos primeras resulta que

k1 % j2 y k2 % .∂2j1
luego no se cumple la condición suficiente ya que si j1 b 0, re-
sulta k2 a 0.
Se comprueba fácilmente que el punto dado no es solución
optimal Pareto del programa multiobjetivos. Basta considerar el
punto (0, 0), su imagen es f (0, 0) % (0, 0), mientras que f (∂2/2,
.∂2/2) % (0, ∂2), luego como
f (0, 0) % (0, 0) m (0, ∂2) % f (∂2/2, .∂2/2)

f (0, 0) Ç f (∂2/2, .∂2/2)


el punto dado no es solución optimal Pareto del programa, a pe-
sar de que cumple la condición necesaria para serlo.

226
CAPÍTULO 9
PROGRAMAS NO REGULARES

ESQUEMA-RESUMEN DE RESULTADOS TEÓRICOS

Subdiferenciación de funciones convexas

Sean x0 à ⺢n y f una función real convexa definida en ⺢n. Se


denota por epi f el epı́grafe de f, definido por:

epi f % R(x, k) à ⺢n # ⺢ : f (x) m kS

9.1. Se dice que x* à ⺢n es un subgradiente de f en x0 si

f (x) n f (x0) ! x* · (x . x0), Ox à ⺢n

La subdiferencial de f en x0 es el conjunto de todos los sub-


gradientes de f en x0. Se denota por LR f (x0).

227
OPTIMIZACIÓN. CASOS PRÁCTICOS

9.2. Dada f convexa y x0 à ⺢n, se define la derivada radial


de f en x0 en la dirección v por:

f (x0 ! tv) . f (x0)


f ñR(x0; v) % lim
tr0` t

9.3. x* es un subgradiente de f en x0 si y sólo si


x* · v m f Rñ (x0; v), O v à ⺢n

Gradiente generalizado de funciones localmente


lipschitzianas

9.4. Dado un subconjunto Y Ñ ⺢n, se dice que f : Y r ⺢ es


lipschitziana en Y si existe k b 0 de forma que:
8 f (y) . f (yñ)8 m k88y . yñ88, O y, yñ à Y
f es localmente lipschitziana en el abierto A, si para cada punto
de A existe un entorno en el que f es lipschitziana.
En toda la sección se considera f localmente lipschitziana en
el abierto y x0 un elemento de A.
9.5. La derivada direccional generalizada de f en x0 en la
dirección v se define por:

f (x ! tv) . f (x)
f 0(x0; v) % lim sup
xrx0 tr0` t

9.6. Si f es localmente lipschitziana en A y x0 es un ele-


mento de A, entonces se verifica que:
a) la función v r f 0(x0; v) es finita, positivamente homogé-
nea y subaditiva y se tiene
8 f 0(x0; v)8 m k88v88, O v à X
b) v r f 0(x0; v) es lipschitziana en un entorno de x0.
c) f 0(x0; .v) % (.f )0 (x0; v).

228
PROGRAMAS NO REGULARES

9.7. El gradiente generalizado de f en x0, que se denota por


LC f (x0), es el subconjunto de elementos de ⺢n dado por:
LC f (x0) % Rm à ⺢n : m · v m f 0(x0; v), O v à ⺢nS
9.8. El gradiente generalizado de f en x0 coincide con la
subdiferencial de f 0(x0; ·) en el punto cero, es decir:
LR f 0(x0; 0) % LC f (x0)
9.9. Si f es localmente lipschitziana en A y x0 es un ele-
mento de A, entonces se verifica que:
a) LC f (x0) es un subconjunto no vacı́o, convexo y compacto
de ⺢n y
88m88 m k, O m à LC f (x0)
b) Para todo v, se tiene
f 0(x0; v) % Max Rm · v : m à LC f (x0)S
El concepto de diferencial relacionado con el de gradiente ge-
neralizado es el de diferencial estricta. La derivada direccional
estricta de f en x0 siguiendo v se define por:
f (x ! tv) . f (x)
f ñs(x0; v) % lim
xrx0 , tr0` t

La diferencial estricta de f en x0 es el elemento Ds f (x0) à ⺢n


(si existe) tal que:
Ds f (x0) · v % f sñ(x0; v); O v à ⺢n
9.10. Dada f localmente lipschitziana en A y x à A, se veri-
fica:
a) Si f es convexa en A, entonces LC f (x) % LR f (x).
b) Si f es estrictamente diferenciable en x, entonces
LC f (x) % RDs f (x)S.
c) Si LC f (x) % RmS, entonces f es estrictamente diferencia-
ble en x y Ds f (x) % m.
d) Si f es Fréchet diferenciable en x, entonces Df (x) à LC f (x).

229
OPTIMIZACIÓN. CASOS PRÁCTICOS

9.11. Si f y g son localmente lipschitzianas en A y, en-


tonces:
a) LC(jf )(x) % jLC f (x), O j à ⺢.
b) LC( f ! g)(x) Ñ LC f (x) ! LC g(x).
9.12. Sean x, y à ⺢n. Si f es localmente lipschitziana en un
abierto que contiene al segmento [x, y], entonces existe un punto
z à (x, y) tal que
f (y) . f (x) à LC f (z) · (y . x)
9.13. En el caso de las funciones definidas entre espacios de
dimensión finita, la definición de gradiente generalizado es equi-
valente a la siguiente:

E
LC f (x0) % co lim Mf (xn) : PO f (xn), O (xn) r x0
nrä F
Aplicación a problemas de optimización

En esta sección se dan algunos resultados referidos a progra-


mas no regulares que contienen funciones o condiciones defini-
das por funciones no necesariamente diferenciables. Se conside-
ran, además de funciones convexas y localmente lipschitzianas,
las funciones estables utilizadas por diversos autores en análisis
no regular.
9.14. f es estable en x0 à A, si existen una constante positiva
k y un entorno V de x0 à A, tales que:
8 f(x) . f (x0)8 m k9x . x09, Ox à V
9.15. Se llama derivada direccional Dini de f en x0 siguien-
do v al siguiente lı́mite:
f (x0 ! tv) . f (x0)
f m(x0; v) % limsup
tr0` t

230
PROGRAMAS NO REGULARES

9.16. Si f es localmente lipschitziana en A, es estable en ca-


da punto de A, existen las derivadas direccionales de Dini y de
Clarke y se verifica que:
f m(x; v) m f 0(x; v), O x à A, O v à ⺢n
Se considera a continuación el siguiente programa matemá-
tico:

E
Min f (x)
(P)
sujeto a x à M
en donde, M Ñ ⺢n es un abierto y f : M r ⺢.
9.17. Dado el programa P, supongamos que f es convexa
en el abierto convexo M. x0 es un mı́nimo global de P si y sólo
si 0 à LR f (x0).
9.18. Dado el programa P, supongamos que f es estable en
el abierto M. Si x0 es un mı́nimo local de P, entonces f m(x0; v) n 0,
O v à ⺢n.
9.19. Dado el programa P, supongamos que f es local-
mente lipschitziana en el abierto M. Si x0 es un mı́nimo local de
P, entonces 0 à LC f (x0).

231
PROBLEMAS RESUELTOS

9.1. Dada f : ⺢ r ⺢ definida por f (x) % 8x8,


a) obténganse f ñR(0; v), f m(0; v), f 0(0; v), LR f (0) y LC f (0), y
b) demuéstrese que x % 0 es un mı́nimo global de f.

Solución

a) f no es derivable (en el sentido clásico) en el punto cero,


aunque existen las derivadas laterales. Como la función dada es
convexa, se verifica que:

f Rñ (0; v) % f m(0; v) % f 0(0; v) y LR f (0) % LC f (0)

Dado v à ⺢, se tiene que:

f (0 ! tv) . f (0) t8v8


f Rñ (0; v) % lim % lim % 8v8
tr0` t tr0` t

Un número real m es un subgradiente de f en el punto 0 si se


cumple que:

mv m 8v8, O v à ⺢

lo que se verifica, si y sólo si, m à [.1, 1] y, en consecuencia

LR f (0) % LC f (0) % [.1, 1]

232
OPTIMIZACIÓN. CASOS PRÁCTICOS

b) Como 0 à [.1, 1] % LR f (0) y f es convexa, teniendo en


cuenta el resultado 9.17, se tiene que el punto 0 es el mı́nimo glo-
bal de f.
1
9.2. Dada la función f (x) % x2 sen si x Ç 0, con f (0) % 0,
x
a) estúdiese la existencia de derivada en x % 0,
b) obténgase la derivada generalizada, en el sentido de
Clarke, en x % 0, y
c) obténgase el gradiente generalizado de f en x % 0 y jus-
tifı́quese por qué no coincide con la derivada de f en x % 0.

Solución
a) 1
h2 sen
f (0 ! h) . f (0) h 1
f ñ(0) % lim % lim % lim h sen % 0
hr0 h hr0 h hr0 h
por ser el producto de una expresión acotada entre .1 y 1 y otra
que tiende a cero.
b) El cálculo directo de la derivada generalizada de Clarke
resulta complejo y resulta más sencillo obtener primero el gra-
diente generalizado por medio del método dado en 9.13 y aplicar,
posteriormente, que la derivada generalizada de Clarke es la fun-
ción soporte del gradiente generalizado (véase 9.9.b).

E
LC f (0) % co lim f ñ(xn) : P f ñ(xn), O (xn) r 0
nrä F
Los elementos de cualquier sucesión (xn) r 0 son distintos de
cero y se tiene que:
1 1
f ñ(xn) % 2xn sen . cos
xn xn
con lo que resulta
1 1
E C
LC f (0) % co lim 2xn sen
nrä xn
. cos
xn D
: (xn) r 0
F
233
PROGRAMAS NO REGULARES

Como (xn) r 0 cuando n r ä, el lı́mite de la primera expre-


sión es cero y, en consecuencia

1
E C
LC f (0) % co lim .cos
nrä xn D F
: (xn) r 0

Es claro que, si existe el lı́mite anterior, para cualquier suce-


sión (xn) r 0 se verifica que:

1
.1 m lim .cos
nrä C xn D
m1

1
Además, para la sucesión (xn) %
se tiene
2nn A B
, convergente a cero,

1
lim
nrä C .cos
xnD% lim [.cos (2nn)] % .1
nrä

1
y para la sucesión (xn) %
cero, resulta
A
(2n . 1)n B
, también convergente a

1
lim
nrä C .cos
D
xn
% lim [.cos (2n . 1)n] % 1
nrä

En consecuencia, toda sucesión (xn) r 0 para la que exista el lı́-


mite anterior da como resultado de este lı́mite un valor compren-
dido entre .1 y 1, valores, estos últimos, que se alcanzan para
las sucesiones indicadas anteriormente. Como el gradiente gene-
ralizado es la envoltura convexa de todos los lı́mites, resulta que

LC f (0) % [.1, 1]

Finalmente, aplicando ahora 9.b, la derivada generalizada es,


para cada v à ⺢

f 0(0; v) % Max Rm · v : m à [.1, 1]S % 8v8

234
OPTIMIZACIÓN. CASOS PRÁCTICOS

c) El gradiente generalizado de f en x % 0 no coincide con


la derivada de f en ese punto debido a que la función no es es-
trictamente derivable en el punto cero.

1
9.3. La función f (x) % x sen si x Ç 0, con f (0) % 0, no es
x
lipschitziana en ningún entorno de cero.

a) Demuéstrese que es estable en x % 0, y


b) obténgase la derivada direccional Dini de f en x % 0.

Solución

a) f es estable en x % 0 si existen una constante positiva k


y un entorno V de x % 0, tales que:

8 f (x) . f (0)8 m k8x . 08, O x à V

lo que se verifica considerando k % 1 y V % ⺢ ya que:

1
G x sen
xGm 8x8, Ox à ⺢

b) Dado v à ⺢, v Ç 0, la derivada direccional Dini de f en


x % 0 es:

1
tv sen
f (0 ! tv) . f (0) tv
f m(0; v) % limsup % limsup %
tr0` t tr0` t

1
% limsup v sen
tr0` C tv D
Para v b 0,

1
f m(0; v) % v · limsup sen
tr0` C D
tv
%v·1%v

235
PROGRAMAS NO REGULARES

Para v a 0,
1
f m(0; v) % limsup (.v) .sen
tr0` C D
tv
%

1
% .v · limsup .sen
tr0` C tv D
% .v · 1 % .v

En consecuencia:
f m(0; v) % 8v8
mientras que no existen la derivada radial, ni la derivada genera-
liza de Clarke de f en x % 0.
9.4. Demuéstrese, utilizando la subdiferencial, que la fun-
ción que asigna a cada elemento de ⺢n su norma euclı́dea tiene
un mı́nimo global en x % 0.

Solución
La función dada es:

f (x1, x2, ..., xn) % 88x88 % !∂x21 ! x22 ! ñ ! x2n


x % (x1, x2, ..., xn) à ⺢n
f es convexa en ⺢n (no diferenciable en ese punto) y su derivada
radial en x % 0 en la dirección v % (v1, v2, ..., vn) à ⺢n es:

f (0 ! tv) . f (0) 88tv88 t88v88


f Rñ (0; v) % lim % lim % lim % 88v88
tr0` t tr0` t tr0` t

La subdiferencial de f en x % 0 es el conjunto de elementos


m % (m1, m2, ..., mn) à ⺢n tales que:
m · v m f Rñ (0; v), O v à ⺢n
Para cada v à ⺢nCR0S se tiene la condición:

m1 · v1 ! m2 · v2 ! ñ ! mn · vn m !∂v21 ! v22 ! ñ ! v2n % 88v88

236
OPTIMIZACIÓN. CASOS PRÁCTICOS

equivalente a

v1 v2 vn v
m1 · ! m2 · ! ñ ! mn · m 1; m· m1
88v88 88v88 88v88 88v88

Si se considera, para cada v à ⺢nCR0S, el hiperplano

v1 v2 vn
m1 · ! m2 · ! ñ ! mn · .1%0
88v88 88v88 88v88

el conjunto de elementos m % (m1, m2, ..., mn) à ⺢n que cumplen la


condición anterior, para cada v es el semiespacio

E F
v
H v % m à ⺢n : m · m1
88v88
luego

LR f (0) % Y Hv % B1 (0; 1)
v à RnCR0S

ya que la distancia de cada hiperplano al origen es:

8.18
d(0; Hv) % %1

J
2
v 1 v22 v2n
! ! ñ !
88v882 88v882 88v882

Por lo tanto, la subdiferencial de f en x % 0 es la bola cerrada


unidad, y como f es convexa, por el resultado 9.17, el punto cero
es mı́nimo global de f, ya que

0 à LR f (0)

9.5. Dada f (x, y) % Max Ry . x2, 0S ! Min Ry, 0S,


a) obténgase el gradiente generalizado de f en (0, 0), y
b) compruébese que el punto (0, 0) verifica la condición ne-
cesaria de mı́nimo local.

237
PROGRAMAS NO REGULARES

Solución

Consideremos los siguientes conjuntos:

A1 % R(x, y) à ⺢2 : y b x2S

A2 % R(x, y) à ⺢2 : y a 0S

A3 % ⺢2C(A1 é A2)

La definición de f se puede expresar como sigue:

E
y . x2 si (x, y) à A1
f (x, y) % y si (x, y) à A2
0 si (x, y) à A3

a) Sea A el conjunto de puntos de ⺢2 que no pertenecen ni


a la parábola y % x2 ni al eje y % 0. f es continuamente diferen-
ciable en A, y se tiene que:

E
(.2x, 1) si (x, y) à A1
Mf (x, y) % (0, 1) si (x, y) à A2
(0, 0) si (x, y) à A3 ç A

Consideremos cualquier sucesión (xn, yn) r (0, 0), con


(xn, yn) à A. Es claro que las sucesiones de gradientes Mf (xn, yn)
tienen sólo dos lı́mites posibles, cuando n tiende a infinito, (0, 0)
y (0, 1), luego, por 9.13, resulta que:

LC f (0, 0) % co R(0, 0), (0, 1)S

es decir, que el gradiente generalizado de f en (0, 0) es el seg-


mento de extremos (0, 0) y (0, 1), luego, por 9.19, se cumple la
condición necesaria de mı́nimo local de la teorı́a de gradientes
generalizados, ya que (0, 0) à LC f (0, 0). Sin embargo, el punto

238
OPTIMIZACIÓN. CASOS PRÁCTICOS

(0, 0) no es mı́nimo (ni máximo) local de f. En efecto, dado cual-


quier e b 0, se tiene:
e
(0, .e/2) à B((0, 0), e), con f (0, .e/2) % . a 0 % f (0, 0)
2

A B
e
(0, e/2) à B((0, 0), e), con f (0, e/2) % b 0 % f (0, 0)
2

9.6. Dado el siguiente programa matemático P:

E
Opt f (x)
sujeto a x à [0, 2]
en donde

E
2 . x si x m 1
f (x) %
x2 si x b 1
a) ¿Qué teorema asegura la existencia de óptimos globales
de P?
b) Demuéstrese que f es convexa.
c) Obténgase la derivada radial de f en x % 1.
d) Obténgase la subdiferencial de f en x % 1 y explı́quese
la interpretación geométrica de los subgradientes de f en x%1.
e) Resuélvase el programa.

Solución
a) El teorema de Weierstrass ya que f es continua en un
compacto.
b) Sean f1(x) % 2 . x y f2(x) % x2. Es claro que el epı́grafe
de la primera es convexo por ser un semiespacio, y que el de la
segunda también es convexo ya que esta función es una parábola
convexa. El epı́grafe de f es:
epi f % epi f1 ç epi f2
convexo por ser intersección de convexos, luego f es convexa.

239
PROGRAMAS NO REGULARES

c) Por ser f convexa, existe la derivada radial en x % 1 para


cualquier dirección v (en este caso v es un número real) y se
tiene:
Para v a 0
f (1 ! tv) . f (1) 2 . (1 ! tv) . 1
f Rñ (1; v) % lim % lim %
tr0` t tr0` t
.tv
% lim % .v
tr0` t
Para v b 0
(1 ! tv)2 . 1 1 ! 2tv ! t2v2 . 1
f Rñ (1; v) % lim % lim %
tr0` t tr0` t
% lim (2v ! tv2) % 2v
tr0`

luego la derivada radial viene dada por

E
.v si v a 0
f ñR(1; v) %
2v si v b 0
d) La subdiferencial de f en x % 1 es el conjunto de los
subgradientes de f en x % 1, es decir, en este caso es simple-
mente el conjunto de números reales x* tales que:
x* · v m f Rñ (1; v), Ov à ⺢
con lo que resulta:
si v a 0, x* · v m .v, x* n .1
si v b 0, x* · v m 2v, x* m 2
luego la subdiferencial de f en x % 1 es:
Lf (1) % [.1, 2]
que gráficamente representa el conjunto de las pendientes de to-
das las rectas soporte del epı́grafe de f en el punto (1, 1).

240
OPTIMIZACIÓN. CASOS PRÁCTICOS

e) Teniendo en cuenta que f es convexa en el convexo


[0, 2] y que
0 à Lf (1) % [.1, 2]
resulta que
Min f (x) % 1, para x % 1
xàM

En los demás puntos del interior del conjunto factible, existe de-
rivada de f (en el sentido clásico) y es distinta de cero, luego el
máximo se alcanza en la frontera de M. Como f (0) % 2 y
f (2) % 4 se tiene que
Max f (x) % 4, para x % 2
xàM

9.7. Dada f (x, y) % 8x ! y8,


a) compruébese que f es convexa,
b) obténgase la derivada radial de f en el punto (0, 0), y
c) demuéstrese, utilizando la subdiferencial, que (0, 0) es un
mı́nimo global de f.

Solución
a) Para todo a, b n 0 con a ! b % 1 y para todo (x, y),
(xñ, yñ) à ⺢2, se tiene que:
f (a(x, y) ! b(xñ, yñ)) % f (ax ! bxñ, ay ! byñ) %
% 8ax ! bxñ ! ay ! byñ8 % 8a(x ! y) ! b(xñ ! yñ)8 m
m a8x ! y8 ! b8xñ ! yñ8 % af (x, y) ! bf (xñ, yñ)
y, en consecuencia, f es convexa.
b) Dado v % (v1, v2) à ⺢2, la derivada radial de f en el pun-
to (0, 0) siguiendo v es:
8tv1 ! tv28 . 0
f Rñ [(0, 0); (v1, v2)] % lim % 8v1 ! v28
tr0` t

241
PROGRAMAS NO REGULARES

c) m % (m1, m2) es un subgradiente de f en el punto (0, 0) si:


(m1, m2) · (v1, v2) m f Rñ [(0, 0); (v1, v2)], O(v1, v2) à ⺢2
o, lo que es equivalente,
m1 · v1 ! m2 · v2 m 8v1 ! v28, O (v1, v2) à ⺢2
Es claro que (0, 0) verifica la condición anterior, luego
(0, 0) à LR f (0, 0)
y, en consecuencia, (0, 0) es un mı́nimo global de f.

242
BIBLIOGRAFÍA

[1] BALBAS, A., GIL, J. A. Programación matemática. Edic. AC


(1990).
[2] BALBAS, A., GIL, J. A., GUTIÉRREZ, S., HERAS, A., VILAR, J. L. Pro-
gramación matemática y modelos económicos: un enfoque teórico
práctico. Edic. AC (1990).
[3] BOMBAL, F., RODRÍGUEZ, L., VERA, G. Problemas de análisis mate-
mático. 2. Cálculo diferencial. Edic. AC (1988).
[4] CLARKE, F. H. Optimization and nonsmooth analysis. Wiley Inters-
cience Publ. (1983).
[5] DEMYANOV, V. F., RUBINOV, A. M. Constructive nonsmooth anali-
sys. Verlag Peter Lang (1995).
[6] GASS, S. I. Programación lineal. Métodos y aplicaciones. CECSA
(1978).
[7] HILLIER, F. S., LIEBERMAN, G. J. Introducción a la Investigación de
Operaciones. McGraw-Hill (1991).
[8] JAHN, J. Mathematical vector optimization in partially orderer li-
near spaces. Verlag Peter Lang, Frankfurt am Main (1986).
[9] MANGASARIAN, O. L. Nonlinear programming. McGraw-Hill (1969).
[10] MIETTINEN, K. M. Nonlinear Multiobjective Optimization. Kluiwer
Academic Publishers (1999).
[11] MINAUX, M. Programation mathematique, theorie et algorithmes.
(vol. 1, 2) Dunod (1983).
[12] MOCHOLI, M. SALA, R. Programación lineal. Metodologı́a y pro-
blemas. Tebar Flores (1993).

243
BIBLIOGRAFÍA

[13] NOVO, V. Teorı́a de la Optimización. Col. Aula Abierta. UNED


(1999).
[14] PRAWDA, J. Métodos y modelos de investigación de operaciones.
Edit. Limusa (1976).
[15] RAMOS, E. Programación lineal y Métodos de optimización. Col.
Educ. Permanente. UNED (1995).
[16] ROCKAFELLAR, R. T. Convex Analysis. Princeton University Press.
(1970).
[17] RODRÍGUEZ MARÍN, L., PERÁN, J. Funciones de varias variables.
Cálculo diferencial. UNED (1995).
[18] SAWARAGI, Y., NAKAYAMA, H., TANINO, T. Theory of multiobjective
optimization problems. Academic Press (1985).

244
Juan del Rosal, 14
28040 MADRID
Tel. Dirección Editorial: 913 987 521

245
ISBN 84-362-4142-8
36148

9 788436 241426
246