Documente Academic
Documente Profesional
Documente Cultură
Ejemplo 1.1 (Construccin de una caja con volumen mximo) Supongamos que queremos determinar
las dimensiones de una caja rectangular de forma que contenga un volumen mximo, pero utilizando para ello
una cantidad fija de material. El problema en forma abstracta se podra plantear en los siguientes trminos
Maximizar Volumen
s.a. rea Fija
Para resolver este problema, en primer lugar, tendremos que modelizarlo matemticamente, es decir tendremos
que expresar el problema en trminos matemticos. La forma de modelizar un problema de optimizacin es
empezar por definir las variables que estn implicadas en dicho problema y puesto que estamos tratando de
determinar las dimensiones de una caja rectangular, la opcin ms clara es considerar como variables a x, y,
z.
Con estas variables, la funcin para la que tenemos que encontrar el mejor valor, ser el volumen de la caja,
que puede expresarse fcilmente como
V (x, y, z) = xyz
A continuacin tenemos que tener en cuenta las limitaciones de material existentes. Como este material se
utiliza para construir las paredes de la caja, tendremos que tener en cuenta el rea lateral de la misma, que en
el caso de utilizar tapa para la caja sera
Por ltimo, es necesario tener en cuenta que las dimensiones de la caja no pueden ser negativas y entonces el
problema puede plantearse como
Maximizar xyz
s.a. 2 (xy + yz + zx) = A
x, y, z 0
A partir de este sencillo ejemplo se observa que cada problema de optimizacin tiene tres elementos funda-
mentales:
9
10 Captulo 1. Fundamentos de Optimizacin Esttica
h (x1 , . . . , xn ) = 0
g (x1 , . . . , xn ) 0
Observacin 1.2 Solamente se han considerado restricciones de dos tipos, h (x) = 0 y g (x) 0, puesto
que siempre es posible, mediante una simple transformacin, expresar el problema en trminos de este
tipo de restricciones, tal y como se puede apreciar en la siguiente tabla:
h (x1 , . . . , xn ) = b b
h=hb b
h (x1 , . . . , xn ) = 0
g (x1 , . . . , xn ) c gb = g c gb (x1 , . . . , xn ) 0
g (x1 , . . . , xn ) c gb = c g gb (x1 , . . . , xn ) 0
Observacin 1.3 Normalmente, dentro de este conjunto de restricciones, no se incluyen las condiciones
sobre las variables del tipo x 0 o similares.
3. Funcin objetivo: Tambin llamado ndice de rendimiento o criterio de eleccin, el ltimo elemento de un
problema de optimizacin es la eleccin adecuada del criterio sobre el que el desarrollo o diseo del sistema
puede evaluarse de manera que podamos identificar el mejor diseo para ese criterio. Por ejemplo, en
muchas aplicaciones de ingeniera se suele elegir un criterio econmico, sin embargo, hay muchas opciones
que permiten considerar dicho criterio: coste del capital total, coste anual, beneficio anual neto, tasa
coste-beneficio. Para otras aplicaciones el criterio de eleccin puede implicar factores tecnolgicos, por
ejemplo, tiempo de produccin mnimo, mxima tasa de produccin, mnima energa utilizada o mxima
carga, entre otros. Independientemente del criterio seleccionado, en el contexto de optimizacin el mejor
siempre indica el candidato del sistema que produce el mnimo o mximo valor, segn el criterio utilizado,
para la funcin objetivo elegida.
Es importante hacer notar que en este libro se utilizar un nico criterio de optimizacin para definir el
ptimo. No estamos interesados en encontrar una solucin que, por ejemplo, minimice el coste, maximice
c
SPH
1.1. Conceptos bsicos 11
la produccin y al mismo tiempo minimice la energa utilizada. Esta es una simplificacin importante,
puesto que en muchas situaciones prcticas sera deseable alcanzar una solucin que sea la mejor con
respecto a un nmero de criterios diferentes: la solucin ideal sera maximizar beneficios al mnimo coste.
No obstante una forma de tratar objetivos que chocan entre s, es seleccionar un criterio como primario
y el resto de criterios como secundarios. El criterio primario se utiliza como medida de optimizacin del
proceso, mientras que los criterios secundarios seran valores mnimos y mximos aceptables que seran
tratados como restricciones del problema. Los problemas que utilizan varios criterios de bsqueda entran
dentro de la llamada programacin multiobjetivo.
Despus de introducir los elementos bsicos de un problema de optimizacin, nuestro objetivo est ms
clarificado: A partir del valor de la funcin objetivo, diseada para cuantificar el rendimiento y medir la
calidad de la decisin, se obtienen valores para un cierto nmero de variables de decisin, de forma que stas
minimicen o maximicen dicha funcin objetivo. Por lo general, estas variables estarn relacionadas entre s
mediante expresiones matemticas o restricciones que limitan la eleccin de esos valores. De otra forma, un
problema de optimizacin consiste en buscar valores para determinadas variables de forma que, cumpliendo un
conjunto de requisitos representados en general mediante ecuaciones y/o inecuaciones algebricas, proporcionen
el mejor valor posible para una funcin que es utilizada para medir el rendimiento del sistema en estudio. Con el
mejor valor queremos indicar el mayor o el menor valor posible, segn la naturaleza del problema. Buscamos, en
resumen, valores que cumplan unas condiciones y minimicen o maximicen una funcin que caracteriza el sistema.
Con esta idea, el planteamiento en abstracto general para resolver problemas de este tipo es el siguiente
Optimizar f (x)
Sujeto a Restricciones
donde el empleo del trmino Optimizar incluye a ambos objetivos tanto de Minimizacin como de Maximi-
zacin. No obstante la mayora de los planteamientos pueden hacerse con uno de los objetivos, por ejemplo
el de minimizacin, ya que un problema con objetivo de maximizacin siempre se puede transformar en otro
equivalente con objetivo de minimizacin multiplicando para ello la funcin objetivo por (1), como podemos
comprobar en la figura 1.1. El mnimo de la funcin f (x) = x2 + 1 se alcanza en el punto x = 0. En este
punto tambin se alcanza el mximo de la funcin opuesta g (x) = f (x) = x2 1, notar que aunque el punto
buscado en ambos casos es el mismo, los valores que cada funcin toma en dicho punto son uno el opuesto del
otro:
f (x ) = f (0) = 1
g (x ) = g (0) = 1
Ejemplo 1.4 Distancia ms corta entre dos curvas: Supongamos que queremos calcular la mnima dis-
tancia entre dos curvas de ecuaciones C1 y = f (x) y C2 y = g (x) que no se cortan entre s. El problema
se resuelve considerando un punto en cada curva y utilizando la frmula de la distancia entre dos puntos para
plantear el problema como
Minimizar d (P, Q)
s.a. P C1
Q C2
o ms concretamente como q
Minimizar (x2 x1 )2 + (y2 y1 )2
s.a. y1 = f (x1 )
y2 = g (x2 )
siendo
P = (x1 , y1 )
Q = (x2 , y2 )
c
SPH
12 Captulo 1. Fundamentos de Optimizacin Esttica
Figura 1.1: Equivalencia entre min f (x) y max g (x) = f (x), en ambos casos es x = 0.
1.2 Definiciones
Daremos a continuacin una serie de definiciones elementales relacionadas con la teora de la optimizacin
matemtica con el objetivo de que el lector se familiarice con este tipo de problemas.
Definicin 1.6 Definiremos el problema fundamental de la optimizacin esttica o problema de programacin
no lineal ( Nonlinear Programming Problem o NLPP) al expresado en los siguientes trminos:
Optimizar f (x1 , . . . , xn )
Sujeto a hi (x1 , . . . , xn ) = 0 i = 1, . . . , m
(1.1)
gj (x1 , . . . , xn ) 0 j = 1, . . . , p
(x1 , . . . , xn ) A R
En principio las funciones implicadas en la definicin del problema fundamental no tienen porqu tener
ninguna propiedad particular, pero en nuestro caso vamos a introducir hiptesis adicionales que ayudarn a
simplificar el problema; por ejemplo, supondremos de forma general que las funciones f, hi , gj son continuas y
que en la mayora de los casos tienen derivadas primeras y segundas tambin continuas. Adems el conjunto A
ser en la mayora de los casos un conjunto convexo.
La resolucin del problema de optimizacin 1.1 consistir en primer lugar, en buscar valores para las variables
xi que resuelvan el sistema formado por las restricciones y en segundo lugar encontrar de entre estos valores aquel
o aquellos que proporcionen el mayor (maximizar) o menor (minimizar) valor para la funcin real f (x1 , . . . , xn ).
c
SPH
1.2. Definiciones 13
1. Problema sin restricciones: En este caso no hay restricciones de ningn tipo, es decir, m = p = 0. La
expresin general de estos problemas sera la siguiente:
Optimizar f (x1 , . . . , xn )
Sujeto a (x1 , . . . , xn ) A
Las nicas limitaciones vienen dadas por el conjunto A donde est definida la funcin f .
2. Problema de Lagrange o con restricciones de igualdad: En este caso, en el planteamiento del problema
solamente existen restricciones de igualdad, es decir, m 6= 0 y p = 0:
Optimizar f (x1 , . . . , xn )
Sujeto a hi (x1 , . . . , xn ) = 0 i = 1, . . . , m
(x1 , . . . , xn ) A
3. Problemas unidimensionales o univariantes: Este es un caso particular de los problemas sin restricciones
en los que solamente hay una variable, es decir, cuando n = 1, m 6= 0 y p 6= 0. La estructura sera
Optimizar f (x)
Sujeto a x I R
Definicin 1.8 (solucin factible) Diremos que x = (x1 , . . . , xn ) A R es una solucin factible del pro-
blema 1.1 si cumple todas sus restricciones, es decir, si
hi (x1 , . . . , xn ) = 0 i = 1, . . . , m
gj (x1 , . . . , xn ) 0 j = 1, . . . , p
Definicin 1.9 (conjunto factible) Se define regin o conjunto factible del problema NLPP, que denotare-
mos en general por , al conjunto de todas sus soluciones factibles
Nuestro objetivo al intentar resolver el problema de optimizacin 1.1 es encontrar la mejor de las soluciones
factibles.
Definicin 1.10 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mnimo global para el problema si
x ; x 6= x ; f (x ) f (x)
El punto x ser mnimo global estricto si la desigualdad es estricta es decir si x , con x 6= x , ocurre
f (x ) < f (x).
Definicin 1.11 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mximo global para el problema si
x ; x 6= x ; f (x ) f (x)
El punto x ser mximo global estricto si la desigualdad es estricta es decir si x , con x 6= x , ocurre
f (x ) > f (x).
Observacin 1.12 Los mximos y mnimos globales de un problema de programacin no lineal tambin se
denominan extremos globales.
c
SPH
14 Captulo 1. Fundamentos de Optimizacin Esttica
Definicin 1.13 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es una solucin ptima del problema si
1. Es un mnimo global y el objetivo del problema es minimizar.
2. Es un mximo global y el objetivo del problema es maximizar.
Resolver el problema de optimizacin es encontrar, si existen, sus soluciones ptimas, es decir los extremos
globales de la funcin objetivo sobre el conjunto factible. Desde el punto de vista prctico y computacional en
algunas ocasiones bastar con obtener los llamados extremos locales y que definiremos a continuacin.
Definicin 1.14 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mnimo local o relativo para el problema si
> 0 tal que x ; x 6= x ; kxx k < = f (x ) f (x)
El punto x ser de mnimo local estricto si la desigualdad es estricta es decir si ocurre f (x ) < f (x) cuando
kxx k < .
Definicin 1.15 Dado el problema NLPP de programacin no lineal descrito en la ecuacin 1.1 y sea su
conjunto factible. Diremos que x Rn es un punto de mximo local o relativo para el problema si
> 0 tal que x ; x 6= x ; kxx k < = f (x ) f (x)
El punto x ser de mximo local estricto si la desigualdad es estricta es decir si ocurre f (x ) > f (x)
cuando kxx k < .
Definicin 1.16 Los mximos y mnimos locales de un problema de programacin no lineal tambin se deno-
minan extremos locales o relativos.
Observacin 1.17 Los extremos locales o globales estrictos, tambin reciben el nombre de extremos fuertes,
mientras que para los no estrictos se suele emplear el trmino dbil.
La teora inicial asociada a la optimizacin est orientada a la obtencin de condiciones necesarias y suficien-
tes para que un punto sea ptimo. Como veremos en los temas correspondientes, esta teora incluye el teorema
de los multiplicadores de Lagrange y el teorema de Karush-Kuhn-Tucker. Por otra parte, tambin es interesante
conocer no slo si un punto es o no ptimo desde el punto de vista terico, sino tambin cmo encontrar esos
ptimos desde el punto de vista prctico. Teniendo esto en cuenta, al considerar problemas de optimizacin se
plantean dos cuestiones:
1. Cuestin esttica: Cmo podemos determinar si un punto x es o no la solucin ptima de un problema
de optimizacin? Qu condiciones deben cumplir las funciones f (x), hi (x) y gj (x) para que un problema
tenga solucin?
2. Cuestin dinmica: Si x no es el punto ptimo, cmo podemos encontrar una solucin que sea ptima
utilizando la informacin de la funcin en x ?
Finalmente, un problema de optimizacin o programacin matemtica puede tener o no solucin, e incluso si
hay solucin al problema, puede que no sea nica. El resultado principal utilizado para conocer si un problema
de optimizacin tiene solucin es el teorema de Weierstrass.
Teorema 1.18 (Teorema de Weierstrass) Sea f (x) una funcin continua definida sobre un conjunto com-
pacto (cerrado y acotado) K Rn , entonces siempre existe solucin al problema (tanto de minimizacin como
de maximizacin). Es decir
f xmin =min f (x)
xK
xmin , xmax K
f (xmax ) =max f (x)
xK
Este es un resultado importante a tener en cuenta para la existencia de puntos ptimos, sin embargo no
nos proporciona un mtodo para la localizacin de los mismos, solamente de su existencia en determinadas
condiciones. Desde el punto de vista de las aplicaciones, lo interesante es caracterizar los puntos solucin y
disear un mtodo efectivo para su clculo.
c
SPH
1.3. Conjuntos Convexos 15
Definicin 1.19 (segmento lineal) Dados dos puntos x, y Rn , el segmento lineal cerrado que los une es
el conjunto
[x, y] = {x+(1 )y Rn / 0 1}
x, y , [0, 1] x + (1 )y
Esta definicin se interpreta de forma que un conjunto ser convexo si el segmento lineal cerrado que une
cualquier par de puntos del conjunto tambin pertenece al conjunto. La figura 1.2 representa algunos conjuntos
convexos y no convexos de R2 .
Por convenio el conjunto vaco es convexo.
H = {x Rn | aT x = b}
c
SPH
16 Captulo 1. Fundamentos de Optimizacin Esttica
El siguiente lema es una consecuencia inmediata de la definicin de convexidad y establece que la interseccin
de dos conjuntos convexos es convexa y que la suma algebrica de dos conjuntos convexos tambin es convexa.
Su demostracin se deja como ejercicio.
1. 1 2 es convexo.
2. 1 + 2 = {x + y : x 1 , y 2 } es convexo.
3. 1 2 = {x y : x 1 , y 2 } es convexo.
Teniendo en cuenta que los semiespacios de Rn son conjuntos convexos y tambin los resultados del lema
anterior se obtiene que los conjuntos de la forma
P = {x : Ax b}
donde A es una matriz m n en R y b Rm vector son conjuntos convexos puesto que son interseccines de
m semiespacios.
El conjunto S = { x| x es solucin de P }, siendo P el problema siguiente:
Minimizar cT x
P = Sujeto a Ax = b
x0
f () = { f (x)| x }
c
SPH
1.3. Conjuntos Convexos 17
Pm
j=1 j = 1
j 0, j = 1, . . . , m
donde m es un entero positivo y {x1 , . . . , xm } . Est claro que H (), puesto que si x x = 1 x
es una combinacin lineal convexa, luego x . Por construccin, H () es un conjunto convexo. Es el menor
conjunto convexo que contiene a .
Por definicin, un punto de la envoltura convexa de un conjunto se puede representar como combinacin
convexa de un nmero finito de puntos del conjunto.
Podemos observar en la figura 1.3 un conjunto no convexo y su envoltura convexa.
c
SPH
18 Captulo 1. Fundamentos de Optimizacin Esttica
Definicin 1.27 (poltopo, simplex, poliedro) La envoltura convexa de un conjunto finito de puntos de
Rn , = {x1 , . . . , xk+1 }, se denomina poltopo. Si adems el conjunto {x2 x1 , x3 x1 , . . . , xk+1 x1 }
es linealmente independiente, entonces esta envoltura convexa H () = H(x1 , . . . , xk+1 ) se llama simplex de
vrtices x1 , . . . , xk+1 . Por ltimo un poltopo acotado se denomina poliedro.
Es posible demostrar que los poltopos son la interseccin de un nmero finito de semiespacios cerrados y
equivalentemente a un conjunto de desigualdades lineales de la forma
aT1 x b1
aT2 x b2
.. Ax b
.
aTn x bn
Es decir un punto extremo es un punto del conjunto que no puede expresarse como punto medio de ningn
par de puntos del conjunto.
tiene 4 puntos extremos dados por P1 = (0, 0), P2 = (0, 2), P3 = (2, 0) y P4 = (2, 2) (ver figura 1.4).
El conjunto de los puntos extremos de un conjunto convexo puede ser vaco, por ejemplo una bola abierta de
Rn , contener una cantidad finita de elementos, como en la figura 1.4 o tener una cantidad infinita de elementos,
como una bola cerrada de Rn .
c
SPH
1.4. Funciones convexas 19
Definicin 1.29 (funcin convexa) Diremos que la funcin f : Rn R, siendo un conjunto convexo
no vaco, es convexa sobre
Definicin 1.30 (funcin cncava) Diremos que la funcin f : Rn R, con conjunto convexo no
vaco es cncava sobre g = f es convexa.
1. La cuerda que une dos puntos sobre la grfica de una funcin convexa siempre est por encima de la
grfica.
3. La segunda derivada de una funcin convexa es siempre no negativa para todos los puntos del intervalo.
4. La aproximacin lineal de una funcin convexa en cualquier punto del intervalo, siempre subestima el
verdadero valor de la funcin.
Proposicin 1.33 Si f1 (x) y f2 (x) son dos funciones convexas definidas sobre un subconjunto convexo no
vaco Rn = (f1 + f2 ) (x) es convexa sobre .
Proposicin 1.34 Si f (x) es convexa sobre Rn , con un conjunto convexo no vaco = 0, (f ) (x)
es convexa sobre .
Proposicin 1.36 Si la familia de funciones {fk }k=1,...,m son convexas sobre convexo no vaco = Si
definimos kc como
kc = {x | fk (x) ck }
entonces el conjunto
= m k k
k=1 c = {x | x c , k}
es convexo.
La demostracin de cada una de las proposiciones anteriores se hace directamente empleando la definicin
de funcin convexa y se deja como ejercicio.
Sea Rn convexo no vaco y f : Rn R, se define el epgrafe de la funcin como el conjunto
c
SPH
20 Captulo 1. Fundamentos de Optimizacin Esttica
Demostracin: Supongamos en primer lugar que f (x) es convexa en . Sean (x1 ,y1 ), (x2 ,y2 ) epi (f ), y
tomamos ahora para [0, 1] el punto
cumple
f (x1 + (1 ) x2 ) f (x1 ) + (1 ) f (x2 ) y1 + (1 ) y2
luego
(x1 + (1 ) x2 , y1 + (1 ) y2 ) epi (f )
Para demostrar el recproco hay que tener en cuenta que si
y utilizando su definicin
f (x1 + (1 ) x2 ) f (x1 ) + (1 ) f (x2 )
luego f (x) es convexa.
La caracterizacin de funciones convexas mediante su definicin es, en general, muy difcil de aplicar en la
prctica para comprobar si una funcin es o no convexa; es necesario encontrar nuevas caracterizacin ms sen-
cillas de aplicar. Los siguientes resultados proporcionan caracterizaciones para funciones convexas diferenciables
en trminos del gradiente y del Hessiano.
Si asumimos 6= 0
f (x + (y x)) f (x)
f (y) f (x) (0, 1]
y si ahora 0 y tenemos en cuenta que f C 1 () = f (x)(y x) f (y) f (x)
x1 , x2 y [0, 1] = x = x1 + (1 )x2
Si utilizamos ahora la desigualdad para x e y = x1 por una parte y para x e y = x2 por otra obtenemos
c
SPH
1.4. Funciones convexas 21
f (x + x) = f (x ) + f (x )T x + 12 2 xT Hf (x )x + o()
f (x + x) f (x ) + f (x )x x , x
que resulta ser la caracterizacin de primer orden para funciones convexas de la proposicin 1.38 y por tanto
f (x) es convexa en .
La matriz Hessiana de f es la generalizacin al espacio Rn del concepto de curvatura de una funcin y
de forma anloga, la definicin positiva del Hessiano es la generalizacin de curvatura positiva. Las funciones
convexas tienen curvatura positiva (o al menos no negativa) en todas las direcciones.
c
SPH
22 Captulo 1. Fundamentos de Optimizacin Esttica
Teorema 1.40 Sea f : Rn R con un conjunto convexo. Si f (x) es convexa [cncava] = El conjunto
donde f (x) alcanza su mnimo [mximo] es convexo y cualquier mnimo [mximo] local de f (x) es mnimo
[mximo] global.
= { x | f (x ) = minx f (x)}
Si = , es decir si f (x) no tiene mnimos relativos, entonces el teorema se cumple por la convexidad del
conjunto vaco.
Supngamos ahora 6= y por tanto existe x , si x es el nico elemento de , entonces es convexo
puesto que la nica combinacin con elementos de que se puede hacer [0, 1] es
x + (1 ) x = x
Supondremos, por tanto, que tiene al menos dos elementos x , y . Por la definicin de , entonces
fmin f (x + (1 ) y )
de donde
fmin f (x + (1 ) y ) fmin
y por tanto
f (x + (1 ) y ) = fmin
y se obtiene el resultado pedido.
Supongamos ahora que x es un mnimo local de f (x) y supongamos que no es un mnimo global;
es decir, que y con f (y) < f (x ). Por la convexidad de f (x) en el conjunto convexo se obtiene la
siguiente desigualdad
f (y + (1 )x ) f (y) + (1 )f (x )
para [0, 1]. Utilizando ahora el hecho de que f (y) < f (x ) y como , (1 ) 0
f (y + (1 )x ) f (x ) + (1 )f (x ) = f (x )
Para un valor de suficientemente pequeo se contradice el hecho de que x sea un mnimo relativo y llegamos
a una contradiccin que aparece al suponer que x no es un mnimo global .
Teorema 1.41 Sea f : Rn R con un conjunto convexo con f C 1 () una funcin convexa [cncava].
Supongamos que existe un x que cumple la siguiente propiedad
y f (x )T (y x ) 0 f (x )T (y x ) 0
c
SPH
1.5. Optimizacin de funciones convexas 23
Demostracin: Como convexo, x + (y x ) con [0, 1]. Por la caracterizacin de primer orden
de funciones convexas (proposicin 1.38) y utilizando el hecho de que para x ocurre f (x )T (y x ) 0
tenemos:
f (y) f (x ) + f (x )T (y x ) f (x )
Teorema 1.43 Sea f : Rn R convexa [cncava] en convexo y compacto = Si f (x) tiene mximo
[mnimo] en entonces lo alcanza en un punto extremo de .
Lema 1.44 Si x , y son dos puntos de mnimo [mximo] global de una funcin convexa [cncava] f (x), f :
Rn R con convexo = [0, 1] los puntos definidos como z () = x + (1 ) y tambin son
mnimos [mximos] globales de f (x).
f (z ()) = f (x + (1 ) y ) = f (x + (1 ) y ) f (x ) + (1 ) f (y )
f (z ()) f (x )
pero como x es el mnimo global de f (x) sobre , que es un conjunto convexo, ocurre
z () f (z ()) = f (x )
Lema 1.45 Sea f : Rn R, con un conjunto convexo no vaco y f (x) convexa [cncava]. Sea x
un mnimo [mximo] local de f . Entonces, si x es un mnimo [mximo] local estricto de f (x) o si f (x) es
estrictamente convexa [cncava] sobre , entonces x es el nico mnimo [mximo] global de f (x) en .
Demostracin: Si x es un mnimo local entonces por el teorema 1.40 es un mnimo global. Si suponemos
ahora que existe otro punto z mnimo de f (x), por el lema 1.44 el mnimo tambin se alcanza en todo el
segmento que une ambos puntos x y z y esto contradice el hecho de que x sea estricto.
Supongamos ahora que x es un mnimo local de f (x) y que f (x) es estrictamente convexa. Como f (x) es
convexa, ya que es estrictamente convexa, x es un mnimo global. Si ahora suponemos que existe otro mnimo
global z , por la convexidad estricta de f obtenemos:
1 1 1 1
f ( x + z ) < f (x ) + f (z ) = f (x )
2 2 2 2
y por tanto x no sera mnimo global .
c
SPH
24 Captulo 1. Fundamentos de Optimizacin Esttica
c
SPH
Captulo 2
Optimizacin no lineal
2.1 Introduccin
En este tema estudiaremos la que hemos llamado cuestin esttica del problema de optimizacin. Trataremos
de desarrollar las condiciones necesarias y suficientes para encontrar de forma explcita la solucin de problemas
de optimizacin no lineal de tipo general.
Tal y como se introdujo en el tema anterior el problema general de la programacin no lineal (NLPP) se
puede expresar como
Optimizar f (x)
Sujeto a
(2.1)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
donde f, hi , gj : A R son funciones reales de varias variables y A Rn . En general A es un conjunto abierto
y adems f, hi , gj C (A), es decir, las funciones del problema son derivables.
Si es el conjunto factible del problema 2.1, resolver el problema de optimizacin NLPP es encontrar los
ptimos (mximos y/o mnimos) de la funcin f (x) no sobre todo el conjunto A donde est definida, sino sobre
el conjunto de los puntos que cumplen todas las restricciones.
Como se coment en el primer tema, si m = p = 0, entonces no hay restricciones y el problema es de
optimizacin no lineal sin restricciones
Optimizar f (x)
(2.2)
xA
En otro caso (m 6= 0 p 6= 0) el problema se dice con restricciones y a sus extremos locales o globales, se les
conoce como extremos condicionados, para distinguirlos de los extremos de los problemas sin restricciones.
Recordemos finalmente que si m 6= 0 y p = 0, es decir, solamente hay restricciones de igualdad en el
problema, entonces el problema con restricciones es un problema de Lagrange
Optimizar f (x)
Sujeto a (2.3)
hi (x) = 0 i = 1, . . . , m
Definicin 2.1 (Restricciones activas) Dado el problema de optimizacin con restricciones NLPP descrito
en 2.1; diremos que una restriccin de desigualdad gj (x) 0 es activa o saturada en el punto factible x
gj (x ) = 0; en caso contrario la restriccin es inactiva o no saturada en x .
Las restricciones activas se comportan como las restricciones de igualdad, que por su propia naturaleza son
activas en cualquier punto factible.
25
26 Captulo 2. Optimizacin no lineal
Definicin 2.2 Dado el problema de optimizacin NLPP con restricciones descrito en 2.1 y sea x , un
punto factible. Se define el conjunto de actividad asociado a x , J (x ) como
J (x ) = { j {1, . . . , p}| gj (x ) = 0}
es decir, J (x ) es el conjunto de los ndices de las restricciones activas en x .
Si x es una solucin ptima del problema 2.1, las restricciones que sean no activas en l sern irrelevantes
puesto que no se alcanza la limitacin impuesta por la restriccin. Sera posible eliminar las restricciones no
saturadas de la formulacin del problema, siempre que fueran conocidas previamente pero esto, en general, no
es posible.
Definicin 2.3 (Punto regular) Dado el problema de optimizacin con restricciones 2.1. Sea x , un
punto factible. Se dice que x es regular para las restricciones si la familia de vectores
n o
{5hi (x )}i=1,...,m , {5gj (x )}jJ(x )
es linealmente independiente.
1. Caso sin restricciones (m = p = 0): En un problema sin restricciones, todos los puntos son regulares.
2. Caso con restricciones de desigualdad (m = 0, p 6= 0): El punto x tambin ser regular si no hay ninguna
restriccin activa en l, es decir, en problemas con restricciones slo de desigualdad x tambin es regular
si J (x ) = .
Definicin 2.4 (Espacio tangente) Sea x un punto factible para el problema de optimizacin 2.1. Defini-
mos el espacio tangente en x al conjunto de vectores definido como
M (x ) = d Rn | T hi (x) d = 0; T gj (x ) d = 0, i = 1, . . . , m; j J (x )
o utilizando derivadas
( n n
)
X hi X gj
n
M (x ) = dR | (x ) dk = 0, i = 1, . . . , m; (x ) dk = 0, j J (x )
xk xk
k=1 k=1
Minimizacin
Definicin 2.5 Dado el problema
Minimizar f (x)
Sujeto a
(2.4)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
con f, hi , gj : A R funciones de clase C 1 (A) y A Rn un conjunto abierto. Diremos que x A es un punto
de Karush-Kuhn-Tucker o que cumple las condiciones de Karush-Kuhn-Tucker de Mnimo (CKKTMin) para el
problema si y slo si 1 ,. . . , m , 1 , . . . , p R, de forma que se cumplen las siguientes condiciones:
c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 27
1. Condicin estacionaria
m
X p
X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1
2. Condicin de factibilidad
hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p
3. Condicin de positividad
j 0, i = 1, . . . , m
4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p
Los valores de 1 , . . . , m , 1 , . . . , p son los llamados multiplicadores. Entre estos multiplicadores podemos
distinguir los multiplicadores de Lagrange asociados a las restricciones de igualdad y los multiplicadores de
Karush-Kuhn-Tucker 1 , . . . , p , asociados a las restricciones de desigualdad.
Los puntos x A que cumplen la condicin estacionaria se dice que son puntos crticos o estacionarios,
que sern condicionados cuando en el problema haya restricciones de algn tipo. Esta condicin suele expresarse
en trminos de la llamada funcin Lagrangiana definida utilizando la funcin objetivo y las restricciones como
siendo
= (1 , . . . , m )
= 1 , . . . , p
y la condicin estacionaria se puede expresar como
x L (x, , ) = 0
Maximizacin
Se obtienen condiciones equivalentes para un problema de maximizacin de la forma
Maximizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
con la idea de que maximizar una funcin es equivalente a minimizar su opuesta. Es posible comprobar,
aplicando la definicin de punto de Karush-Kuhn-Tucker al problema
que la nica condicin que cambia es la condicin de positividad. Para mximo, esta condicin se transforma
es una condicin de negatividad. Las condiciones y definiciones correspondientes son las siguientes:
c
SPH
28 Captulo 2. Optimizacin no lineal
Maximizar f (x)
Sujeto a
(2.6)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
1. Condicin estacionaria
m
X p
X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1
2. Condicin de factibilidad
hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p
3. Condicin de negatividad
j 0 j = 1, . . . , p
4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p
f h1 hm g gp
(x ) + 1 (x ) + + m (x ) + 1 (x ) + + p (x ) = 0 k = 1, . . . , n
xk xk xk xk xk
hi (x ) = 0 i = 1, . . . , m
j gj (x ) = 0 j = 1, . . . , p
Este sistema est compuesto por (n + m + p) ecuaciones y (n + m + p) incgnitas (las n coordenadas de x , los
m multiplicadores de Lagrange i y los p multiplicadores de Karush-Kuhn-Tucker j ).
La forma general de resolver el sistema es comenzar por la condicin de holgura complementaria, ya que
dichas ecuaciones nos proporcionan dos opciones
j = 0
j gj (x ) = 0
gj (x ) = 0
c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 29
Casos Particulares
Cuando en el problema no hay restricciones o solamente hay restricciones de igualdad, las condiciones KKT
tienen formas particulares que indicamos a continuacin.
hi (x ) = 0, i = 1, . . . , m
que es el resultado que proporciona el teorema clsico de los multiplicadores de Lagrange, siendo estos los valores
de los i . Se observa como en el caso anterior sin restricciones que las condiciones de KKT para ambos objetivos
de maximizar y minimizar coinciden.
Ejemplos
A continuacin se presentan algunos ejemplos de bsqueda de puntos de Karush-Kuhn-Tucker.
y planteamos las condiciones de KKT, previamente hemos expresado las restricciones en la forma usual g (x) 0.
1. Condicin Estacionaria (x L = 0)
L
= 0 1 + 22 x = 0 (2.7)
x
L
= 0 1 + 21 (y 1) + 22 (y 1) = 0 (2.8)
y
L
= 0 1 + 21 z + 22 z = 0 (2.9)
z
c
SPH
30 Captulo 2. Optimizacin no lineal
2. Condicin de factibilidad
2
(y 1) + z 2 1 0
x2 + (y 1)2 + z 2 3 0
1 , 2 0 Para mnimo
1 , 2 0 Para mximo
4. Condicin de holgura
1 g1 (x) = 0 1 (y 1)2 + z 2 1 = 0 (2.10)
2 g2 (x) = 0 2 x2 + (y 1)2 + z 2 3 = 0 (2.11)
El sistema que hay que resolver estar formado por las ecuaciones 2.7, 2.8, 2.9, 2.10 y 2.11.
1. Tal y como se ha sugerido, empleamos en primer lugar las condiciones de holgura 2.10 y 2.11. Se distinguen
cuatro casos
2 = 0 Caso I
1 = 0 =
2 2
x + (y 1) + z 2 3 = 0 Caso II
2 = 0 Caso III
(y 1) 2
+ z 2
1 = 0 =
2
x2 + (y 1) + z 2 3 = 0 Caso IV
1 + 22 x = 0 (2.12)
1 + 22 (y 1) = 0 (2.13)
1 + 22 z = 0 (2.14)
2
x2 + (y 1) + z 2 3 = 0 (2.15)
(1 + 22 x) (1 + 22 (y 1)) = 0 22 (x y + 1) = 0
y como 2 no puede ser cero puesto que entonces la ecuacin 2.7 nos dara 1 = 0, se llega a la
conclusin de que
xy+1=0x=y1 (2.16)
c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 31
1 + 21 (y 1) + 22 (y 1) = 0 (2.19)
1 + 21 z + 22 z = 0 (2.20)
2
(y 1) + z 2 1 = 0 (2.21)
x2 + (y 1)2 + z 2 3 = 0 (2.22)
La operacin que debemos hacer a continuacin est muy clara, restar las ecuaciones 2.21 y 2.22 para
obtener
2 2
(y 1) + z 2 1 x2 + (y 1) + z 2 3 = 0 x2 2 = 0 x2 = 2 x = 2
c
SPH
32 Captulo 2. Optimizacin no lineal
(1 + 21 (y 1) + 22 (y 1)) (1 + 21 z + 22 z) = 0
21 (y 1 z) + 22 (y 1 z) = 0 2 (1 + 2 ) (y 1 z) = 0
1 + 2 = 0
1 + 21 z + 22 z = 0 1 + 2z (1 + 2 ) = 0 1 = 0
y1z =0y1=z
c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 33
Para determinar cuales de los puntos obtenidos es de KKT (de mnimo o de mximo) tenemos que comprobar
su factiblidad y el signo de los multiplicadores. Se expone a continuacin una tabla resumen con los resultados
obtenidos
P4 = 2, 1 1 , 1 = 3
1
, 2 SI NO -
2 2 2 2 2
P5 = 2, 1 + 1 , 1 3
= 2 , 1
SI NO -
2 2 2 2 2
P6 = 2, 1 1 , 1 = 1
1
, SI Positividad Mnimo
2 2 2 2 2 2
2 2 2
P2 = (0, 1, 1) (y 1) + z 2 = (0 1) + (1) = 2 1
Minimizar x2 + y 2
Sujeto a 2x + y 2 = 0
Solucin: En este caso m = 1 y p = 0, es decir hay solamente una restriccin de igualdad y el problema es
de Lagrange, en este caso las condiciones de Karush-Kuhn-Tucker utilizadas son la condicin estacionaria y la
condicin de factibilidad que nos proporcionan las siguientes ecuaciones
2x 2
f (x) + 1 h1 (x) = 0 + 1 =0
2y 1
h1 (x) = 0 2x + y 2 = 0
2x + 21 = 0 1 = x
2y + 1 = 0 1 = 2y
2x + y 2 = 0
c
SPH
34 Captulo 2. Optimizacin no lineal
Ejemplo 2.9 Encuentra los puntos que cumplen las condiciones de Karush-Kuhn-Tucker para el siguiente
problema
Optimizar x2 + y 2
Sujeto a x+y =6
x2 + y 2 26
x1 0
Solucin: En primer lugar transformamos el problema en la forma usual, es decir, los trminos indepen-
dientes de las restricciones deben ser cero y las restricciones de desigualdad de la forma
x101x0
Calculamos los vectores gradiente de todas y cada una de las funciones implicadas en el problema
2x
f (x, y) = x2 y f (x, y) =
1
1
h1 (x, y) = x + y 6 h1 (x, y) =
1
2 2 2x
g1 (x, y) = x + y 26 g1 (x, y) =
2y
1
g2 (x, y) = 1 x g2 (x, y) =
0
Las condiciones de KKT para este problema seran
1. Condicin estacionaria
m
X p
X
2x 1 2x 1
f (x) + i hi (x) + j gj (x) = 0 + + 1 + 2 =0
1 1 2y 0
i=1 j=1
2x + + 2x1 2 = 0
1 + + 2y1 = 0
c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 35
2. Condicin de factibilidad
x+y =6
1x0
(x)2 + (y)2 26
j 0 j = 1, . . . , p (CKKTMin)
j 0 j = 1, . . . , p (CKKTMax )
4. Condiciones de holgura.
2 2
1 (x) + (y) 26 = 0
j gj (x) = 0
2 (1 x) = 0
2x + + 1 2x 2 = 0
1 + + 1 2y = 0
x+y = 6
1 x2 + y 2 26 = 0
2 (1 x) = 0
Como antes, resolvemos el sistema utilizando la condicin de holgura. Este anlisis produce dos opciones
por cada ecuacin, con un total de cuatro casos:
2 = 0 Caso I
1 = 0
(1 x) = 0 Caso II
2 = 0 Caso III
x2
+ y 2
26 = 0
(1 x) = 0 Caso IV
2x + = 0
1 + = 0
x+y = 6
c
SPH
36 Captulo 2. Optimizacin no lineal
= 1
1
x = =
2 2
1 13
y = 6x=6+ =
2 2
Tenemos por tanto un punto para este caso
1 13
P1 = , = 1 1 = 2 = 0
2 2
Si utilizamos las condiciones de factibilidad para comprobar si el punto obtenido pertenece al conjunto
factible, sustituyendo en las restricciones de desigualdad se obtiene
2 2
2 2 1 13 1 169
x +y = + = + 26 No se cumple
2 2 4 4
1 3
1x=1+ = 0 No se cumple
2 2
luego este punto no est en el conjunto factible y por tanto no es de KKT.
2 + 2 = 0
1 + = 0
1+y = 6
cuya solucin es
y = 5
= 1
2 = 2+=2+1=3
como adems se cumple la condicin de positividad, P2 es un punto que cumple las condiciones de KKT
de mnimo (CKKTMin).
c
SPH
2.2. Condiciones de Karush-Kuhn-Tucker 37
2x + + 1 2x = 0
1 + + 1 2y = 0
x+y = 6
x2 + y 2 26 = 0
cuya solucin se obtiene fcilmente despejando una de las variables de la tercera ecuacin y sustituyendo
en la cuarta para obtener
y = 6x
2
x2 + (6 x) 26 = 0
desarrollando
2
x2 + (6 x) 26 = 0 2x2 12x + 10 = 0
ecuacin de segundo grado con soluciones
x1 = 5 y x2 = 1
A continuacin se obtiene el valor de y a partir del valor de la variable x para obtener dos puntos
P3 = (5, 1)
y
P4 = (1, 5)
Y por ltimo, es necesario obtener el valor de los multiplicadores para determinar si estos puntos cumplen
las condiciones de KKT de mnimo o de mximo. Utilizando las dos primeras ecuaciones, que forman un
sistema lineal en y 1 , y evaluando en cada punto obtenemos
1 + 2x 1 (P3 ) = 11 8
1 = =
2 (y x)
1 (P4 ) = 38
(P3 ) = 15
x (1 + 2y) 4
= =
xy
(P4 ) = 114
y
11 3
P4 = (1, 5) = 1 = 0 2 = 0 0
4 8
de donde se obtiene que que P4 es un punto de KKT para el problema de minimizacin j 0 , mientras
que P3 cumple las condiciones de KKT para mximo (CKKTMax ).
4. Caso IV: x2 + y 2 = 6, x = 1. En este ltimo caso queda el siguiente sistema:
2 + + 21 2 = 0
1 + + 1 2y = 0
1+y = 6
1 + y 2 26 = 0
P5 = (1, 5)
que es uno de los puntos encontrados en el apartado anterior y por tanto ya se ha discutido. Sin embargo,
el clculo de los multiplicadores se obtiene a partir de las dos primeras ecuaciones, en las que al sustituir
por los valores de x e y correspondientes obtenemos el sistema
2 + + 21 2 = 0
1 + + 1 10 = 0
que es lineal con ms incgnitas que ecuaciones y por tanto ser indeterminado; su solucin es
1 11 + 4
= ; = ,
10 5
Notar que si
= 1 = (0, 3)
11 3
= = ,0
4 8
que corresponden a los multiplicadores de los puntos P2 y P4 . No obstante se trata en los tres casos del
mismo punto. El hecho de que existan diversos multiplicadores para el mismo punto es debido, como
veremos posteriormente, a que ste problema es singular.
Definicin 2.10 (H.C.R. Sin Restricciones) En un problema de optimizacin no lineal sin restricciones,
todos los puntos cumplen la primera hiptesis de cualificacin de las restricciones.
c
SPH
2.3. Condiciones necesarias 39
Definicin 2.11 (H.C.R. de Karlin o de Linealidad) En un problema de optimizacin no lineal donde so-
lamente hay restricciones de tipo lineal, todos los puntos factibles cumplen la hiptesis de cualificacin de Karlin.
Teorema 2.14 (Condiciones necesarias de primer orden) Dado el problema general de la optimizacin
no lineal ( NLPP)
Optimizar f (x)
Sujeto a
(2.27)
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
donde f, hi , gj : A R son funciones de clase C 1 (A) en el conjunto abierto A Rn . Sea su conjunto factible
y x un punto donde las restricciones del problema cumplen alguna hiptesis de cualificacin ( H.C.R.) y en
el que la funcin f (x) alcanza un mnimo [mximo] relativo = x cumple las condiciones de Karush-Kuhn-
Tucker de Minimizacin [Maximizacin].
Ejemplos
Emplearemos el teorema de las condiciones necesaias de primer orden para resolver en esta seccin algunos
problemas de optimizacin con restricciones.
Minimizar xy + yz + zx
Sujeto a x + y + z = 3
Solucin: Como solamente tiene una restriccin de igualdad se trata de un problema de Lagrange; adems
dicha restriccin es lineal, luego se cumple la hiptesis de cualificacin de Karlin en todos los puntos del conjunto
factible, luego cualquier mnimo local debe cumplir las condiciones de Karush-Kuhn-Tucker. Por ser un problema
de Lagrange estas condiciones se reducen a la condicin estacionaria y a la condicin de factibilidad:
y+z 1
f (x, y, z) + h (x, y, z) = z + x + 1 = 0
x+y 1
h (x, y, z) = x + y + z 3 = 0
Ambas condiciones se transforman en el siguiente sistema lineal
y+z+=0
x+z+=0
y+x+=0
x+y+z3=0
c
SPH
40 Captulo 2. Optimizacin no lineal
siendo
n o
2
1 = (x, y, z) R| (y 1) + z 2 1
n o
2
2 = (x, y, z) R| x2 + (y 1) + z 2 3
c
SPH
2.3. Condiciones necesarias 41
Ejemplo 2.17 Plantea y resuelve el problema de construir una caja de cartn de volumen mximo y rea fija
A.
Solucin: Si x, y, z son las dimensiones de la caja, el problema no lineal se puede expresar como
Maximizar xyz
A
Sujeto a xy + yz + zx =
2
siendo A > 0 el rea fija de la caja.
La restriccin no cumple ni la hiptesis de Karlin (la nica restriccin es no lineal), ni la de Slater (el
conjunto no es convexo). Comprobaremos que se cumple la hiptesis de regularidad en todos los puntos; para
ello calculamos el gradiente de la restriccin
y+z
h (x, y, z) = x + z
x+y
Como slo hay un vector, ste ser linealmente dependiente slo cuando sea el vector nulo, es decir si ocurre
y+z =0
x+z =0
x+y =0
x=y=z=0
Sin embargo, sustituyendo en la restriccin comprobamos facilmente que este punto es infactible
A
0 + 0 + 0 = 0 6=
2
de donde se deduce que todos los puntos de (conjunto factible) son regulares. Este resultado implica que
cualquier extremo local del problema debe cumplir las condiciones de Karush-Kuhn-Tucker, que expresamos a
continuacin:
1. Condicin estacionaria
yz + (y + z) = 0
xz + (x + z) = 0
xy + (x + y) = 0
2. Condicin de factibilidad
A
xy + yz + zx =0
2
El sistema formado por las cuatro ecuaciones anteriores tiene como nica solucin a:
r r
A A
x=y=z= =
6 24
De nuevo al ser un problema solamente con restricciones de igualdad, no podemos determinar si el punto es de
mnimo o de mximo.
Ejemplo 2.18 (Entropa) Sea X una variable aleatoria discreta que toma valores dentro del conjunto {x1 , . . . , xn },
sabiendo que el valor medio obtenido para X es x, el problema consiste en encontrar la probabilidad pj de que
X tome el valor xj de forma que la entropa sea mxima.
c
SPH
42 Captulo 2. Optimizacin no lineal
Solucin: Para una variable aleatoria discreta se define la entropa de la densidad como
m
X
= pj ln pj
j=1
m
X
Sujeto a pj = 1
i=1
m
X
xj pj = x
j=1
pj 0
Como todas las restricciones del problema son lineales se cumple la hiptesis de Karlin, luego cualquier solucin
ptima debe cumplir las condiciones de Karush-Kuhn-Tucker. Es decir, si el problema tiene solucin, deben
existir multiplicadores 1 ,2 ,1 , . . . , n cumpliendo las siguientes condiciones:
1. Condicin estacionaria:
n
X
f (p) + 1 h1 (p) + 2 h2 (p) + j gj (p) = 0
j=1
En este caso
n
X
f (p) = pi ln pi f (p) = ( ln p1 1, . . . , ln pn 1)
i=1
n
X
h1 (p) = pi 1 h1 (p) = (1, . . . , 1)
i=1
n
X
h2 (p) = xi pi m h2 (p) = (x1 , . . . , xn )
i=1
j
z}|{
gj (p) = pj gj (p) = 0, . . . , 1 , . . . 0n j = 1, . . . , n
ln pi 1 + 1 + 2 xi i = 0 i = 1, . . . , n (2.28)
2. Condicin de factibilidad:
n
X
pi = 1
i=1
c
SPH
2.3. Condiciones necesarias 43
n
X
xi pi = x
i=1
pi 0
3. Condicin de negatividad: Puesto que estamos buscando el mximo de la funcin, los multiplicadores
asociados a las restricciones de desigualdad deben ser negativos, es decir, debe ocurrir
j 0
4. Condicin de holgura:
j gj (p) = 0 j (pj ) = 0
ln pj 1 + 1 + 2 xj = 0 j = 1, . . . , n
ln pj = 1 + 1 + 2 xj pj = e2 xj +(1 1)
X
pj xi = x
El teorema de las condiciones necesarias nos proporciona los requisitos que deberan cumplir los extremos
de un problema de optimizacin con restricciones bajo ciertas hiptesis de cualificacin, sin embargo, es posible
encontrar problemas en los que la solucin ptima no cumple estas condiciones, y tambin es posible encontrar
puntos que cumplen las condiciones de Karush-Kuhn-Tucker pero que no son extremos de la funcin. Veamos
algunos ejemplos.
Maximizar x2 + y
Sujeto a y3 = 0
Maximizar x2
Sujeto a xR
cuya solucin ptima podemos obtener fcilmente y es x = 0. La solucin ptima del problema incial, en R2
ser P = (0, 0).
c
SPH
44 Captulo 2. Optimizacin no lineal
h (P ) = 0 y 3 = 0
es decir
2x = 0
1 + 3y 2 = 0
y3 = 0
Sin embargo, este sistema no tiene solucin, ya que de la ltima ecuacin necesariamente y = 0 y al sustituir
en la segunda obtenemos una contradiccin.
El punto P = (0, 0) es un mximo local (de hecho es global) para el problema de optimizacin planteado,
pero no cumple las condiciones de Karush-Kuhn-Tucker. Comprobemos que para P no se cumplen ninguna de
las hiptesis de cualificacin descritas.
1. Hiptesis sin restricciones: Est claro que esta hiptesis no se cumple por la presencia de la restriccin:
y 3 = 0.
2. Hiptesis de Karlin: Esta condicin tampoco se cumple, puesto que la nica restriccin del problema,
h (x, y) = y 3 , es no lineal.
3. Hiptesis de Slater: El conjunto factible es
= (x, y) R2 (x, 0)
es decir el eje X, que en R2 es un conjunto con interior vaco, puesto que cualquier bola de centro un
punto de tiene puntos fuera de y por tanto tampoco se cumple esta hiptesis.
4. Hiptesis de Fiacco-McKormik: En este caso tenemos que comprobar si el punto es o no regular para
las restricciones del problema, es decir, habr que comprobar si el conjunto de vectores formado por los
gradientes de las restricciones activas en P est formado por vectores linealmente independientes. Como
solamente tenemos una restriccin activa en P (por ser de igualdad), la familia de vectores estar formada
por un nico vector
0
{h (x, y)} =
3y 2
0
y al evaluar en P = obtenemos
0
0
{h (P )} =
0
0
que por ser el vector nulo, es linealmente dependiente; por tanto P = es no regular para las
0
restricciones.
y=0
c
SPH
2.3. Condiciones necesarias 45
la solucin del problema es la misma, pero en este caso s se cumple la hiptesis de Karlin, ya que todas las
restricciones son lineales. Ahora tenemos que ser capaces de comprobar que el punto P = (0, 0) cumple las
condiciones de KKT. El sistema ahora es
2x = 0
1+ = 0
y = 0
que tiene por solucin
P = (0, 0)
= 1
y hemos encontrado el punto buscado y tambin su multiplicador correspondiente.
Ejemplo 2.20 Sea el problema
Maximizar f (x, y, z) = y
Sujeto a h1 (x, y, z) = (x 1)2 + y 2 1 = 0
h2 (x, y, z) = (x + 1)2 + y 2 1 = 0
El conjunto factible para este problema es
= (x, y, z) R3 (0, 0, z)
y la solucin ptima del problema es cualquier punto del conjunto , puesto que f (x, y, z)es constante en l.
Al plantear la condicin estacionaria de Karush-Kuhn-Tucker para este problema
f (x) + 1 h1 (x) + 2 h2 (x) = 0
obtenemos
0 2 (x 1) 2 (x + 1) 0
1 + 1 2y + 2 2y = 0
0 0 0 0
y los puntos crticos deben cumplir entonces el siguiente sistema de ecuaciones:
21 (x 1) + 22 (x + 1) = 0
1 + 21 y + 22 y = 0
0 = 0
sin embargo, ningn punto de la forma (0, 0, z) es solucin del sistema anterior, puesto que al sustituir estos
puntos en la segunda ecuacin obtenemos una contradiccin y ninguno de los extremos locales del problema
cumple las condiciones de KKT.
Podemos comprobar, como en el caso anterior, que ninguno de ellos cumple alguna de las hiptesis de
cualificacin. Es un problema con restricciones no lineales donde = ( es una recta), es decir, no se
cumple ninguna de las tres primeras condiciones dada. Para la condicin de regularidad (Fiacco-McKormik)
observamos que el conjunto de vectores que son gradiente de las restricciones activas (en este caso son todas
puesto que es un problema con slo igualdades) est dado por
2 (x 1) 2 (x + 1)
{h1 (x, y, z) , h2 (x, y, z)} = 2y , 2y
0 0
c
SPH
46 Captulo 2. Optimizacin no lineal
que es una familia de vectores linealmente dependientes y por tanto ningn punto de la forma (0, 0, z) es regular.
Tambin podra suceder que un punto donde las restricciones no cumplan ninguna de las hiptesis de
cualificacin, sea un extremo local de la funcin objetivo donde s se cumplan las condiciones de Karush-Kuhn-
Tucker. Consideramos, por ejemplo, las restricciones del ejemplo anterior, pero cambiamos la funcin objetivo
por f (x, y, z) = x.
Para este caso, las condiciones de KKT sern
1 2 (x 1) 2 (x + 1) 0
0 + 1 2y + 2 2y = 0
0 0 0 0
o equivalentemente sern soluciones del sistema
1 + 21 (x 1) + 22 (x + 1) = 0
21 y + 22 y = 0
0 = 0
y teniendo en cuenta que el conjunto factible est formado por los puntos (0, 0, z), el sistema queda como
1 21 + 22 = 0
0 = 0
0 = 0
Observacin 2.21 Es posible comprobar que en el punto (5, 1) del ejemplo 2.9 es un punto donde no se cumple
ninguna de las hiptesis de cualificacin.
Por ltimo hay que indicar que estas condiciones son necesarias, en el sentido de que bajo las hiptesis del
teorema, los extremos de un problema de optimizacin deben ser puntos de Karush-Kuhn-Tucker. Sin embargo,
las condiciones no son suficientes, ya que podemos encontrar puntos que an cumpliendo las condiciones de
Karush-Kuhn-Tucker, no son extremos, por ejemplo la funcin f (x) = x3 , tiene como nico punto estacionario
x = 0, que no es extremo puesto que la funcin es siempre creciente.
Definicin 2.22 Los puntos que cumplen la condicin estacionaria pero que no son extremos de la funcin
se denominan puntos de silla (que son condicionados si hay presencia de restricciones en el problema). Para
funciones reales de una variable a estos puntos se les conoce mejor por puntos de inflexin.
c
SPH
2.3. Condiciones necesarias 47
Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
1. Condicin estacionaria p
m
X X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1
2. Condicin de factibilidad
hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p
4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p
y adems se cumple la siguiente condicin:
5. Condicin del Hessiano: La matriz HL (x , , ) definida como
m
X p
X
HL(x , , ) = Hf (x ) + i Hhi (x ) + j Hgj (x ) (2.29)
i=1 j=1
Casos Particulares:
1. Caso sin restricciones y una variable (m = p = 0, n = 1): En el caso de problemas con una sola variable,
el Hessiano de la funcin f (x) es su segunda derivada y la condicin 2.29 se convierte en
f 00 (x ) 0
3. Problemas de Lagrange (p = 0): Para problemas que tengan solamente restricciones de igualdad la con-
dicin del Hessiano no cambia, salvo que en este caso no hay trminos asociados a restricciones de
desigualdad.
c
SPH
48 Captulo 2. Optimizacin no lineal
Ejemplo 2.24 Aplica las condiciones necesarias de segundo orden al siguiente problema:
Optimizar f (x, y, z) = x + y + z
2
s.a. (y 1) + z 2 1
2
x + (y 1) + z 2 3
2
Solucin: Recordemos que para este problema se haban obtenido dos puntos de Karush-Kuhn-Tucker.
1 1 1 1
P3 = 2, 1 + , = ,
2 2 2 2 2 2
1 1 1 1
P6 = 2, 1 , = ,
2 2 2 2 2 2
Para aplicar las condiciones de segundo orden tendremos que construir la matriz HL (Pk ) en cada punto y
evaluarlar sobre el espacio tangente correspondiente M (Pk ).
Comenzamos por definir la matriz HL
22 0 0
HL (x) = Hf (x) + 1 Hg1 (x) + 2 Hg2 (x) = 0 2 (1 + 2 ) 0
0 0 2 (1 + 2 )
Ejemplo 2.25 Aplica las condiciones de segundo orden al problema de la caja de la seccin anterior.
Maximizar xyz
A
Sujeto a xy + yz + zx =
2
y que habamos encontrado como nico punto de KKT el siguiente
r r r ! r
A A A 1 A
P = , , =
6 6 6 2 6
c
SPH
2.4. Condiciones suficientes 49
= (d1 , d2 , d3 ) R3 (d1 , d2 , (d1 + d2 ))
que al ser una diferencia de cuadrados, tomar siempre valores negativos, lo que implica que HL (P ) es semi-
definida negativa sobre M (P ) y el punto P cumple las condiciones necesarias de segundo orden para ser un
mximo del problema.
Con las condiciones necesarias obtenemos condiciones que permiten eliminar aquellos puntos que no son
candidatos a extremo de la funcin, sin embargo, necesitamos unas condiciones que permitan asegurar que los
puntos encontrados son realmente las soluciones buscadas.
c
SPH
50 Captulo 2. Optimizacin no lineal
Ejemplo 2.26 Comprueba que el punto P = (0, 0) cumple las condiciones necesarias de primer y segundo
orden para el problema
Minimizar x y 2 x 3y 2
s.a. (x, y) R2
pero que no es su solucin.
Solucin: Al tratarse de un problema sin restricciones se cumple una de las hiptesis de cualificacin, por
tanto cualquier mnimo debe cumplir las condiciones de Karush-Kuhn-Tucker que en este caso se reducen a la
condicin estacionaria
2x 4y 2 0
f (x, y) = 0 =
12y 3 8xy 0
que tiene como nica solucin el punto P = (0, 0), es decir, P cumple las condiciones necesarias de primer
orden.
Las condiciones de segundo orden para problemas sin restricciones se reducen a comprobar el Hessiano de
la funcin f (x, y) en el punto en cuestin. Si calculamos la matriz Hessiana de f (x, y)
2 8y
Hf (x, y) =
8y 36y 2 8x
y evaluamos en P
2 0
Hf (P ) =
0 0
La matriz Hf (P ) es semidefinida positiva, puesto que sus valores propios son 1 = 2 0 y 2 = 0 0;
esto implica que el punto P tambin cumple las condiciones necesarias de segundo orden, concretamente las
condiciones de mnimo. Sin embargo vamos a comprobar que el punto P no es un mnimo. Por una parte el
valor de la funcin en P es nulo
f (0, 0) = 0
y por otra parte si evaluamos la funcin sobre los puntos de la curva
x = 3y 2
obtenemos
f (x, y) = f 3y 2 , y = 3y 2 y 2 3y 2 4y 2 = 2y 4 0
es decir sobre esa curva sucede
f (x, y) 0 = f (0, 0)
y (0, 0) no podra ser el mnimo, puesto que hay valores cerca de l (tomando y 0) donde el valor de la funcin
es menor.
Este tipo de problema provoca el estudio de condiciones cuyo cumplimiento garantice el hallazgo de la
solucin. Este tipo de condiciones son las llamadas suficientes.
Con el fin de dar estas condiciones de suficiencia es necesario exigir que la matriz Hessiana correspondiente
sea por una parte definida (positiva o negativa para mnimo o mximo, respectivamente) y por otra que lo sea
en un espacio mayor que el espacio tangente.
Definicin 2.27 Dado el problema general con restricciones
Minimizar [Maximizar] f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
donde f, hi , gj : A R, son funciones de clase C 1 (A) en A Rn abierto. Sea su conjunto factible y
x un punto de Karush-Kuhn-Tucker para el problema. Diremos que una restriccin de desigualdad gj (x)
es degenerada en x gj (x ) = 0 y j = 0.
c
SPH
2.4. Condiciones suficientes 51
Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
1. Condicin estacionaria
m
X p
X
f (x ) + i hi (x ) + j gj (x ) = 0
i=1 j=1
2. Condicin de factibilidad
hi (x ) = 0, i = 1, . . . , m
gj (x ) 0 j = 1, . . . , p
4. Condicin de holgura
j gj (x ) = 0 j = 1, . . . , p
f(x ).
es definida positiva [definida negativa] sobre el espacio tangente ampliado M
c
SPH
52 Captulo 2. Optimizacin no lineal
1. Sin restricciones y una variable (m = p = 0, n = 1): En el caso de problemas con una sola variable, la
condicin del Hessiano se convierte en
f 00 (x ) > 0
2. Sin restricciones y varias variables (m = p = 0): En este caso M (x ) = Rn y la condicin del Hessiano
es
Minimizar xy + yz + zx
Sujeto a x + y + z = 3
x=y=z=1 1 = 2
Si ahora tratamos de emplear las condiciones suficientes descritas en la proposicin anterior, tendremos:
0 1 1
Hf (x, y, z) = 1 0 1
1 1 0
que no es ni definida positiva, ni definida negativa si consideramos todos los vectores de R3 , sin embargo si
f (x ), que por ser un problema de Lagrange
restringimos la matriz a los puntos del espacio tangente ampliado M
que continene solamente restricciones de igualdad, coincide con el espacio tangente M (x )
n o
M (x ) = d R3 hT (x ) d =0 = d R3 (1, 1, 1)|(1,1,1) d =0 =
d1
= d R3 (1, 1, 1) d2 =0 = d R3 d1 + d2 + d3 =0
d3
Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
c
SPH
2.4. Condiciones suficientes 53
Optimizar f (x)
Sujeto a
gj (x) 0 j = 1, . . . , p
Optimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) 0 j = 1, . . . , p
h (x) = a1 x1 + + an xn + b
Optimizar y
s.a.
x+y+z =1
x2 + z 2 9
Solucin: Planteamos las condiciones de KKT para L (x, y, z, , ) = y + (x + y + z 1)+ x2 + z 2 9
1. Condicin Estacionaria (x L = 0)
L
= 0 + 2x = 0
x
L
= 01+=0
y
L
= 0 + 2z = 0
z
2. Condicin de factibilidad
x+y+z = 1
x2 + z 2 9
c
SPH
54 Captulo 2. Optimizacin no lineal
0 Para mnimo
0 Para mximo
4. Condicin de holgura
g (x) = 0 x2 + z 2 9 = 0
= 1
= 0
x2 + z 2 9 = 0
pero la primera opcin ( = 0) no es vlida, puesto que si sustituimos en la primera de las ecuaciones estacio-
narias obtenemos
=0
que es una contradiccin con el valor anterior que hemos obtenido para .
Las ecuaciones que quedan son (sustituyendo el valor de )
1 + 2x = 0
1 + 2z = 0
x+y+z = 1
x2 + z 2 9 = 0
Utilizando las dos primeras ecuaciones y puesto que no puedes ser 0 (porqu?) obtenemos
x=z
c
SPH
2.5. Interpretacin de los multiplicadores de KKT 55
3 3 1
Q = , 1 + 3 2, = 1 =
2 2 3 2
Para P obtenemos un valor de > 0, por tanto se cumplen las condiciones de Karush-Kuhn-Tucker de
mnimo, mientras que para Q obtenemos un valor < 0 y por tanto se cumplen las condiciones de mximo.
La funcin objetivo f (x, y, z) = y, es lineal, por tanto es cncava y convexa (por qu?). Por otra parte hay
una restriccin de igualdad que es afn (x+y +z = 1) y la otra restriccin de desigualdad es convexa (por qu?),
luego estamos en condiciones de aplicar el teorema anterior y podemos decir que P y Q son respectivamente el
mnimo y mximo globales del problema.
Aunque es posible extender las condiciones necesarias y suficientes a rdenes superiores, en la prctica la
aplicacin de estas condiciones requiere de un excesivo esfuerzo y solamente tienen una utilidad prctica en el
caso de funciones reales de variable real, es decir, cuando n = 1 y m = p = 0.
Teorema 2.36 (Condicin suficiente de ptimo local) Supongamos que, para x I, la funcin f : I
R es suficientemente derivable y verifica
f (k) (x ) = 0 k = 1, . . . , n 1
f (n) (x ) 6= 0
x = x (b, c)
c
SPH
56 Captulo 2. Optimizacin no lineal
siendo x b,c el ptimo del programa para cuando se utilizan en el problema 2.30, los trminos independientes
b,c U(b ,c ) .
El siguiente teorema da una relacin entre las variaciones del trmino independiente y las variaciones que
experimenta el valor ptimo de la funcin objetivo.
Teorema 2.37 Dado el programa de optimizacin con restricciones dado en la ecuacin 2.30. Si para ciertos
valores de los parmetros b y c, (b , c ) = b1 , . . . , bm , c1 , . . . , cp , el punto x es un punto de Karush-Kuhn-
Tucker y junto con los multiplicadores asociados, 1 , . . ., m y 1 , . . ., p ; cumple las condiciones de suficiencia
para que la funcin f (x) posea en ese punto un extremo relativo sobre el conjunto (b , c ) y si no hay
restricciones de desigualdad activas degeneradas, entonces
F (b , c ) f x
b ,c
i = = i = 1, . . . , m
bi bi
F (b , c ) f xb ,c
j = = j = 1, . . . , p
cj cj
La ecuacin anterior nos proporciona un valor aproximado del incremento que se producir en el valor del
objetivo ptimo al variar el trmino independiente de las restricciones de (b , c ) a b, c .
2.6 Dualidad
Para cualquier problema de optimizacin NLPP
Minimizar f (x)
Sujeto a
(N LP P )
hi (x) = 0 i = 1, . . . , m
gj (x) c j = 1, . . . , p
que llamaremos problema Primal, podemos construir el llamado problema Dual. Mientras que en el problema
primal los multiplicadores se utilizan como parmetros auxiliares para resolver el problema y se minimiza sobre
las variables del problema, en el problema dual los multiplicadores seran las variables, mientras que las variables
de decisin del problema primal haran el papel de multiplicadores.
Definicin 2.38 Para el problema de optimizacin NLPP, definimos su problema dual (NLPP*) como
Maximizar (, )
Sujeto a (N LP P )
0
c
SPH
2.6. Dualidad 57
x2 y 2
Minimizar f (x, y) = +
2 2
Sujeto a
x+y 4
x y 4
x2 y 2
L (x, y, 1 , 2 ) = + + 1 (x y + 4) + 2 (x + y 4)
2 2
Si buscamos el mnimo sobre (x, y) en
L
= x 1 2 = 0 x = 1 + 2
x
L
= y 1 + 2 = 0 y = 1 2
y
y la funcin (1 , 2 ) es
2 2
(1 + 2 ) ( 2 )
(1 , 2 ) = + 1 + 1 ( (1 + 2 ) (1 2 ) + 4) + 2 ( (1 + 2 ) + (1 2 ) 4)
2 2
= 21 22 + 41 42
Maximizar (1 , 2 ) = 21 22 + 41 42
Sujeto a
1 , 2 0
Minimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) c j = 1, . . . , p
con f (x), gj (x) convexas y h (x) afn. Entonces el problema primal NLPP tiene solucin si y slo s su problema
dual NLPP* tiene solucin. Adems en este caso si x es la solucin ptima del primal y ( , ) la solucin
ptima del dual se tiene
f (x ) = ( , )
Minimizar f (x)
Sujeto a
hi (x) = 0 i = 1, . . . , m
gj (x) c j = 1, . . . , p
c
SPH
58 Captulo 2. Optimizacin no lineal
f (x ) = ( , )
entonces ( , ) y x son las soluciones ptimas del problema dual y primal respectivamente. Adems
LD (1 , 2 , 1 , 2 ) = 21 22 + 41 42 1 1 2 2
1. Condicin estacionaria: LD (1 , 2 , 1 , 2 )
LD
= 21 + 4 1 = 0
1
LD
= 22 4 2 = 0
2
2. Condicin de holgura:
1 1 = 0
2 2 = 0
c
SPH
2.6. Dualidad 59
21 + 4 = 0 1 = 2
22 4 = 0 2 = 2
21 + 4 = 0 1 = 2
4 2 = 0 2 = 4
4 1 = 0 1 = 4
22 4 = 0 2 = 2
4 1 = 0 1 = 4
4 2 = 0 2 = 4
= (2, 0) = (0, 4)
que como hemos comentado cumle las condiciones de KKT para mximo, luego por las condiciones del problema
es la solucin buscada.
Teniendo en cuenta ahora la relacin existente entre los valores de 1 y 2 y las variables de decisin del
problema primal, podemos hallar el valor de estas ltimas
x = 1 + 2 = 2 + 0 = 2
y = 1 2 = 2 0 = 2
22 22
f (x , y ) = f (2, 2) = + =4
2 2
(1 , 2 ) = (2, 0) = 22 02 + 4 2 4 0 = 4
c
SPH
60 Captulo 2. Optimizacin no lineal
c
SPH
Captulo 3
Geodsicas en el Rn
Una curva que une dos puntos A y B en Rn puede considerarse como el rango de una funcin vectorial
Y (t) = (y1 (t) , . . . , yn (t)), t [0, 1] con componentes continuas en [0, 1], de forma que Y (0) = A e Y (1) = B
(figura 3.1). En particular, el segmento lineal que une ambos puntos,
63
64 Captulo 3. Optimizacin dinmica: mtodos variacionales
Sin otra exigencia adicional la curva podra ser no rectificable, es decir, podra no tener longitud finita. Si
ahora exigimos que la funcin Y (t) tenga derivada continua en (0, 1), entonces podremos contemplar la funcin
Y0 (t) = (y10 (t) , . . . , yn0 (t)) como la velocidad en t con mdulo kY0 (t)k y por tanto la longitud de la curva
debera ser la distancia recorrida durante el movimiento y vendr dada por la siguiente integral
Z1
L (Y) = kY0 (t)k dt
0
Para garantizar la finitud de L (Y), habr que exigir que cada componente de Y0 (t) sea integrable (esta
propiedad se obtiene facilmente si cada componente es continuamente diferenciable en [0, 1]). De esta manera
el problema consistir en minimizar la longitud Y (t) sobre un determinado conjunto de funciones vectoriales
y puede expresarse como
Z1
min kY0 (t)k dt
0
s.a. YD
donde D es un conjunto de funciones definido por
D = Y : [0, 1] Rn | Y C 1 (0, 1) ; Y (0) = A; Y (1) = B
Este problema puede resolverse de forma sencilla de forma directa. Sabemos que Y0 (t) D y su derivada
es Y00 (t) = B A, por tanto si existe una curva de longitud mnima Lmin , entonces
Z1
Lmin L (Y0 (t)) = kY00 (t)k dt = kB Ak (3.2)
0
c
SPH
3.1. Introduccin y ejemplos 65
de esta forma
Z1 Z1
2 2 0
L (Y0 (t)) = kB Ak = (B A) (B A) = (B A) Y (t) dt = [(B A) Y0 (t)] dt
0 0
se obtiene
Z1 Z1
0
[(B A) Y (t)] dt kB Ak kY0 (t)k dt
0 0
o equivalentemente
Z1
2
kB Ak kB Ak kY0 (t)k dt = kB Ak L (Y (t))
0
Geodsicas en la esfera
Para un avin es fundamental, con el objetivo de conseguir un ahorro de combustible, conocer cul es la
ruta ms corta entre dos ciudades. La Tierra no es plana, por tanto el camino ms corto entre dos puntos de su
superficie no ser la lnea recta. Para resolver este problema, es necesario encontrar las curvas geodsicas sobre
la superficie de una esfera.
Cada punto P = (x, y, z) R3 de la superficie de una esfera de radio R centrada en el origen (excepto los
polos Norte y Sur) estn determinados mediante coordenadas esfricas R, y
Dados dos puntos A y B sobre la esfera, supongamos que se eligen los ejes de forma que A est en el polo
Norte ( = 0), mientras que B 6= A tiene de coordenadas esfricas (R, 0, 1 ) con 1 > 0 (figura 3.3).
c
SPH
66 Captulo 3. Optimizacin dinmica: mtodos variacionales
Entonces cualquier curva que una A con B sobre la superficie de la esfera estar determinada en coordenadas
esfricas mediante un par de funciones ( (t) , (t)) de la siguiente forma
Y (t) = R (cos (t) sen (t) , sen (t) sen (t) , cos (t)) t [0, 1]
donde se ha prescindido de la variable temporal t por comodidad. La longitud de esta curva vendr dada por
Z1 Z1 q
0 2 2
L (Y) = 0
kY (t)k dt = R sen + (0 )2 dt
0 0
2
Si eliminamos el trmino 0 sen2 0 dentro de la raz se obtiene
Z1 q Z1 q
0 2 2
R sen + (0 )2 dt R (0 )2 dt = R (t)|10 = R (1)
0 0
De manera que
L (Y) R1
2
para cualquier curva Y (t). La igualdad solamente se cumplir cuandor el trmino 0 sen2 = 0. Resolviendo
0 2 2 sen2 (t) = 0, t [0, 1]
sen = 0
0 (t) = 0, t [0, 1]
En el primer caso (t) = 0, con t [0, 1], luego A = B y en este caso no hay desplazamiento. Si, por el
contrario, A 6= B, entonces 0 (t) = 0, para t [0, 1], de donde (t) = cte, en todo el intervalo [0, 1]. Y por
tanto (t) = (1) = 0, que corresponde con el menor crculo mximo que conecta A y B.
c
SPH
3.1. Introduccin y ejemplos 67
Braquistcrona
Al caer bajo la accin de la gravedad un objeto acelera rpidamente. La curva que proporciona el menor
tiempo de trnsito entre dos puntos distintos A y B, separados una distancia horizontal, no es ni la lnea recta,
ni tampoco un arco circular, sino la llamada braquistcrona o cicloide.
Si utilizamos el esquema indicado en la figura 3.4, en el que el punto inicial A est en el origen y las ordenadas
y positivas se toman hacia abajo. Entonces una curva que una el punto A = (0, 0) con el punto B = (X1 , Y1 )
situado ms abajo (X1 , Y1 0), puede representarse como el grafo de una funcin continua y = y (x) definida
en x [0, X1 ] con y (0) = 0 e y (X1 ) = Y1 .
Asumiendo que y (x) es suficientemente derivable, esta curva tendr una longitud finita l y el tiempo necesario
para recorrerla estar dado (por consideraciones puramente cinemticas) por
Zl
ds
T = T (y) =
v
0
y el tiempo de trnsito es q
Z1
X
1 + y 0 (x)
2
T = T (y) = dx
v (x)
0
c
SPH
68 Captulo 3. Optimizacin dinmica: mtodos variacionales
y el problema consistir en minimizar T (y) sobre el conjunto de todas las funciones y = y (x) para las que
est definida la integral anterior. Posteriormente encontraremos la solucin a este problema mediante mtodos
analticos.
vx = w cos = cos
c
SPH
3.1. Introduccin y ejemplos 69
El valor de la tangente a la curva y (x) en cada punto, es decir su derivada y 0 (x) en cada punto, se obtiene como
vy r + sen r sen
y 0 (x) = = = + = r sec + tan
vx cos cos cos
donde
1/2
(x) = 1 r2 (x)
con 0 r (x) 1, ya que debe ser posible atravesar la corriente.
El tiempo de trnsito de un barco que cruce el ro desde el origen A hasta el punto B = (x1 , y1 ) situado
ro abajo a lo largo de un camino suave representado por la grfica de una funcin y = y (x) en [0, x1 ] vendr
entonces dado por
Zx1 q
T (y) = (x) 1 + (y 0 )2 (x) 2 ry 0 (x) dx
0
Este problema de control consistir en minimizar T (y)sobre todas las funciones y (x) que son continuamente
diferenciables en [0, x1 ] y cumplen y (0) = 0 e y (x1 ) = y1 .
Este problema se puede generalizar al caso en el que las orillas del ro estn representadas mediante curvas
y en el que los puntos de cruce varan. Tambin es posible considerar que la corriente vara respecto a y igual
que lo hace respecto a x. En 1931, Zermelo investig la versin bidimensional de este problema que podra ser
igualmente significante para pilotar un submarino o un aeroplano.
Z1
A (Y) = x (t) y 0 (t) dt
0
c
SPH
70 Captulo 3. Optimizacin dinmica: mtodos variacionales
Y el problema consiste en encontrar el mximo de A (Y) sobre todas las funciones Y (t) que tienen componentes
continuamente diferenciables en [0, 1] y que cumplen la condicin de clausura Y (0) = Y (1). Adems tambin
debe cumplirse la condicin isoperimtrica
Z1
L (Y) = kY0 (t)k dt = L
0
c
SPH
3.1. Introduccin y ejemplos 71
masas
ZL
F (y) = W y (s) ds
0
sobre todas las funciones y 0 continuamente diferenciables en [0, L], con y (0) = y (L) = 0 y que cumplen la
condicin isoperimtrica
ZL
G (x) = dx (s) = H
0
siendo x (s) el desplazamiento en la direccin horizontal.
Por geometra elemental tenemos
2 2
x0 (s) + y 0 (s) = 1
de donde la funcin G (x) se puede escribir en trminos de y (s) como:
ZL q
2
G (y) = 1 y 0 (s) ds = H
0
entre todas las funciones y (x) 0, continuamente diferenciables en [a, b] y para las cuales
y (a) = a1 y y (b) = b1
c
SPH
72 Captulo 3. Optimizacin dinmica: mtodos variacionales
Donde a1 y b1 denotan los radios de cada crculo, uno de los cuales puede degenerar en un punto (y (b) = 0).
u|D = (x, y)
para a1 y b1 dados, este es un problema de puntos extremos (inicial y final) fijos (ver figura 3.4). Sin embargo
para Jakob Bernouilli el inters se centraba en un conjunto ms amplio
Db = y C 1 [a, b] : y (a) = a1
al describir una braquistcrona para la que se pide que descienda sobre una distancia horizontal (b a) en
el mnimo tiempo posible, sin especificar la distancia vertical que hay que cubrir. Este tipo de problemas es
llamado de punto extremo final libre (ver figura 3.9).
Del mismo modo, tambin pueden considerarse problemas sobre el conjunto
Da = y C 1 [a, b] : y (b) = b1
o tambin en aquellos donde los extremos locales estn en subconjuntos arbitrarios de C 1 [a, b], por ejemplo,
un problema relacionado con las condiciones sobre puntos extremos es el que caracteriza la braquistcrona que
une dos curvas fijas dadas, llamadas transversales, lo que requiere la minimizacin de una integral con lmites
x1 y x2 variables
Zx2
J (y) = f (x, y (x) , y 0 (x)) dx
x1
c
SPH
3.1. Introduccin y ejemplos 73
sobre un conjunto
D = y C 1 [x1 , x2 ] : j (xj , y (xj )) = 0; j = 1, 2
2
donde [x1 , x2 ] R y { j (xj , y (xj ))}j=1 son funciones dadas (figura 3.11)
3.1.6 Resumen
Todos estos problemas presenta caractersticas comunes. Cada uno de ellos implica la bsqueda de una
funcin real definida sobre un determinado dominio D de funciones y , que minimiza o maximiza cierta funcin
definida por medio de una integral de la forma
Zb
J (y) = F (x, y (x) , y0 (x)) dx
a
para alguna funcin dada F (x, y, z). A este tipo de funciones cuyo valor depende de una funcin real de variable
real los hemos denominado funcionales.
La funcin y (x) puede ser escalar o vectorial, puede depender de una variable independiente o de varias.
Generalmente es continua y derivalbe en su dominio de definicin, mientras que el conjunto D consistir en
aquellas funciones de esta clase que cumplen ciertas condiciones de frontera especficas en a o b, de la forma
y (a) = a0
y (b) = b0
Adems, como en el caso de la braquistcrona, puede ser necesario imponer restricciones posteriores tales como
exigir que y 0 en [a, b].
Buscamos un elemento de D, es decir, una funcin y D, para la que
J (y) J (y ) y D
En estos problemas, pueden tambier existir restricciones integrales de igualdad (restricciones isoperimtricas)
Zb
H (y) = h (x, y (x) , y0 (x)) dx = L
a
c
SPH
74 Captulo 3. Optimizacin dinmica: mtodos variacionales
Lema 3.1 (du Bois-Reymond) Sea h (x) C [a, b] y sea D0 el conjunto de funciones definido como
D0 = v C 1 [a, b] v (a) = v (b) = 0
entonces se cumple
Zb
Si h (x) v 0 (x) dx = 0 v D0 = h (x) = c x [a, b]
a
con c una constante.
c
SPH
3.2. Lemas de Lagrange y du Bois-Reymond 75
Puesto que h (x) C [a, b], la funcin v (x) estar bien definida y por el teorema fundamental del clculo integral,
v (x) C 1 [a, b] y su derivada es
v 0 (x) = h (x) c
adems v (a) = 0.
Para que v (x) est en el conjunto D0 , adems tiene que ocurrir v (b) = 0. Definimos la constante c de forma
que esto ocurra, es decir
Z b Z b
1
v (b) = (h (t) c) dt = 0 o c= h (t) dt
a ba a
2
Puesto que (h (x) c) 0
Z b
2
(h (x) c) dx 0
a
0
utilizando la expresin de v (x)
Z b Z b Z b Z b
0 (h (x) c)2 dx = (h (x) c) v 0 (x) dx = h (x) v 0 (x) dx cv 0 (x) dx
a a a a
Z b
b
= h (x) v 0 (x) dx cv (x)|a
a
Como v D0 , entonces
Rb
a
h (x) v0 (x) dx = 0
v (b) = v (a) = 0
y por tanto
Z b
(h (x) c)2 dx = 0
a
c
SPH
76 Captulo 3. Optimizacin dinmica: mtodos variacionales
de donde
2
(h (x) c) 0
es decir
h (x) = c x [a, b]
Proposicin 3.2 Sea g (x) , h (x) C [a, b] y sea D0 el conjunto de funciones definido como
D0 = v C 1 [a, b] v (a) = v (b) = 0
entonces se cumple
Zb
Si [g (x) v (x) + h (x) v 0 (x)] dx = 0 v D0 = h (x) C 1 [a, b] y h0 (x) = g (x)
a
Basta con tomar h (x) 0 en la proposicin anterior. Este resultado admite la siguiente generalizacin
Lema 3.4 (Lagrange) Sea g (x) C [a, b] y sea D0,m el conjunto definido por
n o
D0,m = v C m [a, b]| v (k) (a) = v (k) (b) = 0, k = 0, . . . , m
para algn m = 0, 1, 2, . . .
Zb
g (x) v (x) dx = 0 v D0
a
entonces g 0 en [a, b]
c
SPH
3.3. Ecuaciones de Euler-Lagrange 77
Demostracin: Supongamos que g (c) > 0 para algn c (a, b). Entonces por la hiptesis de continuidad
de g, c est contenido en un intervalo [, ] (a, b) en el que |g (x) g (c)| g (c) /2 o g (c) /2 > 0. Por otra
parte la funcin m+1
[(x ) ( x)] x [, ]
v (x) =
0 x/ [, ]
es de clase C m (R), no negativa y no identicamente igual a 0 (las m primeras derivadas se anulan en y ). Se
obtiene as que sobre [a, b] el producto gv es continuo, no negativo, y no identicamente nulo. Por tanto
Z b
0< g (x) v (x) dx
a
donde
[ (t, x (t))]tt10 = (x (t1 ) , t1 ) (x (t0 ) , t0 )
y por tanto slo es funcin de los valores iniciales y finales, mientras que la integral de F depende de toda la
trayectoria entre t0 y t1 . Si ahora hacemos el cambio
d
Fa (t, x (t) , x (t)) = F (t, x (t) , x (t)) + (t, x (t))
dt
el funcional se puede expresar como en un problema de Lagrange
Zt1
JB (x) = Fa (t, x (t) , x (t)) dt
t0
c
SPH
78 Captulo 3. Optimizacin dinmica: mtodos variacionales
donde
x x (t)
x x (t)
Queremos encontrar una funcin x (t) D tal que el funcional J (x) alcance el mximo o mnimo sobre
ella. Esta funcin x (t) se dice que es un extremal de J (x) y se cumplir por tanto que
J (x ) J (x) x (t) D
Supongamos que x (t) es una curva extremal para J (x) y consideremos la familia de funciones descritas
por
x (t) = x (t) + v (t)
y definidas en [t0 , t1 ]. Esta familia incluye a x (t), simplemente poniendo = 0. La funcin v (t) es llamada
una variacin en x (t) y un nmero pequeo, para permitir que x (t) pertenezca al conjunto D.
Con el fin de simplificar el proceso, supondremos que las funciones x (t) deben cumplir las siguientes condi-
ciones de frontera
x (t0 ) = x0
x (t) D
x (t1 ) = x1
Con estas condiciones y la definicin de x (t) se debe cumplir
Est claro por la definicin que para = 0 y cualquiera que sea v (t) todas las curvas tienen un mnimo
x (t) = x (t)|=0
y la funcin
() = J (x + v)
tendr un mnimo en = 0, independientemente del valor de v (t). La funcin () es una funcin real de
variable real y por tanto si tiene un mnimo en = 0, debe cumplir la condicin necesaria (para mnimo o para
mximo)
0 ()|=0 = 0 0 (0) = 0
que en trminos del funcional J se expresa como
J
(x + v) =0 (3.6)
=0
independientemente de v (t), sin embargo en la mayora de problemas ocurre que si la solucin existe, entonces
es una solucin de la ecuacin 3.6.
c
SPH
3.3. Ecuaciones de Euler-Lagrange 79
Vamos ahora a ver a qu nos conduce la ecuacin estacionaria 3.6. Supongamos que la funcin x (t) minimiza
J (x) entonces
Z t1
J (x + v) = F (t, x + v, x + v,
t) dt
t0
donde por simplicidad se ha eliminado el smbolo de las ecuaciones. Bajo ciertas condiciones de derivabilidad
podemos pasar la derivada dentro de la integral
Z t1
(F (t, x + v, x + v))
dt
t0
al evaluar en = 0 obtenemos
Z t1
J F F
(x + ) = (t, x, x)
v+ (t, x, x)
v dt (3.7)
=0 t0 x x
El segundo trmino del integrando en la ecuacin 3.7 se puede integrar por partes, considerando
F d F
U = (t, x, x)
dU = (t, x, x)
dt
x dt x
dV = vdt
V =v
de donde se obtiene
Z t1 Z t1
t1
F F d F
(t, x, x)
vdt
=v
(t, x, x) v (t, x, x)
dt
t0 x x t0 t0 dt x
Esta expresin se sustituye en 3.7 y despus de sacar factor comn v obtendremos la expresin buscada
Z t1 t1
J F d F F
(x + v) = v (t, x, x)
(t, x, x)
dt + v = 0
(t, x, x) (3.8)
=0 t0 x dt x x t0
Como esta expresin debe ser 0, independientemente del valor de v (t) , entonces
Z t1
F d F
v (t, x, x)
(t, x, x)
dt = 0 (3.9)
t0 x dt x
t1
F
v
(t, x, x) = 0 (3.10)
x t0
Como estamos considerando que tanto x (t0 ) como x (t1 ) son fijos, y por tanto esto implicaba que v (t0 ) =
v (t1 ) = 0, el trmino 3.10 se anula y la condicin que queda es
Z t1
F d F
v (t, x, x)
(t, x, x)
dt = 0
t0 x dt x
c
SPH
80 Captulo 3. Optimizacin dinmica: mtodos variacionales
La ecuacin 3.11 es la llamada primera ecuacin de Euler-Lagrange y nos proporciona una condicin necesaria
(de primer orden) que debe cumplir cualquier extremal x (t) del funcional J.
Si no se realiza la integracin por partes de la ecuacin 3.7 obtenemos la llamada frmulacin dbil o
variacional de las ecuaciones de Euler Lagrange
Z t1 Z t1 Z t1
J F F F F
(x + ) =0 (t, x, x)
v+ (t, x, x)
v dt = 0 v (t, x, x)
dt = v (t, x, x)
dt
=0 t0 x x
t0 x t0 x
Definicin 3.5 Cualquier funcin x C 1 (t0 , t1 ) que cumpla la primera ecuacin diferencial de Euler-Lagrange
(ecuacin 3.11) se dice que es una funcin estacionaria de J (x).
d
Fx Fx = 0
dt
donde
F
Fx =
x
F
Fx =
x
x (t0 ) = x0
x (t1 ) = x1
c
SPH
3.4. Condiciones Transversales 81
Figura 3.12:
x (t0 ) = 0
F F
(t, x, x) = 0 (t1 , x (t1 ) , x (t1 )) = 0
x t1 x
x (t0 ) = 0
Ejemplo 3.7 Encuentra la curva con la mnima longitud entre el punto x (0) = 0 y la lnea t1 = 2.
Solucin: Recordemos que para una curva x (t) definida en un intervalo [t0 , t1 ] su longitud viene dada por
el funcional Z t1 p
J (x) = 1 + x 2 dt
t0
c
SPH
82 Captulo 3. Optimizacin dinmica: mtodos variacionales
x (2) libre
Planteamos la ecuacin de Euler-Lagrange para F (t, x, x)
= 1 + x 2
F
= 0
x
F x d F d x
= =
x 1 + x2 dt x dt 1 + x 2
y se obtiene la relacin
d x d x x
0 =0 =0 =c
dt 1 + x 2 dt 1 + x 2 1 + x 2
donde c es una constante. Si ahora despejamos x,
se obtiene
x 2 1 c2 = c2
c2
x 2 = = 2 x (t) =
1 c2
Si integramos
x (t) = t +
Para calcular las constante y necesitamos utilizar las condiciones transversales. Como x (0) es fijo tenemos
x (0) = 1 0 + = 1 = 1
es decir
x (2)
q =0
1 + x (2)2
Como x (t) = para todo t [0, 2]
=0=0
1 + 2
y el extremal buscado ser
x (t) = 1
La distancia mnima ser
Z 2 q Z 2 p Z 2
2
J (x ) = 1 + (x ) dt = 1 + 02 dt = dt = 2
0 0 0
x (2) libre
c
SPH
3.4. Condiciones Transversales 83
Solucin: Se trata de un problema de extremos inicial y final libres. Planteamos en primer lugar la ecuacin
= 12 x 2 + xx + x + x
de Euler-Lagrange para F (t, x, x)
F
= x + 1
x
(x + 1) (
x + x)
=0x
=1 (3.12)
F d F
= x + x + 1 =x
+ x
x dt x
x
= 1 (3.13)
x = t + (3.14)
t2
x (t) = + t + (3.15)
2
Como antes, obtendremos los valores de y utilizando las condiciones transversales; que como x (0) y x (2)
son variables en este caso sern
F F
= 0 y =0
x t0 =0 x t1 =2
es decir
x (0) + x (0) + 1 = 0 y x (2) + x (2) + 1 = 0 (3.16)
x (0) = 0 + =
02
x (0) = 2 +0+ =
x (2) = 2 +
22
x (2) = 2 + 2 + = 2 + + 2
= 2
= 1
El extremal buscado es
t2
x (t) = 2t + 1
2
y el valor mnimo del funcional en x (t) ser
Z 2
1 2 4
J (x ) = (x ) + x x + x + x dt =
0 2 3
c
SPH
84 Captulo 3. Optimizacin dinmica: mtodos variacionales
Cuando F = F (x)
F
En este caso x = 0 y la ecuacin 3.11 se transforma en
d F
=0
dt x
o equivalentemente
F
=c
x
con c una constante.
2F 2F
En el caso particular de que x (t) C 2 [a, b], como en este caso tambin t x =0y x x = 0 la ecuacin
3.17 se transforma en
2F
x=0
x 2
De aqu se obtiene
x
=0
o
2F
x 2 = 0
Si x
= 0 entonces
x (t) = t +
con , R, y obtenemos como solucin una familia biparamtrica de rectas. Los valores de y se determinan
utilizando las condiciones transversales corresopondientes.
2
Si, en caso contario, ocurre xF2 = 0 y esta ecuacin tiene una o varias races reales x = ki , entonces
integrando
y = ki x + c
que es una familia monoparamtrica de rectas, que podemos suponer, est contenida en la familia biparamtrica
descrita con anterioridad. De esta forma, en el caso F = F (x)
las funciones estacionarias son todas lneas rectas.
Ejemplo 3.9 La longitud del arco de una curva es de la forma:
Z bp
L (x) = 1 + x 2 dx
a
= 1 + x 2 .
se trata por tanto del caso anterior, donde F (x)
La ecuacin de Euler-Lagrange para este caso particular es
d F d x
=0 =0
dt x dt 1 + x 2
y derivando respecto a t
x
1 + x 2 x
1 + x 2 1
x
=0 x
=0
1 + x 2 [1 + x 2 ]3/2
cuya nica solucin es
x
= 0 x (t) = t +
c
SPH
3.4. Condiciones Transversales 85
Cuando F = F (t, x)
F
En este caso, tambin ocurre x = 0 y la ecuacin 3.11 se reduce a
d F
=0
dt x
que tiene como primera integral
F
=c
x
con c una constante. Adems, como la ecuacin de primer orden obtenida no contiene a x, sta puede integrarse
o bien resolvindola directamente respecto a x e integrando o bien introduciendo un parmetro escogido en
forma adecuada.
Ejemplo 3.10 Como se ha visto al principio de la seccin para caracterizar las geodsicas suaves sobre una
esfera de radio R haba que minimizar el funcional
Z1 q
2 2 2
L (Y ) = R (t) sen (t) + (t) dt
0
con
(0) = 0
(1) = 0
(1) = 1
A partir de las ecuaciones paramtricas ( (t) , (t)) podemos obtener una expresin de en trminos de :
= x ( (t)) de donde por una parte
dx d (t)
(t) = = x () (t) = x () (3.18)
d dt (t)
y por otra
d (t)
(t) = (t) dt = d (3.19)
dt
por lo que el funcional se puede expresar como
v !
Z1 q Z1 u
u (t) 2 2
L (Y ) = R 2 2 2
(t) sen (t) + (t) dt = R (t) t sen (t) + 1dt
(t)
0 0
c
SPH
86 Captulo 3. Optimizacin dinmica: mtodos variacionales
sobre el conjunto
D1 = x C 1 [0, t1 ] : x (t1 ) = 0
En este caso q
2
= R 1 + x 2 sen t
F = F (t, x)
por tanto
F Rx sen2 t
=
x 1 + x 2 sen2 t
de manera que las funciones estacionarias x (t) son aquellas para las que sucede
Rx sen2 t
=c
1 + x 2 sen2 t
siendo c una constante, cuyo valor podemos determinar teniendo en cuenta que esta expresin es vlida para
todos los valores de t en el intervalo [0, t1 ] y tomando en particular t = 0
Rx sen2 t
=0
1 + x 2 sen2 t t=0
luego
c=0
De manera que tiene que cumplirse x (t) = 0 y de ah
x (t) = A
con A constante. Tal y como se dedujo en la seccin correspondiente, esta expresin de x (t) corresponde a los
crculos mximos de la esfera.
Cuando F = F (x, x)
Si F no depende explcitamente de la variable t y la funcin x (t) C 2 ([t0 , t1 ]), la ecuacin de Euler-Lagrange
3.11 se reduce a una de primer orden, ya que llamando
d F F F
H = [H] = + x + x
dt t x x
F
y teniendo en cuenta que t = 0 y que tambin se cumple la ecuacin de Euler-Lagrange 3.11 entonces
F F d F F d F
H = x + x
= x + x
= x
x x dt x x dt x
e integrando
F
H= x + c
x
con c una constante. Como H = F se tiene la ecuacin diferencial de primer orden
F
F x = c (3.20)
x
Ejemplo 3.11 Resuelve el problema de la braquistcrona.
c
SPH
3.4. Condiciones Transversales 87
(la ltima condicin se impone para que la integral sea convergente en 0).
En este caso
1 + x 2
=
F (x, x)
x
salvo el factor constante 1 . De aqu obtenemos
2g
F x
=
x x 1 + x 2
Y utilizando la expresin 3.20
1 + x 2 x 1 1
x = c =c=
x x 1 + x2 x 1 + x2 k
2 k2
x () = k2 sen = (1 cos ) 0 < 2
2 2
entonces
k2 x () = k2 cos2 y x () = c2 (t) sen cos
2 2 2
Y sustituyendo ambas expresiones en la ecuacin diferencial 3.21
2 k2
k2 sen = 1 o (1 cos ) = 1
2 2
e integrando
k2
( sen ) = t C
2
con C una constante.
Si hacemos el cambio k2 /2 = K 2 se obtienen las ecuaciones paramtricas de la braquistcrona
t = K 2 ( sen ) + C
x = K 2 (1 cos )
Las constantes K y C se determinan a partir de las condiciones de contorno
x (0) = 0
x (t1 ) = x1
c
SPH
88 Captulo 3. Optimizacin dinmica: mtodos variacionales
0 = K 2 (1 cos 0 )
t1 = K 2 (1 sen 1 ) + C
x1 = K 2 (1 cos 1 )
c
SPH
3.5. Condiciones de segundo orden 89
y agrupando
Z t1
2F 2 2F 2F
(t, x + v, x
+ v)
v + 2 (t, x + v, x
+ v)
v v
+ v 2 dt
(t, x + v, x + v)
t0 x2 xx
x 2
y particularizando en = 0
Z t1 2
2J F 2F 2F
(x + ) = v2 + 2
(t, x, x) (t, x, x)
v v + v 2 dt
(t, x, x) (3.24)
2 x2 xx
x
2
=0 t0
dV = vdt
V =v
la integral queda
Z t1 Z t1 2
t1
2F 2F d F 2F
(t, x, x)
v vdt
= v2
(t, x, x) v (t, x, x)
v+ (t, x, x)
v dt
t0 xx
xx
t0 t0 dt xx
xx
t1 Z t1 2 Z t1 2
2
2 F
2 d F F
= v
(t, x, x) v (t, x, x)
dt (t, x, x)
v vdt
xx
t0 t0 dt xx
t0 xx
c
SPH
90 Captulo 3. Optimizacin dinmica: mtodos variacionales
y sustituyendo en 3.24
Z t1 2 2 t1
2J F 2 d F 2F 2
2 F
(x + v) = (t, x, x)
v 2
v (t, x, x)
+ (t, x, x)
v
2
dt + v (t, x, x)
2 2 2
=0 t0 x dt xx
x xx
t0
agrupamos en v2
Z t1 2 2 2 t1
2J F d F F 2
2 F
(x + v) = (t, x, x)
(t, x, x)
2
v + (t, x, x) 2
v dt + v
(t, x, x)
2 x 2 dt xx
x2 xx
=0 t0 t0
La ecuacin se simplifica en el caso de que los extremos inicial y final sean fijos, puesto que en este caso
v (t0 ) = v (t1 ) = 0
Z t1 2 2 2
2J F d F F
(x + v) = (t, x, x)
(t, x, x)
v 2
+ (t, x, x)
v 2 dt
2 x 2 dt xx
x
2
=0 t0
2F
(t, x, x)
0
x 2
En la mayora de los problemas slo ser necesaria la condicin de primer orden (ecuacin de Euler-Lagrange).
En otros ejemplos es posible que el integrando se 0, pero no se cumplan las condiciones anteriores, debido
probablemente a que v y v no sean independientes entre s.
Ejemplo 3.13 Aplica las condiciones de segundo orden al problema de encuentrar la curva con la mnima
longitud entre el punto x (0) = 0 y la lnea t1 = 2.
Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva
x (t) = 1
y recordemos tambin que para este problema tenamos
F
= 0
x
F x
=
x 1 + x 2
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez
2F
2
x2 = x (0) = 0 2F d F
(t, x, x)
(t, x, x)
0
2F x2 dt xx
x x = v (0) = 0
2F x 1
= =
x 2 x 1 + x 2
(1 + x 2 )3/2
que al utilizar x (t) = 1 y por tanto x (t) = 1
2F 1
2
= 3/2 = 1 > 0
x
1 + (0)2
c
SPH
3.6. Condiciones suficientes con convexidad 91
x (2) libre
Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva
t2
x (t) = 2t + 1
2
y recordemos tambin que para este problema tenamos
F
= x + 1
x
F
= x + x + 1
x
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez
2F
=
(x + 1) = 0
x2 x 2F d 2F
(x, x,
t) (x, x,
t) = 0 0
2F x2 dt xx
x x = x (x + 1) = 1
2F
= (x + x + 1) = 1 0
x 2 x
ZT
k (t) 2
min J (x) = x (t) f (t) x (t) dt
2
0
F
= f (t)
x
F d F
= k (t) x (t) = k (t) x (t) + k (t) x
(t)
x dt x
c
SPH
92 Captulo 3. Optimizacin dinmica: mtodos variacionales
x (t0 ) = 0
x (t1 ) = 0
Veremos a continuacin si la solucin es nica, para ello veremos si F es convexa en las variables x y x.
Calculamos las derivadas correspondientes
2F
=0
F x2
= f (t)
x
2F
=0 0 0
x x
HF =
2F 0 k (t)
=0
F x x
= k (t) x (t)
x 2
F = k (t)
x 2
por tanto F ser convexa si k (t) > 0, t [0, T ].
k (t) = 1
f (t) = C
x (0) = 0 c2 = 0
C 2
x (T ) = 0 T + c1 T + c2 = 0
2
c
SPH
3.7. Optimizacin dinmica con restricciones 93
cuya solucin es
CT
c1 =
2
c2 = 0
Luego
CT 2 CT CT
x (t) = t + t= t t2
2 2 2
es la solucin buscada.
2. Por ejemplo si k = 1 y f (t) = sen (nt). En este caso la ecuacin de Euler-Lagrange es
d d
(k (t) x (t)) = f (t) (x (t)) = sen (nt)
dt dt
y tenemos que resolver el problema
x
(t) = sen (nt)
x (0) = x (1) = 0
Integrando
1
x (t) = cos (nt) + c1
n
1
x (t) = 2 sen (nt) + c1 t + c2
(n)
y aplicando las condiciones transversales
x (0) = c2 c2 = 0
x (1) = c1 + c2 c1 = 0
luego
1
u (x) = sen (nt)
(n)2
s.a. i (t, x, x)
=0 i = 1, . . . , m
x (t0 ) = x0
x (t1 ) = x1
c
SPH
94 Captulo 3. Optimizacin dinmica: mtodos variacionales
Zt1
Pm
min Ja (x) = F (t, x, x)
+ i=1 i i (t, x, x)
dt
t0
s.a.
x (t0 ) = x0
x (t1 ) = x1
En esta seccin damos las condiciones necesarias para que una funcin sea extremal de un funcional sujeto
a restricciones de tipo integral, tanto de igualdad como de desigualdad.
Zt1
min J (x) = F (t, x, x)
dt
t0
R t1
s.a. t0
hi (t, x, x)
dt = i i = 1, . . . , m
x (t0 ) = x0
x (t1 ) = x1
si 1 , . . . , m R, tal que
m
X
F (t, x, x)
= F (t, x, x)
+ i hi (t, x, x)
i=1
F d F
= 0
x dt x
x (t0 ) = x0
x (t1 ) = x1
Z t1
hi (t, x, x)
dt = i
t0
c
SPH
3.7. Optimizacin dinmica con restricciones 95
Z1
2
min J (x) = x (t) dt
0
Z1
s.a. x (t) dt = 1
0
x (0) = 0
x (1) = 1
F = x 2 + x
por tanto
x
=
2
e integrando dos veces
x = t + c1
2
2
x= t + c1 t + c2
4
Donde c1 y c2 son constantes. Los valores de estas constantes y del multiplicador los podemos calcular
utilizando las condiciones transversales y la condicin integral.
x (0) = 0 c2 = 0
x (1) = 0 + c1 + c2 = 1
4
t=1
R1 R1 2 3 c1 2 c1
0
x (t) dt = 1 0 t + c1 t + c2 dt = t + t + c2 t = + =1
4 12 2 t=0 12 2
c
SPH
96 Captulo 3. Optimizacin dinmica: mtodos variacionales
c2 = 0
= 24
y el coste ptimo
Z Z t=1
1
2
1
2 (12t + 6)3
J (x ) = (x ) dt = (12t + 6) dt = = 12
0 0 36
t=0
Zt1
min J (x) = F (t, x, x)
dt
t0
R t1
s.a. t0
hi (t, x, x)
dt = i i = 1, . . . , m
R t1
t0
gj (t, x, x)
dt j j = 1, . . . , p
x (t0 ) = x0
x (t1 ) = x1
si 1 , . . . , p 0 R, tal que
m
X p
X
F (t, x, x)
= F (t, x, x)
+ i hi (t, x, x)
+ j gj (t, x, x)
i=1 j=1
F d F
= 0
x dt x
x (t0 ) = x0
x (t1 ) = x1
Z t1
hi (t, x, x)
dt = i
t0
Z t1
j gj (t, x, x)
dt j = 0
t0
c
SPH
3.7. Optimizacin dinmica con restricciones 97
Z1
1
s.a. x (t) dt
3
0
x (0) = 0
x (1) = 1
que para > 0 es definida positiva y por tanto F es estrictamente convexa (para = 0, sera semidefinida
positiva y por tanto convexa).
Ahora utilizamos las ecuaciones de Euler-Lagrange para F
!
F d F d
= 0 2x (2x) = 0 2x 2x=0
x dt x dt
por tanto
x
= x
Como estamos minimizando, interesa que 0 y por tanto distinguimos dos casos
= 0 x (t) = c1 t + c2
=0x
t
>0x
= x x (t) = c1 e + c2 e t
c
SPH
98 Captulo 3. Optimizacin dinmica: mtodos variacionales
De la primera ecuacin
c2 = c1
y de la segunda
1
c1 e + c2 e
= 1 c1 e e = 1 c1 =
2 senh
y por tanto la funcin es de la forma
senh t
t t
x (t) = c1 e e =
senh
=0
Si definimos
F = F (t, x + v, x + v)
F (t, x , x )
entonces Z Z
t1 t1
F F
J = (F (t, x + v, x + v)
F (t, x , x )) dt ' v + v dt
t0 t0 x x
Si definimos la variacin en x y x como
x = v
x = v
entonces podemos poner Z
t1
F F
J ' x + x dt
t0 x x
La variacin de J es Z
t1
F F
J = x + x dt
t0 x x
como para = 0 ocurre J = 0
Z t=t
t1
F d F F 1
J = xdt + x =0
t0 x dt x x t=t0
que produce las ecuaciones en variaciones siguientes
F d F
=0
x dt x
t=t
F 1
x =0
x t=t0
x (t1 ) = xk,1 k = 1, . . . , n
las ecuaciones de Euler-Lagrange que debe cumplir una funcin vectorial x (t) = (x1 (t) , . . . , xn (t)) para ser
un extremal del funcional anterior es
F d F
= 0 k = 1, . . . , n
xk dt x k
t=t
F 1
x =0 k = 1, . . . , n
x k t=t0
c
SPH
100 Captulo 3. Optimizacin dinmica: mtodos variacionales
x2 (0) = 0 c1 + c2 c3 = 0
x1 = 1 c1 e/2 + c2 e/2 + c4 = 1
2
x2 = 1 c1 e/2 + c2 e/2 c4 = 1
2
c
SPH
3.9. Extensin de los mtodos variacionales 101
Cuya solucin es
c1 = 0; c2 = 0; c3 = 0; c4 = 1
Ejemplo 3.22 Encuentra las ecuaciones de Euler-Lagrange para los problemas variacionales cuyo funcional es
de la forma
Zt1
min J (x) = F (x 1 , x 2 ) dt
t0
x2 (t) = c3 t + c4
con ck R, constantes.
c
SPH
102 Captulo 3. Optimizacin dinmica: mtodos variacionales
las ecuaciones de Euler-Lagrange que debe cumplir una funcin x (t) para ser un extremal del funcional anterior
es
F d F d2 F n d F
+ 2 + + (1) =0
x dt x dt x dtn x(n)
Z1
min J (x) = 2 dt
1+x
0
x (0) = 1 x (1) = 1
t3 t2
x (t) = c1 + c2 + c3 t + c4
6 2
y utilizando las condiciones transversales obtenemos como solucin
c1 = c2 = c4 = 0
c3 = 1
x (0) = 0 x (/2) = 1
c
SPH
3.9. Extensin de los mtodos variacionales 103
c3 = 1
(k)
s.a. xj (t0 ) = x0j,k R
(k)
xj (t1 ) = x1j,k R
las ecuaciones de Euler-Lagrange (en este tipo de problemas se llaman ecuaciones de Euler-Poisson) que debe
cumplir una funcin x (t) para ser un extremal del funcional anterior es
!
F d F d2 F nk d F
+ 2 + + (1) = 0 k = 1, . . . , m
xk dt x k dt xk dtnk x(nk )
k
c
SPH
104 Captulo 3. Optimizacin dinmica: mtodos variacionales
obtenemos
ZZ Z
F
F
F F
v + v dxdy = dy dx v = 0
x ux y uy ux uy
| {z } | {z }
N M
luego ZZ ZZ
F F F F
vx + vy dxdy = v+ v dxdy
ux uy x ux y uy
c
SPH
3.9. Extensin de los mtodos variacionales 105
siendo
x = (x1 , . . . , xn )
u = u (x1 , . . . , xn )
u u
u = ,...,
x1 xn
la ecuacin de Euler-Ostrogradski n dimensional es de la forma
F F F F
=0 (3.27)
u x1 ux1 x2 ux2 xn uxn
o equivalentemente y de forma simplificada
F F F
div ,..., =0
u ux1 uxn
o
F
div (u F ) = 0
u
Ejemplo 3.25 Sea un disco circular de radio 1 que tiene permisividad elctrica = 1. Supongamos tambin
que sobre dicho disco tenemos una distribucin de cargas elctricas de densidad constante = 1. Supongamos
finalmente
que el potencial sobre
la frontera de dicho crculo es constante e igual a cero, esto es, u = 0 sobre
= (x, y) R2 : x2 + y 2 = 1 . Se pide calcular la ecuacin de Euler-Lagrange asociada al funcional
ZZ
I (u) = |E|2 u dxdy
2
donde
E = u
Comprueba que
1 x2 + y 2
u (x, y) =
4
es solucin de la ecuacin.
Solucin: Con los datos del problema el funcional es de la forma
ZZ
1 2
I (u) = ux + u2y u dxdy
2
c
SPH
106 Captulo 3. Optimizacin dinmica: mtodos variacionales
1(x2 +y2 )
Vamos a comprobar que la funcin u = 4 es solucin de la ecuacin anterior
2x 1
ux = uxx =
4 2
uxx + uyy = 1
2y 1
uy = uyy =
4 2
est claro que sobre , ocurre u = 0.
c
SPH
Captulo 4
4.1 Introduccin
La filosofa de este captulo es derivar la solucin de problemas de control ptimo continuos en el caso ms
general. En el tema anterior hemos visto como los problemas de control ptimo se pueden plantear como la
bsqueda de una trayectoria que optimice cierto ndice mientras se cumplen unas determinadas restricciones
debidas a la naturaleza del sistema. En este tema vamos a plantear y resolver alguno de estos problemas de
control ptimo cuando el sistema evoluciona de forma continua con el tiempo.
El enfoque inicial del problema se hace desde el punto de vista de los mtodos variacionales clsicos, donde se
busca una funcin real definida sobre un determinado dominio de funciones, que minimice un determinado ndice
de rendimiento que estar definido en la mayora de las ocasiones por medio de una integral. Introduciremos
brevemente algunos resultados sobre el clculo de variaciones.
Abordaremos el problema desde el punto de vista de la formulacin hamiltoniana. Esta formulacin es muy
til a la hora de tratar con el principio del mnimo.
Para ilustrar las principales caractersticas del tipo de problemas de control ptimo que vamos a tratar,
presentaremos un ejemplo muy sencillo.
Ejemplo 4.1 Se plantea el problema del lanzamiento de un cohete hasta una altura x en un tiempo T . Para
controlar el movimiento del mismo en cada instante se utiliza una fuerza u(t), que es funcin del tiempo. Si
x(t) es la altura sobre el suelo en tiempo t y m es la masa del cohete, la ecuacin del movimiento nos da la
siguiente relacin.
x (t) + mg = u(t) t [0, T ]
Supongamos por otra parte que la fuerza ejercida no puede superar cierto valor b (debido entre otras cosas a las
limitaciones en la potencia de los motores, la cantidad de combustible utilizada, etc.). El objetivo del problema
podra ser gastar la menor cantidad de energa posible para lograr el objetivo de situar el cohete a una altura x
en el tiempo T . El problema podra plantearse como
RT
Minimizar 0
| u(t) | dt
Sujeto a x (t) + mg = u(t)
| u(t) | b
x(T ) = x
x(0) = 0
Si hacemos x1 = x, x2 = x, obtenemos una ecuacin diferencial de primer orden y el problema vendr dado
107
108 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
como: RT
Minimizar 0
| u(t) | dt
Sujeto a x2 (t) + mg = u(t)
x1 (t) = x2 (t)
| u(t) | b
x1 (T ) = x
x1 (0) = x2 (0) = 0
donde al poner la funcin |u (t)| dentro del integrando estamos considerando el gasto de fuerza necesaria para
acelerar o decelerar el cohete.
Observando el ejemplo anterior vamos a ver a continuacin la formulacin general de los problemas de
control ptimo en tiempo continuo. En primer lugar solamente estamos interesados en la conducta de sistemas
que evolucionen segn una determinada ley determinista. En otras palabras, no se considerarn sistemas cuya
conducta sea aleatoria o estocstica.
Supondremos que la conducta relevante de los sistemas estudiados puede ser cuantificada por n variables. La
identificacin de esas variables y la descripcin del sistema en trminos de ellas es el trabajo ms complicado al
construir un modelo matemtico del sistema, este aspecto no ser tratado aqu y supondremos que este trabajo
ha sido ya realizado y la conducta del sistema estar descrita por los valores del vector de estado x, cuyas
componentes xi , i = 1, . . . , n, son las variables de estado. El sistema evoluciona con el tiempo t, por tanto las
variables de estado son funciones de t y estarn gobernadas por n ecuaciones diferenciales de primer orden, las
ecuaciones de estado, que tienen la forma general
x = f (t, x, u) (4.1)
donde el punto indica la derivada temporal. La funcin f es una funcin vectorial que tiene n componentes
fi . La ecuacin de estado depender del estado del sistema, del tiempo y de las variables de control ui , i =
1, . . . , m, que forman un vector de control u, m-dimensional. Asumiremos que esas variables de control son
funciones integrables de t. Simplificaremos el problema considerablemente si requerimos que dichos controles
sean continuos.
Definimos U como el conjunto de todas las variables de control admisibles es decir que podemos utilizar en
el sistema, junto con los requerimientos ya mencionados. En algunos problemas podemos restringir los valores
mnimo y mximo de cualquier control que pueda utilizarse; por ejemplo, podemos suponer que el control ui
est acotado entre ai y bi . En ese caso, podemos hacer un cambio lineal en la variable para reemplazar ui por
otra variable vi , definida por
1 1
ui = (ai + bi ) + (ai bi ) vi (4.2)
2 2
de manera que la nueva variable vi sea tambin admisible y verifique la siguiente relacin
1 vi (t) 1 (4.3)
para todo valor del tiempo t. Por tanto el conjunto U de todos los controles admisibles consistir en todas las
funciones integrables de t que o bien son no acotadas o acotadas por los valores extremos 1 y +1.
Dentro del conjunto de los controles acotados, hay un subconjunto importante en el que las variables de
control solamente toman los valores extremos. Cualquier cambio en el valor del control es un cambio inmediato
entre un valor extremo y el otro (funciona como un interruptor). Tales controles se denominan controles de tipo
bang-bang.
La evolucin del sistema comienza a partir de una determinada configuracin en un valor inicial t0 de t. Por
ejemplo
x (t0 ) = x0 (4.4)
donde el estado inicial x0 en el tiempo inicial t0 estn dados por el problema. En algunos casos tambin se
conoce el estado final del sistema
x (t1 ) = x1 (4.5)
Aunque aqu podemos distinguir diferentes casos. Por una parte podemos considerar el tiempo final o
terminal t1 bien fijo o bien libre. Por otra puede conocerse el estado final del sistema o puede ser que dicho
c
SPH
4.1. Introduccin 109
estado est sobre una determinada curva o superficie. Por ejemplo, se puede exigir que x1 (t1 ) tenga un valor
fijo, pero que los otros componentes de x (t1 ) no estn restringidas. En general, la condicin del estado terminal
x1 , es que est dentro de un determinado conjunto objetivo F.
El ingrediente final de este planteamiento general de un problema de control optimal concierne al coste. La
forma ms general para el coste que ser considerado tiene la forma
Zt1
J (x, u) = (x (t1 ) , t1 ) + F (t, x, u) dt (4.6)
t0
Este tipo de funciones recibe el nombre de funcional, puesto que asigna un nico nmero real a un conjunto de
funciones xi (t), uj (t). Este coste tiene 2 partes. La primera llamada coste terminal, que es una penalizacin
respecto al estado final del sistema. Por supuesto, solamente tiene efecto cuando el estado final del sistema no
est prefijado. La segunda parte depende del estado del sistema a lo largo de la trayectoria de la solucin y del
tiempo y, ms importante, de los valores del control empleados en la solucin. Un caso importante y especial,
es cuando F 1, y 0, no hay coste terminal. En este caso el coste J (x, u) es igual al tiempo necesario para
que el sistema pase del estado inicial al final. Tendremos entonces un problema de tiempo ptimo; que tiene
que ser por supuesto, un problema de tiempo terminal no fijo.
Esto completa la lista de ingredientes de un problema de control ptimo y la pregunta que hay que resolver
puede formularse de la siguiente forma. El estado del sistema puede ser conducido desde su posicin inicial
hasta su posicin final mediante la aplicacin de ciertos controles que estn en el conjunto U, mientras que la
evolucin del estado est gobernada por las ecuaciones de estado 4.1. Si no hay controles apropiados, diremos
que el sistema es no controlable desde el estado inicial hasta el conjunto objetivo F, y el problema no tiene
solucin. Si el sistema es controlable habr, en general, muchos controles apropiados y a cada uno de ellos le
corresponde un valor de la funcin de coste J (x, u), determinada por 4.6. El problema del control optimal
consiste en determinar el valor mnimo de J (x, u), el coste optimal, y el valor del vector de control u, para el
que se obtiene ese coste mnimo; en este caso u es el control optimal. Podemos tambin determinar la solucin
correspondiente a las ecuaciones de estado, que dan la trayectoria ptima, as como el valor final del tiempo, el
tiempo optimal, y el estado final, si estos no han sido prefijados.
Junto con la clasificacin de los problemas de control ptimo en continuos y discretos, tambin podemos
hacer una clasificacin segn la variable tiempo t, est o no explcitamente incluida en las ecuaciones de estado,
de esta forma tenemos problemas
1. Autnomos: la ecuacin de estado no depende explcitamente del tiempo: x= f (x, u)
2. No autnomos: La variable t est presente en la ecuacin anterior: x= f (t, x, u)
1. No acotado
2. Acotado
3. Bang-Bang
El tiempo final pude ser fijo o libre, mientras que el estado final del sistema puede ser fijo, completamente
libre, o parcialmente libre, dependiendo de si F es un nico punto de Rn , todo Rn , o algn subconjunto de
Rn . La funcin de coste J (x, u) puede tener o no funcin de coste terminal. Adems del caso especial del
problema de tiempo optimal, hay otro tipo de problemas importantes: si el problema tienen una nica variable
de control u, es decir m = 1, podemos suponer que F es proporcional a |u|, en este caso es un problema de coste
de combustible, puesto que las operaciones de control contribuyen al coste total independientemente del signo.
Un tercer ejemplo particular de problemas aparece cuando F es proporcional a u2 ; en este caso con este coste
cuadrtico, se puede avanzar ms rpidamente hacia la solucin general.
Para ilustrar la descripcin anterior del problema general, daremos a continuacin algunos problemas parti-
culares.
Aunque no estamos en condiciones de extraer la solucin, podemos hacer un intento en la estrategia de
control ptimo y determinar la solucin ptima.
c
SPH
110 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
1. Problemas de tiempo mnimo. Como ya se ha comentado anteriormente, en este caso u (t) tiene que
elegirse para transferir el sistema desde un estado inicial x0 hasta otro en el menor tiempo posible. Esto
es equivalente a minimizar el ndice de rendimiento
Zt1
J = t1 t0 = dt (4.7)
t0
2. Control terminal. En este caso el estado final xf = x (t1 ) tiene que estar lo ms cerca posible de un estado
prefijado r (t1 ). Un ndice adecuado para este tipo de problema es minimizar
donde e (t) = x (t) r (t) y M es una matriz n n simtrica real definida positiva
3. Esfuerzo mnimo. En este caso se pretende alcanzar el estado final utilizando la menor cantidad de energa
o esfuerzo en el control. ndices adecuados para minimizar son
Zt1 X
i |ui | dt (4.9)
t0
o
Zt1
uT Rudt (4.10)
t0
donde R es una matriz real y semidefinida positiva, i y rij son factores de ponderacin.
4. Problema del seguimiento (Tracking problem). El objetivo principal es seguir o perseguir tan cerca como
sea posible un estado deseado r (t) en el intervalo t0 t t1 . En este caso un ndice adecuado podra ser
Zt1
eT Qedt (4.11)
t0
donde Q es real, simtrica y semidefinida positiva. Introducimos el trmino servomecanismo para este
tipo de sistemas, mientras que un regulador es un caso especial cuando r (t) es constante o cero. Si las
funciones ui (t) son no acotadas entonces la minimizacin de 4.11 puede conducir a un vector de control
con componentes infinitas. Este hecho es inaceptable en problemas cotidianos, por tanto, para restringir
el esfuerzo total del control, podemos utilizar una combinacin de 4.10 y 4.11 para obtener
Zt1
T
e Qe + uT Ru dt (4.12)
t0
las expresiones de la forma 4.10, 4.11 y/o ?? se denominan ndices de coste cuadrtico.
c
SPH
4.3. Formulacin hamiltoniana 111
con estado x (t) Rn y control u (t) Rm . Asociaremos a este sistema un ndice de rendimiento del tipo:
Zt1
J (x, u) = (t1 , x (t1 )) + F (t, x (t) , u (t)) dt (4.14)
t0
donde [t0 , t1 ] es el intervalo en el que queremos estudiar el comportamiento del sistema. La funcin peso de
coste terminal (t1 , x (t1 )) R, donde : R Rn R, depende del instante de tiempo final y del estado final
del sistema, mientras que la funcin F (t, x, u) : R Rn Rm R, depende de toda la trayectoria de estados y
de los controles utilizados en el intervalo [t0 , t1 ]. En principio tanto t0 como t1 pueden ser variables.
Zt1
T
Ja (x, u) = (t1 , x (t1 )) + (t1 , x (t1 )) + F (t, x, u) + pT (f (t, x, u) x)
dt (4.16)
t0
Zt1
T
Ja (x, u) = (t1 , x (t1 )) + (t1 , x (t1 )) + H (t, x, u, p) pT x dt (4.18)
t0
c
SPH
112 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
si buscamos extremales para Ja (x, u), entonces podemos aplicar la teora del tema anterior y aplicar las ecua-
ciones de Euler-Lagrange al funcional as definido. Teniendo en cuenta que en este caso es un funcional con
varias variables, habr que aplicar las ecuaciones de Euler-Lagrange a todas ellas
Zt1 Zt1
Ja (x, u) = H (t, x, u, p) pT x dt = G (t, x, u, p, x)
dt
t0 t0
y obtendremos p
G d G H d H
=0 (pk (t)) = 0 pk =
xk dt x k xk dt xk
G d G H d H
=0 (0) = 0 0 =
uk dt u k uk dt uk
G d G H d H
=0 x k (t) (0) = 0 x k (t) =
pk dt pk xk dt pk
Estas ecuaciones osn las condiciones de optimalidad cuando t0 , t1 , x (t0 ) y x (t1 ) son fijos y no hay ni coste
terminal, ni restriccin de estado terminal.
Recordemos que en el caso de que x (t0 ) o x (t1 ) son variables, entonces debera cumplirse adems las
condiciones
G
= 0 pk (tj ) = 0
x k t=tj
En el caso general del problema de control ptimo, donde los elementos t0 , t1 , x (t0 ) y x (t1 ) pueden ser variables
y existen funciones de coste terminal y de estado terminal, las condiciones de contorno son
T
x + Tx p dx (t1 ) + t + Tt + H dt1 = 0
t=t1 t=t1
pT dxt=t0 Hdt|t=t0 = 0
sin embargo puesto que en la mayora de problemas t0 y x (t0 ) son conocidas y fijas los valores dx (t0 ) y dt0 son
ambos cero solamente queda la primera de las ecuaciones anteriores como condicin de contorno.
sujeto a
x (t) = f (t, x (t) , u (t)) t t0 , t0 fijo
(t1 , x (t1 )) = 0
x (t0 ) = x0 , fijo
siendo : R Rn R, : R Rn Rs , es que existan funciones p1 , . . . , pn : [t0 , t1 ] R, 1 , . . . , s R,
cumpliendo las ecuaciones:
1. Ecuacin de Estado
H H
Hx + p = 0 x = = f, t t0 x i = = fi , i = 1, . . . , n (4.19)
p pi
c
SPH
4.4. Ejemplos 113
2. Ecuacin de Co-estado
T
H f F H
Hp x = 0 p = = p t t1 pi = , i = 1, 2, . . . , n (4.20)
x x x xi
3. Condicin de contorno
T
x + Tx p dx (t1 ) + t + Tt + H dt1 = 0 (4.21)
t=t1 t=t1
4. Condicin estacionaria
X fj n
H H F
HuT = 0 =0 = + pj = 0, t0 t t1 , i = 1, . . . , m (4.22)
u ui ui j=1 ui
Las ecuaciones de estado (ecuacin 4.19) y la ecuacin de co-estado (ecuacin 4.20, lamadas tambin ecua-
ciones adjuntas) constituyen un sistema de 2n ecuaciones diferenciales no lineales con condiciones de frontera
x (t0 ) y p (t1 ). En general no es posible alcanzar una solucin analtica de la solucin y hay que utilizar tcnicas
numricas.
La condicin de contorno 4.21 necesita de una aclaracin adicional. Hemos dicho que dx (t1 ) y dt1 no son
independientes. Por tanto, no podemos poner los coeficientes de los dos primeros trminos del miembro de la
derecha en ?? iguales a cero de forma separada. En su lugar, tenemos que poner la expresin 4.21 igual a cero
en t = t1 .
El control ptimo depende de la solucin de un problema de contorno de dos puntos, puesto que x (t0 ) est
dado y p (t1 ) est determinado por 4.21. En general es muy complicado resolver este tipo de problemas.
Realmente el valor de p (t) no es necesario, pero evidentemente su determinacin es un paso intermedio para
encontrar el control optimal u (t), que depende de p (t) a travs de las condiciones estacionarias.
Notar que la derivada del Hamiltoniano respecto al tiempo t, es:
T T
T T T
H = Ht + Hx x +Hu u + p f = Ht + Hu u + Hx + p f (4.24)
De manera que si u (t) es un control ptimo, utilizando las ecuaciones 4.20, 4.22, entonces
H (t, x , u ) = Ht (t, x , u ) (4.25)
Y en el caso de tiempo invariante, donde ni f ni F dependen explcitamente de t, y por tanto tampoco lo har
H, ocurre
H= 0 (4.26)
Por tanto, para sistemas y funciones de coste invariantes en el tiempo, el Hamiltoniano es constantes sobre la
trayectoria y el control ptimos.
4.4 Ejemplos
4.4.1 Crecimiento de plantas
Supongamos que un jardinero tiene un nmero de determinado de plantas y que desea hacerlas crecer hasta
una determinada altura en una fecha determinada. Su tasa natural de crecimiento puede acelerarse utilizando
luz artificial para reducir las horas de obscuridad cuando no hay crecimiento. Despus de una eleccin apropiada
de unidades, podemos modelar este proceso mediante una ecuacin diferencial para la altura x (t) de la planta
en tiempo t, de la forma
dx
=1+u (4.27)
dt
c
SPH
114 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
donde u u (t) mide el exceso de crecimiento producido por la luz artificial. Podemos suponer que la altura
es cero al principio, y que el jardinero quiere una altura de dos unidades despus de que haya transcurrido una
unidad temporal. De esta forma, requerimos
El crecimiento extra producido al utilizar la luz artificial implica un coste financiero, que depende del tamao
del control; una posible funcin de coste podra tener la forma
Z1
1 2
J= u dt (4.29)
2
0
El objetivo es encontrar una variable de control u que produzca una solucin de 4.27 satisfaciendo 4.28 y al
mismo tiempo que minimice el valor de J. Construimos en primer lugar el Hamiltoniano para este problema
1 2
H (t, x, u, p) = u + p (1 + u)
2
La ecuacin de co-estado es:
H
p = =0
x
que tiene como solucin
p (t) = A
donde A es una constante. Aplicando la condicin estacionaria
H
= 0 u + p = 0 u = p = A
u
Las ecuaciones de estado se transforman en
x = 1 + u x = 1 A x = (1 A) t + C
donde las constantes A y C se calculan utilizando la condicin inicial y final impuesta al sistema
x (0) = 0 (1 A) 0 + C = 0 C = 0
x (1) = 2 (1 A) 2 + C = 2 A = 1
y la solucin que cumple las condiciones inicial y final es
x (t) = 2t, A = 1
1
El control ptimo ser por tanto u (t) = 1 para todo t y el coste ptimo es J = , tal y como encontramos
2
por mtodos elementales.
c
SPH
4.4. Ejemplos 115
Un conjunto de ecuaciones que pueda servir para modelar este sistema, en las unidades adecuadas, podra
ser el siguiente:
x = v + u
x (0) = 0 (4.30)
x (t1 ) = 1
junto con la siguiente funcin de coste
Zt1
1 2
J= u dt (4.31)
2
0
que mide la cantidad de energa utilizada en bombear el agua dulce.
La altura del agua por encima del nivel inicial est medida por x (t) . Segn las condiciones iniciales de la
ecuacin 4.30 queremos alcanzar la altura 1 por encima del nivel inicial en el tiempo t1 . La tasa de bombeo
est dada por u (t), mientras que v (t) es la tasa a la que el agua es vaciada. Supongamos por ejemplo que la
funcin v (t) tiene la forma:
v (t) = t.
El Hamiltoniano de este problema tiene la forma
1 2
H= u + p (t + u) (4.32)
2
Consideremos en primer lugar el tiempo final fijo igual a t1 = 1. Las ecuaciones que tienen que cumplir el
control y la trayectoria ptimas son:
H
x = = t + u
p
H (4.33)
p = =0
x
H
=u+p=0
u
En este caso puesto que tanto t1 como x (t1 ) son fijos, dt1 = 0 y dx (t1 ) = 0 y la condicin de contorno 4.21 se
cumple trivialmente.
De la segunda ecuacin de 4.33 obtenemos que
p (t) = A cte.
Mientras que de la tercera ecuacin
u (t) = p (t) = A.
Substituyendo en la primera ecuacin de 4.33 e integrando
1
x = t A = x (t) = t2 At + B
2
las condiciones que deben cumplirse son
x (0) = 0 B = 0
1 3
x (1) = 1 A = 1 A =
2 2
Por tanto la expresin de x (t) y u (t) quedan como
1 3
x (t) = t2 + t
2 2
3
u (t) =
2
c
SPH
116 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
9
El valor del ndice de rendimiento ptimo se obtiene sustituyendo en 4.31 J = .
8
Si ahora consideramos a t1 libre, entonces dt1 6= 0 y la condicin de contorno que se debe cumplir es
T
x + Tx p dx (t1 ) + t + Tt + H dt1 = 0 H (t1 ) = 0
t=t1 t=t1
x (0) = 0 B = 0
1
x (t1 ) = 1 t21 At1 = 1
2
resuelven el problema, puesto que como t1 = 12 A A = 2t1
1 2 2 3 2 2
t1 + 2t1 = 1 t1 = 1 t1 =
2 2 3
2 2
yA= .
3
Y las expresiones de x (t) y u (t) son
1 2 2 2
x (t) = t + t
2 3
2 2
u (t) =
3
y el coste optimal tiene un valor de
Zt1 Z 3
2/ !2
1 2 1 2 2 18 2 4 2
J (u ) = (u ) dt = dt = = = 1, 08866
2 2 3 23 3 3 3
0 0
9
Este coste optimal es menor que el valor de 8 = 1.125 que se obtena cuando fijabamos el tiempo final t1 .
c
SPH
4.4. Ejemplos 117
x (0) b2 A
X (s) = (4.47)
s + a (s + a) (s a)
x (0) b2 A 1 1
= +
s+a 2a s + a s a
utilizando la transformada inversa
b2 A at b2 A
x (t) = x (0) eat e eat = x (0) eat sinh (at) (4.48)
2a a
Para determinar el valor de la constante A distinguiremos, como se ha comentado antes, dos casos: estado
final fijo y estado final libre.
c
SPH
118 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
10aeat
u (t) = bp (t) = bAeat = (4.51)
b sinh at1
el coste ptimo ser por tanto
Zt1 Zt1 2 Zt1
1 2 1 10aeat 1 100a2 25a 2at1
J = [u (t)] dt = dt = e2at dt = e 1
2 2 b sinh at1 2 b2 sinh2 (at1 ) b2 2
sinh (at1 )
0 0 0
para un determinado valor s. Este ndice incluye el gasto de energa utilizada, u (t), pero tambin un coste
terminal que es ms grande cuanto ms lejos de la temperatura buscada est el estado final. El factor s, es el
peso de un sumando frente al otro, por ejemplo, si s es grande, la solucin ptima tendr x (t1 ) cercano a 10o ,
puesto que solamente entonces el primer trmino tendr una pequea contribucin sobre el coste.
De acuerdo con el teorema 4.2, las ecuaciones de estado y co-estado an estn dadas por 4.43 y 4.44, y el
control ptimo por 4.42. Por tanto, 4.45 y 4.48 son vlidas an.
La condicin inicial sigue siendo 4.49, pero ahora la condicin final debe determinarse utilizando las condi-
ciones de contorno 4.21. Como en el caso anterior, estamos suponiendo que el instante de tiempo final t1 es fijo
y por tanto dt1 = 0, de ah que el segundo trmino de 4.21 es automticamente igual que 0. Puesto que ahora
x (t1 ) no est fijado, dx (t1 ) 6= 0 y las condiciones quedan de la siguiente forma:
T
x + x p
T
dx (t1 ) + t + Tt + H dt1 = 0
t=t1 t=t1
T
x + Tx p dx (t1 ) = 0
t=t1
p (t1 ) = 0
x t=t1
c
SPH
4.5. Problemas de tiempo final libre 119
p (t1 ) = = s (x (t1 ) 10) (4.53)
x t=t1
donde adems se ha utilizado que 0.
Para calcular el valor de la constante A, de las ecuaciones 4.48 y 4.45, necesitaremos la condicin inicial
x (0) = 0, junto con la ecuacin anterior y que puede ponerse como
p (t1 )
x (t1 ) = + 10 (4.54)
s
utilizando las expresiones para p (t) (ecuacin 4.45) y x (t) (ecuacin 4.48) obtenemos
b2 A b2 A
x (t1 ) = x (0) eat sinh (at1 ) = sinh (at1 )
a a
p (t1 ) = Aeat1
utilizando 4.54
b2 A Aeat1
sinh (at1 ) = + 10
a s
despejando A
10as
A=
aeat1 + sb2 sinh (at1 )
El estado y co-estado ptimos sern
10sb2
x (t) = sinh (at) (4.55)
aeat1 + sb2 sinh (at1 )
10as
p (t) = Aeat = eat (4.56)
aeat1
+ sb2 sinh (at1 )
Finalmente la ecuacin 4.42 nos proporciona el control ptimo
10abs
u (t) = bp (t) = eat (4.57)
aeat1 + sb2 sinh at1
El estado final en t = t1 es
10sb2 sinh at1
x (t1 ) = (4.58)
aeat1 + sb2 sinh at1
En este caso el valor final de x (t1 ) en 4.58 no es, en general, igual al valor deseado 10, sino que depende
del peso s asignado al estado final en el ndice de coste. Cuando s se hace grande, damos ms importancia al
trmino (x (t1 ) 10) respecto al trmino dado por u2 (t) ; es decir, damos ms importancia a que x (t1 ) est
cerca de 10 que a que u2 (t) sea pequeo en el intervalo [0, t1 ]. De hecho, cuando s , la trayectoria ptima
dada por 4.55, el co-estado ptimo dado por 4.56 y el control ptimo de la ecuacin 4.57 tienden hacia las
expresiones encontradas en el caso anterior cuando x (t1 ) era fijo. En este lmite, el estado final x (t1 ) en 4.58
se hace exactamente igual a 10o .
Concretamente estudiaremos el caso en el que t1 , el tiempo final, es libre y por tanto dt1 6= 0.
Para resolver un problema de control ptimo utilizando las ecuaciones de la tabla 4.2 podemos a menudo
eliminar el control u (t) teniendo en cuenta la condicin estacionaria. Posteriormente, para resolver las ecuaciones
de estado y co-estado, necesitamos las n componentes del estado inicial x (t0 ) y las n condiciones finales. Tambin
hay que encontrar las s componentes del multiplicador y el tiempo final t1 . El coeficiente de dx (t1 ) en 4.59
proporciona n ecuaciones, el coeficiente de dt1 de 4.59 proporciona una ecuacin, y la condicin (t1 , x (t1 )) = 0
proporciona las restantes s ecuaciones necesarias para conseguir la solucin del problema de control ptimo
completamente.
c
SPH
120 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
que aparece cuando estamos interesados en minimizar el tiempo (t1 t0 ) que necesitamos para anular una
determinada funcin del estado final (t1 , x (t1 )) a partir de un estado inicial dado x (t0 ). A partir de este
ndice de coste, el Hamiltoniano es
H (t, x, u) = 1 + pT f (t, x, u) (4.61)
Un caso especial de problema de tiempo ptimo se produce cuando el estado final x (t1 ) es un determinado
valor r (t1 ) conocido, entonces dx (t1 ) = 0. Puesto que en este caso
es independiente de t1 y puesto que (t1 , x (t1 )) = 0 en el problema de tiempo mnimo, la ecuacin 4.59 requiere
que
H (t1 ) = 0 (4.63)
Como H no es una funcin explcita de t, segn podemos comprobar en 4.61, tendr que ocurrir
H (t) = 0 (4.64)
y
t + Tt + H =0 (4.66)
t=t1
Por otra parte si x (t1 ) y t1 son libres, pero dependientes, por ejemplo cuando el estado final x (t1 ) debe caer
sobre una curva c (t), pero por lo dems x (t1 ) y t1 son libres. En este caso
y
dc (t1 )
dx (t1 ) = dt1 (4.68)
dt1
por tanto 4.59 se transforma en (notar que en este caso (t) 0)
dc (t1 )
(x p)T dt1 + (t + H)|t=t1 dt1 = 0 (4.69)
t=t1 dt1
puesto que dt1 6= 0
T dc (t1 )
(x (t1 ) p (t1 )) + t (t1 ) + H (t1 ) = 0 (4.70)
dt1
Por ltimo obtenemos otra clase de problemas de tiempo final libre cuando el estado final debe estar sobre
una superficie (o conjunto destino). Si la superficie est definida por
c
SPH
4.6. Problemas con entradas acotadas 121
entonces 4.65 y 4.66 deben ocurrir independientemente. Si nos centramos en la ltima condicin, podemos
escribir
1 (t1 )
2 (t1 )
(t1 ) = .. =0 (4.72)
.
s (t1 )
Cada componente i (t1 ) = 0 define una hipersuperficie en Rn y se requiere que el estado final est en la
interseccin de esas hipersuperficies, (t1 ) = 0.
Si escribimos 4.65 como
T1 (t1 )
" # 1
x T T
(x (t1 ) p (t1 )) = .. = 1 (t1 ) , , s (t1 ) .
.. (4.73)
. x x
T
s (t1 ) s
x
se observa que el vector (x (t1 ) p (t1 )) debe ser una combinacin lineal de los vectores gradientes i (t1 ) /x.
Este vector debe por tanto ser normal o transversal a la superficie definida por 4.71. Como caso especial, si la
funcin peso final (t1 ) es igual que cero, entonces p (t1 ) debe ser normal a la superficie (t1 ) = 0
Esta condicin 4.65/4.73 sobre el estado final se conoce como condicin de tranversalidad. Si x (t1 ) y dt1
son dependientes (i.e. la superficie est en movimiento) la condicin de transversalidad se parece a 4.70
Puesto que 4.66 es tambin una condicin sobre el co-estado final, tambin a menudo se denomina condicin
de transversalidad.
Zt1
J (x, u) = (t1 , x (t1 )) + F (t, x (t) , u (t)) dt (4.75)
t0
con
H (t, x, u, p) = F (t, x, u) + pT f (t, x, u) (4.78)
En los problemas reales las variables de control estn sujetas a restricciones en sus magnitudes, tpicamente
de la forma |ui (t)| ki . Esto implica que el conjunto de estados finales que puede alcanzarse est restringido.
Nuestro objetivo en este tema es derivar las condiciones necesarias para la optimalidad correspondientes al
teorema 4.2 del tema anterior para el caso no acotado. Un control ser admisible si satisface las restricciones,
y consideraremos aquellas variaciones para las que u + u sea admisible y kuk sea suficientemente pequea,
de manera que el signo de
J = J (u + u) J (u ) = J (u ) + kuk (u)
est determinado por J (u ). Debido a las restricciones en u, no podemos aplicar el teorema ?? y en su lugar
la condicin necesaria para que u minimice el funcional J es
J (u , u) 0 (4.79)
El desarrollo es el mismo que el realizado para el caso anterior; introducimos multiplicadores de Lagrange
para definir Ja en 4.16 y los elegimos de forma que cumplan las ecuaciones 4.19 y 4.20. La nica diferencia es
que la expresin para Ja en ?? se substituye por
Zt1
Ja (u) = [H (t, x, u + u, p) H (t, x, u, p)] dt (4.80)
t0
Y obtenemos por tanto a partir de 4.79 que una condicin necesaria para que u = u sea un control de
mnimo es que Ja (u ) en 4.80 sea no negativo para cualquier valor admisible de u. Este hecho implica que
para cualquier u admisible y cualquier t en t0 t t1 . Es decir cualquier variacin en el control ptimo que
suceda en el instante t mientras que el estado y el co-estado permanecen en sus valores ptimos en t incrementar
el valor del Hamiltoniano. Esta condicin puede escribirse como
La condicin de optimalidad 4.82 se denomina principio del mnimo de Pontryagin: El Hamiltoniano debe
minimizarse sobre todos los controles admisibles u para valores ptimos del estado y el co-estado.
Si la ecuacin 4.81 no se cumple en algn intervalo t2 t t3 , con t3 t2 suficientemente pequeo, entonces
eligiendo u = 0, para t fuera de este intervalo Ja (u ) se hara negativo. La ecuacin 4.81 establece que u
minimiza H, por tanto podemos establecer el siguiente resultado.
Teorema 4.3 (Principio del mnimo de Pontryagin) Las condiciones necesarias para que u minimice el
funcional J (u) descrito por la ecuacin:
Zt1
J (u) = (x (t1 ) , t1 ) + F (t, x, u) dt
t0
sujeto a
x (t) = f (t, x (t) , u (t)) t t0 , t0 fijo
(t1 , x (t1 )) = 0
x (t0 ) = x0 , fijo
siendo : R Rn R, : R Rn Rs , donde u est acotado (|ui (t)| 1, k = 1, . . . , m), es que existan
funciones p1 , . . . , pn : [t0 , t1 ] R, y valores 1 , . . . , s R, cumpliendo las ecuaciones
H
pi = i = 1, 2, . . . , n
xi
c
SPH
4.6. Problemas con entradas acotadas 123
H
xi = = fi , i = 1, . . . , n
pi
T
x + Tx p dx (t1 ) + t + Tt + H dt1 = 0
t=t1 t=t1
donde A Mnn (R), B Mnm (R), x (t) Rn , u (t) Rm , junto con el ndice de coste
Zt1
J (t) = 1dt (4.85)
t0
De acuerdo con el principio del mnimo de Pontryagin 4.83 el control ptimo u (t) debe cumplir
Ahora se puede observar la importancia de tener el estado y el co-estado ptimos a ambos lados de la desigualdad,
para este caso podemos decir que para la optimalidad del control u (t) se tiene que cumplir
T T
(p ) Bu (p ) Bu (4.88)
para cualquier otro control u (t) admisible. Esta condicin permite expresar u (t) en trminos del co-estado.
Discutiremos en primer lugar el caso en el que solamente tenemos una variable de control u (t) u (t).
Para u (t) escalar, si b representa el vector de entrada. En este caso es fcil de elegir u (t) para minimizar
el valor de pT (t) bu (t). Segn la ecuacin 4.88 para este caso el control ptimo u (t) debe cumplir
(p )T bu (p )T bu
c
SPH
124 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
siendo pT (t) b R.
Si pT (t) b es positivo, tendramos que seleccionar u (t) = 1 para obtener el valor negativo ms grande
posible de pT (t) bu (t). Por otra parte, si pT (t) b es negativo, habra que elegir u (t) = 1 par conseguir que
pT (t) bu (t) sea lo ms negativo posible. Si pT (t) b es cero en un instante t, entonces u (t) puede tomar
cualquier valor en ese tiempo puesto que entonces pT (t) bu (t) ser cero para todos los valores de u (t).
Esta relacin entre el control ptimo y el co-estado puede expresarse de una forma sencilla utilizando la
funcin signo: sgn (w), definida como:
1 w>0
sgn (w) = indeterminado w = 0 (4.89)
1 w<0
Entonces el control ptimo para el caso m = 1 est dado por
u (t) = sgn pT (t) b (4.90)
La cantidad pT (t) b se denomina funcin de intercambio. Cuando la funcin de intercambio cambia de signo,
el control cambia de uno de sus valores extremos a otro. Este tipo de control se llama control bang-bang, como
ya definimos en el tema de introduccin.
Si el control es un vector mdimensional, entonces de acuerdo con el principio del mnimo expresado en
4.88, necesitamos elegir u (t) para hacer pT (t) Bu (t) lo ms pequeo posible. Para ello, seleccionamos la
componente ui (t) = 1 si la componente pT (t) bi es negativa, y ui (t) = 1 si pT (t) bi es positiva, donde bi es
la isima columna de B. Esta estrategia de control hace la igualdad
m
X
T
p (t) Bu (t) = pT (t) bi ui (t) (4.91)
i=1
Problema de la posicin
Aplicaremos a continuacin los resultados obtenidos sobre el problema de la posicin presentado y resuelto
mediante mtodos directos en el tema anterior. Recordemos la notacin utilizada all: La variable x1 meda
el desplazamiento del objeto a su posicin deseada; mientras que x2 representaba la velocidad; y u la fuerza
que acta sobre el objeto y que podemos controlar. Queremos controlar el sistema de forma que si inicialmente
el objeto est en reposo a una distancia X del origen, alcance esta posicin en un tiempo t1 que sea mnimo
y queremos adems dejar el objeto tambin en reposo. Por tanto el estado final est dado por x1 (t1 ) = 0 y
x2 (t1 ) = 0. El sistema estaba descrito por las ecuaciones diferenciales:
x1 = x2
(4.94)
x2 = u1
Y como queremos minimizar el tiempo en alcanzar la posicin de reposo en el origen el coste elegido es igual al
tiempo t1 transcurrido hasta alcanzar el objetivo y por tanto es:
Zt1
J= 1dt (4.95)
0
c
SPH
4.6. Problemas con entradas acotadas 125
valor entre sus valores extremos cuando p2 (t) pasa por cero. Puesto que p2 (t) = At + B es una funcin lineal
de t, es decir, una recta, pueden darse los siguientes casos:
Caso 1) p2 (t) > 0 t [0, t1 ] u (t) = 1 t [0, t1 ]
>0 t [0, t2 ] 1 t [0, t2 ]
Caso 3) p2 (t) = u (t) =
<0 t [t2 , t1 ] 1 t [t2 , t1 ]
>0 t [0, t2 ] 1 t [0, t2 ]
Caso 4) p2 (t) = u (t) =
<0 t [t2 , t1 ] 1 t [t2 , t1 ]
c
SPH
126 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
Habra que estudiar los 4 casos y decidir cul de ellos es el consigue el objetivo de situar el objeto en reposo en
el origen y que adems lo hace en el mnimo tiempo. Suponiendo que X > 0, veremos que el nico caso posible
es el Caso 3) anterior.
Veamos que el caso 1) no puede darse: suponemos para ello que p2 (t) > 0 en todo el intervalo [0, t1 ], en ese
caso podemos simplificar p2 (t) en la ecuacin 4.102 sin que cambie el sentido de la desigualdad y tendremos
u u
para cualquier u admisible. Este objetivo se conseguir cuando tomemos u (t) = 1, para todo t [0, t1 ],
puesto que |u (t)| 1.
Si utilizamos este resultado en las ecuaciones de estado (ecuacin 4.94), tendremos
x1 = x2
x2 = 1
x2 (t) = t + C
t2
x1 (t) = + Ct + D
2
Los valores de las constantes C y D, que caracterizan x1 (t) y x2 (t) , se obtienen utilizando las condiciones de
contorno dadas por 4.96. Si utilizamos las condiciones iniciales
x1 (0) = X X = C
x2 (0) = 0 D = 0
x2 (t) = t
t2
x1 (t) = +X
2
Aplicando ahora las condiciones finales
x1 (t1 ) = 0 t1 = 0
t21
x2 (t1 ) = 0 +X =0X =0
2
luego el problema solamente tendr solucin si X = 0, es decir, si ya estamos en el origen de coordenadas en el
instante inicial. Como este no es el caso, ya que estamos suponiendo X > 0, llegaramos a una contradiccin,
que aparece porque hemos supuesto que p2 (t) > 0 en [0, t1 ].
Consideremos ahora el caso 3). Existe un tiempo intermedio t2 en el cual ocurre un cambio de signo para
p2 (t), que pasa de positivo a negativo. Estudiaremos el problema para los dos subintervalos [0, t2 ] y [t2 , t1 ].
1. Intervalo I1 = [0, t2 ]
En este intervalo el co-estado ptimo p2 (t) es positivo, por tanto, utilizando la ecuacin 4.102 y simplifi-
cando p2 (t), el valor de u es
u (t) = 1 t [0, t2 ]
c
SPH
4.6. Problemas con entradas acotadas 127
y las soluciones generales para las variables de estado x1 (t) y x2 (t) seran la mismas que para el caso
anterior
t2
x11 (t) = + Ct + D
2
x12 (t) = t + C
donde el superndice 1, indica que la solucin se obtiene para el intervalo I1 .
En ese intervalo se aplican las condiciones de contorno para el estado inicial
x11 (0) = X D = X
x12 (0) = 0 C = 0
y las expresiones para los estados ptimos en I1 son
t2
x11 (t) = +X
2
x12 (t) = t
2. Intervalo I2 = [t2 , t1 ]
En este intervalo el co-estado ptimo p2 (t) es negativo y por tanto utilizando de nuevo la ecuacin 4.102,
teniendo en cuenta que la simplificacin de p2 (t) implica un cambio en el sentido de la desigualdad
tendremos
u u
para cualquier control admisible, que se obtiene tomando u como
u (t) = 1 t [t2 , t1 ]
En este caso el sistema formado por las ecuaciones de estado ser
x1 = x2
x2 = 1
cuya solucin se obtiene tambin directamente como
t2
x21 (t) = + Et + F
2
x22 (t) = t + E
donde el superndice indica que estamos en I2 .
En ese intervalo se aplican las condiciones de contorno para el estado final
t21
x21 (t1 ) = 0 + Et1 + F = 0
2
x22 (t1 ) = 0 t1 + E = 0
que es un sistema con 2 ecuaciones y 3 incgnitas. Para encontrar otra ecuacin que nos permita resolver
el problema, supondremos continuidad en las soluciones en el instante de cambio t2 , es decir
t22 t2
x11 (t2 ) = x21 (t2 ) + X = 2 + Et2 + F
2 2
c
SPH
128 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
t21
+ Et1 + F = 0 (4.103)
2
t1 + E = 0 (4.104)
2t2 + E = 0 (4.106)
p2 (t1 ) = 1 At1 + B = 1
p2 (t2 ) = 0 At2 + B = 0
1 1 1 2
A = = = =
t1 t2 t1 t1 /2 t1 /2 t1
t2
B = =1
t1 t2
Zt1 X
m
J (u) = i |ui (t)| dt (4.108)
t0 i=1
c
SPH
4.6. Problemas con entradas acotadas 129
donde se permite la posibilidad de penalizar de forma diferente el combustible quemado en cada una de las m
componentes ui (t) de u (t) utilizando un escalar i > 0 como peso. Si se define el vector valor absoluto como
|u1 |
|u| = ... (4.109)
|um |
T
y el vector = [ 1 , 2 , . . . , m ] tenemos
Zt1
J (u) = T |u (t)| dt (4.110)
t0
(p )T bj uj (p )T bj uj
uj + |uj | + (4.116)
j j
donde bj denota la jsima columna de B. Debemos ahora demostrar cmo seleccionar las componentes del
T
control uj (t) a partir de (p ) bj
Puesto que
uj si uj 0
|uj | = (4.117)
uj si uj 0
podemos escribir la cantidad que estamos tratando de minimizar como
!
bTj p
1+ uj uj 0
bTj puj j
M
qj (t) = |uj | + = ! (4.118)
j
bTj p
1 + uj uj 0
j
c
SPH
130 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
Para minimizar qj (t) de forma que 4.116 se cumpla, tendremos que seleccionar valores para uj (t) correspon-
dientes al lmite inferior de la regin sombreada de la figura. Sin embargo, si bTj p/ j = 1, entonces cualquier
valor no positivo de uj (t) har qj (t) = 0. Por otra parte, si bTj p/ j = 1, entonces cualquier valor no-negativo
para ui (t) har que qi (t) = 0. Analticamente, al minimizar la funcin qj (t) tendremos lo siguientes casos:
1. Caso I)
1 + bTj p/ j < 0 1 + bTj p/ j uj 0 uj 0
bTj p/ j < 1 qj (t) =
1 + bTj p/ j < 0 1 + bTj p/ j uj 0 uj 0
2. Caso II)
0 < 1 + bTj p/ j 1 + bTj p/ j uj 0 uj 0
1 < bTj p/ j < 1 qj (t) =
1 + bTj p/ j < 0 1 + bTj p/ j uj 0 uj 0
3. Caso III)
1 + bTj p/ j > 0 1 + bTj p/ j uj 0 uj 0
bTj p/ j > 1 qj (t) =
1 + bTj p/ j > 0 1 + bTj p/ j uj 0 uj 0
4. caso IV)
1 + bTj p/ j = 0 0 uj 0
bTj p/ j = 1 qj (t) =
1 + bTj p/ j = 2 2uj 0 uj 0
y por tanto el mnimo de qj (t) se alcanza para cualquier valor uj 0.
5. caso V)
1 + bTj p/ j = 2 2uj uj 0
bTj p/ j = 1 qj (t) =
1 + bTj p/ j = 0 0 uj 0
y por tanto el mnimo de qj (t) se alcanza para cualquier valor uj 0.
Por tanto la ley del control de mnimo combustible expresada en trminos de las variables de co-estado es
bTj p
1 < 1
j
bTj p
no negativo = 1
j
bTj p
uj (t) = 0 1 < <1 (4.119)
j
bTj p
no positivo =1
j
bTj p
1 1<
j
c
SPH
4.6. Problemas con entradas acotadas 131
Puesto que cada componente de u (t) es saturada o igual que cero, diremos que esta es una ley de control
bang-o-bang.
bT p (t)
Si i es igual a 1 o 1 sobre un intervalo de tiempo finito no nulo, entonces el principio del mnimo
ci
bT p (t)
no define la componente ui (t). Este es llamado un intervalo singular. Si i es igual que 1 o 1 solo en
ci
un nmero finito de instantes de tiempo aislados t, el problema del mnimo combustible, se dice normal.
donde k es una constante positiva. Ahora tenemos dos componentes para el coste, una dependiente del tiempo
y otra del combustible empleado. La constante k mide la importancia relativa entre las dos componentes. De
nuevo y sin prdida de generalidad, asumiremos que el objeto se encuentra en reposo en el instante inicial y a
una distancia X del origen y que supondremos, sin prdida de generalidad, que es positiva. El fin del problema
es situar el objeto en reposo en el origen en un tiempo t1 minimizando el ndice dado por 4.122. Con estas
hiptesis las condiciones de contorno inicial y final son:
x1 (0) = X > 0
x2 (0) = 0
(4.123)
x1 (t1 ) = 0
x2 (t1 ) = 0
c
SPH
132 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
H
p1 = = (0)
x1
H
p2 = = (p1 )
p2
Para este sistema la funcin de coste terminal y la funcin de estado final son
0
x1 (t)
(t, x (t)) =
x2 (t)
Como el tiempo final t1 es libre, pero el estado final x (t1 ) es fijo la ecuacin de las condiciones de contorno
nos proporciona la ecuacin:
H (t1 ) = 0 k + |u (t1 )| + p1 (t1 ) x2 (t1 ) + p2 (t1 ) u (t1 ) = 0 k + |u (t1 )| + p2 (t1 ) u (t1 ) = 0 (4.125)
p1 = A
(4.126)
p2 = B At
La diferencia respecto al problema de tiempo mnimo sin ahorro de combustible (control bang-bang) aparece
cuando aplicamos el principio del mnimo
k + |u | + p1 x2 + p2 u k + |u| + p1 x2 + p2 u
que se reduce a
|u | + p2 u |u| + p2 u
Y tendremos que elegir u , entre 1 y 1, que minimice la cantidad
(p2 + 1) u u0
q (t) = p2 u + |u| =
(p2 1) u u0
c
SPH
4.6. Problemas con entradas acotadas 133
Para los casos en que p2 = 1 o p2 = 1, el valor del control ptimo u est indeterminado, siendo no negativo
en el primer caso y no positivo en el segundo. Combinando esos resultados, deducimos que la variable de control
est dada por
+1 p2 < 1
u = 0 1 < p2 < +1 (4.127)
1 p2 < 1
En el control bang-bang, cuando la funcin de coste solamente depende del tiempo final, el control cambiaba
entre los valores extremos 1 y +1. Sin embargo, ahora hay tres posibles valores para el control, los valores
extremos y donde el control se apaga. Con una funcin de coste que depende de la magnitud de u, es claramente
ventajoso poner u = 0 cada vez que esto sea posible, pero est claro que el control debe emplearse durante
cierto tiempo, de lo contrario el objeto permanecera en reposo.
De nuevo la variable de co-estado p2 (t), que es la que sirve para la eleccin del control ptimo, es una funcin
lineal de t, por lo que se pueden dar los siguientes casos:
que corresponden con las diferentes posiciones que puede tomar la recta dentro del intervalo [0, t1 ].
Con el objetivo de simplificar el problema y como en cualquier caso el control ptimo es un valor que no
depende del tiempo, vamos a obtene la solucin general del sistema
x1 = x2
c
SPH
134 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
x2 =
donde el valor de puede ser 1, 0 o 1, segn el caso, de entre los anteriores nueve, que estemos tratando.
Integrando el sistema obtenemos
t2
x1 = + t +
2
(4.129)
x2 (t) = t +
t2
x1 (t) = + t +
2
x2 (t) = t +
x2 (0) = 0 = 0
t21
x1 (t1 ) = + t1 + = 0 t21 = 2
2
x2 (t1 ) = t1 + = 0 t1 = 0
y por tanto no es una solucin vlida ya que estamos exigiendo que
0 = t1 = X > 0
y solamente habra solucin si X = 0, y en ese caso no hace falta aplicar ningn control puesto que ya se dan
las condiciones finales del problema.
Como se ha comentado antes el resto de casos, salvo el nmero 7, se puede descartar de la misma manera.
En el caso 7, la secuencia de controles es {1, 0, 1}, que se emplean en los intervalos [0, t2 ], [t2 , t3 ] y [t3 , t1 ]
respectivamente. Si estamos en un punto X > 0, situado a la derecha del origen, aplicamos un control en
c
SPH
4.6. Problemas con entradas acotadas 135
sentido contrario (u = 1) para iniciar el movimiento hacia el origen, despus se apagan los controles para
ahorrar combustible y aprovechar la inercia de movimiento, y despus se emplea un control en sentido positivo,
contrario al movimiento (u = 1) para dejar al objeto en reposo en el origen. La solucin se da a continuacin.
Existen 2 tiempos intermedios t2 y t3 en los cuales ocurren los cambios en el valor de u . Estudiamos el
problema para los 3 subintervalos [0, t2 ] , [t2 , t3 ] y [t3 , t1 ]
1. Intervalo I1 = [0, t2 ]
En este intervalo u = = 1 y las soluciones generales para las variables de estado x1 (t) y x2 (t) seran
t2
x11 (t) = + 1t + 1
2
x12 (t) = t + 1
donde el superndice en las variables de estado 1 indica que la solucin se obtiene para el intervalo I1 .
En ese intervalo se aplican las condiciones de contorno para el estado inicial
x11 (0) = X 1 = X
x12 (0) = 0 1 = 0
t2
x11 (t) = +X
2
x12 (t) = t
2. Intervalo I2 = [t2 , t3 ]
En este intervalo u = = 0 y las soluciones generales para las variables de estado x1 (t) y x2 (t) en este
intervalo seran
x21 (t) = 2 t + 2
x22 (t) = 2
donde el superndice en las xj (t) indica que son la solucin para el intervalo I2 .
3. Intervalo I3 = [t3 , t1 ]
En este intervalo u = = 1 y las soluciones generales para las variables de estado x1 (t) y x2 (t) estn
ahora definidas por
t2
x31 (t) = + 3t + 3
2
x32 (t) = t + 3
t21
x31 (t1 ) = 0 + 3 t1 + 3 = 0
2
(4.130)
x12 (t1 ) = 0 t1 + 3 = 0
c
SPH
136 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
t22
x11 (t2 ) = x21 (t2 ) + X = 2 t2 + 2
2
t23
x21 (t3 ) = x31 (t3 ) 2 t3 + 2 = + 3 t3 + 3
2
Estas cuatro ecuaciones junto con las dadas en 4.130 forman un sistema de 6 ecuaciones y 7 incgnitas. Para
encontrar la ecuacin que falta haremos uso de la condicin de contorno dada en 4.125, teniendo en cuenta que
en t1 , u (t1 ) = 1
k + |u (t1 )| + p2 (t1 ) u (t1 ) = 0 k + 1 + p2 (t1 ) = 0
At1 + B + k + 1 = 0
ecuacin que aporta 2 incgnitas ms A y B. Tenemos por tanto 7 ecuaciones y 9 incgnitas. Las dos ecuaciones
que faltan las proporciona el hecho de que en t2 y t3 la funcin p2 (t) pasa de ser mayor que 1 a ser menor en
t2 , mientras que en t3 pasa de ser mayor que 1 a ser menor. Por tanto como p2 (t) es lineal debe ocurrir:
p2 (t2 ) = 1 At2 + B = 1
p2 (t3 ) = 1 At3 + B = 1
t21
+ 3 t1 + 3 = 0 (S1-1)
2
t1 + 3 = 0 (S1-2)
t22
+ X 2 t2 2 = 0 (S1-3)
2
t2 + 2 = 0 (S1-4)
t23
2 t3 + 2 3 t3 3 = 0 (S1-5)
2
2 t3 3 = 0 (S1-6)
At1 + B + k + 1 = 0 (S1-7)
At2 + B 1 = 0 (S1-8)
At3 + B + 1 = 0 (S1-9)
c
SPH
4.6. Problemas con entradas acotadas 137
sistema
t21
+ 3 = 0 (S2-1)
2
t22
+ X 2 = 0 (S2-3)
2
t23
t2 t3 + 2 + t1 t3 3 = 0 (S2-5)
2
t2 t3 + t1 = 0 (S2-6)
At1 + B + k + 1 = 0 (S2-7)
At2 + B 1 = 0 (S2-8)
At3 + B + 1 = 0 (S2-9)
De (S2-1) y (S2-3) obtenemos
t21
3 =
2
t22
2 = +X
2
y se construye el nuevo sistema con 2 incgnitas menos
t22 t2 t2
t2 t3 + + X 3 + t1 t3 1 = 0 (S3-5)
2 2 2
t2 t3 + t1 = 0 (S3-6)
At1 + B + k + 1 = 0 (S3-7)
At2 + B 1 = 0 (S3-8)
At3 + B + 1 = 0 (S3-9)
Utilizando las ecuaciones (S3-8) y (S3-9) podemos expresar las incgnitas A y B en trminos de t2 y t3
2
A =
t3 t2
t3 + t2
B =
t3 t2
que sustituido en (S3-7) nos conduce al sistema de 3 ecuaciones y 3 incgnitas
t22 t2 t2
t2 t3 + + X 3 + t1 t3 1 = 0 (S4-5)
2 2 2
t2 t3 + t1 = 0 (S4-6)
2 t3 + t2
t1 + +k+1=0 (S4-7)
t3 t2 t3 t2
Ahora de (S4-6)
t3 = (t1 t2 )
c
SPH
138 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
t1
+ k + 1 = 0 (S5-7)
(2t2 t1 )
A partir de (S5-7) obtenemos el valor para t2 en trminos del tiempo final t1
kt1
t2 =
2 (k + 1)
que sustituido en (S5-5) nos porporciona una ecuacin de segundo grado en t1
2
kt1 kt1 4 (k + 1) X
t1 + X = 0 t21 =
2 (k + 1) 2 (k + 1) k (k + 2)
Como t1 0, nos quedamos con la raz positiva
s
4 (k + 1)2 X
t1 =
k (k + 2)
y utilizando las ecuaciones anteriores determinamos el valor del resto de incgnitas:
s s
k k 4 (k + 1)2 X kX
t2 = t1 = =
2 (k + 1) 2 (k + 1) k (k + 2) (k + 2)
r
k k (k + 2) X
t3 = t1 t2 = t1 t1 = 1 t1 =
2 (k + 1) 2 (k + 1) k
r
2 k (k + 2)
A= =
t3 t2 X
t3 + t2
B= =k+1
t3 t2
s
kX
2 = t2 =
(k + 2)
s
2
4 (k + 1) X
3 = t1 =
k (k + 2)
t22 X (3k + 4)
2 = +X =
2 2 (k + 2)
2
t21 2 (k + 1) X
3 = =
2 k (k + 2)
El ndice de rendimiento ptimo, teniendo en cuenta los valores de u en los intervalos [0, t2 ], [t2 , t3 ] y [t3 , t1 ]
se obtiene como
Zt1 Zt2 Zt3 Zt1
J (x , u ) = k + |u | dt = (k + 1) dt + (k + 0) dt + (k + 1) dt =
0 0 t2 t3
k (k + 2) p
= t1 = 4Xk (k + 2)
(k + 1)
c
SPH
4.6. Problemas con entradas acotadas 139
Notar que si hacemos k , la parte temporal de la integral se hace ms importante y el coste depende
principalmente del tiempop transcurrido en alcanzar el objetivo y en menor cantidad en el combustible gastado,
el intervalo t3 t2 = 4X/ (k (k + 1)), durante el que el motor est parado es muy corto y en ese caso t1
se aproxima al valor obtenido para el problema de la posicin sin coste de combustible resuelto en la seccin
anterior.
Si por el contrario k es pequeo el ahorro de combustible es la consideracin dominante. En el lmite cuando
k 0, entonces t1 y no habra solucin al problema, puesto que necesitamos un tiempo infinito para
alcanzar el objetivo. Si hubiramos intentado resolver el problema directamente con k = 0, entonces habramos
encontrado que el tiempo de intercambio t2 = 0, por tanto tedramos que haber comenzado con los motores
apagados. Puesto que esto implica que permanecemos en la posicin para siempre, no hay solucin ptima,
aunque podamos hacer un coste arbitrariamente pequeo. Si encendemos los2 motores
por un periodo corto
de tiempo , con u = 1, alcanzaramos la posicin x11 ( ) , x12 ( ) = + X, , entonces podemos
2 2
apagar los motores y deslizarnos en punto muerto con velocidad constante hasta alcanzar la posicin
2
respecto al origen, es decir, recorriendo una distancia igual a X 2 ; por ltimo utilizamos u = 1 durante el
resto del tiempo para alcanzar el origen. El tiempo total utilizado es
X 2 X
+ + = +
siendo el coste para esta operacin (k = 0)
+(X 2 )/ X
+
Zt1 Z Z Z
J (x, u) = |u | dt = 1dt + 0dt + 1dt =
0 0 +(X 2 )/
= + = 2
Puesto que es arbitrario, el coste puede hacerse suficientemente pequeo, aunque el tiempo transcurrido es
entonces arbitrariamente grande.
c
SPH
140 Captulo 4. Control ptimo de Sistemas en tiempo Continuo
c
SPH
Captulo 5
En este captulo se obtendr la solucin general para problemas de optimizacin para sistemas en tiempo
discreto, que se aplica en particular a sistemas lineales con ndice de coste cuadrtico.
junto con la condicin inicial x0 . El superndice de la funcin f indica que puede depender del tiempo. Supon-
gamos que el estado del sistema xk es un vector ndimensional y que el control uk es un vector mdimensional.
Puesto que 5.1 determina el estado del sistema en el tiempo k + 1 conociendo el control y el estado en tiempo
k, esta ser nuestra restriccin de estado. Obviamente, f k Rn .
Si consideramos el ndice de rendimiento asociado dado por la forma general
N
X 1
J (x, u) = (N, xN ) + Lk (xk , uk ) (5.2)
k=0
donde [0, N ] es el intervalo de tiempo en el que queremos estudiar el comportamiento del sistema, (N, xN )
es la funcin de coste terminal que depende del instante final N y del estado del sistema en ese instante xN ,
y Lk (xk , uk ) es una funcin que en general depende del tiempo, del estado y del control en cada instante de
tiempo intermedio k en [0, N ]. El problema del control ptimo en tiempo discreto ser entonces, encontrar el
control ptimo uk en el intervalo [0, N ] que lleva el sistema 5.1 a lo largo de una trayectoria ptima xk de forma
que sea mnimo el ndice de rendimiento 5.2.
Esta claro que la ecuacin 5.1 describe el comportamiento del sistema, mientras que el ndice de rendimiento
dado por 5.2 sirve para elegir la respuesta del sistema adecuada. Para alcanzar diferentes objetivos es necesaria
la eleccin de diferentes ndices de rendimiento.
5.1.1 Introduccin
Para aclarar el problema de formulacin, es importante indicar algunos ndices de rendimiento comunes que
pueden seleccionarse para el sistema 5.1.
141
142 Captulo 5. Control ptimo de sistemas discretos
y la condicin de contorno
xN = xf (5.4)
En este caso = N y L = 0, o equivalentemente = 0 y L = 1
puesto que el combustible utilizado es proporcional a la magnitud del vector control. Entonces = 0 y Lk = |uk |.
Las condiciones de contorno son de nuevo xN = xf
Problemas de Energa-Mnima
Supongamos que queremos encontrar uk para minimizar la energa del estado final y todos los estados
intermedios, y tambin del control utilizado para alcanzar este estado final. Sea el instante de tiempo final N,
de nuevo fijo. Entonces podramos utilizar como ndice de rendimiento
N 1
1 T 1 X T
J = sxN xN + qxk xk + ruTk uk (5.6)
2 2
k=0
1 1 T
donde q, r y s son factores peso. Entonces = sxTN xN , y L = qxk xk + ruTk uk que son funciones
2 2
cuadrticas.
Minimizar la energa corresponde en cierto sentido a dejar el estado y el control cerca del cero. Si fuera
ms importante para nosotros que los estados intermedios sean pequeos, entonces debemos elegir q grande,
mientras que si es ms importante que la energa empleada en el control sea pequea, entonces hay que hacer
grande el valor de r. Si por el contrario queremos que el estado final sea pequeo, entonces, s debera ser grande.
c
SPH
5.1. Solucin del problema de optimizacin discreta general 143
o de otra forma
Xh
N1 i
Ja (x, u) = (N, xN ) TN1 xN + H 0 (x0 , u0 ) + H k (xk , uk ) Tk1 xk (5.9)
k=1
N
X N1
X dJa N
X 1
dJa dJa
dJa = dxk + duk + dk =
dxk duk dk
k=0 k=0 k=0
N
X 1 T
0 T T
= Hx0 dx0 + Hxkk Tk1 dxk + xN N 1 dxN + (co216)
k=1
N1
X k T
Huk duk +
k=0
N1
X k T
Hk xk+1 dk
k=0
donde
H k H k H k
Hxkk = ; Hukk = ; Hkk =
xk uk k
De esta manera las condiciones necesarias para un mnimo con restricciones estn dadas por
H k
xk+1 = k = 0, . . . , N 1
k
H k H k+1
k1 = k = 1, . . . , N 1 k = , k = 0, . . . , N 2
xk xk+1
H k
0= k = 0, . . . , N 1 (5.10)
uk
T
N 1 dxN = 0
xN
T
H 0
dx0 = 0
x0
c
SPH
144 Captulo 5. Control ptimo de sistemas discretos
Si utilizamos la relacin 5.1, podremos expresar las ecuaciones anteriores en trminos de la funcin f k
Modelo del sistema:
xk+1 = f k (xk , uk )
ndice de rendimiento:
PN 1
J (x, u) = (N, xN ) + k=0 Lk (xk , uk )
Hamiltoniano
H k (xk , uk ) = Lk (xk , uk ) + Tk f k (xk , uk ) k = 0, . . . , N 1
Ecuacin de Estado
H k
xk+1 = = f k (xk , uk ) k = 0, . . . , N 1
k
Ecuacin de Co-estado
T
H k+1 Lk+1 f k+1
k = = + k+1 k = 0, . . . , N 2
xk+1 xk+1 xk+1
Condicin Estacionaria
T
H k Lk f k
0= =0= + k k = 0, . . . , N 1
uk uk uk
Condiciones de Contorno
T
0= N1 dxN
xN
T T !T
H 0 L0 f 0
0= dx0 = + 0 dx0
x0 x0 x0
Se hace notar que la ecuacin de estado es la propia ecuacin del sistema y es una ecuacin recursiva hacia
adelante en el tiempo. Mientras que la ecuacin de co-estado es una ecuacin recursiva hacia atrs en el tiempo.
De este modo los multiplicadores de Lagrange (que son artificiales) son varaibles determinadas por su propia
ecuacin dinmica. Como se ha comentado anteriormente se denomina ecuacin de co-estado del sistema y
describe el llamado sistema adjunto. Las ecuaciones de estado y co-estado son un sistema de cuaciones en
diferencias acoplado y definen un problema de valor de frontera de dos puntos, puesto que las condiciones de
contorno son el estado inicial x0 y el co-estado final N 1 . Este tipo de problemas es en general, muy difcil
de resolver.
La condicin estacionaria permite expresar al control ptimo uk en trminos del co-estado. Los valores de
k solamente nos interesan como valores intermedios para encontrar los controles ptimos.
Las condiciones de contorno son necesarias para poder resolver las ecuaciones recurrentes de estado y co-
estado. Podemos distinguir dos posibles casos para cada una de esas ecuaciones: que los estados inicial y final
sean fijos o variables.
Si el estado inicial x0 es fijo, entonces trivialmente dx0 = 0, y la ecuacin se cumple independientemente del
H 0
valor de , y en este caso la condicin de contorno se convierte en
x0
x0 = cte.
Si el estado inicial x0 es libre, entonces dx0 no es cero, y por tanto la condicin de contorno exige que
H 0
=0
x0
Generalmente el estado inicial del sistema es conocido y por tanto dx0 = 0, y no habr ninguna restriccin
H 0
sobre = 0, por tanto podemos prescindir de esta condicin de contorno.
x0
c
SPH
5.1. Solucin del problema de optimizacin discreta general 145
Las mismas dos posibilidades se pueden dar para el estado final xN , del sistema: estado final fijo y estado
final libre.
Si xN es fijo, entonces de nuevo dxN = 0, y la ecuacin de contorno correspondiente se cumple trivialmente.
En este caso la condicin de contorno que se utiliza para resolver las ecuaciones es
xN = xf
con r R.
Estudiaremos dos casos: estado final fijo y libre.
xN = rN
Para encontrar la sucesin de controles ptimos, u0 , . . . , uN1 , que conducen el sistema desde el estado inicial
x0 hasta el estado final xN = rN y minimizan J0 , utilizaremos las ecuaciones de la seccin anterior.
Calculamos en primer lugar el Hamiltoniano en cada instante, introduciendo las variables de co-estado k
r 2
H k = Lk + Tk f k = u + k (axk + buk ) k = 0, . . . , N 1
2 k
y utilizando las condiciones correspondientes:
Ecuacin de Estado
H k
xk+1 = = axk + buk k = 0, . . . , N 1
k
Ecuacin de Co-estado
H k+1
k = = ak+1 k = 0, . . . , N 2
xk+1
Condicin Estacionaria
H k
0= = ruk + bk k = 0, . . . , N 1
uk
Utilizando la condicin estacionaria podemos expresar el control en trminos de la variable de co-estado
b
uk = k k = 0, . . . , N 1
r
c
SPH
146 Captulo 5. Control ptimo de sistemas discretos
de este modo si encontramos el valor del co-estado ptimo k podremos calcular el valor del control ptimo uk .
Para encontrar este valor, sustituimos uk en la ecuacin de estado:
b2
xk+1 = axk + buk = axk k
r
y por otra parte resolvemos la ecuacin de co-estado que es una ecuacin en diferencias homognea cuya solucin
en trminos de 0 es:
2 k+1
1 1 1
k = ak+1 k+1 = k = k1 = = 0 k = 0, . . . , N 2
a a a
o bien k
1
k = 0 k = 1, . . . , N 1
a
si sustituimos en la ecuacin de estado
k
b2 1
xk+1 = axk 0
r a
b2 0
=
r
por lo que la ecuacin anterior se puede expresar como
xk+1 = axk ak
que es una ecuacin en diferencias no homogenea cuya solucin se puede obtener facilmente en trminos de x0
xk = axk1 a(k1)
xk = a axk2 a(k2) a(k1) xk = a2 xk2 ak a3 + a
xk1 = axk2 a(k2)
xk = a2 xk2 ak+1 a2 + a0
y recursivamente obtenemos
xk = ak x0 ak+1 a2(k1) + + a2 + a0 =
Otra forma de resolver la ecuacin recursiva en xk es utilizar la forma general para ecuaciones en diferencias
con coeficientes constantes, es decir, obtendremos la solucin general de la ecuacin en diferencias sumando la
solucin de la ecuacin homognea y una solucin particular de la ecuacin. La ecuacin homognea es
xhk = Cak
c
SPH
5.1. Solucin del problema de optimizacin discreta general 147
donde C es constante. Para encontrar ahora una solucin particular de la ecuacin, probamos con soluciones
del tipo
xpk = ak
y sustituyendo en la ecuacin
x0 = x0
xN = rN
donde
b2 1 a2N N +1
= a
r (1 a2 )
y despejando 0 N
a x0 rN
0 =
Podemos ahora calcular los valores para las variables de co-estado en cada instante k
k N
1 a x0 rN
k = 0 =
a ak
y el control ptimo
b b aN x0 rN b rN aN x0 k
uk = k = = a
r r ak r
c
SPH
148 Captulo 5. Control ptimo de sistemas discretos
de esta forma el objetivo ser minimizar la energa (indicada en el sumatorio) a la misma vez que se intenta
acercar xN a rN lo mximo posible.
En este caso hay funcin de coste terminal
1 2
(N, xN ) = (xN rN )
2
sin embargo las funciones f k y Lk del problema no cambian y por tanto el Hamiltoniano sigue siendo el mismo
que para el estado final fijo visto en la seccin anterior. De esta forma las ecuaciones de estado, co-estado y
estacionarias siguen siendo las mismas:
Ecuacin de Estado
H k
xk+1 = = axk + buk k = 0, . . . , N 1
k
Ecuacin de Co-estado
H k+1
k = = ak+1 k = 0, . . . , N 2
xk+1
Condicin Estacionaria
H k
0= = ruk + bk k = 0, . . . , N 1
uk
c
SPH
5.1. Solucin del problema de optimizacin discreta general 149
Las soluciones para el sistema anterior sern pues la mismas que para el caso de tiempo final fijo salvo que
ahora cambian las condiciones de contorno. Recordemos que las soluciones de las ecuaciones en diferencias eran:
k b2 1 a2k
xk = a x0 0 ak+1 k = 0, . . . , N
r 1 a2
k
1
k = 0 k = 1, . . . , N 1
a
k
b 1
uk = 0 k = 0, . . . , N 1
r a
En este caso el valor de 0 no puede obtenerse a partir de la condicin final, puesto que xN no es conocido.
Tendremos que hacer uso de las condiciones de contorno.
Puesto que ahora xN no es fijo, ocurrir dxN 6= 0, y por tanto de acuerdo con las ecuaciones generales
T T
0= N 1 dxN N 1 = 0 N 1 =
xN xN xN
y el co-estado final est ahora relacionado con el estado final xN y el estado deseado rN .
De la expresin de xk y haciendo k = N , obtenemos
N b2 1 a2N
xN = a x0 0 aN+1
r 1 a2
c
SPH
150 Captulo 5. Control ptimo de sistemas discretos
Notar que el coste ptimo para el caso de estado final fijo era
r 1 a2 2 1 2
J0 = 2 2N
rN aN x0 = rN aN x0
2b (1 a ) 2
c
SPH
Captulo 6
Programacin Dinmica
donde el superndice k de f indica que puede variar con el tiempo, encontrar la secuencia de entrada
{u (0) , u (1) , . . . , u (N )}
Denominando
N
X
Ji = F k (xk , uk )
k=i
este costo ser funcin del instante inicial i, del estado inicial x (i), y de la entrada u en el intervalo [i, N ], pero
no depender de estados anteriores.
151
152 Captulo 6. Programacin Dinmica
Aplicando el principio de Bellman, el ptimo Ji para las trayectorias que en el instante i se encuentran en
el estado x (i), depender por tanto nicamente del estado inicial x (i) y del instante inicial i
(N )
X
Ji = min k
F (xk , uk ) = Ji (xi )
u
k=i
Para i = N se cumple:
JN = min F N (xN , uN )
uN
por lo que JNslo depende de N y de xN .
Si suponemos que Ji+1 slo depende de i + 1 y de xi+1 , el principio de optimalidad de Bellman implica:
Ji (xi ) = min F i (xi , ui ) + Ji+1
(xi+1 ) (6.1)
ui
y adems xi+1 slo depende de xi y de ui por lo que al minimizar respecto de ui , el coste ptimo Ji depender
nicamente de xi y de i.
La aplicacin iterativa de 6.1 desde el final hacia atrs permite calcular uk
6.2.1 Ejemplo
Supuesto el sistema
xk+1 = xk + uk
donde uk {1, 0, 1}, transferir el sistema desde el estado inicial x0 = 2 al estado final x4 = 0 minimizando el
ndice de coste
X4
2
J= xk + 2u2k
k=0
x3 = 1 u3 = 1 x4 = 0 J3 (1) = 3
x3 = 0 u3 = 0 x4 = 0 J3 (0) = 0
x3 = 1 u3 = 1 x4 = 0 J3 (1) = 3
x2 = 2 u2 = 1 x3 = 1 J2 (2) = 9
x2 = 1 u2 = 0 x3 = 1
x2 = 1 u2 = 1 x3 = 0 J2 (1) = 3
x2 = 0 u2 = 1 x3 = 1
x2 = 0 u2 = 0 x3 = 0 J2 (0) = 0
x2 = 0 u2 = 1 x3 = 1
c
SPH
6.2. Sistemas discretos 153
x1 = 3 u1 = 1 x2 = 2 J1 (3) = 20
x1 = 2 u1 = 0 x2 = 2
x1 = 2 u1 = 1 x2 = 1 J1 (2) = 9
x1 = 1 u1 = 1 x2 = 2
x1 = 1 u1 = 0 x2 = 1
x1 = 1 u1 = 1 x2 = 0 J1 (1) = 3
x0 = 2 u0 = 1 x1 = 3
x0 = 2 u0 = 0 x1 = 2
x0 = 2 u0 = 1 x1 = 1 J0 (2) = 9
c
SPH
154 Captulo 6. Programacin Dinmica
Los valores que toman el control y el estado en la trayectoria ptima son los indicados en la siguiente tabla
k 0 1 2 3 4
xk 2 1 0 0 0
uk 1 1 0 0 0
Zt1
J (0) = (x (t1 ) , t1 ) + F (t, x (t) , u (t)) dt (6.3)
0
Para discretizar el sistema con un periodo de segundos, podemos utilizar una aproximacin de primer
orden
(x xk )
x (k ) = k+1 (6.4)
para escribir 6.2 como
xk+1 = xk + f (k , xk , uk ) (6.5)
donde xk = x (k ), uk = u (k ). Definiendo
f k (xk , uk ) = xk + f (k , xk , uk ) (6.6)
donde
t1
N= (6.9)
Utilizando una aproximacin de primer orden para cada integral obtenemos
N
X 1
J (0) = (x (t1 ) , t1 ) + F (k , xk , uk ) (6.10)
k=0
c
SPH
6.3. Sistemas Continuos 155
A continuacin, podemos utilizar la programacin dinmica para calcular uk como en la seccin anterior.
El control digital que hay que aplicar al sistema actual est dado por
Para utilizar programacin dinmica, los valores del estado y del control deben primero ser cuantizados, es
decir, restringidos a un conjunto finito de valores admisibles. Cuanto ms fina es la cuantizacin ms preciso
ser el control digital.
se trata de encontrar un control u en el intervalo de tiempo [t0 , t1 ] que minimiza el ndice de costo
Zt1
J = (x (t1 ) , t1 ) + F ( , x ( ) , u ( )) d (6.15)
t0
y que conduce el sistema desde un estado inicial x (t0 ) hasta un estado final y satisfaciendo
(x (t1 ) , t1 ) = 0 (6.16)
Para una funcin dada . Veamos en primer lugar la forma que el principio de optimalidad de Bellman toma
para este problema
Supongamos que t es el instante de tiempo actual y t + t, es un instante de tiempo posterior cercano a t,
entonces el coste hasta x (t1 ) puede escribirse como:
Zt1 Z
t+t
J (t, x) = F ( , x, u) d + J (t + t, x + x) (6.18)
t
donde x + x, es el estado en el instante t + t, cuando se utilizan el estado actual x (t) y el control actual
u (t) en la ecuacin 6.14. Notar que como aproximacin hasta el primer orden
x = f (t, x, u) t (6.19)
La ecuacin 6.18 describe todos los costes posibles para ir desde el estado en el instante t hasta el estado en t1 .
De acuerdo con el principio de optimalidad de Bellman, el nico candidato para J (t, x) son aquellos costes que
son ptimos para llevar el sistema desde t + t hasta t1 . Supongamos que el coste optimal J (t + t, x + x)
es conocido para todos los posibles estados x + x. Supongamos tambin que el control optimal ha sido
determinado en el intervalo [t + t, t1 ] para cada x + x,. Entonces solamente queda por seleccionar el control
actual en el intervalo [t, t + t]. De aqu
t+t
Z
J (t, x) = min F ( , x, u) d + J (t + t, x + x) (6.20)
u( )
t t+t t
c
SPH
156 Captulo 6. Programacin Dinmica
y si hacemos t 0, se obtiene
( T )
J (t, x (t)) J
0= + min F (t, x, u) + f (t, x, u) (6.21)
t u(t) x
conocida como Ecuacin de Hamilton-Jacobi-Bellman (HJB). Se resuelve hacia atrs en el tiempo a partir de
t = t1 , y poniendo t0 = t1 en 6.15, la condicin de contorno es
6.3.3 Ejemplo
Dado el sistema definido por
x0 (t) = u (t)
minimizar el ndice de costo
Zt1
2
J= ax + bu2 d
t0
c
SPH
6.3. Sistemas Continuos 157
Condicin necesaria de mnimo respecto de u (t) para la expresin del segundo miembro es
Caso particular
Si los datos iniciales son:
t0 = 0 x (0) = 0
t1 = 5 x (5) = 1
a=0 b=1
Z5
J= u2 d
0
c
SPH
158 Captulo 6. Programacin Dinmica
x (t) 1
x0 (t) =
t+A
o la equivalente
x0 (t) 1
=
x (t) 1 t+A
cuyas soluciones son de la forma
x (t) = Bt + (AB + 1) (6.31)
siendo B una constante.
Particularizando 6.31 para los valores inicial y final se obtiene
AB + 1 = 0
5B + AB + 1 = 1
c
SPH